Oracle® Fusion Middleware Oracle Exalytics In-Memory Machineインストレーションおよび管理ガイドfor Linux Exalyticsソフトウェア・リリース2.0.0.0 for Exalytics X2-4、X3-4、X4-4およびX5-4 E64857-03 |
|
![]() 前 |
![]() 次 |
この章では、非仮想デプロイメントでのOracle Exalyticsリリース2 (2.0.0.0.el5)へのアップグレードについて説明します。仮想デプロイメントでOracle Exalyticsリリース2にアップグレードする詳細は、第3章「仮想デプロイメントでのOracle Exalyticsリリース2 (2.2.0.0.0.ovs-3.2.9)へのアップグレード」を参照してください。
注意: Oracle Exalytics Release 2は、Oracle Exalyticsリリース1パッチセット5 (Oracle Exalytics Base Image 1.0.0.7)にのみ適用できます。以前のパッチセットを使用している場合は、Oracle Exalyticsリリース2にアップグレードする前に、Oracle Exalyticsリリース1パッチセット5 (Oracle Exalytics Base Image 1.0.0.7)にアップグレードする必要があります。 |
この章では、次の項目について説明します。
第2.2項「非仮想デプロイメントでのOracle Exalyticsリリース2 (Base Image 2.0.0.0.el5)へのアップグレードのガイドライン」
第2.3項「Oracle Exalyticsリリース2 (Base Image 2.0.0.0.el5)へのアップグレード」
非仮想デプロイメントのX2-4、X3-4、X4-4およびX5-4 Exalytics Machines用のOracle Exalyticsリリース2には、次のシステム・ソフトウェア・コンポーネントが含まれます。
Linux 5 x86-64用Exalytics Base Image (2.0.0.0.el5)
Linux 6 x86-64用Exalytics Base Image (2.0.0.0.el6)
Oracle Business Intelligence、Oracle Enterprise Performance Management、Oracle TimesTen for Exalytics、Oracle Database In-MemoryおよびOracle Endecaの各ソフトウェア・リリースは、Exalyticsリリース2に対して動作保証されています。これらのソフトウェア更新には、Exalytics専用に構築された新機能が含まれる場合があります。動作保証された最新バージョンのExalyticsでアプリケーション・ソフトウェア・スタックを更新することをお薦めします。
システム・コンポーネントおよびサポートされているアプリケーション製品コンポーネントの詳細は、次のリンク先にあるOracle Exalytics動作保証マトリクスを参照してください。
http://www.oracle.com/technetwork/middleware/ias/downloads/fusion-certification-100350.html
Oracle Exalyticsリリース2にアップグレードする前に、次のガイドラインを確認します。
現在Oracle Exalyticsリリース1パッチセット5 (Oracle Exalytics Base Image 1.0.0.7)を使用していることを確認してください。
Linux 5オペレーティング・システムにインストールされたBase Imageは、Linux 6オペレーティング・システムにインストールされたBase Imageにアップグレードできません。たとえば、Linux 5オペレーティング・システムにインストールされたOracle Exalytics Base Image x86-64 (1.0.0.7)を、Linux 6オペレーティング・システムにインストールされたExalytics Base Image x86-64 (2.0.0.0.el6)にアップグレードすることはできません。Linux 6用Exalytics Base Image (2.0.0.0.el6)をインストールするには、Linux 6 Base Imageをダウンロードして構成することによりサーバーを再イメージ化する必要があります。第4章「Exalytics MachineでのOracle Exalyticsリリース2の非仮想Base Imageのインストールおよび構成」を参照してください。
アップグレードする前に、現在のインストール、構成ファイルおよびユーザー固有のすべてのアーティファクトをバックアップし、適用可能なすべてのサービスを停止していることを確認します。
Exalytics MachineにOracle Enterprise Performance Managementコンポーネントをインストールしている場合は、アップグレードする前に、すべてのEnterprise Performance Managementサービスを停止します。また、アップグレードした後は、すべてのサービスを確実に起動してください。詳細は、次のリンク先の『Oracle Enterprise Performance Management Systemインストレーションおよび構成ガイド、リリース11.1.2.3』の第12章「EPM System製品の起動と停止」を参照してください。
http://docs.oracle.com/cd/E40248_01/epm.1112/epm_install.pdf
Oracle Exalyticsリリース1パッチセット5からアップグレードする場合は、nqcmdユーティリティを使用してOracle TimesTenの集計を削除してください。詳細は、『Oracle Fusion Middleware Oracle Business Intelligence Enterprise Editionメタデータ・リポジトリ作成者ガイド』のOracle BIサーバーの問合せ用の集計の作成と維持に関する項を参照してください。
最新情報は、『Oracle Exalytics In-Memory Machine for Linuxリリース・ノート』を参照してください。
この項は次のトピックで構成されています:
第2.3.2項「非仮想デプロイメントでのOracle Exalyticsリリース2 (Base Image 2.0.0.0.el5)へのアップグレード」
第2.3.3項「Oracle Business Intelligenceソフトウェアのアップグレードまたはパッチ適用のためのインストール後の手順」
Oracle Exalyticsリリース2は、システム・コンポーネントに適用される更新で構成されており、これらは表2-1に示されています。
表2-1 システム・コンポーネントとOracle Exalyticsリリース2でサポートされるバージョン
システム・コンポーネント | リリース2のバージョン | カーネル・バージョン |
---|---|---|
Linux 5用Oracle Exalytics Base Image |
2.0.0.0.el5 |
2.6.39-400.248.3.el5uek x86_64 |
Linux 6用Oracle Exalytics Base Image |
2.0.0.0.el6 |
2.6.39-400.248.3.el6uek x86_64 |
サポートされるアプリケーション・ソフトウェア・コンポーネントの最新情報は、次のリンク先にあるOracle Exalytics動作保証マトリクスを参照してください。
http://www.oracle.com/technetwork/middleware/ias/downloads/fusion-certification-100350.html
この項には次のトピックが含まれます:
このアップグレードは、現在Oracle Exalyticsリリース1パッチセット5 (Oracle Exalytics Base Image 1.0.0.7)を使用しているすべてのOracle Exalyticsユーザーが利用できます。
注意: Oracle Exalyticsリリース1パッチセット5より以前のリリースを使用している場合は、Oracle Exalyticsリリース2にアップグレードする前に、Oracle Exalyticsリリース1パッチセット5 (Base Image 1.0.0.7)にアップグレードする必要があります。Oracle Exalyticsリリース1パッチセット5の適用の詳細は、次のリンク先にある『Oracle Fusion Middleware Oracle Exalytics In-Memory Machineインストレーションおよび管理ガイド』の第2章「パッチ適用」を参照してください。 |
Oracle Exalyticsリリース1パッチセット5からOracle Exalyticsリリース2にアップグレードするには、次の手順を実行します。
手順1: Oracle Exalytics Base Imageリリース2アップグレード・スクリプトの実行
アップグレード・スクリプトを実行して、Oracle Exalytics Base Imageを2.0.0.0.el5にアップグレードします
注意: Oracle Exalyticsリリース1パッチセット5 (Base Image 1.0.0.7)からOracle Exalyticsリリース2にアップグレードする場合、スクリプトによって、既存のインストールに影響を及ぼすことなく新しいrpmがインストールされます。 |
Oracle Exalytics Base Image 2.0.0.0.el5アップグレード・スクリプトを実行するには:
すべてのOracle Business Intelligence、Oracle TimesTenおよび(インストールされている場合は)Enterprise Performance Managementサービスを停止してバックアップします。
Oracle Business Intelligenceの停止方法の詳細は、『Oracle Fusion Middleware Oracle Business Intelligence Enterprise Editionシステム管理者ガイド』のOracle Business Intelligenceの起動と停止に関する項を参照してください。
Oracle TimesTenサービスの開始および停止方法の詳細は、『Oracle® TimesTen In-Memory Databaseオペレーション・ガイド』のTimesTenデータ・マネージャ・デーモンの操作に関する項を参照してください。
Enterprise Performance Managementサービスの開始および停止方法の詳細は、次のリンク先の『Oracle Enterprise Performance Management Systemインストレーションおよび構成ガイド、リリース11.1.2.3』の第12章「EPM System製品の起動と停止」を参照してください。
http://docs.oracle.com/cd/E40248_01/epm.1112/epm_install.pdf
My Oracle Supportに移動し、パッチ番号20506584 (Linux x86-64用のExalytics Base Image 2.0.0.0.el5のパッチセット・アップグレード・ユーティリティ)をダウンロードします。パッチには、p20506584_20000_Linux-x86-64.zipファイルが含まれます。
ファイルを一時(/tmp)ディレクトリに解凍します。
ディレクトリ20506584/21100117に移動します。
zipファイルには、nodeupdate.shスクリプトが含まれています。
Exalytics Machine用のパッチを検証するには、次のコマンドを入力します。
# ./nodeupdate.sh -v
パッチを適用してOracle Exalytics Base Imageをアップグレードするには、次のコマンドを入力します。
# ./nodeupdate.sh -a
パッチが正常に適用されたら、Oracle Integrated Lights Out Manager (ILOM)を使用して、Exalytics Machineを再起動します。
オプション: /var/log/exalytics/update-2.0.0.0.logと/var/log/exalytics/exalytics.logのログ・ファイルを表示します。
Oracle Business Intelligence、Oracle TimesTenおよびEnterprise Performance Managementサービスを再起動します。
Base Imageを確認するには、rootユーザーとして次のコマンドを入力します。
# /opt/exalytics/bin/exalytics_imageinfo
出力は、次のようになります。
Image version : 2.0.0.0_el5
Creation timestamp : Day Date Month YEAR HOUR:MIN:SEC
Kernel version : 2.6.39-400.248.3.el5uek
RPM versions:
kernel-uek-2.6.39-400.248.3.el5uek
kernel-2.6.18-404.0.0.0.1.el5
exalytics-container-bm-2.0.0.0-2_el5
exalytics-scripts-2.0.0.0-9_el5
exalytics-flash-2.0.0.0-2_el5
exalytics-domain-configure-2.0.0.0-4_el5
exalytics-deps-exact-2.0.0.0-2_el5
exalytics-deps-minimum-2.0.0.0-2_el5
注意: ビルド番号が、ここに示したものとは異なる場合がありますが、更新されたカーネル・バージョンがここに示されているものと同じであることを確認してください。 |
手順2: (オプション) ASRの構成
ASRを構成するには:
新しいマシンでOracle Exalyticsリリース2にアップグレードした場合は、ASRを次のように構成します。
Oracle Exalytics In-Memory Machineオーナーズ・ガイドのAuto Service Request (ASR)のインストールに関する項で説明されている手順に従いますが、次の手順は変更してください。
第9.3項「始める前に」の手順5を次の手順に置き換えます。
/opt/exalytics/asrディレクトリに移動して、/etc/inittabファイルに次の行を追加します。
emh1:345:respawn:/opt/exalytics/asr/bda_mon_hw_asr.pl -server
コマンド行で、次のコマンドを入力し、bda_monサーバーを初期化して起動します。
init q
第9.7項「テレメトリ・ソースの構成」の手順2のコマンドを次のコマンドに置き換えます。
# cd /opt/exalytics/asr
# ./setup_asr_ilom.pl -host <hostname OR ip>
Oracle Exalyticsリリース1パッチセット5からOracle Exalyticsリリース2にアップグレードし、ASRが構成済の場合は、次の手順を実行しASRが動作中であることを確認します。
ps -ef | grep bda
コマンドを実行して、bda_mon_hw_asr_plが動作していることを確認します。
詳細は、『Oracle Exalytics In-Memory Machineオーナーズ・ガイド』のAuto Service Requestソフトウェアのインストールに関する項を参照してください。
手順3: (オプション) Enterprise Manager Cloud Control DiscoveryのExalyticsホストの構成
Enterprise Manager Cloud Control DiscoveryのExalyticsホストを構成するには:
Enterprise Manager Cloud Control (EMCC)がデプロイされている新しいマシンにOracle Exalyticsリリース2をインストールした場合は、次の手順を実行して、Exalyticsホストを特定するようにEMCCを構成します。
次の手順を実行して、Exalytics MachineにSPシステム識別子が設定されていることを確認します。
Oracle Integrated Lights Out Manager (ILOM)にログオンします。
「システム情報」を開きます。
「サマリー」を選択します。
SPシステム識別子が表示されていることを確認します。
ILOMにログオンし、ILOMの左側のペインでILOM管理を開いて、「ID」を選択します。SPシステム識別子の値に、Oracle Exalytics AK00026925などの一意の値が入力されていることを確認します。
Exalytics Machineにログオンします。
コマンドchmod +x exalytics_configure_for_emcc.sh
を実行して、実行権限を付与します。
次のコマンドをrootユーザーとして実行し、ファイルを作成します。
./exalytics_configure_for_emcc.sh
出力を確認し、/var/exalytics/info/em-context.infoファイルのコンテンツにOracle Exalytics Machineのシステム識別子が正しく表示されていることを確認します。システム識別子は、この手順(b)で確認したシステム識別子と同一である必要があります。
Enterprise Manager Cloud Control (EMCC)がデプロイされているOracle Exalyticsリリース1パッチセット5からOracle Exalyticsリリース2にアップグレードした場合は、次の手順を実行し、EMCCによってExalyticsホストが特定されることを確認します。
/var/exalytics/info/em-context.infoファイルのコンテンツを確認し、そのコンテンツにOracle Exalytics Machineのシステム識別子が正しく表示されていることを確認します。
システム識別子は、前述の手順(a)で確認した、Oracle Integrated Lights Out Manager (ILOM)に表示されるシステム識別子と同一である必要があります。
使用しているデプロイメントに応じて、このリリースに対して新規に動作保証されたアプリケーション・ソフトウェア・コンポーネントのアップグレードまたはパッチ適用を実行します。
注意: この項は、すでにアプリケーション・ソフトウェア・コンポーネントを実行している既存のExalyticsユーザーを対象としています。新規Exalyticsユーザーは、第6章「Exalytics Machineへのソフトウェアのインストール」に進んでください。 |
アプリケーション・ソフトウェア・コンポーネントのアップグレードまたはパッチ適用を実行する前に、インストールしようとしているものが、最新バージョンのExalytics動作保証済アプリケーション・ソフトウェアであることを確認してください。最新の動作保証については、Oracle Exalytics動作保証マトリクスを参照してください。Oracle Exalytics動作保証マトリクスは、次のリンク先にあります。
http://www.oracle.com/technetwork/middleware/ias/downloads/fusion-certification-100350.html
この項には次のトピックが含まれます:
Oracle BI EE 11.1.1.7.xまたは11.1.1.9.0のダウンロードとインストール
最新のOracle BI EE 11.1.1.7.xパッチセットをOracle BI EE 11.1.1.7.0インストールに適用するには、Oracle BI EE 11.1.1.7.150120パッチセットの最上位のパッチのREADMEファイルに記載された手順を参照してください。
Oracle BI EE 11.1.1.7.xインストールをOracle BI EE 11.1.1.9.0にアップグレードするには、『Oracle Fusion Middlewareパッチ適用ガイド』の第3章「Oracle Fusion Middlewareの最新パッチ・セットの適用」を参照してください。
注意: 初めてOracle Exalyticsをインストールする場合は、Oracle BI EE 11.1.1.9.0をインストールできます。詳細は、第6章「Exalytics Machineへのソフトウェアのインストール」を参照してください。また、『Oracle Fusion Middleware Oracle Business Intelligenceインストレーション・ガイド』も参照してください。 |
Oracle BI EE 11.1.1.6.xインストールを実行している場合は、Oracle BI EE 11.1.1.7.0にアップグレードする必要があります。Oracle Fusion Middleware Oracle Business Intelligenceのアップグレード・ガイドを参照してください。
注意: Oracle BI EE 11.1.1.6.xインストールのインストールまたは管理にExalytics Domain Management Utilityは使用できません。まず、Oracle BI EE 11.1.1.6.xインストールをOracle BI EE 11.1.1.7.0にアップグレードしてから、Exalytics Domain Management Utilityを使用して、このインストールを既存のプライマリ・ドメインとして登録します。 |
Oracle TimesTenのダウンロードとインストール
Oracle TimesTenをダウンロードしてインストールする前に、最新バージョンのExalytics動作保証済Oracle TimesTenバージョンをインストールしていることを確認してください。最新の動作保証については、Oracle Exalytics動作保証マトリクスを参照してください。Oracle Exalytics動作保証マトリクスは、次のリンク先にあります。
http://www.oracle.com/technetwork/middleware/ias/downloads/fusion-certification-100350.html
Oracle TimesTenをダウンロードしてインストールするには:
My Oracle Supportに移動します。
最新バージョンのExalytics動作保証済Oracle TimesTenを検索してダウンロードします。
注意: 初めてOracle Exalyticsをインストールする場合は、以前のOracle TimesTenバージョンにパッチを適用するかわりに、動作保証された最新バージョンのOracle TimesTenをインストールできます。 |
Oracle TimesTenのインストール時に、「このインスタンスをアップグレードしますか。」という質問が表示された場合は「はい」と答えます。
また、既存のファイルは削除しないようにしてください。たとえば、インストール時に、次のような質問が表示された場合は「いいえ」と答えます。
<installation_directory>/TimesTen/tt1122/network/admin/samples内のファイルもすべて削除しますか。
既存のcluster.oracle.iniファイルを置き換えますか。
既存の<installation_directory>/TimesTen/tt1122/info/sys.odbc.iniファイルを置き換えますか。
<installation_directory>/TimesTen/tt1122/info内のファイルもすべて削除しますか。
詳細は、『Oracle TimesTen In-Memory Databaseインストレーション・ガイド』のインプレース・データベース・アップグレードの実行に関する項およびオフライン・アップグレードの実行に関する項を参照してください。
注意: 必要に応じて、Oracle Exalytics用のOracle Database In-Memoryをインストールできます。Oracle Exalytics用のOracle Database In-Memoryをインストールする手順は、第6.8項「Oracle Exalytics用のOracle Database In-Memoryのインストール」を参照してください。 |
Oracle BI Applicationsのダウンロードとインストール
Oracle BI Applicationsをデプロイする場合は、Oracle BI Applicationsをインストールします。詳細は、第6.5項「Exalytics MachineでのOracle BI Applicationsのインストールおよび構成」を参照してください。
動作保証された最新バージョンのExalyticsのOracle BI Applicationsがインストールされていることを確認するには、次のリンク先のOracle Exalytics動作保証マトリクスを参照してください。Oracle Exalytics動作保証マトリクスは、次のリンク先にあります。
http://www.oracle.com/technetwork/middleware/ias/downloads/fusion-certification-100350.html
Oracle Endecaのダウンロードとインストール
Oracle Endecaをインストールするには、Oracle Exalyticsドキュメント・ライブラリから利用可能なOracle Endeca Information Discoveryのドキュメントを参照してください。
動作保証された最新バージョンのExalyticsのOracle Endecaがインストールされていることを確認するには、次のリンク先のOracle Exalytics動作保証マトリクスを参照してください。Oracle Exalytics動作保証マトリクスは、次のリンク先にあります。
http://www.oracle.com/technetwork/middleware/ias/downloads/fusion-certification-100350.html
注意: この項は、Oracle Business Intelligenceソフトウェアにアップグレードまたはパッチ適用を実行しようとしている既存のユーザーを対象としています。新規ユーザーは、第6章「Exalytics Machineへのソフトウェアのインストール」に進んでください。 |
Oracle Business Intelligence Enterprise EditionとOracle TimesTenのデータ型マッピングやその他の最適化に整合性があり、それらを活用できるようにするには、次のOracle Exalyticsコンポーネントのインストール後の手順を実行する必要があります。
この項には次のトピックが含まれます:
Oracle Business Intelligence Enterprise EditionがOracle TimesTenのチェックポイント頻度を設定するようにするには、Oracle TimesTen In-Memory Databaseをアップグレードした後に次の構成手順を実行します。この構成を実行しなかった場合は、Oracle TimesTenのパフォーマンスに悪影響を及ぼす可能性があります。
Oracle TimesTenのチェックポイント頻度を構成するには:
timesten-install-dir/info/sys.odbc.iniファイルを開きます。
集計の永続性に使用されるスキーマのDSNエントリを検索します。
次のいずれかを実行します。
Oracle TimesTenデータベースに集計の永続性を使用してデータをロードする場合は、次のように3つのパラメータを編集します。
CkptFrequency=-1
CkptLogVolume=0
CkptRate=0
Oracle TimesTenデータベースに集計の永続性を使用しないでデータをロードする場合は、別のサーバーDSNを使用してから、次のように3つのパラメータを編集します。
CkptFrequency=30
CkptLogVolume=0
CkptRate=0
Oracle TimesTenでその他のインストール後の手順を実行するには:
Oracle TimesTenの既存のデータストアを再作成します。
Oracle Exalyticsリリース1パッチセット5にOracle Exalyticsリリース2をインストールする場合は、nqcmdユーティリティを使用して集計を再構築します。詳細は、『Oracle Fusion Middleware Oracle Business Intelligence Enterprise Editionメタデータ・リポジトリ作成者ガイド』のOracle BIサーバーの問合せ用の集計の作成と維持に関する項を参照してください。
この項には次のトピックが含まれます:
集計を高速化し、パフォーマンスを向上させるために、opmn.xmlファイルを編集して適切な要素を追加することをお薦めします。可用性の高い、クラスタ化された環境で構成された各Exalytics Machine上でopmn.xmlファイルを編集するようにしてください。
opmn.xmlファイルを編集して集計とパフォーマンスを向上させるには:
opmn.xmlファイル(MW_HOME/instances/instance1/config/OPMN/opmnに配置されている)を開きます。
次の子要素を<ias-component id="coreapplication_obis1" inherit-environment="true"><environment>
の下に挿入します。
<variable id="ORACLE_BI_TT_DISABLE_REDO_LOGGING" value="1"/>
これにより、集計が高速化されます。
<variable id="ORACLE_BI_TT_PARALLEL_INDEX_CREATION" value="1"/>
インデックスをパラレルに作成することで、集計を高速化します。
<variable id="ORACLE_BI_TT_BACKGROUND_CHECKPOINT_INTERVAL" value="6"/>
このBIサーバーによって管理されるパラメータによって、Oracle TimesTenのデータストアがディスクに格納される頻度(データストアの永続性)が決定されます。デフォルト値は10秒ごとです。値の数値が小さくなるほど、Oracle TimesTenではデータストアがディスクに格納される頻度が高くなります。
通知サーバーを停止してから起動します。
OPMNコマンド行ツールを含む次のディレクトリに移動します。
MW_HOME/instances/instance1/bin
次のコマンドを入力します。
./opmnctl stopall
OPMNおよびすべてのOracle Business Intelligenceシステム・コンポーネントが停止します。
次のコマンドを入力します。
./opmnctl startall
OPMNおよびすべてのOracle Business Intelligenceシステム・コンポーネントを起動します。
Oracle Business Intelligenceクライアント・ツールのインストールの詳細は、『Oracle Fusion Middleware Oracle Business Intelligenceインストレーション・ガイド』のOracle Business Intelligenceクライアント・ツールのインストールおよびアンインストールに関する項を参照してください。
アップグレード終了後に問題が発生する場合、すべてのOracle Exalyticsコンポーネントのパッチをロールバックすることをお薦めします。1つまたは2つのコンポーネント・パッチを個々にロールバックしないでください。ロールバックの手順は、個々のコンポーネントのREADMEファイルに記載されています。
アップグレードを適用している際に問題が発生した場合は、Oracleサポートにご連絡ください。
この項には次のトピックが含まれます:
各コンポーネントのライセンスは、Oracle Linuxプログラムとともに配布されるドキュメントやhttp://oss.oracle.com/linux/legal/oracle-list.html
からオンラインでアクセス可能なドキュメント、あるいはコンポーネントのソース・コードにあります。
バイナリのソース・コードの入手権限を付与するオープン・ソース・ライセンス下で認可されているバイナリ形式の技術の場合は、次のサイトで該当するソース・コードのコピーを入手できます。
https://edelivery.oracle.com/linux
このような技術のソース・コードがバイナリとともに提供されていない場合は、文書によるリクエストを次に送付すると、物理媒体でソース・コードのコピーを入手することもできます。
Oracle America, Inc.
Attn: Oracle Linux Source Code Requests
Development and Engineering Legal
500 Oracle Parkway, 10th Floor
Redwood Shores, CA 94065
リクエストには、次の情報を記入してください。
ソース・コードを要求するコンポーネントまたはバイナリ・ファイルの名前
Oracleソフトウェアの名前とバージョン番号
Oracleソフトウェアを入手した日付
名前
会社名(該当する場合)
郵送先住所と電子メール
連絡が必要な場合の電話番号
物理媒体と手続きの費用は無料です。リクエストを送付できるのは、(i)リクエスト対象のコンポーネントまたはバイナリ・ファイルを含む技術を入手した日から3年以内、または(ii) GPL v3の下でコードが認可されている場合(ただし、オラクル社がそのソフトウェア・モデルのスペア・パーツまたはカスタマ・サポートを提供している場合に限る)です。
Exalytics MachineでFlashを構成する前に、次の前提条件を満たす必要があります。
Exalytics Base Image 2.0.0.0.el5または2.0.0.0.el6を実行している。
Oracleフィールド・サービス・エンジニアによって6枚のFlashカードが(X2-4またはX3-4 Exalytics Machine上で)インストールおよび構成されているか、3枚のFlashカードが(X4-4またはX5-4 Exalytics Machine上で)インストールおよび構成されていること。
Oracle Exalyticsリリース2にアップグレードする場合、FlashドライバはExalytics Base Image 2.0.0.0.el5または2.0.0.0.el6に含まれています。Exalytics Machineのパフォーマンスと記憶域容量を向上させるには、Flashを構成する必要があります。
注意: インストールされたFlashドライバでは、ソフトウェアRAIDが使用されます。 |
Oracleでは、2つのタイプのRAID構成がサポートされます。
RAID10: 通常はミラーのストライプと呼ばれ、最も一般的なRAID構成です。RAID10によって、データがドライブ間で複製およびストライピングされるため、いずれかのドライブに障害が発生した場合にデータが失われることがなくなります。これは、データ・ストレージ容量より信頼性の方が重要な場合に役立ちます。
RAID05: RAID05では、すべてのドライブが単一のドライブとして機能するよう結合されます。データは、独立した読取り操作および書込み操作によってディスクに転送されます。RAID05アレイには少なくとも3つのディスクが必要です。
この項は次のトピックで構成されています:
注意: この項は、新しいFlashを構成するか、既存のFlash構成を再構成するユーザーを対象としています。既存のFlash構成を再構成しない場合は、この項はスキップしてください。Flashを再構成するとFlashカード上の既存のデータがすべて削除されることに注意してください。 |
X2-4およびX3-4 Exalytics Machineは、6枚のFlashカードを使用して構成されます。各Flashカードには、4つの100GBドライブが含まれています。
要件に応じて、次の組合せでFlashを構成できます。
RAID10
注意: X2-4またはX3-4 Exalytics MachineでRAID05を構成しないことをお薦めします。 |
EXT3またはEXT4ファイル・システム
注意: EXT4ファイル・システムでFlashを構成することをお薦めします。 |
Flashを構成するには:
ILOMを使用してExalytics Machineを再起動します。
ILOM Webベースのインタフェースにログオンします。
ILOMの左側のペインで、ホスト管理を開いて、電源制御をクリックします。「アクションの選択」リストで、電源サイクルを選択し、「保存」をクリックします。
Exalytics Machineが再起動します。
次のコマンドをrootユーザーとして入力します。
# /opt/exalytics/bin/configure_flash.sh --
<RAID_TYPE> --<FS_TYPE>
例:
RAID10構成でFlashを構成するには、次のコマンドを入力します。
# /opt/exalytics/bin/configure_flash.sh --RAID10 --EXT4
注意: 次の手順は、RAID10構成でFlashを構成することを前提としています。 |
ソフトウェアRAIDのみに適用される次の警告が表示されます: Flash構成スクリプトにより既存のRAIDアレイとFlashドライブ上のパーティションが削除され、これらのFlashドライブすべてに新しいRAIDアレイが作成されますこれにより、これらのドライブからすべてのデータが失われます。このFlash構成スクリプトを続行しますか(はい/いいえ)
プロンプトで「はい」と入力して、スクリプトの実行を続けます。
このスクリプトは、次のタスクを実行します。
Flashカード上の既存のRAID構成をすべて消去します。
RAIDの2つの部分が異なるカードに属するように複数のRAID1ディスクを分散します。
すべてのFlash RAID1ドライブを単一のRAID0にストライピングします。
Flashが正常に構成されたことを確認するには、次のコマンドを入力します。
# df -h
出力は次のようになります。
Filesystem Size Used Avail Use% Mounted on /dev/mapper/VolGroup00-LogVol00 718G 4.4G 677G 1% //dev/sda1 99M 15M 79M 16% /boottmpfs 1010G 0 1010G 0% /dev/shm/dev/md0 1.1T 199M 1.1T 1% /u02
Flashは、図2-1のように構成されます。
各Flashカード(F1、F2、F3など)には、4つの100GBドライブがあります。各ドライブは、/dev/sdg、/dev/sdh、/dev/sdi、/dev/sdjなどのデバイスにマップされます。
2つのFlashドライブがRAID1 /dev/md1上で構成され、2つのFlashドライブがRAID1 /dev/md2上で構成され、2つのFlashドライブがRAID1 /dev/md3上で構成されるというように続き、合計で12のRAID1になります。
12のRAID1は、親のRAID0 /dev/md0上に構成されます。
図2-1 X2-4およびX3-4 Exalytics Machine用のRAID10でのFlash構成
Flashカードの状態を確認するには、次のコマンドを入力します。
# /opt/exalytics/bin/exalytics_CheckFlash.sh
6枚すべてのFlashカードの出力は次のようになります。
Fetching some info on installed flash drives .... Driver version : 01.250.41.04 (2012.06.04) Supported number of flash drives detected (6) Flash card 1 : Overall health status : GOOD Size (in MB) : 381468 Capacity (in bytes) : 400000000000 Firmware Version : 108.05.00.00 Devices: /dev/sdd /dev/sdc /dev/sdf /dev/sde Flash card 2 : Overall health status : GOOD Size (in MB) : 381468 Capacity (in bytes) : 400000000000 Firmware Version : 108.05.00.00 Devices: /dev/sdg /dev/sdj /dev/sdi /dev/sdh Flash card 3 : Overall health status : GOOD Size (in MB) : 381468 Capacity (in bytes) : 400000000000 Firmware Version : 108.05.00.00 Devices: /dev/sdm /dev/sdk /dev/sdn /dev/sdl Flash card 4 : Overall health status : GOOD Size (in MB) : 381468 Capacity (in bytes) : 400000000000 Firmware Version : 108.05.00.00 Devices: /dev/sdp /dev/sdo /dev/sdq /dev/sdr Flash card 5 : Overall health status : GOOD Size (in MB) : 381468 Capacity (in bytes) : 400000000000 Firmware Version : 108.05.00.00 Devices: /dev/sdu /dev/sdt /dev/sdv /dev/sds Flash card 6 : Overall health status : GOOD Size (in MB) : 381468 Capacity (in bytes) : 400000000000 Firmware Version : 108.05.00.00 Devices: /dev/sdx /dev/sdw /dev/sdy /dev/sdz
X4-4 Exalytics Machineは、3枚のFlashカードを使用して構成されます。各Flashカードには、4つの200GBドライブが含まれています。
要件に応じて、次の組合せでFlashを構成できます。
RAID10またはRAID05
EXT3またはEXT4ファイル・システム
注意: EXT4ファイル・システムでFlashを構成することをお薦めします。 |
Flashを構成するには:
ILOMを使用してExalytics Machineを再起動します。
ILOM Webベースのインタフェースにログオンします。
ILOMの左側のペインで、ホスト管理を開いて、電源制御をクリックします。「アクションの選択」リストで、電源サイクルを選択し、「保存」をクリックします。
Exalytics Machineが再起動します。
次のコマンドをrootユーザーとして入力します。
# /opt/exalytics/bin/configure_flash.sh
--<RAID_TYPE> --<FS_TYPE>
例:
RAID10構成でFlashを構成するには、次のコマンドを入力します。
# /opt/exalytics/bin/configure_flash.sh --RAID10 --EXT4
RAID05構成でFlashを構成するには、次のコマンドを入力します。
# /opt/exalytics/bin/configure_flash.sh --RAID05 --EXT4
RAID05構成でのFlashは、図2-3のように構成されます。
注意: 次の手順は、X4-4 Exalytics Machine上のRAID10構成でFlashを構成することを前提としています。 |
ソフトウェアRAIDのみに適用される次の警告が表示されます: Flash構成スクリプトにより既存のRAIDアレイとFlashドライブ上のパーティションが削除され、これらのFlashドライブすべてに新しいRAIDアレイが作成されますこれにより、これらのドライブからすべてのデータが失われます。このFlash構成スクリプトを続行しますか(はい/いいえ)
プロンプトで「はい」と入力して、スクリプトの実行を続けます。
このスクリプトは、次のタスクを実行します。
Flashカード上の既存のRAID構成をすべて消去します。
RAIDの2つの部分が異なるカードに属するように複数のRAID1ディスクを分散します。
すべてのFlash RAID1ドライブを単一のRAID0にストライピングします。
Flashが正常に構成されたことを確認するには、次のコマンドを入力します。
# df -h
出力は次のようになります。
Filesystem Size Used Avail Use% Mounted on/dev/mapper/VolGroup00-LogVol00 989G 23G 915G 3% //dev/mapper/VolGroup01-LogVol00 3.2T 13G 3.0T 1% /u01/dev/sda1 99M 25M 70M 27% /boottmpfs 1010G 0 1010G 0% /dev/shm/dev/md0 1.1T 199M 1.1T 1% /u02
Flashは、図2-2のように構成されます。
各Flashカード(F1、F2およびF3)には、4つの200GBドライブがあります。各ドライブは、/dev/sdg、/dev/sdh、/dev/sdi、/dev/sdjなどのデバイスにマップされます。
2つのFlashドライブがRAID1 /dev/md1上で構成され、2つのFlashドライブがRAID1 /dev/md2上で構成され、2つのFlashドライブがRAID1 /dev/md3上で構成されるというように続き、合計で6つのRAID1になります。
6つのRAID1は、親のRAID0 /dev/md0上に構成されます。
Flashカードの状態を確認するには、次のコマンドを入力します。
# /opt/exalytics/bin/exalytics_CheckFlash.sh
3つのFlashカードすべての出力は、次のようになります。
Checking Exalytics Flash Drive Status Fetching some info on installed flash drives .... Driver version : 01.250.41.04 (2012.06.04) Supported number of flash drives detected (3) Flash card 1 : Overall health status : GOOD Size (in MB) : 762936 Capacity (in bytes) : 800000000000 Firmware Version : 109.05.26.00 Devices: /dev/sdc /dev/sdd /dev/sde /dev/sdf Flash card 2 : Overall health status : GOOD Size (in MB) : 762936 Capacity (in bytes) : 800000000000 Firmware Version : 109.05.26.00 Devices: /dev/sdj /dev/sdh /dev/sdg /dev/sdi Flash card 3 : Overall health status : GOOD Size (in MB) : 762936 Capacity (in bytes) : 800000000000 Firmware Version : 109.05.26.00 Devices: /dev/sdl /dev/sdm /dev/sdk /dev/sdn Summary: Healthy flash drives : 3 Broken flash drives : 0 Pass : Flash card health check passed
RAID05でも同様にFlashを構成できます。RAID05でのFlashは、図2-3のように構成されます。
X5-4 Exalytics Machineは、3枚のFlashカードを使用して構成されます。各Flashカードには、4つの400GBドライブが含まれています。
要件に応じて、次の組合せでFlashを構成できます。
RAID10またはRAID05
EXT3またはEXT4ファイル・システム
注意: EXT4ファイル・システムでFlashを構成することをお薦めします。 |
Flashを構成するには:
My Oracle Supportに移動し、パッチ番号21258871 (ベアメタルBase Image 2.0.0.0用のExalytics X5-4パッチ)をダウンロードして適用します。
次のコマンドをrootユーザーとして入力します。
# /opt/exalytics/bin/configure_flash.sh
--<RAID_TYPE> --<FS_TYPE>
例:
RAID10構成でFlashを構成するには、次のコマンドを入力します。
# /opt/exalytics/bin/configure_flash.sh --RAID10 --EXT4
RAID05構成でFlashを構成するには、次のコマンドを入力します。
# /opt/exalytics/bin/configure_flash.sh --RAID05 --EXT4
注意: 次の手順は、X5-4 Exalytics Machine上のRAID05構成でFlashを構成することを前提としています。 |
ソフトウェアRAIDのみに適用される次の警告が表示されます: Flash構成スクリプトにより既存のRAIDアレイとFlashドライブ上のパーティションが削除され、これらのFlashドライブすべてに新しいRAIDアレイが作成されますこれにより、これらのドライブからすべてのデータが失われます。このFlash構成スクリプトを続行しますか(はい/いいえ)
プロンプトで「はい」と入力して、スクリプトの実行を続けます。
このスクリプトは、次のタスクを実行します。
Flashカード上の既存のRAID構成をすべて消去します。
3枚のFlashカード上でRAID05を構成します。
Flashが正常に構成されたことを確認するには、次のコマンドを入力します。
# df -h
Flashは次のように構成されます。
各Flashカード(F1、F2およびF3)には、4つの400GBドライブがあります。各ドライブは、/dev/nvme0n1p1、/dev/nvme0n1p3、/dev/nvme0n1p2、/dev/nvme0n1p4などのデバイスにマップされます。
4つのFlashドライブがRAID05 /dev/md1上で構成され、4つのFlashドライブがRAID05 /dev/md2上で構成され、4つのFlashドライブがRAID5 /dev/md3上で構成され、合計で3つのRAID5になります。
3つのRAID5は、親のRAID0 /dev/md0上に構成されます。
Flashカードの状態を確認するには、次のコマンドを入力します。
# /opt/exalytics/bin/exalytics_CheckFlash.sh
3つのFlashカードすべての出力は、次のようになります。
Checking Exalytics Flash Drive Status cardindex=0 cIndex=0 cIndex=0 allFlashCardDevices= Driver version : 01.250.41.04 (2012.06.04) Supported number of flash drives detected (3) Flash card 1 : Slot number: 0 Overall health status : GOOD Capacity (in bytes) : 3125627568 Firmware Version : SUNW-NVME-1 PCI Vendor ID: 8086 Serial Number: CVMD4215000N1P6DGN Model Number: INTEL SSDPEDME016T4 Firmware Revision: 8DV10054 Number of Name cardindex=1 cIndex=1 cIndex=1 allFlashCardDevices=nvme0n1p1 Devices: /dev/nvme0n1p1 /dev/nvme0n1p3 /dev/nvme0n1p2 /dev/nvme0n1p4 Flash card 2 : Slot number: 0 Overall health status : GOOD Capacity (in bytes) : 3125627568 Firmware Version : SUNW-NVME-2 PCI Vendor ID: 8086 Serial Number: CVMD421500301P6DGN Model Number: INTEL SSDPEDME016T4 Firmware Revision: 8DV10054 Number of Name cardindex=2 cIndex=2 cIndex=2 allFlashCardDevices=nvme1n1p2 Devices: /dev/nvme1n1p2 /dev/nvme1n1p1 /dev/nvme1n1p3 /dev/nvme1n1p4 Flash card 3 : Slot number: 0 Overall health status : GOOD Capacity (in bytes) : 3125627568 Firmware Version : SUNW-NVME-3 PCI Vendor ID: 8086 Serial Number: CVMD4302002S1P6DGN Model Number: INTEL SSDPEDME016T4 Firmware Revision: 8DV10054 Number of Name cardindex=3 cIndex=3 cIndex=3 allFlashCardDevices=nvme2n1p4 Devices: /dev/nvme2n1p4 /dev/nvme2n1p2 /dev/nvme2n1p3 /dev/nvme2n1p1 Raid Array Info (/dev/md0): /dev/md0: 2979.58GiB raid5 3 devices, 1 spare. Use mdadm --detail for more detail. Summary: Healthy flash drives : 3 Broken flash drives : 0 Pass : Flash card health check passed
X5-4 Exalytics Machine上のRAID10でも同様にFlashを構成できます。
この項は次のトピックで構成されています:
X2-4およびX3-4 Exalytics Machineは、6枚のFlashカードを使用して構成されます。各フラッシュ・カードには、それぞれ4つのデバイスが含まれています。Flashカードで1つのデバイスが失敗した場合、Flashカード全体が欠陥になり、これを置換する必要があります。次の手順は、親のRAID0 /dev/md0にインストールされたFlashカードにマッピングされている欠陥のあるデバイス(/dev/sdb)が存在することを前提にしています。図2-1を参照してください。
X2-4またはX3-4 Exalytics Machineの失敗した、または欠陥のあるFlashカードを置換するには、次のようにします。
Flashカードの状態を確認するには、次のコマンドを入力します。
# /opt/exalytics/bin/exalytics_CheckFlash.sh
欠陥のあるFlashカードが検出されたら、全体的な状態: エラーメッセージが出力に表示され、概要に欠陥のあるカードおよびPeripheral Component Interconnect Express (PCIe)カードの場所が示されます。
出力は次のようになります。
Checking Exalytics Flash Drive Status Fetching some info on installed flash drives .... Driver version : 01.250.41.04 (2012.06.04) Supported number of flash drives detected (6) Flash card 1 : Slot number: 1 Overall health status : ERROR. Use --detail for more info Size (in MB) : 286101 Capacity (in bytes) : 300000000000 Firmware Version : 109.05.26.00 Devices: /dev/sdc /dev/sdd /dev/sda Flash card 2 : Slot number: 2 Overall health status : GOOD Size (in MB) : 381468 Capacity (in bytes) : 400000000000 Firmware Version : 109.05.26.00 Devices: /dev/sdh /dev/sdg /dev/sdf /dev/sde Flash card 3 : Slot number: 3 Overall health status : GOOD Size (in MB) : 381468 Capacity (in bytes) : 400000000000 Firmware Version : 109.05.26.00 Devices: /dev/sdl /dev/sdk /dev/sdj /dev/sdi Flash card 4 : Slot number: 5 Overall health status : GOOD Size (in MB) : 381468 Capacity (in bytes) : 400000000000 Firmware Version : 109.05.26.00 Devices: /dev/sdp /dev/sdn /dev/sdo /dev/sdm Flash card 5 : Slot number: 7 Overall health status : GOOD Size (in MB) : 381468 Capacity (in bytes) : 400000000000 Firmware Version : 109.05.26.00 Devices: /dev/sdt /dev/sds /dev/sdq /dev/sdr Flash card 6 : Slot number: 8 Overall health status : GOOD Size (in MB) : 381468 Capacity (in bytes) : 400000000000 Firmware Version : 109.05.26.00 Devices: /dev/sdu /dev/sdx /dev/sdv /dev/sdw Raid Array Info (/dev/md0): /dev/md0: raid0 12 devices, 0 spares. Use mdadm --detail for more detail. Summary: Healthy flash drives : 5 Broken flash drives : 1 Fail : Flash card health check failed. See above for more details.
次の点に注意してください。
デバイス /dev/sdbが失敗し、Flashカード1に表示されない場合。カードに割り当てられたデバイスを書き留めておき、Flashカードの置換後、割り当てられたデバイスで書き留めたデバイスを再チェックします。
スロット番号は、PCIeカードの場所を示しています。
注意: 欠陥のあるFlashカードは、オレンジまたは赤のLEDで特定することができます。Exalytics Machineのバックパネルをチェックして、欠陥のあるFlashカードの場所を確認してください。 |
Exalytics Machineをシャットダウンしプラグを抜きます。
欠陥のあるFlashカードを置換します。
Exalytics Machineを再起動します。
注意: Integrated Lights Out Manager (ILOM)を使用して、Exalytics Machineを起動することもできます。 |
すべてのFlashカードが正常に動作していることを確認し、RAID構成を確認するには、次のコマンドを入力します。
# /opt/exalytics/bin/exalytics_CheckFlash.sh
出力は次のようになります。
Checking Exalytics Flash Drive Status Fetching some info on installed flash drives .... Driver version : 01.250.41.04 (2012.06.04) Supported number of flash drives detected (6) Flash card 1 : Slot number: 1 Overall health status : GOOD Size (in MB) : 381468 Capacity (in bytes) : 400000000000 Firmware Version : 109.05.26.00 Devices: /dev/sdd /dev/sda /dev/sdb /dev/sdc Flash card 2 : Slot number: 2 Overall health status : GOOD Size (in MB) : 381468 Capacity (in bytes) : 400000000000 Firmware Version : 109.05.26.00 Devices: /dev/sdh /dev/sdg /dev/sdf /dev/sde Flash card 3 : Slot number: 3 Overall health status : GOOD Size (in MB) : 381468 Capacity (in bytes) : 400000000000 Firmware Version : 109.05.26.00 Devices: /dev/sdi /dev/sdk /dev/sdl /dev/sdj Flash card 4 : Slot number: 5 Overall health status : GOOD Size (in MB) : 381468 Capacity (in bytes) : 400000000000 Firmware Version : 109.05.26.00 Devices: /dev/sdm /dev/sdo /dev/sdp /dev/sdn Flash card 5 : Slot number: 7 Overall health status : GOOD Size (in MB) : 381468 Capacity (in bytes) : 400000000000 Firmware Version : 109.05.26.00 Devices: /dev/sds /dev/sdt /dev/sdr /dev/sdq Flash card 6 : Slot number: 8 Overall health status : GOOD Size (in MB) : 381468 Capacity (in bytes) : 400000000000 Firmware Version : 109.05.26.00 Devices: /dev/sdw /dev/sdx /dev/sdv /dev/sdu Raid Array Info (/dev/md0): /dev/md0: 1116.08GiB raid0 12 devices, 0 spares. Use mdadm --detail for more detail. Summary: Healthy flash drives : 6 Broken flash drives : 0 Pass : Flash card health check passed
次の点に注意してください。
Flashカード1にマップされた新しいデバイスが表示されます。
この例では、同じデバイス(/dev/sdd、/dev/sda、/dev/sdb、/dev/sdc)がFlashカード1にマッピングされます。異なるデバイスがFlashカード1にマッピングされる場合、新しいデバイスを使用してRAID1を再構築する必要があります。
置換したFlashカードには4つの新しいフラッシュ・デバイスが含まれるため、RAID構成には4つの欠落したRAID1デバイス(交換したFlashカードにそれぞれひとつずつのフラッシュ・デバイス)が表示されます。RAID1を再構築して、RAID1構成で置換したFlashカード上の新しいデバイスが認識されるようにする必要があります。
注意: 動作中のFlashカードは、緑のLEDで特定されます。Exalytics Machineのバックパネルをチェックして、置換したFlashカードのLEDが緑であることを確認してください。 |
次のタスクを実行して、RAID1を再構築します。
RAID1構成上のすべてのデバイスを表示するには、次のコマンドを入力します。
# cat /proc/mdstat
出力は次のようになります。
Personalities : [raid1] [raid0] md0 : active raid0 md12[11] md7[6] md1[0] md8[7] md5[4] md11[10] md10[9] md9[8] md3[2] md6[5] md2[1] md4[3] 1170296832 blocks super 1.2 512k chunks md1 : active raid1 sdm[1] 97590656 blocks super 1.2 [2/1] [_U] md2 : active raid1 sdo[1] 97590656 blocks super 1.2 [2/1] [_U] md4 : active raid1 sdp[1] 97590656 blocks super 1.2 [2/1] [_U] md3 : active raid1 sdn[1] 97590656 blocks super 1.2 [2/1] [_U] md8 : active raid1 sdq[1] sdh[0] 97590656 blocks super 1.2 [2/2] [UU] md12 : active raid1 sdw[1] sdi[0] 97590656 blocks super 1.2 [2/2] [UU] md6 : active raid1 sdt[1] sdg[0] 97590656 blocks super 1.2 [2/2] [UU] md9 : active raid1 sdx[1] sdk[0] 97590656 blocks super 1.2 [2/2] [UU] md10 : active raid1 sdv[1] sdl[0] 97590656 blocks super 1.2 [2/2] [UU] md5 : active raid1 sdr[1] sdf[0] 97590656 blocks super 1.2 [2/2] [UU] md11 : active raid1 sdu[1] sdj[0] 97590656 blocks super 1.2 [2/2] [UU] md7 : active raid1 sds[1] sde[0] 97590656 blocks super 1.2 [2/2] [UU] unused devices: <none>
次の点に注意してください。
4つのmdデバイス(md1、md2、md3およびmd4)には、単一のsdデバイスが割り当てられます。
これらのデバイスの2番目のラインは、[2/1] [_U]のような表記で終了します。
正しいmdデバイスの構成をチェックするには、次のコマンドを入力します。
# cat /etc/mdadm.conf
出力は次のようになります。
ARRAY /dev/md1 level=raid1 num-devices=2 metadata=1.2 name=localhost.localdomain:1 UUID=d1e5378a:80eb2f97:2e7dd315:c08fc304 devices=/dev/sdc,/dev/sdm ARRAY /dev/md2 level=raid1 num-devices=2 metadata=1.2 name=localhost.localdomain:2 UUID=8226f5c2:e79dbd57:1976a29b:46a7dce1 devices=/dev/sdb,/dev/sdo ARRAY /dev/md3 level=raid1 num-devices=2 metadata=1.2 name=localhost.localdomain:3 UUID=79c16c90:eb67f53b:a1bdc83c:b717ebb7 devices=/dev/sda,/dev/sdn ARRAY /dev/md4 level=raid1 num-devices=2 metadata=1.2 name=localhost.localdomain:4 UUID=2b1d05bf:41447b90:40c84863:99c5b4c6 devices=/dev/sdd,/dev/sdp ARRAY /dev/md5 level=raid1 num-devices=2 metadata=1.2 name=localhost.localdomain:5 UUID=bbf1ce46:6e494aaa:eebae242:c0a56944 devices=/dev/sdf,/dev/sdr ARRAY /dev/md6 level=raid1 num-devices=2 metadata=1.2 name=localhost.localdomain:6 UUID=76257b58:ff74573a:a1ffef2b:12976a80 devices=/dev/sdg,/dev/sdt ARRAY /dev/md7 level=raid1 num-devices=2 metadata=1.2 name=localhost.localdomain:7 UUID=fde5cab2:e6ea51bd:2d2bd481:aa834fb9 devices=/dev/sde,/dev/sds ARRAY /dev/md8 level=raid1 num-devices=2 metadata=1.2 name=localhost.localdomain:8 UUID=9ed9b987:b8f52cc0:580485fb:105bf381 devices=/dev/sdh,/dev/sdq ARRAY /dev/md9 level=raid1 num-devices=2 metadata=1.2 name=localhost.localdomain:9 UUID=2e6ec418:ab1d29f6:4434431d:01ac464f devices=/dev/sdk,/dev/sdx ARRAY /dev/md10 level=raid1 num-devices=2 metadata=1.2 name=localhost.localdomain:10 UUID=01584764:aa8ea502:fd00307a:c897162e devices=/dev/sdl,/dev/sdv ARRAY /dev/md11 level=raid1 num-devices=2 metadata=1.2 name=localhost.localdomain:11 UUID=67fd1bb3:348fd8ce:1a512065:906bc583 devices=/dev/sdj,/dev/sdu ARRAY /dev/md12 level=raid1 num-devices=2 metadata=1.2 name=localhost.localdomain:12 UUID=6bb498e0:26aca961:78029fe9:e3c8a546 devices=/dev/sdi,/dev/sdw ARRAY /dev/md0 level=raid0 num-devices=12 metadata=1.2 name=localhost.localdomain:0 UUID=7edc1371:e8355571:c7c2f504:8a94a70f devices=/dev/md1,/dev/md10,/dev/md11,/dev/md12,/dev/md2,/dev/md3,/dev/md4,/dev/md5,/dev/md6,/dev/md7,/dev/md8,/dev/md9
デバイスの正しい構成は、次の通りです。
md1デバイスには、/dev/sdcおよび/dev/sdm sdデバイスが含まれます
md2デバイスには、/dev/sdbおよび/dev/sdo sdデバイスが含まれます
md3デバイスには、/dev/sdaおよび/dev/sdn sdデバイスが含まれます
md4デバイスには、/dev/sddおよび/dev/sdp sdデバイスが含まれます
欠落したsdデバイス(/dev/sdc、/dev/sdb、/dev/sda/および/dev/sdd)をそれぞれ4つのmdデバイス(md1、md2、md3およびmd4)に追加するには、次のコマンドを入力します。
# mdadm /dev/md1 --add /dev/sdc
sdデバイス/dev/sdcが、md1デバイスに追加されます。出力は次のようになります。
mdadm: added /dev/sdc
# mdadm /dev/md2 --add /dev/sdb
sdデバイス/dev/sdbが、md2デバイスに追加されます。出力は次のようになります。
mdadm: added /dev/sdb
# mdadm /dev/md3 --add /dev/sda
sdデバイス/dev/sdaが、md3デバイスに追加されます。出力は次のようになります。
mdadm: added /dev/sda
# mdadm /dev/md4 --add /dev/sdd
sdデバイス/dev/sddが、md4デバイスに追加されます。出力は次のようになります。
mdadm: added /dev/sdd
RAID1の再構築が自動的に開始されます。
リカバリの進行状況をチェックするには、次のコマンドを入力します。
# cat /proc/mdstat
出力をモニターし、プロセスが完了したことを確認します。出力は次のようになります。
Personalities : [raid1] [raid0] md0 : active raid0 md12[11] md7[6] md1[0] md8[7] md5[4] md11[10] md10[9] md9[8] md3[2] md6[5] md2[1] md4[3] 1170296832 blocks super 1.2 512k chunks md1 : active raid1 sdc[2] sdm[1] 97590656 blocks super 1.2 [2/1] [_U] [==>..................] recovery = 10.4% (10244736/97590656) finish=7.0min speed=206250K/sec md2 : active raid1 sdb[2] sdo[1] 97590656 blocks super 1.2 [2/1] [_U] [=>...................] recovery = 8.1% (8000000/97590656) finish=7.4min speed=200000K/sec md4 : active raid1 sdd[2] sdp[1] 97590656 blocks super 1.2 [2/1] [_U] [>....................] recovery = 2.7% (2665728/97590656) finish=7.7min speed=205056K/sec md3 : active raid1 sda[2] sdn[1] 97590656 blocks super 1.2 [2/1] [_U] [=>...................] recovery = 6.3% (6200064/97590656) finish=7.3min speed=206668K/sec md8 : active raid1 sdq[1] sdh[0] 97590656 blocks super 1.2 [2/2] [UU] md12 : active raid1 sdw[1] sdi[0] 97590656 blocks super 1.2 [2/2] [UU] md6 : active raid1 sdt[1] sdg[0] 97590656 blocks super 1.2 [2/2] [UU] md9 : active raid1 sdx[1] sdk[0] 97590656 blocks super 1.2 [2/2] [UU] md10 : active raid1 sdv[1] sdl[0] 97590656 blocks super 1.2 [2/2] [UU] md5 : active raid1 sdr[1] sdf[0] 97590656 blocks super 1.2 [2/2] [UU] md11 : active raid1 sdu[1] sdj[0] 97590656 blocks super 1.2 [2/2] [UU] md7 : active raid1 sds[1] sde[0] 97590656 blocks super 1.2 [2/2] [UU] unused devices: <none>
X4-4またはX5-4 Exalytics Machineは、それぞれ3枚のFlashカードを使用して構成されます。各フラッシュ・カードには、それぞれ4つのデバイスが含まれています。Flashカードで1つのデバイスが失敗した場合、Flashカード全体が欠陥になるため、これを置換する必要があります。RAID構成に応じて、RAID10またはRAID5構成上で欠陥のあるFlashカードを置換します。
注意: 次の手順では、X4-4 Exalytics Machine上で欠陥のあるFlashカードを交換する方法について説明します。 |
この項は次のトピックで構成されています:
RAID10構成の場合、次の手順は、親のRAID0 /dev/md0にインストールされたFlashカードにマッピングされている欠陥のあるデバイス(/dev/sdb)が存在することを前提にしています。図2-2を参照してください。
RAID10構成でのエラーまたは欠陥のあるFlashカードを置換するには、次のようにします。
Flashカードの状態を確認するには、次のコマンドを入力します。
# /opt/exalytics/bin/exalytics_CheckFlash.sh
欠陥のあるFlashカードが検出されたら、全体的な状態: エラーメッセージが出力に表示され、概要に欠陥のあるカードおよびPeripheral Component Interconnect Express (PCIe)カードの場所が示されます。
出力は次のようになります。
Checking Exalytics Flash Drive Status
Fetching some info on installed flash drives ....
Driver version : 01.250.41.04 (2012.06.04)
Supported number of flash drives detected (3)
Flash card 1 :
Slot number: 6
Overall health status : ERROR. Use --detail for more info
Size (in MB) : 572202
Capacity (in bytes) : 600000000000
Firmware Version : 109.05.26.00
Devices: /dev/sde /dev/sdc /dev/sdf
Flash card 2 :
Slot number: 7
Overall health status : GOOD
Size (in MB) : 762936
Capacity (in bytes) : 800000000000
Firmware Version : 109.05.26.00
Devices: /dev/sdh /dev/sdj /dev/sdg /dev/sdi
Flash card 3 :
Slot number: 10
Overall health status : GOOD
Size (in MB) : 762936
Capacity (in bytes) : 800000000000
Firmware Version : 109.05.26.00
Devices: /dev/sdn /dev/sdl /dev/sdk /dev/sdm
Raid Array Info (/dev/md0):
/dev/md0: 1116.08GiB raid0 6 devices, 0 spares. Use mdadm --detail for more detail.
Summary:
Healthy flash drives : 2
Broken flash drives : 1
Fail : Flash card health check failed. See above for more details.
次の点に注意してください。
デバイス /dev/sdbが失敗し、Flashカード1に表示されない場合。カードに割り当てられたデバイスを書き留めておき、Flashカードの置換後、割り当てられたデバイスで書き留めたデバイスを再チェックします。
スロット番号は、PCIeカードの場所を示しています。
注意: 欠陥のあるFlashカードは、オレンジまたは赤のLEDで特定することができます。Exalytics Machineのバックパネルをチェックして、欠陥のあるFlashカードの場所を確認してください。 |
Exalytics Machineをシャットダウンしプラグを抜きます。
欠陥のあるFlashカードを置換します。
Exalytics Machineを再起動します。
注意: Integrated Lights Out Manager (ILOM)を使用して、Exalytics Machineを起動することもできます。 |
すべてのFlashカードが正常に動作していることを確認し、RAID構成を確認するには、次のコマンドを入力します。
# /opt/exalytics/bin/exalytics_CheckFlash.sh
出力は次のようになります。
Checking Exalytics Flash Drive Status Fetching some info on installed flash drives .... Driver version : 01.250.41.04 (2012.06.04) Supported number of flash drives detected (3) Flash card 1 : Slot number: 6 Overall health status : GOOD Size (in MB) : 762936 Capacity (in bytes) : 800000000000 Firmware Version : 109.05.26.00 Devices: /dev/sdd /dev/sdf /dev/sdc /dev/sde Flash card 2 : Slot number: 7 Overall health status : GOOD Size (in MB) : 762936 Capacity (in bytes) : 800000000000 Firmware Version : 109.05.26.00 Devices: /dev/sdi /dev/sdj /dev/sdh /dev/sdg Flash card 3 : Slot number: 10 Overall health status : GOOD Size (in MB) : 762936 Capacity (in bytes) : 800000000000 Firmware Version : 109.05.26.00 Devices: /dev/sdn /dev/sdm /dev/sdl /dev/sdk Raid Array Info (/dev/md0): /dev/md0: raid0 6 devices, 0 spares. Use mdadm --detail for more detail. Summary: Healthy flash drives : 3 Broken flash drives : 0 Pass : Flash card health check passed
次の点に注意してください。
Flashカード1にマップされた新しいデバイスが表示されます。
RAID10構成では、/dev/md0は、6つのデバイスのあるRAID0として表示されます。図2-2を参照してください。
この例では、新しいデバイス(/dev/sdd、/dev/sdf、/dev/sdcおよび/dev/sde)がFlashカード1にマッピングされます。
置換したFlashカードには4つの新しいフラッシュ・デバイスが含まれるため、RAID構成には4つの欠落したデバイス(交換したFlashカードにそれぞれひとつずつのフラッシュ・デバイス)が表示されます。RAID1を再構築して、RAID構成で置換したFlashカード上の新しいデバイスが認識されるようにする必要があります。
注意: 動作中のFlashカードは、緑のLEDで特定されます。Exalytics Machineのバックパネルをチェックして、置換したFlashカードのLEDが緑であることを確認してください。 |
次のタスクを実行して、RAID1を再構築します。
RAID1構成上のすべてのデバイスを表示するには、次のコマンドを入力します。
# cat /proc/mdstat
出力は次のようになります。
Personalities : [raid1] [raid0] md3 : active (auto-read-only) raid1 sdm[1] 195181376 blocks super 1.2 [2/1] [_U] bitmap: 0/2 pages [0KB], 65536KB chunk md4 : active (auto-read-only) raid1 sdk[1] 195181376 blocks super 1.2 [2/1] [_U] bitmap: 0/2 pages [0KB], 65536KB chunk md2 : active (auto-read-only) raid1 sdi[1] 195181376 blocks super 1.2 [2/1] [_U] bitmap: 0/2 pages [0KB], 65536KB chunk md6 : active raid1 sdn[1] sdj[0] 195181376 blocks super 1.2 [2/2] [UU] bitmap: 0/2 pages [0KB], 65536KB chunk md0 : inactive md6[5] md5[4] md1[0] 585149952 blocks super 1.2 md1 : active raid1 sdh[1] 195181376 blocks super 1.2 [2/1] [_U] bitmap: 1/2 pages [4KB], 65536KB chunk md5 : active raid1 sdl[1] sdg[0] 195181376 blocks super 1.2 [2/2] [UU] bitmap: 0/2 pages [0KB], 65536KB chunk unused devices: <none>
次の点に注意してください。
4つのmdデバイス(md3、md4、md2およびmd1)には、単一のsdデバイスが割り当てられます。
これらのデバイスの2番目のラインは、[2/1] [_U]のような表記で終了します。
正しいmdデバイスの構成をチェックするには、次のコマンドを入力します。
# cat /etc/mdadm.conf
出力は次のようになります。
ARRAY /dev/md1 level=raid1 num-devices=2 metadata=1.2 name=localhost.localdomain:1 UUID=2022e872:f5beb736:5a2f10a7:27b209fc devices=/dev/sdd,/dev/sdh ARRAY /dev/md2 level=raid1 num-devices=2 metadata=1.2 name=localhost.localdomain:2 UUID=b4aff5bf:18d7ab45:3a9ba04e:a8a56288 devices=/dev/sde,/dev/sdi ARRAY /dev/md3 level=raid1 num-devices=2 metadata=1.2 name=localhost.localdomain:3 UUID=4e54d5d1:51314c65:81c00e25:030edd38 devices=/dev/sdc,/dev/sdm ARRAY /dev/md4 level=raid1 num-devices=2 metadata=1.2 name=localhost.localdomain:4 UUID=f8a533ed:e195f83a:9dcc86eb:0427a897 devices=/dev/sdf,/dev/sdk ARRAY /dev/md5 level=raid1 num-devices=2 metadata=1.2 name=localhost.localdomain:5 UUID=ec7eb621:35b9233f:049a5e1b:987e7d72 devices=/dev/sdg,/dev/sdl ARRAY /dev/md6 level=raid1 num-devices=2 metadata=1.2 n
デバイスの正しい構成は、次の通りです。
md1デバイスには、/dev/sddおよび/dev/sdh sdデバイスが含まれます
md2デバイスには、/dev/sdeおよび/dev/sdi sdデバイスが含まれます
md3デバイスには、/dev/sdcおよび/dev/sdm sdデバイスが含まれます
md4デバイスには、/dev/sdfおよび/dev/sdk sdデバイスが含まれます
欠落したsdデバイス(/dev/sdd、/dev/sde、/dev/sdc/および/dev/sdf)をそれぞれ4つのmdデバイス(md1、md2、md3およびmd4)に追加するには、次のコマンドを入力します。
# mdadm /dev/md1 --add /dev/sdd
sdデバイス/dev/sddが、md1デバイスに追加されます。出力は次のようになります。
mdadm: added /dev/sdd
# mdadm /dev/md2 --add /dev/sde
sdデバイス/dev/sdeが、md2デバイスに追加されます。出力は次のようになります。
mdadm: added /dev/sde
# mdadm /dev/md3 --add /dev/sdc
sdデバイス/dev/sdcが、md3デバイスに追加されます。出力は次のようになります。
mdadm: added /dev/sdc
# mdadm /dev/md4 --add /dev/sdf
sdデバイス/dev/sdfが、md4デバイスに追加されます。出力は次のようになります。
mdadm: added /dev/sdf
RAID1の再構築が自動的に開始されます。
リカバリの進行状況をチェックするには、次のコマンドを入力します。
# cat /proc/mdstat
出力をモニターし、プロセスが完了したことを確認します。出力は次のようになります。
Personalities : [raid1] [raid0] md3 : active raid1 sdc[2] sdm[1] 195181376 blocks super 1.2 [2/1] [_U] [>....................] recovery = 1.8% (3656256/195181376) finish=15.7min speed=203125K/sec bitmap: 0/2 pages [0KB], 65536KB chunk md4 : active raid1 sdf[2] sdk[1] 195181376 blocks super 1.2 [2/1] [_U] [>....................] recovery = 1.2% (2400000/195181376) finish=16.0min speed=200000K/sec bitmap: 0/2 pages [0KB], 65536KB chunk md2 : active raid1 sde[2] sdi[1] 195181376 blocks super 1.2 [2/1] [_U] [>....................] recovery = 3.4% (6796736/195181376) finish=15.2min speed=205961K/sec bitmap: 0/2 pages [0KB], 65536KB chunk md6 : active raid1 sdn[1] sdj[0] 195181376 blocks super 1.2 [2/2] [UU] bitmap: 0/2 pages [0KB], 65536KB chunk md0 : inactive md6[5] md5[4] md1[0] 585149952 blocks super 1.2 md1 : active raid1 sdd[2] sdh[1] 195181376 blocks super 1.2 [2/1] [_U] [>....................] recovery = 4.4% (8739456/195181376) finish=15.0min speed=206062K/sec bitmap: 1/2 pages [4KB], 65536KB chunk md5 : active raid1 sdl[1] sdg[0] 195181376 blocks super 1.2 [2/2] [UU] bitmap: 0/2 pages [0KB], 65536KB chunk unused devices: <none>
RAID05構成の場合、次の手順は、親のRAID5 /dev/md0にインストールされたFlashカードにマッピングされている欠陥のあるデバイス(/dev/sdb)が存在することを前提にしています。図2-3を参照してください。
Flashカードの状態を確認するには、次のコマンドを入力します。
# /opt/exalytics/bin/exalytics_CheckFlash.sh
欠陥のあるFlashカードが検出されたら、全体的な状態: エラーメッセージが出力に表示され、概要に欠陥のあるカードおよびPeripheral Component Interconnect Express (PCIe)カードの場所が示されます。
出力は次のようになります。
Checking Exalytics Flash Drive Status
Fetching some info on installed flash drives ....
Driver version : 01.250.41.04 (2012.06.04)
Supported number of flash drives detected (3)
Flash card 1 :
Slot number: 6
Overall health status : ERROR. Use --detail for more info
Size (in MB) : 572202
Capacity (in bytes) : 600000000000
Firmware Version : 109.05.26.00
Devices: /dev/sdf /dev/sdc /dev/sde
Flash card 2 :
Slot number: 7
Overall health status : GOOD
Size (in MB) : 762936
Capacity (in bytes) : 800000000000
Firmware Version : 109.05.26.00
Devices: /dev/sdh /dev/sdj /dev/sdi /dev/sdg
Flash card 3 :
Slot number: 10
Overall health status : GOOD
Size (in MB) : 762936
Capacity (in bytes) : 800000000000
Firmware Version : 109.05.26.00
Devices: /dev/sdn /dev/sdk /dev/sdm /dev/sdl
Raid Array Info (/dev/md0):
/dev/md0: 1488.86GiB raid5 3 devices, 0 spares. Use mdadm --detail for more detail.
Summary:
Healthy flash drives : 2
Broken flash drives : 1
Fail : Flash card health check failed. See above for more details.
次の点に注意してください。
デバイス /dev/sdbが失敗し、Flashカード1に表示されない場合。カードに割り当てられたデバイスを書き留めておき、Flashカードの置換後、割り当てられたデバイスで書き留めたデバイスを再チェックします。
スロット番号は、PCIeカードの場所を示しています。
注意: 欠陥のあるFlashカードは、オレンジまたは赤のLEDで特定することができます。Exalytics Machineのバックパネルをチェックして、欠陥のあるFlashカードの場所を確認してください。 |
Exalytics Machineをシャットダウンしプラグを抜きます。
欠陥のあるFlashカードを置換します。
Exalytics Machineを再起動します。
注意: Integrated Lights Out Manager (ILOM)を使用して、Exalytics Machineを起動することもできます。 |
すべてのFlashカードが正常に動作していることを確認し、RAID構成を確認するには、次のコマンドを入力します。
# /opt/exalytics/bin/exalytics_CheckFlash.sh
出力は次のようになります。
Checking Exalytics Flash Drive Status Fetching some info on installed flash drives .... Driver version : 01.250.41.04 (2012.06.04) Supported number of flash drives detected (3) Flash card 1 : Slot number: 6 Overall health status : GOOD Size (in MB) : 762936 Capacity (in bytes) : 800000000000 Firmware Version : 109.05.26.00 Devices: /dev/sdd /dev/sdf /dev/sdc /dev/sde Flash card 2 : Slot number: 7 Overall health status : GOOD Size (in MB) : 762936 Capacity (in bytes) : 800000000000 Firmware Version : 109.05.26.00 Devices: /dev/sdg /dev/sdi /dev/sdh /dev/sdj Flash card 3 : Slot number: 10 Overall health status : GOOD Size (in MB) : 762936 Capacity (in bytes) : 800000000000 Firmware Version : 109.05.26.00 Devices: /dev/sdl /dev/sdk /dev/sdn /dev/sdm Raid Array Info (/dev/md0): /dev/md0: 1488.86GiB raid5 3 devices, 1 spare. Use mdadm --detail for more detail. Summary: Healthy flash drives : 3 Broken flash drives : 0 Pass : Flash card health check passed
次の点に注意してください。
Flashカード1にマップされた新しいデバイスが表示されます。
RAID05構成では、/dev/md0は、3つのデバイスのあるRAID5として表示されます。図2-3を参照してください。
この例では、新しいデバイス(/dev/sdd、/dev/sdf、/dev/sdcおよび/dev/sde)がFlashカード1にマッピングされます。
置換したFlashカードには4つの新しいフラッシュ・デバイスが含まれるため、RAID構成には4つの欠落したデバイス(交換したFlashカードにそれぞれひとつずつのフラッシュ・デバイス)が表示されます。RAID05を再構築して、RAID構成で置換したFlashカード上の新しいデバイスが認識されるようにする必要があります。
注意: 動作中のFlashカードは、緑のLEDで特定されます。Exalytics Machineのバックパネルをチェックして、置換したFlashカードのLEDが緑であることを確認してください。 |
次の手順を実行して、RAID05を再構築します。
RAID05構成をチェックするには、次のコマンドを入力します。
# cat /proc/mdstat
出力は次のようになります。
Personalities : [raid0] [raid6] [raid5] [raid4]
md3 : active raid0 sdn[2] sdk[1] sdm[3] sdl[0]
780724224 blocks super 1.2 512k chunks
md0 : active raid5 md3[3] md2[1]
1561186304 blocks super 1.2 level 5, 512k chunk, algorithm 2 [3/2] [_UU]
bitmap: 6/6 pages [24KB], 65536KB chunk
md2 : active raid0 sdi[1] sdh[2] sdj[3] sdg[0]
780724224 blocks super 1.2 512k chunks
unused devices: <none>
次の点に注意してください。
置換したFlashカードには、RAID0 /dev/md1で4つの新しいフラッシュ・デバイスが含まれるため、構成には欠落したmd1としてRAID5 /dev/md0が表示されます。
RAID5構成の2番目のラインは、[3/2] [_UU]のような表記で終了します。
RAID5を有効化してmd1を認識させるには、md1を再作成する必要があります。
md1を再作成するには、次のコマンドを入力します。
# mdadm /dev/md1 --create --raid-devices=4 --level=0 /dev/sdf /dev/sde /dev/sdc /dev/sdd
出力は次のようになります。
mdadm: array /dev/md1 started.
md1の作成が成功したことを確認してから、新しく作成したmd1をRAID5に追加します。
md1をRAID5に追加するには、次のコマンドを入力します。
# mdadm /dev/md0 --add /dev/md1
出力は次のようになります。
mdadm: added /dev/md1
RAID5の再構築が自動的に開始されます。
リカバリの進行状況をチェックするには、次のコマンドを入力します。
# cat /proc/mdstat
出力をモニターし、プロセスが完了したことを確認します。出力は次のようになります。
Personalities : [raid0] [raid6] [raid5] [raid4] md1 : active raid0 sdd[3] sdc[2] sde[1] sdf[0] 780724224 blocks super 1.2 512k chunks md3 : active raid0 sdn[2] sdk[1] sdm[3] sdl[0] 780724224 blocks super 1.2 512k chunks md0 : active raid5 md1[4] md3[3] md2[1] 1561186304 blocks super 1.2 level 5, 512k chunk, algorithm 2 [3/2] [_UU] [>....................] recovery = 0.5% (4200064/780593152) finish=64.6min speed=200003K/sec bitmap: 6/6 pages [24KB], 65536KB chunk md2 : active raid0 sdi[1] sdh[2] sdj[3] sdg[0] 780724224 blocks super 1.2 512k chunks unused devices: <none>
mdadm.conf構成ファイルを再作成して、Exalytics Machineを再起動するときにRAID5の詳細情報が維持されるようにするには、次のコマンドを入力します。
# mdadm --detail --scan --verbose > /etc/mdadm.conf
ファイルが正常に再作成されたことを確認するには、次のコマンドを入力します。
# cat /etc/mdadm.conf
出力をモニターし、プロセスが完了したことを確認します。出力は次のようになります。
ARRAY /dev/md2 level=raid0 num-devices=4 metadata=1.2 name=localhost.localdomain:2 UUID=d7a213a4:d3eab6de:b62bb539:7f8025f4 devices=/dev/sdg,/dev/sdh,/dev/sdi,/dev/sdj ARRAY /dev/md3 level=raid0 num-devices=4 metadata=1.2 name=localhost.localdomain:3 UUID=b6e6a4d9:fb740b73:370eb061:bb9ded07 devices=/dev/sdk,/dev/sdl,/dev/sdm,/dev/sdn ARRAY /dev/md1 level=raid0 num-devices=4 metadata=1.2 name=localhost.localdomain:1 UUID=185b52fc:ca539982:3c4af30c:5578cdfe devices=/dev/sdc,/dev/sdd,/dev/sde,/dev/sdf ARRAY /dev/md0 level=raid5 num-devices=3 metadata=1.2 spares=1 name=localhost.localdomain:0 UUID=655b4442:94160b2f:0d40b860:e9eef70f devices=/dev/md1,/dev/md2,/dev/md3
注意: mdadm.conf構成ファイルで(各RAIDにマップされるデバイスのリストを更新するなど)他のカスタマイズを行った場合は、手動でファイルを編集する必要があります。 |