プライマリ・コンテンツに移動
Oracle® Fusion Middleware Oracle Exalytics In-Memory Machineインストレーションおよび管理ガイドfor Linux
Exalyticsソフトウェア・リリース2.0.0.0 for Exalytics X2-4、X3-4、X4-4およびX5-4
E64857-03
  目次へ移動
目次
索引へ移動
索引

前
 
次
 

2 非仮想デプロイメントでのOracle Exalyticsリリース2 (2.0.0.0.el5)へのアップグレード

この章では、非仮想デプロイメントでのOracle Exalyticsリリース2 (2.0.0.0.el5)へのアップグレードについて説明します。仮想デプロイメントでOracle Exalyticsリリース2にアップグレードする詳細は、第3章「仮想デプロイメントでのOracle Exalyticsリリース2 (2.2.0.0.0.ovs-3.2.9)へのアップグレード」を参照してください。


注意:

Oracle Exalytics Release 2は、Oracle Exalyticsリリース1パッチセット5 (Oracle Exalytics Base Image 1.0.0.7)にのみ適用できます。以前のパッチセットを使用している場合は、Oracle Exalyticsリリース2にアップグレードする前に、Oracle Exalyticsリリース1パッチセット5 (Oracle Exalytics Base Image 1.0.0.7)にアップグレードする必要があります。

この章では、次の項目について説明します。

2.1 非仮想デプロイメントでのOracle Exalyticsリリース2について

非仮想デプロイメントのX2-4、X3-4、X4-4およびX5-4 Exalytics Machines用のOracle Exalyticsリリース2には、次のシステム・ソフトウェア・コンポーネントが含まれます。

  • Linux 5 x86-64用Exalytics Base Image (2.0.0.0.el5)

  • Linux 6 x86-64用Exalytics Base Image (2.0.0.0.el6)

Oracle Business Intelligence、Oracle Enterprise Performance Management、Oracle TimesTen for Exalytics、Oracle Database In-MemoryおよびOracle Endecaの各ソフトウェア・リリースは、Exalyticsリリース2に対して動作保証されています。これらのソフトウェア更新には、Exalytics専用に構築された新機能が含まれる場合があります。動作保証された最新バージョンのExalyticsでアプリケーション・ソフトウェア・スタックを更新することをお薦めします。

システム・コンポーネントおよびサポートされているアプリケーション製品コンポーネントの詳細は、次のリンク先にあるOracle Exalytics動作保証マトリクスを参照してください。

http://www.oracle.com/technetwork/middleware/ias/downloads/fusion-certification-100350.html

2.2 非仮想デプロイメントでのOracle Exalyticsリリース2 (Base Image 2.0.0.0.el5)へのアップグレードのガイドライン

Oracle Exalyticsリリース2にアップグレードする前に、次のガイドラインを確認します。

  • 現在Oracle Exalyticsリリース1パッチセット5 (Oracle Exalytics Base Image 1.0.0.7)を使用していることを確認してください。

  • Linux 5オペレーティング・システムにインストールされたBase Imageは、Linux 6オペレーティング・システムにインストールされたBase Imageにアップグレードできません。たとえば、Linux 5オペレーティング・システムにインストールされたOracle Exalytics Base Image x86-64 (1.0.0.7)を、Linux 6オペレーティング・システムにインストールされたExalytics Base Image x86-64 (2.0.0.0.el6)にアップグレードすることはできません。Linux 6用Exalytics Base Image (2.0.0.0.el6)をインストールするには、Linux 6 Base Imageをダウンロードして構成することによりサーバーを再イメージ化する必要があります。第4章「Exalytics MachineでのOracle Exalyticsリリース2の非仮想Base Imageのインストールおよび構成」を参照してください。

  • アップグレードする前に、現在のインストール、構成ファイルおよびユーザー固有のすべてのアーティファクトをバックアップし、適用可能なすべてのサービスを停止していることを確認します。

  • Exalytics MachineにOracle Enterprise Performance Managementコンポーネントをインストールしている場合は、アップグレードする前に、すべてのEnterprise Performance Managementサービスを停止します。また、アップグレードした後は、すべてのサービスを確実に起動してください。詳細は、次のリンク先の『Oracle Enterprise Performance Management Systemインストレーションおよび構成ガイド、リリース11.1.2.3』の第12章「EPM System製品の起動と停止」を参照してください。

    http://docs.oracle.com/cd/E40248_01/epm.1112/epm_install.pdf

  • Oracle Exalyticsリリース1パッチセット5からアップグレードする場合は、nqcmdユーティリティを使用してOracle TimesTenの集計を削除してください。詳細は、『Oracle Fusion Middleware Oracle Business Intelligence Enterprise Editionメタデータ・リポジトリ作成者ガイド』のOracle BIサーバーの問合せ用の集計の作成と維持に関する項を参照してください。

  • 最新情報は、『Oracle Exalytics In-Memory Machine for Linuxリリース・ノート』を参照してください。

2.3 Oracle Exalyticsリリース2 (Base Image 2.0.0.0.el5)へのアップグレード

この項は次のトピックで構成されています:

2.3.1 非仮想デプロイメントでのOracle Exalyticsリリース2について

Oracle Exalyticsリリース2は、システム・コンポーネントに適用される更新で構成されており、これらは表2-1に示されています。

表2-1 システム・コンポーネントとOracle Exalyticsリリース2でサポートされるバージョン

システム・コンポーネント リリース2のバージョン カーネル・バージョン

Linux 5用Oracle Exalytics Base Image

2.0.0.0.el5

2.6.39-400.248.3.el5uek x86_64

Linux 6用Oracle Exalytics Base Image

2.0.0.0.el6

2.6.39-400.248.3.el6uek x86_64


サポートされるアプリケーション・ソフトウェア・コンポーネントの最新情報は、次のリンク先にあるOracle Exalytics動作保証マトリクスを参照してください。

http://www.oracle.com/technetwork/middleware/ias/downloads/fusion-certification-100350.html

2.3.2 非仮想デプロイメントでのOracle Exalyticsリリース2 (Base Image 2.0.0.0.el5)へのアップグレード

この項には次のトピックが含まれます:

2.3.2.1 Oracle Exalyticsリリース2にアップグレードする必要があるユーザー

このアップグレードは、現在Oracle Exalyticsリリース1パッチセット5 (Oracle Exalytics Base Image 1.0.0.7)を使用しているすべてのOracle Exalyticsユーザーが利用できます。


注意:

Oracle Exalyticsリリース1パッチセット5より以前のリリースを使用している場合は、Oracle Exalyticsリリース2にアップグレードする前に、Oracle Exalyticsリリース1パッチセット5 (Base Image 1.0.0.7)にアップグレードする必要があります。Oracle Exalyticsリリース1パッチセット5の適用の詳細は、次のリンク先にある『Oracle Fusion Middleware Oracle Exalytics In-Memory Machineインストレーションおよび管理ガイド』の第2章「パッチ適用」を参照してください。

http://docs.oracle.com/cd/E56045_01/bi.1/e57263/toc.htm


2.3.2.2 Oracle Exalyticsリリース2へのアップグレード

Oracle Exalyticsリリース1パッチセット5からOracle Exalyticsリリース2にアップグレードするには、次の手順を実行します。

手順1: Oracle Exalytics Base Imageリリース2アップグレード・スクリプトの実行

アップグレード・スクリプトを実行して、Oracle Exalytics Base Imageを2.0.0.0.el5にアップグレードします


注意:

Oracle Exalyticsリリース1パッチセット5 (Base Image 1.0.0.7)からOracle Exalyticsリリース2にアップグレードする場合、スクリプトによって、既存のインストールに影響を及ぼすことなく新しいrpmがインストールされます。

Oracle Exalytics Base Image 2.0.0.0.el5アップグレード・スクリプトを実行するには:

  1. すべてのOracle Business Intelligence、Oracle TimesTenおよび(インストールされている場合は)Enterprise Performance Managementサービスを停止してバックアップします。

    Oracle Business Intelligenceの停止方法の詳細は、『Oracle Fusion Middleware Oracle Business Intelligence Enterprise Editionシステム管理者ガイド』のOracle Business Intelligenceの起動と停止に関する項を参照してください。

    Oracle TimesTenサービスの開始および停止方法の詳細は、『Oracle® TimesTen In-Memory Databaseオペレーション・ガイド』のTimesTenデータ・マネージャ・デーモンの操作に関する項を参照してください。

    Enterprise Performance Managementサービスの開始および停止方法の詳細は、次のリンク先の『Oracle Enterprise Performance Management Systemインストレーションおよび構成ガイド、リリース11.1.2.3』の第12章「EPM System製品の起動と停止」を参照してください。

    http://docs.oracle.com/cd/E40248_01/epm.1112/epm_install.pdf

  2. My Oracle Supportに移動し、パッチ番号20506584 (Linux x86-64用のExalytics Base Image 2.0.0.0.el5のパッチセット・アップグレード・ユーティリティ)をダウンロードします。パッチには、p20506584_20000_Linux-x86-64.zipファイルが含まれます。

  3. ファイルを一時(/tmp)ディレクトリに解凍します。

  4. ディレクトリ20506584/21100117に移動します。

    zipファイルには、nodeupdate.shスクリプトが含まれています。

  5. Exalytics Machine用のパッチを検証するには、次のコマンドを入力します。

    # ./nodeupdate.sh -v

  6. パッチを適用してOracle Exalytics Base Imageをアップグレードするには、次のコマンドを入力します。

    # ./nodeupdate.sh -a

    パッチが正常に適用されたら、Oracle Integrated Lights Out Manager (ILOM)を使用して、Exalytics Machineを再起動します。

  7. オプション: /var/log/exalytics/update-2.0.0.0.log/var/log/exalytics/exalytics.logのログ・ファイルを表示します。

  8. Oracle Business Intelligence、Oracle TimesTenおよびEnterprise Performance Managementサービスを再起動します。

  9. Base Imageを確認するには、rootユーザーとして次のコマンドを入力します。

    # /opt/exalytics/bin/exalytics_imageinfo

    出力は、次のようになります。

    Image version : 2.0.0.0_el5
    Creation timestamp : Day Date Month YEAR HOUR:MIN:SEC
    Kernel version : 2.6.39-400.248.3.el5uek
     
    RPM versions:
    kernel-uek-2.6.39-400.248.3.el5uek
    kernel-2.6.18-404.0.0.0.1.el5
    exalytics-container-bm-2.0.0.0-2_el5
    exalytics-scripts-2.0.0.0-9_el5
    exalytics-flash-2.0.0.0-2_el5
    exalytics-domain-configure-2.0.0.0-4_el5
    exalytics-deps-exact-2.0.0.0-2_el5
    exalytics-deps-minimum-2.0.0.0-2_el5
    

    注意:

    ビルド番号が、ここに示したものとは異なる場合がありますが、更新されたカーネル・バージョンがここに示されているものと同じであることを確認してください。

手順2: (オプション) ASRの構成

ASRを構成するには:

  • 新しいマシンでOracle Exalyticsリリース2にアップグレードした場合は、ASRを次のように構成します。

    1. Oracle Exalytics In-Memory Machineオーナーズ・ガイドのAuto Service Request (ASR)のインストールに関する項で説明されている手順に従いますが、次の手順は変更してください。

    2. 第9.3項「始める前に」の手順5を次の手順に置き換えます。

      1. /opt/exalytics/asrディレクトリに移動して、/etc/inittabファイルに次の行を追加します。

        emh1:345:respawn:/opt/exalytics/asr/bda_mon_hw_asr.pl -server

      2. コマンド行で、次のコマンドを入力し、bda_monサーバーを初期化して起動します。

        init q

    3. 第9.7項「テレメトリ・ソースの構成」の手順2のコマンドを次のコマンドに置き換えます。

      # cd /opt/exalytics/asr

      # ./setup_asr_ilom.pl -host <hostname OR ip>

  • Oracle Exalyticsリリース1パッチセット5からOracle Exalyticsリリース2にアップグレードし、ASRが構成済の場合は、次の手順を実行しASRが動作中であることを確認します。

    • ps -ef | grep bdaコマンドを実行して、bda_mon_hw_asr_plが動作していることを確認します。

      詳細は、『Oracle Exalytics In-Memory Machineオーナーズ・ガイド』のAuto Service Requestソフトウェアのインストールに関する項を参照してください。

手順3: (オプション) Enterprise Manager Cloud Control DiscoveryのExalyticsホストの構成

Enterprise Manager Cloud Control DiscoveryのExalyticsホストを構成するには:

  • Enterprise Manager Cloud Control (EMCC)がデプロイされている新しいマシンにOracle Exalyticsリリース2をインストールした場合は、次の手順を実行して、Exalyticsホストを特定するようにEMCCを構成します。

    1. 次の手順を実行して、Exalytics MachineにSPシステム識別子が設定されていることを確認します。

      • Oracle Integrated Lights Out Manager (ILOM)にログオンします。

      • 「システム情報」を開きます。

      • 「サマリー」を選択します。

      SPシステム識別子が表示されていることを確認します。

    2. ILOMにログオンし、ILOMの左側のペインでILOM管理を開いて、「ID」を選択します。SPシステム識別子の値に、Oracle Exalytics AK00026925などの一意の値が入力されていることを確認します。

    3. Exalytics Machineにログオンします。

    4. コマンドchmod +x exalytics_configure_for_emcc.shを実行して、実行権限を付与します。

    5. 次のコマンドをrootユーザーとして実行し、ファイルを作成します。

      ./exalytics_configure_for_emcc.sh

    6. 出力を確認し、/var/exalytics/info/em-context.infoファイルのコンテンツにOracle Exalytics Machineのシステム識別子が正しく表示されていることを確認します。システム識別子は、この手順(b)で確認したシステム識別子と同一である必要があります。

  • Enterprise Manager Cloud Control (EMCC)がデプロイされているOracle Exalyticsリリース1パッチセット5からOracle Exalyticsリリース2にアップグレードした場合は、次の手順を実行し、EMCCによってExalyticsホストが特定されることを確認します。

    • /var/exalytics/info/em-context.infoファイルのコンテンツを確認し、そのコンテンツにOracle Exalytics Machineのシステム識別子が正しく表示されていることを確認します。

      システム識別子は、前述の手順(a)で確認した、Oracle Integrated Lights Out Manager (ILOM)に表示されるシステム識別子と同一である必要があります。

2.3.2.3 アプリケーション・ソフトウェア・コンポーネントのアップグレードまたはパッチ適用

使用しているデプロイメントに応じて、このリリースに対して新規に動作保証されたアプリケーション・ソフトウェア・コンポーネントのアップグレードまたはパッチ適用を実行します。


注意:

この項は、すでにアプリケーション・ソフトウェア・コンポーネントを実行している既存のExalyticsユーザーを対象としています。新規Exalyticsユーザーは、第6章「Exalytics Machineへのソフトウェアのインストール」に進んでください。

アプリケーション・ソフトウェア・コンポーネントのアップグレードまたはパッチ適用を実行する前に、インストールしようとしているものが、最新バージョンのExalytics動作保証済アプリケーション・ソフトウェアであることを確認してください。最新の動作保証については、Oracle Exalytics動作保証マトリクスを参照してください。Oracle Exalytics動作保証マトリクスは、次のリンク先にあります。

http://www.oracle.com/technetwork/middleware/ias/downloads/fusion-certification-100350.html

この項には次のトピックが含まれます:

Oracle BI EE 11.1.1.7.xまたは11.1.1.9.0のダウンロードとインストール

最新のOracle BI EE 11.1.1.7.xパッチセットをOracle BI EE 11.1.1.7.0インストールに適用するには、Oracle BI EE 11.1.1.7.150120パッチセットの最上位のパッチのREADMEファイルに記載された手順を参照してください。

Oracle BI EE 11.1.1.7.xインストールをOracle BI EE 11.1.1.9.0にアップグレードするには、『Oracle Fusion Middlewareパッチ適用ガイド』第3章「Oracle Fusion Middlewareの最新パッチ・セットの適用」を参照してください。


注意:

初めてOracle Exalyticsをインストールする場合は、Oracle BI EE 11.1.1.9.0をインストールできます。詳細は、第6章「Exalytics Machineへのソフトウェアのインストール」を参照してください。また、『Oracle Fusion Middleware Oracle Business Intelligenceインストレーション・ガイド』も参照してください。

Oracle BI EE 11.1.1.6.xインストールを実行している場合は、Oracle BI EE 11.1.1.7.0にアップグレードする必要があります。Oracle Fusion Middleware Oracle Business Intelligenceのアップグレード・ガイドを参照してください。


注意:

Oracle BI EE 11.1.1.6.xインストールのインストールまたは管理にExalytics Domain Management Utilityは使用できません。まず、Oracle BI EE 11.1.1.6.xインストールをOracle BI EE 11.1.1.7.0にアップグレードしてから、Exalytics Domain Management Utilityを使用して、このインストールを既存のプライマリ・ドメインとして登録します。

Oracle TimesTenのダウンロードとインストール

Oracle TimesTenをダウンロードしてインストールする前に、最新バージョンのExalytics動作保証済Oracle TimesTenバージョンをインストールしていることを確認してください。最新の動作保証については、Oracle Exalytics動作保証マトリクスを参照してください。Oracle Exalytics動作保証マトリクスは、次のリンク先にあります。

http://www.oracle.com/technetwork/middleware/ias/downloads/fusion-certification-100350.html

Oracle TimesTenをダウンロードしてインストールするには:

  1. My Oracle Supportに移動します。

  2. 最新バージョンのExalytics動作保証済Oracle TimesTenを検索してダウンロードします。


注意:

初めてOracle Exalyticsをインストールする場合は、以前のOracle TimesTenバージョンにパッチを適用するかわりに、動作保証された最新バージョンのOracle TimesTenをインストールできます。

Oracle TimesTenのインストール時に、「このインスタンスをアップグレードしますか。」という質問が表示された場合は「はい」と答えます。

また、既存のファイルは削除しないようにしてください。たとえば、インストール時に、次のような質問が表示された場合は「いいえ」と答えます。

  • <installation_directory>/TimesTen/tt1122/network/admin/samples内のファイルもすべて削除しますか。

  • 既存のcluster.oracle.iniファイルを置き換えますか。

  • 既存の<installation_directory>/TimesTen/tt1122/info/sys.odbc.iniファイルを置き換えますか。

  • <installation_directory>/TimesTen/tt1122/info内のファイルもすべて削除しますか。

詳細は、『Oracle TimesTen In-Memory Databaseインストレーション・ガイド』のインプレース・データベース・アップグレードの実行に関する項およびオフライン・アップグレードの実行に関する項を参照してください。


注意:

必要に応じて、Oracle Exalytics用のOracle Database In-Memoryをインストールできます。Oracle Exalytics用のOracle Database In-Memoryをインストールする手順は、第6.8項「Oracle Exalytics用のOracle Database In-Memoryのインストール」を参照してください。

Oracle BI Applicationsのダウンロードとインストール

Oracle BI Applicationsをデプロイする場合は、Oracle BI Applicationsをインストールします。詳細は、第6.5項「Exalytics MachineでのOracle BI Applicationsのインストールおよび構成」を参照してください。

動作保証された最新バージョンのExalyticsのOracle BI Applicationsがインストールされていることを確認するには、次のリンク先のOracle Exalytics動作保証マトリクスを参照してください。Oracle Exalytics動作保証マトリクスは、次のリンク先にあります。

http://www.oracle.com/technetwork/middleware/ias/downloads/fusion-certification-100350.html

Oracle Endecaのダウンロードとインストール

Oracle Endecaをインストールするには、Oracle Exalyticsドキュメント・ライブラリから利用可能なOracle Endeca Information Discoveryのドキュメントを参照してください。

動作保証された最新バージョンのExalyticsのOracle Endecaがインストールされていることを確認するには、次のリンク先のOracle Exalytics動作保証マトリクスを参照してください。Oracle Exalytics動作保証マトリクスは、次のリンク先にあります。

http://www.oracle.com/technetwork/middleware/ias/downloads/fusion-certification-100350.html

2.3.3 Oracle Business Intelligenceソフトウェアのアップグレードまたはパッチ適用のためのインストール後の手順


注意:

この項は、Oracle Business Intelligenceソフトウェアにアップグレードまたはパッチ適用を実行しようとしている既存のユーザーを対象としています。新規ユーザーは、第6章「Exalytics Machineへのソフトウェアのインストール」に進んでください。

Oracle Business Intelligence Enterprise EditionとOracle TimesTenのデータ型マッピングやその他の最適化に整合性があり、それらを活用できるようにするには、次のOracle Exalyticsコンポーネントのインストール後の手順を実行する必要があります。

2.3.3.1 Oracle TimesTen In-Memory Database

この項には次のトピックが含まれます:

2.3.3.1.1 Oracle TimesTenのチェックポイント頻度の構成

Oracle Business Intelligence Enterprise EditionがOracle TimesTenのチェックポイント頻度を設定するようにするには、Oracle TimesTen In-Memory Databaseをアップグレードした後に次の構成手順を実行します。この構成を実行しなかった場合は、Oracle TimesTenのパフォーマンスに悪影響を及ぼす可能性があります。

Oracle TimesTenのチェックポイント頻度を構成するには:

  1. timesten-install-dir/info/sys.odbc.iniファイルを開きます。

  2. 集計の永続性に使用されるスキーマのDSNエントリを検索します。

  3. 次のいずれかを実行します。

    • Oracle TimesTenデータベースに集計の永続性を使用してデータをロードする場合は、次のように3つのパラメータを編集します。

      • CkptFrequency=-1

      • CkptLogVolume=0

      • CkptRate=0

    • Oracle TimesTenデータベースに集計の永続性を使用しないでデータをロードする場合は、別のサーバーDSNを使用してから、次のように3つのパラメータを編集します。

      • CkptFrequency=30

      • CkptLogVolume=0

      • CkptRate=0

2.3.3.1.2 その他のインストール後の手順

Oracle TimesTenでその他のインストール後の手順を実行するには:

  1. Oracle TimesTenの既存のデータストアを再作成します。

  2. Oracle Exalyticsリリース1パッチセット5にOracle Exalyticsリリース2をインストールする場合は、nqcmdユーティリティを使用して集計を再構築します。詳細は、『Oracle Fusion Middleware Oracle Business Intelligence Enterprise Editionメタデータ・リポジトリ作成者ガイド』のOracle BIサーバーの問合せ用の集計の作成と維持に関する項を参照してください。

2.3.3.2 Oracle Business Intelligence Enterprise Edition

この項には次のトピックが含まれます:

2.3.3.2.1 opmn.xmlファイルの編集

集計を高速化し、パフォーマンスを向上させるために、opmn.xmlファイルを編集して適切な要素を追加することをお薦めします。可用性の高い、クラスタ化された環境で構成された各Exalytics Machine上でopmn.xmlファイルを編集するようにしてください。

opmn.xmlファイルを編集して集計とパフォーマンスを向上させるには:

  1. opmn.xmlファイル(MW_HOME/instances/instance1/config/OPMN/opmnに配置されている)を開きます。

  2. 次の子要素を<ias-component id="coreapplication_obis1" inherit-environment="true"><environment>の下に挿入します。

    1. <variable id="ORACLE_BI_TT_DISABLE_REDO_LOGGING" value="1"/>

      これにより、集計が高速化されます。

    2. <variable id="ORACLE_BI_TT_PARALLEL_INDEX_CREATION" value="1"/>

      インデックスをパラレルに作成することで、集計を高速化します。

    3. <variable id="ORACLE_BI_TT_BACKGROUND_CHECKPOINT_INTERVAL" value="6"/>

      このBIサーバーによって管理されるパラメータによって、Oracle TimesTenのデータストアがディスクに格納される頻度(データストアの永続性)が決定されます。デフォルト値は10秒ごとです。値の数値が小さくなるほど、Oracle TimesTenではデータストアがディスクに格納される頻度が高くなります。

  3. 通知サーバーを停止してから起動します。

    1. OPMNコマンド行ツールを含む次のディレクトリに移動します。

      MW_HOME/instances/instance1/bin

    2. 次のコマンドを入力します。

      ./opmnctl stopall

      OPMNおよびすべてのOracle Business Intelligenceシステム・コンポーネントが停止します。

    3. 次のコマンドを入力します。

      ./opmnctl startall

      OPMNおよびすべてのOracle Business Intelligenceシステム・コンポーネントを起動します。

2.3.3.2.2 Oracle Business Intelligenceクライアント・インストーラの再インストール

Oracle Business Intelligenceクライアント・ツールのインストールの詳細は、『Oracle Fusion Middleware Oracle Business Intelligenceインストレーション・ガイド』のOracle Business Intelligenceクライアント・ツールのインストールおよびアンインストールに関する項を参照してください。

2.3.4 Oracle Exalyticsリリース2のアンインストール手順

アップグレード終了後に問題が発生する場合、すべてのOracle Exalyticsコンポーネントのパッチをロールバックすることをお薦めします。1つまたは2つのコンポーネント・パッチを個々にロールバックしないでください。ロールバックの手順は、個々のコンポーネントのREADMEファイルに記載されています。

アップグレードを適用している際に問題が発生した場合は、Oracleサポートにご連絡ください。

2.4 非仮想Exalytics MachineでのFlashの構成と欠陥のあるFlashカードの置換

この項には次のトピックが含まれます:

2.4.1 オープン・ソース・コードの入手ライセンス

各コンポーネントのライセンスは、Oracle Linuxプログラムとともに配布されるドキュメントやhttp://oss.oracle.com/linux/legal/oracle-list.htmlからオンラインでアクセス可能なドキュメント、あるいはコンポーネントのソース・コードにあります。

バイナリのソース・コードの入手権限を付与するオープン・ソース・ライセンス下で認可されているバイナリ形式の技術の場合は、次のサイトで該当するソース・コードのコピーを入手できます。

https://edelivery.oracle.com/linux

このような技術のソース・コードがバイナリとともに提供されていない場合は、文書によるリクエストを次に送付すると、物理媒体でソース・コードのコピーを入手することもできます。

Oracle America, Inc.

Attn: Oracle Linux Source Code Requests

Development and Engineering Legal

500 Oracle Parkway, 10th Floor

Redwood Shores, CA 94065

リクエストには、次の情報を記入してください。

  • ソース・コードを要求するコンポーネントまたはバイナリ・ファイルの名前

  • Oracleソフトウェアの名前とバージョン番号

  • Oracleソフトウェアを入手した日付

  • 名前

  • 会社名(該当する場合)

  • 郵送先住所と電子メール

  • 連絡が必要な場合の電話番号

物理媒体と手続きの費用は無料です。リクエストを送付できるのは、(i)リクエスト対象のコンポーネントまたはバイナリ・ファイルを含む技術を入手した日から3年以内、または(ii) GPL v3の下でコードが認可されている場合(ただし、オラクル社がそのソフトウェア・モデルのスペア・パーツまたはカスタマ・サポートを提供している場合に限る)です。

2.4.2 Flashを構成するための前提条件

Exalytics MachineでFlashを構成する前に、次の前提条件を満たす必要があります。

  • Exalytics Base Image 2.0.0.0.el5または2.0.0.0.el6を実行している。

  • Oracleフィールド・サービス・エンジニアによって6枚のFlashカードが(X2-4またはX3-4 Exalytics Machine上で)インストールおよび構成されているか、3枚のFlashカードが(X4-4またはX5-4 Exalytics Machine上で)インストールおよび構成されていること。

2.4.3 Flashの構成

Oracle Exalyticsリリース2にアップグレードする場合、FlashドライバはExalytics Base Image 2.0.0.0.el5または2.0.0.0.el6に含まれています。Exalytics Machineのパフォーマンスと記憶域容量を向上させるには、Flashを構成する必要があります。


注意:

インストールされたFlashドライバでは、ソフトウェアRAIDが使用されます。

Oracleでは、2つのタイプのRAID構成がサポートされます。

  • RAID10: 通常はミラーのストライプと呼ばれ、最も一般的なRAID構成です。RAID10によって、データがドライブ間で複製およびストライピングされるため、いずれかのドライブに障害が発生した場合にデータが失われることがなくなります。これは、データ・ストレージ容量より信頼性の方が重要な場合に役立ちます。

  • RAID05: RAID05では、すべてのドライブが単一のドライブとして機能するよう結合されます。データは、独立した読取り操作および書込み操作によってディスクに転送されます。RAID05アレイには少なくとも3つのディスクが必要です。

この項は次のトピックで構成されています:

2.4.3.1 X2-4またはX3-4 Exalytics MachineでのFlashの構成


注意:

この項は、新しいFlashを構成するか、既存のFlash構成を再構成するユーザーを対象としています。既存のFlash構成を再構成しない場合は、この項はスキップしてください。Flashを再構成するとFlashカード上の既存のデータがすべて削除されることに注意してください。

X2-4およびX3-4 Exalytics Machineは、6枚のFlashカードを使用して構成されます。各Flashカードには、4つの100GBドライブが含まれています。

要件に応じて、次の組合せでFlashを構成できます。

  • RAID10


    注意:

    X2-4またはX3-4 Exalytics MachineでRAID05を構成しないことをお薦めします。

  • EXT3またはEXT4ファイル・システム


    注意:

    EXT4ファイル・システムでFlashを構成することをお薦めします。

Flashを構成するには:

  1. ILOMを使用してExalytics Machineを再起動します。

    1. ILOM Webベースのインタフェースにログオンします。

    2. ILOMの左側のペインで、ホスト管理を開いて、電源制御をクリックします。「アクションの選択」リストで、電源サイクルを選択し、「保存」をクリックします。

      Exalytics Machineが再起動します。

  2. 次のコマンドをrootユーザーとして入力します。

    # /opt/exalytics/bin/configure_flash.sh --<RAID_TYPE> --<FS_TYPE>

    例:

    • RAID10構成でFlashを構成するには、次のコマンドを入力します。

      # /opt/exalytics/bin/configure_flash.sh --RAID10 --EXT4


    注意:

    次の手順は、RAID10構成でFlashを構成することを前提としています。

    ソフトウェアRAIDのみに適用される次の警告が表示されます: Flash構成スクリプトにより既存のRAIDアレイとFlashドライブ上のパーティションが削除され、これらのFlashドライブすべてに新しいRAIDアレイが作成されますこれにより、これらのドライブからすべてのデータが失われます。このFlash構成スクリプトを続行しますか(はい/いいえ)

  3. プロンプトで「はい」と入力して、スクリプトの実行を続けます。

    このスクリプトは、次のタスクを実行します。

    • Flashカード上の既存のRAID構成をすべて消去します。

    • RAIDの2つの部分が異なるカードに属するように複数のRAID1ディスクを分散します。

    • すべてのFlash RAID1ドライブを単一のRAID0にストライピングします。

  4. Flashが正常に構成されたことを確認するには、次のコマンドを入力します。

    # df -h

    出力は次のようになります。

    Filesystem  Size   Used   Avail Use%             Mounted on /dev/mapper/VolGroup00-LogVol00
                 718G       4.4G   677G   1%   //dev/sda1              
                 99M   15M     79M   16%  /boottmpfs                
                1010G   0     1010G   0%  /dev/shm/dev/md0              
                1.1T  199M    1.1T    1%  /u02
    

    Flashは、図2-1のように構成されます。

    • 各Flashカード(F1、F2、F3など)には、4つの100GBドライブがあります。各ドライブは、/dev/sdg、/dev/sdh、/dev/sdi、/dev/sdjなどのデバイスにマップされます。

    • 2つのFlashドライブがRAID1 /dev/md1上で構成され、2つのFlashドライブがRAID1 /dev/md2上で構成され、2つのFlashドライブがRAID1 /dev/md3上で構成されるというように続き、合計で12のRAID1になります。

    • 12のRAID1は、親のRAID0 /dev/md0上に構成されます。

      図2-1 X2-4およびX3-4 Exalytics Machine用のRAID10でのFlash構成

      図2-1の説明が続きます
      「図2-1 X2-4およびX3-4 Exalytics Machine用のRAID10でのFlash構成」の説明

  5. Flashカードの状態を確認するには、次のコマンドを入力します。

    # /opt/exalytics/bin/exalytics_CheckFlash.sh

    6枚すべてのFlashカードの出力は次のようになります。

    Fetching some info on installed flash drives ....
    Driver version :   01.250.41.04 (2012.06.04)
     
    Supported number of flash drives detected (6)
     
    Flash card 1 :
    Overall health status : GOOD
    Size (in MB) : 381468
    Capacity (in bytes) : 400000000000
    Firmware Version : 108.05.00.00
    Devices:  /dev/sdd /dev/sdc /dev/sdf /dev/sde
     
    Flash card 2 :
    Overall health status : GOOD
    Size (in MB) : 381468
    Capacity (in bytes) : 400000000000
    Firmware Version : 108.05.00.00
    Devices:  /dev/sdg /dev/sdj /dev/sdi /dev/sdh 
     
    Flash card 3 :
    Overall health status : GOOD
    Size (in MB) : 381468
    Capacity (in bytes) : 400000000000
    Firmware Version : 108.05.00.00
    Devices:  /dev/sdm /dev/sdk /dev/sdn /dev/sdl
     
    Flash card 4 :
    Overall health status : GOOD
    Size (in MB) : 381468
    Capacity (in bytes) : 400000000000
    Firmware Version : 108.05.00.00
    Devices:  /dev/sdp /dev/sdo /dev/sdq /dev/sdr
     
    Flash card 5 :
    Overall health status : GOOD
    Size (in MB) : 381468
    Capacity (in bytes) : 400000000000
    Firmware Version : 108.05.00.00
    Devices:  /dev/sdu /dev/sdt /dev/sdv /dev/sds
     
    Flash card 6 :
    Overall health status : GOOD
    Size (in MB) : 381468
    Capacity (in bytes) : 400000000000
    Firmware Version : 108.05.00.00
    Devices:  /dev/sdx /dev/sdw /dev/sdy /dev/sdz
    

2.4.3.2 X4-4 Exalytics MachineでのFlashの構成

X4-4 Exalytics Machineは、3枚のFlashカードを使用して構成されます。各Flashカードには、4つの200GBドライブが含まれています。

要件に応じて、次の組合せでFlashを構成できます。

  • RAID10またはRAID05

  • EXT3またはEXT4ファイル・システム


    注意:

    EXT4ファイル・システムでFlashを構成することをお薦めします。

Flashを構成するには:

  1. ILOMを使用してExalytics Machineを再起動します。

    1. ILOM Webベースのインタフェースにログオンします。

    2. ILOMの左側のペインで、ホスト管理を開いて、電源制御をクリックします。「アクションの選択」リストで、電源サイクルを選択し、「保存」をクリックします。

      Exalytics Machineが再起動します。

  2. 次のコマンドをrootユーザーとして入力します。

    # /opt/exalytics/bin/configure_flash.sh --<RAID_TYPE> --<FS_TYPE>

    例:

    • RAID10構成でFlashを構成するには、次のコマンドを入力します。

      # /opt/exalytics/bin/configure_flash.sh --RAID10 --EXT4

    • RAID05構成でFlashを構成するには、次のコマンドを入力します。

      # /opt/exalytics/bin/configure_flash.sh --RAID05 --EXT4

      RAID05構成でのFlashは、図2-3のように構成されます。


    注意:

    次の手順は、X4-4 Exalytics Machine上のRAID10構成でFlashを構成することを前提としています。

    ソフトウェアRAIDのみに適用される次の警告が表示されます: Flash構成スクリプトにより既存のRAIDアレイとFlashドライブ上のパーティションが削除され、これらのFlashドライブすべてに新しいRAIDアレイが作成されますこれにより、これらのドライブからすべてのデータが失われます。このFlash構成スクリプトを続行しますか(はい/いいえ)

  3. プロンプトで「はい」と入力して、スクリプトの実行を続けます。

    このスクリプトは、次のタスクを実行します。

    • Flashカード上の既存のRAID構成をすべて消去します。

    • RAIDの2つの部分が異なるカードに属するように複数のRAID1ディスクを分散します。

    • すべてのFlash RAID1ドライブを単一のRAID0にストライピングします。

  4. Flashが正常に構成されたことを確認するには、次のコマンドを入力します。

    # df -h

    出力は次のようになります。

    Filesystem Size  Used Avail Use% Mounted on/dev/mapper/VolGroup00-LogVol00
               989G   23G  915G   3%   //dev/mapper/VolGroup01-LogVol00
               3.2T   13G  3.0T   1%   /u01/dev/sda1              
               99M    25M   70M  27%   /boottmpfs                
               1010G   0   1010G  0%   /dev/shm/dev/md0              
               1.1T  199M  1.1T   1%   /u02
    

    Flashは、図2-2のように構成されます。

    • 各Flashカード(F1、F2およびF3)には、4つの200GBドライブがあります。各ドライブは、/dev/sdg、/dev/sdh、/dev/sdi、/dev/sdjなどのデバイスにマップされます。

    • 2つのFlashドライブがRAID1 /dev/md1上で構成され、2つのFlashドライブがRAID1 /dev/md2上で構成され、2つのFlashドライブがRAID1 /dev/md3上で構成されるというように続き、合計で6つのRAID1になります。

    • 6つのRAID1は、親のRAID0 /dev/md0上に構成されます。

      図2-2 X4-4 Exalytics Machine用のRAID10でのFlash構成

      図2-2の説明が続く
      「図2-2 X4-4 Exalytics Machine用のRAID10でのFlash構成」の説明

  5. Flashカードの状態を確認するには、次のコマンドを入力します。

    # /opt/exalytics/bin/exalytics_CheckFlash.sh

    3つのFlashカードすべての出力は、次のようになります。

    Checking Exalytics Flash Drive Status
    
    Fetching some info on installed flash drives ....
    Driver version :   01.250.41.04 (2012.06.04)
    
    Supported number of flash drives detected (3)
    
    Flash card 1 :
    Overall health status : GOOD
    Size (in MB) : 762936
    Capacity (in bytes) : 800000000000
    Firmware Version : 109.05.26.00
    Devices:  /dev/sdc /dev/sdd /dev/sde /dev/sdf
     
    Flash card 2 :
    Overall health status : GOOD
    Size (in MB) : 762936
    Capacity (in bytes) : 800000000000
    Firmware Version : 109.05.26.00
    Devices:  /dev/sdj /dev/sdh /dev/sdg /dev/sdi
     
    Flash card 3 :
    Overall health status : GOOD
    Size (in MB) : 762936
    Capacity (in bytes) : 800000000000
    Firmware Version : 109.05.26.00
    Devices:  /dev/sdl /dev/sdm /dev/sdk /dev/sdn
    
    Summary:
    Healthy flash drives : 3
    Broken flash drives  : 0
    Pass : Flash card health check passed
    

    RAID05でも同様にFlashを構成できます。RAID05でのFlashは、図2-3のように構成されます。

    図2-3 X4-4 Exalytics Machine用のRAID05でのFlash構成

    図2-3の説明が続きます
    「図2-3 X4-4 Exalytics Machine用のRAID05でのFlash構成」の説明

2.4.3.3 X5-4 Exalytics MachineでのFlashの構成

X5-4 Exalytics Machineは、3枚のFlashカードを使用して構成されます。各Flashカードには、4つの400GBドライブが含まれています。

要件に応じて、次の組合せでFlashを構成できます。

  • RAID10またはRAID05

  • EXT3またはEXT4ファイル・システム


    注意:

    EXT4ファイル・システムでFlashを構成することをお薦めします。

Flashを構成するには:

  1. My Oracle Supportに移動し、パッチ番号21258871 (ベアメタルBase Image 2.0.0.0用のExalytics X5-4パッチ)をダウンロードして適用します。

  2. 次のコマンドをrootユーザーとして入力します。

    # /opt/exalytics/bin/configure_flash.sh --<RAID_TYPE> --<FS_TYPE>

    例:

    • RAID10構成でFlashを構成するには、次のコマンドを入力します。

      # /opt/exalytics/bin/configure_flash.sh --RAID10 --EXT4

    • RAID05構成でFlashを構成するには、次のコマンドを入力します。

      # /opt/exalytics/bin/configure_flash.sh --RAID05 --EXT4


    注意:

    次の手順は、X5-4 Exalytics Machine上のRAID05構成でFlashを構成することを前提としています。

    ソフトウェアRAIDのみに適用される次の警告が表示されます: Flash構成スクリプトにより既存のRAIDアレイとFlashドライブ上のパーティションが削除され、これらのFlashドライブすべてに新しいRAIDアレイが作成されますこれにより、これらのドライブからすべてのデータが失われます。このFlash構成スクリプトを続行しますか(はい/いいえ)

  3. プロンプトで「はい」と入力して、スクリプトの実行を続けます。

    このスクリプトは、次のタスクを実行します。

    • Flashカード上の既存のRAID構成をすべて消去します。

    • 3枚のFlashカード上でRAID05を構成します。

  4. Flashが正常に構成されたことを確認するには、次のコマンドを入力します。

    # df -h

    Flashは次のように構成されます。

    • 各Flashカード(F1、F2およびF3)には、4つの400GBドライブがあります。各ドライブは、/dev/nvme0n1p1、/dev/nvme0n1p3、/dev/nvme0n1p2、/dev/nvme0n1p4などのデバイスにマップされます。

    • 4つのFlashドライブがRAID05 /dev/md1上で構成され、4つのFlashドライブがRAID05 /dev/md2上で構成され、4つのFlashドライブがRAID5 /dev/md3上で構成され、合計で3つのRAID5になります。

    • 3つのRAID5は、親のRAID0 /dev/md0上に構成されます。

  5. Flashカードの状態を確認するには、次のコマンドを入力します。

    # /opt/exalytics/bin/exalytics_CheckFlash.sh

    3つのFlashカードすべての出力は、次のようになります。

    Checking Exalytics Flash Drive Status
     
    cardindex=0
    cIndex=0
    cIndex=0
    allFlashCardDevices=
    Driver version :   01.250.41.04 (2012.06.04)
     
    Supported number of flash drives detected (3)
     
    Flash card 1 :
    Slot number: 0
    Overall health status : GOOD
    Capacity (in bytes) :  3125627568
    Firmware Version : SUNW-NVME-1 PCI Vendor ID: 8086 Serial Number: CVMD4215000N1P6DGN Model Number: INTEL SSDPEDME016T4 Firmware Revision: 8DV10054 Number of Name
    cardindex=1
    cIndex=1
    cIndex=1
    allFlashCardDevices=nvme0n1p1
    Devices:  /dev/nvme0n1p1 /dev/nvme0n1p3 /dev/nvme0n1p2 /dev/nvme0n1p4
     
    Flash card 2 :
    Slot number: 0
    Overall health status : GOOD
    Capacity (in bytes) :   3125627568
    Firmware Version : SUNW-NVME-2 PCI Vendor ID: 8086 Serial Number: CVMD421500301P6DGN Model Number: INTEL SSDPEDME016T4 Firmware Revision: 8DV10054 Number of Name
    cardindex=2
    cIndex=2
    cIndex=2
    allFlashCardDevices=nvme1n1p2
    Devices:  /dev/nvme1n1p2 /dev/nvme1n1p1 /dev/nvme1n1p3 /dev/nvme1n1p4
     
    Flash card 3 :
    Slot number: 0
    Overall health status : GOOD
    Capacity (in bytes) :   3125627568
    Firmware Version : SUNW-NVME-3 PCI Vendor ID: 8086 Serial Number: CVMD4302002S1P6DGN Model Number: INTEL SSDPEDME016T4 Firmware Revision: 8DV10054 Number of Name
    cardindex=3
    cIndex=3
    cIndex=3
    allFlashCardDevices=nvme2n1p4
    Devices:  /dev/nvme2n1p4 /dev/nvme2n1p2 /dev/nvme2n1p3 /dev/nvme2n1p1
     
    Raid Array Info (/dev/md0):
    /dev/md0: 2979.58GiB raid5 3 devices, 1 spare. Use mdadm --detail for more detail.
     
    Summary:
    Healthy flash drives : 3
    Broken flash drives  : 0
    Pass : Flash card health check passed
    

    X5-4 Exalytics Machine上のRAID10でも同様にFlashを構成できます。

2.4.4 欠陥のあるFlashカードの置換

この項は次のトピックで構成されています:

2.4.4.1 X2-4またはX3-4 Exalytics Machineでの欠陥のあるFlashカードの置換

X2-4およびX3-4 Exalytics Machineは、6枚のFlashカードを使用して構成されます。各フラッシュ・カードには、それぞれ4つのデバイスが含まれています。Flashカードで1つのデバイスが失敗した場合、Flashカード全体が欠陥になり、これを置換する必要があります。次の手順は、親のRAID0 /dev/md0にインストールされたFlashカードにマッピングされている欠陥のあるデバイス(/dev/sdb)が存在することを前提にしています。図2-1を参照してください。

X2-4またはX3-4 Exalytics Machineの失敗した、または欠陥のあるFlashカードを置換するには、次のようにします。

  1. Flashカードの状態を確認するには、次のコマンドを入力します。

    # /opt/exalytics/bin/exalytics_CheckFlash.sh

    欠陥のあるFlashカードが検出されたら、全体的な状態: エラーメッセージが出力に表示され、概要に欠陥のあるカードおよびPeripheral Component Interconnect Express (PCIe)カードの場所が示されます。

    出力は次のようになります。

    Checking Exalytics Flash Drive Status
     
    Fetching some info on installed flash drives ....
    Driver version :   01.250.41.04 (2012.06.04) 
     
    Supported number of flash drives detected (6)
     
    Flash card 1 :
    Slot number: 1
    Overall health status : ERROR. Use --detail for more info
    Size (in MB) : 286101
    Capacity (in bytes) : 300000000000
    Firmware Version : 109.05.26.00
    Devices:  /dev/sdc /dev/sdd /dev/sda
     
    Flash card 2 :
    Slot number: 2
    Overall health status : GOOD
    Size (in MB) : 381468
    Capacity (in bytes) : 400000000000
    Firmware Version : 109.05.26.00
    Devices:  /dev/sdh /dev/sdg /dev/sdf /dev/sde
     
    Flash card 3 :
    Slot number: 3
    Overall health status : GOOD
    Size (in MB) : 381468
    Capacity (in bytes) : 400000000000
    Firmware Version : 109.05.26.00
    Devices:  /dev/sdl /dev/sdk /dev/sdj /dev/sdi
     
    Flash card 4 :
    Slot number: 5
    Overall health status : GOOD
    Size (in MB) : 381468
    Capacity (in bytes) : 400000000000
    Firmware Version : 109.05.26.00
    Devices:  /dev/sdp /dev/sdn /dev/sdo /dev/sdm
     
    Flash card 5 :
    Slot number: 7
    Overall health status : GOOD
    Size (in MB) : 381468
    Capacity (in bytes) : 400000000000
    Firmware Version : 109.05.26.00
    Devices:  /dev/sdt /dev/sds /dev/sdq /dev/sdr
     
    Flash card 6 :
    Slot number: 8
    Overall health status : GOOD
    Size (in MB) : 381468
    Capacity (in bytes) : 400000000000
    Firmware Version : 109.05.26.00
    Devices:  /dev/sdu /dev/sdx /dev/sdv /dev/sdw
     
    Raid Array Info (/dev/md0):
    /dev/md0:  raid0 12 devices, 0 spares. Use mdadm --detail for more detail.
     
    Summary:
    Healthy flash drives : 5
    Broken flash drives  : 1
    Fail : Flash card health check failed. See above for more details.
    

    次の点に注意してください。

    • デバイス /dev/sdbが失敗し、Flashカード1に表示されない場合。カードに割り当てられたデバイスを書き留めておき、Flashカードの置換後、割り当てられたデバイスで書き留めたデバイスを再チェックします。

    • スロット番号は、PCIeカードの場所を示しています。


      注意:

      欠陥のあるFlashカードは、オレンジまたは赤のLEDで特定することができます。Exalytics Machineのバックパネルをチェックして、欠陥のあるFlashカードの場所を確認してください。

  2. Exalytics Machineをシャットダウンしプラグを抜きます。

  3. 欠陥のあるFlashカードを置換します。

  4. Exalytics Machineを再起動します。


    注意:

    Integrated Lights Out Manager (ILOM)を使用して、Exalytics Machineを起動することもできます。

  5. すべてのFlashカードが正常に動作していることを確認し、RAID構成を確認するには、次のコマンドを入力します。

    # /opt/exalytics/bin/exalytics_CheckFlash.sh

    出力は次のようになります。

    Checking Exalytics Flash Drive Status
     
    Fetching some info on installed flash drives ....
    Driver version :   01.250.41.04 (2012.06.04) 
     
    Supported number of flash drives detected (6)
     
    Flash card 1 :
    Slot number: 1
    Overall health status : GOOD
    Size (in MB) : 381468
    Capacity (in bytes) : 400000000000
    Firmware Version : 109.05.26.00
    Devices:  /dev/sdd /dev/sda /dev/sdb /dev/sdc
     
    Flash card 2 :
    Slot number: 2
    Overall health status : GOOD
    Size (in MB) : 381468
    Capacity (in bytes) : 400000000000
    Firmware Version : 109.05.26.00
    Devices:  /dev/sdh /dev/sdg /dev/sdf /dev/sde
     
    Flash card 3 :
    Slot number: 3
    Overall health status : GOOD
    Size (in MB) : 381468
    Capacity (in bytes) : 400000000000
    Firmware Version : 109.05.26.00
    Devices:  /dev/sdi /dev/sdk /dev/sdl /dev/sdj
     
    Flash card 4 :
    Slot number: 5
    Overall health status : GOOD
    Size (in MB) : 381468
    Capacity (in bytes) : 400000000000
    Firmware Version : 109.05.26.00
    Devices:  /dev/sdm /dev/sdo /dev/sdp /dev/sdn
     
    Flash card 5 :
    Slot number: 7
    Overall health status : GOOD
    Size (in MB) : 381468
    Capacity (in bytes) : 400000000000
    Firmware Version : 109.05.26.00
    Devices:  /dev/sds /dev/sdt /dev/sdr /dev/sdq
     
    Flash card 6 :
    Slot number: 8
    Overall health status : GOOD
    Size (in MB) : 381468
    Capacity (in bytes) : 400000000000
    Firmware Version : 109.05.26.00
    Devices:  /dev/sdw /dev/sdx /dev/sdv /dev/sdu
     
    Raid Array Info (/dev/md0):
    /dev/md0: 1116.08GiB raid0 12 devices, 0 spares. Use mdadm --detail for more detail.
     
    Summary:
    Healthy flash drives : 6
    Broken flash drives  : 0
    Pass : Flash card health check passed
    

    次の点に注意してください。

    • Flashカード1にマップされた新しいデバイスが表示されます。

    • この例では、同じデバイス(/dev/sdd、/dev/sda、/dev/sdb、/dev/sdc)がFlashカード1にマッピングされます。異なるデバイスがFlashカード1にマッピングされる場合、新しいデバイスを使用してRAID1を再構築する必要があります。

    • 置換したFlashカードには4つの新しいフラッシュ・デバイスが含まれるため、RAID構成には4つの欠落したRAID1デバイス(交換したFlashカードにそれぞれひとつずつのフラッシュ・デバイス)が表示されます。RAID1を再構築して、RAID1構成で置換したFlashカード上の新しいデバイスが認識されるようにする必要があります。


      注意:

      動作中のFlashカードは、緑のLEDで特定されます。Exalytics Machineのバックパネルをチェックして、置換したFlashカードのLEDが緑であることを確認してください。

  6. 次のタスクを実行して、RAID1を再構築します。

    1. RAID1構成上のすべてのデバイスを表示するには、次のコマンドを入力します。

      # cat /proc/mdstat

      出力は次のようになります。

      Personalities : [raid1] [raid0] 
      md0 : active raid0 md12[11] md7[6] md1[0] md8[7] md5[4] md11[10] md10[9] md9[8] md3[2] md6[5] md2[1] md4[3]
            1170296832 blocks super 1.2 512k chunks
            
      md1 : active raid1 sdm[1]
            97590656 blocks super 1.2 [2/1] [_U]
            
      md2 : active raid1 sdo[1]
            97590656 blocks super 1.2 [2/1] [_U]
            
      md4 : active raid1 sdp[1]
            97590656 blocks super 1.2 [2/1] [_U]
            
      md3 : active raid1 sdn[1]
            97590656 blocks super 1.2 [2/1] [_U]
            
      md8 : active raid1 sdq[1] sdh[0]
            97590656 blocks super 1.2 [2/2] [UU]
            
      md12 : active raid1 sdw[1] sdi[0]
            97590656 blocks super 1.2 [2/2] [UU]
            
      md6 : active raid1 sdt[1] sdg[0]
            97590656 blocks super 1.2 [2/2] [UU]
            
      md9 : active raid1 sdx[1] sdk[0]
            97590656 blocks super 1.2 [2/2] [UU]
            
      md10 : active raid1 sdv[1] sdl[0]
            97590656 blocks super 1.2 [2/2] [UU]
            
      md5 : active raid1 sdr[1] sdf[0]
            97590656 blocks super 1.2 [2/2] [UU]
            
      md11 : active raid1 sdu[1] sdj[0]
            97590656 blocks super 1.2 [2/2] [UU]
            
      md7 : active raid1 sds[1] sde[0]
            97590656 blocks super 1.2 [2/2] [UU]
            
      unused devices: <none>
      

      次の点に注意してください。

      • 4つのmdデバイス(md1、md2、md3およびmd4)には、単一のsdデバイスが割り当てられます。

      • これらのデバイスの2番目のラインは、[2/1] [_U]のような表記で終了します。

    2. 正しいmdデバイスの構成をチェックするには、次のコマンドを入力します。

      # cat /etc/mdadm.conf

      出力は次のようになります。

      ARRAY /dev/md1 level=raid1 num-devices=2 metadata=1.2 name=localhost.localdomain:1 UUID=d1e5378a:80eb2f97:2e7dd315:c08fc304
         devices=/dev/sdc,/dev/sdm
      ARRAY /dev/md2 level=raid1 num-devices=2 metadata=1.2 name=localhost.localdomain:2 UUID=8226f5c2:e79dbd57:1976a29b:46a7dce1
         devices=/dev/sdb,/dev/sdo
      ARRAY /dev/md3 level=raid1 num-devices=2 metadata=1.2 name=localhost.localdomain:3 UUID=79c16c90:eb67f53b:a1bdc83c:b717ebb7
         devices=/dev/sda,/dev/sdn
      ARRAY /dev/md4 level=raid1 num-devices=2 metadata=1.2 name=localhost.localdomain:4 UUID=2b1d05bf:41447b90:40c84863:99c5b4c6
         devices=/dev/sdd,/dev/sdp
      ARRAY /dev/md5 level=raid1 num-devices=2 metadata=1.2 name=localhost.localdomain:5 UUID=bbf1ce46:6e494aaa:eebae242:c0a56944
         devices=/dev/sdf,/dev/sdr
      ARRAY /dev/md6 level=raid1 num-devices=2 metadata=1.2 name=localhost.localdomain:6 UUID=76257b58:ff74573a:a1ffef2b:12976a80
         devices=/dev/sdg,/dev/sdt
      ARRAY /dev/md7 level=raid1 num-devices=2 metadata=1.2 name=localhost.localdomain:7 UUID=fde5cab2:e6ea51bd:2d2bd481:aa834fb9
         devices=/dev/sde,/dev/sds
      ARRAY /dev/md8 level=raid1 num-devices=2 metadata=1.2 name=localhost.localdomain:8 UUID=9ed9b987:b8f52cc0:580485fb:105bf381
         devices=/dev/sdh,/dev/sdq
      ARRAY /dev/md9 level=raid1 num-devices=2 metadata=1.2 name=localhost.localdomain:9 UUID=2e6ec418:ab1d29f6:4434431d:01ac464f
         devices=/dev/sdk,/dev/sdx
      ARRAY /dev/md10 level=raid1 num-devices=2 metadata=1.2 name=localhost.localdomain:10 UUID=01584764:aa8ea502:fd00307a:c897162e
         devices=/dev/sdl,/dev/sdv
      ARRAY /dev/md11 level=raid1 num-devices=2 metadata=1.2 name=localhost.localdomain:11 UUID=67fd1bb3:348fd8ce:1a512065:906bc583
         devices=/dev/sdj,/dev/sdu
      ARRAY /dev/md12 level=raid1 num-devices=2 metadata=1.2 name=localhost.localdomain:12 UUID=6bb498e0:26aca961:78029fe9:e3c8a546
         devices=/dev/sdi,/dev/sdw
      ARRAY /dev/md0 level=raid0 num-devices=12 metadata=1.2 name=localhost.localdomain:0 UUID=7edc1371:e8355571:c7c2f504:8a94a70f devices=/dev/md1,/dev/md10,/dev/md11,/dev/md12,/dev/md2,/dev/md3,/dev/md4,/dev/md5,/dev/md6,/dev/md7,/dev/md8,/dev/md9
      

      デバイスの正しい構成は、次の通りです。

      • md1デバイスには、/dev/sdcおよび/dev/sdm sdデバイスが含まれます

      • md2デバイスには、/dev/sdbおよび/dev/sdo sdデバイスが含まれます

      • md3デバイスには、/dev/sdaおよび/dev/sdn sdデバイスが含まれます

      • md4デバイスには、/dev/sddおよび/dev/sdp sdデバイスが含まれます

    3. 欠落したsdデバイス(/dev/sdc、/dev/sdb、/dev/sda/および/dev/sdd)をそれぞれ4つのmdデバイス(md1、md2、md3およびmd4)に追加するには、次のコマンドを入力します。

      # mdadm /dev/md1 --add /dev/sdc

      sdデバイス/dev/sdcが、md1デバイスに追加されます。出力は次のようになります。

      mdadm: added /dev/sdc
      

      # mdadm /dev/md2 --add /dev/sdb

      sdデバイス/dev/sdbが、md2デバイスに追加されます。出力は次のようになります。

      mdadm: added /dev/sdb
      

      # mdadm /dev/md3 --add /dev/sda

      sdデバイス/dev/sdaが、md3デバイスに追加されます。出力は次のようになります。

      mdadm: added /dev/sda
      

      # mdadm /dev/md4 --add /dev/sdd

      sdデバイス/dev/sddが、md4デバイスに追加されます。出力は次のようになります。

      mdadm: added /dev/sdd
      

      RAID1の再構築が自動的に開始されます。

    4. リカバリの進行状況をチェックするには、次のコマンドを入力します。

      # cat /proc/mdstat

      出力をモニターし、プロセスが完了したことを確認します。出力は次のようになります。

      Personalities : [raid1] [raid0] 
      md0 : active raid0 md12[11] md7[6] md1[0] md8[7] md5[4] md11[10] md10[9] md9[8] md3[2] md6[5] md2[1] md4[3]
            1170296832 blocks super 1.2 512k chunks
            
      md1 : active raid1 sdc[2] sdm[1]
            97590656 blocks super 1.2 [2/1] [_U]
            [==>..................]  recovery = 10.4% (10244736/97590656) finish=7.0min speed=206250K/sec
            
      md2 : active raid1 sdb[2] sdo[1]
            97590656 blocks super 1.2 [2/1] [_U]
            [=>...................]  recovery =  8.1% (8000000/97590656) finish=7.4min speed=200000K/sec
            
      md4 : active raid1 sdd[2] sdp[1]
            97590656 blocks super 1.2 [2/1] [_U]
            [>....................]  recovery =  2.7% (2665728/97590656) finish=7.7min speed=205056K/sec
            
      md3 : active raid1 sda[2] sdn[1]
            97590656 blocks super 1.2 [2/1] [_U]
            [=>...................]  recovery =  6.3% (6200064/97590656) finish=7.3min speed=206668K/sec
            
      md8 : active raid1 sdq[1] sdh[0]
            97590656 blocks super 1.2 [2/2] [UU]
            
      md12 : active raid1 sdw[1] sdi[0]
            97590656 blocks super 1.2 [2/2] [UU]
            
      md6 : active raid1 sdt[1] sdg[0]
            97590656 blocks super 1.2 [2/2] [UU]
            
      md9 : active raid1 sdx[1] sdk[0]
            97590656 blocks super 1.2 [2/2] [UU]
            
      md10 : active raid1 sdv[1] sdl[0]
            97590656 blocks super 1.2 [2/2] [UU]
            
      md5 : active raid1 sdr[1] sdf[0]
            97590656 blocks super 1.2 [2/2] [UU]
            
      md11 : active raid1 sdu[1] sdj[0]
            97590656 blocks super 1.2 [2/2] [UU]
            
      md7 : active raid1 sds[1] sde[0]
            97590656 blocks super 1.2 [2/2] [UU]
            
      unused devices: <none>
      

2.4.4.2 X4-4またはX5-4 Exalytics Machineでの欠陥のあるFlashカードの置換

X4-4またはX5-4 Exalytics Machineは、それぞれ3枚のFlashカードを使用して構成されます。各フラッシュ・カードには、それぞれ4つのデバイスが含まれています。Flashカードで1つのデバイスが失敗した場合、Flashカード全体が欠陥になるため、これを置換する必要があります。RAID構成に応じて、RAID10またはRAID5構成上で欠陥のあるFlashカードを置換します。


注意:

次の手順では、X4-4 Exalytics Machine上で欠陥のあるFlashカードを交換する方法について説明します。

この項は次のトピックで構成されています:

2.4.4.2.1 RAID10構成での欠陥のあるFlashカードの置換

RAID10構成の場合、次の手順は、親のRAID0 /dev/md0にインストールされたFlashカードにマッピングされている欠陥のあるデバイス(/dev/sdb)が存在することを前提にしています。図2-2を参照してください。

RAID10構成でのエラーまたは欠陥のあるFlashカードを置換するには、次のようにします。

  1. Flashカードの状態を確認するには、次のコマンドを入力します。

    # /opt/exalytics/bin/exalytics_CheckFlash.sh

    欠陥のあるFlashカードが検出されたら、全体的な状態: エラーメッセージが出力に表示され、概要に欠陥のあるカードおよびPeripheral Component Interconnect Express (PCIe)カードの場所が示されます。

    出力は次のようになります。

    Checking Exalytics Flash Drive Status
     
    Fetching some info on installed flash drives ....
    Driver version :   01.250.41.04 (2012.06.04) 
     
    Supported number of flash drives detected (3)
     
    Flash card 1 :
    Slot number: 6
    Overall health status : ERROR. Use --detail for more info
    Size (in MB) : 572202
    Capacity (in bytes) : 600000000000
    Firmware Version : 109.05.26.00
    Devices:  /dev/sde /dev/sdc /dev/sdf
     
    Flash card 2 :
    Slot number: 7
    Overall health status : GOOD
    Size (in MB) : 762936
    Capacity (in bytes) : 800000000000
    Firmware Version : 109.05.26.00
    Devices:  /dev/sdh /dev/sdj /dev/sdg /dev/sdi
     
    Flash card 3 :
    Slot number: 10
    Overall health status : GOOD
    Size (in MB) : 762936
    Capacity (in bytes) : 800000000000
    Firmware Version : 109.05.26.00
    Devices:  /dev/sdn /dev/sdl /dev/sdk /dev/sdm
     
    Raid Array Info (/dev/md0):
    /dev/md0: 1116.08GiB raid0 6 devices, 0 spares. Use mdadm --detail for more detail.
     
    Summary:
    Healthy flash drives : 2
    Broken flash drives  : 1
    Fail : Flash card health check failed. See above for more details.
    

    次の点に注意してください。

    • デバイス /dev/sdbが失敗し、Flashカード1に表示されない場合。カードに割り当てられたデバイスを書き留めておき、Flashカードの置換後、割り当てられたデバイスで書き留めたデバイスを再チェックします。

    • スロット番号は、PCIeカードの場所を示しています。


      注意:

      欠陥のあるFlashカードは、オレンジまたは赤のLEDで特定することができます。Exalytics Machineのバックパネルをチェックして、欠陥のあるFlashカードの場所を確認してください。

  2. Exalytics Machineをシャットダウンしプラグを抜きます。

  3. 欠陥のあるFlashカードを置換します。

  4. Exalytics Machineを再起動します。


    注意:

    Integrated Lights Out Manager (ILOM)を使用して、Exalytics Machineを起動することもできます。

  5. すべてのFlashカードが正常に動作していることを確認し、RAID構成を確認するには、次のコマンドを入力します。

    # /opt/exalytics/bin/exalytics_CheckFlash.sh

    出力は次のようになります。

    Checking Exalytics Flash Drive Status
     
    Fetching some info on installed flash drives ....
    Driver version :   01.250.41.04 (2012.06.04) 
     
    Supported number of flash drives detected (3)
     
    Flash card 1 :
    Slot number: 6
    Overall health status : GOOD
    Size (in MB) : 762936
    Capacity (in bytes) : 800000000000
    Firmware Version : 109.05.26.00
    Devices:  /dev/sdd /dev/sdf /dev/sdc /dev/sde
    
    Flash card 2 :
    Slot number: 7
    Overall health status : GOOD
    Size (in MB) : 762936
    Capacity (in bytes) : 800000000000
    Firmware Version : 109.05.26.00
    Devices:  /dev/sdi /dev/sdj /dev/sdh /dev/sdg
     
    Flash card 3 :
    Slot number: 10
    Overall health status : GOOD
    Size (in MB) : 762936
    Capacity (in bytes) : 800000000000
    Firmware Version : 109.05.26.00
    Devices:  /dev/sdn /dev/sdm /dev/sdl /dev/sdk
     
    Raid Array Info (/dev/md0):
    /dev/md0:  raid0 6 devices, 0 spares. Use mdadm --detail for more detail.
     
    Summary:
    Healthy flash drives : 3
    Broken flash drives  : 0
    Pass : Flash card health check passed
    

    次の点に注意してください。

    • Flashカード1にマップされた新しいデバイスが表示されます。

    • RAID10構成では、/dev/md0は、6つのデバイスのあるRAID0として表示されます。図2-2を参照してください。

    • この例では、新しいデバイス(/dev/sdd、/dev/sdf、/dev/sdcおよび/dev/sde)がFlashカード1にマッピングされます。

    • 置換したFlashカードには4つの新しいフラッシュ・デバイスが含まれるため、RAID構成には4つの欠落したデバイス(交換したFlashカードにそれぞれひとつずつのフラッシュ・デバイス)が表示されます。RAID1を再構築して、RAID構成で置換したFlashカード上の新しいデバイスが認識されるようにする必要があります。


      注意:

      動作中のFlashカードは、緑のLEDで特定されます。Exalytics Machineのバックパネルをチェックして、置換したFlashカードのLEDが緑であることを確認してください。

  6. 次のタスクを実行して、RAID1を再構築します。

    1. RAID1構成上のすべてのデバイスを表示するには、次のコマンドを入力します。

      # cat /proc/mdstat

      出力は次のようになります。

      Personalities : [raid1] [raid0] 
      md3 : active (auto-read-only) raid1 sdm[1]
            195181376 blocks super 1.2 [2/1] [_U]
            bitmap: 0/2 pages [0KB], 65536KB chunk
       
      md4 : active (auto-read-only) raid1 sdk[1]
            195181376 blocks super 1.2 [2/1] [_U]
            bitmap: 0/2 pages [0KB], 65536KB chunk
       
      md2 : active (auto-read-only) raid1 sdi[1]
            195181376 blocks super 1.2 [2/1] [_U]
            bitmap: 0/2 pages [0KB], 65536KB chunk
       
      md6 : active raid1 sdn[1] sdj[0]
            195181376 blocks super 1.2 [2/2] [UU]
            bitmap: 0/2 pages [0KB], 65536KB chunk
       
      md0 : inactive md6[5] md5[4] md1[0]
            585149952 blocks super 1.2
             
      md1 : active raid1 sdh[1]
            195181376 blocks super 1.2 [2/1] [_U]
            bitmap: 1/2 pages [4KB], 65536KB chunk
       
      md5 : active raid1 sdl[1] sdg[0]
            195181376 blocks super 1.2 [2/2] [UU]
            bitmap: 0/2 pages [0KB], 65536KB chunk
       
      unused devices: <none>
      

      次の点に注意してください。

      • 4つのmdデバイス(md3、md4、md2およびmd1)には、単一のsdデバイスが割り当てられます。

      • これらのデバイスの2番目のラインは、[2/1] [_U]のような表記で終了します。

    2. 正しいmdデバイスの構成をチェックするには、次のコマンドを入力します。

      # cat /etc/mdadm.conf

      出力は次のようになります。

      ARRAY /dev/md1 level=raid1 num-devices=2 metadata=1.2 name=localhost.localdomain:1 UUID=2022e872:f5beb736:5a2f10a7:27b209fc
         devices=/dev/sdd,/dev/sdh
      ARRAY /dev/md2 level=raid1 num-devices=2 metadata=1.2 name=localhost.localdomain:2 UUID=b4aff5bf:18d7ab45:3a9ba04e:a8a56288
         devices=/dev/sde,/dev/sdi
      ARRAY /dev/md3 level=raid1 num-devices=2 metadata=1.2 name=localhost.localdomain:3 UUID=4e54d5d1:51314c65:81c00e25:030edd38
         devices=/dev/sdc,/dev/sdm
      ARRAY /dev/md4 level=raid1 num-devices=2 metadata=1.2 name=localhost.localdomain:4 UUID=f8a533ed:e195f83a:9dcc86eb:0427a897
         devices=/dev/sdf,/dev/sdk
      ARRAY /dev/md5 level=raid1 num-devices=2 metadata=1.2 name=localhost.localdomain:5 UUID=ec7eb621:35b9233f:049a5e1b:987e7d72
         devices=/dev/sdg,/dev/sdl
      ARRAY /dev/md6 level=raid1 num-devices=2 metadata=1.2 n
      

      デバイスの正しい構成は、次の通りです。

      • md1デバイスには、/dev/sddおよび/dev/sdh sdデバイスが含まれます

      • md2デバイスには、/dev/sdeおよび/dev/sdi sdデバイスが含まれます

      • md3デバイスには、/dev/sdcおよび/dev/sdm sdデバイスが含まれます

      • md4デバイスには、/dev/sdfおよび/dev/sdk sdデバイスが含まれます

    3. 欠落したsdデバイス(/dev/sdd、/dev/sde、/dev/sdc/および/dev/sdf)をそれぞれ4つのmdデバイス(md1、md2、md3およびmd4)に追加するには、次のコマンドを入力します。

      # mdadm /dev/md1 --add /dev/sdd

      sdデバイス/dev/sddが、md1デバイスに追加されます。出力は次のようになります。

      mdadm: added /dev/sdd
      

      # mdadm /dev/md2 --add /dev/sde

      sdデバイス/dev/sdeが、md2デバイスに追加されます。出力は次のようになります。

      mdadm: added /dev/sde
      

      # mdadm /dev/md3 --add /dev/sdc

      sdデバイス/dev/sdcが、md3デバイスに追加されます。出力は次のようになります。

      mdadm: added /dev/sdc
      

      # mdadm /dev/md4 --add /dev/sdf

      sdデバイス/dev/sdfが、md4デバイスに追加されます。出力は次のようになります。

      mdadm: added /dev/sdf
      

      RAID1の再構築が自動的に開始されます。

    4. リカバリの進行状況をチェックするには、次のコマンドを入力します。

      # cat /proc/mdstat

      出力をモニターし、プロセスが完了したことを確認します。出力は次のようになります。

      Personalities : [raid1] [raid0] 
      md3 : active raid1 sdc[2] sdm[1]
            195181376 blocks super 1.2 [2/1] [_U]
            [>....................]  recovery =  1.8% (3656256/195181376) finish=15.7min speed=203125K/sec
            bitmap: 0/2 pages [0KB], 65536KB chunk
       
      md4 : active raid1 sdf[2] sdk[1]
            195181376 blocks super 1.2 [2/1] [_U]
            [>....................]  recovery =  1.2% (2400000/195181376) finish=16.0min speed=200000K/sec
            bitmap: 0/2 pages [0KB], 65536KB chunk
       
      md2 : active raid1 sde[2] sdi[1]
            195181376 blocks super 1.2 [2/1] [_U]
            [>....................]  recovery =  3.4% (6796736/195181376) finish=15.2min speed=205961K/sec
            bitmap: 0/2 pages [0KB], 65536KB chunk
       
      md6 : active raid1 sdn[1] sdj[0]
            195181376 blocks super 1.2 [2/2] [UU]
            bitmap: 0/2 pages [0KB], 65536KB chunk
       
      md0 : inactive md6[5] md5[4] md1[0]
            585149952 blocks super 1.2
             
      md1 : active raid1 sdd[2] sdh[1]
            195181376 blocks super 1.2 [2/1] [_U]
            [>....................]  recovery =  4.4% (8739456/195181376) finish=15.0min speed=206062K/sec
            bitmap: 1/2 pages [4KB], 65536KB chunk
       
      md5 : active raid1 sdl[1] sdg[0]
            195181376 blocks super 1.2 [2/2] [UU]
            bitmap: 0/2 pages [0KB], 65536KB chunk
       
      unused devices: <none>
      
2.4.4.2.2 RAID05構成での欠陥のあるFlashカードの置換

RAID05構成の場合、次の手順は、親のRAID5 /dev/md0にインストールされたFlashカードにマッピングされている欠陥のあるデバイス(/dev/sdb)が存在することを前提にしています。図2-3を参照してください。

  1. Flashカードの状態を確認するには、次のコマンドを入力します。

    # /opt/exalytics/bin/exalytics_CheckFlash.sh

    欠陥のあるFlashカードが検出されたら、全体的な状態: エラーメッセージが出力に表示され、概要に欠陥のあるカードおよびPeripheral Component Interconnect Express (PCIe)カードの場所が示されます。

    出力は次のようになります。

    Checking Exalytics Flash Drive Status
     
    Fetching some info on installed flash drives ....
    Driver version :   01.250.41.04 (2012.06.04) 
     
    Supported number of flash drives detected (3)
     
    Flash card 1 :
    Slot number: 6
    Overall health status : ERROR. Use --detail for more info
    Size (in MB) : 572202
    Capacity (in bytes) : 600000000000
    Firmware Version : 109.05.26.00
    Devices:  /dev/sdf /dev/sdc /dev/sde
     
    Flash card 2 :
    Slot number: 7
    Overall health status : GOOD
    Size (in MB) : 762936
    Capacity (in bytes) : 800000000000
    Firmware Version : 109.05.26.00
    Devices:  /dev/sdh /dev/sdj /dev/sdi /dev/sdg
     
    Flash card 3 :
    Slot number: 10
    Overall health status : GOOD
    Size (in MB) : 762936
    Capacity (in bytes) : 800000000000
    Firmware Version : 109.05.26.00
    Devices:  /dev/sdn /dev/sdk /dev/sdm /dev/sdl
     
    Raid Array Info (/dev/md0):
    /dev/md0: 1488.86GiB raid5 3 devices, 0 spares. Use mdadm --detail for more detail.
     
    Summary:
    Healthy flash drives : 2
    Broken flash drives  : 1
    Fail : Flash card health check failed. See above for more details.
    

    次の点に注意してください。

    • デバイス /dev/sdbが失敗し、Flashカード1に表示されない場合。カードに割り当てられたデバイスを書き留めておき、Flashカードの置換後、割り当てられたデバイスで書き留めたデバイスを再チェックします。

    • スロット番号は、PCIeカードの場所を示しています。


      注意:

      欠陥のあるFlashカードは、オレンジまたは赤のLEDで特定することができます。Exalytics Machineのバックパネルをチェックして、欠陥のあるFlashカードの場所を確認してください。

  2. Exalytics Machineをシャットダウンしプラグを抜きます。

  3. 欠陥のあるFlashカードを置換します。

  4. Exalytics Machineを再起動します。


    注意:

    Integrated Lights Out Manager (ILOM)を使用して、Exalytics Machineを起動することもできます。

  5. すべてのFlashカードが正常に動作していることを確認し、RAID構成を確認するには、次のコマンドを入力します。

    # /opt/exalytics/bin/exalytics_CheckFlash.sh

    出力は次のようになります。

    Checking Exalytics Flash Drive Status
     
    Fetching some info on installed flash drives ....
    Driver version :   01.250.41.04 (2012.06.04) 
     
    Supported number of flash drives detected (3)
     
    Flash card 1 :
    Slot number: 6
    Overall health status : GOOD
    Size (in MB) : 762936
    Capacity (in bytes) : 800000000000
    Firmware Version : 109.05.26.00
    Devices:  /dev/sdd /dev/sdf /dev/sdc /dev/sde
     
    Flash card 2 :
    Slot number: 7
    Overall health status : GOOD
    Size (in MB) : 762936
    Capacity (in bytes) : 800000000000
    Firmware Version : 109.05.26.00
    Devices:  /dev/sdg /dev/sdi /dev/sdh /dev/sdj
     
    Flash card 3 :
    Slot number: 10
    Overall health status : GOOD
    Size (in MB) : 762936
    Capacity (in bytes) : 800000000000
    Firmware Version : 109.05.26.00
    Devices:  /dev/sdl /dev/sdk /dev/sdn /dev/sdm
     
    Raid Array Info (/dev/md0):
    /dev/md0: 1488.86GiB raid5 3 devices, 1 spare. Use mdadm --detail for more detail.
     
    Summary:
    Healthy flash drives : 3
    Broken flash drives  : 0
    Pass : Flash card health check passed
    

    次の点に注意してください。

    • Flashカード1にマップされた新しいデバイスが表示されます。

    • RAID05構成では、/dev/md0は、3つのデバイスのあるRAID5として表示されます。図2-3を参照してください。

    • この例では、新しいデバイス(/dev/sdd、/dev/sdf、/dev/sdcおよび/dev/sde)がFlashカード1にマッピングされます。

    • 置換したFlashカードには4つの新しいフラッシュ・デバイスが含まれるため、RAID構成には4つの欠落したデバイス(交換したFlashカードにそれぞれひとつずつのフラッシュ・デバイス)が表示されます。RAID05を再構築して、RAID構成で置換したFlashカード上の新しいデバイスが認識されるようにする必要があります。


      注意:

      動作中のFlashカードは、緑のLEDで特定されます。Exalytics Machineのバックパネルをチェックして、置換したFlashカードのLEDが緑であることを確認してください。

  6. 次の手順を実行して、RAID05を再構築します。

    1. RAID05構成をチェックするには、次のコマンドを入力します。

      # cat /proc/mdstat

      出力は次のようになります。

      Personalities : [raid0] [raid6] [raid5] [raid4] 
      md3 : active raid0 sdn[2] sdk[1] sdm[3] sdl[0]
            780724224 blocks super 1.2 512k chunks
            
      md0 : active raid5 md3[3] md2[1]
            1561186304 blocks super 1.2 level 5, 512k chunk, algorithm 2 [3/2] [_UU]
            bitmap: 6/6 pages [24KB], 65536KB chunk
       
      md2 : active raid0 sdi[1] sdh[2] sdj[3] sdg[0]
            780724224 blocks super 1.2 512k chunks
            
      unused devices: <none>
      

      次の点に注意してください。

      • 置換したFlashカードには、RAID0 /dev/md1で4つの新しいフラッシュ・デバイスが含まれるため、構成には欠落したmd1としてRAID5 /dev/md0が表示されます。

      • RAID5構成の2番目のラインは、[3/2] [_UU]のような表記で終了します。

      • RAID5を有効化してmd1を認識させるには、md1を再作成する必要があります。

    2. md1を再作成するには、次のコマンドを入力します。

      # mdadm /dev/md1 --create --raid-devices=4 --level=0 /dev/sdf /dev/sde /dev/sdc /dev/sdd

      出力は次のようになります。

      mdadm: array /dev/md1 started.
      
    3. md1の作成が成功したことを確認してから、新しく作成したmd1をRAID5に追加します。

    4. md1をRAID5に追加するには、次のコマンドを入力します。

      # mdadm /dev/md0 --add /dev/md1

      出力は次のようになります。

      mdadm: added /dev/md1
      

      RAID5の再構築が自動的に開始されます。

    5. リカバリの進行状況をチェックするには、次のコマンドを入力します。

      # cat /proc/mdstat

      出力をモニターし、プロセスが完了したことを確認します。出力は次のようになります。

      Personalities : [raid0] [raid6] [raid5] [raid4] 
      md1 : active raid0 sdd[3] sdc[2] sde[1] sdf[0]
            780724224 blocks super 1.2 512k chunks
            
      md3 : active raid0 sdn[2] sdk[1] sdm[3] sdl[0]
            780724224 blocks super 1.2 512k chunks
            
      md0 : active raid5 md1[4] md3[3] md2[1]
            1561186304 blocks super 1.2 level 5, 512k chunk, algorithm 2 [3/2] [_UU]
            [>....................]  recovery =  0.5% (4200064/780593152) finish=64.6min speed=200003K/sec
            bitmap: 6/6 pages [24KB], 65536KB chunk
       
      md2 : active raid0 sdi[1] sdh[2] sdj[3] sdg[0]
            780724224 blocks super 1.2 512k chunks
            
      unused devices: <none>
      
    6. mdadm.conf構成ファイルを再作成して、Exalytics Machineを再起動するときにRAID5の詳細情報が維持されるようにするには、次のコマンドを入力します。

      # mdadm --detail --scan --verbose > /etc/mdadm.conf

      ファイルが正常に再作成されたことを確認するには、次のコマンドを入力します。

      # cat /etc/mdadm.conf

      出力をモニターし、プロセスが完了したことを確認します。出力は次のようになります。

      ARRAY /dev/md2 level=raid0 num-devices=4 metadata=1.2 name=localhost.localdomain:2 UUID=d7a213a4:d3eab6de:b62bb539:7f8025f4
         devices=/dev/sdg,/dev/sdh,/dev/sdi,/dev/sdj
      ARRAY /dev/md3 level=raid0 num-devices=4 metadata=1.2 name=localhost.localdomain:3 UUID=b6e6a4d9:fb740b73:370eb061:bb9ded07
         devices=/dev/sdk,/dev/sdl,/dev/sdm,/dev/sdn
      ARRAY /dev/md1 level=raid0 num-devices=4 metadata=1.2 name=localhost.localdomain:1 UUID=185b52fc:ca539982:3c4af30c:5578cdfe
         devices=/dev/sdc,/dev/sdd,/dev/sde,/dev/sdf
      ARRAY /dev/md0 level=raid5 num-devices=3 metadata=1.2 spares=1 name=localhost.localdomain:0 UUID=655b4442:94160b2f:0d40b860:e9eef70f
         devices=/dev/md1,/dev/md2,/dev/md3
      

      注意:

      mdadm.conf構成ファイルで(各RAIDにマップされるデバイスのリストを更新するなど)他のカスタマイズを行った場合は、手動でファイルを編集する必要があります。