3 ストレージホストおよびデバイスの構成

Oracle HSM のインストールおよび構成に進む前に、この章に概要を示すストレージの構成タスクを実行します。この章では、次のトピックの概要について説明します。

プライマリストレージの構成

Oracle HSM ファイルシステムでは、プライマリディスクまたはソリッドステートディスクデバイスに、アクティブに使用および変更されているファイルが格納されます。キャッシュ用にディスクまたはソリッドステートディスクデバイスを構成する際には、次のガイドラインに従います。

プライマリキャッシュ用のデバイスの構成

  1. プライマリキャッシュの開始容量を見積もるには、フルになった場合にそれぞれのファイルシステムで保持するデータの容量を決定します。

  2. ファイルシステムのメタデータを考慮に入れるには、この開始容量を 10% 増やします。

  3. 高パフォーマンスの ma タイプのファイルシステムを準備する場合、mm メタデータデバイス用にハードウェアを構成します。mm メタデータデバイスごとに、ハードウェアで制御された 4 ディスクの RAID 10 (1+0) ボリュームグループ 1 つが理想的です。パフォーマンスを最大にするためには、ソリッドステートディスクデバイスの使用を検討してください。

    ストライプ化ミラー RAID 10 アレイは、Oracle HSM メタデータの格納に適していることを特徴としています。RAID 10 ストレージハードウェアは冗長性が高いため、クリティカルなメタデータが保護されます。その他のほとんどの RAID 構成よりもスループットが高く、待機時間が短くなります。

    一般に、専用コントローラハードウェアで制御されるアレイは、共有の汎用プロセッサ上で動作しているソフトウェアで制御されるアレイよりもパフォーマンスに優れています。

    ソリッドステートデバイスは、その特性上、頻繁に更新され、頻繁に読み取られるメタデータを格納する際に特に役立ちます。

  4. プライマリキャッシュストレージ用に外部ディスクアレイを使用している場合は、ファイルシステム構成内の md または mr デバイスごとに、3+1 または 4+1 RAID 5 ボリュームを構成します。ボリュームグループごとに 1 つの論理ボリューム (LUN) を構成します。

    特定の数のディスクに対して、3+1 および 4+1 RAID 5 ボリュームグループを小さくすると、ボリュームグループを大きくするよりも並列性が高くなるため、入出力 (I/O) のパフォーマンスが高くなります。入出力の観点からは、RAID 5 ボリュームグループ内の個々のディスクデバイスは独立して動作せず、各ボリュームグループが単一のデバイスと同様に動作します。したがって、特定の数のディスクを 3+1 および 4+1 ボリュームグループに分割すると、対応する構成を大きくするよりもデバイスの独立性が高くなり、並列性が高くなり、入出力の競合が少なくなります。

    RAID グループを小さくすると、ストレージに対するパリティーの比率が高くなるため、容量も少なくなります。しかし、大部分のユーザーにとって、これはパフォーマンスの向上で十二分に相殺されます。アーカイブファイルシステムでは、ディスクキャッシュの容量が多少削減されても、多くの場合は、アーカイブ内で使用可能な容量がほぼ無制限であるため完全に相殺されます。

    1 つのボリュームグループに複数の論理ボリューム (LUN) を構成すると、論理的に別々のボリュームでの入出力によって、一度に 1 回の入出力にしか対応しないリソースセットに対する競合が生じます。これにより、入出力関連のオーバーヘッドが増加し、スループットが減少します。

  5. 次に、アーカイブストレージの構成を開始します。

アーカイブストレージの構成

次のタスクを実行します。

SAN 接続デバイスのゾーン化

ドライブと Oracle HSM ホスト上のホストバスアダプタの間の通信を許可するために、ストレージエリアネットワーク (SAN) がゾーン化されていることを確認してください。ゾーン化を確認するには、次の手順を実行します。

Oracle HSM 構成内のすべてのデバイスの適切なゾーン化

  1. ホストが SAN 上のデバイスを表示できることを確認します。-al (接続ポイントリスト) および -o show_SCSI_LUN オプションを指定して、Solaris 構成管理コマンド cfgadm を入力します。ドライブポートの World Wide Name (WWN) に関する出力を確認します。

    出力の 1 列目には、ホストバスアダプタのコントローラ番号と WWN をコロンで区切ったもので構成される接続ポイント ID (Ap_id) が表示されます。-o show_SCSI_LUN オプションは、ノードが ADI インタフェースを介してメディアチェンジャーを制御するブリッジドライブである場合に、ノード上のすべての LUN を表示します。

    root@solaris:~# cfgadm -al -o show_SCSI_LUN
    Ap_Id     Type Receptacle Occupant   Condition
    c2::500104f000937528   tape connected  configured   unknown
    c3::50060160082006e2,0 tape connected  unconfigured unknown
    
  2. cfgadm -al -o show_SCSI_LUN の出力にドライブの WWN が一覧表示されていない場合は、ドライブが表示されません。SAN の構成に何らかの問題があります。このため、SAN 接続およびゾーン構成を再確認してください。次に、前のステップを繰り返します。

  3. cfgadm -al コマンドの出力でドライブが構成されていないと表示される場合、次に -c (構成) スイッチを使用して、コマンドを再度実行します。

    このコマンドは、/dev/rmt に必要なデバイスファイルを構築します。

    root@solaris:~# cfgadm -al
    Ap_Id     Type Receptacle Occupant   Condition
    c2::500104f000937528   tape connected  configured   unknown
    c3::50060160082006e2,0 tape connected  unconfigured unknown
    root@solaris:~# cfgadm -c configure 50060160082006e2,0 
    
  4. デバイス名と World Wide Name との関連付けを確認します。コマンド ls -al /dev/rmt | grep WWN を使用します。ここで WWN は World Wide Name です。

    root@solaris:~# ls -al /dev/rmt | grep 50060160082006e2,0
    lrwxrwxrwx 1 root root 94 May 20 05:05 3un -> \
    ../../devices/pci@1f,700000/SUNW,qlc@2/fp@0,0/st@w50060160082006e2,0:
    
  5. 推奨される最小限の Solaris パッチレベルを使用している場合は、ここでディスクストレージを構成します

  6. それ以外の場合は、デバイスのターゲット ID を取得します。

  7. /kernel/drv/st.conf を編集します。前の手順で確認したターゲット ID を指定して、ベンダーで指定されたエントリーを tape-config-list に追加します。

  8. 強制的に st モジュールをリロードします。コマンド update_drv -f st を使用します。

    root@solaris:~# update_drv -f st
    root@solaris:~# 
    
  9. 次に、ディスクストレージを構成します

アーカイブディスクストレージの構成

Oracle HSM アーカイブファイルシステムは、テープメディアだけでなく、ディスクにもファイルをアーカイブできます。ディスクファイルシステムがディスクアーカイブとして構成されている場合、ソフトウェアは、そのファイルシステムをテープカートリッジであるかのように使用します。ファイルシステムをボリュームシリアル番号 (VSN) でアドレス指定し、ファイルコピーをテープアーカイブ (tar) ファイル内に格納します。

ディスクベースのアーカイブストレージは、アーカイブソリューションの柔軟性と冗長性を向上させることができます。ランダムアクセスのディスクデバイスには、順次アクセスのテープデバイスに関連したマウントや位置決めのオーバーヘッドがありません。そのため、多数の小さなファイルをアーカイブして取得するソリューションは、各ファイルの最初のコピーをディスク上に格納すれば、同じ処理をより迅速かつ確実に実行できる可能性があります。コピーをオフサイトのメディアに保持する必要のあるアーカイブソリューションは、多くの場合、リモートホスト上の NFS でマウントされたディスク常駐ファイルシステムにコピーを書き込むことによってそれを簡単に実行できます。

Oracle Storage Cloud Software Appliance (OSCSA) は、リモートホストの制限されたローカルディスク領域を実質的に無制限のクラウドベースのストレージのフロントエンドキャッシュとして使用することにより、このような NFS でマウントされたアーカイブストレージの有用性をさらに拡張できます。このアプライアンスは、Network File System バージョン 4 (NFSv4) で構成された Oracle Linux 7 (以降) ホスト、オープンソースの Docker Engine 1.6 (以降) コンテナ管理ソフトウェア、および Oracle Storage Cloud Software Appliance Docker イメージで構成されています。

アーカイブディスクストレージを使用する予定がある場合は、まず必要な合計容量、アーカイブボリュームの数、およびファイルシステムの数を決定します。次に、Oracle Storage Cloud でアーカイブディスクストレージを構成する予定がある場合は、必要な Oracle Storage Cloud Software Appliance をプロビジョニングします

容量、ボリューム、およびファイルシステムの要件の確認

予測されるワークロードを処理するための十分なハードウェアリソースを計画します。Oracle HSM アーカイブおよびステージングの並行操作が互いに、またはほかのアプリケーションと同じ一連の物理デバイスに関して競合する必要がある場合は、パフォーマンスが低下します。そのため、次に示すガイドラインに従ってください。

  1. Oracle HSM 操作ごとに、またアーカイブされる 10 - 20T バイトのデータごとに 1 つのディスクボリューム (ディスクまたは RAID グループ) を割り当てます。

    ディスクボリュームがディスクデバイスのプールから動的に割り当てられるストレージである場合は、割り当て制限を設定します。ベースとなる物理ストレージが過剰に予約されていないことを確認してください。

  2. ディスクボリュームごとに 1 つのファイルシステムを割り当てます。

    同じ物理ドライブまたは RAID グループ上に存在する LUN 上には、複数のファイルシステムを構成しないでください。

  3. 各ファイルシステムを 1 つのディスクアーカイブとして使用するように計画します。

    サブディレクトリを個別のアーカイブボリュームとして使用しないでください。

  4. 各ファイルシステムを厳密にアーカイブのために使用するように計画します。

    汎用ファイルシステムをディスクアーカイブとして使用しないでください。

  5. 次に、NFS でマウントされたディスクアーカイブとして使用されるすべてのリモートファイルシステムを作成します。

NFS でマウントされたディスクアーカイブとして使用するリモートファイルシステムの作成

  1. ディスクアーカイブとして使用する予定のすべてのリモートファイルシステムを作成します。

    新しい、専用のファイルシステムを作成します。ほかのアプリケーションと共有する必要のある既存の汎用ファイルシステムを使用しないでください。

    あとで Oracle HSM サーバーを構成するときに、ローカルにマウントされたディスクアーカイブファイルシステムを作成します。

  2. ディスクアーカイブソリューションの一部として Oracle Storage Cloud を使用する予定がある場合は、ここで Oracle Storage Cloud Software Appliance ホストを構成します

  3. それ以外の場合は、アーカイブテープストレージを構成します

Oracle Storage Cloud Software Appliance ホストの構成

  1. 「Oracle Cloud」 > 「パブリック」 > 「インフラストラクチャー」 > 「ストレージ」 > 「Storage Cloud Software Appliance」 (http://docs.oracle.com/cloud/latest/storagecs_common/CSSGU/) から最新の OSCSA ドキュメントをダウンロードします。

    便宜上、この手順では構成プロセスやシステム要件が要約されています。ただし、常に OSCSA 製品ドキュメントおよび README ファイルを参照して、完全な最新の情報を入手してください。

  2. Oracle 販売チームに問い合わせてください。Oracle Storage Cloud Service へのサブスクリプションを購入し、Oracle Storage Cloud Software Appliance イメージを要求します。

  3. アプライアンスホストごとに、少なくとも 2 つのデュアルコア CPU と 4G バイトのランダムアクセスメモリー (RAM) を備えた汎用の x86 サーバーを用意します。

  4. 各 OSCSA ホストに Oracle Linux 7 (カーネルバージョン 3.10 以降) がインストールされるようにします。

    Oracle Linux は、Oracle Software Delivery Cloud (https://edelivery.oracle.com/) から入手できます。

  5. 各 OSCSA ホストに Docker 1.6.1 以上がインストールされるようにします。

    Docker は、ソフトウェアコンテナのためのオープンソースの配布プラットフォームです。Docker は、Docker (https://www.docker.com) から入手できます。

  6. 各 OSCSA ホストに Network File System バージョン 4 (NFSv4) サービスがインストールされるようにします。

    Oracle HSM ホストは、NFSv4 を使用して、OSCSA フロントエンドキャッシュを構成する Linux ファイルシステムをリモートでマウントします。

  7. OSCSA ドキュメント Oracle Storage Cloud Software Appliance の使用 (http://docs.oracle.com/cloud/latest/storagecs_common/CSSGU/) の手順に従って、Oracle Storage Cloud Software Appliance をインストールして構成します。

  8. OSCSA ドキュメントの指示に従って、OSCSA キャッシュファイルシステムを作成します。

  9. 次に、テープストレージを構成します。

アーカイブテープストレージの構成

次のタスクを実行します。

ドライブをライブラリに取り付ける順序の確認

自動ライブラリに複数のドライブが含まれている場合は、Oracle HSM のマスター構成ファイル (mcf) 内のドライブの順序が、ライブラリコントローラに表示されるドライブの順序と同じである必要があります。この順序は、ホストで表示され、ホストの /var/adm/messages ファイルで報告されるデバイスの順序とは異なる場合があります。

Oracle HSM メタデータサーバーとデータムーバーホストごとに、次に示すタスクを実行してドライブの順序を確認します。

ライブラリと Solaris ホストのドライブ情報の収集
  1. ライブラリのドキュメントを参照してください。ドライブとターゲットの識別方法を確認してください。ローカルオペレータパネルがある場合、これを使用してドライブの順序を判別する方法を参照してください。

  2. ライブラリにローカルオペレータパネルがマウントされている場合、これを使用して、ドライブをコントローラに接続する順序を判別します。各ドライブの SCSI ターゲット ID または World Wide Name を判別します。

  3. Solaris ホストに root としてログインします。

    root@solaris:~# 
    
  4. /dev/scsi/changer/ 内に Solaris 論理デバイス名を一覧表示して、出力をテキストファイルにリダイレクトします。

    次の例では、/dev/rmt/ のリストを root ユーザーのホームディレクトリ内のファイル device-mappings.txt にリダイレクトします。

    root@solaris:~# ls -l /dev/rmt/ > /root/device-mappings.txt 
    
  5. 次に、Solaris デバイス名を直接または ACSLS 接続ライブラリ内のドライブにマップします。

直接接続ライブラリ内のドライブを Solaris デバイス名にマップ

/dev/rmt/ 内に一覧表示されている Solaris 論理ドライブ名ごと、およびライブラリが Oracle HSM サーバーホストに割り当てるドライブごとに、次の手順を実行します。

  1. まだ Oracle HSM Solaris ホストにログインしていない場合、root としてログインします。

    root@solaris:~# 
    
  2. テキストエディタで、ライブラリと Solaris ホストのドライブ情報の収集の手順で作成したデバイスマッピングファイルを開きます。情報を簡単な表に整理します。

    後続の手順でこの情報を参照する必要があります。次の例では、vi エディタを使用して、権限、所有権、日付属性を /dev/rmt/ リストから削除して、ライブラリデバイス情報のヘッダーと領域を追加します。

    root@solaris:~# vi /root/device-mappings.txt 
    LIBRARY SOLARIS      SOLARIS 
    DEVICE  LOGICAL      PHYSICAL
    NUMBER  DEVICE       DEVICE
    ------- ----------   -------------------------------------------
            /dev/rmt/0 -> ../../devices/pci@1f,4000/scsi@2,1/st@2,0:
            /dev/rmt/1 -> ../../devices/pci@1f,4000/scsi@4,1/st@5,0:
            /dev/rmt/2 -> ../../devices/pci@1f,4000/scsi@4,1/st@6,0:
            /dev/rmt/3 -> ../../devices/pci@1f,4000/scsi@4/st@1,0: 
    lrwxrwxrwx 1 root root 40 Mar 18 2014 /dev/rmt/4 -> ../../devices/pci@1f,4000/scsi@4/st@2,0:
    
  3. ライブラリで、すべてのドライブが空になっていることを確認します。

  4. Solaris 論理デバイス名にまだマップしていないライブラリ内の最初のドライブにテープをロードします。

    次の例のために、LTO4 テープを HP Ultrium LTO4 テープドライブにロードします。

  5. テープをマウントするドライブに対応する Solaris /dev/rmt/ エントリを識別します。ドライブを特定するまで、コマンド mt -f /dev/rmt/number status を実行します。ここで number は、/dev/rmt/ 内のドライブを識別します。

    次の例では、/dev/rmt/0 にあるドライブは空ですが、/dev/rmt/1 にあるドライブにはテープが保持されています。そのため、ライブラリがドライブ 1 として識別するドライブは、Solaris /dev/rmt/1 に対応します。

    root@solaris:~# mt -f /dev/rmt/0 status
    /dev/rmt/0: no tape loaded or drive offline
    root@solaris:~# mt -f /dev/rmt/1 status
    HP Ultrium LTO 4 tape drive:
       sense key(0x0)= No Additional Sense   residual= 0   retries= 0
       file no= 0   block no= 3
    
  6. デバイスマッピングファイルで、テープを収容する Solaris デバイスのエントリを特定して、指定された領域にライブラリのデバイス ID を入力します。次に、ファイルを保存します。

    次の例では、/dev/rmt/1 の行の LIBRARY DEVICE NUMBER フィールドに 1 を入力します。

    root@solaris:~# vi /root/device-mappings.txt 
    LIBRARY SOLARIS      SOLARIS 
    DEVICE  LOGICAL      PHYSICAL
    NUMBER  DEVICE       DEVICE
    ------- ----------   -------------------------------------------
            /dev/rmt/0 -> ../../devices/pci@1f,4000/scsi@2,1/st@2,0:
       1    /dev/rmt/1 -> ../../devices/pci@1f,4000/scsi@4,1/st@5,0:
            /dev/rmt/2 -> ../../devices/pci@1f,4000/scsi@4,1/st@6,0:
            /dev/rmt/3 -> ../../devices/pci@1f,4000/scsi@4/st@1,0: 
    :w
    
  7. テープをアンロードします。

  8. ライブラリが Oracle HSM ホストに割り当てるすべてのデバイスの Solaris 論理デバイス名がデバイスマッピングファイルに保持されるまで、この手順を繰り返します。その後、ファイルを保存してエディタを閉じます。

    root@solaris:~# vi /root/device-mappings.txt 
    LIBRARY SOLARIS      SOLARIS 
    DEVICE  LOGICAL      PHYSICAL
    NUMBER  DEVICE       DEVICE
    ------- ----------   -------------------------------------------
       2    /dev/rmt/0 -> ../../devices/pci@1f,4000/scsi@2,1/st@2,0:
       1    /dev/rmt/1 -> ../../devices/pci@1f,4000/scsi@4,1/st@5,0:
       3    /dev/rmt/2 -> ../../devices/pci@1f,4000/scsi@4,1/st@6,0:
       4    /dev/rmt/3 -> ../../devices/pci@1f,4000/scsi@4/st@1,0: 
    :wq
    root@solaris:~# 
    
  9. マッピングファイルを保存します。

    この情報は、ファイルシステムを構成するときに必要になるため、完成した Oracle HSM 構成をバックアップするときに含めることもできます。

  10. 次に、直接接続ライブラリの構成に進みます。

ACSLS 接続ライブラリ内のドライブを Solaris デバイス名にマップ
  1. まだ Oracle HSM Solaris ホストにログインしていない場合、root としてログインします。

    root@solaris:~# 
    
  2. テキストエディタで、ライブラリと Solaris ホストのドライブ情報の収集の手順で作成したデバイスマッピングファイルを開き、単純な表に整理します。

    後続の手順でこの情報を参照する必要があります。次の例では、vi エディタを使用して、権限、所有権、日付属性を /dev/rmt/ リストから削除して、ライブラリデバイス情報のヘッダーと領域を追加します。

    root@solaris:~# vi /root/device-mappings.txt 
    LOGICAL DEVICE  DEVICE SERIAL NUMBER  ACSLS DEVICE ADDRESS
    --------------  --------------------  ----------------------------------
    /dev/rmt/0  
    /dev/rmt/1  
    /dev/rmt/2  
    /dev/rmt/3  
    
  3. /dev/rmt/ で一覧表示される論理デバイス名ごとに、デバイスシリアル番号を表示します。コマンド luxadm display /dev/rmt/number を使用します。ここで number は、/dev/rmt/ 内のドライブを識別します。

    この例では、デバイス /dev/rmt/0 のシリアル番号 HU92K00200 を取得します。

    root@solaris:~# luxadm display /dev/rmt/0
    DEVICE PROPERTIES for tape: /dev/rmt/0
    Vendor: HP
    Product ID: Ultrium 4-SCSI
    Revision: G25W
    Serial Num: HU92K00200
    ...
    Path status: Ready
    root@solaris:~#  
    
  4. device-mappings.txt ファイルの対応する行にシリアル番号を入力します。

    次の例では、論理デバイス /dev/rmt/0 の行に、デバイス /dev/rmt/0 のシリアル番号 HU92K00200 を記録します。

    root@solaris:~# vi /root/device-mappings.txt 
    LOGICAL DEVICE  DEVICE SERIAL NUMBER  ACSLS DEVICE ADDRESS
    --------------  --------------------  ----------------------------------
    /dev/rmt/0      HU92K00200
    /dev/rmt/1  
    /dev/rmt/2  
    /dev/rmt/3  
    :wq
    root@solaris:~# 
    
  5. /dev/rmt/ で一覧表示されるすべての論理デバイスのデバイスシリアル番号が識別され、その結果が device-mappings.txt ファイルに記録されるまで、前の 2 つのステップを繰り返します。

    この例では、4 つの論理デバイスを使用します。

    root@solaris:~# vi /root/device-mappings.txt 
    LOGICAL DEVICE  DEVICE SERIAL NUMBER  ACSLS DEVICE ADDRESS
    --------------  --------------------  ----------------------------------
    /dev/rmt/0      HU92K00200
    /dev/rmt/1      HU92K00208
    /dev/rmt/2      HU92K00339
    /dev/rmt/3      HU92K00289
    :w
    root@solaris:~# 
    
  6. /dev/rmt/ にマップされているデバイスのシリアル番号ごとに、対応する ACSLS ドライブアドレスを取得します。ACSLS コマンド display drive * -f serial_num を使用します。

    次の例では、デバイス HU92K00200 (/dev/rmt/0)、HU92K00208 (/dev/rmt/1)、HU92K00339 (/dev/rmt/2)、HU92K00289 (/dev/rmt/3) の ACSLS アドレスを取得します。

     ACSSA> display drive * -f serial_num
     2014-03-29 10:49:12 Display Drive
     Acs Lsm Panel Drive Serial_num
     0   2   10    12    331000049255
     0   2   10    16    331002031352
     0   2   10    17    HU92K00200
     0   2   10    18    HU92K00208
     0   3   10    10    HU92K00339
     0   3   10    11    HU92K00189
     0   3   10    12    HU92K00289
    
  7. device-mappings.txt ファイルの対応する行に、各 ACSLS ドライブのアドレスを記録します。ファイルを保存して、テキストエディタを閉じます。

    root@solaris:~# vi /root/device-mappings.txt 
    LOGICAL DEVICE  DEVICE SERIAL NUMBER  ACSLS DEVICE ADDRESS
    --------------  --------------------  ----------------------------------
    /dev/rmt/0      HU92K00200            (acs=0, lsm=2, panel=10, drive=17)
    /dev/rmt/1      HU92K00208            (acs=0, lsm=2, panel=10, drive=18)
    /dev/rmt/2      HU92K00339            (acs=0, lsm=2, panel=10, drive=10)
    /dev/rmt/3      HU92K00289            (acs=0, lsm=2, panel=10, drive=12)
    :wq
    
  8. マッピングファイルを保存します。

    この情報は、ファイルシステムを構成するときに必要になるため、完成した Oracle HSM 構成をバックアップするときに含めることもできます。

  9. アーカイブファイルシステムを構成するときに、Oracle StorageTek ACSLS ネットワーク接続ライブラリを構成します。そのため、高可用性ファイルシステムを計画している場合は、高可用性ファイルシステム用のストレージの構成に進みます。それ以外の場合は、Oracle HSM and QFS Software のインストールに進みます。

直接接続ライブラリの構成

直接接続テープライブラリを構成するには、ハードウェアを物理的に接続して、場合によっては SCSI ドライバを構成する必要があります (Oracle HSM は、リリース 5.4 より前の SAM-QFS で使用される samst ドライバではなく、汎用 sgen ドライバを使用してライブラリロボットを制御します)。次のように進めます。

  1. ライブラリおよびドライブを Oracle HSM サーバーホストに物理的に接続します。

  2. Solaris 11 上ではじめて Oracle HSM をインストールする場合や、Oracle HSM または SAM-QFS 5.4 構成をアップグレードする場合は、ハードウェアが物理的に接続されたら停止します。

    Solaris 11 では、sgen がデフォルトの SCSI ドライバであるため、Oracle HSM インストールソフトウェアは、ドライバ別名と構成ファイルを自動的に更新できます。

  3. Solaris 10 システムに Oracle HSM をインストールする場合、次のリストにあるいずれかのドライバ別名が sgen ドライバに割り当てられているかどうかを確認します。コマンド grep scs.*,08 /etc/driver_aliases を使用します。

    sgen ドライバには次のいずれかの別名が割り当てられていることがあります。

    • scsa,08.bfcp" または scsa,08.bvhci (あるいはその両方)

    • scsiclass,08

    この例では、Solaris で sgen ドライバの別名として scsiclass,08 が使用されています。

    root@solaris:~# grep scs.*,08 /etc/driver_aliases
    sgen "scsiclass,08"
    root@solaris:~# 
    
  4. grep コマンドが sgen "alias" (alias は上のリスト内の別名) を返す場合、sgen ドライバがインストールされており、別名が正しく割り当てられています。そのため、次のように進めます。

  5. grep コマンドで some-driver "alias" (some-driversgen 以外のドライバ、alias は上記の別名のいずれか) が返される場合は、その別名はすでに別のドライバに割り当てられています。そのため、sgen ドライバのパス指向の別名を作成します

  6. コマンド grep scs.*,08 /etc/driver_aliases で出力が返されない場合は、sgen ドライバがインストールされていません。そのためこれをインストールします。コマンド add_drv -i scsiclass,08 sgen を使用します。

    この例では、grep コマンドで何も返されません。そのため sgen ドライバをインストールします。

    root@solaris:~# grep scs.*,08 /etc/driver_aliases
    root@solaris:~# add_drv -i scsiclass,08 sgen
    
  7. コマンド add_drv -i scsiclass,08 sgen で「Driver (sgen) is already installed」というメッセージが返される場合は、ドライバがすでにインストールされていますが、接続されていません。そのためここで接続します。コマンド update_drv -a -i scsiclass,08 sgen を使用します。

    この例では、add_drv コマンドはドライバがすでにインストールされていることを示しています。そのためドライバを接続します。

    root@solaris:~# add_drv -i scsiclass,08 sgen
    Driver (sgen) is already installed.
    root@solaris:~# update_drv -a -i scsiclass,08 sgen
    
  8. コマンド grep scs.*,08 /etc/driver_aliases によって、別名 scsiclass,08sgen ドライバに割り当てられていることが示される場合、ドライバは正しく構成されています。

    root@solaris:~# grep scs.*,08 /etc/driver_aliases
    sgen "scsiclass,08"
    root@solaris:~# 
    
  9. 高可用性ファイルシステムを構成する場合は、高可用性ファイルシステム用のストレージの構成を参照してください。

  10. それ以外の場合は、Oracle HSM and QFS Software のインストールに進みます。

sgen ドライバのパス指向の別名の作成

予定していた sgen 別名がすでに別のドライバに割り当てられている場合は、sgen を使用して、既存のドライバ割り当てを妨害せずに、指定したライブラリを接続するパス指向の別名を作成する必要があります。次のように進めます。

  1. Oracle HSM サーバーホストに root としてログインします。

    root@solaris:~# 
    
  2. システム構成を表示します。コマンド cfgadm -vl を使用します。

    cfgadm の出力は、2 行のヘッダーおよびレコードごとに 2 行で書式設定されています。

    root@solaris:~# cfgadm -vl
    Ap_Id                Receptacle  Occupant     Condition Information  When
    Type        Busy  Phys_Id
    c3                   connected   configured   unknown   unavailable  
    scsi-sas    n     /devices/pci@0/pci@0/pci@2/scsi@0:scsi
    c5::500104f0008e6d78 connected   configured   unknown   unavailable  
    med-changer y     /devices/pci@0/.../SUNW,qlc@0,1/fp@0,0:fc::500104f0008e6d78
    ...
    root@solaris:~# 
    
  3. cfgadm -vl の出力で、ライブラリのレコードを検索します。各レコードの 2 行目の「Type」列で、med-changer を検索します。

    この例では、2 番目のレコードでライブラリを検索します。

    root@solaris:~# cfgadm -vl
    Ap_Id                Receptacle  Occupant     Condition Information  When
    Type        Busy  Phys_Id
    c3                   connected   configured   unknown   unavailable  
    scsi-sas    n     /devices/pci@0/pci@0/pci@2/scsi@0:scsi
    c5::500104f0008e6d78 connected   configured   unknown   unavailable  
    med-changer y     /devices/pci@0/.../SUNW,qlc@0,1/fp@0,0:fc::500104f0008e6d78
    ...
    root@solaris:~# 
    
  4. 新しいパス指向の別名として機能する物理パスを取得します。cfgadm -vl の出力で「Phys_Id」列のエントリから、サブ文字列 /devices を削除します。

    この例では、メディアチェンジャーレコードの「Phys_Id」にパス /devices/pci@0/pci@0/pci@9/SUNW,qlc@0,1/fp@0,0:fc::500104f0008e6d78 が含まれているため、別名として /devices/ の後ろの文字列部分を選択します (この物理パスは、次に示す使用可能な領域に合わせて短縮されています)。

    root@solaris:~# grep scsiclass,08 /etc/driver_aliases
    sdrv "scsiclass,08"
    root@solaris:~# cfgadm -vl
    Ap_Id                Receptacle  Occupant     Condition Information  When
    Type        Busy  Phys_Id
    c3                   connected   configured   unknown   unavailable  
    scsi-sas    n     /devices/pci@0/pci@0/pci@2/scsi@0:scsi
    c5::500104f0008e6d78 connected   configured   unknown   unavailable  
    med-changer y     /devices/pci@0/.../SUNW,qlc@0,1/fp@0,0:fc::500104f0008e6d78
    ...
    root@solaris:~# 
    
  5. パス指向の別名を作成して、sgen ドライバに割り当てます。コマンド update_drv -d -i '"/path-to-library"' sgen を使用します。ここで path-to-library は、前のステップで識別したパスです。

    この例では、ライブラリパスを使用して、パス指向の別名 '"/pci@0/pci@0/pci@9/SUNW,qlc@0,1/fp@0,0:fc::500104f0008e6d78"' を作成します (一重引用符と二重引用符に注意してください)。コマンドは 1 行ですが、ページレイアウトに合わせて 2 行として書式設定されています。

    root@solaris:~# update_drv -d -i \ '"/pci@0/pci@0/pci@9/SUNW,qlc@0,1/fp@0,0:fc::500104f0008e6d78"' sgen
    root@solaris:~# 
    

    この時点で、ライブラリは sgen ドライバを使用して構成されています。

  6. 高可用性ファイルシステムを構成する場合は、高可用性ファイルシステム用のストレージの構成に進みます。

  7. それ以外の場合は、Oracle HSM and QFS Software のインストールに進みます。

高可用性ファイルシステム用のストレージの構成

単一点ハードウェア障害によってファイルシステムが到達不可能のままにならないように、高可用性ファイルシステムには、冗長ハードウェアと複数の独立した入出力パスが必要です。次のタスクを実行します。

マルチパス入出力のための Solaris クラスタノードの構成

高可用性共有ファイルシステムを構成するには、使用しているバージョンの Solaris Cluster ソフトウェアに合ったハードウェア管理マニュアルの推奨事項に従う必要があります。冗長なプライマリストレージデバイスと冗長な入出力パスの両方を提供します。

ファイルシステムデータおよびメタデータをハードウェア RAID デバイスまたは Solaris Volume Manager (SVM) ソフトウェア RAID ボリュームに格納します。Oracle HSM メタデータおよび構成ファイルを RAID-10 ボリュームグループまたはミラー化された SVM ボリュームに配置します。ファイルシステムデータをハードウェアで制御された RAID-10 または RAID-5 ボリュームグループ、あるいはミラー化された SVM ボリュームに配置します。現在の Solaris リリースには、SVM は含まれていません。Solaris 10 9/10 リリースに付属していたバージョンのソフトウェアをダウンロードしてインストールする必要があります。

ストレージエリアネットワーク接続で単一点障害が発生できないようにしてください。各クラスタノードに複数のホストバスアダプタ (HBA) をインストールします。ストレージエリアネットワーク (SAN) を複数のインターコネクトおよび冗長スイッチで構成します。Oracle Solaris 入出力マルチパスソフトウェアを使用してパスフェイルオーバーを管理します (詳細は、Oracle Solaris お客様向けドキュメントライブラリの『Oracle Solaris SAN 構成およびマルチパス化ガイド』および stmsboot のマニュアルページを参照してください)。

マルチパス入出力のための Linux クライアントの構成

Linux クライアントでは、Device Mapper Multipath (DMM) ソフトウェアパッケージを使用して、パスフェイルオーバーのための冗長ストレージデバイスを構成します。DMM ソフトウェアは、ホストとストレージデバイスを 1 つの仮想入出力デバイス (マルチパス) としてリンクする、すべてのホストバスアダプタ、ケーブル、スイッチ、およびコントローラを管理します。

ホストとストレージデバイスなどを 1 つの仮想デバイスとしてリンクするすべての入出力パス。個別のケーブル、スイッチ、およびコントローラ。マルチパスは入出力パスを集約することにより、集約されたパスで構成される新しいデバイスを作成します。マルチパスを有効にするには、次の手順を実行します。

Device Mapper Multipath ソフトウェアパッケージのインストール

Oracle Linux 6.x を実行するクライアントを構成するには、次の手順に従います (ほかのバージョンの Linux については、ベンダーのドキュメントを参照してください)。

  1. root として Linux ホストにログインします。

    [root@linux ~]# 
    
  2. /etc/yum.repos.d サブディレクトリに変更し、ディレクトリの内容を一覧表示します。

    [root@linux ~]# cd /etc/yum.repos.d
    [root@linux ~]# ls -l
    total 4
    -rw-r--r--. 1 root root 1707 Jun 25  2012 public-yum-ol6.repo
    [root@linux ~]# 
    
  3. /etc/yum.repos.d サブディレクトリに public-yum-ol6.repo ファイルが含まれていない場合は、wget コマンドを使用して、Oracle YUM リポジトリからそのファイルをダウンロードします。

    [root@linux ~]# wget http://public-yum.oracle.com/public-yum-ol6.repo
    -- 2013-02-25 12:50:32 --   http://public-yum.oracle.com/public-yum-ol6.repo
    Resolving public-yum.oracle.com... 14 1.146.44.34
    Connecting to public-yum.oracle.com|141.146.44.34|:80... connected.
    HTTP request sent, awaiting response... 200 OK
    Length: 2411 (2.4K) [text/plain]
    Saving to: ”public-yum-ol6.repo”
    100%[======================================>] 2,411   -- . - K/s   in 0.001s
    2013-02-25 12:50:32 (3.80 MB/s) - ”public-yum-ol6.repo” saved
    [2411/2411]
    [root@linux ~]# 
    
  4. テキストエディタを使用して、public-yum-ol6.repo ファイルを開きます。最初のエントリ [ol6_latest] に行 enabled=1 が含まれていることを確認します。

    次の例では、vi エディタを使用します。必要な行が存在するため、このファイルを閉じます。

    [root@linux ~]# vi public-yum-ol6.repo 
    [ol6_latest]
    name=Oracle Linux $releasever Latest ($basearch)
    baseurl=http://public-yum.oracle.com/repo/OracleLinux/OL6/latest/$basearch/
    gpgkey=http://public-yum.oracle.com/RPM-GPG-KEY-oracle-ol6
    gpgcheck=1
    enabled=1
    ...
    :q
    [root@linux ~]# 
    
  5. Device Mapper Multipath ソフトウェアパッケージを検索します。コマンド yum search multipath を使用します。

    [root@linux ~]# yum search multipath
    Loaded plugins: refresh-packagekit, security
    ========================== N/S Matched: multipath ==========================
    device-mapper-multipath.x86_64 : Tools to manage multipath devices using
                                   : device-mapper
    device-mapper-multipath-libs.x86_64 : The device-mapper-multipath modules and
                                        : shared library
      Name and summary matches only, use "search all" for everything.
    [root@linux ~]# 
    
  6. Device Mapper Multipath ソフトウェアをインストールします。コマンド yum install device-mapper-multipath を使用します。入力を要求されたら、y (yes) と入力して、一覧表示されたパッケージとその依存関係を受け入れます。

    [root@linux ~]# yum install device-mapper-multipath
    Loaded plugins: refresh-packagekit, security
    Setting up Install Process
    Resolving Dependencies
    --> Running transaction check
    ---> Package device-mapper-multipath.x86_64 0:0.4.9-56.el6_3.1 will be
    installed
    --> Processing Dependency: device-mapper-multipath-libs = 0.4.9-56.el6_3.1
    for package: device-mapper-multipath-0.4.9-56.el6_3.1.x86_64
    --> Processing Dependency: libmultipath.so()(64bit) 
    for package: device-mapper-multipath-0.4.9-56.el6_3.1.x86_64
    --> Running transaction check
    ---> Package device-mapper-multipath-libs.x86_64 0:0.4.9-56.el6_3.1 will be
    installed
    --> Finished Dependency Resolution
    Dependencies Resolved
    ============================================================================
     Package                      Arch   Version           Repository   Size
    ============================================================================
    Installing:
     device-mapper-multipath      x86_64 0.4.9-56.el6_3.1  ol6_latest    96 k
    Installing for dependencies:
     device-mapper-multipath-libs x86_64 0.4.9-56.el6_3.1  ol6_latest   158 k
    Transaction Summary
    ============================================================================
    Install       2 Package(s)
    Total download size: 254 k
    Installed size: 576 k
    Is this ok [y/N]: y
    Downloading Packages:
    (1/2): device-mapper-multipath-0.4.9-56.el6_3.1.x86_64.r |  96 kB     00:00
    (2/2): device-map
    per-multipath-libs-0.4.9-56.el6_3.1.x86 | 158 kB     00:00
    ----------------------------------------------------------------------------
    Total                                           104 kB/s | 254 kB     00:02
    Running rpm_check_debug
    Running Transaction Test
    Transaction Test Succeeded
    Running Transaction
      Installing : device-mapper-multipath-libs-0.4.9-56.el6_3.1.x86_64     1/2
      Installing : device-mapper-multipath-0.4.9-56.el6_3.1.x86_64          2/2
      Verifying  : device-mapper-multipath-0.4.9-56.el6_3.1.x86_64          1/2
      Verifying  : device-mapper-multipath-libs-0.4.9-56.el6_3.1.x86_64     2/2
    Installed:
      device-mapper-multipath.x86_64 0:0.4.9-56.el6_3.1
    Dependency Installed:
      device-mapper-multipath-libs.x86_64 0:0.4.9-56.el6_3.1
    Complete!
    [root@linux ~]# 
    
  7. マルチパスデーモンを起動します。コマンド chkconfig multipathd on を使用します。

    [root@linux ~]# chkconfig multipathd on
    [root@linux ~]# 
    
  8. 次に、Device Mapper Multipath ソフトウェアの構成

Device Mapper Multipath ソフトウェアの構成

Device Mapper Multipath ソフトウェアは、/etc/multipath.conf ファイルを編集することによって構成します。このファイルは一連のセクションで構成され、各セクションには関連する属性、値、およびサブセクションのセットが含まれています。

  • default セクションは、マルチパスソフトウェア自体を構成します。ログに記録される詳細レベルを指定し、フェイルオーバー動作を定義し、さらに必要なオペレーティングシステムコマンドおよびディレクトリの場所を指定します。

  • blacklist セクションは、マルチパス構成から除外する必要があるデバイス (ローカルシステムディスクなど) を識別します。デバイスは、World Wide Name/World Wide Identifier (WWN/WID) か、あるいはデバイスノード名またはベンダーおよび製品デバイス文字列を指定する正規表現によって識別できます。

  • blacklist_exceptions セクションでは、通常であれば blacklist セクション内の一般的な規則によって除外されるデバイスをマルチパス構成に明確に含めることができます。

  • multipaths セクションでは、それぞれが World Wide Name で指定されたマルチパスに特殊な構成を適用する 1 つ以上の multipath サブセクションを定義できます。

  • devices セクションでは、それぞれがデバイスに特殊なマルチパス構成を適用する 1 つ以上の device サブセクションを定義できます。

個々のデフォルトの詳細な説明については、注釈付きのサンプルファイル /usr/share/doc/device-mapper-multipath-0.4.9/multipath.conf.annotated を参照してください。

blacklist_exceptions は、blacklist で識別されている場合でも、すべてのデバイスを使用するべきであることを示します。defaults: DM-Multipath の一般的なデフォルト設定。multipaths: 個々のマルチパスデバイスの特性の設定。これらの値は、構成ファイルの defaults および devices セクションで指定されている内容を上書きします。devices: 個々のストレージコントローラの設定。これらの値は、構成ファイルの defaults セクションで指定されている内容を上書きします。デフォルトではサポートされないストレージアレイを使用している場合は、そのアレイに対応する devices サブセクションの作成が必要になることがあります。システムはマルチパスデバイスの属性を特定すると、最初にマルチパスの設定、次にデバイスごとの設定、次にマルチパスシステムのデフォルトをチェックします。