Oracle HSM のインストールおよび構成に進む前に、この章に概要を示すストレージの構成タスクを実行します。この章では、次のトピックの概要について説明します。
Oracle HSM ファイルシステムでは、プライマリディスクまたはソリッドステートディスクデバイスに、アクティブに使用および変更されているファイルが格納されます。キャッシュ用にディスクまたはソリッドステートディスクデバイスを構成する際には、次のガイドラインに従います。
プライマリキャッシュの開始容量を見積もるには、フルになった場合にそれぞれのファイルシステムで保持するデータの容量を決定します。
ファイルシステムのメタデータを考慮に入れるには、この開始容量を 10% 増やします。
高パフォーマンスの ma
タイプのファイルシステムを準備する場合、mm
メタデータデバイス用にハードウェアを構成します。mm
メタデータデバイスごとに、ハードウェアで制御された 4 ディスクの RAID 10 (1+0) ボリュームグループ 1 つが理想的です。パフォーマンスを最大にするためには、ソリッドステートディスクデバイスの使用を検討してください。
ストライプ化ミラー RAID 10 アレイは、Oracle HSM メタデータの格納に適していることを特徴としています。RAID 10 ストレージハードウェアは冗長性が高いため、クリティカルなメタデータが保護されます。その他のほとんどの RAID 構成よりもスループットが高く、待機時間が短くなります。
一般に、専用コントローラハードウェアで制御されるアレイは、共有の汎用プロセッサ上で動作しているソフトウェアで制御されるアレイよりもパフォーマンスに優れています。
ソリッドステートデバイスは、その特性上、頻繁に更新され、頻繁に読み取られるメタデータを格納する際に特に役立ちます。
プライマリキャッシュストレージ用に外部ディスクアレイを使用している場合は、ファイルシステム構成内の md
または mr
デバイスごとに、3+1 または 4+1 RAID 5 ボリュームを構成します。ボリュームグループごとに 1 つの論理ボリューム (LUN) を構成します。
特定の数のディスクに対して、3+1 および 4+1 RAID 5 ボリュームグループを小さくすると、ボリュームグループを大きくするよりも並列性が高くなるため、入出力 (I/O) のパフォーマンスが高くなります。入出力の観点からは、RAID 5 ボリュームグループ内の個々のディスクデバイスは独立して動作せず、各ボリュームグループが単一のデバイスと同様に動作します。したがって、特定の数のディスクを 3+1 および 4+1 ボリュームグループに分割すると、対応する構成を大きくするよりもデバイスの独立性が高くなり、並列性が高くなり、入出力の競合が少なくなります。
RAID グループを小さくすると、ストレージに対するパリティーの比率が高くなるため、容量も少なくなります。しかし、大部分のユーザーにとって、これはパフォーマンスの向上で十二分に相殺されます。アーカイブファイルシステムでは、ディスクキャッシュの容量が多少削減されても、多くの場合は、アーカイブ内で使用可能な容量がほぼ無制限であるため完全に相殺されます。
1 つのボリュームグループに複数の論理ボリューム (LUN) を構成すると、論理的に別々のボリュームでの入出力によって、一度に 1 回の入出力にしか対応しないリソースセットに対する競合が生じます。これにより、入出力関連のオーバーヘッドが増加し、スループットが減少します。
次に、アーカイブストレージの構成を開始します。
次のタスクを実行します。
ドライブと Oracle HSM ホスト上のホストバスアダプタの間の通信を許可するために、ストレージエリアネットワーク (SAN) がゾーン化されていることを確認してください。ゾーン化を確認するには、次の手順を実行します。
ホストが SAN 上のデバイスを表示できることを確認します。-al
(接続ポイントリスト) および -o show_SCSI_LUN
オプションを指定して、Solaris 構成管理コマンド cfgadm
を入力します。ドライブポートの World Wide Name (WWN) に関する出力を確認します。
出力の 1 列目には、ホストバスアダプタのコントローラ番号と WWN をコロンで区切ったもので構成される接続ポイント ID (Ap_id
) が表示されます。-o show_SCSI_LUN
オプションは、ノードが ADI インタフェースを介してメディアチェンジャーを制御するブリッジドライブである場合に、ノード上のすべての LUN を表示します。
root@solaris:~# cfgadm -al -o show_SCSI_LUN Ap_Id Type Receptacle Occupant Condition c2::500104f000937528 tape connected configured unknown c3::50060160082006e2,0 tape connected unconfigured unknown
cfgadm -al
-o show_SCSI_LUN
の出力にドライブの WWN が一覧表示されていない場合は、ドライブが表示されません。SAN の構成に何らかの問題があります。このため、SAN 接続およびゾーン構成を再確認してください。次に、前のステップを繰り返します。
cfgadm -al
コマンドの出力でドライブが構成されていないと表示される場合、次に -c
(構成) スイッチを使用して、コマンドを再度実行します。
このコマンドは、/dev/rmt
に必要なデバイスファイルを構築します。
root@solaris:~# cfgadm -al Ap_Id Type Receptacle Occupant Condition c2::500104f000937528 tape connected configured unknown c3::50060160082006e2,0 tape connected unconfigured unknown root@solaris:~# cfgadm -c configure 50060160082006e2,0
デバイス名と World Wide Name との関連付けを確認します。コマンド ls
-al
/dev/rmt | grep
WWN
を使用します。ここで WWN
は World Wide Name です。
root@solaris:~# ls -al /dev/rmt | grep 50060160082006e2,0 lrwxrwxrwx 1 root root 94 May 20 05:05 3un -> \ ../../devices/pci@1f,700000/SUNW,qlc@2/fp@0,0/st@w50060160082006e2,0:
推奨される最小限の Solaris パッチレベルを使用している場合は、ここでディスクストレージを構成します。
それ以外の場合は、デバイスのターゲット ID を取得します。
/kernel/drv/st.conf
を編集します。前の手順で確認したターゲット ID を指定して、ベンダーで指定されたエントリーを tape-config-list
に追加します。
強制的に st
モジュールをリロードします。コマンド update_drv -f st
を使用します。
root@solaris:~# update_drv -f st
root@solaris:~#
次に、ディスクストレージを構成します。
Oracle HSM アーカイブファイルシステムは、テープメディアだけでなく、ディスクにもファイルをアーカイブできます。ディスクファイルシステムがディスクアーカイブとして構成されている場合、ソフトウェアは、そのファイルシステムをテープカートリッジであるかのように使用します。ファイルシステムをボリュームシリアル番号 (VSN) でアドレス指定し、ファイルコピーをテープアーカイブ (tar
) ファイル内に格納します。
ディスクベースのアーカイブストレージは、アーカイブソリューションの柔軟性と冗長性を向上させることができます。ランダムアクセスのディスクデバイスには、順次アクセスのテープデバイスに関連したマウントや位置決めのオーバーヘッドがありません。そのため、多数の小さなファイルをアーカイブして取得するソリューションは、各ファイルの最初のコピーをディスク上に格納すれば、同じ処理をより迅速かつ確実に実行できる可能性があります。コピーをオフサイトのメディアに保持する必要のあるアーカイブソリューションは、多くの場合、リモートホスト上の NFS でマウントされたディスク常駐ファイルシステムにコピーを書き込むことによってそれを簡単に実行できます。
Oracle Storage Cloud Software Appliance (OSCSA) は、リモートホストの制限されたローカルディスク領域を実質的に無制限のクラウドベースのストレージのフロントエンドキャッシュとして使用することにより、このような NFS でマウントされたアーカイブストレージの有用性をさらに拡張できます。このアプライアンスは、Network File System バージョン 4 (NFSv4) で構成された Oracle Linux 7 (以降) ホスト、オープンソースの Docker Engine 1.6 (以降) コンテナ管理ソフトウェア、および Oracle Storage Cloud Software Appliance Docker イメージで構成されています。
アーカイブディスクストレージを使用する予定がある場合は、まず必要な合計容量、アーカイブボリュームの数、およびファイルシステムの数を決定します。次に、Oracle Storage Cloud でアーカイブディスクストレージを構成する予定がある場合は、必要な Oracle Storage Cloud Software Appliance をプロビジョニングします。
予測されるワークロードを処理するための十分なハードウェアリソースを計画します。Oracle HSM アーカイブおよびステージングの並行操作が互いに、またはほかのアプリケーションと同じ一連の物理デバイスに関して競合する必要がある場合は、パフォーマンスが低下します。そのため、次に示すガイドラインに従ってください。
Oracle HSM 操作ごとに、またアーカイブされる 10 - 20T バイトのデータごとに 1 つのディスクボリューム (ディスクまたは RAID グループ) を割り当てます。
ディスクボリュームがディスクデバイスのプールから動的に割り当てられるストレージである場合は、割り当て制限を設定します。ベースとなる物理ストレージが過剰に予約されていないことを確認してください。
ディスクボリュームごとに 1 つのファイルシステムを割り当てます。
同じ物理ドライブまたは RAID グループ上に存在する LUN 上には、複数のファイルシステムを構成しないでください。
各ファイルシステムを 1 つのディスクアーカイブとして使用するように計画します。
サブディレクトリを個別のアーカイブボリュームとして使用しないでください。
各ファイルシステムを厳密にアーカイブのために使用するように計画します。
汎用ファイルシステムをディスクアーカイブとして使用しないでください。
次に、NFS でマウントされたディスクアーカイブとして使用されるすべてのリモートファイルシステムを作成します。
ディスクアーカイブとして使用する予定のすべてのリモートファイルシステムを作成します。
新しい、専用のファイルシステムを作成します。ほかのアプリケーションと共有する必要のある既存の汎用ファイルシステムを使用しないでください。
あとで Oracle HSM サーバーを構成するときに、ローカルにマウントされたディスクアーカイブファイルシステムを作成します。
ディスクアーカイブソリューションの一部として Oracle Storage Cloud を使用する予定がある場合は、ここで Oracle Storage Cloud Software Appliance ホストを構成します。
それ以外の場合は、アーカイブテープストレージを構成します。
「Oracle Cloud」 > 「パブリック」 > 「インフラストラクチャー」 > 「ストレージ」 > 「Storage Cloud Software Appliance」 (http://docs.oracle.com/cloud/latest/storagecs_common/CSSGU/
) から最新の OSCSA ドキュメントをダウンロードします。
便宜上、この手順では構成プロセスやシステム要件が要約されています。ただし、常に OSCSA 製品ドキュメントおよび README
ファイルを参照して、完全な最新の情報を入手してください。
Oracle 販売チームに問い合わせてください。Oracle Storage Cloud Service へのサブスクリプションを購入し、Oracle Storage Cloud Software Appliance イメージを要求します。
アプライアンスホストごとに、少なくとも 2 つのデュアルコア CPU と 4G バイトのランダムアクセスメモリー (RAM) を備えた汎用の x86 サーバーを用意します。
各 OSCSA ホストに Oracle Linux 7 (カーネルバージョン 3.10 以降) がインストールされるようにします。
Oracle Linux は、Oracle Software Delivery Cloud (https://edelivery.oracle.com/
) から入手できます。
各 OSCSA ホストに Docker 1.6.1 以上がインストールされるようにします。
Docker は、ソフトウェアコンテナのためのオープンソースの配布プラットフォームです。Docker は、Docker (https://www.docker.com
) から入手できます。
各 OSCSA ホストに Network File System バージョン 4 (NFSv4) サービスがインストールされるようにします。
Oracle HSM ホストは、NFSv4 を使用して、OSCSA フロントエンドキャッシュを構成する Linux ファイルシステムをリモートでマウントします。
OSCSA ドキュメント Oracle Storage Cloud Software Appliance の使用 (http://docs.oracle.com/cloud/latest/storagecs_common/CSSGU/
) の手順に従って、Oracle Storage Cloud Software Appliance をインストールして構成します。
OSCSA ドキュメントの指示に従って、OSCSA キャッシュファイルシステムを作成します。
次に、テープストレージを構成します。
次のタスクを実行します。
直接接続ライブラリの構成 (存在する場合)。
自動ライブラリに複数のドライブが含まれている場合は、Oracle HSM のマスター構成ファイル (mcf
) 内のドライブの順序が、ライブラリコントローラに表示されるドライブの順序と同じである必要があります。この順序は、ホストで表示され、ホストの /var/adm/messages
ファイルで報告されるデバイスの順序とは異なる場合があります。
Oracle HSM メタデータサーバーとデータムーバーホストごとに、次に示すタスクを実行してドライブの順序を確認します。
ライブラリのドキュメントを参照してください。ドライブとターゲットの識別方法を確認してください。ローカルオペレータパネルがある場合、これを使用してドライブの順序を判別する方法を参照してください。
ライブラリにローカルオペレータパネルがマウントされている場合、これを使用して、ドライブをコントローラに接続する順序を判別します。各ドライブの SCSI ターゲット ID または World Wide Name を判別します。
Solaris ホストに root
としてログインします。
root@solaris:~#
/dev/scsi/changer/
内に Solaris 論理デバイス名を一覧表示して、出力をテキストファイルにリダイレクトします。
次の例では、/dev/rmt/
のリストを root
ユーザーのホームディレクトリ内のファイル device-mappings.txt
にリダイレクトします。
root@solaris:~# ls -l /dev/rmt/ > /root/device-mappings.txt
/dev/rmt/
内に一覧表示されている Solaris 論理ドライブ名ごと、およびライブラリが Oracle HSM サーバーホストに割り当てるドライブごとに、次の手順を実行します。
まだ Oracle HSM Solaris ホストにログインしていない場合、root
としてログインします。
root@solaris:~#
テキストエディタで、ライブラリと Solaris ホストのドライブ情報の収集の手順で作成したデバイスマッピングファイルを開きます。情報を簡単な表に整理します。
後続の手順でこの情報を参照する必要があります。次の例では、vi
エディタを使用して、権限、所有権、日付属性を /dev/rmt/
リストから削除して、ライブラリデバイス情報のヘッダーと領域を追加します。
root@solaris:~# vi /root/device-mappings.txt LIBRARY SOLARIS SOLARIS DEVICE LOGICAL PHYSICAL NUMBER DEVICE DEVICE ------- ---------- ------------------------------------------- /dev/rmt/0 -> ../../devices/pci@1f,4000/scsi@2,1/st@2,0: /dev/rmt/1 -> ../../devices/pci@1f,4000/scsi@4,1/st@5,0: /dev/rmt/2 -> ../../devices/pci@1f,4000/scsi@4,1/st@6,0: /dev/rmt/3 -> ../../devices/pci@1f,4000/scsi@4/st@1,0: lrwxrwxrwx 1 root root 40 Mar 18 2014 /dev/rmt/4 -> ../../devices/pci@1f,4000/scsi@4/st@2,0:
ライブラリで、すべてのドライブが空になっていることを確認します。
Solaris 論理デバイス名にまだマップしていないライブラリ内の最初のドライブにテープをロードします。
次の例のために、LTO4 テープを HP Ultrium LTO4 テープドライブにロードします。
テープをマウントするドライブに対応する Solaris /dev/rmt/
エントリを識別します。ドライブを特定するまで、コマンド mt
-f
/dev/rmt/
number
status
を実行します。ここで number
は、/dev/rmt/
内のドライブを識別します。
次の例では、/dev/rmt/0
にあるドライブは空ですが、/dev/rmt/1
にあるドライブにはテープが保持されています。そのため、ライブラリがドライブ 1 として識別するドライブは、Solaris /dev/rmt/1
に対応します。
root@solaris:~# mt -f /dev/rmt/0 status /dev/rmt/0: no tape loaded or drive offline root@solaris:~# mt -f /dev/rmt/1 status HP Ultrium LTO 4 tape drive: sense key(0x0)= No Additional Sense residual= 0 retries= 0 file no= 0 block no= 3
デバイスマッピングファイルで、テープを収容する Solaris デバイスのエントリを特定して、指定された領域にライブラリのデバイス ID を入力します。次に、ファイルを保存します。
次の例では、/dev/rmt/1
の行の LIBRARY DEVICE NUMBER
フィールドに 1
を入力します。
root@solaris:~# vi /root/device-mappings.txt LIBRARY SOLARIS SOLARIS DEVICE LOGICAL PHYSICAL NUMBER DEVICE DEVICE ------- ---------- ------------------------------------------- /dev/rmt/0 -> ../../devices/pci@1f,4000/scsi@2,1/st@2,0: 1 /dev/rmt/1 -> ../../devices/pci@1f,4000/scsi@4,1/st@5,0: /dev/rmt/2 -> ../../devices/pci@1f,4000/scsi@4,1/st@6,0: /dev/rmt/3 -> ../../devices/pci@1f,4000/scsi@4/st@1,0: :w
テープをアンロードします。
ライブラリが Oracle HSM ホストに割り当てるすべてのデバイスの Solaris 論理デバイス名がデバイスマッピングファイルに保持されるまで、この手順を繰り返します。その後、ファイルを保存してエディタを閉じます。
root@solaris:~# vi /root/device-mappings.txt LIBRARY SOLARIS SOLARIS DEVICE LOGICAL PHYSICAL NUMBER DEVICE DEVICE ------- ---------- ------------------------------------------- 2 /dev/rmt/0 -> ../../devices/pci@1f,4000/scsi@2,1/st@2,0: 1 /dev/rmt/1 -> ../../devices/pci@1f,4000/scsi@4,1/st@5,0: 3 /dev/rmt/2 -> ../../devices/pci@1f,4000/scsi@4,1/st@6,0: 4 /dev/rmt/3 -> ../../devices/pci@1f,4000/scsi@4/st@1,0: :wq root@solaris:~#
マッピングファイルを保存します。
この情報は、ファイルシステムを構成するときに必要になるため、完成した Oracle HSM 構成をバックアップするときに含めることもできます。
次に、直接接続ライブラリの構成に進みます。
まだ Oracle HSM Solaris ホストにログインしていない場合、root
としてログインします。
root@solaris:~#
テキストエディタで、ライブラリと Solaris ホストのドライブ情報の収集の手順で作成したデバイスマッピングファイルを開き、単純な表に整理します。
後続の手順でこの情報を参照する必要があります。次の例では、vi
エディタを使用して、権限、所有権、日付属性を /dev/rmt/
リストから削除して、ライブラリデバイス情報のヘッダーと領域を追加します。
root@solaris:~# vi /root/device-mappings.txt
LOGICAL DEVICE DEVICE SERIAL NUMBER ACSLS DEVICE ADDRESS
-------------- -------------------- ----------------------------------
/dev/rmt/0
/dev/rmt/1
/dev/rmt/2
/dev/rmt/3
/dev/rmt/
で一覧表示される論理デバイス名ごとに、デバイスシリアル番号を表示します。コマンド luxadm
display
/dev/rmt/
number
を使用します。ここで number
は、/dev/rmt/
内のドライブを識別します。
この例では、デバイス /dev/rmt/0
のシリアル番号 HU92K00200
を取得します。
root@solaris:~# luxadm display /dev/rmt/0 DEVICE PROPERTIES for tape: /dev/rmt/0 Vendor: HP Product ID: Ultrium 4-SCSI Revision: G25W Serial Num: HU92K00200 ... Path status: Ready root@solaris:~#
device-mappings.txt
ファイルの対応する行にシリアル番号を入力します。
次の例では、論理デバイス /dev/rmt/0
の行に、デバイス /dev/rmt/0
のシリアル番号 HU92K00200
を記録します。
root@solaris:~# vi /root/device-mappings.txt LOGICAL DEVICE DEVICE SERIAL NUMBER ACSLS DEVICE ADDRESS -------------- -------------------- ---------------------------------- /dev/rmt/0 HU92K00200 /dev/rmt/1 /dev/rmt/2 /dev/rmt/3 :wq root@solaris:~#
/dev/rmt/
で一覧表示されるすべての論理デバイスのデバイスシリアル番号が識別され、その結果が device-mappings.txt
ファイルに記録されるまで、前の 2 つのステップを繰り返します。
この例では、4 つの論理デバイスを使用します。
root@solaris:~# vi /root/device-mappings.txt
LOGICAL DEVICE DEVICE SERIAL NUMBER ACSLS DEVICE ADDRESS
-------------- -------------------- ----------------------------------
/dev/rmt/0 HU92K00200
/dev/rmt/1 HU92K00208
/dev/rmt/2 HU92K00339
/dev/rmt/3 HU92K00289
:w
root@solaris:~#
/dev/rmt/
にマップされているデバイスのシリアル番号ごとに、対応する ACSLS ドライブアドレスを取得します。ACSLS コマンド display
drive
*
-f
serial_num
を使用します。
次の例では、デバイス HU92K00200
(/dev/rmt/0
)、HU92K00208
(/dev/rmt/1
)、HU92K00339
(/dev/rmt/2
)、HU92K00289
(/dev/rmt/3
) の ACSLS アドレスを取得します。
ACSSA> display drive * -f serial_num 2014-03-29 10:49:12 Display Drive Acs Lsm Panel Drive Serial_num 0 2 10 12 331000049255 0 2 10 16 331002031352 0 2 10 17 HU92K00200 0 2 10 18 HU92K00208 0 3 10 10 HU92K00339 0 3 10 11 HU92K00189 0 3 10 12 HU92K00289
device-mappings.txt
ファイルの対応する行に、各 ACSLS ドライブのアドレスを記録します。ファイルを保存して、テキストエディタを閉じます。
root@solaris:~# vi /root/device-mappings.txt LOGICAL DEVICE DEVICE SERIAL NUMBER ACSLS DEVICE ADDRESS -------------- -------------------- ---------------------------------- /dev/rmt/0 HU92K00200 (acs=0, lsm=2, panel=10, drive=17) /dev/rmt/1 HU92K00208 (acs=0, lsm=2, panel=10, drive=18) /dev/rmt/2 HU92K00339 (acs=0, lsm=2, panel=10, drive=10) /dev/rmt/3 HU92K00289 (acs=0, lsm=2, panel=10, drive=12) :wq
マッピングファイルを保存します。
この情報は、ファイルシステムを構成するときに必要になるため、完成した Oracle HSM 構成をバックアップするときに含めることもできます。
アーカイブファイルシステムを構成するときに、Oracle StorageTek ACSLS ネットワーク接続ライブラリを構成します。そのため、高可用性ファイルシステムを計画している場合は、高可用性ファイルシステム用のストレージの構成に進みます。それ以外の場合は、Oracle HSM and QFS Software のインストールに進みます。
直接接続テープライブラリを構成するには、ハードウェアを物理的に接続して、場合によっては SCSI ドライバを構成する必要があります (Oracle HSM は、リリース 5.4 より前の SAM-QFS で使用される samst
ドライバではなく、汎用 sgen
ドライバを使用してライブラリロボットを制御します)。次のように進めます。
ライブラリおよびドライブを Oracle HSM サーバーホストに物理的に接続します。
Solaris 11 上ではじめて Oracle HSM をインストールする場合や、Oracle HSM または SAM-QFS 5.4 構成をアップグレードする場合は、ハードウェアが物理的に接続されたら停止します。
Solaris 11 では、sgen
がデフォルトの SCSI ドライバであるため、Oracle HSM インストールソフトウェアは、ドライバ別名と構成ファイルを自動的に更新できます。
Solaris 10 システムに Oracle HSM をインストールする場合、次のリストにあるいずれかのドライバ別名が sgen
ドライバに割り当てられているかどうかを確認します。コマンド grep
scs.*,08
/etc/driver_aliases
を使用します。
sgen
ドライバには次のいずれかの別名が割り当てられていることがあります。
scsa,08.bfcp"
または scsa,08.bvhci
(あるいはその両方)
scsiclass,08
この例では、Solaris で sgen
ドライバの別名として scsiclass,08
が使用されています。
root@solaris:~# grep scs.*,08 /etc/driver_aliases sgen "scsiclass,08" root@solaris:~#
grep
コマンドが sgen
"
alias
"
(alias
は上のリスト内の別名) を返す場合、sgen
ドライバがインストールされており、別名が正しく割り当てられています。そのため、次のように進めます。
高可用性ファイルシステムを構成する場合は、高可用性ファイルシステム用のストレージの構成を参照してください。
それ以外の場合は、Oracle HSM and QFS Software のインストールに進みます。
grep
コマンドで some-driver
"
alias
"
(some-driver
は sgen
以外のドライバ、alias
は上記の別名のいずれか) が返される場合は、その別名はすでに別のドライバに割り当てられています。そのため、sgen
ドライバのパス指向の別名を作成します。
コマンド grep
scs.*,08
/etc/driver_aliases
で出力が返されない場合は、sgen
ドライバがインストールされていません。そのためこれをインストールします。コマンド add_drv
-i
scsiclass,08
sgen
を使用します。
この例では、grep
コマンドで何も返されません。そのため sgen
ドライバをインストールします。
root@solaris:~# grep scs.*,08 /etc/driver_aliases root@solaris:~# add_drv -i scsiclass,08 sgen
コマンド add_drv
-i
scsiclass,08
sgen
で「Driver (sgen) is already installed
」というメッセージが返される場合は、ドライバがすでにインストールされていますが、接続されていません。そのためここで接続します。コマンド update_drv
-a
-i
scsiclass,08 sgen
を使用します。
この例では、add_drv
コマンドはドライバがすでにインストールされていることを示しています。そのためドライバを接続します。
root@solaris:~# add_drv -i scsiclass,08 sgen Driver (sgen) is already installed. root@solaris:~# update_drv -a -i scsiclass,08 sgen
コマンド grep
scs.*,08
/etc/driver_aliases
によって、別名 scsiclass,08
が sgen
ドライバに割り当てられていることが示される場合、ドライバは正しく構成されています。
root@solaris:~# grep scs.*,08 /etc/driver_aliases sgen "scsiclass,08" root@solaris:~#
高可用性ファイルシステムを構成する場合は、高可用性ファイルシステム用のストレージの構成を参照してください。
それ以外の場合は、Oracle HSM and QFS Software のインストールに進みます。
sgen
ドライバのパス指向の別名の作成予定していた sgen
別名がすでに別のドライバに割り当てられている場合は、sgen
を使用して、既存のドライバ割り当てを妨害せずに、指定したライブラリを接続するパス指向の別名を作成する必要があります。次のように進めます。
Oracle HSM サーバーホストに root
としてログインします。
root@solaris:~#
システム構成を表示します。コマンド cfgadm
-vl
を使用します。
cfgadm
の出力は、2 行のヘッダーおよびレコードごとに 2 行で書式設定されています。
root@solaris:~# cfgadm -vl Ap_Id Receptacle Occupant Condition Information When Type Busy Phys_Id c3 connected configured unknown unavailable scsi-sas n /devices/pci@0/pci@0/pci@2/scsi@0:scsi c5::500104f0008e6d78 connected configured unknown unavailable med-changer y /devices/pci@0/.../SUNW,qlc@0,1/fp@0,0:fc::500104f0008e6d78 ... root@solaris:~#
cfgadm
-vl
の出力で、ライブラリのレコードを検索します。各レコードの 2 行目の「Type
」列で、med-changer
を検索します。
この例では、2 番目のレコードでライブラリを検索します。
root@solaris:~# cfgadm -vl
Ap_Id Receptacle Occupant Condition Information When
Type Busy Phys_Id
c3 connected configured unknown unavailable
scsi-sas n /devices/pci@0/pci@0/pci@2/scsi@0:scsi
c5::500104f0008e6d78 connected configured unknown unavailable
med-changer y /devices/pci@0/.../SUNW,qlc@0,1/fp@0,0:fc::500104f0008e6d78
...
root@solaris:~#
新しいパス指向の別名として機能する物理パスを取得します。cfgadm
-vl
の出力で「Phys_Id
」列のエントリから、サブ文字列 /devices
を削除します。
この例では、メディアチェンジャーレコードの「Phys_Id
」にパス /devices/pci@0/pci@0/pci@9/SUNW,qlc@0,1/fp@0,0:fc::500104f0008e6d78
が含まれているため、別名として /devices/
の後ろの文字列部分を選択します (この物理パスは、次に示す使用可能な領域に合わせて短縮されています)。
root@solaris:~# grep scsiclass,08 /etc/driver_aliases
sdrv "scsiclass,08"
root@solaris:~# cfgadm -vl
Ap_Id Receptacle Occupant Condition Information When
Type Busy Phys_Id
c3 connected configured unknown unavailable
scsi-sas n /devices/pci@0/pci@0/pci@2/scsi@0:scsi
c5::500104f0008e6d78 connected configured unknown unavailable
med-changer y /devices/pci@0/.../SUNW,qlc@0,1/fp@0,0:fc::500104f0008e6d78
...
root@solaris:~#
パス指向の別名を作成して、sgen
ドライバに割り当てます。コマンド update_drv
-d
-i
'"/
path-to-library
"'
sgen
を使用します。ここで path-to-library
は、前のステップで識別したパスです。
この例では、ライブラリパスを使用して、パス指向の別名 '"/pci@0/pci@0/pci@9/SUNW,qlc@0,1/fp@0,0:fc::500104f0008e6d78"'
を作成します (一重引用符と二重引用符に注意してください)。コマンドは 1 行ですが、ページレイアウトに合わせて 2 行として書式設定されています。
root@solaris:~# update_drv -d -i \ '"/pci@0/pci@0/pci@9/SUNW,qlc@0,1/fp@0,0:fc::500104f0008e6d78"' sgen root@solaris:~#
この時点で、ライブラリは sgen
ドライバを使用して構成されています。
高可用性ファイルシステムを構成する場合は、高可用性ファイルシステム用のストレージの構成に進みます。
それ以外の場合は、Oracle HSM and QFS Software のインストールに進みます。
単一点ハードウェア障害によってファイルシステムが到達不可能のままにならないように、高可用性ファイルシステムには、冗長ハードウェアと複数の独立した入出力パスが必要です。次のタスクを実行します。
高可用性共有ファイルシステムを構成するには、使用しているバージョンの Solaris Cluster ソフトウェアに合ったハードウェア管理マニュアルの推奨事項に従う必要があります。冗長なプライマリストレージデバイスと冗長な入出力パスの両方を提供します。
ファイルシステムデータおよびメタデータをハードウェア RAID デバイスまたは Solaris Volume Manager (SVM) ソフトウェア RAID ボリュームに格納します。Oracle HSM メタデータおよび構成ファイルを RAID-10 ボリュームグループまたはミラー化された SVM ボリュームに配置します。ファイルシステムデータをハードウェアで制御された RAID-10 または RAID-5 ボリュームグループ、あるいはミラー化された SVM ボリュームに配置します。現在の Solaris リリースには、SVM は含まれていません。Solaris 10 9/10 リリースに付属していたバージョンのソフトウェアをダウンロードしてインストールする必要があります。
ストレージエリアネットワーク接続で単一点障害が発生できないようにしてください。各クラスタノードに複数のホストバスアダプタ (HBA) をインストールします。ストレージエリアネットワーク (SAN) を複数のインターコネクトおよび冗長スイッチで構成します。Oracle Solaris 入出力マルチパスソフトウェアを使用してパスフェイルオーバーを管理します (詳細は、Oracle Solaris お客様向けドキュメントライブラリの『Oracle Solaris SAN 構成およびマルチパス化ガイド』および stmsboot
のマニュアルページを参照してください)。
Linux クライアントでは、Device Mapper Multipath (DMM) ソフトウェアパッケージを使用して、パスフェイルオーバーのための冗長ストレージデバイスを構成します。DMM ソフトウェアは、ホストとストレージデバイスを 1 つの仮想入出力デバイス (マルチパス) としてリンクする、すべてのホストバスアダプタ、ケーブル、スイッチ、およびコントローラを管理します。
ホストとストレージデバイスなどを 1 つの仮想デバイスとしてリンクするすべての入出力パス。個別のケーブル、スイッチ、およびコントローラ。マルチパスは入出力パスを集約することにより、集約されたパスで構成される新しいデバイスを作成します。マルチパスを有効にするには、次の手順を実行します。
Oracle Linux 6.x を実行するクライアントを構成するには、次の手順に従います (ほかのバージョンの Linux については、ベンダーのドキュメントを参照してください)。
root
として Linux ホストにログインします。
[root@linux ~]#
/etc/yum.repos.d
サブディレクトリに変更し、ディレクトリの内容を一覧表示します。
[root@linux ~]# cd /etc/yum.repos.d [root@linux ~]# ls -l total 4 -rw-r--r--. 1 root root 1707 Jun 25 2012 public-yum-ol6.repo [root@linux ~]#
/etc/yum.repos.d
サブディレクトリに public-yum-ol6.repo
ファイルが含まれていない場合は、wget
コマンドを使用して、Oracle YUM リポジトリからそのファイルをダウンロードします。
[root@linux ~]# wget http://public-yum.oracle.com/public-yum-ol6.repo -- 2013-02-25 12:50:32 -- http://public-yum.oracle.com/public-yum-ol6.repo Resolving public-yum.oracle.com... 14 1.146.44.34 Connecting to public-yum.oracle.com|141.146.44.34|:80... connected. HTTP request sent, awaiting response... 200 OK Length: 2411 (2.4K) [text/plain] Saving to: ”public-yum-ol6.repo” 100%[======================================>] 2,411 -- . - K/s in 0.001s 2013-02-25 12:50:32 (3.80 MB/s) - ”public-yum-ol6.repo” saved [2411/2411] [root@linux ~]#
テキストエディタを使用して、public-yum-ol6.repo
ファイルを開きます。最初のエントリ [ol6_latest]
に行 enabled=1
が含まれていることを確認します。
次の例では、vi
エディタを使用します。必要な行が存在するため、このファイルを閉じます。
[root@linux ~]# vi public-yum-ol6.repo [ol6_latest] name=Oracle Linux $releasever Latest ($basearch) baseurl=http://public-yum.oracle.com/repo/OracleLinux/OL6/latest/$basearch/ gpgkey=http://public-yum.oracle.com/RPM-GPG-KEY-oracle-ol6 gpgcheck=1 enabled=1 ... :q [root@linux ~]#
Device Mapper Multipath ソフトウェアパッケージを検索します。コマンド yum
search
multipath
を使用します。
[root@linux ~]# yum search multipath Loaded plugins: refresh-packagekit, security ========================== N/S Matched: multipath ========================== device-mapper-multipath.x86_64 : Tools to manage multipath devices using : device-mapper device-mapper-multipath-libs.x86_64 : The device-mapper-multipath modules and : shared library Name and summary matches only, use "search all" for everything. [root@linux ~]#
Device Mapper Multipath ソフトウェアをインストールします。コマンド yum
install
device-mapper-multipath
を使用します。入力を要求されたら、y
(yes) と入力して、一覧表示されたパッケージとその依存関係を受け入れます。
[root@linux ~]# yum install device-mapper-multipath Loaded plugins: refresh-packagekit, security Setting up Install Process Resolving Dependencies --> Running transaction check ---> Package device-mapper-multipath.x86_64 0:0.4.9-56.el6_3.1 will be installed --> Processing Dependency: device-mapper-multipath-libs = 0.4.9-56.el6_3.1 for package: device-mapper-multipath-0.4.9-56.el6_3.1.x86_64 --> Processing Dependency: libmultipath.so()(64bit) for package: device-mapper-multipath-0.4.9-56.el6_3.1.x86_64 --> Running transaction check ---> Package device-mapper-multipath-libs.x86_64 0:0.4.9-56.el6_3.1 will be installed --> Finished Dependency Resolution Dependencies Resolved ============================================================================ Package Arch Version Repository Size ============================================================================ Installing: device-mapper-multipath x86_64 0.4.9-56.el6_3.1 ol6_latest 96 k Installing for dependencies: device-mapper-multipath-libs x86_64 0.4.9-56.el6_3.1 ol6_latest 158 k Transaction Summary ============================================================================ Install 2 Package(s) Total download size: 254 k Installed size: 576 k Is this ok [y/N]: y Downloading Packages: (1/2): device-mapper-multipath-0.4.9-56.el6_3.1.x86_64.r | 96 kB 00:00 (2/2): device-map per-multipath-libs-0.4.9-56.el6_3.1.x86 | 158 kB 00:00 ---------------------------------------------------------------------------- Total 104 kB/s | 254 kB 00:02 Running rpm_check_debug Running Transaction Test Transaction Test Succeeded Running Transaction Installing : device-mapper-multipath-libs-0.4.9-56.el6_3.1.x86_64 1/2 Installing : device-mapper-multipath-0.4.9-56.el6_3.1.x86_64 2/2 Verifying : device-mapper-multipath-0.4.9-56.el6_3.1.x86_64 1/2 Verifying : device-mapper-multipath-libs-0.4.9-56.el6_3.1.x86_64 2/2 Installed: device-mapper-multipath.x86_64 0:0.4.9-56.el6_3.1 Dependency Installed: device-mapper-multipath-libs.x86_64 0:0.4.9-56.el6_3.1 Complete! [root@linux ~]#
マルチパスデーモンを起動します。コマンド chkconfig
multipathd
on
を使用します。
[root@linux ~]# chkconfig multipathd on [root@linux ~]#
Device Mapper Multipath ソフトウェアは、/etc/multipath.conf
ファイルを編集することによって構成します。このファイルは一連のセクションで構成され、各セクションには関連する属性、値、およびサブセクションのセットが含まれています。
default
セクションは、マルチパスソフトウェア自体を構成します。ログに記録される詳細レベルを指定し、フェイルオーバー動作を定義し、さらに必要なオペレーティングシステムコマンドおよびディレクトリの場所を指定します。
blacklist
セクションは、マルチパス構成から除外する必要があるデバイス (ローカルシステムディスクなど) を識別します。デバイスは、World Wide Name/World Wide Identifier (WWN/WID) か、あるいはデバイスノード名またはベンダーおよび製品デバイス文字列を指定する正規表現によって識別できます。
blacklist_exceptions
セクションでは、通常であれば blacklist
セクション内の一般的な規則によって除外されるデバイスをマルチパス構成に明確に含めることができます。
multipaths
セクションでは、それぞれが World Wide Name で指定されたマルチパスに特殊な構成を適用する 1 つ以上の multipath
サブセクションを定義できます。
devices
セクションでは、それぞれがデバイスに特殊なマルチパス構成を適用する 1 つ以上の device
サブセクションを定義できます。
個々のデフォルトの詳細な説明については、注釈付きのサンプルファイル /usr/share/doc/device-mapper-multipath-0.4.9/multipath.conf.annotated
を参照してください。
blacklist_exceptions は、blacklist で識別されている場合でも、すべてのデバイスを使用するべきであることを示します。defaults: DM-Multipath の一般的なデフォルト設定。multipaths: 個々のマルチパスデバイスの特性の設定。これらの値は、構成ファイルの defaults および devices セクションで指定されている内容を上書きします。devices: 個々のストレージコントローラの設定。これらの値は、構成ファイルの defaults セクションで指定されている内容を上書きします。デフォルトではサポートされないストレージアレイを使用している場合は、そのアレイに対応する devices サブセクションの作成が必要になることがあります。システムはマルチパスデバイスの属性を特定すると、最初にマルチパスの設定、次にデバイスごとの設定、次にマルチパスシステムのデフォルトをチェックします。