次に、Solstice DiskSuite 構成で多重ホストディスクを追加する手順の概略を示します。
論理ホストをほかのクラスタノードに切り替える
新しいディスクのコントローラを確認し、トレーまたは格納装置内の空のスロットを見つける
Model 100 シリーズの SPARCstorage Array では、ディスクトレーを取り外すための用意をディスク格納装置で行う
ワイド差動型 SCSI ディスクトレーが搭載された Model 200 シリーズの SPARCstorage Array では、コントローラおよび接続されたすべてのディスクの電源を切る
影響を受けるドライブからすべてのホットスペアを削除する
影響を受けるドライブからすべてのメタデバイス状態データベースを削除する
影響を受けるドライブを含むすべてのメタデバイスをオフラインにする
影響を受けるすべてのドライブを停止する
新しいディスクを追加する
影響を受けるドライブを稼動状態に戻す
すべてのドライブを起動する
影響を受けるすべてのメタデバイスをオンラインに戻す
削除したホットスペアをすべて追加し直す
削除したメタデバイスをすべて作成し直す
ディスクを Sun Cluster で使用するための管理作業を行う
/devices 特殊ファイル、/dev/dsk リンク、/dev/rdsk リンクを作成する
scdidadm -r コマンドを実行する
ディスクをディスクセットに加える
必要に応じて、ディスクのフォーマットとパーティション分割を行う
ボリュームマネージャ関連の管理作業を行う
次に、Solstice DiskSuite 構成に新しい多重ホストディスクを追加する詳しい手順を示します。
新しいディスクを含む予定の論理ホストの所有権を、クラスタ内のほかのノードに切り替えます。
取り外すトレー内のディスクを含む論理ホストをすべてスイッチオーバーしてください。
phys-hahost1# haswitch phys-hahost1 hahost1 hahost2 |
ディスクの追加先であるトレーのコントローラ番号を確認します。
SPARCstorage Array には、WWN が割り当てられています。SPARCstorage Array の LCD 画面に表示される WWN は、コントローラ番号が入った /dev エントリにポインタによってリンクされている /devices エントリの一部としても表示されます。次に例を示します。
phys-hahost1# ls -l /dev/rdsk | grep -i WWN | tail -1 |
SPARCstorage Array の LCD 画面に表示される WWN が 36cc の場合は、次の出力が表示されます。コントローラ番号は c2 です。
phys-hahost1# ls -l /dev/rdsk | grep -i 36cc | tail -1 lrwxrwxrwx 1 root root 94 Jun 25 22:39 c2t5d2s7 -> ../../devices/io- unit@f,e1200000/sbi@0,0/SUNW,soc@3,0/SUNW,pln@a0000800,201836cc/ ssd@5,2:h,raw |
display オプションを指定して luxadm(1M) コマンドを実行し、空のスロットを確認します。
phys-hahost1# luxadm display c2 SPARCstorage Array Configuration ... DEVICE STATUS TRAY 1 TRAY 2 TRAY 3 slot 1 Drive: 0,0 Drive: 2,0 Drive: 4,0 2 Drive: 0,1 Drive: 2,1 Drive: 4,1 3 NO SELECT NO SELECT NO SELECT 4 NO SELECT NO SELECT NO SELECT 5 NO SELECT NO SELECT NO SELECT 6 Drive: 1,0 Drive: 3,0 Drive: 5,0 7 Drive: 1,1 NO SELECT NO SELECT 8 NO SELECT NO SELECT NO SELECT 9 NO SELECT NO SELECT NO SELECT 10 NO SELECT NO SELECT NO SELECT ... |
空のスロットは、状態が NO SELECT で示されます。この出力例は、SPARCstorage Array 110 のものです。別のシリーズの SPARCstorage Array を使用している場合は、表示が多少異なります。
新しいディスクを追加するトレーを決定してください。SPARCstorage Array 214 RSM のようにほかのドライブに影響を与えずにディスクを追加できる場合は、手順 11 に進んでください。
これ以降の手順では、トレー 2 が例として使用されています。新しいディスク用に選択されるスロットは、トレー 2 のスロット 7 です。新しいディスクは、c2t3d1 として認識されます。
ディスクの追加によって影響を受けるホットスペアをすべて見つけます。
すべてのホットスペアの状態と位置を確認するには、各論理ホストで -i オプションを指定して metahs(1M) コマンドを実行します。
phys-hahost1# metahs -s hahost1 -i ... phys-hahost1# metahs -s hahost2 -i ... |
ホットスペアの一覧を保存してください。この一覧は、後でこの保守作業で使用します。ホットスペアデバイスとそれらのホットスペアプールは必ず書き留めてください。
-d オプションを指定して metahs(1M) コマンドを実行し、影響を受けるホットスペアを削除します。
metahs(1M) コマンドの詳細は、マニュアルページを参照してください。
phys-hahost1# metahs -s hahost1 -d hot-spare-pool components phys-hahost1# metahs -s hahost2 -d hot-spare-pool components |
影響を受けるディスク上に存在するメタデバイス状態データベースの複製をすべて見つけます。
各論理ホストで metadb(1M) コマンドを実行してすべてのメタデバイス状態データベースを見つけ、出力を一時ファイルに保存してください。
phys-hahost1# metadb -s hahost1 > /usr/tmp/mddb1 phys-hahost1# metadb -s hahost2 > /usr/tmp/mddb2 |
metadb(1M) の出力は、ディスク格納装置内のメタデバイス状態データベースの複製の位置を示します。複製を復元する手順で使用できるように、この情報を保存しておいてください。
影響を受けるディスク上に存在するメタデバイス状態データベースの複製を削除します。
後の手順で複製を復元する必要があるため、削除する複製の数とロケールを記録しておいてください。
phys-hahost1# metadb -s hahost1 -d replicas phys-hahost1# metadb -s hahost2 -d replicas |
metastat(1M) コマンドを実行し、影響を受けるディスク上のすべてのメタデバイスコンポーネントを確認します。
メタデバイスの削除と再追加を行う場合に情報を使用できるように、metastat(1M) の出力を一時ファイルに保存しておいてください。
phys-hahost1# metastat -s hahost1 > /usr/tmp/replicalog1 phys-hahost1# metastat -s hahost2 > /usr/tmp/replicalog2 |
影響を受けるディスクを含むすべてのサブミラーをオフラインにします。
ディスク格納装置内の影響を受けるすべてのサブミラーをオフラインにするため、一時ファイルを使用してスクリプトを作成してください。わずかなサブミラーしか存在しない場合は、metaoffline(1M) コマンドを実行し、個々にオフラインにしてください。次にスクリプト例を示します。
#!/bin/sh # metaoffline -s <diskset> <mirror> <submirror> metaoffline -s hahost1 d15 d35 metaoffline -s hahost2 d15 d35 ... |
luxadm(1M) コマンドを使用して、トレー内の SPARCstorage Array ディスクを停止してください。
phys-hahost1# luxadm stop -t 2 c2 |
新しいディスクを追加します。
多重ホストディスク格納装置のサービスマニュアルに示された方法で、ディスクを追加するためのハードウェア上の作業を行なってください。ディスクを追加した後、次のどちらかを選択してください。
SPARCstorage Array トレー内のディスクは通常自動的に起動しますが、2 分以内に起動しない場合は、次のコマンドを使用して強制的に起動してください。
phys-hahost1# luxadm start -t 2 c2 |
サブミラーをオンラインに戻します。
手順 9 で作成したスクリプトを変更し、サブミラーをオンラインに戻してください。
#!/bin/sh # metaonline -s <diskset> <mirror> <submirror> metaonline -s hahost1 d15 d35 metaonline -s hahost2 d15 d35 ... |
手順 5で削除したホットスペアを復元します。
phys-hahost1# metahs -s hahost1 -a hot-spare-pool components phys-hahost1# metahs -s hahost2 -a hot-spare-pool components |
本来の数のメタデバイス状態データベースの複製を、トレー内のデバイスに復元します。
複製は、手順 7 で削除されています。
phys-hahost1# metadb -s hahost1 -a replicas phys-hahost1# metadb -s hahost2 -a replicas |
drvconfig(1M) と disks(1M) コマンドを実行し、すべての新しいディスクの /devices、/dev/dsk、/dev/rdsk に新しいエントリを作成します。
phys-hahost1# drvconfig phys-hahost1# disks |
このディスクの追加先である論理ホストの所有権を、SPARCstorage Array に接続されているほかのノードに切り替えます。
これは、各ディスクが 2 つのノードに接続されるトポロジを想定しています。
phys-hahost1# haswitch phys-hahost2 hahost2 |
このディスクの追加先であるディスクセットを現在所有しているクラスタノードで、drvconfig(1M) と disks(1M) コマンドを実行します。
phys-hahost2# drvconfig phys-hahost2# disks |
scdidadm(1M) コマンドを実行し、新しいディスクが DID 疑似ドライバによって使用されるように初期化します。
scdidadm(1M) コマンドは、クラスタのノード 0 で実行する必要があります。DID 疑似ドライバの詳細は、『Sun Cluster 2.2 ソフトウェアのインストール』を参照してください。
phys-hahost2# scdidadm -r |
ディスクをディスクセットに追加します。
コマンド構文を次に示します。diskset には、障害が発生したディスクを含むディスクセットの名前を指定します。drive には、ディスクの DID 名を dN (Sun Cluster を新たにインストールする場合) または cNtYdZ (HA 1.3 からアップグレードする場合) の形式で指定します。
# metaset -s diskset -a drive |
metaset(1M) コマンドは、ディスクを自動的に再分割することがあります。詳細は、Solstice DiskSuite のマニュアルを参照してください。
scadmin(1M) コマンドを使用して、ディスクセットに追加した新しいディスクに対してフェイルファストの予約と有効化を行います。
phys-hahost2# scadmin reserve cNtXdYsZ |
新しいディスクに対し、通常の管理作業を行います。
続いて、新しいドライブをサービスに加えるための通常の管理手順 (ディスクをパーティション分割する、ディスクをホットスペアとして構成に追加する、ディスクをメタデバイスとして構成するなど) を実行できます。これらの作業の詳細は、Solstice DiskSuite のマニュアルを参照してください。
必要に応じて、論理ホストをそのデフォルトマスターにスイッチバックします。