この章の手順および 「ボリューム管理の計画」の計画情報に従って、VERITAS Volume Manager (VxVM) 用のローカルディスクと多重ホストディスクを構成してください。詳細については、VxVM のマニュアルを参照してください。
この章の内容は、次のとおりです。
この節では、VxVM ソフトウェアを Sun Cluster 構成上でインストール、構成するための情報と手順を紹介します。
次の表に、 Sun Cluster 構成用の VxVM ソフトウェアのインストールと構成において行う作業を示します。
表 5–1 作業マップ: VxVM ソフトウェアのインストールと構成
作業 |
参照先 |
---|---|
1. VxVM 構成のレイアウトを計画 | |
2. (省略可能) 各ノード上のルートディスクグループをどのように作成するかを決定 | |
3. VxVM ソフトウェアをインストール |
「VERITAS Volume Manager ソフトウェアをインストールする」 VxVM インストールマニュアル |
4. (省略可能) ルートディスクグループを作成。ルートディスクをカプセル化しても、ルートディスクグループをローカルのルート以外のディスクに作成してもかまいません。 | |
5. (省略可能) カプセル化したルートディスクをミラー化 | |
6. ディスクグループを作成 |
ルートディスクグループの作成は任意です。ルートディスクグループを作成する予定がない場合は、「VERITAS Volume Manager ソフトウェアをインストールする」に進みます。
ノードのルートディスクグループへのアクセスは、そのノードだけに限定する必要があります。
遠隔ノードは、別のノードのルートディスクグループに格納されたデータにはアクセスできません。
cldevicegroup コマンドを使用して、ルートディスクグループをデバイスグループとして登録しないでください。
可能であれば、非共有ディスク上の各ノードごとにルートディスクグループを構成します。
Sun Cluster ソフトウェアでは、次のルートディスクグループの構成方法がサポートされています。
ノードのルートディスクのカプセル化 – この方法によってルートディスクをミラー化でき、ルートディスクが破壊または損傷した場合の代替起動手段を提供できます。ルートディスクをカプセル化するには、2 つの空きディスクスライスのほかに、可能であれば、ディスクの始点または終端に空きシリンダが必要です。
ローカルのルート以外のディスクの使用 – この方法は、ルートディスクのカプセル化に対する代替手段として使用できます。ノードのルートディスクがカプセル化されていると、カプセル化されていない場合と比べ、後の作業 (Solaris OS のアップグレードや障害復旧作業など) が複雑になる可能性があります。このような複雑さを避けるために、ローカルのルート以外のディスクを初期化またはカプセル化してルートディスクグループとして使用できます。
ローカルのルート以外のディスクで作成されたルートディスクグループはそのノード専用であり、汎用的にアクセスすることも高可用ディスクグループとして使用することもできません。ルートディスクと同様に、ルート以外のディスクをカプセル化する場合も、 2 つの空きディスクスライスのほかに、ディスクの始点または終端に空きシリンダが必要です。
詳細については、 VxVM のインストールマニュアルを参照してください。
以下の手順を実行して、VxVM でインストールする各ノードに VERITAS Volume Manager (VxVM) ソフトウェアをインストールします。VxVM は、クラスタのすべてのノードにインストールすることも、あるいは、VxVM が管理するストレージデバイスに物理的に接続されたノードにだけインストールすることもできます。
次の作業を実行します。
クラスタ内にあるすべてのノードがクラスタモードで動作していることを確認します。
インストールに必要な VERITAS Volume Manager (VxVM) ライセンスキーを入手します。
VxVM のインストールマニュアルを用意します。
VxVM をインストールするクラスタノードでスーパーユーザーになります。
ノードの CD-ROM ドライブに VxVM CD-ROM を挿入します。
VxVM インストールガイドの手順に従って、VxVM ソフトウェアとライセンスをインストールして構成します。
clvxvm ユーティリティーを非対話式モードで実行します。
phys-schost# clvxvm initialize |
clvxvm ユーティリティーは、必要なインストール後の作業を実行します。clvxvm ユーティリティーはまた、クラスタ規模の vxio ドライバメジャー番号を選択して構成します。詳細については、clvxvm(1CL) のマニュアルページを参照してください。
SPARC:VxVM クラスタ機能を有効にする場合、クラスタ機能ライセンスキーを指定していない場合は、これを指定します。
ライセンスの追加方法については、VxVM のマニュアルを参照してください。
(省略可能) VxVM GUI をインストールします。
VxVM GUI のインストールの詳細については、VxVM のマニュアルを参照してください。
CD-ROM を取り出します。
Sun Cluster ソフトウェアをサポートするための VxVM パッチをインストールします。
パッチおよびインストール手順の場所については、『Sun Cluster 3.2 2/08 Release Notes for Solaris OS』の「Patches and Required Firmware Levels」を参照してください。
手順 1 から手順 8 を繰り返して、追加のノードに VxVM をインストールします。
SPARC:VxVM クラスタ機能を有効にするには、VxVM をクラスタのすべてのノードにインストールする必要があります。
VxVM で 1 つ以上のノードをインストールしない場合は、VxVM 以外の各ノード上で/etc/name_to_major ファイルを変更します。
VxVM をインストールしたノード上で、vxio メジャー番号の設定を調べます。
phys-schost# grep vxio /etc/name_to_major |
VxVM をインストールしないノードでスーパーユーザーになります。
/etc/name_to_major ファイルを編集して、vxio メジャー番号を NNN (手順 a で調べた番号) に設定するエントリを追加します。
phys-schost# vi /etc/name_to_major vxio NNN |
vxio エントリを初期化します。
phys-schost# drvconfig -b -i vxio -m NNN |
VxVM をインストールしないほかのすべてのノードで、手順 a から 手順 d までを繰り返します。
この作業が終了したとき、クラスタ内にある各ノードで /etc/name_to_major ファイルの vxio エントリが同じである必要があります。
ルートディスクグループを作成する場合は、「SPARC: ルートディスクをカプセル化する」または 「ルート以外のディスクにルートディスクグループを作成する」に進みます。
それ以外の場合は、手順 12に進みます。
ルートディスクグループの作成は任意です。
VxVM をインストールした各ノードを再起動します。
phys-schost# shutdown -g0 -y -i6 |
ルートディスクグループを作成する場合は、「SPARC: ルートディスクをカプセル化する」または 「ルート以外のディスクにルートディスクグループを作成する」に進みます。
それ以外の場合は、ディスクグループを作成します。「クラスタへのディスクグループの作成」に進みます。
以下の手順を実行して、ルートディスクをカプセル化することによって、ルートディスクを作成します。ルートディスクグループの作成は任意です。詳細については、VxVM のマニュアルを参照してください。
ルートディスクグループをルート以外のディスクに作成する場合は、代わりに、「ルート以外のディスクにルートディスクグループを作成する」の手順を実行します。
「VERITAS Volume Manager ソフトウェアをインストールする」で説明されているとおりに、VxVM をインストールしていることを確認します。
VxVM でインストールしたノードでスーパーユーザーになります。
ルートディスクをカプセル化します。
phys-schost# clvxvm encapsulate |
詳細については、clvxvm(1CL) のマニュアルページを参照してください。
この作業を VxVM をインストールしたほかのノードで繰り返します。
カプセル化したルートディスクをミラー化する場合は、「カプセル化されたルートディスクをミラー化する」に進みます。
それ以外の場合は、「クラスタへのディスクグループの作成」に進みます。
次の手順で、ローカルのルート以外のディスクをカプセル化または初期化することによってルートディスクグループを作成します。ルートディスクグループの作成は任意です。
ルートディスクグループをルートディスクに作成する場合は、代わりに、「SPARC: ルートディスクをカプセル化する」の手順を実行します。
ディスクをカプセル化する場合は、各ディスクに 0 シリンダのスライスが少なくとも 2 つあることを確認します。必要に応じて、format(1M) コマンドを使用して、各 VxVM スライスに 0 シリンダを割り当てます。
スーパーユーザーになります。
vxinstall ユーティリティーを起動します。
phys-schost# vxinstall |
vxinstall ユーティリティーでプロンプトが表示されたら、次の選択または入力を実行します。
SPARC: VxVM クラスタ機能を有効にする場合は、クラスタ機能のライセンスキーを入力します。
Custom Installation を選択します。
起動ディスクはカプセル化しません。
ルートディスクグループに追加する任意のディスクを選択します。
自動再起動は行いません。
作成したルートディスクグループに、複数のノードに接続する 1 つ以上のディスクがある場合は、localonly プロパティを有効にします。
次のコマンドを使用して、ルートディスクグループ内の共有ディスクごとに localonly プロパティを有効にします。
phys-schost# cldevicegroup set -p localonly=true dsk/dN |
デバイスグループのプロパティーを指定します。
デバイスグループをノードリストの単一ノードによってだけマスターされるように設定します。
localonly プロパティが有効になった時点で、raw ディスクデバイスグループはそのノードリスト内のノードだけに使用されるようになります。これにより、ルートディスクグループが使用しているディスクが複数のノードに接続されている場合に、不意にノードがそのディスクから使用できなくなる状態を防止できます。
localonly プロパティーの詳細については、scconf_dg_rawdisk(1M) のマニュアルページを参照してください。
ノードからリソースグループまたはデバイスグループを移動させます。
phys-schost# clnode evacuate from-node |
リソースグループまたはデバイスグループを移動させるノード名を指定します。
ノードをリブートします。
phys-schost# shutdown -g0 -y -i6 |
vxdiskadm コマンドを使用してルートディスクグループに多重ディスクを追加します。
多重ディスクがあると、ルートディスクグループはディスク障害に対処しやすくなります。手順については、VxVM のマニュアルを参照してください。
ディスクグループを作成します。「クラスタへのディスクグループの作成」に進みます。
VxVM をインストールしてルートディスクをカプセル化した後で、カプセル化されたルートディスクをミラー化するノードごとにこの作業を行なってください。
「SPARC: ルートディスクをカプセル化する」で説明されているとおりにルートディスクをカプセル化していることを確認します。
スーパーユーザーになります。
デバイスのリストを表示します。
phys-schost# cldevice list -v |
次に出力例を示します。
DID Device Full Device Path ---------- ---------------- d1 phys-schost-1:/dev/rdsk/c0t0d0 d2 phys-schost-1:/dev/rdsk/c0t6d0 d3 phys-schost-2:/dev/rdsk/c1t1d0 d3 phys-schost-1:/dev/rdsk/c1t1d0 |
カプセル化したルートディスクをミラー化します。
可用性を最大限に高め、管理を容易にするには、ローカルディスクをミラーとして使用してください。詳細なガイドラインについては、「ルートディスクのミラー化」を参照してください。
ルートディスクのミラー化に定足数デバイスを使用することは避けてください。ルートディスクのミラー化に定足数デバイスを使用すると、一定の条件下でルートディスクミラーからノードを起動できない可能性があります。
ルートディスクをミラー化するために使用するデバイスの raw ディスクデバイスグループのノードリストを表示します。
デバイスグループの名前は、dsk/dN という形式になります (dN は DID デバイス名)。
phys-schost# cldevicegroup list -v dsk/dN |
詳細な出力を表示します。
次に出力例を示します。
Device group Type Node list ------------ ---- --------- dsk/dN Local_Disk phys-schost-1, phys-schost-3 |
ノードリストに複数のノード名が含まれる場合、ルートディスクをミラー化したノードを除くすべてのノードをノードリストから削除します。
ルートディスクをミラー化したノードだけが raw ディスクデバイスグループのノードリストに残るはずです。
phys-schost# cldevicegroup remove-node -n node dsk/dN |
デバイスグループのノードリストから削除するノードを指定します。
raw ディスクデバイスグループの localonly プロパティーが有効になっていない場合は、これを有効にします。
localonly プロパティが有効になった時点で、raw ディスクデバイスグループはそのノードリスト内のノードだけに使用されるようになります。これにより、起動デバイスが複数のノードに接続されている場合に、不意にノードがその起動デバイスから使用できなくなることが防止されます。
phys-schost# cldevicegroup set -p localonly=true dsk/dN |
デバイスグループプロパティーに値を設定します。
デバイスグループの localonly プロパティーを有効にします。
localonly プロパティーの詳細については、scconf_dg_rawdisk(1M) のマニュアルページを参照してください。
カプセル化されたルートディスクをミラー化するクラスタノードごとにこの作業を繰り返します。
次の例は、ノード phys-schost-1 のルートディスクに作成されたミラーを示しています。このミラーは、ディスク c0t0d0 (raw ディスクデバイスグループ名は dsk/d2 ) で作成されています。ディスク c1t1d0 は多重ホストディスクであるため、ノード phys-schost-3 がディスクのノードリストから削除され、localonly プロパティーが有効に設定されています。
phys-schost# cldevice list -v DID Device Full Device Path ---------- ---------------- d2 pcircinus1:/dev/rdsk/c0t0d0 … Create the mirror by using VxVM procedures phys-schost# cldevicegroup list -v dsk/d2 Device group Type Node list ------------ ---- --------- dsk/d2 Local_Disk phys-schost-1, phys-schost-3 phys-schost# cldevicegroup remove-node -n phys-schost-3 dsk/d2 phys-schost# cldevicegroup set -p localonly=true dsk/d2 |
ディスクグループを作成します。「クラスタへのディスクグループの作成」に進みます。
この節では、VxVM ディスクグループをクラスタに作成する方法について説明します。次の表で Sun Cluster 構成で構成できる VxVM ディスクグループの種類とその特徴を説明しています。
ディスクグループの種類 |
用途 |
Sun Cluster で登録されているか? |
ストレージ要件 |
---|---|---|---|
VxVM ディスクグループ |
フェイルオーバーまたはスケーラブルデータサービス、グローバルデバイス、またはクラスタファイルシステム用のデバイスグループ |
可能 |
共有ストレージ |
VxVM ディスクグループ |
高可用でなく、単一ノードに限定された用途 |
不可 |
共有または非共有ストレージ |
VxVM 共有ディスクグループ |
Oracle RAC (VxVM クラスタ機能も必要) |
不可 |
共有ストレージ |
次の表にSun Cluster 構成で VxVM ディスクグループを作成するために実行する作業を示します。
表 5–2 作業マップ: VxVM ディスクグループの作成
作業 |
参照先 |
---|---|
1. ディスクグループとボリュームを作成 | |
2. ローカルでなく、VxVM クラスタ機能を使用しないディスクグループを Sun Cluster デバイスグループとして登録 | |
3. 必要であれば、新しいマイナー番号を割り当てて、ディスクデバイスグループ間のマイナー番号の衝突を解決 | |
4. ディスクグループとボリュームを確認 |
次の手順で、VxVM ディスクグループとボリュームを作成します。
この手順は、追加するディスクグループを構成するディスクに物理的に接続されているノードから実行します。
次の作業を実行します。
ストレージディスクドライブをマッピングします。記憶装置の初期設置を実行する場合は、『Sun Cluster Hardware Administration Collection』の該当するマニュアルを参照してください。
次の構成計画ワークシートに必要事項を記入します。
計画を行う際のガイドラインについては、「ボリューム管理の計画」を参照してください。
ルートディスクグループを作成していない場合は、「VERITAS Volume Manager ソフトウェアをインストールする」の手順 12で説明されているとおりに、VxVM をインストールした各ノードを再起動していることを確認します。
ディスクグループを所有するノードのスーパーユーザーになります。
VxVM ディスクグループとボリュームを作成します。
次の注意事項を守ってください。
SPARC:Oracle RAC をインストールしている場合は、VxVM のクラスタ機能を使用して、共有 VxVM ディスクグループを作成してください。『Sun Cluster Data Service for Oracle RAC Guide for Solaris OS』の「How to Create a VxVM Shared-Disk Group for the Oracle RAC Database」およびVERITAS Volume Manager Administrator's Reference Guideのガイドラインと手順に従ってください。
このソフトウェアをインストールしない場合は、VxVM のマニュアルで説明されている標準の手順を使用して VxVM ディスクグループを作成してください。
ダーティーリージョンログ (DRL) を使用すると、ノードに障害が発生した場合のボリューム回復時間を短縮できます。ただし、DRL を使用すると I/O スループットが低下することがあります。
ローカルグループの場合、localonly プロパティーを設定して、単一ノードをディスクグループのノードリストに追加します。
ローカルのみに構成されたディスクグループは、高可用またはグローバルにアクセス可能ではありません。
次の手順を決めます。
SPARC:VxVM クラスタ機能が有効になっている場合は、「ディスクグループの構成を確認する」に進みます。
ローカルでないディスクグループを作成し、VxVM クラスタ機能が有効でない場合は、ディスクグループを Sun Cluster デバイスグループとして登録します。「ディスクグループを登録する」に進みます。
ローカルディスクグループだけを作成した場合は、「ディスクグループの構成を確認する」に進みます。
VxVM クラスタ機能が有効でない場合は、以下の手順を実行して、ローカルでないディスクグループを Sun Cluster デバイスグループとして登録します。
SPARC:VxVM クラスタ機能が有効であるか、ローカルディスクグループを作成した場合は、この手順を実行しないでください。代わりに、「ディスクグループの構成を確認する」に進みます。
各クラスタのノードのスーパーユーザーになります。
グローバルディスクグループを Sun Cluster デバイスグループとして登録します。
clsetup ユーティリティーを起動します。
phys-schost# clsetup |
メニュー項目「デバイスグループとボリューム」を選択します。
メニュー項目「VxVM ディスクグループのローカルディスクグループとしての設定」を選択します。
指示に従って、Sun Cluster デバイスグループとして登録する VxVM ディスクグループを指定します。
完了後 clsetup ユーティリティーを終了します。
各ローカルディスクグループをデポートし、もう一度インポートします。
phys-schost# vxdg deport diskgroup # vxdg import dg |
各ローカルディスクグループを再起動します。
phys-schost# vxvol -g diskgroup startall |
各ローカルディスクグループのローカルのみの状態を確認します。
ディスクグループのフラグのプロパティーの値が nogdl であれば、ディスクグループはローカルのみのアクセス用に正しく構成されています。
phys-schost# vxdg list diskgroup | grep flags flags: nogdl |
次のコマンドを実行して表示される新しいディスクのディスクデバイス情報を検索します。
phys-schost# cldevicegroup status |
「ディスクグループの構成を確認する」に進みます。
スタックオーバーフロー – デバイスグループをオンラインにしたときにスタックがオーバーフローする場合、スレッドのスタックサイズのデフォルト値が不十分な可能性があります。各ノードで、/etc/system ファイルに set cl_haci:rm_thread_stacksize=0xsize エントリを追加します (size はデフォルト設定の 8000 以上)。
構成の変更 – VxVM デバイスグループまたはそのボリュームの構成情報を変更する場合は、clsetup ユーティリティーを使用して構成の変更を登録する必要があります。登録が必要な構成変更とは、ボリュームの追加または削除や、既存ボリュームのグループ、所有者、またはアクセス権の変更です。VxVM デバイスグループに対する構成の変更を登録する手順については、『Sun Cluster のシステム管理 (Solaris OS 版)』の「デバイスグループの管理」を参照してください。
マイナー番号が他のディスクグループと衝突してデバイスグループの登録が失敗する場合、新しいディスクグループに未使用の新しいマイナー番号を割り当てる必要があります。この作業を実行して、ディスクグループにマイナー番号を割り当てなおしてください。
各クラスタのノードのスーパーユーザーになります。
使用中のマイナー番号を確認します。
phys-schost# ls -l /global/.devices/node@1/dev/vx/dsk/* |
1000 の倍数で使用されていない値を、ディスクグループのベースとなるマイナー番号として選択します。
ディスクグループにベースとなるマイナー番号を割り当てます。
phys-schost# vxdg reminor diskgroup base-minor-number |
この例では、16000〜16002 および 4000〜4001 のマイナー番号を使用しています。vxdg reminor コマンドにより、新しいデバイスグループに基本マイナー番号 5000 を使用するようにマイナー番号を再割り当てします。
phys-schost# ls -l /global/.devices/node@1/dev/vx/dsk/* /global/.devices/node@1/dev/vx/dsk/dg1 brw------- 1 root root 56,16000 Oct 7 11:32 dg1v1 brw------- 1 root root 56,16001 Oct 7 11:32 dg1v2 brw------- 1 root root 56,16002 Oct 7 11:32 dg1v3 /global/.devices/node@1/dev/vx/dsk/dg2 brw------- 1 root root 56,4000 Oct 7 11:32 dg2v1 brw------- 1 root root 56,4001 Oct 7 11:32 dg2v2 phys-schost# vxdg reminor dg3 5000 |
ディスクグループを Sun Cluster デバイスグループとして登録します。「ディスクグループを登録する」に進みます。
この手順はクラスタの各ノード上で行なってください。
スーパーユーザーになります。
ディスクグループのリストを表示します。
phys-schost# vxdisk list |
デバイスグループのリストを表示します。
phys-schost# cldevicegroup list -v |
すべてのディスクグループが正しく構成されていることを確認します。
次の要件が満たされていることを確認します。
ルートディスクグループにローカルディスクだけが含まれていること。
すべてのディスクグループおよびローカルのディスクグループが現在の主ノードだけにインポートされていること。
phys-schost# vxprint |
すべてのディスクグループが Sun Cluster デバイスグループとして登録され、オンラインであることを確認します。
phys-schost# cldevicegroup status |
出力には、ローカルディスクグループは表示されないはずです。
(省略可能) あとで参考にするために、ディスクのパーティション分割情報をとっておきます。
phys-schost# prtvtoc /dev/rdsk/cNtXdYsZ > filename |
このファイルをクラスタ外の場所に保存します。ディスク構成を変更する場合は、このコマンドをもう一度実行して、変更した構成をキャプチャします。ディスクに障害が発生し、交換が必要な場合は、この上方を使用してディスクパーティション構成を復元できます。詳細については、prtvtoc(1M) のマニュアルページを参照してください。
(省略可能) クラスタ構成のバックアップを取ります。クラスタ構成のバックアップを保存しておけば、クラスタ構成の回復がより簡単になります。詳細は、『Sun Cluster のシステム管理 (Solaris OS 版)』の「クラスタ構成をバックアップする」を参照してください。
Sun Cluster 構成で VxVM ディスクグループを管理する場合、次のガイドラインを守ってください。
VxVM デバイスグループ - デバイスグループとして登録された VxVM ディスクグループは、Sun Cluster ソフトウェアによって管理されます。ディスクグループをデバイスグループとして登録したあとは、VxVM コマンドを使用して VxVM ディスクグループをインポートまたはデポートしないでください。デバイスグループのインポートやデポートは、すべて Sun Cluster ソフトウェアで処理できます。デバイスグループの管理手順については、『Sun Cluster のシステム管理 (Solaris OS 版)』の「デバイスグループの管理」を参照してください。
ローカルディスクグループ - ローカルの VxVM ディスクグループは、Sun Cluster ソフトウェアで管理されません。非クラスタシステムで行なっているように、VxVM コマンドを使用して、ローカルのディスクグループを管理してください。
cldevicegroup status コマンドの出力にローカルのディスクグループが含まれる場合、表示されたディスクグループはローカルのみのアクセス用に正しく構成されていません。「ディスクグループを作成する」に戻って、ローカルのディスクグループを再構成してください。
次のリストから、ご使用のクラスタ構成に次に適用するタスクを決めます。このリストから複数のタスクを実行する必要がある場合は、このリストのそれらのタスクのうち最初のタスクに進みます。
クラスタファイルシステムを作成するには、「クラスタファイルシステムを追加する」に進みます。
ノードに非大域ゾーンを作成する場合は、「クラスタノードに非大域ゾーンを作成する」を参照してください。
SPARC:Sun Management Centerをクラスタを監視するように設定する場合は、「SPARC: Sun Cluster モジュールを Sun Management Center 用にインストールする」を参照してください。
Sun 以外のアプリケーションをインストールし、リソースタイプを登録し、リソースグループを設定し、データサービスを構成します。アプリケーションソフトウェアに付属のマニュアルおよび 『Sun Cluster データサービスの計画と管理 (Solaris OS 版)』を参照してください。
この節では、Sun Cluster 構成でルートディスクのカプセル化を解除する方法を説明します。
この作業は、ルートディスクのカプセル化を解除する場合に行なってください。
次の作業を実行します。
ルートディスク上に、Solaris ルートファイルシステムだけが存在することを確認 してください。Solaris ルートファイルシステムとは、ルート (/)、スワップ、グローバルデバイス名前空間、/usr、/var、/opt、/home です。
Solaris ルートファイルシステム以外のファイルシステムがルートディスクに存在する場合は、それらのファイルシステムをバックアップしたあとで、ルートディスクから削除します。
カプセル化を解除するノード上でスーパーユーザーになります。
ノードからリソースグループとデバイスグループをすべて退避させます。
phys-schost# clnode evacuate from-node |
リソースグループまたはデバイスグループを移動させるノード名を指定します。
phys-schost# clinfo -n |
このノードのグローバルデバイスファイルシステムのマウントを解除します (N は、手順 3 で戻されたノード ID 番号です)。
phys-schost# umount /global/.devices/node@N |
/etc/vfstab ファイルを表示し、どの VxVM ボリュームがグローバルデバイスファイルシステムに対応しているかを確認します。
phys-schost# vi /etc/vfstab #device device mount FS fsck mount mount #to mount to fsck point type pass at boot options # #NOTE: volume rootdiskxNvol (/global/.devices/node@N) encapsulated #partition cNtXdYsZ |
ルートディスクグループから、グローバルデバイスファイルシステムに対応する VxVM ボリュームを削除します。
phys-schost# vxedit -g rootdiskgroup -rf rm rootdiskxNvol |
グローバルデバイスファイルシステムには、グローバルデバイス用のデバイスエントリ以外へのデータ格納をしないでください。VxVM ボリュームを削除すると、グローバルデバイスファイルシステム内のデータはすべて削除されます。ルートディスクのカプセル化を解除した後は、グローバルデバイスエントリに関連するデータだけが復元されます。
ルートディスクのカプセル化を解除します。
コマンドからのシャットダウン要求を受け付けないでください。
phys-schost# /etc/vx/bin/vxunroot |
詳細については、VxVM のマニュアルを参照してください。
format(1M) コマンドを使用して、512M バイトのパーティションをルートディスクに追加して、グローバルデバイスファイルシステム用に使用できるようにします。
/etc/vfstab ファイルに指定されているように、ルートディスクのカプセル化の解除が行われる前にグローバルデバイスファイルシステムに割り当てられたものと同じスライスを使用してください。
手順 8 で作成したパーティションにファイルシステムを設定します。
phys-schost# newfs /dev/rdsk/cNtXdYsZ |
ルートディスクの DID 名を確認します。
phys-schost# cldevice list cNtXdY dN |
/etc/vfstab ファイルで、グローバルデバイスファイルシステムのエントリにあるパス名を、手順 10 で特定した DID パスに置き換えます。
元のエントリは、次のようになります。
phys-schost# vi /etc/vfstab /dev/vx/dsk/rootdiskxNvol /dev/vx/rdsk/rootdiskxNvol /global/.devices/node@N ufs 2 no global |
DID パスを使用する変更後のエントリの例を次に示します。
/dev/did/dsk/dNsX /dev/did/rdsk/dNsX /global/.devices/node@N ufs 2 no global |
グローバルデバイスファイルシステムをマウントします。
phys-schost# mount /global/.devices/node@N |
クラスタの任意のノードから、任意の raw ディスクと Solaris Volume Manager デバイス用のデバイスノードを使用してグローバルデバイスファイルシステムを生成し直します。
phys-schost# cldevice populate |
次の再起動時に VxVM デバイスが作成し直されます。
次の手順に進む前に、各ノードで cldevice populate コマンドが処理を完了したことを確認します。
cldevice populate コマンドは、1 つのノードからのみ発行されても、リモートからすべてのノードで実行されます。 cldevice populate コマンドが処理を終了したかどうかを確認するには、クラスタの各ノードで次のコマンドを実行します。
phys-schost# ps -ef | grep scgdevs |
ノードをリブートします。
phys-schost# shutdown -g0 -y -i6 |
クラスタの各ノードでこの手順を繰り返し、それらのノードのルートディスクのカプセル化を解除します。