この章で説明する手順とボリューム管理の計画 の計画情報に基づいて、VERITAS Volume Manager (VxVM) 用に、ローカルディスクおよび多重ホストディスクをインストールおよび構成してください。 詳細については、VxVM のマニュアルを参照してください。
この章の内容は、次のとおりです。
この節では、VxVM ソフトウェアを Sun Cluster 構成上でインストール、構成するための情報と手順を紹介します。
次の表に、 Sun Cluster 構成用の VxVM ソフトウェアのインストールと構成において行う作業を示します。
表 4–1 SPARC: Task Map: VxVM ソフトウェアのインストールと構成
VxVM をインストールした後で、各クラスタノードでルートディスクグループを作成する必要があります。 このディスクグループは VxVM が構成情報を格納するために使用され、次の制限があります。
ノードのルートディスクグループへのアクセスは、そのノードだけに限定する必要があります。
遠隔ノードは、別のノードのルートディスクグループに格納されたデータにはアクセスできません。
scconf(1M) コマンドを使用してルートディスクグループをディスクデバイスグループとして登録しないでください。
可能であれば、非共有ディスク上の各ノードごとにルートディスクグループを構成します。
Sun Cluster ソフトウェアでは、次のルートディスクグループの構成方法がサポートされています。
ノードのルートディスクのカプセル化 – この方法によってルートディスクをミラー化でき、ルートディスクが破壊または損傷した場合の代替起動手段を提供できます。 ルートディスクをカプセル化するには、2 つの空きディスクスライスのほかに、可能であれば、ディスクの始点または終端に空きシリンダが必要です。
ローカルのルート以外のディスクの使用 – この方法は、ルートディスクをカプセル化する代替として使用できます。 ノードのルートディスクがカプセル化されていると、カプセル化されていない場合と比べ、後の作業 (Solaris オペレーティング環境のアップグレードや障害復旧作業など) が複雑になる可能性があります。 このような複雑さを避けるために、ローカルのルート以外のディスクを初期化またはカプセル化してルートディスクグループとして使用できます。
ローカルのルート以外のディスクで作成されたルートディスクグループはそのノード専用であり、汎用的にアクセスすることも高可用ディスクグループとして使用することもできません。 ルートディスクと同様に、ルート以外のディスクをカプセル化する場合も、 2 つの空きディスクスライスのほかに、ディスクの始点または終端に空きシリンダが必要です。
詳細については、 VxVM のインストールマニュアルを参照してください。
ルートディスクグループをどのように作成するかに応じて、次のインストール方法のいずれかを使用して VxVM をインストールします。
ルートディスクをカプセル化する場合は、SPARC: VERITAS Volume Manager ソフトウェアをインストールしてルートディスクをカプセル化する へ進んでください。
ローカルのルート以外のディスクにルートディスクグループを作成する場合は、SPARC: VERITAS Volume Manager ソフトウェアだけをインストールする に進みます。
この手順は、scvxinstall(1M) コマンドを使用して、1 つの操作で VxVM ソフトウェアをインストールし、ルートディスクをカプセル化します。
ローカルのルート以外のディスクにルートディスクグループを作成する場合は、SPARC: VERITAS Volume Manager ソフトウェアだけをインストールする に進みます。
この作業は、VxVM をインストールするノードごとに行ってください。 VERITAS Volume Manager (VxVM) は、クラスタ内にあるすべてのノードにインストールすることや、VxVM が管理する記憶装置が物理的に接続されているノードだけにインストールすることも可能です。
後からルートディスクのカプセル化を解除する必要が生じた場合は、SPARC: ルートディスクのカプセル化を解除する の手順に従ってください。
クラスタが以下の前提条件を満たしていることを確認します。
クラスタ内にあるすべてのノードがクラスタモードで動作していること。
インストールするノードのルートディスクに 2 つの空き (未割り当ての) パーティションがあること。
以下の情報を用意します。
ディスクドライブのマッピング
以下に示す、必要事項を記入した構成計画ワークシート。 計画のガイドラインについては、ボリューム管理の計画 を参照してください。
VxVM をインストールするノードでスーパーユーザーになります。
ノードの CD-ROM ドライブに VxVM CD-ROM を挿入します。
scvxinstall を対話モードで起動します。
scvxinstall を中止する場合は、Ctrl-C を押します。
# scvxinstall |
詳細については、scvxinstall(1M) のマニュアルページを参照してください。
ルートをカプセル化するかどうかの問い合わせに、「yes」を入力します。
Volume Manager でルートをカプセル化しますか [いいえ]? y |
プロンプトが表示されたなら、VxVM CD-ROM の位置を指定します。
適切な VxVM CD-ROM が見つかると、プロンプトの一部としてその場所が角括弧内に表示されます。 表示された場所を使用する場合は、Enter キーを押します。
%s CD-ROM はどこですか [%s] ? |
VxVM CD-ROM が見つからなかった場合、デフォルトの場所はプロンプトに表示されません。 CD-ROM または CD-ROM イメージの場所を入力してください。
%s CD-ROM はどこですか ? |
プロンプトが表示されたなら、 VxVM ライセンスキーを入力します。
%s ライセンスキーを入力してください: license |
scvxinstall コマンドによって、以下の作業が自動的に行われます。
必須の VxVM ソフトウェア、ライセンス、マニュアルページのパッケージをインストールし、GUI パッケージはインストールしません。
ルートディスクをカプセル化することによってルートディスクグループを作成する
/etc/vfstab ファイル内の /global/.devices エントリを更新する
詳細については、scvxinstall(1M) のマニュアルページを参照してください。
インストール時に、再起動が自動的に 2 回行われます。 scvxinstall がすべてのインストール作業を完了した後、プロンプトで Ctrl-C を押さない限り、2 回目の再起動が自動的に行われます。 Ctrl-C を押して 2 回目の再起動を中断した場合は、後でノードを再起動して、VxVM のインストールを完了する必要があります。
VxVM クラスタ機能を有効にする場合は、クラスタ機能のライセンスキーを指定します。
ライセンスの追加方法については、VxVM のマニュアルを参照してください。
(省略可能) VxVM GUI をインストールします。
VxVM GUI のインストールの詳細については、VxVM のマニュアルを参照してください。
CD-ROM を取り出します。
すべての VxVM パッチをインストールします。
パッチの入手先とインストール方法については、『Sun Cluster 3.1 ご使用にあたって 』の「パッチと必須ファームウェアのレベル」を参照してください。
(省略可能) クラスタノード上に VxVM のマニュアルページを置かない場合は、マニュアルページパッケージを削除します。
# pkgrm VRTSvmman |
VxVM を別のノードにインストールするかどうかを決定します。
1 つまたは複数のノードに VxVM をインストールする予定がないかどうかを確認します。
VxVM クラスタ機能を有効にする予定の場合、クラスタ内にあるすべてのノードに VxVM をインストールする必要があります。
VxVM をインストールしないノードごとに、/etc/name_to_major ファイルを変更します。
VxVM をインストールしたノード上で、vxio メジャー番号の設定を調べます。
# grep vxio /etc/name_to_major |
VxVM をインストールしないノードでスーパーユーザーになります。
/etc/name_to_major ファイルを編集して、vxio メジャー番号を NNN (手順 a で調べた番号) に設定するエントリを追加します。
# vi /etc/name_to_major vxio NNN |
vxio エントリを初期化します。
# drvconfig -b -i vxio -m NNN |
VxVM をインストールしない他のすべてのノードに対して、手順 bから手順 dまでを繰り返します。
この作業が終了したとき、クラスタ内にある各ノードで /etc/name_to_major ファイルの vxio エントリが同じである必要があります。
カプセル化したルートディスクをミラー化する予定があるかどうかを確認します。
ミラー化する場合は、SPARC: カプセル化されたルートディスクをミラー化する へ進んでください。
ミラー化しない場合は、SPARC: ディスクグループの作成と登録を行う へ進んでください。
VxVM をインストールしてルートディスクをカプセル化した後で、カプセル化されたルートディスクをミラー化するノードごとにこの作業を行ってください。
カプセル化したルートディスクをミラー化します。
VxVM のマニュアルの手順に従います。 可用性を最大限に高め、管理を容易にするには、ローカルディスクをミラーとして使用してください。 詳細は、ルートディスクのミラー化 を参照してください。
ルートディスクのミラー化に定足数デバイスを使用することは避けてください。 ルートディスクのミラー化に定足数デバイスを使用すると、一定の条件下でルートディスクミラーからノードを起動できない可能性があります。
DID マッピングを表示します。
# scdidadm -L |
DID マッピングで、ルートディスクのミラー化に使用されているディスクを確認します。
ルートディスクミラーのデバイス ID 名から raw ディスクデバイスグループ名を特定します。
raw ディスクデバイスグループの名前は、dsk/dN という規則に従っています (N は番号)。 次の scdidadm の出力例で、強調表示されているのが raw ディスクデバイスグループ名です。
N node:/dev/rdsk/cNtXdY /dev/did/rdsk/dN |
raw ディスクデバイスグループのノードリストを表示します。
次に出力例を示します。
# scconf -pvv | grep dsk/dN Device group name: dsk/dN … (dsk/dN) デバイスグループのノードリスト: phys-schost-1, phys-schost-3 … |
ノードリストにノード名が複数含まれているかどうかを確認します。
raw ディスクデバイスグループのノードリストから、ルートディスクをミラー化したノード以外のすべてのノードを削除します。
ルートディスクをミラー化したノードだけがノードリストに残るようにします。
# scconf -r -D name=dsk/dN,nodelist=node |
raw ディスクデバイスグループのクラスタ固有の名前を指定します。
ノードリストから削除するノードの名前を指定します。
raw ディスクデバイスグループの localonly プロパティを有効にします。
localonly プロパティが有効になった時点で、raw ディスクデバイスグループはそのノードリスト内のノードだけに使用されるようになります。 これにより、起動デバイスが複数のノードに接続されている場合に、不意にノードがその起動デバイスから使用できなくなることが防止されます。
# scconf -c -D name=dsk/dN,localonly=true |
localonly プロパティの詳細については、scconf_dg_rawdisk(1M) のマニュアルページを参照してください。
カプセル化されたルートディスクをミラー化するクラスタノードごとにこの作業を繰り返します。
ディスクグループを作成します。
SPARC: ディスクグループの作成と登録を行う に進みます。
次の例は、ノード phys-schost-1 のルートディスクに作成されたミラーを示しています。 このミラーは、ディスク c1t1d0 (raw ディスクデバイスグループ名は dsk/d2 ) で作成されています。 ディスク c1t1d0 は多重ポートディスクであるため、ノード phys-schost-3 がディスクのノードリストから削除され、localonly プロパティが有効に設定されています。
(DID マッピングを表示します) # scdidadm -L … 2 phys-schost-1:/dev/rdsk/c1t1d0 /dev/did/rdsk/d2 2 phys-schost-3:/dev/rdsk/c1t1d0 /dev/did/rdsk/d2 … (ミラー化されたディスクの raw-disk デバイスグループのノードリストを表示します) # scconf -pvv | grep dsk/d2 デバイスグループ名: dsk/d2 … (dsk/d2) デバイスグループのノードリスト: phys-schost-1, phys-schost-3 … (phys-schost-3 をノードリストから削除します) # scconf -r -D name=dsk/d2,nodelist=phys-schost-3 (localonly プロパティを有効にします) # scconf -c -D name=dsk/d2,localonly=true |
この作業は、scvxinstall コマンドを使用して VERITAS Volume Manager (VxVM) ソフトウェアだけをインストールします。
ルートディスクをカプセル化してルートディスクグループを作成する場合は、この手順を使用しないでください。 その代わりに、SPARC: VERITAS Volume Manager ソフトウェアをインストールしてルートディスクをカプセル化する に進んで、1 つの操作で、VxVM ソフトウェアをインストールし、ルートディスクをカプセル化します。
この作業は、VxVM をインストールするノードごとに行ってください。 VxVM は、クラスタ内にあるすべてのノードにインストールすることや、VxVM が管理する記憶装置が物理的に接続されているノードだけにインストールすることも可能です。
クラスタ内にあるすべてのノードがクラスタモードで動作していることを確認します。
VxVM をインストールするクラスタノードでスーパーユーザーになります。
ノードの CD-ROM ドライブに VxVM CD-ROM を挿入します。
scvxinstall を非対話方式のインストールモードで起動します。
# scvxinstall -i |
scvxinstall コマンドによって、以下の作業が自動的に行われます。
VxVM ライセンスは、次の手順である SPARC: ルート以外のディスクにルートディスクグループを作成する で追加します。
詳細については、scvxinstall(1M) のマニュアルページを参照してください。
(省略可能) VxVM GUI をインストールします。
VxVM GUI のインストールの詳細については、VxVM のマニュアルを参照してください。
CD-ROM を取り出します。
すべての VxVM パッチをインストールします。
パッチの入手先とインストール方法については、『Sun Cluster 3.1 ご使用にあたって 』の「パッチと必須ファームウェアのレベル」を参照してください。
(省略可能) クラスタノード上に VxVM のマニュアルページを置かない場合は、マニュアルページパッケージを削除します。
# pkgrm VRTSvmman |
VxVM を別のノードにインストールするかどうかを決定します。
1 つまたは複数のノードに VxVM をインストールする予定がないかどうかを確認します。
VxVM クラスタ機能を有効にする予定の場合、クラスタ内にあるすべてのノードに VxVM をインストールする必要があります。
VxVM をインストールしないノードごとに、/etc/name_to_major ファイルを変更します。
VxVM をインストールしたノード上で、vxio メジャー番号の設定を調べます。
# grep vxio /etc/name_to_major |
VxVM をインストールしないノードでスーパーユーザーになります。
/etc/name_to_major ファイルを編集して、vxio メジャー番号を NNN (手順 aで調べた番号) に設定するエントリを追加します。
# vi /etc/name_to_major vxio NNN |
vxio エントリを初期化します。
# drvconfig -b -i vxio -m NNN |
VxVM をインストールしない他のすべてのノードに対して、手順 aから手順 cまでを繰り返します。
この作業が終了したとき、クラスタ内にある各ノードで /etc/name_to_major ファイルの vxio エントリが同じである必要があります。
ルートディスクグループを作成します。
次の手順で、ローカルのルート以外のディスクをカプセル化または初期化することによってルートディスクグループを作成します。
VERITAS Volume Manager (VxVM) ライセンスキーを用意します。
ノードのスーパーユーザーになります。
(省略可能) ディスクをカプセル化する場合は、各ディスクに 0 シリンダのスライスが少なくとも 2 つあることを確認します。
必要に応じて、format(1M) コマンドを使用して、各 VxVM スライスに 0 シリンダを割り当てます。
vxinstall ユーティリティーを起動します。
# vxinstall |
プロンプトが表示されたなら、次のようにします。
VxVM ライセンスキーを指定します。
VxVM クラスタ機能を有効にする場合は、クラスタ機能のライセンスキーを指定します。
Custom Installation を選択します。
起動ディスクはカプセル化しません。
ルートディスクグループに追加する任意のディスクを選択します。
自動再起動は行いません。
作成したルートディスクグループが複数のノードに接続された 1 つ以上のディスクを含むかどうかを確認します。
含む場合は、ルートディスクグループ内のこれらの各共有ディスクの raw ディスクデバイスグループの localonly プロパティを有効にします。
localonly プロパティが有効になった時点で、raw ディスクデバイスグループはそのノードリスト内のノードだけに使用されるようになります。 これにより、ルートディスクグループが使用しているデバイスが複数のノードに接続されている場合に、不意にノードがそのデバイスから使用できなくなる状態を防止できます。
# scconf -c -D name=dsk/dN,localonly=true |
localonly プロパティの詳細については、scconf_dg_rawdisk(1M) のマニュアルページを参照してください。
含まない場合は、手順 6に進みます。
ノードからリソースグループまたはデバイスグループを移動させます。
# scswitch -S -h from-node |
すべてのリソースグループとデバイスグループを退避させます。
リソースグループやデバイスグループを退避させるノード名を指定します。
ノードを再起動します。
# shutdown -g0 -y -i6 |
vxdiskadm コマンドを使用してルートディスクグループに多重ディスクを追加します。
多重ディスクがあると、ルートディスクグループはディスク障害に対処しやすくなります。 手順については、VxVM のマニュアルを参照してください。
ディスクグループを作成します。
SPARC: ディスクグループの作成と登録を行う に進みます。
次の手順で、VxVM ディスクグループとボリュームを作成します。
ディスクグループをディスクデバイスグループとしてクラスタに登録した後には、VxVM コマンドを使用してVxVM ディスクグループをインポートまたはデポートしないでください。 ディスクグループのインポートやデポートは、すべて Sun Cluster ソフトウェアで処理できます。 Sun Cluster ディスクデバイスグループを管理する方法については、『Sun Cluster のシステム管理 (Solaris OS 版)』の「ディスクデバイスグループの管理」を参照してください。
この手順は、追加するディスクグループを構成するディスクに物理的に接続されているノードから実行します。
以下の情報を用意します。
ディスクドライブのマッピング 記憶装置の初期設置を実行する場合は、『Sun Cluster Hardware Administration Collection』の該当するマニュアルを参照してください。
以下に示す、必要事項を記入した構成計画ワークシート。
計画のガイドラインについては、ボリューム管理の計画 を参照してください。
ディスクセットの所有権を持つノードのスーパーユーザーになります。
VxVM ディスクグループとボリュームを作成します。
Oracle Parallel Server/Real Application Clusters をインストールする場合は、『VERITAS Volume Manager Administrator's Reference Guide』の説明に従って、VxVM のクラスタ機能を使用して共有の VxVM ディスクグループを作成してください。 このソフトウェアをインストールしない場合は、VxVM のマニュアルで説明されている標準の手順を使用して VxVM ディスクグループを作成してください。
ダーティリージョンログ (DRL) を使用することで、ノードに障害が発生した場合のボリューム回復時間を短縮できます。 ただし、DRL を使用すると I/O スループットが低下することがあります。
VxVM クラスタ機能が有効に設定されているかどうかを確認します。
ディスクグループを Sun Cluster ディスクデバイスグループとして登録します。
scsetup(1M) ユーティリティを起動します。
# scsetup |
ディスクデバイスグループで作業を行うには、4 (デバイスグループとボリューム) を入力します。
ディスクデバイスグループを登録するには、1 (VxVM ディスクグループをデバイスグループとして登録) を入力します。
指示に従って、Sun Cluster ディスクデバイスグループとして登録するVxVM ディスクデバイスグループを入力します。
ディスクデバイスグループを登録するときに、次のエラーメッセージが表示された場合、ディスクデバイスグループに再度マイナー番号を割り当てます。
scconf: Failed to add device group - in use |
ディスクデバイスグループに再度マイナー番号を割り当てるには、SPARC: ディスクデバイスグループに新しいマイナー番号を割り当てる の手順を使用してください。 この手順を使用すると、既存のディスクデバイスグループのマイナー番号と衝突しない新しいマイナー番声を割り当てることができます。
作業が完了したなら、q (終了) を入力して scsetup ユーティリティーを終了します。
次のコマンドを実行して表示される新しいディスクのディスクデバイス情報を検索します。
# scstat -D |
ディスクデバイスグループをオンラインにしたときにスタックのオーバーフローが発生する場合は、スレッドスタックサイズのデフォルト値が十分ではない可能性があります。 次のエントリを各ノードの /etc/system ファイルに追加します。ここで size は、デフォルト設定の 8000 より大きな数字になります。
set cl_comm:rm_thread_stacksize=0xsize |
VxVM ディスクグループまたはボリュームに関する構成情報を変更した場合は、scsetup ユーティリティーを使用して、構成変更を登録する必要があります。 登録が必要な構成変更とは、ボリュームの追加または削除や、既存ボリュームのグループ、所有者、またはアクセス権の変更です。 ディスクデバイスグループの構成変更を登録する手順については、『Sun Cluster のシステム管理 (Solaris OS 版)』の「ディスクデバイスグループの管理」を参照してください。
VxVM ディスクグループとボリュームの構成を確認します。
SPARC: ディスクグループの構成を確認する へ進んでください。
マイナー番号が他のディスクグループと衝突してディスクデバイスグループの登録が失敗する場合、新しいディスクグループに未使用の新しいマイナー番号を割り当てる必要があります。 この作業を実行して、ディスクグループにマイナー番号を割り当てなおしてください。
各クラスタのノードのスーパーユーザーになります。
使用中のマイナー番号を確認します。
# ls -l /global/.devices/node@1/dev/vx/dsk/* |
1000 の倍数で使用されていない値を、ディスクグループのベースとなるマイナー番号として選択します。
ディスクグループにベースとなるマイナー番号を割り当てます。
# vxdg reminor diskgroup base-minor-number |
SPARC: ディスクグループの作成と登録を行う の 手順 5 に進み、ディスクグループを Sun Cluster ディスクデバイスグループとして登録します。
次の例は、マイナー番号 16000 から 16002 と 4000 から 4001 を使用しています。ここでは、vxdg reminor コマンドを使用し、ベースとなるマイナー番号 5000 が使用されるように、新しいディスクグループに再度マイナー番号を割り当てています。
# ls -l /global/.devices/node@1/dev/vx/dsk/* /global/.devices/node@1/dev/vx/dsk/dg1 brw------- 1 root root 56,16000 Oct 7 11:32 dg1v1 brw------- 1 root root 56,16001 Oct 7 11:32 dg1v2 brw------- 1 root root 56,16002 Oct 7 11:32 dg1v3 /global/.devices/node@1/dev/vx/dsk/dg2 brw------- 1 root root 56,4000 Oct 7 11:32 dg2v1 brw------- 1 root root 56,4001 Oct 7 11:32 dg2v2 # vxdg reminor dg3 5000 |
この作業はクラスタの各ノード上で行ってください。
ルートディスクグループにローカルディスクだけが含まれていること、およびディスクグループが現在の主ノードだけにインポートされていることを確認します。
# vxdisk list |
# vxprint |
すべてのディスクデバイスグループが Sun Cluster ディスクデバイスグループとして登録されており、オンラインであることを確認します。
# scstat -D |
クラスタを構成
クラスタの構成に進みます。
この作業は、ルートディスクのカプセル化を解除する場合に行ってください。
ルートディスク上に、Solaris ルートファイルシステムだけが存在することを確認 してください。
Solaris ルートファイルシステムとは、ルート (/)、スワップ、広域デバイス名前空間、/usr、/var、/opt、/home です。 ルートディスク上に他のファイルシステムが存在する場合は、バックアップをとった後でルートディスクからそれらを削除してください。
カプセル化を解除するノード上でスーパーユーザーになります。
すべてのリソースグループとデバイスグループをノードから移動させます。
# scswitch -S -h from-node |
すべてのリソースグループとデバイスグループを退避させます。
リソースグループやデバイスグループを退避させるノード名を指定します。
# clinfo -nN |
このノードの広域デバイスファイルシステムのマウントを解除します (N は手順 4 で戻されたノード ID 番号です)。
# umount /global/.devices/node@N |
/etc/vfstab ファイルを表示し、どの VxVM ボリュームが広域デバイスファイルシステムに対応しているかを確認します。
# vi /etc/vfstab #device device mount FS fsck mount mount #to mount to fsck point type pass at boot options # #NOTE: volume rootdiskxNvol (/global/.devices/node@N) encapsulated #partition cNtXdYsZ |
ルートディスクグループから、広域デバイスファイルシステムに対応する VxVM ボリュームを削除します。
# vxedit -rf rm rootdiskxNvol |
広域デバイス用のデバイスエントリ以外のデータは、広域デバイスファイルシステムに格納しないでください。 VxVM ボリュームを削除すると、広域デバイスファイルシステム内のデータはすべて削除されます。 ルートディスクのカプセル化を解除した後は、広域デバイスエントリに関連するデータだけが復元されます。
ルートディスクのカプセル化を解除します。
コマンドからのシャットダウン要求を受け付けないでください。
# /etc/vx/bin/vxunroot |
詳細については、VxVM のマニュアルを参照してください。
広域デバイスファイルシステムに使用できるように、format(1M) コマンドを使用してルートディスクに 512M バイトのパーティションを追加します。
/etc/vfstab ファイルに指定されているように、ルートディスクのカプセル化の解除が行われる前に広域デバイスファイルシステムに割り当てられたものと同じスライスを使用してください。
手順 9 で作成したパーティションにファイルシステムを設定します。
# newfs /dev/rdsk/cNtXdYsZ |
ルートディスクの DID 名を確認します。
# scdidadm -l cNtXdY 1 phys-schost-1:/dev/rdsk/cNtXdY /dev/did/rdsk/dN |
/etc/vfstab ファイルで、広域デバイスファイルシステムエントリ内のパス名を 手順 11 で指定した DID パスに置き換えます。
元のエントリの例を次に示します。
# vi /etc/vfstab /dev/vx/dsk/rootdiskxNvol /dev/vx/rdsk/rootdiskxNvol /global/.devices/node@N ufs 2 no global |
DID パスを使用する変更後のエントリの例を次に示します。
/dev/did/dsk/dNsX /dev/did/rdsk/dNsX /global/.devices/node@N ufs 2 no global |
広域デバイスファイルシステムをマウントします。
# mount /global/.devices/node@N |
クラスタの任意のノードから、任意の raw ディスクと Solstice DiskSuite/Solaris Volume Manager デバイス用のデバイスノードを使用して広域デバイスファイルシステムを生成し直します。
# scgdevs |
次の再起動時に VxVM デバイスが作成し直されます。
ノードを再起動します。
# reboot |
クラスタの各ノードでこの手順を繰り返し、それらのノードのルートディスクのカプセル化を解除します。