作業を開始する前に、次の情報を用意してください。
ディスクドライブのマッピング
以下に示す、必要事項を記入した構成計画ワークシート。計画のガイドラインについては、ボリューム管理の計画 を参照してください。
『Sun Cluster 3.1 ご使用にあたって』の「ミラー化ルートワークシートのローカルファイルシステム」、または『Sun Cluster 3.1 ご使用にあたって』の「非ミラー化ルートワークシートのローカルファイルシステム」
『Sun Cluster 3.1 ご使用にあたって』の「ディスクデバイスグループ構成のワークシート」
『Sun Cluster 3.1 ご使用にあたって』の「ボリュームマネージャ構成ワークシート」
次の表に、 Sun Cluster 構成用の VxVM ソフトウェアのインストールと構成において行う作業を示します。
表 B–1 作業マップ: VxVM ソフトウェアのインストールと構成
VxVM をインストールした後で、各クラスタノードで rootdg ディスクグループを作成する必要があります。このディスクグループは VxVM が構成情報を格納するために使用され、次の制限があります。
ノードの rootdg ディスクグループへのアクセスは、そのノードだけに限定する必要があります。
遠隔ノードは、別のノードの rootdg に格納されたデータにはアクセスできません。
scconf(1M) コマンドを使用して rootdg ディスクグループをディスクデバイスグループとして登録しないでください。
可能であれば、非共有ディスク上の各ノードごとに rootdg を構成します。
Sun Cluster ソフトウェアでは、次の rootdg ディスクグループの構成方法がサポートされています。
ノードのルートディスクのカプセル化 – この方法によってルートディスクをミラー化でき、ルートディスクが破壊または損傷した場合の代替起動手段を提供できます。ルートディスクをカプセル化するには、2 つの空きディスクスライスのほかに、可能であれば、ディスクの始点または終端に空きシリンダが必要です。
ローカルのルート以外のディスクの使用 – この方法は、ルートディスクをカプセル化する代わりとして使用できます。ノードのルートディスクがカプセル化されていると、カプセル化されていない場合と比べ、後の作業 (Solaris オペレーティング環境のアップグレードや障害復旧作業など) が複雑になる可能性があります。このような複雑さを避けるために、ローカルのルート以外のディスクを初期化またはカプセル化して rootdg として使用できます。
ローカルのルート以外のディスクで作成された rootdg ディスクグループはそのノード専用であり、汎用的にアクセスすることも高可用ディスクグループとして使用することもできません。ルートディスクと同様に、ルート以外のディスクをカプセル化する場合も、 2 つの空きディスクスライスのほかに、ディスクの始点または終端に空きシリンダが必要です。
詳細については、 VxVM のインストールマニュアルを参照してください。
rootdg ディスクグループをどのように作成するかに応じて、次のインストール方法のいずれかを使用して VxVM をインストールします。
ルートディスクをカプセル化する場合は、VERITAS Volume Manager ソフトウェアをインストールしてルートディスクをカプセル化する に進みます。
ローカルのルート以外のディスクに rootdg ディスクグループを作成する場合は、VERITAS Volume Manager ソフトウェアだけをインストールする に進みます。
この手順は、scvxinstall(1M) コマンドを使用して、1 つの操作で VxVM ソフトウェアをインストールし、ルートディスクをカプセル化します。
ローカルのルート以外のディスクに rootdg ディスクグループを作成する場合は、VERITAS Volume Manager ソフトウェアだけをインストールする に進みます。
この作業は、VxVM をインストールするノードごとに行ってください。VERITAS Volume Manager (VxVM) は、クラスタのすべてのノードにインストールすることも、VxVM が管理する記憶装置に物理的に接続されたノードにだけインストールすることもできます。
クラスタが次の条件に適合していることを確認します。
クラスタ内にあるすべてのノードがクラスタモードで動作していること。
インストールするノードのルートディスクに 2 つの空き (未割り当ての) パーティションがあること。
VxVM をインストールするノードでスーパーユーザーになります。
クラスタ内のすべてのノードをクラスタノード認証リストに追加します。
scsetup(1M) ユーティリティを起動します。
# scsetup |
メインメニューが表示されます。
「新規ノード」メニューにアクセスするには、メインメニューで「6」を入力します。
ノードを承認リストに追加するには、「新規ノード」メニューで「3」を入力します。
自分自身を追加する可能性があるマシンの名前を指定します。
ノードの名前をクラスタに追加するためのプロンプトに従います。追加するノードの名前をたずねられます。
作業が正常に行われたことを確認します。
作業が正常に行われた場合、scsetup ユーティリティは「コマンドが正常に完了しました」というメッセージを出力します。
クラスタ内にある各ノードで、手順 c から 手順 e までを繰り返して、すべてのクラスタノードをノード認証リストに追加します。
scsetup ユーティリティを終了します。
ノードのCD-ROM ドライブに VxVM CD-ROM を挿入します。
scvxinstall を対話モードで起動します。
scvxinstall を中止する場合は、Ctrl-C を押します。
# scvxinstall |
詳細については、scvxinstall(1M) のマニュアルページを参照してください。
ルートをカプセル化するかどうかの問い合わせに、「yes」を入力します。
Volume Manager でルートをカプセル化しますか [いいえ]? y |
プロンプトが表示されたら、VxVM CD-ROM の位置を指定します。
適切な VxVM CD-ROM が見つかると、プロンプトの一部としてその場所が角括弧内に表示されます。表示された場所を使用する場合は、Enter キーを押します。
%s CD-ROM はどこですか [%s] ? |
VxVM CD-ROM が見つからない場合には、プロンプトが表示されます。CD-ROM またはCD-ROM イメージの場所を入力してください。
%s CD-ROM はどこですか ? |
プロンプトが表示されたら、 VxVM ライセンスキーを入力します。
%s ライセンスキーを入力してください: license |
scvxinstall コマンドによって、以下の作業が自動的に行われます。
Dynamic Multipathing (DMP) を無効にする
scvxinstall ユーティリティーでインストール処理を開始すると、Dynamic Multipathing (DMP) は無効になりますが、バージョン 3.1.1 以降の VxVM を使用する場合、VRTSvxvm パッケージをインストールするときに DMP が再び有効になります。 3.1.1 よりも前のバージョンの VxVM の場合、DMP は無効のままです。
必須の VxVM ソフトウェア、ライセンス、マニュアルページのパッケージをインストールし、GUI パッケージはインストールしません。
ルートディスクをカプセル化することによって、rootdg ディスクグループを作成します。
/etc/vfstab ファイル内にある /global/.devices エントリを更新します。
詳細については、scvxinstall(1M) のマニュアルページを参照してください。
インストール時、2 回だけ再起動が自動的に行われます。scvxinstall がすべてのインストール作業を完了した後、プロンプトで Ctrl-C を押さない限り、2 回目の再起動が自動的に行われます。Ctrl-C を押して 2 回目の再起動を中断した場合は、後でノードを再起動して、VxVM のインストールを完了する必要があります。
VxVM クラスタ機能を有効にする場合は、クラスタ機能のライセンスキーを指定します。
ライセンスの追加方法については、VxVM のマニュアルを参照してください。
(省略可能) VxVM GUI をインストールします。
VxVM GUI のインストールの詳細については、VxVM のマニュアルを参照してください。
CD-ROM を取り出します。
すべての VxVM パッチをインストールします。
パッチの入手方法とインストール方法については、『Sun Cluster 3.1 ご使用にあたって』の「パッチとファームウェアレベル」を参照してください。
(省略可能) クラスタノード上に VxVM のマニュアルページを置かない場合は、マニュアルページパッケージを削除します。
# pkgrm VRTSvmman |
VxVM を別のノードにインストールするかどうかを決定します。
VxVM をインストールしない ノードが存在するかどうかを確認します。
VxVM クラスタ機能を有効にする予定の場合、クラスタ内にあるすべてのノードに VxVM をインストールする必要があります。
VxVM をインストールしないノードごとに、/etc/name_to_major ファイルを変更します。
VxVM をインストールしたノード上で、vxio メジャー番号の設定を調べます。
# grep vxio /etc/name_to_major |
VxVM をインストールしないノードでスーパーユーザーになります。
/etc/name_to_major ファイルを編集して、vxio メジャー番号を NNN (手順 a で調べた番号) に設定するエントリを追加します。
# vi /etc/name_to_major vxio NNN |
vxio エントリを初期化します。
# drvconfig -b -i vxio -m NNN |
VxVM をインストールしない他のすべてのノードに対して、手順 b から 手順 d までを繰り返します。
この作業が終了したとき、クラスタ内にある各ノードで /etc/name_to_major ファイルの vxio エントリが同じである必要があります。
新しいマシンをクラスタに追加しないようにします。
カプセル化したルートディスクをミラー化する予定があるかどうかを確認します。
ミラー化する場合は、カプセル化されたルートディスクをミラー化する に進みます。
ミラー化しない場合は、ディスクグループの作成と登録を行う に進みます。
後からルートディスクのカプセル化を解除する必要が生じた場合は、ルートディスクのカプセル化を解除する の手順に従ってください。
VxVM をインストールしてルートディスクをカプセル化した後で、カプセル化されたルートディスクをミラー化するノードごとにこの作業を行ってください。
VxVM のマニュアルに記載された方法に従って、カプセル化されたルートディスクをミラー化します。
可用性を最大限に高め、管理を容易にするには、ローカルディスクをミラーとして使用してください。ガイドラインの詳細については、ルートディスクのミラー化 を参照してください。
ルートディスクのミラー化に定足数デバイスを使用することは避けてください。定足数デバイスを使用すると、一定の条件下でルートディスクミラーからノードを起動できない可能性があります。
デバイス ID (DID) マッピングを表示します。
# scdidadm -L |
DID マッピングで、ルートディスクのミラー化に使用されているディスクを確認します。
ルートディスクミラーの DID 名から raw ディスクデバイスグループ名を特定します。
raw ディスクデバイスグループの名前は、dsk/dN という規則に従っています (N は番号)。次の scdidadm の出力例で、強調表示されているのが raw ディスクデバイスグループ名です。
N node:/dev/rdsk/cNtXdY /dev/did/rdsk/dN |
raw ディスクデバイスグループのノードリストを表示します。
次に出力例を示します。
# scconf -pvv | grep dsk/dN デバイスグループ名: dsk/dN ... (dsk/dN) デバイスグループのノードリスト: phys-schost-1, phys-schost-3 ... |
ノードリストにノード名が複数含まれているかどうかを確認します。
raw ディスクデバイスグループのノードリストから、ルートディスクをミラー化したノード以外のすべてのノードを削除します。
ルートディスクをミラー化したノードだけがノードリストに残るようにします。
# scconf -r -D name=dsk/dN,nodelist=node |
raw ディスクデバイスグループのクラスタ固有の名前を指定します。
ノードリストから削除するノードの名前を指定します。
raw ディスクデバイスグループの localonly プロパティを有効にします。
localonly プロパティが有効になった時点で、raw ディスクデバイスグループはそのノードリスト内のノードだけに使用されるようになります。これにより、起動デバイスが複数のノードに接続されている場合に、不意にノードがその起動デバイスから使用できなくなることが防止されます。
# scconf -c -D name=dsk/dN,localonly=true |
localonly プロパティの詳細については、scconf_dg_rawdisk(1M) のマニュアルページを参照してください。
カプセル化されたルートディスクをミラー化するクラスタノードごとにこの作業を繰り返します。
ディスクグループを作成します。
ディスクグループの作成と登録を行う に進みます。
次の例は、ノード phys-schost-1 のルートディスクに作成されたミラーを示しています。このミラーは、ディスク c1t1d0 (raw ディスクデバイスグループ名は dsk/d2 ) で作成されています。ディスク c1t1d0 は多重ポートディスクであるため、ノード phys-schost-3 がディスクのノードリストから削除され、localonly プロパティが有効に設定されています。
(DID マッピングを表示する) # scdidadm -L ... 2 phys-schost-1:/dev/rdsk/c1t1d0 /dev/did/rdsk/d2 2 phys-schost-3:/dev/rdsk/c1t1d0 /dev/did/rdsk/d2 ... (ミラーディスクの raw ディスクデバイスグループのノードリストを表示する) # scconf -pvv | grep dsk/d2 デバイスグループ名: dsk/d2 ... (dsk/d2) デバイスグループのノードリスト: phys-schost-1, phys-schost-3 ... (raw ディスクデバイスグループのノードリストから phys-schost-3 を削除する) # scconf -r -D name=dsk/d2,nodelist=phys-schost-3 (ミラーディスクの raw ディスクデバイスグループの localonly プロパティを有効にする) # scconf -c -D name=dsk/d2,localonly=true |
この作業は、scvxinstall コマンドを使用して VERITAS Volume Manager (VxVM) ソフトウェアだけをインストールします。
ルートディスクをカプセル化することによって rootdg ディスクグループを作成する場合、この手順を使用してはいけません。その代わりに、VERITAS Volume Manager ソフトウェアをインストールしてルートディスクをカプセル化するに進んで、VxVM ソフトウェアのインストールとルートディスクのカプセル化を行ってください。
この作業は、VxVM をインストールするノードごとに行ってください。VxVM は、クラスタのすべてのノードにインストールすることも、あるいは、VxVM が管理する記憶装置に物理的に接続されたノードにだけインストールすることもできます。
クラスタ内にあるすべてのノードがクラスタモードで動作していることを確認します。
VxVM をインストールするクラスタノードでスーパーユーザーになります。
クラスタ内にあるすべてのノードをクラスタノード認証リストに追加します。
scsetup(1M) ユーティリティを起動します。
# scsetup |
メインメニューが表示されます。
「新規ノード」メニューにアクセスするには、メインメニューで「6」を入力します。
ノードを承認リストに追加するには、「新規ノード」メニューで「3」を入力します。
自分自身を追加する可能性があるマシンの名前を指定します。
ノードの名前をクラスタに追加するためのプロンプトに従います。追加するノードの名前をたずねられます。
作業が正常に行われたことを確認します。
作業が正常に行われた場合、scsetup ユーティリティは「コマンドが正常に完了しました」というメッセージを出力します。
クラスタ内にある各ノードで手順 c から手順 e までを繰り返して、すべてのクラスタノードをノード認証リストに追加します。
scsetup ユーティリティを終了します。
ノードのCD-ROM ドライブに VxVM CD-ROM を挿入します。
scvxinstallを非対話方式のインストールモードで起動します。
# scvxinstall -i |
scvxinstall コマンドは次の作業を自動的に行います。
Disables Dynamic Multipathing (DMP)
scvxinstall ユーティリティでインストール処理を開始すると、Dynamic Multipathing (DMP) は無効になりますが、バージョン 3.1.1 以降の VxVM を使用する場合、VRTSvxvm パッケージをインストールするときに DMP が再び有効になります。3.1.1 よりも前のバージョンの VxVM の場合、DMP は無効のままです。
必須の VxVM ソフトウェア、ライセンス、マニュアルページのパッケージをインストールし、GUI パッケージはインストールしません。
VxVM ライセンスは、次の手順である ルート以外の rootdg ディスクグループを作成するで追加します。
詳細については、scvxinstall(1M) のマニュアルページを参照してください。
(省略可能) VxVM GUI をインストールします。
VxVM GUI のインストールの詳細については、VxVM のマニュアルを参照してください。
CD-ROM を取り出します。
すべての VxVM パッチをインストールします。
パッチの入手方法とインストール方法については、『Sun Cluster 3.1 ご使用にあたって』の「パッチとファームウェアレベル」を参照してください。
(省略可能) クラスタノード上に VxVM のマニュアルページを置かない場合は、マニュアルページパッケージを削除します。
# pkgrm VRTSvmman |
VxVM を別のノードにインストールするかどうかを決定します。
VxVM をインストールしないノードが存在するかどうかを確認します。
VxVM クラスタ機能を有効にする予定の場合、クラスタ内にあるすべてのノードに VxVM をインストールする必要があります。
VxVM をインストールしないノードごとに、/etc/name_to_major ファイルを変更します。
VxVM をインストールしたノード上で、vxio メジャー番号の設定を調べます。
# grep vxio /etc/name_to_major |
VxVM をインストールしないノードでスーパーユーザーになります。
/etc/name_to_major ファイルを編集して、vxio メジャー番号を NNN (手順 aで調べた番号) に設定するエントリを追加します。
# vi /etc/name_to_major vxio NNN |
vxio エントリを初期化します。
# drvconfig -b -i vxio -m NNN |
VxVM をインストールしない他のすべてのノードに対して、手順 a から 手順 cまでを繰り返します。
この作業が終了したとき、クラスタ内にある各ノードで /etc/name_to_major ファイルの vxio エントリが同じである必要があります。
新しいマシンをクラスタに追加しないようにします。
rootdg ディスクグループを作成します。
ルート以外の rootdg ディスクグループを作成する に進みます。
次の手順で、ローカルのルート以外のディスクをカプセル化または初期化することによって rootdg ディスクグループを作成します。
VERITAS Volume Manager (VxVM) ライセンスキーを用意します。
ノードのスーパーユーザーになります。
(省略可能) ディスクをカプセル化する場合は、各ディスクに 0 シリンダのスライスが少なくとも 2 つあることを確認します。
必要に応じて、format(1M) コマンドを使用して、各 VxVM スライスに 0 シリンダを割り当てます。
vxinstall ユーティリティーを起動します。
# vxinstall |
プロンプトが表示されたら、次のようにします。
VxVM ライセンスキーを指定します。
VxVM クラスタ機能を有効にする場合は、クラスタ機能のライセンスキーを指定します。
Custom Installation を選択します。
ルートディスクをカプセル化しません。
rootdg ディスクグループに追加する任意のディスクを選択します。
自動再起動は行いません。
リソースグループまたはデバイスグループをノードから退避させます。
# scswitch -S -h node |
すべてのリソースグループとデバイスグループを退避させます。
リソースグループまたはデバイスグループを退避させるノード名を指定します。
ノードを再起動します。
# shutdown -g0 -y -i6 |
vxdiskadm コマンドを使用して rootdg ディスクグループに多重ディスクを追加します。
多重ディスクがあると、rootdg ディスクグループはディスク障害に対処しやすくなります。手順については、VxVM のマニュアルを参照してください。
ディスクグループを作成します。
ディスクグループの作成と登録を行う に進みます。
次の手順で、VxVM ディスクグループとボリュームを作成します。
ディスクグループをディスクデバイスグループとしてクラスタに登録した後には、VxVM コマンドを使用してVxVM ディスクグループをインポートまたはデポートしないでください。ディスクグループのインポートやデポートは、すべて Sun Cluster ソフトウェアで処理できます。Sun Cluster ディスクデバイスグループを管理する方法については、『Sun Cluster 3.1 のシステム管理』の「ディスクデバイスグループの管理」を参照してください。
この手順は、追加するディスクグループを構成するディスクに物理的に接続されているノードから実行します。
次の情報を用意します。
ディスクドライブのマッピング記憶装置の初期設置を実行する場合は、『Sun Cluster 3.1 Hardware Administration Collection』の該当するマニュアルを参照してください。
以下に示す、必要事項を記入した構成計画ワークシート
『Sun Cluster 3.1 ご使用にあたって』の「ミラー化ルートワークシートのローカルファイルシステム」、または『Sun Cluster 3.1 ご使用にあたって』の「非ミラー化ルートワークシートのローカルファイルシステム」
『Sun Cluster 3.1 ご使用にあたって』の「ディスクデバイスグループ構成のワークシート」
『Sun Cluster 3.1 ご使用にあたって』の「ボリュームマネージャ構成ワークシート」
計画のガイドラインについては、ボリューム管理の計画 を参照してください。
ディスクセットの所有権を持つノードのスーパーユーザーになります。
Oracle Parallel Server/Real Application Clusters をインストールする場合は、『VERITAS Volume Manager Administrator's Reference Guide』の説明に従って、VxVM のクラスタ機能を使用して共有の VxVM ディスクグループを作成してください。このソフトウェアをインストールしない場合は、VxVM のマニュアルで説明されている標準の手順を使用して VxVM ディスクグループを作成してください。
ダーティリージョンログ (DRL) を使用することで、ノードに障害が発生した場合のボリューム回復時間を短縮できます。ただし、DRL を使用すると I/O スループットが低下することがあります。
VxVM クラスタ機能が有効に設定されているかどうかを確認します。
ディスクグループを Sun Cluster ディスクデバイスグループとして登録します。
scsetup(1M) ユーティリティーを起動します。
# scsetup |
ディスクデバイスグループで作業を行うには、4 (デバイスグループとボリューム) を入力します。
ディスクデバイスグループを登録するには、1(VxVM ディスクグループをデバイスグループとして登録) を入力します。
指示に従って、Sun Cluster ディスクデバイスグループとして登録するVxVM ディスクデバイスグループを入力します。
ディスクデバイスグループを登録する際に、次のエラーが発生する場合は、ディスクデバイスグループに別々のマイナー番号を割り当てます。
scconf: Failed to add device group - in use |
ディスクデバイスグループに再度マイナー番号を割り当てるには、ディスクデバイスグループに新しいマイナー番号を割り当てるの手順を使用してください。この手順を使用すると、既存のディスクデバイスグループのマイナー番号と衝突しない新しいマイナー番声を割り当てることができます。
作業が完了したら、q (終了) を入力して scsetup ユーティリティーを終了します。
ディスクデバイスグループが登録されたことを確認します。
次のコマンドを実行して表示される新しいディスクのディスクデバイス情報を検索します。
# scstat -D |
VxVM ディスクグループまたはボリュームの構成情報を変更する場合は、scsetup を使用して Sun Cluster ディスクデバイスグループを再登録します。このような構成変更には、ボリュームの追加や削除、既存ボリュームのグループ、所有者、アクセス権の変更などがあります。構成変更後に登録を行うと、広域名前空間が正しい状態になります。ディスクデバイスグループを登録する方法については、『Sun Cluster 3.1 のシステム管理』の「ディスクデバイスグループの管理」を参照してください。
VxVM ディスクグループとボリュームの構成を確認します。
ディスクグループの構成を確認する に進みます。
マイナー番号が他のディスクグループと衝突してディスクデバイスグループの登録が失敗する場合、新しいディスクグループに未使用の新しいマイナー番号を割り当てる必要があります。この作業を実行して、ディスクグループにマイナー番号を割り当てなおしてください。
各クラスタのノードのスーパーユーザーになります。
使用中のマイナー番号を確認します。
# ls -l /global/.devices/node@1/dev/vx/dsk/* |
1000 の倍数で使用されていない値を、ディスクグループのベースとなるマイナー番号として選択します。
ディスクグループにベースとなるマイナー番号を割り当てます。
# vxdg reminor diskgroup base-minor-number |
ディスクグループの作成と登録を行う の 手順 5 に進み、ディスクグループを Sun Cluster ディスクデバイスグループとして登録します。
次の例は、マイナー番号 16000 〜 16002 と 4000 〜 4001 が使用されていることを示します。ここでは、vxdg reminor コマンドを使用し、ベースとなるマイナー番号 5000 が使用されるように、新しいディスクグループに再度マイナー番号を割り当てています。
# ls -l /global/.devices/node@1/dev/vx/dsk/* /global/.devices/node@1/dev/vx/dsk/dg1 brw------- 1 root root 56,16000 Oct 7 11:32 dg1v1 brw------- 1 root root 56,16001 Oct 7 11:32 dg1v2 brw------- 1 root root 56,16002 Oct 7 11:32 dg1v3 /global/.devices/node@1/dev/vx/dsk/dg2 brw------- 1 root root 56,4000 Oct 7 11:32 dg2v1 brw------- 1 root root 56,4001 Oct 7 11:32 dg2v2 # vxdg reminor dg3 5000 |
この作業はクラスタの各ノード上で行ってください。
ルートディスクグループ (rootdg) にローカルディスクだけが含まれていること、およびディスクグループが現在の主ノードだけにインポートされていることを確認します。
# vxdisk list |
すべてのボリュームが起動していることを確認します。
# vxprint |
すべてのディスクグループが Sun Cluster ディスクデバイスグループとして登録されており、オンラインであることを確認します。
# scstat -D |
クラスタを構成する
クラスタの構成 に進みます。
この作業は、ルートディスクのカプセル化を解除する場合に行ってください。
ルートディスク上に Solaris のルートファイルシステム (ルート (/)、スワップ、広域デバイス名前空間、/usr、/var、/opt、/home) だけが存在することを確認してください。
ルートディスク上に他のファイルシステムが存在する場合は、バックアップをとった後でルートディスクからそれらを削除してください。
カプセル化を解除するノード上でスーパーユーザーになります。
ノードからリソースグループとデバイスグループをすべて退避させます。
# scswitch -S -h node |
すべてのリソースグループとデバイスグループを退避させます。
リソースグループまたはデバイスグループを退避させるノード名を指定します。
# clinfo -n N |
このノードの広域デバイスファイルシステムのマウントを解除します (N は手順 4で戻されたノード ID 番号です)。
# umount /global/.devices/node@N |
/etc/vfstab ファイルを表示し、どの VxVM ボリュームが広域デバイスファイルシステムに対応しているかを確認します。
# vi /etc/vfstab #device device mount FS fsck mount mount #to mount to fsck point type pass at boot options # #NOTE: volume rootdiskxNvol (/global/.devices/node@N) encapsulated #partition cNtXdYsZ |
rootdg ディスクグループから、広域デバイスファイルシステムに対応する VxVM ボリュームを削除します。
# vxedit -rf rm rootdiskxNvol |
広域デバイス用のデバイスエントリ以外のデータは、広域デバイスファイルシステムに格納しないでください。VxVM ボリュームを削除すると、広域デバイスファイルシステム内のデータはすべて削除されます。ルートディスクのカプセル化を解除した後は、広域デバイスエントリに関連するデータだけが復元されます。
ルートディスクのカプセル化を解除します。
# /etc/vx/bin/vxunroot |
詳細については、VxVM のマニュアルを参照してください。
広域デバイスファイルシステムに使用できるように、format(1M) コマンドを使用してルートディスクに 512M バイトのパーティションを追加します。
/etc/vfstab ファイルに指定されているように、ルートディスクのカプセル化の解除が行われる前に広域デバイスファイルシステムに割り当てられたものと同じスライスを使用してください。
手順 9で作成したパーティションにファイルシステムを設定します。
# newfs /dev/rdsk/cNtXdYsZ |
ルートディスクのデバイス ID (DID) 名を確認します。# scdidadm -l cNtXdY 1 phys-schost-1:/dev/rdsk/cNtXdY /dev/did/rdsk/dN
/etc/vfstab ファイルで、広域デバイスファイルシステムエントリ内のパス名を 手順 11 で指定した DID パスに置き換えます。
元のエントリの例を次に示します。
# vi /etc/vfstab /dev/vx/dsk/rootdiskxNvol /dev/vx/rdsk/rootdiskxNvol /global/.devices/node@N ufs 2 no global |
DID パスを使用する変更後のエントリの例を次に示します。
/dev/did/dsk/dNsX /dev/did/rdsk/dNsX /global/.devices/node@N ufs 2 no global |
広域デバイスファイルシステムをマウントします。
# mount /global/.devices/node@N |
クラスタの任意のノードから、任意の raw ディスクと Solstice DiskSuite/Solaris Volume Manager デバイス用のデバイスノードを使用して広域デバイスファイルシステムを生成し直します。
# scgdevs |
次の再起動時に VxVM デバイスが作成し直されます。
ノードを再起動します。
# reboot |
クラスタの各ノードでこの手順を繰り返し、それらのノードのルートディスクのカプセル化を解除します。