Sun Cluster ソフトウェアのインストール (Solaris OS 版)

第 4 章 SPARC: VERITAS Volume Manager のインストールと構成

この章で説明する手順とボリューム管理の計画 の計画情報に基づいて、VERITAS Volume Manager (VxVM) 用に、ローカルディスクおよび多重ホストディスクをインストールおよび構成してください。 詳細については、VxVM のマニュアルを参照してください。

この章の内容は、次のとおりです。

SPARC: VxVM ソフトウェアのインストールと構成

この節では、VxVM ソフトウェアを Sun Cluster 構成上でインストール、構成するための情報と手順を紹介します。

SPARC: Task Map: VxVM ソフトウェアのインストールと構成

次の表に、 Sun Cluster 構成用の VxVM ソフトウェアのインストールと構成において行う作業を示します。

表 4–1 SPARC: Task Map: VxVM ソフトウェアのインストールと構成

目次 

参照箇所 

1. VxVM 構成のレイアウトを計画  

ボリューム管理の計画

2. 各ノード上のルートディスクグループをどのように作成するかを決定 

SPARC: ルートディスクグループの設定の概要

3. VxVM ソフトウェアをインストールし、ルートディスクグループを作成する 

  • 方法 1scvxinstall コマンドを使用して VxVM ソフトウェアのインストールとルートディスクのカプセル化を行い、必要に応じてカプセル化されたルートディスクをミラー化

  1. SPARC: VERITAS Volume Manager ソフトウェアをインストールしてルートディスクをカプセル化する

  2. SPARC: カプセル化されたルートディスクをミラー化する

  • 方法 2 – ルート以外のローカルディスクで VxVM ソフトウェアをインストールし、ルートディスクグループを作成

  1. SPARC: VERITAS Volume Manager ソフトウェアだけをインストールする

  2. SPARC: ルート以外のディスクにルートディスクグループを作成する

4. ディスクグループとボリュームを作成 

SPARC: ディスクグループの作成と登録を行う

5. 新しいマイナー番号を割り当てて、ディスクデバイスグループ間のマイナー番号の衝突を解決 

SPARC: ディスクデバイスグループに新しいマイナー番号を割り当てる

6. ディスクグループとボリュームを確認 

SPARC: ディスクグループの構成を確認する

7. クラスタを構成 

クラスタの構成

SPARC: ルートディスクグループの設定の概要

VxVM をインストールした後で、各クラスタノードでルートディスクグループを作成する必要があります。 このディスクグループは VxVM が構成情報を格納するために使用され、次の制限があります。

Sun Cluster ソフトウェアでは、次のルートディスクグループの構成方法がサポートされています。

詳細については、 VxVM のインストールマニュアルを参照してください。

SPARC: 次に進む手順

ルートディスクグループをどのように作成するかに応じて、次のインストール方法のいずれかを使用して VxVM をインストールします。

SPARC: VERITAS Volume Manager ソフトウェアをインストールしてルートディスクをカプセル化する

この手順は、scvxinstall(1M) コマンドを使用して、1 つの操作で VxVM ソフトウェアをインストールし、ルートディスクをカプセル化します。


注 –

ローカルのルート以外のディスクにルートディスクグループを作成する場合は、SPARC: VERITAS Volume Manager ソフトウェアだけをインストールする に進みます。


この作業は、VxVM をインストールするノードごとに行ってください。 VERITAS Volume Manager (VxVM) は、クラスタ内にあるすべてのノードにインストールすることや、VxVM が管理する記憶装置が物理的に接続されているノードだけにインストールすることも可能です。

後からルートディスクのカプセル化を解除する必要が生じた場合は、SPARC: ルートディスクのカプセル化を解除する の手順に従ってください。

  1. クラスタが以下の前提条件を満たしていることを確認します。

    • クラスタ内にあるすべてのノードがクラスタモードで動作していること。

    • インストールするノードのルートディスクに 2 つの空き (未割り当ての) パーティションがあること。

  2. 以下の情報を用意します。

  3. VxVM をインストールするノードでスーパーユーザーになります。

  4. ノードの CD-ROM ドライブに VxVM CD-ROM を挿入します。

  5. scvxinstall を対話モードで起動します。

    scvxinstall を中止する場合は、Ctrl-C を押します。


    # scvxinstall
    

    詳細については、scvxinstall(1M) のマニュアルページを参照してください。

  6. ルートをカプセル化するかどうかの問い合わせに、「yes」を入力します。


    Volume Manager でルートをカプセル化しますか [いいえ]? y
    

  7. プロンプトが表示されたなら、VxVM CD-ROM の位置を指定します。

    • 適切な VxVM CD-ROM が見つかると、プロンプトの一部としてその場所が角括弧内に表示されます。 表示された場所を使用する場合は、Enter キーを押します。


      %s CD-ROM はどこですか [%s] ?

    • VxVM CD-ROM が見つからなかった場合、デフォルトの場所はプロンプトに表示されません。 CD-ROM または CD-ROM イメージの場所を入力してください。


      %s CD-ROM はどこですか ?

  8. プロンプトが表示されたなら、 VxVM ライセンスキーを入力します。


    %s ライセンスキーを入力してください: license
    

    scvxinstall コマンドによって、以下の作業が自動的に行われます。

    • 必須の VxVM ソフトウェア、ライセンス、マニュアルページのパッケージをインストールし、GUI パッケージはインストールしません。

    • クラスタ全体の vxio ドライバのメジャー番号を選択する

    • ルートディスクをカプセル化することによってルートディスクグループを作成する

    • /etc/vfstab ファイル内の /global/.devices エントリを更新する

    詳細については、scvxinstall(1M) のマニュアルページを参照してください。


    注 –

    インストール時に、再起動が自動的に 2 回行われます。 scvxinstall がすべてのインストール作業を完了した後、プロンプトで Ctrl-C を押さない限り、2 回目の再起動が自動的に行われます。 Ctrl-C を押して 2 回目の再起動を中断した場合は、後でノードを再起動して、VxVM のインストールを完了する必要があります。


  9. VxVM クラスタ機能を有効にする場合は、クラスタ機能のライセンスキーを指定します。

    ライセンスの追加方法については、VxVM のマニュアルを参照してください。

  10. (省略可能) VxVM GUI をインストールします。

    VxVM GUI のインストールの詳細については、VxVM のマニュアルを参照してください。

  11. CD-ROM を取り出します。

  12. すべての VxVM パッチをインストールします。

    パッチの入手先とインストール方法については、『Sun Cluster 3.1 ご使用にあたって 』の「パッチと必須ファームウェアのレベル」を参照してください。

  13. (省略可能) クラスタノード上に VxVM のマニュアルページを置かない場合は、マニュアルページパッケージを削除します。


    # pkgrm VRTSvmman
    

  14. VxVM を別のノードにインストールするかどうかを決定します。

    • 別のノードにインストールする場合は、手順 3手順 13 を繰り返してください。

    • 別のノードにインストールしない場合は、手順 15 に進みます。

  15. 1 つまたは複数のノードに VxVM をインストールする予定がないかどうかを確認します。


    注 –

    VxVM クラスタ機能を有効にする予定の場合、クラスタ内にあるすべてのノードに VxVM をインストールする必要があります


    • インストールする場合は、手順 16 に進みます。

    • インストールしない場合は、手順 17 に進みます。

  16. VxVM をインストールしないノードごとに、/etc/name_to_major ファイルを変更します。

    1. VxVM をインストールしたノード上で、vxio メジャー番号の設定を調べます。


      # grep vxio /etc/name_to_major
      

    2. VxVM をインストールしないノードでスーパーユーザーになります。

    3. /etc/name_to_major ファイルを編集して、vxio メジャー番号を NNN (手順 a で調べた番号) に設定するエントリを追加します。


      # vi /etc/name_to_major
      vxio NNN
      

    4. vxio エントリを初期化します。


      # drvconfig -b -i vxio -m NNN
      

    5. VxVM をインストールしない他のすべてのノードに対して、手順 bから手順 dまでを繰り返します。

      この作業が終了したとき、クラスタ内にある各ノードで /etc/name_to_major ファイルの vxio エントリが同じである必要があります。

  17. カプセル化したルートディスクをミラー化する予定があるかどうかを確認します。

SPARC: カプセル化されたルートディスクをミラー化する

VxVM をインストールしてルートディスクをカプセル化した後で、カプセル化されたルートディスクをミラー化するノードごとにこの作業を行ってください。

  1. カプセル化したルートディスクをミラー化します。

    VxVM のマニュアルの手順に従います。 可用性を最大限に高め、管理を容易にするには、ローカルディスクをミラーとして使用してください。 詳細は、ルートディスクのミラー化 を参照してください。


    注意 – 注意 –

    ルートディスクのミラー化に定足数デバイスを使用することは避けてください。 ルートディスクのミラー化に定足数デバイスを使用すると、一定の条件下でルートディスクミラーからノードを起動できない可能性があります。


  2. DID マッピングを表示します。


    # scdidadm -L
    

  3. DID マッピングで、ルートディスクのミラー化に使用されているディスクを確認します。

  4. ルートディスクミラーのデバイス ID 名から raw ディスクデバイスグループ名を特定します。

    raw ディスクデバイスグループの名前は、dsk/dN という規則に従っています (N は番号)。 次の scdidadm の出力例で、強調表示されているのが raw ディスクデバイスグループ名です。


    N         node:/dev/rdsk/cNtXdY     /dev/did/rdsk/dN
    

  5. raw ディスクデバイスグループのノードリストを表示します。

    次に出力例を示します。


    # scconf -pvv | grep dsk/dN
    Device group name:						    dsk/dN
    …
     (dsk/dN) デバイスグループのノードリスト:		phys-schost-1, phys-schost-3
    …

  6. ノードリストにノード名が複数含まれているかどうかを確認します。

    • 含まれている場合は、手順 7に進みます。

    • 含まれていない場合は、手順 9に進みます。

  7. raw ディスクデバイスグループのノードリストから、ルートディスクをミラー化したノード以外のすべてのノードを削除します。

    ルートディスクをミラー化したノードだけがノードリストに残るようにします。


    # scconf -r -D name=dsk/dN,nodelist=node
    
    -D name=dsk/dN

    raw ディスクデバイスグループのクラスタ固有の名前を指定します。

    nodelist=node

    ノードリストから削除するノードの名前を指定します。

  8. raw ディスクデバイスグループの localonly プロパティを有効にします。

    localonly プロパティが有効になった時点で、raw ディスクデバイスグループはそのノードリスト内のノードだけに使用されるようになります。 これにより、起動デバイスが複数のノードに接続されている場合に、不意にノードがその起動デバイスから使用できなくなることが防止されます。


    # scconf -c -D name=dsk/dN,localonly=true
    

    localonly プロパティの詳細については、scconf_dg_rawdisk(1M) のマニュアルページを参照してください。

  9. カプセル化されたルートディスクをミラー化するクラスタノードごとにこの作業を繰り返します。

  10. ディスクグループを作成します。

    SPARC: ディスクグループの作成と登録を行う に進みます。

SPARC: 例 — カプセル化されたルートディスクのミラー化

次の例は、ノード phys-schost-1 のルートディスクに作成されたミラーを示しています。 このミラーは、ディスク c1t1d0 (raw ディスクデバイスグループ名は dsk/d2 ) で作成されています。 ディスク c1t1d0 は多重ポートディスクであるため、ノード phys-schost-3 がディスクのノードリストから削除され、localonly プロパティが有効に設定されています。


(DID マッピングを表示します)
# scdidadm -L 
…
2        phys-schost-1:/dev/rdsk/c1t1d0 /dev/did/rdsk/d2   
2        phys-schost-3:/dev/rdsk/c1t1d0 /dev/did/rdsk/d2   
…
 
(ミラー化されたディスクの raw-disk デバイスグループのノードリストを表示します)
# scconf -pvv | grep dsk/d2
デバイスグループ名:						dsk/d2
…
  (dsk/d2) デバイスグループのノードリスト:		phys-schost-1, phys-schost-3
…
 
(phys-schost-3 をノードリストから削除します)
# scconf -r -D name=dsk/d2,nodelist=phys-schost-3
  
(localonly プロパティを有効にします)
# scconf -c -D name=dsk/d2,localonly=true

SPARC: VERITAS Volume Manager ソフトウェアだけをインストールする

この作業は、scvxinstall コマンドを使用して VERITAS Volume Manager (VxVM) ソフトウェアだけをインストールします。


注 –

ルートディスクをカプセル化してルートディスクグループを作成する場合は、この手順を使用しないでください。 その代わりに、SPARC: VERITAS Volume Manager ソフトウェアをインストールしてルートディスクをカプセル化する に進んで、1 つの操作で、VxVM ソフトウェアをインストールし、ルートディスクをカプセル化します。


この作業は、VxVM をインストールするノードごとに行ってください。 VxVM は、クラスタ内にあるすべてのノードにインストールすることや、VxVM が管理する記憶装置が物理的に接続されているノードだけにインストールすることも可能です。

  1. クラスタ内にあるすべてのノードがクラスタモードで動作していることを確認します。

  2. VxVM をインストールするクラスタノードでスーパーユーザーになります。

  3. ノードの CD-ROM ドライブに VxVM CD-ROM を挿入します。

  4. scvxinstall を非対話方式のインストールモードで起動します。


    # scvxinstall -i
    

    scvxinstall コマンドによって、以下の作業が自動的に行われます。

    • 必須の VxVM ソフトウェア、ライセンス、マニュアルページのパッケージをインストールし、GUI パッケージはインストールしません。

    • クラスタ全体の vxio ドライバのメジャー番号を選択します。


    注 –

    VxVM ライセンスは、次の手順である SPARC: ルート以外のディスクにルートディスクグループを作成する で追加します。


    詳細については、scvxinstall(1M) のマニュアルページを参照してください。

  5. (省略可能) VxVM GUI をインストールします。

    VxVM GUI のインストールの詳細については、VxVM のマニュアルを参照してください。

  6. CD-ROM を取り出します。

  7. すべての VxVM パッチをインストールします。

    パッチの入手先とインストール方法については、『Sun Cluster 3.1 ご使用にあたって 』の「パッチと必須ファームウェアのレベル」を参照してください。

  8. (省略可能) クラスタノード上に VxVM のマニュアルページを置かない場合は、マニュアルページパッケージを削除します。


    # pkgrm VRTSvmman
    

  9. VxVM を別のノードにインストールするかどうかを決定します。

    • 別のノードにインストールする場合は、手順 2 〜 1手順 8 を繰り返してください。

    • インストールしない場合は、手順 10 に進みます。

  10. 1 つまたは複数のノードに VxVM をインストールする予定がないかどうかを確認します。


    注 –

    VxVM クラスタ機能を有効にする予定の場合、クラスタ内にあるすべてのノードに VxVM をインストールする必要があります


    • インストールする予定がある場合は、手順 11 に進みます。

    • インストールしない場合は、手順 12 に進みます。

  11. VxVM をインストールしないノードごとに、/etc/name_to_major ファイルを変更します。

    1. VxVM をインストールしたノード上で、vxio メジャー番号の設定を調べます。


      # grep vxio /etc/name_to_major
      

    2. VxVM をインストールしないノードでスーパーユーザーになります。

    3. /etc/name_to_major ファイルを編集して、vxio メジャー番号を NNN (手順 aで調べた番号) に設定するエントリを追加します。


      # vi /etc/name_to_major
      vxio NNN
      

    4. vxio エントリを初期化します。


      # drvconfig -b -i vxio -m NNN
      

    5. VxVM をインストールしない他のすべてのノードに対して、手順 aから手順 cまでを繰り返します。

      この作業が終了したとき、クラスタ内にある各ノードで /etc/name_to_major ファイルの vxio エントリが同じである必要があります。

  12. ルートディスクグループを作成します。

    SPARC: ルート以外のディスクにルートディスクグループを作成する に進みます。

SPARC: ルート以外のディスクにルートディスクグループを作成する

次の手順で、ローカルのルート以外のディスクをカプセル化または初期化することによってルートディスクグループを作成します。

  1. VERITAS Volume Manager (VxVM) ライセンスキーを用意します。

  2. ノードのスーパーユーザーになります。

  3. (省略可能) ディスクをカプセル化する場合は、各ディスクに 0 シリンダのスライスが少なくとも 2 つあることを確認します。

    必要に応じて、format(1M) コマンドを使用して、各 VxVM スライスに 0 シリンダを割り当てます。

  4. vxinstall ユーティリティーを起動します。


     # vxinstall
    

    プロンプトが表示されたなら、次のようにします。

    • VxVM ライセンスキーを指定します。

    • VxVM クラスタ機能を有効にする場合は、クラスタ機能のライセンスキーを指定します。

    • Custom Installation を選択します。

    • 起動ディスクはカプセル化しません。

    • ルートディスクグループに追加する任意のディスクを選択します。

    • 自動再起動は行いません。

  5. 作成したルートディスクグループが複数のノードに接続された 1 つ以上のディスクを含むかどうかを確認します。

    • 含む場合は、ルートディスクグループ内のこれらの各共有ディスクの raw ディスクデバイスグループの localonly プロパティを有効にします。

      localonly プロパティが有効になった時点で、raw ディスクデバイスグループはそのノードリスト内のノードだけに使用されるようになります。 これにより、ルートディスクグループが使用しているデバイスが複数のノードに接続されている場合に、不意にノードがそのデバイスから使用できなくなる状態を防止できます。


      # scconf -c -D name=dsk/dN,localonly=true
      

      localonly プロパティの詳細については、scconf_dg_rawdisk(1M) のマニュアルページを参照してください。

    • 含まない場合は、手順 6に進みます。

  6. ノードからリソースグループまたはデバイスグループを移動させます。


    # scswitch -S -h from-node
    
    -S

    すべてのリソースグループとデバイスグループを退避させます。

    -h from-node

    リソースグループやデバイスグループを退避させるノード名を指定します。

  7. ノードを再起動します。


    # shutdown -g0 -y -i6
    

  8. vxdiskadm コマンドを使用してルートディスクグループに多重ディスクを追加します。

    多重ディスクがあると、ルートディスクグループはディスク障害に対処しやすくなります。 手順については、VxVM のマニュアルを参照してください。

  9. ディスクグループを作成します。

    SPARC: ディスクグループの作成と登録を行う に進みます。

SPARC: ディスクグループの作成と登録を行う

次の手順で、VxVM ディスクグループとボリュームを作成します。


注 –

ディスクグループをディスクデバイスグループとしてクラスタに登録した後には、VxVM コマンドを使用してVxVM ディスクグループをインポートまたはデポートしないでください。 ディスクグループのインポートやデポートは、すべて Sun Cluster ソフトウェアで処理できます。 Sun Cluster ディスクデバイスグループを管理する方法については、『Sun Cluster のシステム管理 (Solaris OS 版)』の「ディスクデバイスグループの管理」を参照してください。


この手順は、追加するディスクグループを構成するディスクに物理的に接続されているノードから実行します。

  1. 以下の情報を用意します。

  2. ディスクセットの所有権を持つノードのスーパーユーザーになります。

  3. VxVM ディスクグループとボリュームを作成します。

    Oracle Parallel Server/Real Application Clusters をインストールする場合は、『VERITAS Volume Manager Administrator's Reference Guide』の説明に従って、VxVM のクラスタ機能を使用して共有の VxVM ディスクグループを作成してください。 このソフトウェアをインストールしない場合は、VxVM のマニュアルで説明されている標準の手順を使用して VxVM ディスクグループを作成してください。


    注 –

    ダーティリージョンログ (DRL) を使用することで、ノードに障害が発生した場合のボリューム回復時間を短縮できます。 ただし、DRL を使用すると I/O スループットが低下することがあります。


  4. VxVM クラスタ機能が有効に設定されているかどうかを確認します。

    • 有効に設定されていない場合は、手順 5 に進んでください。

    • 有効に設定されている場合は、手順 7 に進みます。 VxVM クラスタ機能が有効に設定されている場合は、共有ディスクグループを Sun Cluster ディスクデバイスグループとして登録しないでください。

  5. ディスクグループを Sun Cluster ディスクデバイスグループとして登録します。

    1. scsetup(1M) ユーティリティを起動します。


      # scsetup
      

    2. ディスクデバイスグループで作業を行うには、4 (デバイスグループとボリューム) を入力します。

    3. ディスクデバイスグループを登録するには、1 (VxVM ディスクグループをデバイスグループとして登録) を入力します。

      指示に従って、Sun Cluster ディスクデバイスグループとして登録するVxVM ディスクデバイスグループを入力します。

    4. ディスクデバイスグループを登録するときに、次のエラーメッセージが表示された場合、ディスクデバイスグループに再度マイナー番号を割り当てます。


      scconf: Failed to add device group - in use

      ディスクデバイスグループに再度マイナー番号を割り当てるには、SPARC: ディスクデバイスグループに新しいマイナー番号を割り当てる の手順を使用してください。 この手順を使用すると、既存のディスクデバイスグループのマイナー番号と衝突しない新しいマイナー番声を割り当てることができます。

    5. 作業が完了したなら、q (終了) を入力して scsetup ユーティリティーを終了します。

  6. ディスクデバイスグループが登録されたことを確認します。

    次のコマンドを実行して表示される新しいディスクのディスクデバイス情報を検索します。


     # scstat -D
    


    ヒント –

    ディスクデバイスグループをオンラインにしたときにスタックのオーバーフローが発生する場合は、スレッドスタックサイズのデフォルト値が十分ではない可能性があります。 次のエントリを各ノードの /etc/system ファイルに追加します。ここで size は、デフォルト設定の 8000 より大きな数字になります。


    set cl_comm:rm_thread_stacksize=0xsize
    



    注 –

    VxVM ディスクグループまたはボリュームに関する構成情報を変更した場合は、scsetup ユーティリティーを使用して、構成変更を登録する必要があります。 登録が必要な構成変更とは、ボリュームの追加または削除や、既存ボリュームのグループ、所有者、またはアクセス権の変更です。 ディスクデバイスグループの構成変更を登録する手順については、『Sun Cluster のシステム管理 (Solaris OS 版)』の「ディスクデバイスグループの管理」を参照してください。


  7. VxVM ディスクグループとボリュームの構成を確認します。

    SPARC: ディスクグループの構成を確認する へ進んでください。

SPARC: ディスクデバイスグループに新しいマイナー番号を割り当てる

マイナー番号が他のディスクグループと衝突してディスクデバイスグループの登録が失敗する場合、新しいディスクグループに未使用の新しいマイナー番号を割り当てる必要があります。 この作業を実行して、ディスクグループにマイナー番号を割り当てなおしてください。

  1. 各クラスタのノードのスーパーユーザーになります。

  2. 使用中のマイナー番号を確認します。


    # ls -l /global/.devices/node@1/dev/vx/dsk/*
    

  3. 1000 の倍数で使用されていない値を、ディスクグループのベースとなるマイナー番号として選択します。

  4. ディスクグループにベースとなるマイナー番号を割り当てます。


    # vxdg reminor diskgroup base-minor-number
    

  5. SPARC: ディスクグループの作成と登録を行う 手順 5 に進み、ディスクグループを Sun Cluster ディスクデバイスグループとして登録します。

SPARC: 例 — ディスクデバイスグループに新しいマイナー番号を割り当てる

次の例は、マイナー番号 16000 から 16002 と 4000 から 4001 を使用しています。ここでは、vxdg reminor コマンドを使用し、ベースとなるマイナー番号 5000 が使用されるように、新しいディスクグループに再度マイナー番号を割り当てています。


# ls -l /global/.devices/node@1/dev/vx/dsk/*
/global/.devices/node@1/dev/vx/dsk/dg1
brw-------   1 root     root      56,16000 Oct  7 11:32 dg1v1
brw-------   1 root     root      56,16001 Oct  7 11:32 dg1v2
brw-------   1 root     root      56,16002 Oct  7 11:32 dg1v3
 
/global/.devices/node@1/dev/vx/dsk/dg2
brw-------   1 root     root      56,4000 Oct  7 11:32 dg2v1
brw-------   1 root     root      56,4001 Oct  7 11:32 dg2v2
# vxdg reminor dg3 5000

SPARC: ディスクグループの構成を確認する

この作業はクラスタの各ノード上で行ってください。

  1. ルートディスクグループにローカルディスクだけが含まれていること、およびディスクグループが現在の主ノードだけにインポートされていることを確認します。


    # vxdisk list
    

  2. すべてのボリュームが起動していることを確認します。


    # vxprint
    

  3. すべてのディスクデバイスグループが Sun Cluster ディスクデバイスグループとして登録されており、オンラインであることを確認します。


    # scstat -D
    

  4. クラスタを構成

    クラスタの構成に進みます。

SPARC: ルートディスクのカプセル化を解除する

この作業は、ルートディスクのカプセル化を解除する場合に行ってください。

  1. ルートディスク上に、Solaris ルートファイルシステムだけが存在することを確認 してください。

    Solaris ルートファイルシステムとは、ルート (/)、スワップ、広域デバイス名前空間、/usr/var/opt/home です。 ルートディスク上に他のファイルシステムが存在する場合は、バックアップをとった後でルートディスクからそれらを削除してください。

  2. カプセル化を解除するノード上でスーパーユーザーになります。

  3. すべてのリソースグループとデバイスグループをノードから移動させます。


    # scswitch -S -h from-node
    
    -S

    すべてのリソースグループとデバイスグループを退避させます。

    -h from-node

    リソースグループやデバイスグループを退避させるノード名を指定します。

  4. ノード ID 番号を確認します。


    # clinfo -nN
    

  5. このノードの広域デバイスファイルシステムのマウントを解除します (N手順 4 で戻されたノード ID 番号です)。


    # umount /global/.devices/node@N
    

  6. /etc/vfstab ファイルを表示し、どの VxVM ボリュームが広域デバイスファイルシステムに対応しているかを確認します。


    # vi /etc/vfstab
    #device        device        mount    FS     fsck    mount    mount
    #to mount      to fsck       point    type   pass    at boot  options
    #
    #NOTE: volume rootdiskxNvol (/global/.devices/node@N) encapsulated 
    #partition cNtXdYsZ
    

  7. ルートディスクグループから、広域デバイスファイルシステムに対応する VxVM ボリュームを削除します。


    # vxedit -rf rm rootdiskxNvol
    


    注意 – 注意 –

    広域デバイス用のデバイスエントリ以外のデータは、広域デバイスファイルシステムに格納しないでください。 VxVM ボリュームを削除すると、広域デバイスファイルシステム内のデータはすべて削除されます。 ルートディスクのカプセル化を解除した後は、広域デバイスエントリに関連するデータだけが復元されます。


  8. ルートディスクのカプセル化を解除します。


    注 –

    コマンドからのシャットダウン要求を受け付けないでください



    # /etc/vx/bin/vxunroot
    

    詳細については、VxVM のマニュアルを参照してください。

  9. 広域デバイスファイルシステムに使用できるように、format(1M) コマンドを使用してルートディスクに 512M バイトのパーティションを追加します。


    ヒント –

    /etc/vfstab ファイルに指定されているように、ルートディスクのカプセル化の解除が行われる前に広域デバイスファイルシステムに割り当てられたものと同じスライスを使用してください。


  10. 手順 9 で作成したパーティションにファイルシステムを設定します。


    # newfs /dev/rdsk/cNtXdYsZ
    

  11. ルートディスクの DID 名を確認します。


    # scdidadm -l cNtXdY
    1        phys-schost-1:/dev/rdsk/cNtXdY   /dev/did/rdsk/dN 
    

  12. /etc/vfstab ファイルで、広域デバイスファイルシステムエントリ内のパス名を 手順 11 で指定した DID パスに置き換えます。

    元のエントリの例を次に示します。


    # vi /etc/vfstab
    /dev/vx/dsk/rootdiskxNvol /dev/vx/rdsk/rootdiskxNvol /global/.devices/node@N ufs 2 no global

    DID パスを使用する変更後のエントリの例を次に示します。


    /dev/did/dsk/dNsX /dev/did/rdsk/dNsX /global/.devices/node@N ufs 2 no global

  13. 広域デバイスファイルシステムをマウントします。


    # mount /global/.devices/node@N
    

  14. クラスタの任意のノードから、任意の raw ディスクと Solstice DiskSuite/Solaris Volume Manager デバイス用のデバイスノードを使用して広域デバイスファイルシステムを生成し直します。


    # scgdevs
    

    次の再起動時に VxVM デバイスが作成し直されます。

  15. ノードを再起動します。


    # reboot
    

  16. クラスタの各ノードでこの手順を繰り返し、それらのノードのルートディスクのカプセル化を解除します。