Sun Cluster 3.0 12/01 ソフトウェアのインストール

付録 B Sun Cluster 構成用に VERITAS Volume Manager をインストールして構成する

VERITAS Volume Manager (VxVM) 用にローカルディスクと多重ホストディスクをインストールおよび構成するには、この付録で説明する手順と 「ボリューム管理の計画」 の情報を参照してください。詳細については、VxVM のマニュアルを参照してください。

この付録では、次の手順について説明しています。

VxVM ソフトウェアのインストールと構成

作業を開始する前に、次の情報を用意してください。

次の表に、Sun Cluster 構成用の VxVM ソフトウェアのインストールと構成において行う作業を示します。

表 B-1 作業マップ: VxVM ソフトウェアのインストールと構成

作業 

参照箇所 

VxVM 構成のレイアウトを計画する 

「ボリューム管理の計画」

各ノード上の rootdg ディスクグループをどのように作成するかを決定する

rootdg ディスクグループの設定の概要」

VxVM ソフトウェアをインストールし、rootdg ディスクグループを作成する

 

 

方法 1 - scvxinstall コマンドを使用して VxVM ソフトウェアのインストールとルートディスクのカプセル化を行い、必要に応じてカプセル化されたルートディスクをミラー化する

「VERITAS Volume Manager ソフトウェアをインストールしてルートディスクをカプセル化する」

「カプセル化されたルートディスクをミラー化する」

方法 2 - ルート以外のローカルディスクで VxVM ソフトウェアをインストールし、rootdg を作成する

「VERITAS Volume Manager ソフトウェアだけをインストールする」

「ルート以外の rootdg ディスクグループを作成する」

ディスクグループとボリュームを作成する 

「ディスクグループの作成と登録を行う」

新しいマイナー番号を割り当ててディスクデバイスグループ間のマイナー番号の衝突を解決する 

「ディスクデバイスグループに新しいマイナー番号を割り当てる」

ディスクグループとボリュームを確認する 

「ディスクグループの構成を確認する」

クラスタを構成する 

「クラスタの構成」

rootdg ディスクグループの設定の概要

VxVM をインストールした後で、各クラスタノードで rootdg ディスクグループを作成する必要があります。このディスクグループは VxVM が構成情報を格納するために使用され、次の制限があります。

Sun Cluster ソフトウェアでは、次の rootdg ディスクグループの構成方法がサポートされています。

詳細については、VxVM のインストールマニュアルを参照してください。

次の作業

rootdg ディスクグループをどのように作成するかに応じて、次のインストール方法のいずれかを使用して VxVM をインストールします。

VERITAS Volume Manager ソフトウェアをインストールしてルートディスクをカプセル化する

この作業は、scvxinstall(1M) コマンドを使用し、1 回の操作で VxVM ソフトウェアのインストールとルートディスクのカプセル化を行います。


注 -

ローカルのルート以外のディスクに rootdg ディスクグループを作成する場合は、「VERITAS Volume Manager ソフトウェアだけをインストールする」に進みます。


この作業は、VxVM をインストールするノードごとに行ってください。VERITAS Volume Manager (VxVM) は、クラスタのすべてのノードにインストールすることも、あるいは、VxVM が管理する記憶装置に物理的に接続されたノードにだけインストールすることもできます。


注 -

Dynamic Multipathing (DMP) は、インストール処理の開始時に scvxinstall ユーティリティーによって無効に設定されますが、VRTSvxvm パッケージがインストールされた時点で VxVM 3.1.1 (または、それ以降のバージョン) によって自動的に有効に戻されます。VxVM の旧バージョンは、DMP を無効にした状態で実行する必要があります。


  1. クラスタが以下の前提条件を満たしていることを確認します。

    • クラスタ内のノードはすべてクラスタモードで動作している

    • インストールするノードのルートディスクに 2 つの空き (割り当てられていない) パーティションが存在する

  2. VxVM をインストールするノードでスーパーユーザーになります。

  3. ノードの /etc/name_to_major ファイルに vxio エントリが含まれていないことを確認します。

    エントリが存在する場合は、ファイルから削除してください。以前にクラスタの他のノードに VxVM をインストールした場合は、このエントリが存在する可能性があります。VxVM ソフトウェアパッケージのインストール時に、正しい vxio エントリが自動的に追加されます。

  4. ノードの CD-ROM ドライブに VxVM CD-ROM を挿入します。

  5. scvxinstall を対話モードで起動します。

    scvxinstall コマンドを中止する場合は、Control-C を押します。


    # scvxinstall
    

    詳細については、scvxinstall(1M) のマニュアルページを参照してください。

  6. ルートをカプセル化するかどうかを尋ねるプロンプトが表示されたら、「yes」とこたえます。


    Do you want Volume Manager to encapsulate root [no]? y
    

  7. プロンプトが表示されたら、VxVM CD-ROM の位置を指定します。

    • 適切な VxVM CD-ROM が見つかると、プロンプトの一部としてその場所が角括弧内に表示されます。表示された場所を使用する場合は、Enter キーを押します。


      Where is the volume manager cdrom [default]?

    • VxVM CD-ROM が見つからない場合には、プロンプトが表示されます。CD-ROM または CD-ROM イメージの場所を入力してください。


      Where is the volume manager cdrom?

  8. プロンプトが表示されたら、VxVM ライセンスキーを入力します。


    Please enter license key:license
    

    scvxinstall コマンドによって、以下の作業が自動的に行われます。

    • Dynamic Multipathing (DMP) を無効にする

    • VRTSvxvmVRTSvmdevVRTSvmman パッケージをインストールする

    • vxio ドライバのメジャー番号を 210 に設定する

    • ルートディスクをカプセル化することによって rootdg ディスクグループを作成する

    • /etc/vfstab ファイル内の /global/.devices エントリを更新する

    詳細については、scvxinstall(1M) のマニュアルページを参照してください。


    注 -

    インストール中、再起動が自動的に 2 回だけ行われます。すべてのインストール作業が完了した時点で、ユーザーがプロンプトに対して Control-C を押さない限り scvxinstall コマンドはノードを自動的に再起動します。Control-C を押して 2 回目の再起動を中断した場合は、その後でノードを再起動しなければ、VxVM のインストールは完了しません。


  9. VxVM クラスタ機能を有効にする場合は、vxlicense コマンドを実行してクラスタ機能のライセンスキーを指定します。

    vxlicense コマンドの詳細については、VxVM のマニュアルを参照してください。

  10. (省略可能) VxVM GUI をインストールします。


    # pkgadd VRTSvmsa
    

    VxVM GUIの詳細については、VxVM のマニュアルを参照してください。

  11. CD-ROM を取り出します。

  12. VxVM パッチをすべてインストールします。

    パッチの入手方法とインストール方法については、『Sun Cluster 3.0 12/01 ご使用にあたって』を参照してください。

  13. (省略可能) クラスタノード上に VxVM マニュアルページを置かない場合は、マニュアルページパッケージを削除します。


    # pkgrm VRTSvmman
    

  14. VxVM を別のノードにインストールするかどうかを決定します。

    • 別のノードにインストールする場合は、手順 2 から 手順 13 までを繰り返します。

    • 別のノードにインストールしない場合は、手順 15 に進みます。

  15. VxVM をインストールしないノードが存在するかどうかを確認します。


    注 -

    VxVM クラスタ機能を有効にする場合は、クラスタのすべてのノードに VxVM をインストールする必要があります。手順 17 に進みます。


    • 存在する場合は、手順 16 に進みます。

    • 存在しない場合は、手順 17 に進みます。

  16. VxVM をインストールしないノードごとに、/etc/name_to_major ファイルを変更します。

    1. VxVM をインストールしないノードでスーパーユーザーになります。

    2. /etc/name_to_major ファイルを編集し、vxio メジャー番号を 210 に設定するエントリを追加します。


      # vi /etc/name_to_major
      vxio 210


      注 -

      後でこのノードに VxVM をインストールする際には、VxVM をインストールする前に、まず、vxio エントリを削除する必要があります。


    3. vxio エントリを初期化します。


      # drvconfig -b -i vxio -m 210
      


      注 -

      このノードを次回再起動する時に、次のようなメッセージが表示されることがあります。これらのメッセージは無視しても問題ありません。



      /sbin/rcS: /usr/sbin/vxrecover: not found
      /etc/rc2.d/S75MOUNTGFSYS: /usr/sbin/vxdctl: not found
    4. VxVM をインストールしない他のすべてのノードに対して、手順 a から手順 c までを繰り返します。

      この作業を終了した時点で、各クラスタノードの /etc/name_to_major ファイルには同じ vxio エントリが記録されています。

  17. カプセル化されたルートディスクをミラー化するかどうかを決定します。


注 -

後からルートディスクのカプセル化を解除する必要が生じた場合は、「ルートディスクのカプセル化を解除する」の手順に従ってください。


カプセル化されたルートディスクをミラー化する

VxVM をインストールしてルートディスクをカプセル化した後で、カプセル化されたルートディスクをミラー化するノードごとにこの作業を行ってください。

  1. VxVM のマニュアルに記載された方法に従って、カプセル化されたルートディスクをミラー化します。

    可用性を最大限に高め、管理を容易にするには、ローカルディスクをミラーとして使用してください。ガイドラインの詳細については、「ルートディスクのミラー化」を参照してください。


    注意 - 注意 -

    ルートディスクのミラー化に定足数デバイスを使用することは避けてください。定足数デバイスを使用すると、一定の条件下でルートディスクミラーからノードを起動できない可能性があります。


  2. デバイス ID (DID) マッピングを表示します。


    # scdidadm -L
    

  3. DID マッピングで、ルートディスクのミラー化に使用されているディスクを確認します。

  4. ルートディスクミラーの DID 名から raw ディスクデバイスグループ名を特定します。

    raw ディスクデバイスグループの名前は、dsk/dN という規則に従っています (N は番号)。次の scdidadm の出力例で、強調表示されているのが raw ディスクデバイスグループ名です。


    N         node:/dev/rdsk/cNtXdY     /dev/did/rdsk/dN
    

  5. raw ディスクデバイスグループのノードリストを表示します。

    次に出力例を示します。


    # scconf -pvv | grep dsk/dN
    Device group name:                                 dsk/dN
    ...
      (dsk/dN) Device group node list:                 phys-schost-1, phys-schost-3
    ...

  6. ノードリストにノード名が複数含まれているかどうかを確認します。

    • 含まれる場合は、手順 7 に進みます。

    • 含まれない場合は、手順 9 に進みます。

  7. raw ディスクデバイスグループのノードリストから、ルートディスクをミラー化したノード以外のすべてのノードを削除します。

    ルートディスクをミラー化したノードだけがノードリストに残るようにします。


    # scconf -r -D name=dsk/dN,nodelist=node
    
    -D name=dsk/dN

    raw ディスクデバイスグループのクラスタ固有の名前を指定します。

    nodelist=node

    ノードリストから削除するノードの名前を指定します。

  8. raw ディスクデバイスグループの localonly プロパティを有効にします。

    localonly プロパティが有効になった時点で、raw ディスクデバイスグループはそのノードリスト内のノードだけに使用されるようになります。これにより、起動デバイスが複数のノードに接続されている場合に、不意にノードがその起動デバイスから使用できなくなることが防止されます。


    # scconf -c -D name=dsk/dN,localonly=true
    

    localonly プロパティの詳細については、scconf_dg_rawdisk(1M) のマニュアルページを参照してください。

  9. カプセル化されたルートディスクをミラー化するクラスタノードごとにこの作業を繰り返します。

  10. ディスクグループを作成します。

    「ディスクグループの作成と登録を行う」に進みます。

例 - カプセル化されたルートディスクのミラー化

次の例は、ノード phys-schost-1 のルートディスクに作成されたミラーを示しています。このミラーは、ディスク c1t1d0 (raw ディスクデバイスグループ名は dsk/d2 ) で作成されています。ディスク c1t1d0 は多重ポートディスクであるため、ノード phys-schost-3 がディスクのノードリストから削除され、localonly プロパティが有効に設定されています。


(DID マッピングを表示する)
# scdidadm -L 
...
2        phys-schost-1:/dev/rdsk/c1t1d0 /dev/did/rdsk/d2     
2        phys-schost-3:/dev/rdsk/c1t1d0 /dev/did/rdsk/d2     
...
 
(ミラーディスクの raw ディスクデバイスグループのノードリストを表示する)
# scconf -pvv | grep dsk/d2
Device group name:                                 dsk/d2
...
  (dsk/d2) Device group node list:                 phys-schost-1, phys-schost-3
...
 
(raw ディスクデバイスグループのノードリストから phys-schost-3 を削除する)
# scconf -r -D name=dsk/d2,nodelist=phys-schost-3
  
(ミラーディスクの raw ディスクデバイスグループの localonly プロパティを有効にする)
# scconf -c -D name=dsk/d2,localonly=true

VERITAS Volume Manager ソフトウェアだけをインストールする

この作業は、scvxinstall コマンドを使用して VERITAS Volume Manager (VxVM) ソフトウェアだけをインストールします。


注 -

ルートディスクをカプセル化して rootdg ディスクグループを作成する場合は、この手順を使用しないでください。その代わりに、「VERITAS Volume Manager ソフトウェアをインストールしてルートディスクをカプセル化する」に進んで、VxVM ソフトウェアのインストールとルートディスクのカプセル化を行ってください。


この作業は、VxVM をインストールするノードごとに行ってください。VxVM は、クラスタのすべてのノードにインストールすることも、あるいは、VxVM が管理する記憶装置に物理的に接続されたノードにだけインストールすることもできます。


注 -

Dynamic Multipathing (DMP) は、インストール処理の開始時に scvxinstall ユーティリティーによって無効に設定されますが、VRTSvxvm パッケージがインストールされた時点で VxVM 3.1.1(または、それ以降のバージョン) によって自動的に有効に戻されます。VxVM の旧バージョンは、DMP を無効にした状態で実行する必要があります。


  1. クラスタ内のすべてのノードがクラスタモードで動作していることを確認します。

  2. VxVM をインストールするクラスタノードでスーパーユーザーになります。

  3. ノードの /etc/name_to_major ファイルに vxio エントリが含まれていないことを確認します。

    エントリが存在する場合は、ファイルから削除してください。以前にクラスタの他のノードに VxVM をインストールしていた場合は、このエントリが存在する可能性があります。VxVM ソフトウェアパッケージのインストール時に、正しい vxio エントリが自動的に追加されます。

  4. ノードの CD-ROM ドライブに VxVM CD-ROM を挿入します。

  5. scvxinstallを対話方式のインストールモードで起動します。


    # scvxinstall -i
    

    scvxinstall コマンドによって、以下の作業が自動的に行われます。

    • Dynamic Multipathing (DMP) を無効にする

    • VRTSvxvmVRTSvmdevVRTSvmman パッケージをインストールする

    • vxio ドライバのメジャー番号を 210 に設定する

    詳細については、scvxinstall(1M) のマニュアルページを参照してください。

  6. (省略可能) VxVM GUI をインストールします。


    # pkgadd VRTSvmsa
    

    VxVM GUIの詳細については、VxVM のマニュアルを参照してください。

  7. CD-ROM を取り出します。

  8. VxVM パッチをすべてインストールします。

    パッチの入手方法とインストール方法については、『Sun Cluster 3.0 12/01 ご使用にあたって』を参照してください。

  9. (省略可能) クラスタノード上に VxVM マニュアルページを置かない場合は、マニュアルページパッケージを削除します。


    # pkgrm VRTSvmman
    

  10. VxVM を別のノードにインストールするかどうかを決定します。

    • 別のノードにインストールする場合は、手順 2 から 手順 9 までを繰り返します。

    • 別のノードにインストールしない場合は、手順 11 に進みます。

  11. VxVM をインストールしないノードが存在するかどうかを確認します。


    注 -

    VxVM クラスタ機能を有効にする場合は、クラスタのすべてのノードに VxVM をインストールする必要があります。手順 13 に進みます。


    • 存在する場合は、手順 12 に進みます。

    • 存在しない場合は、手順 13 に進みます。

  12. VxVM をインストールしない ノードごとに、name_to_major ファイルを変更します。

    1. VxVM をインストールしないノードでスーパーユーザーになります。

    2. /etc/name_to_major ファイルを編集し、vxio メジャー番号を 210 に設定するエントリを追加します。


      # vi /etc/name_to_major
      vxio 210


      注 -

      後でこのノードに VxVM をインストールする際には、VxVM をインストールする前に vxio エントリを削除する必要があります。


    3. vxio エントリを初期化します。


      # drvconfig -b -i vxio -m 210
      


      注 -

      このノードを次回再起動する時に、次のようなメッセージが表示されることがあります。これらのメッセージは無視しても問題ありません。



      /sbin/rcS: /usr/sbin/vxrecover: not found
      /etc/rc2.d/S75MOUNTGFSYS: /usr/sbin/vxdctl: not found
    4. VxVM をインストールしない他のすべてのノードに対して、手順 a から手順 c までを繰り返します。

      この作業を終了した時点で、各クラスタノードの /etc/name_to_major ファイルには同じ vxio エントリが記録されています。

  13. rootdg ディスクグループを作成します。

    「ルート以外の rootdg ディスクグループを作成する」に進みます。

ルート以外の rootdg ディスクグループを作成する

次の手順で、ローカルのルート以外のディスクをカプセル化または初期化することによって rootdg ディスクグループを作成します。

  1. VERITAS Volume Manager (VxVM) のライセンスキーを用意します。

  2. ノードのスーパーユーザーになります。

  3. (省略可能) ディスクをカプセル化する場合は、各ディスクに 0 シリンダのスライスが少なくとも 2 つあることを確認します。

    必要に応じて、format(1M) コマンドを使用して、各 VxVM スライスに 0 シリンダを割り当てます。

  4. vxinstall(1M) ユーティリティーを起動します。


    # vxinstall
    

    プロンプトが表示されたら、次のようにします。

    • VxVM ライセンスキーを指定します。

    • VxVM クラスタ機能を有効にする場合は、クラスタ機能のライセンスキーを指定します。

    • Custom Installation を選択する。

    • ルートディスクをカプセル化しない。

    • rootdg ディスクグループに追加する任意のディスクを選択する。

    • 自動再起動を行わない。

  5. リソースグループまたはデバイスグループをノードから退避させます。


    # scswitch -S -h node
    
    -S

    すべてのリソースグループとデバイスグループを退避させます。

    -h node

    リソースグループまたはデバイスグループを退避させるノード名を指定します。

  6. ノードを再起動します。


    # shutdown -g0 -y -i6
    

  7. vxdiskadm(1M) コマンドを使用して rootdg ディスクグループに多重ディスクを追加します。

    多重ディスクがあると、rootdg ディスクグループはディスク障害に対処しやすくなります。手順については、VxVM のマニュアルを参照してください。

  8. ディスクグループを作成します。

    「ディスクグループの作成と登録を行う」に進みます。

ディスクグループの作成と登録を行う

次の手順で、VxVM ディスクグループとボリュームを作成します。


注 -

ディスクグループをディスクデバイスグループとしてクラスタに登録した後には、VxVM コマンドを使用して VxVM ディスクグループをインポートまたはデポートしないでください。ディスクグループのインポートやデポートは、すべて Sun Cluster ソフトウェアで処理できます。ディスクデバイスグループを管理する方法については、『Sun Cluster 3.0 12/01 のシステム管理』を参照してください。


この手順は、追加するディスクグループを構成するディスクに物理的に接続されているノードから実行します。

  1. 以下の情報を用意します。

    • ディスクドライブのマッピング記憶装置を設置する方法については、『Sun Cluster 3.0 12/01 Hardware Guide』を参照してください。

    • Sun Cluster 3.0 12/01 ご使用にあたって』の以下のワークシートに必要事項を記入したもの。

      • 「ローカルファイルシステム配置のワークシート」

      • 「ディスクデバイスグループ構成のワークシート」

      • 「ボリューム管理ソフトウェア構成のワークシート」

      計画のガイドラインについては、「ボリューム管理の計画」を参照してください。

  2. ディスクセットの所有権を持つノードのスーパーユーザーになります。

  3. VxVM ディスクグループとボリュームを作成します。

    Oracle Parallel Server/Real Application Clusters をインストールする場合は、『VERITAS Volume Manager Administrator's Reference Guide』の説明に従って、VxVM のクラスタ機能を使用して共有 VxVM ディスクグループを作成してください。このソフトウェアをインストールしない場合は、VxVM のマニュアルで説明されている標準の手順を使用して VxVM ディスクグループを作成してください。


    注 -

    ダーティリージョンログ (DRL) を使用することで、ノードに障害が発生した場合のボリューム回復時間を短縮できます。ただし、DRL を使用すると I/O スループットが低下することがあります。


  4. VxVM クラスタ機能が有効に設定されているかどうかを確認します。

    • 有効に設定されている場合は、手順 7 に進みます。VxVM クラスタ機能が有効に設定されている場合は、共有ディスクグループを Sun Cluster ディスクデバイスグループとして登録しないでください。

    • 有効に設定されていない場合は、手順 5 に進みます。

  5. ディスクグループを Sun Cluster ディスクデバイスグループとして登録します。

    1. scsetup(1M) ユーティリティーを起動します。


      # scsetup
      

    2. ディスクデバイスグループで作業を行うには、4 (Device groups and Volumes) を入力します。

    3. ディスクデバイスグループを登録するには、1 (Register a VxVM disk group) を入力します。

      指示に従って、Sun Cluster ディスクデバイスグループとして登録する VxVM ディスクデバイスグループを入力します。

    4. ディスクデバイスグループを登録する際に、次のエラーが発生する場合は、ディスクデバイスグループに別々のマイナー番号を割り当てます。


      scconf: Failed to add device group - in use

      ディスクデバイスグループに再度マイナー番号を割り当てるには、「ディスクデバイスグループに新しいマイナー番号を割り当てる」の手順を使用してください。この手順を使用すると、既存のディスクデバイスグループのマイナー番号と衝突しない新しいマイナー番声を割り当てることができます。

    5. 作業が完了したら、q (Quit) を入力して scsetup ユーティリティーを終了します。

  6. ディスクデバイスグループが登録されたことを確認します。

    次のコマンドを実行して表示される新しいディスクのディスクデバイス情報を検索します。


    # scstat -D
    


    注 -

    VxVM ディスクグループまたはボリュームの構成情報を変更する場合は、scsetup を使用して Sun Cluster ディスクデバイスグループを再登録します。このような構成変更には、ボリュームの追加や削除、既存ボリュームのグループ、所有者、アクセス権の変更などがあります。構成変更後に登録を行うと、広域名前空間が正しい状態になります。ディスクデバイスグループを登録する方法については、『Sun Cluster 3.0 12/01 のシステム管理』を参照してください。


  7. VxVM ディスクグループとボリュームの構成を確認します。

    「ディスクグループの構成を確認する」に進みます。

ディスクデバイスグループに新しいマイナー番号を割り当てる

マイナー番号が他のディスクグループと衝突してディスクデバイスグループの登録が失敗する場合、新しいディスクグループに未使用の新しいマイナー番号を割り当てる必要があります。この作業を実行して、ディスクグループにマイナー番号を割り当てなおしてください。

  1. 各クラスタのノードのスーパーユーザーになります。

  2. 使用中のマイナー番号を確認します。


    # ls -l /global/.devices/node@1/dev/vx/dsk/*
    

  3. 1000 の倍数で使用されていない値を、ディスクグループのベースとなるマイナー番号として選択します。

  4. ディスクグループにベースとなるマイナー番号を割り当てます。


    # vxdg reminor diskgroup base-minor-number
    

  5. 「ディスクグループの作成と登録を行う」手順 5 に戻って、ディスクグループを Sun Cluster ディスクデバイスグループとして登録します。

例 - ディスクデバイスグループに新しいマイナー番号を割り当てる

次の例は、マイナー番号 16000 〜 16002 と 4000 〜 4001 が使用されていることを示します。ここでは、vxdg reminor コマンドを使用し、ベースとなるマイナー番号 5000 が使用されるように、新しいディスクグループに再度マイナー番号を割り当てています。


# ls -l /global/.devices/node@1/dev/vx/dsk/*
/global/.devices/node@1/dev/vx/dsk/dg1
brw-------   1 root     root      56,16000 Oct  7 11:32 dg1v1
brw-------   1 root     root      56,16001 Oct  7 11:32 dg1v2
brw-------   1 root     root      56,16002 Oct  7 11:32 dg1v3
 
/global/.devices/node@1/dev/vx/dsk/dg2
brw-------   1 root     root      56,4000 Oct  7 11:32 dg2v1
brw-------   1 root     root      56,4001 Oct  7 11:32 dg2v2
# vxdg reminor dg3 5000

ディスクグループの構成を確認する

この作業はクラスタの各ノード上で行ってください。

  1. ルートディスクグループ (rootdg) にローカルディスクだけが含まれていること、およびディスクグループが現在の主ノードだけにインポートされていることを確認します。


    # vxdisk list
    

  2. すべてのボリュームが起動していることを確認します。


    # vxprint
    

  3. すべてのディスクグループが Sun Cluster ディスクデバイスグループとして登録されており、オンラインであることを確認します。


    # scstat -D
    

  4. クラスタを構成する

    「クラスタの構成」に進みます。

ルートディスクのカプセル化を解除する

この作業は、ルートディスクのカプセル化を解除する場合に行ってください。


注 -

この手順は、Sun Cluster 3.0 構成に有効なものです。Sun Cluster 2.2 構成のルートディスクのカプセル化を解除するには、VxVM のマニュアルに示された手順に従ってください。


  1. ルートディスク上に Solaris のルートファイルシステム (ルート (/)、スワップ、広域デバイス名前空間、/usr/var/opt/home) だけが存在することを確認してください。

    ルートディスク上に他のファイルシステムが存在する場合は、バックアップをとった後でルートディスクからそれらを削除してください。

  2. カプセル化を解除するノード上でスーパーユーザーになります。

  3. ノードからリソースグループとデバイスグループをすべて退避させます。


    # scswitch -S -h node
    
    -S

    すべてのリソースグループとデバイスグループを退避させます。

    -h node

    リソースグループまたはデバイスグループを退避させるノード名を指定します。

  4. ノードの ID 番号を確認します。


    # clinfo -n
    N
    

  5. このノードの広域デバイスファイルシステムのマウントを解除します (N手順 4 で戻されたノード ID 番号です)。


    # umount /global/.devices/node@N
    

  6. /etc/vfstab ファイルを表示し、どの VxVM ボリュームが広域デバイスファイルシステムに対応しているかを確認します。


    # vi /etc/vfstab
    #device           device        mount   FS      fsck    mount   mount
    #to mount         to fsck       point   type    pass    at boot options
    #                       
    #NOTE: volume rootdiskxNvol (/global/.devices/node@N) encapsulated partition cNtXdYsZ
    

  7. rootdg ディスクグループから、広域デバイスファイルシステムに対応する VxVM ボリュームを削除します。


    # vxedit -rf rm rootdiskxNvol
    


    注意 - 注意 -

    広域デバイス用のデバイスエントリ以外のデータは、広域デバイスファイルシステムに格納しないでください。VxVM ボリュームを削除すると、広域デバイスファイルシステム内のデータはすべて削除されます。ルートディスクのカプセル化を解除した後は、広域デバイスエントリに関連するデータだけが復元されます。


  8. ルートディスクのカプセル化を解除します。


    # /etc/vx/bin/vxunroot
    

    詳細については、VxVM のマニュアルを参照してください。

  9. 広域デバイスファイルシステムに使用できるように、format(1M) コマンドを使用してルートディスクに 100M バイトのパーティションを追加します。


    ヒント -

    /etc/vfstab ファイルに指定されているように、ルートディスクのカプセル化の解除が行われる前に広域デバイスファイルシステムに割り当てられたものと同じスライスを使用してください。


  10. 手順 9 で作成したパーティションにファイルシステムを設定します。


    # newfs /dev/rdsk/cNtXdYsZ
    

  11. ルートディスクのデバイス ID (DID) 名を確認します。


    # scdidadm -l cNtXdY
    1        phys-schost-1:/dev/rdsk/cNtXdY   /dev/did/rdsk/dN 
    

  12. /etc/vfstab ファイルで、広域デバイスファイルシステムエントリ内のパス名を 手順 11 で指定した DID パスに置き換えます。

    元のエントリの例を次に示します。


    # vi /etc/vfstab
    /dev/vx/dsk/rootdiskxNvol /dev/vx/rdsk/rootdiskxNvol /global/.devices/node@N ufs  2  no  global

    DID パスを使用する変更後のエントリの例を次に示します。


    /dev/did/dsk/dNsX /dev/did/rdsk/dNsX /global/.devices/node@N ufs 2  no  global

  13. 広域デバイスファイルシステムをマウントします。


    # mount /global/.devices/node@N
    

  14. クラスタの任意のノードから、任意の raw ディスクと Solstice DiskSuite デバイス用のデバイスノードを使用して広域デバイスファイルシステムを生成し直します。

    次の再起動時に VxVM デバイスが作成し直されます。


    # scgdevs
    

  15. ノードを再起動します。


    # reboot
    

  16. クラスタの各ノードでこの手順を繰り返し、それらのノードのルートディスクのカプセル化を解除します。