Sun Cluster 3.1 ソフトウェアのインストール

付録 B VERITAS Volume Manager をインストールして構成する

VERITAS Volume Manager (VxVM) 用にローカルディスクと多重ホストディスク をインストールおよび構成するには、この付録で説明する手順と ボリューム管理の計画 の計画情報を参照してください。詳細については、VxVM のマニュアルを参照してください。

この付録では、次の手順について説明しています。

VxVM ソフトウェアのインストールと構成

作業を開始する前に、次の情報を用意してください。

次の表に、 Sun Cluster 構成用の VxVM ソフトウェアのインストールと構成において行う作業を示します。

表 B–1 作業マップ: VxVM ソフトウェアのインストールと構成

作業 

参照箇所 

VxVM 構成のレイアウトを計画 

ボリューム管理の計画

各ノード上の rootdg ディスクグループをどのように作成するかを決定

rootdg ディスクグループの設定の概要

VxVM ソフトウェアをインストールし、rootdg ディスクグループを作成する

 
  • 方法 1scvxinstall コマンドを使用して VxVM ソフトウェアのインストールとルートディスクのカプセル化を行い、必要に応じてカプセル化されたルートディスクをミラー化

VERITAS Volume Manager ソフトウェアをインストールしてルートディスクをカプセル化する

カプセル化されたルートディスクをミラー化する

  • 方法 2 – ルート以外のローカルディスクで VxVM ソフトウェアをインストールし、rootdg を作成

VERITAS Volume Manager ソフトウェアだけをインストールする

ルート以外の rootdg ディスクグループを作成する

ディスクグループとボリュームを作成 

ディスクグループの作成と登録を行う

新しいマイナー番号を割り当ててディスクデバイスグループ間のマイナー番号の衝突を解決 

ディスクデバイスグループに新しいマイナー番号を割り当てる

ディスクグループとボリュームを確認 

ディスクグループの構成を確認する

クラスタを構成 

クラスタの構成

rootdg ディスクグループの設定の概要

VxVM をインストールした後で、各クラスタノードで rootdg ディスクグループを作成する必要があります。このディスクグループは VxVM が構成情報を格納するために使用され、次の制限があります。

Sun Cluster ソフトウェアでは、次の rootdg ディスクグループの構成方法がサポートされています。

詳細については、 VxVM のインストールマニュアルを参照してください。

次の作業

rootdg ディスクグループをどのように作成するかに応じて、次のインストール方法のいずれかを使用して VxVM をインストールします。

VERITAS Volume Manager ソフトウェアをインストールしてルートディスクをカプセル化する

この手順は、scvxinstall(1M) コマンドを使用して、1 つの操作で VxVM ソフトウェアをインストールし、ルートディスクをカプセル化します。


注 –

ローカルのルート以外のディスクに rootdg ディスクグループを作成する場合は、VERITAS Volume Manager ソフトウェアだけをインストールする に進みます。


この作業は、VxVM をインストールするノードごとに行ってください。VERITAS Volume Manager (VxVM) は、クラスタのすべてのノードにインストールすることも、VxVM が管理する記憶装置に物理的に接続されたノードにだけインストールすることもできます。

  1. クラスタが次の条件に適合していることを確認します。

    • クラスタ内にあるすべてのノードがクラスタモードで動作していること。

    • インストールするノードのルートディスクに 2 つの空き (未割り当ての) パーティションがあること。

  2. VxVM をインストールするノードでスーパーユーザーになります。

  3. クラスタ内のすべてのノードをクラスタノード認証リストに追加します。

    1. scsetup(1M) ユーティリティを起動します。


      # scsetup
      

      メインメニューが表示されます。

    2. 「新規ノード」メニューにアクセスするには、メインメニューで「6」を入力します。

    3. ノードを承認リストに追加するには、「新規ノード」メニューで「3」を入力します。

    4. 自分自身を追加する可能性があるマシンの名前を指定します。

      ノードの名前をクラスタに追加するためのプロンプトに従います。追加するノードの名前をたずねられます。

    5. 作業が正常に行われたことを確認します。

      作業が正常に行われた場合、scsetup ユーティリティは「コマンドが正常に完了しました」というメッセージを出力します。

    6. クラスタ内にある各ノードで、手順 c から 手順 e までを繰り返して、すべてのクラスタノードをノード認証リストに追加します。

    7. scsetup ユーティリティを終了します。

  4. ノードのCD-ROM ドライブに VxVM CD-ROM を挿入します。

  5. scvxinstall を対話モードで起動します。

    scvxinstall を中止する場合は、Ctrl-C を押します。


    # scvxinstall
    

    詳細については、scvxinstall(1M) のマニュアルページを参照してください。

  6. ルートをカプセル化するかどうかの問い合わせに、「yes」を入力します。


    Volume Manager でルートをカプセル化しますか [いいえ]? y
    

  7. プロンプトが表示されたら、VxVM CD-ROM の位置を指定します。

    • 適切な VxVM CD-ROM が見つかると、プロンプトの一部としてその場所が角括弧内に表示されます。表示された場所を使用する場合は、Enter キーを押します。


      %s CD-ROM はどこですか [%s] ?

    • VxVM CD-ROM が見つからない場合には、プロンプトが表示されます。CD-ROM またはCD-ROM イメージの場所を入力してください。


      %s CD-ROM はどこですか ?

  8. プロンプトが表示されたら、 VxVM ライセンスキーを入力します。


    %s ライセンスキーを入力してください:  license
    

    scvxinstall コマンドによって、以下の作業が自動的に行われます。

    • Dynamic Multipathing (DMP) を無効にする


      注 –

      scvxinstall ユーティリティーでインストール処理を開始すると、Dynamic Multipathing (DMP) は無効になりますが、バージョン 3.1.1 以降の VxVM を使用する場合、VRTSvxvm パッケージをインストールするときに DMP が再び有効になります。 3.1.1 よりも前のバージョンの VxVM の場合、DMP は無効のままです。


    • 必須の VxVM ソフトウェア、ライセンス、マニュアルページのパッケージをインストールし、GUI パッケージはインストールしません。

    • クラスタ全体の vxio ドライバのメジャー番号を選択します。

    • ルートディスクをカプセル化することによって、rootdg ディスクグループを作成します。

    • /etc/vfstab ファイル内にある /global/.devices エントリを更新します。

    詳細については、scvxinstall(1M) のマニュアルページを参照してください。


    注 –

    インストール時、2 回だけ再起動が自動的に行われます。scvxinstall がすべてのインストール作業を完了した後、プロンプトで Ctrl-C を押さない限り、2 回目の再起動が自動的に行われます。Ctrl-C を押して 2 回目の再起動を中断した場合は、後でノードを再起動して、VxVM のインストールを完了する必要があります。


  9. VxVM クラスタ機能を有効にする場合は、クラスタ機能のライセンスキーを指定します。

    ライセンスの追加方法については、VxVM のマニュアルを参照してください。

  10. (省略可能) VxVM GUI をインストールします。

    VxVM GUI のインストールの詳細については、VxVM のマニュアルを参照してください。

  11. CD-ROM を取り出します。

  12. すべての VxVM パッチをインストールします。

    パッチの入手方法とインストール方法については、『Sun Cluster 3.1 ご使用にあたって』の「パッチとファームウェアレベル」を参照してください。

  13. (省略可能) クラスタノード上に VxVM のマニュアルページを置かない場合は、マニュアルページパッケージを削除します。


    # pkgrm VRTSvmman
    

  14. VxVM を別のノードにインストールするかどうかを決定します。

    • 別のノードにインストールする場合は、手順 2 から 手順 13 までを繰り返します。

    • 別のノードにインストールしない場合は、手順 15 に進みます。

  15. VxVM をインストールしない ノードが存在するかどうかを確認します。


    注 –

    VxVM クラスタ機能を有効にする予定の場合、クラスタ内にあるすべてのノードに VxVM をインストールする必要があります


    • 存在する場合は、手順 16 に進みます。

    • 存在しない場合は、手順 17 に進みます。

  16. VxVM をインストールしないノードごとに、/etc/name_to_major ファイルを変更します。

    1. VxVM をインストールしたノード上で、vxio メジャー番号の設定を調べます。


      # grep vxio /etc/name_to_major
      

    2. VxVM をインストールしないノードでスーパーユーザーになります。

    3. /etc/name_to_major ファイルを編集して、vxio メジャー番号を NNN (手順 a で調べた番号) に設定するエントリを追加します。


      # vi /etc/name_to_major
      vxio NNN
      

    4. vxio エントリを初期化します。


      # drvconfig -b -i vxio -m NNN
      

    5. VxVM をインストールしない他のすべてのノードに対して、手順 b から 手順 d までを繰り返します。

      この作業が終了したとき、クラスタ内にある各ノードで /etc/name_to_major ファイルの vxio エントリが同じである必要があります。

  17. 新しいマシンをクラスタに追加しないようにします。

    1. scsetup(1M) ユーティリティを起動します。


      # scsetup
      

      メインメニューが表示されます。

    2. 「新規ノード」メニューにアクセスするには、メインメニューで「6」を入力します。

    3. 「新規ノード」メニューで「1」を入力します。

      scsetup プロンプトに従います。このオプションを設定することによって、クラスタは、新しいマシンからパブリックネットワーク経由で着信する、自分自身をクラスタに追加しようとする要求をすべて無視します。

    4. scsetup ユーティリティを終了します。

  18. カプセル化したルートディスクをミラー化する予定があるかどうかを確認します。


注 –

後からルートディスクのカプセル化を解除する必要が生じた場合は、ルートディスクのカプセル化を解除する の手順に従ってください。


カプセル化されたルートディスクをミラー化する

VxVM をインストールしてルートディスクをカプセル化した後で、カプセル化されたルートディスクをミラー化するノードごとにこの作業を行ってください。

  1. VxVM のマニュアルに記載された方法に従って、カプセル化されたルートディスクをミラー化します。

    可用性を最大限に高め、管理を容易にするには、ローカルディスクをミラーとして使用してください。ガイドラインの詳細については、ルートディスクのミラー化 を参照してください。


    注意 – 注意 –

    ルートディスクのミラー化に定足数デバイスを使用することは避けてください。定足数デバイスを使用すると、一定の条件下でルートディスクミラーからノードを起動できない可能性があります。


  2. デバイス ID (DID) マッピングを表示します。


    # scdidadm -L
    

  3. DID マッピングで、ルートディスクのミラー化に使用されているディスクを確認します。

  4. ルートディスクミラーの DID 名から raw ディスクデバイスグループ名を特定します。

    raw ディスクデバイスグループの名前は、dsk/dN という規則に従っています (N は番号)。次の scdidadm の出力例で、強調表示されているのが raw ディスクデバイスグループ名です。


    N         node:/dev/rdsk/cNtXdY     /dev/did/rdsk/dN
    

  5. raw ディスクデバイスグループのノードリストを表示します。

    次に出力例を示します。


    # scconf -pvv | grep dsk/dN
    デバイスグループ名:						dsk/dN
    ...
      (dsk/dN) デバイスグループのノードリスト:		phys-schost-1, phys-schost-3
    ...

  6. ノードリストにノード名が複数含まれているかどうかを確認します。

    • 含まれる場合は、手順 7 に進みます。

    • 含まれない場合は、手順 9 に進みます。

  7. raw ディスクデバイスグループのノードリストから、ルートディスクをミラー化したノード以外のすべてのノードを削除します。

    ルートディスクをミラー化したノードだけがノードリストに残るようにします。


    # scconf -r -D name=dsk/dN,nodelist=node
    
    -D name=dsk/dN

    raw ディスクデバイスグループのクラスタ固有の名前を指定します。

    nodelist=node

    ノードリストから削除するノードの名前を指定します。

  8. raw ディスクデバイスグループの localonly プロパティを有効にします。

    localonly プロパティが有効になった時点で、raw ディスクデバイスグループはそのノードリスト内のノードだけに使用されるようになります。これにより、起動デバイスが複数のノードに接続されている場合に、不意にノードがその起動デバイスから使用できなくなることが防止されます。


    # scconf -c -D name=dsk/dN,localonly=true
    

    localonly プロパティの詳細については、scconf_dg_rawdisk(1M) のマニュアルページを参照してください。

  9. カプセル化されたルートディスクをミラー化するクラスタノードごとにこの作業を繰り返します。

  10. ディスクグループを作成します。

    ディスクグループの作成と登録を行う に進みます。

例 — カプセル化されたルートディスクのミラー化

次の例は、ノード phys-schost-1 のルートディスクに作成されたミラーを示しています。このミラーは、ディスク c1t1d0 (raw ディスクデバイスグループ名は dsk/d2 ) で作成されています。ディスク c1t1d0 は多重ポートディスクであるため、ノード phys-schost-3 がディスクのノードリストから削除され、localonly プロパティが有効に設定されています。


(DID マッピングを表示する)
# scdidadm -L 
...
2        phys-schost-1:/dev/rdsk/c1t1d0 /dev/did/rdsk/d2     
2        phys-schost-3:/dev/rdsk/c1t1d0 /dev/did/rdsk/d2     
...
 
(ミラーディスクの raw ディスクデバイスグループのノードリストを表示する)
# scconf -pvv | grep dsk/d2
デバイスグループ名:						dsk/d2
...
  (dsk/d2) デバイスグループのノードリスト:		phys-schost-1, phys-schost-3
...
 
(raw ディスクデバイスグループのノードリストから phys-schost-3 を削除する)
# scconf -r -D name=dsk/d2,nodelist=phys-schost-3
  
(ミラーディスクの raw ディスクデバイスグループの localonly プロパティを有効にする)
# scconf -c -D name=dsk/d2,localonly=true

VERITAS Volume Manager ソフトウェアだけをインストールする

この作業は、scvxinstall コマンドを使用して VERITAS Volume Manager (VxVM) ソフトウェアだけをインストールします。


注 –

ルートディスクをカプセル化することによって rootdg ディスクグループを作成する場合、この手順を使用してはいけません。その代わりに、VERITAS Volume Manager ソフトウェアをインストールしてルートディスクをカプセル化するに進んで、VxVM ソフトウェアのインストールとルートディスクのカプセル化を行ってください。


この作業は、VxVM をインストールするノードごとに行ってください。VxVM は、クラスタのすべてのノードにインストールすることも、あるいは、VxVM が管理する記憶装置に物理的に接続されたノードにだけインストールすることもできます。

  1. クラスタ内にあるすべてのノードがクラスタモードで動作していることを確認します。

  2. VxVM をインストールするクラスタノードでスーパーユーザーになります。

  3. クラスタ内にあるすべてのノードをクラスタノード認証リストに追加します。

    1. scsetup(1M) ユーティリティを起動します。


      # scsetup
      

      メインメニューが表示されます。

    2. 「新規ノード」メニューにアクセスするには、メインメニューで「6」を入力します。

    3. ノードを承認リストに追加するには、「新規ノード」メニューで「3」を入力します。

    4. 自分自身を追加する可能性があるマシンの名前を指定します。

      ノードの名前をクラスタに追加するためのプロンプトに従います。追加するノードの名前をたずねられます。

    5. 作業が正常に行われたことを確認します。

      作業が正常に行われた場合、scsetup ユーティリティは「コマンドが正常に完了しました」というメッセージを出力します。

    6. クラスタ内にある各ノードで手順 c から手順 e までを繰り返して、すべてのクラスタノードをノード認証リストに追加します。

    7. scsetup ユーティリティを終了します。

  4. ノードのCD-ROM ドライブに VxVM CD-ROM を挿入します。

  5. scvxinstallを非対話方式のインストールモードで起動します。


    # scvxinstall -i
    

    scvxinstall コマンドは次の作業を自動的に行います。

    • Disables Dynamic Multipathing (DMP)


      注 –

      scvxinstall ユーティリティでインストール処理を開始すると、Dynamic Multipathing (DMP) は無効になりますが、バージョン 3.1.1 以降の VxVM を使用する場合、VRTSvxvm パッケージをインストールするときに DMP が再び有効になります。3.1.1 よりも前のバージョンの VxVM の場合、DMP は無効のままです。


    • 必須の VxVM ソフトウェア、ライセンス、マニュアルページのパッケージをインストールし、GUI パッケージはインストールしません。

    • クラスタ全体の vxio ドライバのメジャー番号を選択します。


    注 –

    VxVM ライセンスは、次の手順である ルート以外の rootdg ディスクグループを作成するで追加します。


    詳細については、scvxinstall(1M) のマニュアルページを参照してください。

  6. (省略可能) VxVM GUI をインストールします。

    VxVM GUI のインストールの詳細については、VxVM のマニュアルを参照してください。

  7. CD-ROM を取り出します。

  8. すべての VxVM パッチをインストールします。

    パッチの入手方法とインストール方法については、『Sun Cluster 3.1 ご使用にあたって』の「パッチとファームウェアレベル」を参照してください。

  9. (省略可能) クラスタノード上に VxVM のマニュアルページを置かない場合は、マニュアルページパッケージを削除します。


    # pkgrm VRTSvmman
    

  10. VxVM を別のノードにインストールするかどうかを決定します。

    • インストールする場合は、手順 2 から 手順 9 までを繰り返します。

    • インストールしない場合は、手順 11 に進みます。

  11. VxVM をインストールしないノードが存在するかどうかを確認します。


    注 –

    VxVM クラスタ機能を有効にする予定の場合、クラスタ内にあるすべてのノードに VxVM をインストールする必要があります


    • 有効にする場合は、手順 12 に進みます。

    • 有効にしない場合は、手順 13 に進みます。

  12. VxVM をインストールしないノードごとに、/etc/name_to_major ファイルを変更します。

    1. VxVM をインストールしたノード上で、vxio メジャー番号の設定を調べます。


      # grep vxio /etc/name_to_major
      

    2. VxVM をインストールしないノードでスーパーユーザーになります。

    3. /etc/name_to_major ファイルを編集して、vxio メジャー番号を NNN (手順 aで調べた番号) に設定するエントリを追加します。


      # vi /etc/name_to_major
      vxio NNN
      

    4. vxio エントリを初期化します。


      # drvconfig -b -i vxio -m NNN
      

    5. VxVM をインストールしない他のすべてのノードに対して、手順 a から 手順 cまでを繰り返します。

      この作業が終了したとき、クラスタ内にある各ノードで /etc/name_to_major ファイルの vxio エントリが同じである必要があります。

  13. 新しいマシンをクラスタに追加しないようにします。

    1. scsetup(1M) ユーティリティを起動します。


      # scsetup
      

      メインメニューが表示されます。

    2. 「新規ノード」メニューにアクセスするには、メインメニューで「6」を入力します。

    3. 「新規ノード」メニューで「1」を入力します。

      scsetup プロンプトに従います。このオプションを設定することによって、クラスタは、新しいマシンからパブリックネットワーク経由で着信する、自分自身をクラスタに追加しようとする要求をすべて無視します。

    4. scsetup ユーティリティを終了します。

  14. rootdg ディスクグループを作成します。

    ルート以外の rootdg ディスクグループを作成する に進みます。

ルート以外の rootdg ディスクグループを作成する

次の手順で、ローカルのルート以外のディスクをカプセル化または初期化することによって rootdg ディスクグループを作成します。

  1. VERITAS Volume Manager (VxVM) ライセンスキーを用意します。

  2. ノードのスーパーユーザーになります。

  3. (省略可能) ディスクをカプセル化する場合は、各ディスクに 0 シリンダのスライスが少なくとも 2 つあることを確認します。

    必要に応じて、format(1M) コマンドを使用して、各 VxVM スライスに 0 シリンダを割り当てます。

  4. vxinstall ユーティリティーを起動します。


    # vxinstall
    

    プロンプトが表示されたら、次のようにします。

    • VxVM ライセンスキーを指定します。

    • VxVM クラスタ機能を有効にする場合は、クラスタ機能のライセンスキーを指定します。

    • Custom Installation を選択します。

    • ルートディスクをカプセル化しません。

    • rootdg ディスクグループに追加する任意のディスクを選択します。

    • 自動再起動は行いません。

  5. リソースグループまたはデバイスグループをノードから退避させます。


    # scswitch -S -h node
    
    -S

    すべてのリソースグループとデバイスグループを退避させます。

    -h node

    リソースグループまたはデバイスグループを退避させるノード名を指定します。

  6. ノードを再起動します。


    # shutdown -g0 -y -i6
    

  7. vxdiskadm コマンドを使用して rootdg ディスクグループに多重ディスクを追加します。

    多重ディスクがあると、rootdg ディスクグループはディスク障害に対処しやすくなります。手順については、VxVM のマニュアルを参照してください。

  8. ディスクグループを作成します。

    ディスクグループの作成と登録を行う に進みます。

ディスクグループの作成と登録を行う

次の手順で、VxVM ディスクグループとボリュームを作成します。


注 –

ディスクグループをディスクデバイスグループとしてクラスタに登録した後には、VxVM コマンドを使用してVxVM ディスクグループをインポートまたはデポートしないでください。ディスクグループのインポートやデポートは、すべて Sun Cluster ソフトウェアで処理できます。Sun Cluster ディスクデバイスグループを管理する方法については、『Sun Cluster 3.1 のシステム管理』の「ディスクデバイスグループの管理」を参照してください。


この手順は、追加するディスクグループを構成するディスクに物理的に接続されているノードから実行します。

  1. 次の情報を用意します。

  2. ディスクセットの所有権を持つノードのスーパーユーザーになります。

  3. VxVM ディスクグループおよびボリュームを作成します。

    Oracle Parallel Server/Real Application Clusters をインストールする場合は、『VERITAS Volume Manager Administrator's Reference Guide』の説明に従って、VxVM のクラスタ機能を使用して共有の VxVM ディスクグループを作成してください。このソフトウェアをインストールしない場合は、VxVM のマニュアルで説明されている標準の手順を使用して VxVM ディスクグループを作成してください。


    注 –

    ダーティリージョンログ (DRL) を使用することで、ノードに障害が発生した場合のボリューム回復時間を短縮できます。ただし、DRL を使用すると I/O スループットが低下することがあります。


  4. VxVM クラスタ機能が有効に設定されているかどうかを確認します。

    • 有効に設定されている場合は、手順 7 に進みます。VxVM クラスタ機能が有効に設定されている場合は、共有ディスクグループを Sun Cluster ディスクデバイスグループとして登録しないでください。

    • 有効に設定されていない場合は、手順 5 に進みます。

  5. ディスクグループを Sun Cluster ディスクデバイスグループとして登録します。

    1. scsetup(1M) ユーティリティーを起動します。


      # scsetup
      

    2. ディスクデバイスグループで作業を行うには、4 (デバイスグループとボリューム) を入力します。

    3. ディスクデバイスグループを登録するには、1(VxVM ディスクグループをデバイスグループとして登録) を入力します。

      指示に従って、Sun Cluster ディスクデバイスグループとして登録するVxVM ディスクデバイスグループを入力します。

    4. ディスクデバイスグループを登録する際に、次のエラーが発生する場合は、ディスクデバイスグループに別々のマイナー番号を割り当てます。


      scconf: Failed to add device group - in use

      ディスクデバイスグループに再度マイナー番号を割り当てるには、ディスクデバイスグループに新しいマイナー番号を割り当てるの手順を使用してください。この手順を使用すると、既存のディスクデバイスグループのマイナー番号と衝突しない新しいマイナー番声を割り当てることができます。

    5. 作業が完了したら、q (終了) を入力して scsetup ユーティリティーを終了します。

  6. ディスクデバイスグループが登録されたことを確認します。

    次のコマンドを実行して表示される新しいディスクのディスクデバイス情報を検索します。


    # scstat -D
    


    注 –

    VxVM ディスクグループまたはボリュームの構成情報を変更する場合は、scsetup を使用して Sun Cluster ディスクデバイスグループを再登録します。このような構成変更には、ボリュームの追加や削除、既存ボリュームのグループ、所有者、アクセス権の変更などがあります。構成変更後に登録を行うと、広域名前空間が正しい状態になります。ディスクデバイスグループを登録する方法については、『Sun Cluster 3.1 のシステム管理』の「ディスクデバイスグループの管理」を参照してください。


  7. VxVM ディスクグループとボリュームの構成を確認します。

    ディスクグループの構成を確認する に進みます。

ディスクデバイスグループに新しいマイナー番号を割り当てる

マイナー番号が他のディスクグループと衝突してディスクデバイスグループの登録が失敗する場合、新しいディスクグループに未使用の新しいマイナー番号を割り当てる必要があります。この作業を実行して、ディスクグループにマイナー番号を割り当てなおしてください。

  1. 各クラスタのノードのスーパーユーザーになります。

  2. 使用中のマイナー番号を確認します。


    # ls -l /global/.devices/node@1/dev/vx/dsk/*
    

  3. 1000 の倍数で使用されていない値を、ディスクグループのベースとなるマイナー番号として選択します。

  4. ディスクグループにベースとなるマイナー番号を割り当てます。


    # vxdg reminor diskgroup base-minor-number
    

  5. ディスクグループの作成と登録を行う手順 5 に進み、ディスクグループを Sun Cluster ディスクデバイスグループとして登録します。

例 — ディスクデバイスグループに新しいマイナー番号を割り当てる

次の例は、マイナー番号 16000 〜 16002 と 4000 〜 4001 が使用されていることを示します。ここでは、vxdg reminor コマンドを使用し、ベースとなるマイナー番号 5000 が使用されるように、新しいディスクグループに再度マイナー番号を割り当てています。


# ls -l /global/.devices/node@1/dev/vx/dsk/*
/global/.devices/node@1/dev/vx/dsk/dg1
brw-------   1 root     root      56,16000 Oct  7 11:32 dg1v1
brw-------   1 root     root      56,16001 Oct  7 11:32 dg1v2
brw-------   1 root     root      56,16002 Oct  7 11:32 dg1v3
 
/global/.devices/node@1/dev/vx/dsk/dg2
brw-------   1 root     root      56,4000 Oct  7 11:32 dg2v1
brw-------   1 root     root      56,4001 Oct  7 11:32 dg2v2
# vxdg reminor dg3 5000

ディスクグループの構成を確認する

この作業はクラスタの各ノード上で行ってください。

  1. ルートディスクグループ (rootdg) にローカルディスクだけが含まれていること、およびディスクグループが現在の主ノードだけにインポートされていることを確認します。


    # vxdisk list
    

  2. すべてのボリュームが起動していることを確認します。


    # vxprint
    

  3. すべてのディスクグループが Sun Cluster ディスクデバイスグループとして登録されており、オンラインであることを確認します。


    # scstat -D
    

  4. クラスタを構成する

    クラスタの構成 に進みます。

ルートディスクのカプセル化を解除する

この作業は、ルートディスクのカプセル化を解除する場合に行ってください。

  1. ルートディスク上に Solaris のルートファイルシステム (ルート (/)、スワップ、広域デバイス名前空間、/usr/var/opt/home) だけが存在することを確認してください。

    ルートディスク上に他のファイルシステムが存在する場合は、バックアップをとった後でルートディスクからそれらを削除してください。

  2. カプセル化を解除するノード上でスーパーユーザーになります。

  3. ノードからリソースグループとデバイスグループをすべて退避させます。


    # scswitch -S -h node
    
    -S

    すべてのリソースグループとデバイスグループを退避させます。

    -h node

    リソースグループまたはデバイスグループを退避させるノード名を指定します。

  4. ノードの ID 番号を確認します。


    # clinfo -n
    N
    

  5. このノードの広域デバイスファイルシステムのマウントを解除します (N手順 4で戻されたノード ID 番号です)。


    # umount /global/.devices/node@N
    

  6. /etc/vfstab ファイルを表示し、どの VxVM ボリュームが広域デバイスファイルシステムに対応しているかを確認します。


    # vi /etc/vfstab
    #device		device	mount		FS		fsck	mount		mount
    #to mount	to fsck	point		type	pass	at boot	options
    #                       
    #NOTE: volume rootdiskxNvol (/global/.devices/node@N) encapsulated 
    #partition cNtXdYsZ
    

  7. rootdg ディスクグループから、広域デバイスファイルシステムに対応する VxVM ボリュームを削除します。


    # vxedit -rf rm rootdiskxNvol
    


    注意 – 注意 –

    広域デバイス用のデバイスエントリ以外のデータは、広域デバイスファイルシステムに格納しないでください。VxVM ボリュームを削除すると、広域デバイスファイルシステム内のデータはすべて削除されます。ルートディスクのカプセル化を解除した後は、広域デバイスエントリに関連するデータだけが復元されます。


  8. ルートディスクのカプセル化を解除します。


    # /etc/vx/bin/vxunroot
    

    詳細については、VxVM のマニュアルを参照してください。

  9. 広域デバイスファイルシステムに使用できるように、format(1M) コマンドを使用してルートディスクに 512M バイトのパーティションを追加します。


    ヒント –

    /etc/vfstab ファイルに指定されているように、ルートディスクのカプセル化の解除が行われる前に広域デバイスファイルシステムに割り当てられたものと同じスライスを使用してください。


  10. 手順 9で作成したパーティションにファイルシステムを設定します。


    # newfs /dev/rdsk/cNtXdYsZ
    

  11. ルートディスクのデバイス ID (DID) 名を確認します。# scdidadm -l cNtXdY 1 phys-schost-1:/dev/rdsk/cNtXdY /dev/did/rdsk/dN

  12. /etc/vfstab ファイルで、広域デバイスファイルシステムエントリ内のパス名を 手順 11 で指定した DID パスに置き換えます。

    元のエントリの例を次に示します。


    # vi /etc/vfstab
    /dev/vx/dsk/rootdiskxNvol /dev/vx/rdsk/rootdiskxNvol 
    /global/.devices/node@N ufs 2 no global

    DID パスを使用する変更後のエントリの例を次に示します。


    /dev/did/dsk/dNsX /dev/did/rdsk/dNsX 
    /global/.devices/node@N ufs 2 no global

  13. 広域デバイスファイルシステムをマウントします。


    # mount /global/.devices/node@N
    

  14. クラスタの任意のノードから、任意の raw ディスクと Solstice DiskSuite/Solaris Volume Manager デバイス用のデバイスノードを使用して広域デバイスファイルシステムを生成し直します。


    # scgdevs
    

    次の再起動時に VxVM デバイスが作成し直されます。

  15. ノードを再起動します。


    # reboot
    

  16. クラスタの各ノードでこの手順を繰り返し、それらのノードのルートディスクのカプセル化を解除します。