Sun Cluster ソフトウェアのインストール (Solaris OS 版)

第 5 章 VERITAS Volume Manager をインストールして構成する

この章の手順および 「ボリューム管理の計画」の計画情報に従って、VERITAS Volume Manager (VxVM) 用のローカルディスクと多重ホストディスクを構成してください。詳細については、VxVM のマニュアルを参照してください。

この章の内容は、次のとおりです。

VxVM ソフトウェアのインストールと構成

この節では、VxVM ソフトウェアを Sun Cluster 構成上でインストール、構成するための情報と手順を紹介します。

次の表に、 Sun Cluster 構成用の VxVM ソフトウェアのインストールと構成において行う作業を示します。

表 5–1 作業マップ: VxVM ソフトウェアのインストールと構成

作業 

参照先 

1. VxVM 構成のレイアウトを計画 

「ボリューム管理の計画」

2. (省略可能) 各ノード上のルートディスクグループをどのように作成するかを決定 

「ルートディスクグループの設定の概要」

3. VxVM ソフトウェアをインストール 

「VERITAS Volume Manager ソフトウェアをインストールする」

VxVM インストールマニュアル 

4. (省略可能) ルートディスクグループを作成。ルートディスクをカプセル化しても、ルートディスクグループをローカルのルート以外のディスクに作成してもかまいません。 

「SPARC: ルートディスクをカプセル化する」

「ルート以外のディスクにルートディスクグループを作成する」

5. (省略可能) カプセル化したルートディスクをミラー化 

「カプセル化されたルートディスクをミラー化する」

6. ディスクグループを作成 

「クラスタへのディスクグループの作成」

ルートディスクグループの設定の概要

ルートディスクグループの作成は任意です。ルートディスクグループを作成する予定がない場合は、「VERITAS Volume Manager ソフトウェアをインストールする」に進みます。

Sun Cluster ソフトウェアでは、次のルートディスクグループの構成方法がサポートされています。

詳細については、 VxVM のインストールマニュアルを参照してください。

ProcedureVERITAS Volume Manager ソフトウェアをインストールする

以下の手順を実行して、VxVM でインストールする各ノードに VERITAS Volume Manager (VxVM) ソフトウェアをインストールします。VxVM は、クラスタのすべてのノードにインストールすることも、あるいは、VxVM が管理するストレージデバイスに物理的に接続されたノードにだけインストールすることもできます。

始める前に

次の作業を実行します。

  1. VxVM をインストールするクラスタノードでスーパーユーザーになります。

  2. ノードの CD-ROM ドライブに VxVM CD-ROM を挿入します。

  3. VxVM インストールガイドの手順に従って、VxVM ソフトウェアとライセンスをインストールして構成します。

  4. clvxvm ユーティリティーを非対話式モードで実行します。


    phys-schost# clvxvm initialize
    

    clvxvm ユーティリティーは、必要なインストール後の作業を実行します。clvxvm ユーティリティーはまた、クラスタ規模の vxio ドライバメジャー番号を選択して構成します。詳細については、clvxvm(1CL) のマニュアルページを参照してください。

  5. SPARC:VxVM クラスタ機能を有効にする場合、クラスタ機能ライセンスキーを指定していない場合は、これを指定します。

    ライセンスの追加方法については、VxVM のマニュアルを参照してください。

  6. (省略可能) VxVM GUI をインストールします。

    VxVM GUI のインストールの詳細については、VxVM のマニュアルを参照してください。

  7. CD-ROM を取り出します。

  8. Sun Cluster ソフトウェアをサポートするための VxVM パッチをインストールします。

    パッチおよびインストール手順の場所については、『Sun Cluster 3.2 2/08 Release Notes for Solaris OS』「Patches and Required Firmware Levels」を参照してください。

  9. 手順 1 から手順 8 を繰り返して、追加のノードに VxVM をインストールします。


    注 –

    SPARC:VxVM クラスタ機能を有効にするには、VxVM をクラスタのすべてのノードにインストールする必要があります。


  10. VxVM で 1 つ以上のノードをインストールしない場合は、VxVM 以外の各ノード上で/etc/name_to_major ファイルを変更します。

    1. VxVM をインストールしたノード上で、vxio メジャー番号の設定を調べます。


      phys-schost# grep vxio /etc/name_to_major
      
    2. VxVM をインストールしないノードでスーパーユーザーになります。

    3. /etc/name_to_major ファイルを編集して、vxio メジャー番号を NNN (手順 a で調べた番号) に設定するエントリを追加します。


      phys-schost# vi /etc/name_to_major
      vxio NNN
      
    4. vxio エントリを初期化します。


      phys-schost# drvconfig -b -i vxio -m NNN
      
    5. VxVM をインストールしないほかのすべてのノードで、手順 a から 手順 d までを繰り返します。

      この作業が終了したとき、クラスタ内にある各ノードで /etc/name_to_major ファイルの vxio エントリが同じである必要があります。

  11. ルートディスクグループを作成する場合は、「SPARC: ルートディスクをカプセル化する」または 「ルート以外のディスクにルートディスクグループを作成する」に進みます。

    それ以外の場合は、手順 12に進みます。


    注 –

    ルートディスクグループの作成は任意です。


  12. VxVM をインストールした各ノードを再起動します。


    phys-schost# shutdown -g0 -y -i6
    
次の手順

ルートディスクグループを作成する場合は、「SPARC: ルートディスクをカプセル化する」または 「ルート以外のディスクにルートディスクグループを作成する」に進みます。

それ以外の場合は、ディスクグループを作成します。「クラスタへのディスクグループの作成」に進みます。

ProcedureSPARC: ルートディスクをカプセル化する

以下の手順を実行して、ルートディスクをカプセル化することによって、ルートディスクを作成します。ルートディスクグループの作成は任意です。詳細については、VxVM のマニュアルを参照してください。


注 –

ルートディスクグループをルート以外のディスクに作成する場合は、代わりに、「ルート以外のディスクにルートディスクグループを作成する」の手順を実行します。


始める前に

「VERITAS Volume Manager ソフトウェアをインストールする」で説明されているとおりに、VxVM をインストールしていることを確認します。

  1. VxVM でインストールしたノードでスーパーユーザーになります。

  2. ルートディスクをカプセル化します。


    phys-schost# clvxvm encapsulate
    

    詳細については、clvxvm(1CL) のマニュアルページを参照してください。

  3. この作業を VxVM をインストールしたほかのノードで繰り返します。

次の手順

カプセル化したルートディスクをミラー化する場合は、「カプセル化されたルートディスクをミラー化する」に進みます。

それ以外の場合は、「クラスタへのディスクグループの作成」に進みます。

Procedureルート以外のディスクにルートディスクグループを作成する

次の手順で、ローカルのルート以外のディスクをカプセル化または初期化することによってルートディスクグループを作成します。ルートディスクグループの作成は任意です。


注 –

ルートディスクグループをルートディスクに作成する場合は、代わりに、「SPARC: ルートディスクをカプセル化する」の手順を実行します。


始める前に

ディスクをカプセル化する場合は、各ディスクに 0 シリンダのスライスが少なくとも 2 つあることを確認します。必要に応じて、format(1M) コマンドを使用して、各 VxVM スライスに 0 シリンダを割り当てます。

  1. スーパーユーザーになります。

  2. vxinstall ユーティリティーを起動します。


    phys-schost# vxinstall
    
  3. vxinstall ユーティリティーでプロンプトが表示されたら、次の選択または入力を実行します。

    • SPARC: VxVM クラスタ機能を有効にする場合は、クラスタ機能のライセンスキーを入力します。

    • Custom Installation を選択します。

    • 起動ディスクはカプセル化しません。

    • ルートディスクグループに追加する任意のディスクを選択します。

    • 自動再起動は行いません。

  4. 作成したルートディスクグループに、複数のノードに接続する 1 つ以上のディスクがある場合は、localonly プロパティを有効にします。

    次のコマンドを使用して、ルートディスクグループ内の共有ディスクごとに localonly プロパティを有効にします。


    phys-schost# cldevicegroup set -p localonly=true dsk/dN
    
    -p

    デバイスグループのプロパティーを指定します。

    localonly=true

    デバイスグループをノードリストの単一ノードによってだけマスターされるように設定します。

    localonly プロパティが有効になった時点で、raw ディスクデバイスグループはそのノードリスト内のノードだけに使用されるようになります。これにより、ルートディスクグループが使用しているディスクが複数のノードに接続されている場合に、不意にノードがそのディスクから使用できなくなる状態を防止できます。

    localonly プロパティーの詳細については、scconf_dg_rawdisk(1M) のマニュアルページを参照してください。

  5. ノードからリソースグループまたはデバイスグループを移動させます。


    phys-schost# clnode evacuate from-node
    
    from-node

    リソースグループまたはデバイスグループを移動させるノード名を指定します。

  6. ノードをリブートします。


    phys-schost# shutdown -g0 -y -i6
    
  7. vxdiskadm コマンドを使用してルートディスクグループに多重ディスクを追加します。

    多重ディスクがあると、ルートディスクグループはディスク障害に対処しやすくなります。手順については、VxVM のマニュアルを参照してください。

次の手順

ディスクグループを作成します。「クラスタへのディスクグループの作成」に進みます。

Procedureカプセル化されたルートディスクをミラー化する

VxVM をインストールしてルートディスクをカプセル化した後で、カプセル化されたルートディスクをミラー化するノードごとにこの作業を行なってください。

始める前に

「SPARC: ルートディスクをカプセル化する」で説明されているとおりにルートディスクをカプセル化していることを確認します。

  1. スーパーユーザーになります。

  2. デバイスのリストを表示します。


    phys-schost# cldevice list -v
    

    次に出力例を示します。


    DID Device          Full Device Path
    ----------          ----------------
    d1                  phys-schost-1:/dev/rdsk/c0t0d0
    d2                  phys-schost-1:/dev/rdsk/c0t6d0
    d3                  phys-schost-2:/dev/rdsk/c1t1d0
    d3                  phys-schost-1:/dev/rdsk/c1t1d0
  3. カプセル化したルートディスクをミラー化します。

    VxVM のマニュアルの手順に従ってください。

    可用性を最大限に高め、管理を容易にするには、ローカルディスクをミラーとして使用してください。詳細なガイドラインについては、「ルートディスクのミラー化」を参照してください。


    Caution – Caution –

    ルートディスクのミラー化に定足数デバイスを使用することは避けてください。ルートディスクのミラー化に定足数デバイスを使用すると、一定の条件下でルートディスクミラーからノードを起動できない可能性があります。


  4. ルートディスクをミラー化するために使用するデバイスの raw ディスクデバイスグループのノードリストを表示します。

    デバイスグループの名前は、dsk/dN という形式になります (dN は DID デバイス名)。


    phys-schost# cldevicegroup list -v dsk/dN
    
    -v

    詳細な出力を表示します。

    次に出力例を示します。


    Device group        Type                Node list
    ------------        ----                ---------
    dsk/dN              Local_Disk          phys-schost-1, phys-schost-3
  5. ノードリストに複数のノード名が含まれる場合、ルートディスクをミラー化したノードを除くすべてのノードをノードリストから削除します。

    ルートディスクをミラー化したノードだけが raw ディスクデバイスグループのノードリストに残るはずです。


    phys-schost# cldevicegroup remove-node -n node dsk/dN
    
    -n node

    デバイスグループのノードリストから削除するノードを指定します。

  6. raw ディスクデバイスグループの localonly プロパティーが有効になっていない場合は、これを有効にします。

    localonly プロパティが有効になった時点で、raw ディスクデバイスグループはそのノードリスト内のノードだけに使用されるようになります。これにより、起動デバイスが複数のノードに接続されている場合に、不意にノードがその起動デバイスから使用できなくなることが防止されます。


    phys-schost# cldevicegroup set -p localonly=true dsk/dN
    
    -p

    デバイスグループプロパティーに値を設定します。

    localonly=true

    デバイスグループの localonly プロパティーを有効にします。

    localonly プロパティーの詳細については、scconf_dg_rawdisk(1M) のマニュアルページを参照してください。

  7. カプセル化されたルートディスクをミラー化するクラスタノードごとにこの作業を繰り返します。


例 5–1 カプセル化されたルートディスクのミラー化

次の例は、ノード phys-schost-1 のルートディスクに作成されたミラーを示しています。このミラーは、ディスク c0t0d0 (raw ディスクデバイスグループ名は dsk/d2 ) で作成されています。ディスク c1t1d0 は多重ホストディスクであるため、ノード phys-schost-3 がディスクのノードリストから削除され、localonly プロパティーが有効に設定されています。


phys-schost# cldevice list -v
DID Device          Full Device Path
----------          ----------------
d2                  pcircinus1:/dev/rdsk/c0t0d0
…
Create the mirror by using VxVM procedures
phys-schost# cldevicegroup  list -v dsk/d2
Device group        Type                Node list
------------        ----                ---------
dsk/d2              Local_Disk          phys-schost-1, phys-schost-3
phys-schost# cldevicegroup remove-node -n phys-schost-3 dsk/d2
phys-schost# cldevicegroup set -p localonly=true dsk/d2

次の手順

ディスクグループを作成します。「クラスタへのディスクグループの作成」に進みます。

クラスタへのディスクグループの作成

この節では、VxVM ディスクグループをクラスタに作成する方法について説明します。次の表で Sun Cluster 構成で構成できる VxVM ディスクグループの種類とその特徴を説明しています。

ディスクグループの種類 

用途 

Sun Cluster で登録されているか? 

ストレージ要件 

VxVM ディスクグループ 

フェイルオーバーまたはスケーラブルデータサービス、グローバルデバイス、またはクラスタファイルシステム用のデバイスグループ 

可能 

共有ストレージ 

VxVM ディスクグループ 

高可用でなく、単一ノードに限定された用途 

不可 

共有または非共有ストレージ 

VxVM 共有ディスクグループ 

Oracle RAC (VxVM クラスタ機能も必要) 

不可 

共有ストレージ 

次の表にSun Cluster 構成で VxVM ディスクグループを作成するために実行する作業を示します。

表 5–2 作業マップ: VxVM ディスクグループの作成

作業 

参照先 

1. ディスクグループとボリュームを作成 

「ディスクグループを作成する」

2. ローカルでなく、VxVM クラスタ機能を使用しないディスクグループを Sun Cluster デバイスグループとして登録 

「ディスクグループを登録する」

3. 必要であれば、新しいマイナー番号を割り当てて、ディスクデバイスグループ間のマイナー番号の衝突を解決 

「デバイスグループに新しいマイナー番号を割り当てる」

4. ディスクグループとボリュームを確認 

「ディスクグループの構成を確認する」

Procedureディスクグループを作成する

次の手順で、VxVM ディスクグループとボリュームを作成します。

この手順は、追加するディスクグループを構成するディスクに物理的に接続されているノードから実行します。

始める前に

次の作業を実行します。

  1. ディスクグループを所有するノードのスーパーユーザーになります。

  2. VxVM ディスクグループとボリュームを作成します。

    次の注意事項を守ってください。


    注 –

    ダーティーリージョンログ (DRL) を使用すると、ノードに障害が発生した場合のボリューム回復時間を短縮できます。ただし、DRL を使用すると I/O スループットが低下することがあります。


  3. ローカルグループの場合、localonly プロパティーを設定して、単一ノードをディスクグループのノードリストに追加します。


    注 –

    ローカルのみに構成されたディスクグループは、高可用またはグローバルにアクセス可能ではありません。


    1. clsetup ユーティリティーを起動します。


      phys-schost# clsetup
      
    2. メニュー項目「デバイスグループとボリューム」を選択します。

    3. メニュー項目「VxVM ディスクグループのローカル ディスクグループとしての設定」を選択します。

    4. 指示に従って、localonly プロパティーを設定し、専用でディスクグループをマスターする単一ノードを指定します。

      任意の時点でディスクグループをマスターできるのは、1 つのノードだけです。あとで、マスターするように構成されたノードを変更できます。

    5. 完了後 clsetup ユーティリティーを終了します。

次の手順

次の手順を決めます。

Procedureディスクグループを登録する

VxVM クラスタ機能が有効でない場合は、以下の手順を実行して、ローカルでないディスクグループを Sun Cluster デバイスグループとして登録します。


注 –

SPARC:VxVM クラスタ機能が有効であるか、ローカルディスクグループを作成した場合は、この手順を実行しないでください。代わりに、「ディスクグループの構成を確認する」に進みます。


  1. 各クラスタのノードのスーパーユーザーになります。

  2. グローバルディスクグループを Sun Cluster デバイスグループとして登録します。

    1. clsetup ユーティリティーを起動します。


      phys-schost# clsetup
      
    2. メニュー項目「デバイスグループとボリューム」を選択します。

    3. メニュー項目「VxVM ディスクグループのローカルディスクグループとしての設定」を選択します。

    4. 指示に従って、Sun Cluster デバイスグループとして登録する VxVM ディスクグループを指定します。

    5. 完了後 clsetup ユーティリティーを終了します。

    6. 各ローカルディスクグループをデポートし、もう一度インポートします。


      phys-schost# vxdg deport diskgroup
      # vxdg import dg
      
    7. 各ローカルディスクグループを再起動します。


      phys-schost# vxvol -g diskgroup startall
      
    8. 各ローカルディスクグループのローカルのみの状態を確認します。

      ディスクグループのフラグのプロパティーの値が nogdl であれば、ディスクグループはローカルのみのアクセス用に正しく構成されています。


      phys-schost# vxdg list diskgroup | grep flags
      flags: nogdl
  3. ディスクデバイスグループが登録されたことを確認します。

    次のコマンドを実行して表示される新しいディスクのディスクデバイス情報を検索します。


    phys-schost# cldevicegroup status
    
次の手順

「ディスクグループの構成を確認する」に進みます。

注意事項

スタックオーバーフロー – デバイスグループをオンラインにしたときにスタックがオーバーフローする場合、スレッドのスタックサイズのデフォルト値が不十分な可能性があります。各ノードで、/etc/system ファイルに set cl_haci:rm_thread_stacksize=0xsize エントリを追加します (size はデフォルト設定の 8000 以上)。

構成の変更 – VxVM デバイスグループまたはそのボリュームの構成情報を変更する場合は、clsetup ユーティリティーを使用して構成の変更を登録する必要があります。登録が必要な構成変更とは、ボリュームの追加または削除や、既存ボリュームのグループ、所有者、またはアクセス権の変更です。VxVM デバイスグループに対する構成の変更を登録する手順については、『Sun Cluster のシステム管理 (Solaris OS 版)』「デバイスグループの管理」を参照してください。

Procedureデバイスグループに新しいマイナー番号を割り当てる

マイナー番号が他のディスクグループと衝突してデバイスグループの登録が失敗する場合、新しいディスクグループに未使用の新しいマイナー番号を割り当てる必要があります。この作業を実行して、ディスクグループにマイナー番号を割り当てなおしてください。

  1. 各クラスタのノードのスーパーユーザーになります。

  2. 使用中のマイナー番号を確認します。


    phys-schost# ls -l /global/.devices/node@1/dev/vx/dsk/*
    
  3. 1000 の倍数で使用されていない値を、ディスクグループのベースとなるマイナー番号として選択します。

  4. ディスクグループにベースとなるマイナー番号を割り当てます。


    phys-schost# vxdg reminor diskgroup base-minor-number
    

例 5–2 デバイスグループに新しいマイナー番号を割り当てる

この例では、16000〜16002 および 4000〜4001 のマイナー番号を使用しています。vxdg reminor コマンドにより、新しいデバイスグループに基本マイナー番号 5000 を使用するようにマイナー番号を再割り当てします。


phys-schost# ls -l /global/.devices/node@1/dev/vx/dsk/*
/global/.devices/node@1/dev/vx/dsk/dg1
brw-------   1 root     root      56,16000 Oct  7 11:32 dg1v1
brw-------   1 root     root      56,16001 Oct  7 11:32 dg1v2
brw-------   1 root     root      56,16002 Oct  7 11:32 dg1v3
 
/global/.devices/node@1/dev/vx/dsk/dg2
brw-------   1 root     root      56,4000 Oct  7 11:32 dg2v1
brw-------   1 root     root      56,4001 Oct  7 11:32 dg2v2
phys-schost# vxdg reminor dg3 5000

次の手順

ディスクグループを Sun Cluster デバイスグループとして登録します。「ディスクグループを登録する」に進みます。

Procedureディスクグループの構成を確認する

この手順はクラスタの各ノード上で行なってください。

  1. スーパーユーザーになります。

  2. ディスクグループのリストを表示します。


    phys-schost# vxdisk list
    
  3. デバイスグループのリストを表示します。


    phys-schost# cldevicegroup list -v
    
  4. すべてのディスクグループが正しく構成されていることを確認します。

    次の要件が満たされていることを確認します。

    • ルートディスクグループにローカルディスクだけが含まれていること。

    • すべてのディスクグループおよびローカルのディスクグループが現在の主ノードだけにインポートされていること。

  5. すべてのボリュームが起動していることを確認します。


    phys-schost# vxprint
    
  6. すべてのディスクグループが Sun Cluster デバイスグループとして登録され、オンラインであることを確認します。


    phys-schost# cldevicegroup status
    

    出力には、ローカルディスクグループは表示されないはずです。

  7. (省略可能) あとで参考にするために、ディスクのパーティション分割情報をとっておきます。


    phys-schost# prtvtoc /dev/rdsk/cNtXdYsZ > filename
    

    このファイルをクラスタ外の場所に保存します。ディスク構成を変更する場合は、このコマンドをもう一度実行して、変更した構成をキャプチャします。ディスクに障害が発生し、交換が必要な場合は、この上方を使用してディスクパーティション構成を復元できます。詳細については、prtvtoc(1M) のマニュアルページを参照してください。

  8. (省略可能) クラスタ構成のバックアップを取ります。クラスタ構成のバックアップを保存しておけば、クラスタ構成の回復がより簡単になります。詳細は、『Sun Cluster のシステム管理 (Solaris OS 版)』「クラスタ構成をバックアップする」を参照してください。

VxVM ディスクグループ管理のガイドライン

Sun Cluster 構成で VxVM ディスクグループを管理する場合、次のガイドラインを守ってください。

注意事項

cldevicegroup status コマンドの出力にローカルのディスクグループが含まれる場合、表示されたディスクグループはローカルのみのアクセス用に正しく構成されていません。「ディスクグループを作成する」に戻って、ローカルのディスクグループを再構成してください。

次の手順

次のリストから、ご使用のクラスタ構成に次に適用するタスクを決めます。このリストから複数のタスクを実行する必要がある場合は、このリストのそれらのタスクのうち最初のタスクに進みます。

ルートディスクのカプセル化の解除

この節では、Sun Cluster 構成でルートディスクのカプセル化を解除する方法を説明します。

Procedureルートディスクのカプセル化を解除する

この作業は、ルートディスクのカプセル化を解除する場合に行なってください。

始める前に

次の作業を実行します。

  1. カプセル化を解除するノード上でスーパーユーザーになります。

  2. ノードからリソースグループとデバイスグループをすべて退避させます。


    phys-schost# clnode evacuate from-node
    
    from-node

    リソースグループまたはデバイスグループを移動させるノード名を指定します。

  3. ノード ID 番号を確認します。


    phys-schost# clinfo -n
    
  4. このノードのグローバルデバイスファイルシステムのマウントを解除します (N は、手順 3 で戻されたノード ID 番号です)。


    phys-schost# umount /global/.devices/node@N
    
  5. /etc/vfstab ファイルを表示し、どの VxVM ボリュームがグローバルデバイスファイルシステムに対応しているかを確認します。


    phys-schost# vi /etc/vfstab
    #device        device        mount    FS     fsck    mount    mount
    #to mount      to fsck       point    type   pass    at boot  options
    #
    #NOTE: volume rootdiskxNvol (/global/.devices/node@N) encapsulated 
    #partition cNtXdYsZ
    
  6. ルートディスクグループから、グローバルデバイスファイルシステムに対応する VxVM ボリュームを削除します。


    phys-schost# vxedit -g rootdiskgroup -rf rm rootdiskxNvol
    

    Caution – Caution –

    グローバルデバイスファイルシステムには、グローバルデバイス用のデバイスエントリ以外へのデータ格納をしないでください。VxVM ボリュームを削除すると、グローバルデバイスファイルシステム内のデータはすべて削除されます。ルートディスクのカプセル化を解除した後は、グローバルデバイスエントリに関連するデータだけが復元されます。


  7. ルートディスクのカプセル化を解除します。


    注 –

    コマンドからのシャットダウン要求を受け付けないでください



    phys-schost# /etc/vx/bin/vxunroot
    

    詳細については、VxVM のマニュアルを参照してください。

  8. format(1M) コマンドを使用して、512M バイトのパーティションをルートディスクに追加して、グローバルデバイスファイルシステム用に使用できるようにします。


    ヒント –

    /etc/vfstab ファイルに指定されているように、ルートディスクのカプセル化の解除が行われる前にグローバルデバイスファイルシステムに割り当てられたものと同じスライスを使用してください。


  9. 手順 8 で作成したパーティションにファイルシステムを設定します。


    phys-schost# newfs /dev/rdsk/cNtXdYsZ
    
  10. ルートディスクの DID 名を確認します。


    phys-schost# cldevice list cNtXdY
    dN
    
  11. /etc/vfstab ファイルで、グローバルデバイスファイルシステムのエントリにあるパス名を、手順 10 で特定した DID パスに置き換えます。

    元のエントリは、次のようになります。


    phys-schost# vi /etc/vfstab
    /dev/vx/dsk/rootdiskxNvol /dev/vx/rdsk/rootdiskxNvol /global/.devices/node@N ufs 2 no global

    DID パスを使用する変更後のエントリの例を次に示します。


    /dev/did/dsk/dNsX /dev/did/rdsk/dNsX /global/.devices/node@N ufs 2 no global
  12. グローバルデバイスファイルシステムをマウントします。


    phys-schost# mount /global/.devices/node@N
    
  13. クラスタの任意のノードから、任意の raw ディスクと Solaris Volume Manager デバイス用のデバイスノードを使用してグローバルデバイスファイルシステムを生成し直します。


    phys-schost# cldevice populate
    

    次の再起動時に VxVM デバイスが作成し直されます。

  14. 次の手順に進む前に、各ノードで cldevice populate コマンドが処理を完了したことを確認します。

    cldevice populate コマンドは、1 つのノードからのみ発行されても、リモートからすべてのノードで実行されます。 cldevice populate コマンドが処理を終了したかどうかを確認するには、クラスタの各ノードで次のコマンドを実行します。


    phys-schost# ps -ef | grep scgdevs
    
  15. ノードをリブートします。


    phys-schost# shutdown -g0 -y -i6
    
  16. クラスタの各ノードでこの手順を繰り返し、それらのノードのルートディスクのカプセル化を解除します。