Sun Cluster ソフトウェアのインストール (Solaris OS 版)

VxVM ソフトウェアのインストールと構成

この節では、VxVM ソフトウェアを Sun Cluster 構成上でインストール、構成するための情報と手順を紹介します。

次の表に、 Sun Cluster 構成用の VxVM ソフトウェアのインストールと構成において行う作業を示します。

表 5–1 作業マップ: VxVM ソフトウェアのインストールと構成

作業 

参照先 

1. VxVM 構成のレイアウトを計画 

「ボリューム管理の計画」

2. (省略可能) 各ノード上のルートディスクグループをどのように作成するかを決定 

「ルートディスクグループの設定の概要」

3. VxVM ソフトウェアをインストール 

「VERITAS Volume Manager ソフトウェアをインストールする」

VxVM インストールマニュアル 

4. (省略可能) ルートディスクグループを作成。ルートディスクをカプセル化しても、ルートディスクグループをローカルのルート以外のディスクに作成してもかまいません。 

「SPARC: ルートディスクをカプセル化する」

「ルート以外のディスクにルートディスクグループを作成する」

5. (省略可能) カプセル化したルートディスクをミラー化 

「カプセル化されたルートディスクをミラー化する」

6. ディスクグループを作成 

「クラスタへのディスクグループの作成」

ルートディスクグループの設定の概要

ルートディスクグループの作成は任意です。ルートディスクグループを作成する予定がない場合は、「VERITAS Volume Manager ソフトウェアをインストールする」に進みます。

Sun Cluster ソフトウェアでは、次のルートディスクグループの構成方法がサポートされています。

詳細については、 VxVM のインストールマニュアルを参照してください。

ProcedureVERITAS Volume Manager ソフトウェアをインストールする

以下の手順を実行して、VxVM でインストールする各ノードに VERITAS Volume Manager (VxVM) ソフトウェアをインストールします。VxVM は、クラスタのすべてのノードにインストールすることも、あるいは、VxVM が管理するストレージデバイスに物理的に接続されたノードにだけインストールすることもできます。

始める前に

次の作業を実行します。

  1. VxVM をインストールするクラスタノードでスーパーユーザーになります。

  2. ノードの CD-ROM ドライブに VxVM CD-ROM を挿入します。

  3. VxVM インストールガイドの手順に従って、VxVM ソフトウェアとライセンスをインストールして構成します。

  4. clvxvm ユーティリティーを非対話式モードで実行します。


    phys-schost# clvxvm initialize
    

    clvxvm ユーティリティーは、必要なインストール後の作業を実行します。clvxvm ユーティリティーはまた、クラスタ規模の vxio ドライバメジャー番号を選択して構成します。詳細については、clvxvm(1CL) のマニュアルページを参照してください。

  5. SPARC:VxVM クラスタ機能を有効にする場合、クラスタ機能ライセンスキーを指定していない場合は、これを指定します。

    ライセンスの追加方法については、VxVM のマニュアルを参照してください。

  6. (省略可能) VxVM GUI をインストールします。

    VxVM GUI のインストールの詳細については、VxVM のマニュアルを参照してください。

  7. CD-ROM を取り出します。

  8. Sun Cluster ソフトウェアをサポートするための VxVM パッチをインストールします。

    パッチおよびインストール手順の場所については、『Sun Cluster 3.2 2/08 Release Notes for Solaris OS』「Patches and Required Firmware Levels」を参照してください。

  9. 手順 1 から手順 8 を繰り返して、追加のノードに VxVM をインストールします。


    注 –

    SPARC:VxVM クラスタ機能を有効にするには、VxVM をクラスタのすべてのノードにインストールする必要があります。


  10. VxVM で 1 つ以上のノードをインストールしない場合は、VxVM 以外の各ノード上で/etc/name_to_major ファイルを変更します。

    1. VxVM をインストールしたノード上で、vxio メジャー番号の設定を調べます。


      phys-schost# grep vxio /etc/name_to_major
      
    2. VxVM をインストールしないノードでスーパーユーザーになります。

    3. /etc/name_to_major ファイルを編集して、vxio メジャー番号を NNN (手順 a で調べた番号) に設定するエントリを追加します。


      phys-schost# vi /etc/name_to_major
      vxio NNN
      
    4. vxio エントリを初期化します。


      phys-schost# drvconfig -b -i vxio -m NNN
      
    5. VxVM をインストールしないほかのすべてのノードで、手順 a から 手順 d までを繰り返します。

      この作業が終了したとき、クラスタ内にある各ノードで /etc/name_to_major ファイルの vxio エントリが同じである必要があります。

  11. ルートディスクグループを作成する場合は、「SPARC: ルートディスクをカプセル化する」または 「ルート以外のディスクにルートディスクグループを作成する」に進みます。

    それ以外の場合は、手順 12に進みます。


    注 –

    ルートディスクグループの作成は任意です。


  12. VxVM をインストールした各ノードを再起動します。


    phys-schost# shutdown -g0 -y -i6
    
次の手順

ルートディスクグループを作成する場合は、「SPARC: ルートディスクをカプセル化する」または 「ルート以外のディスクにルートディスクグループを作成する」に進みます。

それ以外の場合は、ディスクグループを作成します。「クラスタへのディスクグループの作成」に進みます。

ProcedureSPARC: ルートディスクをカプセル化する

以下の手順を実行して、ルートディスクをカプセル化することによって、ルートディスクを作成します。ルートディスクグループの作成は任意です。詳細については、VxVM のマニュアルを参照してください。


注 –

ルートディスクグループをルート以外のディスクに作成する場合は、代わりに、「ルート以外のディスクにルートディスクグループを作成する」の手順を実行します。


始める前に

「VERITAS Volume Manager ソフトウェアをインストールする」で説明されているとおりに、VxVM をインストールしていることを確認します。

  1. VxVM でインストールしたノードでスーパーユーザーになります。

  2. ルートディスクをカプセル化します。


    phys-schost# clvxvm encapsulate
    

    詳細については、clvxvm(1CL) のマニュアルページを参照してください。

  3. この作業を VxVM をインストールしたほかのノードで繰り返します。

次の手順

カプセル化したルートディスクをミラー化する場合は、「カプセル化されたルートディスクをミラー化する」に進みます。

それ以外の場合は、「クラスタへのディスクグループの作成」に進みます。

Procedureルート以外のディスクにルートディスクグループを作成する

次の手順で、ローカルのルート以外のディスクをカプセル化または初期化することによってルートディスクグループを作成します。ルートディスクグループの作成は任意です。


注 –

ルートディスクグループをルートディスクに作成する場合は、代わりに、「SPARC: ルートディスクをカプセル化する」の手順を実行します。


始める前に

ディスクをカプセル化する場合は、各ディスクに 0 シリンダのスライスが少なくとも 2 つあることを確認します。必要に応じて、format(1M) コマンドを使用して、各 VxVM スライスに 0 シリンダを割り当てます。

  1. スーパーユーザーになります。

  2. vxinstall ユーティリティーを起動します。


    phys-schost# vxinstall
    
  3. vxinstall ユーティリティーでプロンプトが表示されたら、次の選択または入力を実行します。

    • SPARC: VxVM クラスタ機能を有効にする場合は、クラスタ機能のライセンスキーを入力します。

    • Custom Installation を選択します。

    • 起動ディスクはカプセル化しません。

    • ルートディスクグループに追加する任意のディスクを選択します。

    • 自動再起動は行いません。

  4. 作成したルートディスクグループに、複数のノードに接続する 1 つ以上のディスクがある場合は、localonly プロパティを有効にします。

    次のコマンドを使用して、ルートディスクグループ内の共有ディスクごとに localonly プロパティを有効にします。


    phys-schost# cldevicegroup set -p localonly=true dsk/dN
    
    -p

    デバイスグループのプロパティーを指定します。

    localonly=true

    デバイスグループをノードリストの単一ノードによってだけマスターされるように設定します。

    localonly プロパティが有効になった時点で、raw ディスクデバイスグループはそのノードリスト内のノードだけに使用されるようになります。これにより、ルートディスクグループが使用しているディスクが複数のノードに接続されている場合に、不意にノードがそのディスクから使用できなくなる状態を防止できます。

    localonly プロパティーの詳細については、scconf_dg_rawdisk(1M) のマニュアルページを参照してください。

  5. ノードからリソースグループまたはデバイスグループを移動させます。


    phys-schost# clnode evacuate from-node
    
    from-node

    リソースグループまたはデバイスグループを移動させるノード名を指定します。

  6. ノードをリブートします。


    phys-schost# shutdown -g0 -y -i6
    
  7. vxdiskadm コマンドを使用してルートディスクグループに多重ディスクを追加します。

    多重ディスクがあると、ルートディスクグループはディスク障害に対処しやすくなります。手順については、VxVM のマニュアルを参照してください。

次の手順

ディスクグループを作成します。「クラスタへのディスクグループの作成」に進みます。

Procedureカプセル化されたルートディスクをミラー化する

VxVM をインストールしてルートディスクをカプセル化した後で、カプセル化されたルートディスクをミラー化するノードごとにこの作業を行なってください。

始める前に

「SPARC: ルートディスクをカプセル化する」で説明されているとおりにルートディスクをカプセル化していることを確認します。

  1. スーパーユーザーになります。

  2. デバイスのリストを表示します。


    phys-schost# cldevice list -v
    

    次に出力例を示します。


    DID Device          Full Device Path
    ----------          ----------------
    d1                  phys-schost-1:/dev/rdsk/c0t0d0
    d2                  phys-schost-1:/dev/rdsk/c0t6d0
    d3                  phys-schost-2:/dev/rdsk/c1t1d0
    d3                  phys-schost-1:/dev/rdsk/c1t1d0
  3. カプセル化したルートディスクをミラー化します。

    VxVM のマニュアルの手順に従ってください。

    可用性を最大限に高め、管理を容易にするには、ローカルディスクをミラーとして使用してください。詳細なガイドラインについては、「ルートディスクのミラー化」を参照してください。


    Caution – Caution –

    ルートディスクのミラー化に定足数デバイスを使用することは避けてください。ルートディスクのミラー化に定足数デバイスを使用すると、一定の条件下でルートディスクミラーからノードを起動できない可能性があります。


  4. ルートディスクをミラー化するために使用するデバイスの raw ディスクデバイスグループのノードリストを表示します。

    デバイスグループの名前は、dsk/dN という形式になります (dN は DID デバイス名)。


    phys-schost# cldevicegroup list -v dsk/dN
    
    -v

    詳細な出力を表示します。

    次に出力例を示します。


    Device group        Type                Node list
    ------------        ----                ---------
    dsk/dN              Local_Disk          phys-schost-1, phys-schost-3
  5. ノードリストに複数のノード名が含まれる場合、ルートディスクをミラー化したノードを除くすべてのノードをノードリストから削除します。

    ルートディスクをミラー化したノードだけが raw ディスクデバイスグループのノードリストに残るはずです。


    phys-schost# cldevicegroup remove-node -n node dsk/dN
    
    -n node

    デバイスグループのノードリストから削除するノードを指定します。

  6. raw ディスクデバイスグループの localonly プロパティーが有効になっていない場合は、これを有効にします。

    localonly プロパティが有効になった時点で、raw ディスクデバイスグループはそのノードリスト内のノードだけに使用されるようになります。これにより、起動デバイスが複数のノードに接続されている場合に、不意にノードがその起動デバイスから使用できなくなることが防止されます。


    phys-schost# cldevicegroup set -p localonly=true dsk/dN
    
    -p

    デバイスグループプロパティーに値を設定します。

    localonly=true

    デバイスグループの localonly プロパティーを有効にします。

    localonly プロパティーの詳細については、scconf_dg_rawdisk(1M) のマニュアルページを参照してください。

  7. カプセル化されたルートディスクをミラー化するクラスタノードごとにこの作業を繰り返します。


例 5–1 カプセル化されたルートディスクのミラー化

次の例は、ノード phys-schost-1 のルートディスクに作成されたミラーを示しています。このミラーは、ディスク c0t0d0 (raw ディスクデバイスグループ名は dsk/d2 ) で作成されています。ディスク c1t1d0 は多重ホストディスクであるため、ノード phys-schost-3 がディスクのノードリストから削除され、localonly プロパティーが有効に設定されています。


phys-schost# cldevice list -v
DID Device          Full Device Path
----------          ----------------
d2                  pcircinus1:/dev/rdsk/c0t0d0
…
Create the mirror by using VxVM procedures
phys-schost# cldevicegroup  list -v dsk/d2
Device group        Type                Node list
------------        ----                ---------
dsk/d2              Local_Disk          phys-schost-1, phys-schost-3
phys-schost# cldevicegroup remove-node -n phys-schost-3 dsk/d2
phys-schost# cldevicegroup set -p localonly=true dsk/d2

次の手順

ディスクグループを作成します。「クラスタへのディスクグループの作成」に進みます。