Sun Cluster ソフトウェアのインストール (Solaris OS 版)

VxVM ソフトウェアのインストールと構成

この節では、VxVM ソフトウェアを Sun Cluster 構成上でインストール、構成するための情報と手順を紹介します。

次の表に、 Sun Cluster 構成用の VxVM ソフトウェアのインストールと構成において行う作業を示します。ここに示す順に従って手順を実行します。

表 5–1 作業マップ: VxVM ソフトウェアのインストールと構成

作業 

参照先 

VxVM 構成のレイアウトを計画 

「ボリューム管理の計画」

(省略可能) 各ノード上のルートディスクグループをどのように作成するかを決定

「ルートディスクグループの設定の概要」

VxVM ソフトウェアをインストール 

「Veritas Volume Manager ソフトウェアをインストールする」

VxVM インストールマニュアル 

(省略可能) ルートディスクグループを作成。ルートディスクをカプセル化しても、ルートディスクグループをローカルのルート以外のディスクに作成してもかまいません。

「SPARC: ルートディスクをカプセル化する」

「ルート以外のディスクにルートディスクグループを作成する」

(省略可能) カプセル化されたルートディスクをミラー化

「カプセル化されたルートディスクをミラー化する」

ディスクグループを作成します。 

「クラスタへのディスクグループの作成」

ルートディスクグループの設定の概要

ルートディスクグループの作成はオプションです。ルートディスクグループを作成する予定がない場合は、「Veritas Volume Manager ソフトウェアをインストールする」に進みます。

Sun Cluster ソフトウェアでは、次のルートディスクグループの構成方法がサポートされています。

詳細については、 VxVM のインストールマニュアルを参照してください。

ProcedureVeritas Volume Manager ソフトウェアをインストールする

次の手順を実行して、VxVM でインストールする各グローバルノードに Veritas Volume Manager (VxVM) ソフトウェアをインストールします。VxVM は、クラスタのすべてのノードにインストールすることも、あるいは、VxVM が管理するストレージデバイスに物理的に接続されたノードにだけインストールすることもできます。

始める前に

次の作業を実行します。

  1. VxVM をインストールするクラスタノードでスーパーユーザーになります。

  2. ノードの CD-ROM ドライブに VxVM CD-ROM を挿入します。

  3. VxVM インストールガイドの手順に従って、VxVM ソフトウェアとライセンスをインストールして構成します。

  4. clvxvm ユーティリティーを非対話式モードで実行します。


    phys-schost# clvxvm initialize
    

    clvxvm ユーティリティーは、必要なインストール後の作業を実行します。clvxvm ユーティリティーはまた、クラスタ規模の vxio ドライバメジャー番号を選択して構成します。詳細については、clvxvm(1CL) のマニュアルページを参照してください。

  5. SPARC: VxVM クラスタ機能を有効にする場合、クラスタ機能ライセンスキーを指定していない場合は、これを指定します。

    ライセンスの追加方法については、VxVM のマニュアルを参照してください。

  6. (省略可能) VxVM GUI をインストールします。

    VxVM GUI のインストールの詳細については、VxVM のマニュアルを参照してください。

  7. CD-ROM を取り出します。

  8. Sun Cluster ソフトウェアをサポートするための VxVM パッチをインストールします。

    パッチおよびインストール手順の場所については、『Sun Cluster のリリースノート』の「パッチと必須ファームウェアのレベル」を参照してください。

  9. 手順 1 から手順 8 を繰り返して、追加のノードに VxVM をインストールします。


    注 –

    SPARC: VxVM クラスタ機能を有効にするには、クラスタ内のすべてのノードにインストールする必要があります


  10. VxVM で 1 つ以上のノードをインストールしない場合は、VxVM 以外の各ノード上で/etc/name_to_major ファイルを変更します。

    1. VxVM をインストールしたノード上で、vxio メジャー番号の設定を調べます。


      phys-schost# grep vxio /etc/name_to_major
      
    2. VxVM をインストールしないノードでスーパーユーザーになります。

    3. /etc/name_to_major ファイルを編集して、vxio メジャー番号を NNN (手順 a で調べた番号) に設定するエントリを追加します。


      phys-schost# vi /etc/name_to_major
      
      vxio NNN
      
    4. vxio エントリを初期化します。


      phys-schost# drvconfig -b -i vxio -m NNN
      
    5. VxVM をインストールしないほかのすべてのノードで、手順 a から 手順 d までを繰り返します。

      この作業が終了したとき、クラスタ内にある各ノードで /etc/name_to_major ファイルの vxio エントリが同じである必要があります。

  11. ルートディスクグループを作成する場合は、「SPARC: ルートディスクをカプセル化する」または 「ルート以外のディスクにルートディスクグループを作成する」に進みます。

    それ以外の場合は、手順 12 に進みます。


    注 –

    ルートディスクグループの作成はオプションです。


  12. VxVM をインストールした各ノードを再起動します。


    phys-schost# shutdown -g0 -y -i6
    
次の手順

ルートディスクグループを作成する場合は、「SPARC: ルートディスクをカプセル化する」または 「ルート以外のディスクにルートディスクグループを作成する」に進みます。

それ以外の場合は、ディスクグループを作成します。「クラスタへのディスクグループの作成」に進みます。

ProcedureSPARC: ルートディスクをカプセル化する

以下の手順を実行して、ルートディスクをカプセル化することによって、ルートディスクを作成します。ルートディスクグループの作成はオプションです。詳細については、VxVM のマニュアルを参照してください。


注 –

ルートディスクグループをルート以外のディスクに作成する場合は、代わりに、「ルート以外のディスクにルートディスクグループを作成する」の手順を実行します。


始める前に

「Veritas Volume Manager ソフトウェアをインストールする」で説明されているとおりに、VxVM をインストールしている必要があります。

  1. VxVM でインストールしたノードでスーパーユーザーになります。

  2. ルートディスクをカプセル化します。


    phys-schost# clvxvm encapsulate
    

    詳細については、clvxvm(1CL) のマニュアルページを参照してください。

  3. この作業を VxVM をインストールしたほかのノードで繰り返します。

次の手順

カプセル化したルートディスクをミラー化する場合は、「カプセル化されたルートディスクをミラー化する」に進みます。

それ以外の場合は、「クラスタへのディスクグループの作成」に進みます。

Procedureルート以外のディスクにルートディスクグループを作成する

次の手順で、ローカルのルート以外のディスクをカプセル化または初期化することによってルートディスクグループを作成します。ルートディスクグループの作成はオプションです。


注 –

ルートディスクグループをルートディスクに作成する場合は、代わりに、「SPARC: ルートディスクをカプセル化する」の手順を実行します。


始める前に

ディスクをカプセル化する場合は、各ディスクに 0 シリンダのスライスが少なくとも 2 つあることを確認します。必要に応じて、format(1M) コマンドを使用して、各 VxVM スライスに 0 シリンダを割り当てます。

  1. スーパーユーザーになります。

  2. vxinstall ユーティリティーを起動します。


    phys-schost# vxinstall
    
  3. vxinstall ユーティリティーでプロンプトが表示されたら、次の選択または入力を実行します。

    • SPARC: VxVM クラスタ機能を有効にする場合は、クラスタ機能のライセンスキーを入力します。

    • 「カスタムインストール (Custom Installation)」を選択します。

    • 起動ディスクはカプセル化しません。

    • ルートディスクグループに追加する任意のディスクを選択します。

    • 自動再起動は行いません。

  4. 作成したルートディスクグループに、複数のノードに接続されているディスクが 1 つ以上含まれている場合は、それらのディスクの保護を無効にする必要があります。

    次のコマンドを使って、ルートディスクグループ内の各共有ディスクの保護を無効にします。


    phys-schost# cldevice set -p default_fencing=nofencing device
    
    -p

    デバイスのプロパティーを指定します。

    default_fencing=nofencing

    指定したデバイスの保護を無効にします。

    デバイスの保護を無効にすると、ルートディスクグループが使用しているディスクが複数のノードに接続されている場合に、不意にノードがそのディスクから誤って保護される状態を防止できます。

    default_fencing プロパティーの詳細については、cldevice(1CL) のマニュアルページを参照してください。

  5. ノードからリソースグループまたはデバイスグループを移動させます。


    phys-schost# clnode evacuate from-node
    
    from-node

    リソースグループまたはデバイスグループを移動させるノード名を指定します。

  6. ノードをリブートします。


    phys-schost# shutdown -g0 -y -i6
    
  7. vxdiskadm コマンドを使用してルートディスクグループに多重ディスクを追加します。

    多重ディスクがあると、ルートディスクグループはディスク障害に対処しやすくなります。手順については、VxVM のマニュアルを参照してください。

次の手順

ディスクグループを作成します。「クラスタへのディスクグループの作成」に進みます。

Procedureカプセル化されたルートディスクをミラー化する

VxVM をインストールしてルートディスクをカプセル化した後で、カプセル化されたルートディスクをミラー化するノードごとにこの作業を行なってください。

始める前に

「SPARC: ルートディスクをカプセル化する」で説明されているとおりにルートディスクをカプセル化していることを確認します。

  1. スーパーユーザーになります。

  2. デバイスのリストを表示します。


    phys-schost# cldevice list -v
    

    次に出力例を示します。


    DID Device          Full Device Path
    
    ----------          ----------------
    
    d1                  phys-schost-1:/dev/rdsk/c0t0d0
    
    d2                  phys-schost-1:/dev/rdsk/c0t6d0
    
    d3                  phys-schost-2:/dev/rdsk/c1t1d0
    
    d3                  phys-schost-1:/dev/rdsk/c1t1d0
    
  3. カプセル化したルートディスクをミラー化します。

    VxVM のマニュアルの手順に従ってください。

    可用性を最大限に高め、管理を容易にするには、ローカルディスクをミラーとして使用してください。詳細なガイドラインについては、「ルートディスクのミラー化」を参照してください。


    注意 – 注意 –

    ルートディスクのミラー化に定足数デバイスを使用することは避けてください。ルートディスクのミラー化に定足数デバイスを使用すると、一定の条件下でルートディスクミラーからノードを起動できない可能性があります。


  4. 表示ルートディスクをミラー化するために使用するデバイスの raw ディスクデバイスグループのノードリストを表示します。

    デバイスグループの名前は、dsk/dN という形式になります (dN は DID デバイス名)。


    phys-schost# cldevicegroup list -v dsk/dN
    
    -v

    詳細な出力を表示します。

    次に出力例を示します。


    Device group        Type                Node list
    
    ------------        ----                ---------
    
    dsk/dN              Local_Disk          phys-schost-1, phys-schost-3
    
  5. ノードリストに複数のノード名が含まれている場合、ミラー化したルートディスクのノードを除くすべてのノードをそのノードリストから削除します。

    ルートディスクをミラー化したノードだけが raw ディスクデバイスグループのノードリストに残るはずです。


    phys-schost# cldevicegroup remove-node -n node dsk/dN
    
    -n node

    デバイスグループのノードリストから削除するノードを指定します。

  6. 複数のノードに接続されている raw ディスクデバイスグループ内のすべてのディスクに対して保護を無効にします。

    デバイスの保護を無効にすると、起動デバイスが複数のノードに接続されている場合に、不意にノードが起動デバイスから誤って保護される状態を防止できます。


    phys-schost# cldevice set -p default_fencing=nofencing device
    
    -p

    デバイスプロパティーに値を設定します。

    default_fencing=nofencing

    指定したデバイスの保護を無効にします。

    default_fencing プロパティーの詳細については、cldevice(1CL) のマニュアルページを参照してください。

  7. カプセル化されたルートディスクをミラー化するクラスタノードごとにこの作業を繰り返します。


例 5–1 カプセル化されたルートディスクのミラー化

次の例は、ノード phys-schost-1 のルートディスクに作成されたミラーを示しています。このミラーは、ディスク c0t0d0 (raw ディスクデバイスグループ名は dsk/d2 ) で作成されています。ディスク c0t0d0 は多重ホストディスクであるため、ノード phys-schost-3 がディスクのノードリストから削除され、保護が無効になります。


phys-schost# cldevice list -v

DID Device          Full Device Path

----------          ----------------

d2                  pcircinus1:/dev/rdsk/c0t0d0

…

Create the mirror by using VxVM procedures

phys-schost# cldevicegroup list -v dsk/d2

Device group        Type                Node list

------------        ----                ---------

dsk/d2              Local_Disk          phys-schost-1, phys-schost-3

phys-schost# cldevicegroup remove-node -n phys-schost-3 dsk/d2

phys-schost# cldevice set -p default_fencing=nofencing c0t0d0

次の手順

ディスクグループを作成します。「クラスタへのディスクグループの作成」に進みます。