Sun Cluster 2.2 ソフトウェアのインストール

VERITAS Volume Manager の構成

この章のガイドラインおよび第 2 章「構成の計画」の情報に基づいて、VERITAS Volume Manager (VxVM) 用にローカルディスクおよび多重ホストディスクを構成してください。詳細は、VERITAS のマニュアルを参照してください。

この付録で説明する手順は次のとおりです。

ボリュームマネージャに関するチェックリスト

ボリュームマネージャを構成する前に以下に挙げる条件が満たされていることを確認してください。

ボリュームマネージャを構成したら、次のことを確認してください。

Sun Cluster 用の VxVM の構成

ここで説明する手順に従って、論理ホスト用にディスクグループ、ボリューム、ファイルシステムを構成してください。


注 -

この手順は、高可用性 (HA) 構成に対してのみ使用できます。Oracle Parallel Server と VxVM のクラスタ機能を使用している場合の構成については、VERITAS のマニュアルを参照してください。


Sun Cluster 用に VxVM を構成するには

  1. ボリュームマネージャが管理するすべてのディスクをフォーマットします。

    fmthard(1M) コマンドを使用して、各ディスクに VTOC を作成し、ディスク全体を 1 つのスライス 2 と定義してください。

  2. クラスタノードごとに、ルートディスクグループ (rootdg) を作成します。

    rootdg を作成するための詳細なガイドラインと手順については、VERITAS マニュアルを参照してください。

  3. 各ディスクを初期化して、ボリュームマネージャが利用できるようにします。

    vxdiskadd(1M) または vxinstall(1M) コマンドを使用して、各ディスクを初期化してください。詳細は、VERITAS のマニュアルを参照してください。

  4. (省略可能) ホットスペアを割り当てます。

    各ディスクグループについて、vxedit(1M) コマンドを使用して、各ディスクコントローラ用のホットスペアとしてディスクを 1 つ割り当てます。

  5. VxVM をインストールしたすべてのノードを再起動します。

  6. すべてのディスクグループについて、多重ホストディスク上に、HA 管理ファイルシステム用のボリュームを作成します。

    Sun Cluster では、データサービスに固有の状態または構成情報用に HA 管理ファイルシステムを使用します。

    vxassist(1M) コマンドを使用して、HA 管理ファイルシステム用に、2 つのコントローラにまたがってミラー化されている 10 M バイトのボリュームを作成してください。このボリュームには、diskgroup-stat という名前を付けてください。

  7. すべてのディスクグループについて、HA データサービスが使用するそのほかのボリュームを作成します。

    vxassist(1M) コマンドを使用して、これらのボリュームを作成してください。

  8. 作成したすべてのボリュームを起動します。

    vxvol(1M) を使用してボリュームを起動します。

  9. すべてのボリュームにファイルシステムを作成します。

    必要なファイルシステムの作成についての詳細は、「多重ホストディスク上の VxFS ファイルシステムの構成」を参照してください。

多重ホストディスク上の VxFS ファイルシステムの構成

この節では、多重ホスト VxFS ファイルシステムを構成する手順を説明しています。NFS が共有するファイルシステムを構成する場合は、第 11 章「Sun Cluster HA for NFS のインストールと構成」を参照してください。

多重ホストディスク上に VxFS ファイルシステムを構成するには

  1. mkfs(1M) コマンドを使用して、ボリューム上にファイルシステムを作成します。

    ディスクグループに対して mkfs(1M) コマンドを実行するには、ボリュームを含むディスクグループの所有権が必要になることがあります。そのためには、vxdg(1M) コマンドを使用して、ディスクグループを動作中のノードにインポートします。

    phys-hahost1# vxdg import diskgroup
    
    1. ボリューム上に HA 管理ファイルシステムを作成します。

      構成内の各ボリューム上で mkfs(1M) を実行します。


      phys-hahost1# mkfs -F vxfs /dev/vx/rdsk/diskgroup/diskgroup-stat
      

    2. すべてのボリュームにファイルシステムを作成します。

      これらのボリュームは、論理ホストによってマウントされます。

      phys-hahost1# mkfs -F vxfs /dev/vx/rdsk/diskgroup/volume
      
  2. HA 管理ファイルシステム用のマウントポイントを作成します。

    常に、マウントポイントとして論理ホスト名を使用します。この方法は、DBMS 障害モニターの起動を有効にするために必要です。


    phys-hahost1# mkdir /logicalhost
    

  3. HA 管理ファイルシステムをマウントします。

    phys-hahost1# mount /dev/vx/dsk/diskgroup/diskgroup-stat/logicalhost
    
  4. 手順 1b で作成したデータサービスファイルシステム用のマウントポイントを作成します。

    phys-hahost1# mkdir /logicalhost/volume
    
  5. /etc/opt/SUNWcluster/conf/hanfs/vfstab.logicalhost を編集して、管理ファイルシステムと多重ホスト VxFS ファイルシステムの情報を更新します。

    ディスクグループの使用可能マスターであるすべてのノードの vfstab.logicalhost ファイル内に、すべてのディスクグループ用のエントリが含まれていることを確認してください。また、すべての vfstab.logicalhost ファイルに同じ情報が含まれていることを確認してください。cconsole(1) 機能を使用することによって、クラスタ内の全ノード上の vfstab.logicalhost ファイルを同時に編集できます。

    下記は、/etc/vfstab.logicalhost ファイルの例です。管理ファイルシステムと別の 2 つの VxFS ファイルシステムを示しています。dg1 はディスクグループ名、hahost1 は論理ホスト名です。

    /dev/vx/dsk/dg1/dg1-stat     /dev/vx/rdsk/dg1/dg1-stat     /hahost1 vxfs - yes -
    /dev/vx/dsk/dg1/vol_1        /dev/vx/rdsk/dg1/vol_1        /hahost1/vol_1 vxfs - yes -
    /dev/vx/dsk/dg1/vol_2        /dev/vx/rdsk/dg1/vol_2        /hahost1/vol_1 vxfs - yes -
  6. 手順 3 でマウントした HA 管理ファイルシステムをマウント解除します。

    phys-hahost1# umount /logicalhost
    
  7. ディスクグループをエクスポートします。

    ファイルシステムを作成する前に vxdg(1M) コマンドを使用して、動作中のノード上のディスクグループの所有権を取得した場合は、ファイルシステムの作成を完了した後で所有権を放棄します。

    phys-hahost1# vxdg deport diskgroup
    
  8. ディスクグループのデフォルトマスターにディスクグループをインポートします。

    特定のディスクグループのデフォルトマスターである動作中のノードからディスクグループを作成、構成する方法が最も簡単です。

    各ディスクグループは、-t オプションを使用してデフォルトマスターにインポートします。-t オプションは重要です。-t オプションは、次回の起動時にインポートが持続するのを防止します。

    phys-hahost1# vxdg -t import diskgroup
    
  9. (省略可能) ファイルシステムを NFS で共有可能にする場合は、第 11 章「Sun Cluster HA for NFS のインストールと構成」を参照します。

疑似デバイスメジャー番号の管理

NFS のフェイルオーバー中にクライアント上で「stale file handle (無効なファイルハンドル)」エラーが発生しないようにするには、すべてのクラスタノード上で、vxio ドライバが同じ疑似デバイスメジャー番号を持つようにします。インストールを完了すると、この番号は、/etc/name_to_major ファイルに含まれます。次の手順に従って、疑似デバイスメジャー番号を確認して変更してください。

疑似デバイスメジャー番号を確認するには (VxVM)

  1. すべてのノード上で疑似デバイスメジャー番号を確認します。

    たとえば、次のコマンドを入力します。

    # grep vxio /etc/name_to_major
    vxio 45
  2. すべてのノード上で疑似デバイス番号が同じでない場合は、システム上のすべての活動を停止し、/etc/name_to_major ファイルを編集して、すべてのクラスタノード上で番号を同一にします。

    各ノードについて、/etc/name_to_major ファイル内の番号が固有であることを確認してください。この作業を素早く行う方法として、各ノード上の /etc/name_to_major ファイルから最大割り当て番号を探し出してから、それらの番号の最大値を求めて、1 を加え、その合計値を vxio ドライバに割り当てます。

  3. 番号を変更したら、ただちにシステムを再起動します。

  4. (省略可能) システムからディスクグループエラーが報告され、クラスタが起動しない場合は、次の作業を行う必要があります。

    1. 関係するサブディスクについて、vxedit(1M) コマンドを使用して、「failing」フィールドの設定を「off」に変更します。詳細は、vxedit(1M) のマニュアルページを参照してください。

    2. すべてのボリュームが有効で、動作中であることを確認します。

疑似デバイスメジャー番号を変更するには (VxVM)

  1. VxVM の upgrade_start スクリプトを使用して、ルートディスクのカプセル化を解除します。

    upgrade_start スクリプトは、VxVM の CD-ROM の /Tools/scripts ディレクトリに含まれています。このスクリプトは、1 つのノードからだけ実行してください。次の例の CDROM_path は、VxVM の CD-ROM のこのスクリプトへのパスです。

    phys-hahost1# CDROM_path/upgrade_start
    
  2. ノードを再起動します。

  3. /etc/name_to_major ファイルをエディタで開いて、適切なエントリ (例: /dev/vx/{dsk,rdsk,dmp,rdmp}) を削除します。

  4. ノードを再起動します。

  5. 次のコマンドを実行します。

    phys-hahost1# vxconfigd -k -r reset
    
  6. VxVM の upgrade_finish スクリプトを使用して、再びルートディスクをカプセル化します。

    upgrade_finish スクリプトは、VxVM の CD-ROM の /Tools/scripts ディレクトリにあります。

    phys-hahost1# CDROM_path/upgrade_finish
    
  7. ノードを再起動します。

共有 CCD ボリュームの構成

CCD データベースの格納に使用するディスクグループとボリュームを作成するには、confccdssa(1M) コマンドを使用します。このコマンドは、VERITAS Volume Manager を使用するノード 2 つのクラスタでのみサポートされます。Solstice DiskSuite を使用するクラスタではサポートされていません。


注 -

confccdssa(1M) コマンドを実行するには、ルートディスクグループ (rootdg) を初期化しておく必要があります。


共有 CCD ボリュームを構成するには

  1. CCD 用のボリュームを構成済みであることを確認します。

    両方ノード上で次のコマンドを実行してください。詳細は、scconf(1M) のマニュアルページを参照してください。


    # scconf clustername -S ccdvol
    

  2. 1 つのノード上でだけ confccdssa(1M) コマンドを実行し、CCD 用のディスクを選択します。

    共有 CCD ボリュームを構成する共有ディスク拡張装置から 2 つのディスクを選択してください。

    # /opt/SUNWcluster/bin/confccdssa clustername
    
     On a 2-node configured cluster you may select two disks 
    that are shared between the 2 nodes to store the CCD 
    database in case of a single node failure.
    
     Please, select the disks you want to use from the following list:
    
     Select devices from list.
     Type the number corresponding to the desired selection.
     For example: 1<CR>
    
     1) SSA:00000078C9BF
     2) SSA:00000080295E
     3) DISK:c3t32d0s2:9725B71845
     4) DISK:c3t33d0s2:9725B70870
     Device 1: 3
    
     Disk c3t32d0s2 with serial id 9725B71845 has been selected
     as device 1.
    
     Select devices from list.
     Type the number corresponding to the desired selection.
     For example: 1<CR>
    
     1) SSA:00000078C9BF
     2) SSA:00000080295E
     3) DISK:c3t33d0s2:9725B70870
     4) DISK:c3t34d0s2:9725B71240
     Device 2: 4
    
     Disk c3t34d0s2 with serial id 9725B71240 has been selected
     as device 2.
    
     newfs: construct a new file system /dev/vx/rdsk/sc_dg/ccdvol:
     (y/n)? y
    ...

    これ以降、選択した 2 つのディスクを別のディスクグループに含めることはできません。選択すると、ボリュームが作成され、ファイルシステムが配置されます。詳細は、confccdssa(1M) のマニュアルページを参照してください。