Sun Cluster 3.0 5/02 補足情報

クラスタの構成

以下の情報は、このUpdate リリース以降のすべての更新に適用されます。

クラスタファイルシステムを追加する方法 (5/02)

次の 手順 2手順 4、および 手順 8 への変更は Sun Cluster 3.0 5/02 リリースから導入され、以降のすべての Sun Cluster 3.0 ソフトウェアの更新に適用されます。

次の手順は、追加するクラスタファイルシステムごとに行います。


Caution - Caution -

ファイルシステムを作成するとき、ディスク上のデータは破壊されます。正しいディスクデバイス名を指定していることを確認してください。間違ったデバイス名を指定した場合、削除するつもりのないデータが削除されてしまいます。


SunPlex Manager を使用してデータサービスをインストールした場合、クラスタファイルシステムを作成した共有ディスクに十分な大きさがあった場合には、1 つまたは複数のクラスタファイルシステムがすでに存在しています。

  1. ボリュームマネージャソフトウェアがインストールおよび構成されていることを確認します。

    ボリュームマネージャのインストール手順については、『Sun Cluster 3.0 12/01 ソフトウェアのインストール』の「Solstice DiskSuite ソフトウェアのインストールと構成」と「VxVM ソフトウェアのインストールと構成」を参照してください。

  2. VERITAS File System (VxFS) ソフトウェアをインストールする予定があるかどうかを確認します。

    • インストールする予定がない場合、手順 3 に進みます。

    • インストールする予定の場合、次の手順を行います。

    1. VxFS のインストールマニュアルに従って、VxFS ソフトウェアをクラスタの各ノード上にインストールします。

    2. 各ノード上にある /etc/system ファイルで、次のエントリの設定値を 0x4000 から 0x6000 に変更します。


      set rpcmod:svc_default_stksize=0x6000

      Sun Cluster ソフトウェアには、少なくとも 0x6000 のデフォルトスタックサイズが必要です。VxFS をインストールすると、この設定が 0x4000 に変更されるので、VxFS のインストールが終わった後、この設定を手動で 0x6000 に戻す必要があります。

  3. クラスタ内にある任意のノード上でスーパーユーザーになります。


    ヒント -

    より早くファイルシステムを作成するためには、ファイルシステムを作成する予定の広域デバイスの現在の主ノード上でスーパーユーザーになります。


  4. ファイルシステムを作成します。

    • VxFS ファイルシステムの場合、VxFS のマニュアルに記載されている手順に従います。

    • UFS ファイルシステムの場合、newfs(1M) コマンドを使用します。


      # newfs raw-disk-device
      

    次の表に、raw-disk-device 引数の名前の例を示します。命名規則はボリュームマネージャごとに異なるので注意してください。

    表 4-3 raw ディスクデバイス名の例

    ボリュームマネージャ 

    ディスクデバイス名の例 

    説明 

    Solstice DiskSuite 

    /dev/md/oracle/rdsk/d1

    oracle ディスクセット内の raw デバイス d1

    VERITAS Volume Manager 

    /dev/vx/rdsk/oradg/vol01

    oradg ディスクセット内の raw デバイス vol01

    なし 

    /dev/global/rdsk/d1s3

    raw ディスクデバイス d1s3

  5. クラスタ内にある各ノード上で、クラスタファイルシステムごとにマウントポイントを作成します。

    ノード上でクラスタファイルシステムがアクセスされない場合でも、マウントポイントはノードごとに必要です。


    ヒント -

    管理しやすくするために、マウントポイントは /global/device-group ディレクトリに作成します。この場所を使用すると、広域的に利用できるクラスタファイルシステムとローカルファイルシステムを区別しやすくなります。



    # mkdir -p /global/device-group/mountpoint
    
    device-group

    デバイスが属するデバイスグループ名に対応するディレクトリの名前。

    mountpoint

    クラスタファイルシステムをマウントするディレクトリの名前。

  6. クラスタ内にある各ノード上で、/etc/vfstab ファイルにマウントポイント用のエントリを追加します。

    1. 次の必須マウントオプションを使用します。

      ロギングはすべてのクラスタファイルシステムに必要です。

      • Solaris UFS logging - global,logging マウントオプションを使用します。UFS マウントポイントの詳細については、mount_ufs(1M) のマニュアルページを参照してください。


        注 -

        syncdir マウントオプションは UFS クラスタファイルシステムには必要ありません。syncdir を指定した場合は、write() システムコールにおいてファイルシステムが POSIX に準拠して動作することが保証される、つまり、write() が成功した場合はディスク上に空間が確実に確保されます。syncdir を指定しない場合、ファイルシステムの動作は UFS ファイルシステムと同じです。syncdir を指定しない場合、ディスクブロックを割り当てる (つまり、データをファイルに追加するような) 書き込みの性能が大幅に向上します。しかし、syncdir を指定しない場合、ファイルを閉じるまでは空間不足 (ENOSPC) の状態が判明しません。この場合、ファイルを閉じるときに ENOSPC 状態になるのは、フェイルオーバー後の短い間だけです。syncdir (つまり、POSIX の動作) を指定した場合、空間不足状態はファイルを閉じる前に見つかります。


      • Solstice DiskSuite トランスメタデバイス - global マウントオプションを使用します。logging マウントオプションは使用しません。trans メタデバイスを設定する方法については、Solstice DiskSuite のマニュアルを参照してください。

      • VxFS ロギング - global, log マウントオプションを使用します。VxFS マウントオプションの詳細については、mount_vxfs(1M) のマニュアルページを参照してください。

    2. クラスタファイルシステムを自動的にマウントするには、mount at boot フィールドを yes に設定します。

    3. クラスタファイルシステムごとに、各ノードの /etc/vfstab ファイルにあるエントリの情報が同じであることを確認します。

    4. 各ノードの /etc/vfstab ファイルにあるエントリのデバイスの順番が同じであることを確認します。

    5. ファイルシステムの起動順の依存関係を検査します。

      たとえば、phys-schost-1 がディスクデバイス d0/global/oracle にマウントし、phys-schost-2 がディスクデバイス d1/global/oracle/logs にマウントすると仮定します。この構成では、phys-schost-2/global/oracle/logs を起動およびマウントできるのは、phys-schost-1/global/oracle を起動およびマウントした後だけです。

    詳細については、vfstab(4) のマニュアルページを参照してください。

  7. クラスタ内にある任意のノード上で、マウントポイントが存在し、クラスタ内にあるすべてのノード上で /etc/vfstab ファイルのエントリが正しいことを確認します。


    # sccheck
    

    エラーが発生していない場合は、何も戻されません。

  8. クラスタ内にある任意のノードから、クラスタファイルシステムをマウントします。


    # mount /global/device-group/mountpoint
    


    注 -

    VERITAS File System (VxFS) の場合、ファイルシステムを正しく確実にマウントするには、device-group の現在のマスターからファイルシステムをマウントします。さらに、ファイルシステムを正しく確実にマウント解除するには、device-group の現在のマスターからファイルシステムをマウント解除します。


  9. クラスタ内にある各ノード上で、クラスタファイルシステムがマウントされていることを確認します。

    マウントされているファイルシステムのリストを表示するには、df(1M) コマンドまたは mount(1M) コマンドを使用できます。

    Sun Cluster 環境で VxFS クラスタファイルシステムを管理する場合、管理コマンドを実行できるのは、VxFS クラスタファイルシステムがマウントされている主ノードだけです。

  10. クラスタノードが複数のパブリックサブネットに接続されているかどうかを確認します。

    • 接続されている場合、『Sun Cluster 3.0 12/01 ソフトウェアのインストール』の「追加のパブリックネットワークアダプタを構成する」に進んで、追加のパブリックネットワークアダプタを構成します。

    • 接続されていない場合、『Sun Cluster 3.0 12/01 ソフトウェアのインストール』の「パブリックネットワーク管理 (PNM) を構成する」に進んで PNM を構成し、NAFO グループを設定します。

例-クラスタファイルシステムを作成する

次の例では、UFS クラスタファイルシステムを Solstice DiskSuite メタデバイス /dev/md/oracle/rdsk/d1 上に作成します。


# newfs /dev/md/oracle/rdsk/d1
...
 
(各ノード上で実行する)
# mkdir -p /global/oracle/d1
# vi /etc/vfstab
#device           device        mount   FS      fsck    mount   mount
#to mount         to fsck       point   type    pass    at boot options
#                       
/dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs 2 yes global,logging
(保存して終了する)
 
(1 つのノード上で実行する)
# sccheck
# mount /global/oracle/d1
# mount
...
/global/oracle/d1 on /dev/md/oracle/dsk/d1 read/write/setuid/global/logging/
largefiles on Sun Oct 3 08:56:16 2000

Network Time Protocol (NTP) を更新する方法 (5/02)

次の変更は、Sun Cluster 3.0 5/02 Update リリースから導入されます。この変更は、今回を含む Sun Cluster 3.0 ソフトウェアの今後のすべての Update リリースに適用されます。

Sun Cluster ソフトウェアをインストールした後、次の作業を行なって、NTP 構成ファイルを作成および変更します。また、ノードを既存のクラスタに追加したときや、クラスタ内にあるノードのプライベートホスト名を変更したときも、NTP 構成ファイルを変更する必要があります。


注 -

NTP を構成する (つまり、クラスタ内で同期をとる) 場合に重要な第一の条件は、すべてのクラスタノードが同時に同期をとる必要があるということです。ノード間で同期をとる場合に重要な第二の条件は、個々のノードの時間が正確であるということです。このような同期についての基本的条件に適合する限り、NTP はニーズに合わせて自由に構成できます。クラスタ内の時間の詳細については、『Sun Cluster 3.0 12/01 の概念』を参照してください。NTP を Sun Cluster 構成に合わせて構成する方法の詳細については、/etc/inet/ntp.cluster テンプレートファイルを参照してください。


  1. Sun Cluster ソフトウェアをインストールするに、独自の /etc/inet/ntp.conf ファイルをインストールしたかどうかを確認します。

    • インストールした場合、独自の ntp.conf ファイルを変更する必要はありません。手順 8 に進みます。

    • インストールしていない場合、手順 2 に進みます。

  2. クラスタノード上でスーパーユーザーになります。

  3. 独自の /etc/inet/ntp.conf ファイルをクラスタノード上にインストールしたかどうかを確認します。

    • インストールした場合、独自の /etc/inet/ntp.conf ファイルをクラスタのノードにコピーして、手順 6 に進みます。


      注 -

      すべてのクラスタノードは同時に同期をとる必要があります。


    • インストールしていない場合、手順 4 に進んで、/etc/inet/ntp.conf.cluster ファイルを編集します。Sun Cluster のインストール時に /etc/inet/ntp.conf ファイルが見つからない場合、Sun Clusterソフトウェアは NTP 構成ファイルとしてこのファイルを作成します。ntp.conf.cluster ファイルの名前を ntp.conf に変更してはいけません。

  4. クラスタのどれか 1 つのノード上で、/etc/inet/ntp.conf.cluster ファイルにあるプライベートホスト名を編集します。

    ノード上に /etc/inet/ntp.conf.cluster ファイルが存在しない場合、Sun Cluster ソフトウェアの初期インストールに /etc/inet/ntp.conf ファイルが存在する可能性があります。この場合、その ntp.conf ファイルを次のように編集します。

    1. 各クラスタノードのプライベートホスト名用のエントリが存在することを確認します。

    2. 使用しないプライベートホスト名を削除します。

      存在しないプライベートホスト名が ntp.conf.cluster ファイルに存在する場合、ノードが再起動するときに、このような存在しないプライベートホスト名に接続しようとして、エラーメッセージが生成されます。

    3. ノードのプライベートホスト名を変更した場合、新しいプライベートホスト名が NTP 構成ファイルに存在することを確認します。

    4. 必要であれば、各自の NTP 条件に適合するように NTP 構成ファイルを変更します。

  5. クラスタ内にあるすべてのノードに NTP 構成ファイルをコピーします。

    ntp.conf.cluster ファイルの内容は、すべてのクラスタノードで同じである必要があります。

  6. 各ノード上で、NTP デーモンを停止します。

    各ノード上で停止コマンドが正常に終了するまで待機して、手順 7 に進みます。


    # /etc/init.d/xntpd stop
    

  7. 各ノード上で、NTP デーモンを再起動します。

    • ntp.conf.cluster の場合、次のコマンドを実行します。


      # /etc/init.d/xntpd.cluster start
      

      xntpd.cluster 起動スクリプトは最初に、/etc/inet/ntp.conf ファイルを検索します。このファイルが存在しない場合、起動スクリプトは NTP デーモンを起動せずに即座に終了します。ntp.conf が存在しないが、ntp.conf.cluster は存在する場合、NTP デーモンは ntp.conf.cluster を NTP 構成ファイルとして起動します。

    • ntp.conf の場合、次のコマンドを実行します。


      # /etc/init.d/xntpd start
      

  8. リソースグループを構成したり、クラスタを監視したりするために、Sun Management Center を使用する予定があるかどうかを確認します。

    • 使用する予定の場合、『Sun Cluster 3.0 12/01 ソフトウェアのインストール』の「Sun Management Center 用のSun Cluster モジュールのインストール」に進みます。

    • 使用する予定のない場合、Sun 以外のアプリケーションをインストールし、リソースタイプを登録し、リソースグループを設定し、データサービスを構成します。詳細については、アプリケーションソフトウェアに付属するマニュアルと『Sun Cluster 3.0 12/01 データサービスのインストールと構成』を参照してください。

Sun Management Center を起動する方法(5/02)

次の変更は、Sun Cluster 3.0 5/02 Update リリースから導入されます。この変更は、今回を含む Sun Cluster 3.0 ソフトウェアの今後のすべての Update リリースに適用されます。

手順 2 実行後 - 手順 2 の後で、次の手順を新しい手順 3 として実行します。元の手順 3 は新しく手順 4 になります。

    Sun Management Center エージェントマシン (クラスタノード) 上で、scsymon_srv デーモンが動作していることを確認します。


    # ps -ef | grep scsymon_srv
    

    任意のクラスタノード上で scsymon_srv デーモンが動作していない場合、そのノード上でデーモンを起動します。


    # /usr/cluster/lib/scsymon/scsymon_srv