Sun Cluster 3.1 10/03 ソフトウェアのインストール

クラスタの構成

次の表に、クラスタを構成する場合の作業を示します。これらの作業を開始する前に、以下の作業が完了していることを確認してください。

表 2–4 作業マップ: クラスタの構成

作業 

参照箇所 

クラスタファイルシステムの作成とマウント 

クラスタファイルシステムを追加する

IP マルチパスグループを構成します。 

インターネットプロトコル (IP) マルチパスグループを構成する

(任意) ノードのプライベートホスト名を変更 

プライベートホスト名を変更する

NTP 構成ファイルを作成または変更 

ネットワークタイムプロトコル (NTP) を構成する

(任意) Sun Cluster モジュールを Sun Management Center ソフトウェアにインストール

Sun Management Center 用の Sun Cluster モジュールのインストール

Sun Management Center のマニュアル 

サン以外のアプリケーションをインストールし、アプリケーション、データサービス、リソースグループを構成 

Sun Cluster 3.1 データサービスの計画と管理

各アプリケーションのマニュアル 

クラスタファイルシステムを追加する

次の手順は、追加するクラスタファイルシステムごとに行います。


Caution – Caution –

ファイルシステムを作成するとき、ディスク上のデータは破壊されます。正しいディスクデバイス名を指定していることを確認してください。間違ったデバイス名を指定した場合、削除するつもりのないデータが削除されてしまいます。


SunPlex Manager を使用してデータサービスをインストールした場合、1 つまたは複数のクラスタファイルシステム上に SunPlex Manager がすでに作成されています。

  1. ボリューム管理ソフトウェアのインストールと構成が行われていることを確認します。

    ボリューム管理ソフトウェアのインストール手順については、Solstice DiskSuite/Solaris Volume Manager ソフトウェアのインストールと構成VxVM ソフトウェアのインストールと構成を参照してください。

  2. クラスタ内にある任意のノード上でスーパーユーザーになります。


    ヒント –

    ファイルシステムを迅速に作成するには、ファイルシステムを作成する広域デバイスの現在の主ノード上でスーパーユーザーになります。


  3. ファイルシステムを作成します。

    • VxFS ファイルシステムの場合、 VxFS のマニュアルに記載されている手順に従います。

    • UFS ファイルシステムの場合、newfs(1M) コマンドを使用します。


      # newfs raw-disk-device
      

    下の表 に、引数 raw-disk-device の名前の例を挙げます。命名規則はボリュームマネージャごとに異なるので注意してください。

    ボリュームマネージャ 

    ディスクデバイス名の例 

    説明 

    Solstice DiskSuite/Solaris Volume Manager 

    /dev/md/oracle/rdsk/d1

    oracle ディスクセット内の raw デバイス d1

    VERITAS Volume Manager 

    /dev/vx/rdsk/oradg/vol01

    oradg ディスクセット内の raw デバイス vol01

    なし 

    /dev/global/rdsk/d1s3

    raw ディスクデバイス d1s3

  4. クラスタ内にある各ノード上で、クラスタファイルシステムごとにマウントポイントを作成します。

    ノード上でクラスタファイルシステムがアクセスされない場合でも、マウントポイントはノードごとに必要です。


    ヒント –

    管理を行いやすくするには、マウントポイントを /global/device-group ディレクトリに作成します。この場所を使用すると、広域的に利用できるクラスタファイルシステムとローカルファイルシステムを区別しやすくなります。



    # mkdir -p /global/device-group/mountpoint
    
    device-group

    デバイスが属するデバイスグループ名に対応するディレクトリの名前。

    mountpoint

    クラスタファイルシステムをマウントするディレクトリの名前。

  5. クラスタ内の各ノードで、マウントポイント用の /etc/vfstab ファイルにエントリを追加します。

    詳細については、vfstab(4) のマニュアルページを参照してください。

    1. 次の必要なマウントオプションを使用します。


      注 –

      ロギングはすべてのクラスタファイルシステムに必要です。


      • Solaris UFS ロギング – globallogging マウントオプションを使用します。Oracle Parallel Server/Real Application Clusters RDBMS データファイル、ログファイル、および制御ファイルによる使用については、forcedirectio マウントオプションも使用します。 UFS マウントポイントの詳細については、mount_ufs(1M) のマニュアルページを参照してください。


        注 –

        syncdir マウントオプションは UFS クラスタファイルシステムには必要ありません。

        • syncdir を指定した場合、write() システムコールにおいて、ファイルシステムが POSIX に準拠して動作することが保証されます。write() が成功した場合、このマウントオプションにより、ディスク上に十分な空間が確保されます。

        • syncdir を指定しない場合、ファイルシステムの動作は UFS ファイルシステムと同じです。syncdir を指定しない場合、ディスクブロックを割り当てる (つまり、データをファイルに追加するような) 書き込みの性能が大幅に向上します。しかし、syncdir を指定しない場合、ファイルを閉じるまでは空間不足 (ENOSPC) の状態が判明しません。

        この場合、ファイルを閉じるときに ENOSPC 状態になるのは、フェイルオーバー後の短い間だけです。syncdir (つまり、POSIX の動作) を指定した場合、空間不足状態はファイルを閉じる前に見つかります。


      • Solstice DiskSuite トランスメタデバイスまたは Solaris Volume Manager トランザクショナルボリューム – global マウントオプションのみを使用します。logging は、使用しません。


        注 –

        Solaris Volume Managerトランザクションボリュームロギング (旧 Solstice DiskSuite トランスメタデバイスロギング) は、将来の Solaris リリースで、Solaris オペレーティング環境から削除される予定です。Solaris UFS ロギング は、より低い管理条件とオーバーヘッドで、同様の機能を高いパフォーマンスで提供します。


        トランスメタデバイスの設定方法については、Solstice DiskSuite のマニュアルを参照してください。また、トランザクショナルボリュームの設定方法については、Solaris Volume Manager のマニュアルを参照してください。

      • VxFS ロギング – globallog マウントオプションを使用します。VxFS マウントオプションの詳細については、VxFS mount_vxfs のマニュアルページおよび『Sun Cluster 3.1 10/03 のシステム管理』の「クラスタファイルシステムの管理の概要」を参照してください。

    2. クラスタファイルシステムを自動的にマウントするには、mount at boot フィールドを yes に設定します。

    3. クラスタファイルシステムごとに、各ノードの /etc/vfstab ファイルにあるエントリの情報が同じであることを確認します。

    4. 各ノードの /etc/vfstab ファイルにあるエントリのデバイスの順番が同じであることを確認します。

    5. ファイルシステムの起動順の依存関係を検査します。

      たとえば、phys-schost-1 がディスクデバイス d0/global/oracle にマウントし、phys-schost-2 がディスクデバイス d1/global/oracle/logs にマウントすると仮定します。この構成では、phys-schost-1 が起動して /global/oracle をマウントした後にのみ、 phys-schost-2 が起動して /global/oracle/logs をマウントできます。

  6. クラスタ内の任意のノードで、マウントポイントが存在することを確認します。また、/etc/vfstab ファイルのエントリが、クラスタのすべてのノードで正しいことを確認します。


    # sccheck
    

    エラーが発生していない場合は、何も戻されません。

  7. クラスタ内にある任意のノードから、クラスタファイルシステムをマウントします。


    # mount /global/device-group/mountpoint
    


    注 –

    VERITAS File System (VxFS) の場合、ファイルシステムのマウントを正しく行うためには、device-group の現在のマスターからマウントしてください。さらに、VxFS ファイルシステムを正しく確実にマウント解除するには、device-group の現在のマスターからファイルシステムをマウント解除します。


  8. クラスタ内にある各ノード上で、クラスタファイルシステムがマウントされていることを確認します。

    マウントされているファイルシステムのリストを表示するには、df(1M) コマンドまたは mount(1M) コマンドを使用できます。


    注 –

    VxFS クラスタファイルシステムを Sun Cluster 環境で管理するには、VxFS クラスタファイルシステムがマウントされている主ノードだけから管理コマンドを実行します。


  9. IP マルチパスグループを構成します。

    インターネットプロトコル (IP) マルチパスグループを構成する に進みます。

例—クラスタファイルシステムを作成する

次の例では、Solstice DiskSuite メタデバイスの /dev/md/oracle/rdsk/d1 にUFS クラスタファイルシステムが作成されます。


# newfs /dev/md/oracle/rdsk/d1
…
 
(各ノード上で実行する)
# mkdir -p /global/oracle/d1
# vi /etc/vfstab
#device           device        mount   FS      fsck    mount   mount
#to mount         to fsck       point   type   ; pass    at boot options
#                     
/dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs 2 yes global,logging
(保存して終了する)
 
(1 つのノード上で実行する)
# sccheck
# mount /global/oracle/d1
# mount
…
/global/oracle/d1 on /dev/md/oracle/dsk/d1 read/write/setuid/global/logging/largefiles 
on Sun Oct 3 08:56:16 2000

インターネットプロトコル (IP) マルチパスグループを構成する

クラスタの各ノードで次の作業を行います。SunPlex Manager を使用して Sun Cluster HA for Apache または Sun Cluster HA for NFS をインストールした場合、これらのデータサービスが使用するパブリックネットワークアダプタ用の IP マルチパスグループは SunPlex Manager によって構成されています。残りのパブリックネットワークアダプタについては、ユーザーが IP マルチパスグループを構成する必要があります。


注 –

パブリックネットワークアダプタはすべて IP マルチパスグループに属する必要があります。


  1. 必要事項を記入したパブリックネットワークのワークシートを用意します。

  2. IP マルチパスグループを構成します。

    IP ネットワークマルチパスの管理』(Solaris 8) の「ネットワークマルチパスの導入」または『Solaris のシステム管理 (IP サービス)』(Solaris 9) の「ネットワークマルチパスの管理 (手順)」で説明されている IPv4 アドレスに関する手順を実行します。

    また、以下に示す追加ガイドラインに従って Sun Cluster 構成の IP マルチパスグループを設定します。

    • 各パブリックネットワークアダプタは、マルチパスグループに属している必要があります。

    • 2 つ以上のアダプタを含むマルチパスグループについては、そのグループ内の各アダプタにテスト IP アドレスを構成する必要があります。マルチパスグループに含まれるアダプタが 1 つだけの場合には、テスト IP アドレスを構成する必要はありません。

    • 同一マルチパスグループ内のすべてのアダプタ用のテスト IP アドレスは、単一の IP サブネットに属する必要があります。

    • テスト IP アドレスは高可用性ではないため、通常のアプリケーションでは使用しないようにします。

    • /etc/default/mpathd ファイルの TRACK_INTERFACES_ONLY_WITH_GROUPS の値を yes から no に変更しないでください。

    • マルチパスグループの名前に、必要条件はありません。

  3. プライベートホスト名を変更するかどうかを決定します。

  4. Sun Cluster ソフトウェアをインストールする前に、独自の/etc/inet/ntp.conf ファイルをインストールしたかどうかを確認します。

  5. クラスタの監視に Sun Management Center を使用するかどうかを決定します。

    • 使用する場合は、Sun Management Center 用の Sun Cluster モジュールのインストールに進みます。

    • 使用しない場合、Sun 以外のアプリケーションをインストールし、リソースタイプを登録し、リソースグループを設定し、データサービスを構成します。『Sun Cluster 3.1 データサービスの計画と管理』およびアプリケーションに付属のマニュアルで説明されている手順に従ってください。

プライベートホスト名を変更する

次の作業は、Sun Cluster ソフトウェアのインストール中に割り当てられるデフォルトのプライベートホスト名 (clusternodenodeid-priv) を使用しない場合に実行します。


注 –

この手順は、アプリケーションとデータサービスの構成および起動後には実行しないでください。アプリケーションやデータサービスは、名前の変更後も引き続き古いプライベートホスト名を使用することがあり、この手順を実行するとホスト名の衝突が発生します。アプリケーションやデータサービスが実行中の場合は、この手順を実行する前に停止しておいてください。


  1. クラスタ内の 1 つのノードのスーパーユーザになります。

  2. scsetup(1M) ユーティリティーを起動します。


    # scsetup
    

  3. プライベートホスト名に対して作業を行うには、5 (プライベートホスト名) を入力します。

  4. プライベートホスト名を変更するには、1 (プライベートホスト名を変更) を入力します。

  5. プロンプトに従って、プライベートホスト名を変更します。

    変更するプライベートホスト名ごとに繰り返します。

  6. 新しいプライベートホスト名を確認します。


    # scconf -pv | grep "private hostname"
    (phys-schost-1) Node private hostname:      phys-schost-1-priv
    (phys-schost-3) Node private hostname:      phys-schost-3-priv
    (phys-schost-2) Node private hostname:      phys-schost-2-priv

  7. Sun Cluster ソフトウェアをインストールする前に、独自の/etc/inet/ntp.conf ファイルをインストールしたかどうかを確認します。

  8. クラスタの監視に Sun Management Center を使用するかどうかを決定します。

    • 使用する場合は、Sun Management Center 用の Sun Cluster モジュールのインストールに進みます。

    • 使用しない場合、Sun 以外のアプリケーションをインストールし、リソースタイプを登録し、リソースグループを設定し、データサービスを構成します。アプリケーションソフトウェアに付属のマニュアルおよび『Sun Cluster 3.1 データサービスの計画と管理』を参照してください。

ネットワークタイムプロトコル (NTP) を構成する

Sun Cluster ソフトウェアをインストールした後、次の作業を行なって、NTP 構成ファイルを作成および変更します。また、ノードを既存のクラスタに追加したときや、クラスタ内にあるノードのプライベートホスト名を変更したときも、NTP 構成ファイルを変更する必要があります。


注 –

NTP を構成する (つまり、クラスタ内で同期をとる) 場合に重要な第一の条件は、すべてのクラスタノードが同時に同期をとる必要があるということです。ノード間で同期をとる場合に重要な第二の条件は、個々のノードの時間が正確であるということです。このような同期についての基本的条件に適合する場合は、NTP はニーズに合わせて自由に構成できます。

クラスタの時刻の詳細については、『Sun Cluster 3.1 10/03 の概念』を参照してください。NTP を Sun Cluster 構成用に構成する場合のガイドラインについては、/etc/inet/ntp.cluster テンプレートファイルを参照してください。


  1. Sun Cluster ソフトウェアをインストールするに、独自の/etc/inet/ntp.conf ファイルをインストールしたかどうかを確認します。

    • インストールした場合、独自の ntp.conf ファイルを変更する必要はありません。手順 8 に進みます。

    • インストールしていない場合は、手順 2 に進みます。

  2. クラスタノード上にインストールするクラスタノード上でスーパーユーザーになります。

  3. クラスタノード上にインストールする独自の /etc/inet/ntp.conf ファイルがあるかどうかを確認します。

    • ない場合は、手順 4 に進みます。

    • ある場合、独自の /etc/inet/ntp.conf ファイルをクラスタのノードにコピーして 手順 6 に進みます。


      注 –

      すべてのクラスタノードは同時に同期をとる必要があります。


  4. クラスタのどれか 1 つのノード上で、/etc/inet/ntp.conf.cluster ファイルにあるプライベートホスト名を編集します。

    ノード上に /etc/inet/ntp.conf ファイルが存在しない場合、Sun Cluster ソフトウェアは NTP 構成ファイルとして /etc/inet/ntp.conf.cluster ファイルを作成します。


    注 –

    ntp.conf.cluster ファイルの名前を ntp.conf に変更してはいけません。


    ノード上に /etc/inet/ntp.conf.cluster ファイルが存在しない場合、Sun Cluster ソフトウェアの初期インストールに /etc/inet/ntp.conf ファイルが存在する可能性があります。この場合、その ntp.conf ファイルを次のように編集します。

    1. 各クラスタノードのプライベートホスト名用のエントリが存在することを確認します。

    2. 使用しないプライベートホスト名を削除します。

      ntp.conf.cluster ファイルに存在しないプライベートホスト名が含まれている可能性があります。この場合、ノードを再起動するときに、ノードが存在しないプライベートホスト名に接続しようとするため、エラーメッセージが生成されます。

    3. ノードのプライベートホスト名を変更した場合、新しいプライベートホスト名が NTP 構成ファイルに存在することを確認します。

    4. 必要であれば、各自の NTP 条件に適合するように NTP 構成ファイルを変更します。

  5. クラスタ内にあるすべてのノードに NTP 構成ファイルをコピーします。

    NTP 構成ファイルの内容は、すべてのクラスタノードで同じである必要があります。

  6. 各ノード上で、NTP デーモンを停止します。

    各ノード上で停止コマンドが正常に終了するまで待機して、手順 7 に進みます。


    # /etc/init.d/xntpd stop
    

  7. 各ノード上で、NTP デーモンを再起動します。

    • ntp.conf.cluster ファイルを使用する場合は、次のコマンドを実行します。


      # /etc/init.d/xntpd.cluster start
      

      xntpd.cluster 起動スクリプトは最初に、/etc/inet/ntp.conf ファイルを検索します。このファイルが存在しない場合、起動スクリプトは NTP デーモンを起動せずに即座に終了します。ntp.conf ファイルは存在しないが、ntp.conf.cluster ファイルは存在する場合、スクリプトは ntp.conf.cluster ファイルを NTP 構成ファイルとして使用して NTP デーモンを起動します。

    • ntp.conf ファイルを使用する場合は、次のコマンドを実行します。


      # /etc/init.d/xntpd start
      
  8. クラスタの監視に Sun Management Center を使用するかどうかを決定します。

    • 使用する場合は、Sun Management Center 用の Sun Cluster モジュールのインストールに進みます。

    • 使用しない場合、Sun 以外のアプリケーションをインストールし、リソースタイプを登録し、リソースグループを設定し、データサービスを構成します。アプリケーションソフトウェアに付属のマニュアルおよび『Sun Cluster 3.1 データサービスの計画と管理』を参照してください。