Sun Cluster ソフトウェアのインストール (Solaris OS 版)

クラスタの構成

この節では、クラスタにインストールしたソフトウェアの構成に関する情報と手順について説明します。

作業手順: クラスタの構成

次の表に、クラスタを構成する場合の作業を示します。 これらの作業を開始する前に、以下の作業が完了していることを確認してください。

表 2–10 作業手順: クラスタの構成

目次 

参照箇所 

クラスタファイルシステムの作成とマウント 

クラスタファイルシステムを追加する

IP ネットワークマルチパスグループを構成します。 

インターネットプロトコル (IP) マルチパスグループを構成する

(任意) ノードのプライベートホスト名を変更 

プライベートホスト名を変更する

NTP 構成ファイルを作成または変更 

ネットワークタイムプロトコル (NTP) を構成する

(任意) SPARC: Sun Cluster モジュールを Sun Management Center ソフトウェアにインストール

SPARC: Sun Cluster モジュールを Sun Management Center 用にインストールする

Sun Management Center のマニュアル 

サン以外のアプリケーションをインストールし、アプリケーション、データサービス、リソースグループを構成 

Sun Cluster データサービスの計画と管理 (Solaris OS 版)

各アプリケーションのマニュアル 

クラスタファイルシステムを追加する

次の手順は、追加するクラスタファイルシステムごとに行います。 クラスタファイルシステムは、クラスタ内のすべてのノードからアクセスできます。


注意 – 注意 –

ファイルシステムを作成するとき、ディスク上のデータは破壊されます。 必ず、正しいディスクデバイス名を指定してください。 間違ったデバイス名を指定した場合、削除するつもりのないデータが削除されてしまいます。


SunPlex Manager を使用してデータサービスをインストールした場合、1 つまたは複数のクラスタファイルシステム上に SunPlex Manager がすでに作成されています。

  1. ボリューム管理ソフトウェアのインストールと構成が行われていることを確認します。

    ボリューム管理ソフトウェアのインストール手順については、Solstice DiskSuite/Solaris Volume Manager ソフトウェアのインストールと構成 SPARC: VxVM ソフトウェアのインストールと構成 を参照してください。

  2. クラスタ内にある任意のノード上でスーパーユーザーになります。


    ヒント –

    ファイルシステムを迅速に作成するには、ファイルシステムを作成する広域デバイスの現在の主ノードでスーパーユーザーになります。


  3. ファイルシステムを作成します。

    • UFS ファイルシステムの場合、newfs(1M) コマンドを使用します。


      # newfs raw-disk-device
      

    • SPARC: VxFS ファイルシステムの場合、VxFS のマニュアルに記載されている手順に従います。

    下の表 に、引数 raw-disk-device の名前の例を挙げます。 命名規約はボリューム管理ソフトウェアごとに異なるので注意してください。

    ボリュームマネージャ 

    ディスクデバイス名の例 

    説明 

    Solstice DiskSuite または Solaris Volume Manager 

    /dev/md/nfs/rdsk/d1

    nfs ディスクセット内の raw デバイス d1

    SPARC: VERITAS Volume Manager 

    /dev/vx/rdsk/oradg/vol01

    oradg ディスクセット内の raw デバイス vol01

    なし 

    /dev/global/rdsk/d1s3

    raw ディスクデバイス d1s3

  4. クラスタ内の各ノードで、クラスタファイルシステムのマウントポイントディレクトリを作成します。

    そのノードからはクラスタファイルシステムにアクセスしない場合でも、マウントポイントはノードごとに必要です。


    ヒント –

    管理を行いやすくするには、マウントポイントを /global/device-group ディレクトリに作成します。 この場所を使用すると、広域的に利用できるクラスタファイルシステムとローカルファイルシステムを区別しやすくなります。



    # mkdir -p /global/device-group/mountpoint
    
    device-group

    デバイスが属するデバイスグループ名に対応するディレクトリの名前。

    mountpoint

    クラスタファイルシステムをマウントするディレクトリの名前。

  5. クラスタ内の各ノードで、マウントポイント用の /etc/vfstabファイルにエントリを追加します。

    詳細については、vfstab(4) のマニュアルページを参照してください。

    1. 各エントリで、使用する種類のファイルシステムに必要なマウントオプションを指定します。 必要なマウントオプションのリストについては、表 2–11 または表 2–12 を参照してください。


      注 –

      ロギングはすべてのクラスタファイルシステムに必要です。 Solstice DiskSuite トランスメタデバイスや Solaris Volume Manager トランザクショナルボリュームには、logging マウントオプションを使用しないでください。 トランスメタデバイスおよびトランザクショナルボリュームは、独自のロギングを提供します。

      さらに、 Solaris Volume Managertransactional-volume logging (旧 Solstice DiskSuite trans-metadevice logging) は、将来の Solaris リリースで、Solaris オペレーティング環境から削除される予定です。 Solaris UFS logging は、より低い管理条件とオーバーヘッドで、同様の機能を高いパフォーマンスで提供します。


      表 2–11 UFS クラスタファイルシステムのマウントオプション

      マウントオプション 

      説明 

      global

      必須。 このオプションを選択すると、クラスタ内のすべてのノードでファイルシステムが表示されます。

      logging

      必須。 このオプションを選択すると、ロギングが有効になります。

      forcedirectio

      Oracle Parallel Server/Real Application Clusters RDBMS データファイル、ログファイル、および制御ファイルのホストとなるクラスタファイルシステムでは必須


      注 –

      Oracle Parallel Server/Real Application Clusters SPARC ベースクラスタでのみ使用できます。


      syncdir

      任意syncdir を指定した場合、write() システムコールにおいて、ファイルシステムが POSIX に準拠して動作することが保証されます。 write() が成功した場合、このマウントオプションにより、ディスク上に十分な空間が確保されます。

      syncdir を指定しない場合、ファイルシステムの動作は UFS ファイルシステムと同じです。 syncdir を指定しない場合、ディスクブロックを割り当てる (つまり、データをファイルに追加するような) 書き込みの性能が大幅に向上します。 しかし、syncdir を指定しない場合、ファイルを閉じるまでは空間不足 (ENOSPC) の状態が判明しません。

      この場合、ファイルを閉じるときに ENOSPC 状態になるのは、フェイルオーバー後の短い間だけです。 syncdir を指定した場合、POSIX の動作と同様、空間不足状態はファイルを閉じる前に見つかります。


      注 –

      onerror=umount または onerror=lock マウントオプションは使用しないでください。 これらのマウントオプションは、次のような理由からクラスタファイルシステムではサポートされていません。

      • onerror=umount または onerror=lock マウントオプションを使用すると、クラスタファイルシステムがロックされたり、アクセスできなくなる場合があります。 この状況は、クラスタファイルシステムのファイルが破壊された場合に、発生することがあります。

      • onerror=umount または onerror=lock マウントオプションを使用すると、クラスタファイルシステムがマウントできなくなる場合があります。 この状況により、クラスタファイルシステムを使用するアプリケーションがハングアップし、アプリケーションを終了できなくなる場合があります。

      これらの状態から復旧するには、ノードの再起動が必要になることがあります。

      Sun Cluster ソフトウェアでサポートされているのは、onerror=panic マウントオプションだけです。 /etc/vfstab ファイルで onerror=panic マウントオプションを指定する必要はありません。 他の onerror マウントオプションが指定されていない場合は、このマウントオプションがデフォルト値として使用されます。


      UFS マウントポイントの詳細については、mount_ufs(1M) のマニュアルページを参照してください。

      表 2–12 SPARC: VxFS クラスタファイルシステムのマウントオプション

      マウントオプション 

      説明 

      大域 (global)

      必須 このオプションを選択すると、クラスタ内のすべてのノードでファイルシステムが表示されます。

      log

      必須 このオプションを選択すると、ロギングが有効になります。

      VxFS マウントオプションの詳細については、VxFS mount_vxfs のマニュアルページおよび『Sun Cluster のシステム管理 (Solaris OS 版)』の「クラスタファイルシステムの管理の概要」を参照してください。

    2. クラスタファイルシステムを自動的にマウントするには、mount at boot フィールドを yes に設定します。

    3. 各クラスタファイルシステムで、/etc/vfstab エントリの情報が各ノードで同じになるようにします。

    4. 各ノードの /etc/vfstab ファイルのエントリに、デバイスが同じ順序で表示されることを確認します。

    5. ファイルシステムの起動順の依存関係を検査します。

      たとえば、phys-schost-1 がディスクデバイス d0/global/oracle にマウントし、phys-schost-2 がディスクデバイス d1/global/oracle/logs にマウントすると仮定します。 この構成では、phys-schost-1 が起動して /global/oracle をマウントした後にのみ、 phys-schost-2 が起動して /global/oracle/logs をマウントできます。

  6. クラスタ内の任意のノードで sccheck(1M) ユーティリティーを実行します。

    sccheck ユーティリティーは、マウントポイントの存在を確認します。 また、/etc/vfstab ファイルのエントリが、クラスタのすべてのノードで正しいことを確認します。


     # sccheck
    

    エラーが発生していない場合は、何も戻されません。

  7. クラスタファイルシステムをマウントします。


    # mount /global/device-group/mountpoint
    

    • UFS の場合は、クラスタ内の任意のノードからクラスタファイルシステムをマウントします。

    • SPARC: VERITAS File System (VxFS) の場合は、確実にファイルシステムをマウントするために、device-group のカレントマスターからクラスタファイルシステムをマウントします。 さらに、ファイルシステムを正しく確実にマウント解除するには、device-group の現在のマスターからファイルシステムをマウント解除します。


      注 –

      VxFS クラスタファイルシステムを Sun Cluster 環境で管理するには、VxFS クラスタファイルシステムがマウントされている主ノードだけから管理コマンドを実行します。


  8. クラスタ内にある各ノード上で、クラスタファイルシステムがマウントされていることを確認します。

    マウントされているファイルシステムのリストを表示するには、df(1M) コマンドまたは mount(1M) コマンドを使用できます。

  9. IP ネットワークマルチパスグループを構成します。

    インターネットプロトコル (IP) マルチパスグループを構成する に進みます。

例—クラスタファイルシステムを作成する

次の例では、Solstice DiskSuite メタデバイスの /dev/md/oracle/rdsk/d1 にUFS クラスタファイルシステムが作成されます。


# newfs /dev/md/oracle/rdsk/d1
…
 
(各ノード上で)
# mkdir -p /global/oracle/d1
# vi /etc/vfstab
#device           device        mount   FS      fsck    mount   mount
#to mount         to fsck       point   type   ; pass    at boot options
#                     
/dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs 2 yes global,logging
(保存と終了)
 
(1 つのノード上で)
# sccheck
# mount /global/oracle/d1
# mount
…
/global/oracle/d1 on /dev/md/oracle/dsk/d1 read/write/setuid/global/logging/largefiles
on Sun Oct 3 08:56:16 2000

インターネットプロトコル (IP) マルチパスグループを構成する

クラスタの各ノードで次の作業を行います。 SunPlex Manager を使用して Sun Cluster HA for Apache または Sun Cluster HA for NFS をインストールした場合、これらのデータサービスが使用するパブリックネットワークアダプタ用の IP ネットワークマルチパスグループは SunPlex Manager によって構成されています。 残りのパブリックネットワークアダプタについては、ユーザーが IP ネットワークマルチパスグループを構成する必要があります。


注 –

パブリックネットワークアダプタはすべて IP ネットワークマルチパスグループに属する必要があります。


  1. 必要事項を記入したパブリックネットワークのワークシートを用意します。

  2. IP ネットワークマルチパスグループを構成します。

    IP ネットワークマルチパスの管理』(Solaris 8) の「ネットワークマルチパスの導入」または『Solaris のシステム管理 (IP サービス)』(Solaris 9) の「ネットワークマルチパスの管理 (手順)」で説明されている IPv4 アドレスに関する手順を実行します。

    また、以下に示す追加必要条件に従って Sun Cluster 構成の IP ネットワークマルチパスグループを設定します。

    • 各パブリックネットワークアダプタは、マルチパスグループに属している必要があります。

    • マルチパスグループに 2 つ以上のアダプタが含まれている場合は、グループのアダプタごとにテストIP アドレスを設定する必要があります。 マルチパスグループにアダプタが 1 つしかない場合は、テスト IP アドレスを設定する必要はありません。

    • 同一マルチパスグループ内のすべてのアダプタ用のテスト IP アドレスは、単一の IP サブネットに属する必要があります。

    • テスト IP アドレスは高可用性ではないため、通常のアプリケーションでは使用しないようにします。

    • /etc/default/mpathd ファイルの TRACK_INTERFACES_ONLY_WITH_GROUPS の値を yes から no に変更しないでください。

    • マルチパスグループの名前に、必要条件はありません。

  3. プライベートホスト名を変更するかどうかを決定します。

  4. Sun Cluster ソフトウェアをインストールする前に、独自の/etc/inet/ntp.conf ファイルをインストールしたかどうかを確認します。

  5. SPARC ベースのシステムで、クラスタの監視に Sun Cluster を使用しているかどうか、および Sun Management Center を使用する予定があるかどうかを確認します。

    • このソフトウェアを使用してこれらの作業を行う場合は、SPARC: Sun Cluster モジュールを Sun Management Center 用にインストールする へ進んでください。

    • 使用しない場合、Sun 以外のアプリケーションをインストールし、リソースタイプを登録し、リソースグループを設定し、データサービスを構成します。 『Sun Cluster データサービスの計画と管理 (Solaris OS 版)』およびアプリケーションに付属のマニュアルで説明されている手順に従ってください。

プライベートホスト名を変更する

次の作業は、Sun Cluster ソフトウェアのインストール中に割り当てられるデフォルトのプライベートホスト名 (clusternodenodeid-priv) を使用しない場合に実行します。


注 –

この手順は、アプリケーションとデータサービスの構成および起動後には実行しないでください。 アプリケーションやデータサービスは、名前の変更後も引き続き古いプライベートホスト名を使用することがあり、この手順を実行するとホスト名の衝突が発生します。 アプリケーションやデータサービスが実行中の場合は、この手順を実行する前に停止しておいてください。


  1. クラスタ内の 1 つのノードのスーパーユーザになります。

  2. scsetup(1M) ユーティリティーを起動します。


    # scsetup
    

  3. 「メインメニュー」から「プライベートホスト名」を選択します。

  4. 「プライベートホストメニュー」 から 「プライベートホスト名を変更」を選択します。

  5. プロンプトに従って、プライベートホスト名を変更します。

    変更するプライベートホスト名ごとに繰り返します。

  6. 新しいプライベートホスト名を確認します。


    # scconf -pv | grep "プライベートホスト名"
    (phys-schost-1) ノード プライベートホスト名:      phys-schost-1-priv
    (phys-schost-3) ノード プライベートホスト名:      phys-schost-3-priv
    (phys-schost-2) ノード プライベートホスト名:      phys-schost-2-priv

  7. Sun Cluster ソフトウェアをインストールする前に、独自の/etc/inet/ntp.conf ファイルをインストールしたかどうかを確認します。

  8. SPARC ベースのシステムで、クラスタの監視に Sun Cluster を使用しているかどうか、および Sun Management Center を使用する予定があるかどうかを確認します。

    • このソフトウェアを使用してこれらの作業を行う場合は、SPARC: Sun Cluster モジュールを Sun Management Center 用にインストールする へ進んでください。

    • 使用しない場合、Sun 以外のアプリケーションをインストールし、リソースタイプを登録し、リソースグループを設定し、データサービスを構成します。 アプリケーションソフトウェアに付属のマニュアルおよび『Sun Cluster データサービスの計画と管理 (Solaris OS 版)』を参照してください。

ネットワークタイムプロトコル (NTP) を構成する

Sun Cluster ソフトウェアをインストールした後、次の作業を行なって、NTP 構成ファイルを作成および変更します。 また、ノードを既存のクラスタに追加したときや、クラスタ内にあるノードのプライベートホスト名を変更したときも、NTP 構成ファイルを変更する必要があります。

NTP を構成する (つまり、クラスタ内で同期をとる) 場合に重要な第一の条件は、すべてのクラスタノードが同時に同期をとる必要があるということです。 ノード間で同期をとる場合に重要な第二の条件は、個々のノードの時間が正確であるということです。 このような同期についての基本的条件に適合する場合は、NTP はニーズに合わせて自由に構成できます。

クラスタの時刻の詳細については、『Sun Cluster の概念 (Solaris OS 版)』を参照してください。 NTP を Sun Cluster 構成用に構成する場合のガイドラインについては、/etc/inet/ntp.cluster テンプレートファイルを参照してください。

  1. Sun Cluster ソフトウェアをインストールするに、独自の/etc/inet/ntp.conf ファイルをインストールしたかどうかを確認します。

    • インストールした場合、独自の ntp.conf ファイルを変更する必要はありません。 手順 8 に進みます。

    • インストールしていない場合は、手順 2 に進みます。

  2. クラスタノード上にインストールするクラスタノード上でスーパーユーザーになります。

  3. クラスタノード上にインストールする独自の /etc/inet/ntp.conf ファイルがあるかどうかを確認します。

    • ない場合は、手順 4に進みます。

    • ある場合、独自の /etc/inet/ntp.conf ファイルをクラスタのノードにコピーして 手順 6 に進みます。

  4. クラスタのどれか 1 つのノード上で、/etc/inet/ntp.conf.cluster ファイルにあるプライベートホスト名を編集します。


    注 –

    ntp.conf.cluster ファイルの名前を ntp.conf に変更してはいけません。


    ノード上に /etc/inet/ntp.conf.cluster ファイルが存在しない場合、Sun Cluster ソフトウェアの初期インストールに /etc/inet/ntp.conf ファイルが存在する可能性があります。 ノード上に /etc/inet/ntp.conf ファイルが存在しない場合、Sun Cluster ソフトウェアは NTP 構成ファイルとして /etc/inet/ntp.conf.cluster ファイルを作成します。 この場合、その ntp.conf ファイルを次のように編集します。

    1. 各クラスタノードのプライベートホスト名用のエントリが存在することを確認します。

      ノードのプライベートホスト名を変更した場合、新しいプライベートホスト名が NTP 構成ファイルに存在することを確認します。

    2. 使用しないプライベートホスト名を削除します。

      ntp.conf.cluster ファイルに存在しないプライベートホスト名が含まれている可能性があります。 この場合、ノードを再起動するときに、ノードが存在しないプライベートホスト名に接続しようとするため、エラーメッセージが生成されます。

    3. 必要であれば、各自の NTP 条件に適合するように NTP 構成ファイルを変更します。

  5. クラスタ内にあるすべてのノードに NTP 構成ファイルをコピーします。

    NTP 構成ファイルの内容は、すべてのクラスタノードで同じである必要があります。

  6. 各ノード上で、NTP デーモンを停止します。

    各ノード上で停止コマンドが正常に終了するまで待機して、手順 7 に進みます。


    # /etc/init.d/xntpd stop
    

  7. 各ノード上で、NTP デーモンを再起動します。

    • ntp.conf.cluster ファイルを使用する場合は、次のコマンドを実行します。


      # /etc/init.d/xntpd.cluster start
      

      xntpd.cluster 起動スクリプトは最初に、/etc/inet/ntp.conf ファイルを検索します。 このファイルが存在しない場合、起動スクリプトは NTP デーモンを起動せずに即座に終了します。 ntp.conf ファイルは存在しないが、ntp.conf.cluster ファイルは存在する場合、スクリプトは NTP デーモンを起動します。 この場合、スクリプトは ntp.conf.cluster ファイルを NTP 構成ファイルとして使用します。

    • ntp.conf ファイルを使用する場合は、次のコマンドを実行します。


      # /etc/init.d/xntpd start
      
  8. SPARC ベースのシステムで、クラスタの監視に Sun Cluster を使用しているかどうか、および Sun Management Center を使用する予定があるかどうかを確認します。

    • このソフトウェアを使用してこれらの作業を行う場合は、SPARC: Sun Cluster モジュールを Sun Management Center 用にインストールする へ進んでください。

    • 使用しない場合、Sun 以外のアプリケーションをインストールし、リソースタイプを登録し、リソースグループを設定し、データサービスを構成します。 アプリケーションソフトウェアに付属のマニュアルおよび『Sun Cluster データサービスの計画と管理 (Solaris OS 版)』を参照してください。