Sun Cluster 3.0 U1 ソフトウェアのインストール

クラスタの構成

次の表に、クラスタを構成する場合の作業を示します。これらの作業を開始する前に、以下の作業が完了していることを確認してください。

表 2-6 作業マップ: クラスタの構成

作業 

参照箇所 

クラスタファイルシステムの作成とマウントを行う 

「クラスタファイルシステムを追加する」

(任意) 追加のパブリックネットワークアダプタを構成する 

「追加のパブリックネットワークアダプタを構成する」

パブリックネットワーク管理 (PNM) を構成し、ネットワークアダプタフェイルオーバー (NAFO) グループを設定する 

「パブリックネットワーク管理 (PNM) を構成する」

(任意) ノードのプライベートホスト名を変更する 

「プライベートホスト名を変更する」

/etc/inet/ntp.conf ファイルを編集してノード名エントリを更新する

「Network Time Protocol (NTP) を更新する」

(任意) Sun Management Center ソフトウェアに Sun Cluster モジュールをインストールする 

「Sun Management Center 用の Sun Cluster モジュールのインストール」

Sun Management Center のマニュアル 

他のアプリケーションをインストールし、アプリケーション、データサービス、リソースグループを構成する 

Sun Cluster 3.0 U1 データサービスのインストールと構成

Sun Cluster 3.0 U1 ご使用にあたって』の「データサービス構成のためのワークシート(記入例)」

各アプリケーションのマニュアル 

クラスタファイルシステムを追加する

追加する各クラスタファイルシステムについて次の作業を行います。


注意 - 注意 -

ファイルシステムを作成すると、ディスク上のデータはすべて失われます。必ず、正しいディスクデバイス名を指定してください。誤ったデバイス名を指定した場合、その内容は、新しいファイルシステムが作成されたときに消去されます。


SunPlex Manager を使用してデータサービスをインストールした場合は、クラスタファイルシステムがすでに自動的に作成されています (十分な共有ディスクが存在する場合)。

  1. ボリューム管理ソフトウェアのインストールと構成が行われていることを確認します。

    ボリューム管理ソフトウェアのインストール方法については、「Solstice DiskSuite の構成」「VxVM ソフトウェアのインストールと構成」を参照してください。

  2. クラスタ内の任意のノードでスーパーユーザーになります。


    ヒント -

    ファイルシステムを迅速に作成するには、ファイルシステムを作成する広域デバイスの現在の主ノードでスーパーユーザーになります。


  3. newfs(1M) コマンドを使用してファイルシステムを作成します。


    # newfs raw-disk-device
    

    次の表に、引数 raw-disk-device の名前の例を示します。命名規約はボリューム管理ソフトウェアごとに異なるので注意してください。

    表 2-7 raw ディスクデバイス名のサンプル

    ボリューム管理ソフトウェア 

    ディスクデバイス名の例 

    説明 

    Solstice DiskSuite 

    /dev/md/oracle/rdsk/d1

    oracle ディスクセット内の raw ディスクデバイス d1

    VERITAS Volume Manager 

    /dev/vx/rdsk/oradg/vol01

    oradg ディスクグループ内の raw ディスクデバイス vol01

    なし 

    /dev/global/rdsk/d1s3

    raw ディスクデバイス d1s3

  4. クラスタ内の各ノードに、クラスタファイルシステムのマウントポイントディレクトリを作成します。

    特定のノードではクラスタファイルシステムがアクセスされない場合でも、各ノードにマウントポイントが必要です。


    ヒント -

    管理を行いやすくするには、マウントポイントを /global/device-group ディレクトリに作成します。この場所を使用することで、広域的に使用できるクラスタファイルシステムと、ローカルファイルシステムを簡単に区別できるようになります。



    # mkdir -p /global/device-group/mountpoint
    
    device-group

    デバイスが含まれるデバイスグループの名前に対応するディレクトリ名を指定します。

    mountpoint

    クラスタファイルシステムをマウントするディレクトリ名を指定します。

  5. クラスタ内の各ノードで、マウントポイント用の /etc/vfstab ファイルにエントリを追加します。

    1. 以下の必須マウントオプションを使用します。

      ロギングはすべてのクラスタファイルシステムに必要です。

      • Solaris UFS ロギング - マウントオプション globallogging を使用します。UFS マウントオプションの詳細は、mount_ufs(1M) のマニュアルページを参照してください。


        注 -

        syncdir マウントオプションは、UFS クラスタファイルシステムでは必要ありません。syncdir を指定すると、POSIX に準拠したファイルシステムの動作が保証されます。指定しない場合は、UFS ファイルシステムと同じ動作になります。syncdir を指定しないと、ディスクブロックを割り当てる書き込み処理のパフォーマンスを大幅に向上できます (ファイルにデータを追加する場合など)。ただし、場合によっては、syncdir を指定しないと、ファイルを閉じるまで容量不足の状態を検出できません。syncdir を指定しないことで生じる問題はほとんどありません。syncdir (および POSIX 動作) を指定すると、ファイルを閉じる前に容量不足の状態を検出できます。


      • Solstice DiskSuite トランスメタデバイス - global マウントオプションを使用します (logging マウントオプションは使用しないでください)。トランスメタデバイスの設定方法については、Solstice DiskSuite のマニュアルを参照してください。

    2. クラスタファイルシステムを自動的にマウントするには、「mount at boot」フィールドを「yes」に設定します。

    3. 各クラスタファイルシステムで、/etc/vfstab エントリの情報が各ノードで同じになるようにします。

    4. 各ノードの /etc/vfstab ファイルのエントリに、デバイスが同じ順序で表示されることを確認します。

    5. ファイルシステムの起動順序の依存関係を確認します。

      たとえば、phys-schost-1/global/oracle にディスクデバイス d0 をマウントし、phys-schost-2/global/oracle/logs にディスクデバイス d1 をマウントするとします。この構成では、phys-schost-1 が起動して /global/oracle をマウントした後にのみ、phys-schost-2 が起動して /global/oracle/logs をマウントできます。

    詳細については、vfstab(4) のマニュアルページを参照してください。

  6. クラスタ内の任意のノードで、マウントポイントが存在していること、およびクラスタ内のすべてのノードで /etc/vfstab ファイルのエントリが正しいことを確認します。


    # sccheck
    

    エラーがない場合は、何も表示されません。

  7. クラスタ内の任意のノードから、クラスタファイルシステムをマウントします。


    # mount /global/device-group/mountpoint
    

  8. クラスタの各ノードで、クラスタファイルシステムがマウントされていることを確認します。

    df(1M) または mount(1M) のいずれかのコマンドを使用し、マウントされたファイルシステムの一覧を表示します。

  9. クラスタノードが複数のパブリックサブネットに接続されているかどうかを確認します。

例 - クラスタファイルシステムの作成

次の例では、Solstice DiskSuite メタデバイスの /dev/md/oracle/rdsk/d1 にUFS クラスタファイルシステムが作成されます。


# newfs /dev/md/oracle/rdsk/d1
...
 
(各ノードで実行)
# mkdir -p /global/oracle/d1
# vi /etc/vfstab
#device           device        mount   FS      fsck    mount   mount
#to mount         to fsck       point   type    pass    at boot options
#                       
/dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs 2 yes global,logging
(保存して終了)
 
(1 つのノードで実行)
# sccheck
# mount /global/oracle/d1
# mount
...
/global/oracle/d1 on /dev/md/oracle/dsk/d1 read/write/setuid/global/logging/
largefiles on Sun Oct 3 08:56:16 2000

追加のパブリックネットワークアダプタを構成する

クラスタ内のノードが複数のパブリックサブネットに接続されている場合、2 つ目のサブネット用の追加のパブリックネットワークアダプタを構成できます。この作業は必要に応じて行ってください。


注 -

プライベートネットワークアダプタではなく、パブリックネットワークアダプタだけを構成します。


  1. Sun Cluster 3.0 U1 ご使用にあたって』 の「パブリックネットワークのワークシート」に必要事項を記入したものを用意します。

  2. 追加のパブリックネットワークアダプタ用に構成されているノードでスーパーユーザーになります。

  3. /etc/hostname.adapter という名前のファイルを作成します。adapter にはアダプタの名前を指定します。


    注 -

    各 NAFO グループでは、グループ内の 1 つのアダプタに対してだけ /etc/hostname.adapter ファイルが存在する必要があります。


  4. パブリックネットワークアダプタの IP アドレスのホスト名を /etc/hostname.adapter ファイル入力します。

    たとえば次のコマンドを実行すると、アダプタ hme3 のファイル /etc/hostname.hme3 の内容が表示され、ホスト名 phys-schost-1 が含まれていることが分かります。


    # vi /etc/hostname.hme3
    phys-schost-1 

  5. 各クラスタノードで、/etc/inet/hosts ファイルに、パブリックネットワークアダプタに割り当てられている IP アドレスとその対応ホスト名が含まれることを確認します。

    たとえば、次は、phys-schost-1 のエントリの例です。


    # vi /etc/inet/hosts
    ...
    192.29.75.101 phys-schost-1
    ...


    注 -

    ネームサービスを使用する場合は、この情報がネームサービスデータベースにも存在している必要があります。


  6. 各クラスタノードで、アダプタをオンに設定します。


    # ifconfig adapter plumb
    # ifconfig adapter hostname netmask + broadcast + -trailers up
    

  7. アダプタが正しく構成されていることを確認します。


    # ifconfig adapter
    

    出力には、アダプタの正しい IP アドレスが含まれています。

  8. PNM の構成と NAFO グループの設定を行います。

    「パブリックネットワーク管理 (PNM) を構成する」に進みます。

    Resource Group Manager (RGM) で管理する各パブリックネットワークアダプタは、NAFO グループに属している必要があります。

パブリックネットワーク管理 (PNM) を構成する

クラスタの各ノードで次の作業を行います。


注 -

パブリックネットワークアダプタは、すべて NAFO グループに属している必要があります。また、各ノードでは、サブネットごとに 1 つの NAFO グループだけを使用できます。


  1. Sun Cluster 3.0 U1 ご使用にあたって』の「パブリックネットワークのワークシート」に必要事項を記入したものを用意します。

  2. NAFO グループ用に構成されているノードでスーパーユーザーになります。

  3. NAFO グループを作成します。


    # pnmset -c nafo-group -o create adapter [adapter ...]
    -c nafo-group

    NAFO グループ nafo_group を構成します。

    -o create adapter

    1 つまたは複数のパブリックネットワークアダプタが含まれる新しい NAFO を作成します。

    詳細については、pnmset(1M) のマニュアルページを参照してください。

  4. NAFO グループの状態を確認します。


    # pnmstat -l
    

    詳細については、pnmstat(1M) のマニュアルページを参照してください。

  5. プライベートホスト名を変更するかどうかを決定します。

例 - PNM の構成

次の例では、パブリックネットワークアダプタ qfe1 および qfe5 を使用する NAFO グループ nafo0 を作成します。


# pnmset -c nafo0 -o create qfe1 qfe5
# pnmstat -l
group  adapters       status  fo_time    act_adp
nafo0  qfe1:qfe5      OK      NEVER      qfe5
nafo1  qfe6           OK      NEVER      qfe6

プライベートホスト名を変更する

次の作業は、Sun Cluster ソフトウェアのインストール中に割り当てられるデフォルトのプライベートホスト名 (clusternodenodeid-priv) を使用しない場合に実行します。


注 -

この手順は、アプリケーションとデータサービスの構成および起動後には実行しないでください。アプリケーションやデータサービスは、名前の変更後も引き続き古いプライベートホスト名を使用することがあり、この手順を実行するとホスト名の衝突が発生します。アプリケーションやデータサービスが実行中の場合は、この手順を実行する前に停止しておいてください。


  1. クラスタ内の 1 つのノードのスーパーユーザになります。

  2. scsetup(1M) ユーティリティを起動します。


    # scsetup
    
  3. プライベートホスト名に対して作業を行うには、5 (Private hostnames) を入力します。

  4. プライベートホスト名を変更するには、1 (Change a private hostname) を入力します。

    プロンプトに従って、プライベートホスト名を変更します。変更するプライベートホスト名ごとに繰り返します。

  5. 新しいプライベートホスト名を確認します。


    # scconf -pv | grep "private hostname"
    (phys-schost-1) Node private hostname:      phys-schost-1-priv
    (phys-schost-3) Node private hostname:      phys-schost-3-priv
    (phys-schost-2) Node private hostname:      phys-schost-2-priv

  6. /etc/inet/ntp.conf ファイルを更新します。

    「Network Time Protocol (NTP) を更新する」に進みます。

Network Time Protocol (NTP) を更新する

各ノードで次の作業を行います。

  1. クラスタノードでスーパーユーザーになります。

  2. /etc/inet/ntp.conf ファイルを編集します。

    scinstall(1M) コマンドは、標準的なクラスタインストールの一部として、テンプレートファイル ntp.cluster/etc/inet/ntp.conf にコピーします。ただし、Sun Cluster ソフトウェアをインストールする前に ntp.conf ファイルがすでに存在している場合は、既存のファイルは変更されません。pkgadd(1M) を直接使用するなど、その他の方法でクラスタパッケージをインストールした場合は、NTP の構成が必要です。

    1. クラスタで使用されていないすべてのプライベートホスト名を削除します。

      存在しないプライベートホスト名が ntp.conf ファイルに含まれている場合、ノードを再起動したときにそれらのプライベートホスト名に接続しようとすると、エラーメッセージが表示されます。

    2. Sun Cluster ソフトウェアのインストール後にプライベートホスト名を変更した場合は、各ファイルのエントリを新しいプライベートホスト名に更新します。

    3. 必要に応じて、NTP の必要条件を満たすようにその他の変更を加えます。

      クラスタ内で NTP や時刻同期機能を構成する際の第一の必要条件は、すべてのクラスタノードを同じ時刻に同期させることです。ノード間の時刻の同期に続き、個々のノードの時間の精度を考慮します。NTP は、この基本的な同期必要条件を満たしている限り、目的に合わせて自由に構成できます。

      クラスタの時刻の詳細については『Sun Cluster 3.0 U1 の概念』を、 Sun Cluster 構成のために NTP を構成する場合のガイドラインについては ntp.cluster テンプレートを参照してください。

  3. NTP デーモンを再起動します。


    # /etc/init.d/xntpd stop
    # /etc/init.d/xntpd start
    

  4. Sun Management Center を使用し、リソースグループの構成やクラスタの監視を行うかどうかを決定します。

    • このソフトウェアを使用してこれらの作業を行う場合は、「Sun Management Center 用の Sun Cluster モジュールのインストール」へ進んでください。

    • このソフトウェアを使用しない場合は、ほかのアプリケーションのインストール、リソースタイプの登録、リソースグループの設定、データサービスの構成をそれぞれ行ってください。アプリケーションソフトウェアに付属のマニュアルと『Sun Cluster 3.0 U1 データサービスのインストールと構成』を参照してください。