次の表に、クラスタを構成するために行う作業を示します。
表 2-2 作業マップ : クラスタの構成
作業 |
参照箇所 |
---|---|
インストール後設定を行う | |
Solstice DiskSuite または VERITAS Volume Manager およびデバイスグループを構成する |
「ボリューム管理ソフトウェアを構成する」、ボリューム管理ソフトウェアのマニュアル |
クラスタファイルシステムを作成してマウントする | |
(任意) 追加のパブリックネットワークアダプタを構成する | |
パブリックネットワーク管理 (PNM) を構成し、ネットワークアダプタフェイルオーバー (NAFO) グループを設定する | |
(任意) ノードのプライベートホスト名を変更する | |
/etc/inet/ntp.conf ファイルを編集してノード名エントリを更新する | |
(任意) Sun Cluster モジュールを Sun Management Center にインストールする |
「Sun Management Center ソフトウェアのインストール条件」、Sun Management Center のマニュアル |
他のアプリケーションをインストールし、アプリケーション、データサービス、リソースグループを構成する |
『Sun Cluster 3.0 データサービスのインストールと構成』、各アプリケーションのマニュアル |
次の手順は、クラスタが完全に形成された後に一度だけ実行します。
すべてのノードがクラスタに結合していることを確認します。
あるノードからクラスタノードのリストを表示し、すべてのノードがクラスタに結合していることを確認します。
このコマンドを実行するために、スーパーユーザーとしてログインする必要はありません。
% scstat -n |
出力は次のようになります。
-- Cluster Nodes -- Node name Status --------- ------ Cluster node: phys-schost-1 Online Cluster node: phys-schost-2 Online |
各ノードに、クラスタノードとの接続を確認するためにシステムが検査するすべてのデバイスのリストを表示します。
このコマンドを実行するために、スーパーユーザーとしてログインする必要はありません。
% scdidadm -L |
各ノードのリストは同じ内容になります。出力は次のようになります。
1 phys-schost-1:/dev/rdsk/c0t0d0 /dev/did/rdsk/d1 2 phys-schost-1:/dev/rdsk/c1t1d0 /dev/did/rdsk/d2 2 phys-schost-2:/dev/rdsk/c1t1d0 /dev/did/rdsk/d2 3 phys-schost-1:/dev/rdsk/c1t2d0 /dev/did/rdsk/d3 3 phys-schost-2:/dev/rdsk/c1t2d0 /dev/did/rdsk/d3 ... |
scdidadm の出力から、定足数 (quorum) デバイスとして構成する各共有ディスクの広域デバイス ID (DID) 名を判断します。
たとえば、上記の手順の出力は、広域デバイス d2 が phys-schost-1 と phys-schost-2 で共有されていることを示します。この情報は、手順 4 で必要になります。定足数デバイスの計画の詳細については、「定足数デバイス」を参照してください。
クラスタの 1 つのノードでスーパーユーザーになります。
scsetup(1M) ユーティリティーを起動します。
# scsetup |
「Initial Cluster Setup」画面が表示されます。
代わりに「Main Menu」が表示される場合でも、この手順は正しく実行されています。
プロンプトに応えます。
クラスタが 2 ノードクラスタの場合は、「Do you want to add any quorum disks?」というプロンプトで、少なくとも 1 つの共有定足数 (quorum) デバイスを構成します。
2 ノードクラスタは、共有定足数デバイスを構成するまでインストールモードのままです。scsetup ユーティリティーが定足数デバイスを構成し終わると、「Command completed successfully」というメッセージが表示されます。クラスタに 3 つ以上のノードがある場合、定足数デバイスの構成は任意です。
「Is it okay to reset "installmode"?」というプロンプトに、「Yes」と応えます。
scsetup ユーティリティーによってクラスタの定足数構成と投票数 (quorum vote count) が設定された後、「Cluster initialization is complete」というメッセージが表示され、ユーティリティは「Main Menu」に戻ります。
定足数の設定処理が中断されたり、正常に終了しなかった場合は、手順 3 および 手順 4 に戻ってやり直してください。
任意のノードから、クラスタインストールモードが無効になっていることを確認します。
# scconf -p | grep "Cluster install mode: "Cluster install mode: disabled |
「ボリューム管理ソフトウェアを構成する」に進み、ボリューム管理ソフトウェアを構成します。
以下の情報を用意します。
ディスクドライブのマッピング
『Sun Cluster 3.0 ご使用にあたって』の以下のワークシートに必要事項を記入したもの
「ローカルファイルシステム配置のワークシート」
「ディスクデバイスグループ構成のワークシート」
「ボリューム管理ソフトウェア構成のワークシート」
「メタデバイスのワークシート (Solstice DiskSuite)」
計画のガイドラインについては、第 1 章「Sun Cluster 構成の計画」を参照してください。
使用するボリューム管理ソフトウェアに該当する構成手順に従います。
ボリューム管理ソフトウェア |
参照箇所 |
---|---|
Solstice DiskSuite |
付録 A 「Solstice DiskSuite ソフトウェアの構成」 Solstice DiskSuite のマニュアル |
VERITAS Volume Manager |
付録 B 「VERITAS Volume Manager の構成」 VERITAS Volume Manager のマニュアル |
ボリューム管理ソフトウェアの構成後、「クラスタファイルシステムを追加する」に進み、クラスタファイルシステムを作成します。
追加する各クラスタファイルシステムに次の作業を行います。
ファイルシステムを作成すると、ディスク上のデータはすべて失われます。必ず、正しいディスクデバイス名を指定してください。誤ったデバイス名を指定した場合、その内容は、新しいファイルシステムが作成されたときに消去されます。
クラスタ内の任意のノードでスーパーユーザーになります。
ファイルシステムを迅速に作成するには、ファイルシステムを作成する広域デバイスのマスターとなっているノードでスーパーユーザーになります。
newfs(1M) コマンドを使用してファイルシステムを作成します。
# newfs raw-disk-device |
次の表に、引数 raw-disk-device の名前の例を示します。命名規約はボリューム管理ソフトウェアごとに異なるので注意してください。
表 2-3 raw ディスクデバイス名のサンプル
ボリューム管理ソフトウェア |
ディスクデバイス名の例 |
説明 |
---|---|---|
Solstice DiskSuite |
/dev/md/oracle/rdsk/d1 |
oracle ディスクセット内の raw ディスクデバイス d1 |
VERITAS Volume Manager |
/dev/vx/rdsk/oradg/vol01 |
oradg ディスクグループ内の raw ディスクデバイス vol01 |
なし |
/dev/global/rdsk/d1s3 |
raw ディスクデバイス d1s3 |
クラスタ内の各ノードに、クラスタファイルシステムのマウントポイントディレクトリを作成します。
特定のノードではクラスタファイルシステムがアクセスされない場合でも、各ノードにマウントポイントが必要です。
# mkdir -p /global/device-group/mount-point |
デバイスが含まれるデバイスグループの名前に対応するディレクトリ名を指定します。
クラスタファイルシステムをマウントするディレクトリ名を指定します。
管理を行いやすくするには、マウントポイントを /global/device-group ディレクトリに作成します。この場所を使用することで、広域的に使用できるクラスタファイルシステムと、ローカルファイルシステムを簡単に区別できるようになります。
クラスタ内の各ノードで、マウントポイント用の /etc/vfstab ファイルにエントリを追加します。
syncdir マウントオプションは、クラスタファイルシステムでは必要ありません。syncdir を指定すると、POSIX に準拠したファイルシステムの動作が保証されます。指定しない場合は、UFS ファイルシステムと同じ動作になります。syncdir を指定しないと、ディスクブロックを割り当てる書き込み処理のパフォーマンスを大幅に向上できます (ファイルにデータを追加する場合など)。ただし、場合によっては、syncdir を指定しないと、ファイルを閉じるまで容量不足の状態を検出できません。syncdir を指定しないことで生じる問題はほとんどありません。syncdir (および POSIX 動作) を指定すると、ファイルを閉じる前に容量不足の状態を検出できます。
クラスタファイルシステムを自動的にマウントするには、「mount at boot」フィールドを「yes」に設定します。
Solaris UFS ロギングを使用する場合は、マウントオプション global、logging を使用します。
UFS クラスタファイルシステムで、Solstice DiskSuite トランスメタデバイスが使用されている場合は、global マウントオプションを使用してください (logging マウントオプションは使用しないでください)。トランスメタデバイスの設定の詳細については、Solstice DiskSuite のマニュアルを参照してください。
ロギングはすべてのクラスタファイルシステムに必要です。
各クラスタファイルシステムで、/etc/vfstab エントリの情報が各ノードで同じになるようにします。
ファイルシステムの起動順序の依存関係を確認します。
たとえば、phys-schost-1 が /global/oracle にディスクデバイス d0 をマウントし、phys-schost-2 が /global/oracle/logs にディスクデバイス d1 をマウントするとします。この構成では、phys-schost-1 が起動して /global/oracle をマウントした後にのみ、phys-schost-2 が起動して /global/oracle/logs をマウントできます。
各ノードの /etc/vfstab ファイルのエントリに、デバイスが同じ順序で表示されることを確認します。
詳細については、vfstab(4) のマニュアルページを参照してください。
クラスタ内の任意のノードで、マウントポイントが存在していること、およびクラスタ内のすべてのノードで /etc/vfstab ファイルのエントリが正しいことを確認します。
# sccheck |
エラーがない場合は、何も表示されません。
クラスタ内の任意のノードから、クラスタファイルシステムをマウントします。
# mount /global/device-group/mount-point |
クラスタの各ノードで、クラスタファイルシステムがマウントされていることを確認します。
df(1M) または mount(1M) のいずれかのコマンドを使用し、マウントされたファイルシステムを表示します。
次の例では、Solstice DiskSuite メタデバイスの /dev/md/oracle/rdsk/d1 にUFS クラスタファイルシステムが作成されます。
# newfs /dev/md/oracle/rdsk/d1 ... (各ノードで実行) # mkdir -p /global/oracle/d1 # vi /etc/vfstab #device device mount FS fsck mount mount #to mount to fsck point type pass at boot options # /dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs 2 yes global,logging (保存して終了) (1 つのノードで実行) # sccheck # mount /global/oracle/d1 # mount ... /global/oracle/d1 on /dev/md/oracle/dsk/d1 read/write/setuid/global/logging/ largefiles on Sun Oct 3 08:56:16 1999 |
クラスタノードが複数のパブリックサブネットに接続されている場合は、「追加のパブリックネットワークアダプタを構成する」に進み、追加のパブリックネットワークアダプタを構成します。
その他の場合は、「パブリックネットワーク管理 (PNM) を構成する」に進み、PNM の構成と NAFO グループを設定します。
クラスタ内のノードが複数のパブリックサブネットに接続されている場合、2 つ目のサブネット用の追加のパブリックネットワークアダプタを構成できます。ただし、2 つ目のサブネットの構成は必要ありません。
プライベートネットワークアダプタではなく、パブリックネットワークアダプタだけを構成します。
『Sun Cluster 3.0 ご使用にあたって』 の「パブリックネットワークのワークシート」に必要事項を記入したものを用意します。
追加のパブリックネットワークアダプタ用に構成されているノードでスーパーユーザーになります。
/etc/hostname.adapter という名前のファイルを作成します。adapter にはアダプタの名前を指定します。
各 NAFO グループでは、グループ内の 1 つのアダプタに対してだけ /etc/hostname.adapter ファイルが存在する必要があります。
パブリックネットワークアダプタの IP アドレスのホスト名を /etc/hostname.adapter ファイルに入力します。
たとえば次のコマンドを実行すると、アダプタ hme3 のファイル /etc/hostname.hme3 の内容が表示され、ホスト名 phys-schost-1 が含まれていることが分かります。
# vi /etc/hostname.hme3 phys-schost-1 |
各クラスタノードで、/etc/inet/hosts ファイルに、パブリックネットワークアダプタに割り当てられている IP アドレスとその対応ホスト名が含まれることを確認します。
たとえば、次は、phys-schost-1 のエントリの例です。
# vi /etc/inet/hosts ...192.29.75.101 phys-schost-1 ... |
ネームサービスを使用する場合は、この情報がネームサービスデータベースにも存在している必要があります。
各クラスタノードで、アダプタをオンに設定します。
# ifconfig adapter plumb # ifconfig adapter hostname netmask + broadcast + -trailers up |
アダプタが正しく構成されていることを確認します。
# ifconfig adapter |
出力には、アダプタの正しい IP アドレスが含まれています。
Resource Group Manager (RGM) で管理する各パブリックネットワークアダプタは、NAFO グループに属している必要があります。「パブリックネットワーク管理 (PNM) を構成する」に進み、PNM の構成と NAFO グループの設定を行います。
クラスタの各ノードで次の作業を行います。
パブリックネットワークアダプタは、すべて NAFO グループに属している必要があります。また、各ノードでは、サブネットごとに 1 つの NAFO グループだけを使用できます。
『Sun Cluster 3.0 ご使用にあたって』の「パブリックネットワークのワークシート」に必要事項を記入したものを用意します。
NAFO グループ用に構成されているノードでスーパーユーザーになります。
NAFO グループを作成します。
# pnmset -c nafo_group -o create adapter [adapter ...] |
NAFO グループ nafo_group を構成します。
1 つまたは複数のパブリックネットワークアダプタが含まれる新しい NAFO を作成します。
詳細については、pnmset(1M) のマニュアルページを参照してください。
NAFO グループの状態を確認します。
# pnmstat -l |
詳細については、pnmstat(1M) のマニュアルページを参照してください。
次の例では、パブリックネットワークアダプタ qfe1 および qfe5 を使用する NAFO グループ nafo0 を作成します。
# pnmset -c nafo0 -o create qfe1 qfe5 # pnmstat -l group adapters status fo_time act_adp nafo0 qfe1:qfe5 OK NEVER qfe5 nafo1 qfe6 OK NEVER qfe6 |
プライベートホスト名を変更する場合は、「プライベートホスト名を変更する」に進みます。その他の場合は、「Network Time Protocol (NTP) を更新する」に進み、/etc/inet/ntp.conf ファイルを更新します。
次の作業は、Sun Cluster ソフトウェアのインストール中に割り当てられるデフォルトのプライベートホスト名 (clusternodenodeid-priv) を使用しない場合に実行します。
この手順は、アプリケーションとデータサービスの構成および起動後には実行しないでください。アプリケーションやデータサービスは、名前の変更後も引き続き古いプライベートホスト名を使用することがあり、この手順を実行するとホスト名の衝突が発生します。アプリケーションやデータサービスが実行中の場合は、この手順を実行する前に停止しておいてください。
クラスタ内の 1 つのノードのスーパーユーザになります。
scsetup(1M) ユーティリティーを起動します。
# scsetup |
プライベートホスト名に対して作業を行うには、4 (Private hostnames) を入力します。
プライベートホスト名を変更するには、1 (Change a private hostname) を入力します。
プロンプトに従って、プライベートホスト名を変更します。変更するプライベートホスト名ごとに繰り返します。
新しいプライベートホスト名を確認します。
# scconf -pv | grep "private hostname" (phys-schost-1) Node private hostname: phys-schost-1-priv (phys-schost-3) Node private hostname: phys-schost-3-priv (phys-schost-2) Node private hostname: phys-schost-2-priv |
「Network Time Protocol (NTP) を更新する」に進み、/etc/inet/ntp.conf ファイルを更新します。
各ノードで次の作業を行います。
クラスタノードでスーパーユーザーになります。
/etc/inet/ntp.conf ファイルを編集します。
scinstall(1M) コマンドは、標準的なクラスタインストールの一部として、テンプレートファイル ntp.cluster を /etc/inet/ntp.conf にコピーします。ただし、Sun Cluster ソフトウェアをインストールする前に ntp.conf ファイルがすでに存在している場合は、既存のファイルは変更されません。pkgadd(1M) を直接使用するなど、その他の方法でクラスタパッケージをインストールした場合は、NTP の構成が必要です。
クラスタで使用されていないすべてのプライベートホスト名を削除します。
存在しないプライベートホスト名が ntp.conf ファイルに含まれている場合、ノードを再起動したときにそれらのプライベートホスト名に接続しようとすると、エラーメッセージが表示されます。
Sun Cluster ソフトウェアのインストール後にプライベートホスト名を変更した場合は、各ファイルのエントリを新しいプライベートホスト名に更新します。
必要に応じて、NTP の必要条件を満たすようにその他の変更を加えます。
クラスタ内で NTP や時刻同期機能を構成する際の第一の必要条件は、すべてのクラスタノードを同じ時刻に同期させることです。ノード間の時刻の同期に続き、個々のノードの時間の精度を考慮します。NTP は、この基本的な同期必要条件を満たしている限り、目的に合わせて自由に構成できます。
クラスタの時刻の詳細については『Sun Cluster 3.0 の概念』を、 Sun Cluster 構成のために NTP を構成する場合のガイドラインについては ntp.cluster テンプレートを参照してください。
NTP デーモンを再起動します。
# /etc/init.d/xntpd stop # /etc/init.d/xntpd start |
Sun Management Center 製品を使用してリソースグループを構成したり、クラスタを管理する場合は、「Sun Management Center ソフトウェアのインストール条件」に進みます。
また、他のアプリケーションをインストールする場合は、各アプリケーションソフトウェアに付属のマニュアルと『Sun Cluster 3.0 データサービスのインストールと構成』を参照してください。リソースの種類の登録、リソースグループの設定、データサービスの構成については、『Sun Cluster 3.0 データサービスのインストールと構成』を参照してください。