次の表に、クラスタを構成する場合の作業を示します。これらの作業を開始する前に、以下の作業が完了していることを確認してください。
クラスタフレームワークのインストール (「ソフトウェアのインストール」の手順を使用)
ボリューム管理ソフトウェアのインストールと構成 (「Solstice DiskSuite ソフトウェアのインストールと構成」または 「VxVM ソフトウェアのインストールと構成」の手順を使用)
作業 |
参照箇所 |
---|---|
クラスタファイルシステムの作成とマウントを行う | |
(任意) 追加のパブリックネットワークアダプタを構成する | |
パブリックネットワーク管理 (PNM) を構成し、ネットワークアダプタフェイルオーバー (NAFO) グループを設定する | |
(任意) ノードのプライベートホスト名を変更する | |
/etc/inet/ntp.conf ファイルを編集してノード名エントリを更新する | |
(任意) Sun Management Center ソフトウェアに Sun Cluster モジュールをインストールする |
「Sun Management Center 用の Sun Cluster モジュールのインストール」 Sun Management Center のマニュアル |
サン以外のアプリケーションをインストールし、アプリケーション、データサービス、リソースグループを構成する |
『Sun Cluster 3.0 12/01 データサービスのインストールと構成 』 『Sun Cluster 3.0 ご使用にあたって』の「データサービス構成のためのワークシート(記入例)」 サン以外のアプリケーションのマニュアル |
追加する各クラスタファイルシステムについて次の作業を行います。
ファイルシステムを作成すると、ディスク上のデータはすべて失われます。必ず、正しいディスクデバイス名を指定してください。誤ったデバイス名を指定した場合、その内容は、新しいファイルシステムが作成されたときに消去されます。
SunPlex Manager を使用してデータサービスをインストールした場合は、クラスタファイルシステムがすでに自動的に作成されています (十分な共有ディスクが存在する場合)。
ボリューム管理ソフトウェアのインストールと構成が行われていることを確認します。
ボリューム管理ソフトウェアのインストール手順については、「Solstice DiskSuite ソフトウェアのインストールと構成」か 「VxVM ソフトウェアのインストールと構成」を参照してください。
VERITAS File System (VxFS) ソフトウェアをインストールするかどうかを決定します。
インストールする場合は、VxFS のインストールマニュアルの手順に従って、クラスタの各ノードに VxFS ソフトウェアをインストールします。
インストールしない場合は、手順 3 に進みます。
クラスタ内の任意のノードのスーパーユーザーになります。
ファイルシステムを迅速に作成するには、ファイルシステムを作成する広域デバイスの現在の主ノードでスーパーユーザーになります。
newfs(1M) コマンドを使用してファイルシステムを作成します。
# newfs raw-disk-device |
次の表に、引数 raw-disk-device の名前の例を示します。命名規約はボリューム管理ソフトウェアごとに異なるので注意してください。
表 2-11 raw ディスクデバイス名の例
ボリューム管理ソフトウェア |
ディスクデバイス名の例 |
説明 |
---|---|---|
Solstice DiskSuite |
/dev/md/oracle/rdsk/d1 |
oracle ディスクセット内の raw ディスクデバイス d1 |
VERITAS Volume Manager |
/dev/vx/rdsk/oradg/vol01 |
oradg ディスクグループ内の raw ディスクデバイス vol01 |
なし |
/dev/global/rdsk/d1s3 |
raw ディスクデバイス d1s3 |
クラスタ内の各ノードに、クラスタファイルシステムのマウントポイントディレクトリを作成します。
特定のノードではクラスタファイルシステムがアクセスされない場合でも、各ノードにマウントポイントが必要です。
管理を行いやすくするには、マウントポイントを /global/device-group ディレクトリに作成します。この場所を使用することで、広域的に使用できるクラスタファイルシステムと、ローカルファイルシステムを簡単に区別できるようになります。
# mkdir -p /global/device-group/mountpoint |
デバイスが含まれるデバイスグループの名前に対応するディレクトリ名を指定します。
クラスタファイルシステムをマウントするディレクトリ名を指定します。
クラスタ内の各ノードで、マウントポイント用の /etc/vfstab ファイルにエントリを追加します。
以下の必須マウントオプションを使用します。
ロギングはすべてのクラスタファイルシステムに必要です。
Solaris UFS ロギング - マウントオプションとして global と logging を使用します。UFS マウントオプションの詳細については、mount_ufs(1M) のマニュアルページを参照してください。
syncdir マウントオプションは、UFS クラスタファイルシステムでは必要ありません。syncdir を指定すると、POSIX に準拠したファイルシステムの動作が保証されます。指定しない場合は、UFS ファイルシステムと同じ動作になります。syncdir を指定しないと、ディスクブロックを割り当てる書き込み処理のパフォーマンスを大幅に向上できます (ファイルにデータを追加する場合など)。ただし、場合によっては、syncdir を指定しないと、ファイルを閉じるまで容量不足の状態を検出できません。syncdir を指定しないことで生じる問題はほとんどありません。syncdir (および POSIX 動作) を指定すると、ファイルを閉じる前に容量不足の状態を検出できます。
Solstice DiskSuite トランスメタデバイス - マウントオプションとして global を使用します (logging は使用しません)。トランスメタデバイスの設定方法については、Solstice DiskSuite のマニュアルを参照してください。
VxFS ロギング - マウントオプションとして global と log を使用します。VxFS マウントオプションの詳細については、mount_VxFS(1M) のマニュアルページを参照してください。
クラスタファイルシステムを自動的にマウントするには、「mount at boot」フィールドを「yes」に設定します。
各クラスタファイルシステムで、/etc/vfstab エントリの情報が各ノードで同じになるようにします。
各ノードの /etc/vfstab ファイルのエントリに、デバイスが同じ順序で表示されることを確認します。
ファイルシステムの起動順序の依存関係を確認します。
たとえば、phys-schost-1 が /global/oracle にディスクデバイス d0 をマウントし、phys-schost-2 が /global/oracle/logs にディスクデバイス d1 をマウントするとします。この構成では、phys-schost-1 が起動して /global/oracle をマウントした後にのみ、phys-schost-2 が起動して /global/oracle/logs をマウントできます。
詳細については、vfstab(4) のマニュアルページを参照してください。
クラスタ内の任意のノードで、マウントポイントが存在していること、およびクラスタ内のすべてのノードで /etc/vfstab ファイルのエントリが正しいことを確認します。
# sccheck |
エラーがない場合は、何も表示されません。
クラスタ内の任意のノードから、クラスタファイルシステムをマウントします。
# mount /global/device-group/mountpoint |
クラスタの各ノードで、クラスタファイルシステムがマウントされていることを確認します。
df(1M) または mount(1M) のいずれかのコマンドを使用し、マウントされたファイルシステムの一覧を表示します。
VxFS クラスタファイルシステムを Sun Cluster 環境で管理するには、 VxFS クラスタファイルシステムがマウントされている主ノードだけから管理コマンドを実行します。
クラスタノードが複数のパブリックサブネットに接続されているかどうかを確認します。
接続されている場合は、「追加のパブリックネットワークアダプタを構成する」に進み、追加のパブリックネットワークアダプタを構成します。
接続されていない場合は、「パブリックネットワーク管理 (PNM) を構成する」に進み、PNM の構成と NAFO グループの設定を行います。
次の例では、Solstice DiskSuite メタデバイスの /dev/md/oracle/rdsk/d1 にUFS クラスタファイルシステムが作成されます。
# newfs /dev/md/oracle/rdsk/d1 ... (on each node) # mkdir -p /global/oracle/d1 # vi /etc/vfstab #device device mount FS fsck mount mount #to mount to fsck point type pass at boot options # /dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs 2 yes global,logging (save and exit) (on one node) # sccheck # mount /global/oracle/d1 # mount ... /global/oracle/d1 on /dev/md/oracle/dsk/d1 read/write/setuid/global/logging/ largefiles on Sun Oct 3 08:56:16 2000 |
クラスタ内のノードが複数のパブリックサブネットに接続されている場合、2 番目のサブネット用の追加のパブリックネットワークアダプタを構成できます。この作業は必要に応じて行ってください。
プライベートネットワークアダプタではなく、パブリックネットワークアダプタだけを構成します。
『Sun Cluster 3.0 U1 ご使用にあたって』の「パブリックネットワークのワークシート」に必要事項を記入したものを用意します。
追加のパブリックネットワークアダプタ用に構成されているノードでスーパーユーザーになります。
/etc/hostnameadapter という名前のファイルを作成します。adapter にはアダプタの名前を指定します。
各 NAFO グループでは、グループ内の 1 つのアダプタに対してだけ /etc/hostname.adapter ファイルが存在する必要があります。
パブリックネットワークアダプタの IP アドレスのホスト名を /etc/hostname adapterファイルに入力します。
たとえば、次のコマンドを実行すると、アダプタ hme3 のファイル /etc/hostname.hme3 の内容が表示され、ホスト名 phys-schost-1 が含まれていることが分かります。
# vi /etc/hostname.hme3 phys-schost-1 |
各クラスタノードで、/etc/inet/hosts ファイルに、パブリックネットワークアダプタに割り当てられている IP アドレスとその対応ホスト名が含まれることを確認します。
たとえば、次は、phys-schost-1 のエントリの例です。
# vi /etc/inet/hosts ... 192.29.75.101 phys-schost-1 ... |
ネームサービスを使用する場合は、この情報がネームサービスデータベースにも存在している必要があります。
各クラスタノードで、アダプタをオンに設定します。
# ifconfig adapter plumb # ifconfig adapter hostname netmask + broadcast + -trailers up |
アダプタが正しく構成されていることを確認します。
# ifconfig adapter |
出力には、アダプタの正しい IP アドレスが含まれています。
PNM の構成と NAFO グループの設定を行います。
「パブリックネットワーク管理 (PNM) を構成する」に進みます。
Resource Group Manager (RGM) で管理する各パブリックネットワークアダプタは、NAFO グループに属している必要があります。
クラスタの各ノードで次の作業を行います。
パブリックネットワークアダプタは、すべて NAFO グループに属している必要があります。また、各ノードでは、サブネットごとに 1 つの NAFO グループだけを使用できます。
『Sun Cluster 3.0 U1 ご使用にあたって』の「パブリックネットワークのワークシート」に必要事項を記入したものを用意します。
NAFO グループ用に構成されているノードでスーパーユーザーになります。
NAFO グループを作成します。
# pnmset -c nafo-group -o create adapter [adapter ...] |
NAFO グループ nafo_group を構成します。
1 つまたは複数のパブリックネットワークアダプタが含まれる新しい NAFO を作成します。
詳細については、pnmset(1M) のマニュアルページを参照してください。
NAFO グループの状態を確認します。
# pnmstat -l |
詳細については、pnmstat(1M) のマニュアルページを参照してください。
プライベートホスト名を変更するかどうかを決定します。
変更する場合は、「プライベートホスト名を変更する」に進みます。
変更しない場合は、「Network Time Protocol (NTP) を更新する」に進み、/etc/inet/ntp.conf ファイルを更新します。
次の例では、パブリックネットワークアダプタ qfe1 および qfe5 を使用する NAFO グループ nafo0 を作成します。
# pnmset -c nafo0 -o create qfe1 qfe5 # pnmstat -l group adapters status fo_time act_adp nafo0 qfe1:qfe5 OK NEVER qfe5 nafo1 qfe6 OK NEVER qfe6 |
次の作業は、Sun Cluster ソフトウェアのインストール中に割り当てられるデフォルトのプライベートホスト名 (clusternodenodeid-priv) を使用しない場合に実行します。
この手順は、アプリケーションとデータサービスの構成および起動後には実行しないでください。アプリケーションやデータサービスは、名前の変更後も引き続き古いプライベートホスト名を使用することがあり、この手順を実行するとホスト名の衝突が発生します。アプリケーションやデータサービスが実行中の場合は、この手順を実行する前に停止しておいてください。
クラスタ内の 1 つのノードのスーパーユーザになります。
scsetup(1M) ユーティリティーを起動します。
# scsetup |
プライベートホスト名に対して作業を行うには、5 (Private hostnames) を入力します。
プライベートホスト名を変更するには、1 (Change a private hostname) を入力します。
プロンプトに従って、プライベートホスト名を変更します。変更するプライベートホスト名ごとに繰り返します。
新しいプライベートホスト名を確認します。
# scconf -pv | grep "private hostname" (phys-schost-1) Node private hostname: phys-schost-1-priv (phys-schost-3) Node private hostname: phys-schost-3-priv (phys-schost-2) Node private hostname: phys-schost-2-priv |
/etc/inet/ntp.conf ファイルを更新します。
各ノードで次の作業を行います。
クラスタノードのスーパーユーザーになります。
/etc/inet/ntp.conf ファイルを編集します。
scinstall(1M) コマンドは、標準的なクラスタインストールの一部として、テンプレートファイル ntp.cluster を /etc/inet/ntp.conf にコピーします。ただし、Sun Cluster ソフトウェアをインストールする前に ntp.conf ファイルがすでに存在している場合は、既存のファイルは変更されません。pkgadd(1M) を直接使用するなど、その他の方法でクラスタパッケージをインストールした場合は、NTP の構成が必要です。
クラスタで使用されていないすべてのプライベートホスト名を削除します。
存在しないプライベートホスト名が ntp.conf ファイルに含まれている場合、ノードを再起動したときにそれらのプライベートホスト名に接続しようとすると、エラーメッセージが表示されます。
Sun Cluster ソフトウェアのインストール後にプライベートホスト名を変更した場合は、各ファイルのエントリを新しいプライベートホスト名に更新します。
必要に応じて、NTP の必要条件を満たすようにその他の変更を加えます。
クラスタ内で NTP や時刻同期機能を構成する際の第一の必要条件は、すべてのクラスタノードを同じ時刻に同期させることです。ノード間の時刻の同期に続き、個々のノードの時間の精度を考慮します。NTP は、この基本的な同期必要条件を満たしている限り、目的に合わせて自由に構成できます。
クラスタの時刻の詳細については『Sun Cluster 3.0 12/01 の概念』を参照してください。NTP を Sun Cluster 構成用に構成する場合のガイドラインについては ntp.cluster テンプレートを参照してください。
NTP デーモンを再起動します。
# /etc/init.d/xntpd stop # /etc/init.d/xntpd start |
Sun Management Center を使用し、リソースグループの構成やクラスタの監視を行うかどうかを決定します。
使用する場合は、「Sun Management Center 用の Sun Cluster モジュールのインストール」に進みます。
使用しない場合は、サン以外のアプリケーションのインストール、リソースタイプの登録、リソースグループの設定、データサービスの構成をそれぞれ行ってください。アプリケーションソフトウェアに付属のマニュアルと『Sun Cluster 3.0 12/01 データサービスのインストールと構成』を参照してください。