この節では、クラスタまたは新しいクラスタノードにインストールしたソフトウェアを構成するための情報と手順について説明します。これらの作業を開始する前に、以下の作業が完了していることを確認してください。
Solaris OS や Sun Cluster フレームワークなどの製品用のソフトウェアパッケージをインストールしていること (「ソフトウェアのインストール」を参照)
新しいクラスタまたはクラスタノードを確立していること (「クラスタの確立」を参照)
次の表に、クラスタを構成する場合の作業を示します。ここに示す順に従って手順を実行します。
VxVM を使用するクラスタに新しいノードを追加した場合は、「SPARC: VERITAS Volume Manager ソフトウェアをインストールする」の手順を実行して、次の作業のうちの 1 つを行う必要があります。
VxVM を当該ノードにインストールします。
当該ノードの /etc/name_to_major ファイルを変更して、VxVM との共存をサポートするようにします。
作業 |
参照先 |
---|---|
1. ボリューム管理ソフトウェアのインストールと構成 |
|
|
第 3 章「Solstice DiskSuite または Solaris Volume Manager ソフトウェアのインストールと構成」 Solstice DiskSuite または Solaris ボリュームマネージャーのマニュアル |
|
第 4 章「SPARC: VERITAS Volume Manager をインストールして構成する」 VERITAS Volume Manager のマニュアル |
2. クラスタファイルシステムの作成とマウント | |
3. (Solaris 8 または SunPlex Installer インストール) IP ネットワークマルチパス グループにまだ構成されていない各パブリックネットワークアダプタ用の IP ネットワークマルチパス グループの作成 | |
4. (省略可能) ノードのプライベートホスト名の変更 | |
5. NTP 構成ファイルの作成または変更 | |
6. (省略可能) SPARC:Sun Cluster モジュールの Sun Management Center ソフトウェアへのインストール |
「SPARC: Sun Management Center 用の Sun Cluster モジュールのインストール」 Sun Management Center のマニュアル |
7. Sun 以外のアプリケーションのインストールと、そのアプリケーション、データサービス、およびリソースグループの構成 |
『Sun Cluster データサービスの計画と管理 (Solaris OS 版)』 各アプリケーションのマニュアル |
この手順は、作成するクラスタファイルシステムごとに実行します。ローカルシステムと違って、クラスタファイルシステムはクラスタ内のどのノードからでもアクセスできます。SunPlex Installer を使用してデータサービスをインストールした場合、SunPlex Installer がすでに 1 つ以上のクラスタファイルシステムを作成している場合があります。
ファイルシステムを作成するとき、ディスク上のデータは破壊されます。必ず、正しいディスクデバイス名を指定してください。間違ったデバイス名を指定した場合、削除するつもりのないデータが削除されてしまいます。
次の作業を実行します。
ボリューム管理ソフトウェアのインストールと構成が行われていることを確認します。ボリューム管理ソフトウェアのインストール手順については、「Solstice DiskSuite または Solaris Volume Manager ソフトウェアのインストールと構成」または「SPARC: VxVM ソフトウェアのインストールと構成」を参照してください。
作成するクラスタファイルシステムごとに、使用するマウントオプションを判断します。次の表で、Sun Cluster マウントオプションの要件と制限を確認します。
UFS マウントオプションの詳細については、mount_ufs(1M) のマニュアルページを参照してください。
Sun StorEdge QFSSunStorEdgeQFS 共有ファイルシステムのマウントパラメータ
マウントパラメータ |
説明 |
---|---|
shared |
必須。このオプションは、このファイルシステムが共有ファイルシステムであり、このためクラスタ内のすべてのノードにグローバルに表示できることを指定します。 |
/etc/vfstab ファイルの設定が /etc/opt/SUNWsamfs/samfs.cmd ファイルの設定と競合しないことを確認してください。/etc/vfstab ファイルの設定は、/etc/opt/SUNWsamfs/samfs.cmd ファイルの設定を無効にします。
QFS マウントパラメータの詳細については、 mount_samfs(1M) のマニュアルページを参照してください。
Sun Cluster Support for Oracle Real Application Clusters などの一部のデータサービスには、QFS マウントパラメータに関する追加の必要条件とガイドラインがあります。追加の必要条件については、データサービスのマニュアルを参照してください。
ロギングを有効にするのは /etc/vfstab マウントパラメータではなく、Sun Cluster ソフトウェアは QFS 共有ファイルシステムのロギングを必要としません。
マウントオプション |
説明 |
---|---|
global |
必須。このオプションを選択すると、クラスタ内のすべてのノードでファイルシステムが表示されます。 |
log |
必須。このオプションを選択すると、ロギングが有効になります。 |
VxFS のマウントオプションの詳細については、VxFS の mount_vxfs のマニュアルページと、『Sun Cluster のシステム管理 (Solaris OS 版)』の「クラスタファイルシステムの管理の概要」を参照してください。
クラスタ内にある任意のノード上でスーパーユーザーになります。
ファイルシステムを迅速に作成するには、ファイルシステムを作成する広域デバイスの現在の主ノード上でスーパーユーザーになります。
ファイルシステムを作成します。
UFS ファイルシステムの場合は、newfs(1M) コマンドを使用します。
# newfs raw-disk-device |
下の表 に、引数 raw-disk-device の名前の例を挙げます。命名規約はボリューム管理ソフトウェアごとに異なるので注意してください。
ボリュームマネージャー |
ディスクデバイス名の例 |
説明 |
---|---|---|
Solstice DiskSuite または Solaris ボリュームマネージャー |
/dev/md/nfs/rdsk/d1 |
nfs ディスクセット内の raw ディスクデバイス d1 |
SPARC:VERITAS Volume Manager |
/dev/vx/rdsk/oradg/vol01 |
oradg ディスクセット内の raw デバイス vol01 |
なし |
/dev/global/rdsk/d1s3 |
raw ディスクデバイス d1s3 |
Sun StorEdge QFSSunStorEdgeQFS ファイルシステムの場合、「Sun StorEdge QFS and Sun StorEdge SAM-FS Software Installation and Configuration Guide」に記載された構成を定義する手順に従ってください。
SPARC:VERITAS File System (VxFS) ファイルシステムの場合、VxFS のマニュアルに記載された手順に従ってください。
クラスタの各ノード上で、クラスタファイルシステム用のマウントポイントディレクトリを作成します。
ノード上でクラスタファイルシステムがアクセスされない場合でも、マウントポイントはノードごとに必要です。
管理をしやすくするために、マウントポイントは /global/device-group/ ディレクトリに作成します。この場所を使用すると、広域的に利用できるクラスタファイルシステムとローカルファイルシステムを区別しやすくなります。
# mkdir -p /global/device-group/mountpoint/ |
デバイスが属するデバイスグループ名に対応するディレクトリの名前。
クラスタファイルシステムをマウントするディレクトリの名前。
クラスタ内にある各ノード上で、/etc/vfstab ファイルにマウントポイント用のエントリを追加します。
詳細については、vfstab(4) のマニュアルページを参照してください。
各エントリで、使用する種類のファイルシステムに必要なマウントオプションを指定します。
Solstice DiskSuite トランスメタデバイスや Solaris ボリュームマネージャートランザクショナルボリュームには、logging マウントオプションを使しないでください。トランスメタデバイスおよびトランザクショナルボリュームは、独自のロギングを提供します。
さらに、Solaris ボリュームマネージャートランザクションボリュームロギング (旧 Solstice DiskSuite トランスメタデバイスロギング) は、将来の Solaris リリースで、Solaris OS から削除される予定です。Solaris UFS ロギング は、より低い管理条件とオーバーヘッドで、同様の機能を高いパフォーマンスで提供します。
クラスタファイルシステムを自動的にマウントするには、mount at boot フィールドを yes に設定します。
各クラスタファイルシステムで、/etc/vfstab エントリの情報が各ノードで同じになるようにします。
各ノードの /etc/vfstab ファイルのエントリに、デバイスが同じ順序で表示されることを確認します。
ファイルシステムの起動順の依存関係を検査します。
たとえば、phys-schost-1 がディスクデバイス d0 を /global/oracle/ にマウントし、phys-schost-2 がディスクデバイス d1 を /global/oracle/logs/にマウントすると仮定します。この構成では、phys-schost-1 が起動して /global/oracle/ をマウントした後にのみ、phys-schost-2 が起動して /global/oracle/logs/ をマウントできます。
クラスタ内の任意のノードで sccheck(1M) ユーティリティーを実行します。
sccheck ユーティリティーは、マウントポイントの存在を確認します。また、/etc/vfstab ファイルのエントリが、クラスタのすべてのノードで正しいことを確認します。
# sccheck |
エラーが発生していない場合は、何も戻されません。
クラスタファイルシステムをマウントします。
# mount /global/device-group/mountpoint/ |
クラスタ内にある各ノード上で、クラスタファイルシステムがマウントされていることを確認します。
マウントされているファイルシステムのリストを表示するには、df(1M) コマンドまたは mount(1M) コマンドを使用できます。
次の例では、Solstice DiskSuite メタデバイスの /dev/md/oracle/rdsk/d1 にUFS クラスタファイルシステムが作成されます。
# newfs /dev/md/oracle/rdsk/d1 … (各ノード上で) # mkdir -p /global/oracle/d1 # vi /etc/vfstab #device device mount FS fsck mount mount #to mount to fsck point type ; pass at boot options # /dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs 2 yes global,logging (保存と終了) (1 つのノード上で) # sccheck # mount /global/oracle/d1 # mount … /global/oracle/d1 on /dev/md/oracle/dsk/d1 read/write/setuid/global/logging/largefiles on Sun Oct 3 08:56:16 2000 |
Sun Cluster ソフトウェアを Solaris 8 OS にインストールした場合、あるいは、SunPlex Installer を使用してクラスタをインストールした場合は、「インターネットプロトコル (IP) マルチパスグループを構成する」に進みます。
任意のプライベートホスト名を変更する場合は、「プライベートホスト名を変更する」に進みます。
Sun Cluster ソフトウェアをインストールする前に独自の /etc/inet/ntp.conf ファイルをインストールしていない場合は、NTP 構成ファイルをインストールまたは作成します。「ネットワークタイムプロトコル (NTP) を構成する」に進みます。
SPARC:Sun Management Center を構成して、クラスタを監視する場合は、「SPARC: Sun Management Center 用の Sun Cluster モジュールのインストール」に進みます。
そうでない場合は、Sun 以外のアプリケーションをインストールし、リソースタイプを登録し、リソースグループを設定し、データサービスを構成します。『Sun Cluster データサービスの計画と管理 (Solaris OS 版)』およびアプリケーションに付属のマニュアルで説明されている手順に従ってください。
クラスタの各ノードで次の作業を行います。SunPlex Installer を使用して Sun Cluster HA for Apache または Sun Cluster HA for NFS をインストールした場合、これらのデータサービスが使用するパブリックネットワークアダプタ用の IP ネットワークマルチパスグループは SunPlex Installer によって構成されています。残りのパブリックネットワークアダプタについては、ユーザーが IP ネットワークマルチパスグループを構成する必要があります。
パブリックネットワークアダプタはすべて IP ネットワークマルチパスグループに属する必要があります。
必要事項を記入した「パブリックネットワークのワークシート」を用意します。
『Solaris のシステム管理 (IP サービス)』の「IPMP グループの構成」 (Solaris 10) の手順を実行します。
また、以下に示す追加必要条件に従って Sun Cluster 構成の IP ネットワークマルチパスグループを設定します。
各パブリックネットワークアダプタは、マルチパスグループに属している必要があります。
次の種類のマルチパスグループでは、グループ内の各アダプタにテスト IP アドレスを設定する必要があります。
Solaris 8 OS では、すべてのマルチパスグループで、各アダプタにテスト IP アドレスを設定する必要があります。
Solaris 9 または Solaris 10 OS では、複数のアダプタがあるマルチパスグループでは、(各アダプタに) テスト IP アドレスを設定する必要があります。マルチパスグループにアダプタが 1 つしかない場合は、テスト IP アドレスを設定する必要はありません。
同一マルチパスグループ内のすべてのアダプタ用のテスト IP アドレスは、単一の IP サブネットに属する必要があります。
テスト IP アドレスは高可用性ではないため、通常のアプリケーションでは使用しないようにします。
/etc/default/mpathd ファイルで、TRACK_INTERFACES_ONLY_WITH_GROUPS の値は yes でなければなりません。
マルチパスグループの名前に、必要条件はありません。
任意のプライベートホスト名を変更する場合は、「プライベートホスト名を変更する」に進みます。
Sun Cluster ソフトウェアをインストールする前に独自の /etc/inet/ntp.conf ファイルをインストールしていない場合は、NTP 構成ファイルをインストールまたは作成します。「ネットワークタイムプロトコル (NTP) を構成する」に進みます。
SPARC ベースのシステムで Sun Cluster を使用しており、クラスタの監視に Sun Management Center を使用したい場合は、 Sun Management Center 用の Sun Cluster モジュールをインストールします。「SPARC: Sun Management Center 用の Sun Cluster モジュールのインストール」に進みます。
そうでない場合は、Sun 以外のアプリケーションをインストールし、リソースタイプを登録し、リソースグループを設定し、データサービスを構成します。『Sun Cluster データサービスの計画と管理 (Solaris OS 版)』およびアプリケーションに付属のマニュアルで説明されている手順に従ってください。
次の作業は、Sun Cluster ソフトウェアのインストール中に割り当てられるデフォルトのプライベートホスト名 (clusternodenodeid-priv) を使用しない場合に実行します。
この手順は、アプリケーションとデータサービスの構成および起動後には実行しないでください。アプリケーションやデータサービスは、名前の変更後も引き続き古いプライベートホスト名を使用することがあり、この手順を実行するとホスト名の衝突が発生します。アプリケーションやデータサービスが実行中の場合は、この手順を実行する前に停止しておいてください。
クラスタの 1 つのアクティブなノードで次の手順を実行します。
クラスタ内の 1 つのノードのスーパーユーザになります。
# scsetup |
「メインメニュー」から「プライベートホスト名」という項目を選択します。
「プライベートホストメニュー」から 「プライベートホスト名を変更」という項目を選択します。
プロンプトに従って、プライベートホスト名を変更します。
変更するプライベートホスト名ごとに繰り返します。
# scconf -pv | grep "プライベートホスト名" (phys-schost-1) ノード プライベートホスト名: phys-schost-1-priv (phys-schost-3) ノード プライベートホスト名: phys-schost-3-priv (phys-schost-2) ノード プライベートホスト名: phys-schost-2-priv |
Sun Cluster ソフトウェアをインストールする前に独自の /etc/inet/ntp.conf ファイルをインストールしていない場合は、NTP 構成ファイルをインストールまたは作成します。「ネットワークタイムプロトコル (NTP) を構成する」に進みます。
SPARC:Sun Management Center を構成して、クラスタを監視する場合は、「SPARC: Sun Management Center 用の Sun Cluster モジュールのインストール」に進みます。
そうでない場合は、Sun 以外のアプリケーションをインストールし、リソースタイプを登録し、リソースグループを設定し、データサービスを構成します。アプリケーションソフトウェアに付属のマニュアルおよび『Sun Cluster データサービスの計画と管理 (Solaris OS 版)』を参照してください。
Sun Cluster ソフトウェアをインストールする前に、ユーザー独自の /etc/inet/ntp.conf ファイルをインストールしていた場合は、この手順を実行する必要はありません。次に行う手順を決定します。
SPARC:Sun Management Center を構成して、クラスタを監視する場合は、「SPARC: Sun Management Center 用の Sun Cluster モジュールのインストール」に進みます。
そうでない場合は、Sun 以外のアプリケーションをインストールし、リソースタイプを登録し、リソースグループを設定し、データサービスを構成します。アプリケーションソフトウェアに付属のマニュアルおよび『Sun Cluster データサービスの計画と管理 (Solaris OS 版)』を参照してください。
次に示す作業を実行した後には、この節の作業を実行して、NTP 構成ファイルを作成または変更します。
Sun Cluster ソフトウェアをインストールした場合
既存のクラスタにノードを追加した場合
クラスタのノードのプライベートホスト名を変更した場合
単一ノードクラスタにノードを追加した場合、新しいクラスタノードと同様に元のクラスタノードにも、使用する NTP 構成ファイルがコピーされていることを確認します。
NTP を構成する (つまり、クラスタ内で同期をとる) 場合に重要な第一の条件は、すべてのクラスタノードが同時に同期をとる必要があるということです。ノード間で同期をとる場合に重要な第二の条件は、個々のノードの時間が正確であるということです。このような同期についての基本的条件に適合する場合は、NTP はニーズに合わせて自由に構成できます。
クラスタの時刻の詳細については、『Sun Cluster の概念 (Solaris OS 版)』を参照してください。NTP を Sun Cluster 構成用に構成する場合のガイドラインについては、/etc/inet/ntp.cluster テンプレートファイルを参照してください。
クラスタノード上にインストールするクラスタノード上でスーパーユーザーになります。
ユーザー独自の構成ファイルがある場合は、そのファイルをクラスタの各ノードにコピーします。
インストールする /etc/inet/ntp.conf ファイルがない場合は、 /etc/inet/ntp.conf.cluster ファイルを NTP 構成ファイルとして使用します。
ntp.conf.cluster ファイルの名前を ntp.conf に変更してはいけません。
ノード上に /etc/inet/ntp.conf.cluster ファイルが存在しない場合、Sun Cluster ソフトウェアの初期インストールに /etc/inet/ntp.conf ファイルが存在する可能性があります。ノード上に /etc/inet/ntp.conf ファイルが存在しない場合、Sun Cluster ソフトウェアは NTP 構成ファイルとして /etc/inet/ntp.conf.cluster ファイルを作成します。この場合、その ntp.conf ファイルを次のように編集します。
クラスタ内にあるすべてのノードに NTP 構成ファイルをコピーします。
NTP 構成ファイルの内容は、すべてのクラスタノードで同じである必要があります。
各ノード上で停止コマンドが正常に終了するまで待機して、手順 6 に進みます。
Solaris 8 または Solaris 9 OS の場合は、次のコマンドを使用します。
# /etc/init.d/xntpd stop |
Solaris 10 OS の場合は、次のコマンドを使用します。
# svcadm disable ntp |
各ノード上で、NTP デーモンを再起動します。
ntp.conf.cluster ファイルを使用する場合は、次のコマンドを実行します。
# /etc/init.d/xntpd.cluster start |
xntpd.cluster 起動スクリプトは最初に、/etc/inet/ntp.conf ファイルを検索します。
ntp.conf ファイルが存在する場合、このスクリプトは NTP デーモンを起動せずに即座に終了します。
ntp.conf ファイルは存在しないが、ntp.conf.cluster ファイルは存在する場合、スクリプトは NTP デーモンを起動します。この場合、スクリプトは ntp.conf.cluster ファイルを NTP 構成ファイルとして使用します。
ntp.conf ファイルを使用する場合、次のコマンドのうちの 1 つを実行します。
Solaris 8 または Solaris 9 OS の場合は、次のコマンドを使用します。
# /etc/init.d/xntpd start |
Solaris 10 OS の場合は、次のコマンドを使用します。
# svcadm enable ntp |
SPARC:Sun Management Center を構成して、クラスタを監視する場合は、「SPARC: Sun Management Center 用の Sun Cluster モジュールのインストール」に進みます。
そうでない場合は、Sun 以外のアプリケーションをインストールし、リソースタイプを登録し、リソースグループを設定し、データサービスを構成します。アプリケーションソフトウェアに付属のマニュアルおよび『Sun Cluster データサービスの計画と管理 (Solaris OS 版)』を参照してください。