この節では、クラスタにインストールしたソフトウェアの構成に関する情報と手順について説明します。
次の手順を実行して、クラスタファイルシステムを作成します。ローカルシステムと違って、クラスタファイルシステムはクラスタ内のどのノードからでもアクセスできます。SunPlex Installer を使用してデータサービスをインストールした場合、SunPlex Installer がすでに 1 つ以上のクラスタファイルシステムを作成している場合があります。
ファイルシステムを作成するとき、ディスク上のデータは破壊されます。必ず、正しいディスクデバイス名を指定してください。間違ったデバイス名を指定した場合、削除するつもりのないデータが削除されてしまいます。
作成するクラスタファイルシステムごとに、次の手順を実行します。
ボリューム管理ソフトウェアのインストールと構成が行われていることを確認します。
ボリューム管理ソフトウェアのインストール手順については、「Solstice DiskSuite または Solaris Volume Manager ソフトウェアのインストールと構成」か 「SPARC: VxVM ソフトウェアのインストールと構成」を参照してください。
クラスタ内にある任意のノード上でスーパーユーザーになります。
ファイルシステムを迅速に作成するには、ファイルシステムを作成する広域デバイスの現在の主ノードでスーパーユーザーになります。
ファイルシステムを作成します。
UFS ファイルシステムの場合、newfs(1M) コマンドを使用します。
# newfs raw-disk-device |
下の表に、引数 raw-disk-device の名前の例を挙げます。命名規約はボリューム管理ソフトウェアごとに異なるので注意してください。
ボリュームマネージャ |
ディスクデバイス名の例 |
説明 |
---|---|---|
Solstice DiskSuite または Solaris ボリュームマネージャ |
/dev/md/nfs/rdsk/d1 |
nfs ディスクセット内の raw デバイス d1 |
SPARC:VERITAS Volume Manager |
/dev/vx/rdsk/oradg/vol01 |
oradg ディスクセット内の raw デバイス vol01 |
なし |
/dev/global/rdsk/d1s3 |
raw ディスクデバイス d1s3 |
SunStorEdge QFS ファイルシステムの場合、『Sun StorEdge QFS and Sun StorEdge SAM-FS Software Installation and Configuration Guide』の構成を定義する手順に従ってください。
SPARC:VERITAS File System (VxFS) ファイルシステムの場合、VxFS のマニュアルに記載された手順に従ってください。
クラスタ内の各ノードで、クラスタファイルシステムのマウントポイントディレクトリを作成します。
そのノードからはクラスタファイルシステムにアクセスしない場合でも、マウントポイントはノードごとに必要です。
管理を行いやすくするには、マウントポイントを /global/device-group/ ディレクトリに作成します。この場所を使用すると、広域的に利用できるクラスタファイルシステムとローカルファイルシステムを区別しやすくなります。
# mkdir -p /global/device-group/mountpoint/ |
デバイスが属するデバイスグループ名に対応するディレクトリの名前。
クラスタファイルシステムをマウントするディレクトリの名前。
クラスタ内の各ノードで、マウントポイント用の /etc/vfstabファイルにエントリを追加します。
詳細については、vfstab(4) のマニュアルページを参照してください。
各エントリで、使用する種類のファイルシステムに必要なマウントオプションを指定します。必要なマウントオプションのリストについては、表 2–10、表 2–11または表 2–12 を参照してください。
Solstice DiskSuite トランスメタデバイスや Solaris ボリュームマネージャ トランザクショナルボリュームには、logging マウントオプションを使用しないでください。トランスメタデバイスおよびトランザクショナルボリュームは、独自のロギングを提供します。
さらに、 Solaris ボリュームマネージャ トランザクションボリュームロギング (旧 Solstice DiskSuite トランスメタデバイスロギング) は、今後の Solaris のリリースで Solaris OS から削除される予定です。Solaris UFS ロギング は、より低い管理条件とオーバーヘッドで、同様の機能を高いパフォーマンスで提供します。
UFS マウントポイントの詳細については、mount_ufs(1M) のマニュアルページを参照してください。
表 2–11 SPARC: SPARC: Sun StorEdge QFS 共有ファイルシステムのマウントパラメータ
マウントパラメータ |
説明 |
---|---|
shared |
必須。このオプションは、このファイルシステムが共有ファイルシステムであり、このためクラスタ内のすべてのノードにグローバルに表示できることを指定します。 |
/etc/vfstab ファイルの設定が /etc/opt/SUNWsamfs/samfs.cmd ファイルの設定と競合しないことを確認してください。/etc/vfstab ファイルの設定は、/etc/opt/SUNWsamfs/samfs.cmd ファイルの設定を無効にします。
Sun Cluster Support for Oracle Real Application Clusters などの一部のデータサービスには、QFS マウントパラメータに関する追加の必要条件とガイドラインがあります。追加の必要条件については、データサービスのマニュアルを参照してください。
QFS のマウント パラメータについて詳しくは、mount_samfs(1M) のマニュアルページを参照してください。
/etc/vfstab マウントパラメータでは、ロギングは有効になりません。ロギングを有効にするには、『Sun StorEdge QFS and Sun StorEdge SAM-FS Software Installation and Configuration Guide』の手順に従ってください。
マウントオプション |
説明 |
---|---|
大域 (global) |
必須。このオプションを選択すると、クラスタ内のすべてのノードでファイルシステムが表示されます。 |
log |
必須。このオプションを選択すると、ロギングが有効になります。 |
VxFS マウントオプションの詳細については、VxFS mount_vxfs のマニュアルページおよび『Sun Cluster のシステム管理 (Solaris OS 版)』の「クラスタファイルシステムの管理の概要」を参照してください。
クラスタファイルシステムを自動的にマウントするには、mount at boot フィールドを yes に設定します。
各クラスタファイルシステムで、/etc/vfstab エントリの情報が各ノードで同じになるようにします。
各ノードの /etc/vfstab ファイルのエントリに、デバイスが同じ順序で表示されることを確認します。
ファイルシステムの起動順の依存関係を検査します。
たとえば、phys-schost-1 がディスクデバイス d0 を /global/oracle/ にマウントし、phys-schost-2 がディスクデバイス d1 を /global/oracle/logs/にマウントすると仮定します。この構成では、phys-schost-1 が起動して /global/oracle/ をマウントした後にのみ、 phys-schost-2 が起動して /global/oracle/logs/ をマウントできます。
クラスタ内の任意のノードで sccheck(1M) ユーティリティーを実行します。
sccheck ユーティリティーは、マウントポイントの存在を確認します。また、/etc/vfstab ファイルのエントリが、クラスタのすべてのノードで正しいことを確認します。
# sccheck |
エラーが発生していない場合は、何も戻されません。
クラスタファイルシステムをマウントします。
# mount /global/device-group/mountpoint/ |
UFS と QFS の場合は、クラスタ内の任意のノードからクラスタファイルシステムをマウントします。
SPARC: VxFS の場合は、確実にファイルシステムをマウントするために、device-group のカレントマスターからクラスタファイルシステムをマウントします。さらに、ファイルシステムを正しく確実にマウント解除するには、device-group の現在のマスターからファイルシステムをマウント解除します。
VxFS クラスタファイルシステムを Sun Cluster 環境で管理するには、VxFS クラスタファイルシステムがマウントされている主ノードだけから管理コマンドを実行します。
クラスタ内にある各ノード上で、クラスタファイルシステムがマウントされていることを確認します。
マウントされているファイルシステムのリストを表示するには、df(1M) コマンドまたは mount(1M) コマンドを使用できます。
IP ネットワークマルチパスグループを構成します。
次の例では、Solstice DiskSuite メタデバイスの /dev/md/oracle/rdsk/d1 にUFS クラスタファイルシステムが作成されます。
# newfs /dev/md/oracle/rdsk/d1 … (各ノード上で) # mkdir -p /global/oracle/d1 # vi /etc/vfstab #device device mount FS fsck mount mount #to mount to fsck point type ; pass at boot options # /dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs 2 yes global,logging (保存と終了) (1 つのノード上で) # sccheck # mount /global/oracle/d1 # mount … /global/oracle/d1 on /dev/md/oracle/dsk/d1 read/write/setuid/global/logging/largefiles on Sun Oct 3 08:56:16 2000 |
クラスタの各ノードで次の作業を行います。SunPlex Installer を使用して Sun Cluster HA for Apache または Sun Cluster HA for NFS をインストールした場合、これらのデータサービスが使用するパブリックネットワークアダプタ用の IP ネットワークマルチパスグループは SunPlex Installer によって構成されています。残りのパブリックネットワークアダプタについては、ユーザーが IP ネットワークマルチパスグループを構成する必要があります。
パブリックネットワークアダプタはすべて IP ネットワークマルチパスグループに属する必要があります。
必要事項を記入した「パブリックネットワークのワークシート」を用意します。
『IP ネットワークマルチパスの管理』(Solaris 8) の「ネットワークマルチパスの導入」または『Solaris のシステム管理 (IP サービス)』(Solaris 9) の「ネットワークマルチパスの管理 (手順)」で説明されている IPv4 アドレスに関する手順を実行します。
また、以下に示す追加必要条件に従って Sun Cluster 構成の IP ネットワークマルチパスグループを設定します。
各パブリックネットワークアダプタは、マルチパスグループに属している必要があります。
マルチパスグループに 2 つ以上のアダプタが含まれている場合は、グループのアダプタごとにテストIP アドレスを設定する必要があります。マルチパスグループにアダプタが 1 つしかない場合は、テスト IP アドレスを設定する必要はありません。
同一マルチパスグループ内のすべてのアダプタ用のテスト IP アドレスは、単一の IP サブネットに属する必要があります。
テスト IP アドレスは高可用性ではないため、通常のアプリケーションでは使用しないようにします。
/etc/default/mpathd ファイルで、TRACK_INTERFACES_ONLY_WITH_GROUPS の値はyes でなければなりません。
マルチパスグループの名前に、必要条件はありません。
プライベートホスト名を変更する場合は、「プライベートホスト名を変更する」 に進みます。
Sun Cluster ソフトウェアをインストールする前に、独自の/etc/inet/ntp.conf ファイルをインストールしていない場合は、
「ネットワークタイムプロトコル (NTP) を構成する」に進み、NTP 構成ファイルのインストールまたは作成を行います。
SPARC ベースのシステムで Sun Cluster を使用しており、クラスタの監視に Sun Management Center を使用したい場合は、 Sun Management Center 用の Sun Cluster モジュールをインストールします。
「SPARC: Sun Cluster モジュールを Sun Management Center 用にインストールする」に進みます。
Sun 以外のアプリケーションをインストールし、リソースタイプを登録し、リソースグループを設定し、データサービスを構成します。
『Sun Cluster データサービスの計画と管理 (Solaris OS 版)』およびアプリケーションに付属のマニュアルで説明されている手順に従ってください。
次の作業は、Sun Cluster ソフトウェアのインストール中に割り当てられるデフォルトのプライベートホスト名 (clusternodenodeid-priv) を使用しない場合に実行します。
この手順は、アプリケーションとデータサービスの構成および起動後には実行しないでください。アプリケーションやデータサービスは、名前の変更後も引き続き古いプライベートホスト名を使用することがあり、この手順を実行するとホスト名の衝突が発生します。アプリケーションやデータサービスが実行中の場合は、この手順を実行する前に停止しておいてください。
クラスタの 1 つのアクティブなノードで次の手順を実行します。
クラスタ内の 1 つのノードのスーパーユーザになります。
# scsetup |
「メインメニュー」から「プライベートホスト名」という項目を選択します。
「プライベートホストメニュー」から 「プライベートホスト名を変更」という項目を選択します。
プロンプトに従って、プライベートホスト名を変更します。
変更するプライベートホスト名ごとに繰り返します。
# scconf -pv | grep "プライベートホスト名" (phys-schost-1) ノード プライベートホスト名: phys-schost-1-priv (phys-schost-3) ノード プライベートホスト名: phys-schost-3-priv (phys-schost-2) ノード プライベートホスト名: phys-schost-2-priv |
Sun Cluster ソフトウェアをインストールする前に独自の /etc/inet/ntp.conf ファイルをインストールしなかった場合は、NTP 構成ファイルをインストールまたは作成します。
(省略可能) SPARC: Sun Management Center をクラスタを監視するように構成します。
「SPARC: Sun Cluster モジュールを Sun Management Center 用にインストールする」に進みます。
Sun 以外のアプリケーションをインストールし、リソースタイプを登録し、リソースグループを設定し、データサービスを構成します。
アプリケーションソフトウェアに付属のマニュアルおよび『Sun Cluster データサービスの計画と管理 (Solaris OS 版)』を参照してください。
Sun Cluster ソフトウェアをインストールした後、次の作業を行なって、NTP 構成ファイルを作成および変更します。また、ノードを既存のクラスタに追加したときや、クラスタ内にあるノードのプライベートホスト名を変更したときも、NTP 構成ファイルを変更する必要があります。単一ノードのクラスタにノードを追加した場合、使用する NTP 構成ファイルがもとのクラスタノードにコピーされていることを確認します。
NTP を構成する (つまり、クラスタ内で同期をとる) 場合に重要な第一の条件は、すべてのクラスタノードが同時に同期をとる必要があるということです。ノード間で同期をとる場合に重要な第二の条件は、個々のノードの時間が正確であるということです。このような同期についての基本的条件に適合する場合は、NTP はニーズに合わせて自由に構成できます。
クラスタの時刻の詳細については、『Sun Cluster の概念 (Solaris OS 版)』を参照してください。NTP を Sun Cluster 構成用に構成する場合のガイドラインについては、/etc/inet/ntp.cluster テンプレートファイルを参照してください。
Sun Cluster ソフトウェアをインストールする前に独自の /etc/inet/ntp.conf ファイルをインストールしてある場合は、その ntp.conf ファイルを変更する必要はありません。
手順 8 に進んでください。
クラスタノードのスーパーユーザーになります。
独自のファイルがある場合は、そのファイルをクラスタの各ノードにコピーします。
インストールする /etc/inet/ntp.conf ファイルがない場合は、 /etc/inet/ntp.conf.cluster ファイルを NTP 構成ファイルとして使用します。
ntp.conf.cluster ファイルの名前を ntp.confに変更してはいけません。
ノード上に /etc/inet/ntp.conf.cluster ファイルが存在しない場合、Sun Cluster ソフトウェアの初期インストールに /etc/inet/ntp.conf ファイルが存在する可能性があります。ノード上に /etc/inet/ntp.conf ファイルが存在しない場合、Sun Cluster ソフトウェアは NTP 構成ファイルとして /etc/inet/ntp.conf.cluster ファイルを作成します。この場合、その ntp.conf ファイルを次のように編集します。
任意のテキストエディタを使用して、クラスタの 1 つのノードで、/etc/inet/ntp.conf.cluster ファイルを編集するために開きます。
各クラスタノードのプライベートホスト名用のエントリが存在することを確認します。
ノードのプライベートホスト名を変更した場合、新しいプライベートホスト名が NTP 構成ファイルに存在することを確認します。
使用しないプライベートホスト名を削除します。
ntp.conf.cluster ファイルに存在しないプライベートホスト名が含まれている可能性があります。この場合、ノードを再起動するときに、ノードが存在しないプライベートホスト名に接続しようとするため、エラーメッセージが生成されます。
必要であれば、各自の NTP 条件に適合するように NTP 構成ファイルを変更します。
クラスタ内にあるすべてのノードに NTP 構成ファイルをコピーします。
NTP 構成ファイルの内容は、すべてのクラスタノードで同じである必要があります。
各ノード上で、NTP デーモンを停止します。
各ノード上で停止コマンドが正常に終了するまで待機して、手順 7 に進みます。
# /etc/init.d/xntpd stop |
各ノード上で、NTP デーモンを再起動します。
ntp.conf.cluster ファイルを使用する場合は、次のコマンドを実行します。
# /etc/init.d/xntpd.cluster start |
xntpd.cluster 起動スクリプトは最初に、/etc/inet/ntp.conf ファイルを検索します。このファイルが存在しない場合、起動スクリプトは NTP デーモンを起動せずに即座に終了します。ntp.conf ファイルは存在しないが、ntp.conf.cluster ファイルは存在する場合、スクリプトは NTP デーモンを起動します。この場合、スクリプトは ntp.conf.cluster ファイルを NTP 構成ファイルとして使用します。
ntp.confファイルを使用する場合は、次のコマンドを実行します。
# /etc/init.d/xntpd start |
(省略可能) SPARC: Sun Management Center をクラスタを監視するように構成します。
「SPARC: Sun Cluster モジュールを Sun Management Center 用にインストールする」に進みます。
Sun 以外のアプリケーションをインストールし、リソースタイプを登録し、リソースグループを設定し、データサービスを構成します。
アプリケーションソフトウェアに付属のマニュアルおよび『Sun Cluster データサービスの計画と管理 (Solaris OS 版)』を参照してください。