この節では、新しいクラスタを確立したり、既存のクラスタにノードを追加したりするための情報と手順について説明します。これらの作業を開始する前に、「ソフトウェアをインストールする」で説明した手順に従って、Solaris OS、Sun Cluster フレームワーク、およびその他の製品用のソフトウェアパッケージをインストールしていることを確認してください。
また、Sun N1TM Service Provisioning System 用の Sun Cluster プラグインを配備して、複数ノードのクラスタを作成したり、既存のクラスタにノードを追加したりすることができます。プラグインに付属のマニュアルに記載されている手順に従ってください。 でも、この情報を参照できます。
次の作業マップに、実行する作業を示します。ここに示す順に従って手順を実行します。
表 3–1 作業マップ: クラスタの確立
方法 |
参照先 |
---|---|
1. 次のいずれかの方法を使用して、新しいクラスタを確立するか、既存のクラスタにノードを追加します。 |
|
| |
| |
| |
|
「ノードまたはプライベートネットワークを追加するときにプライベートネットワーク構成を変更する」 |
2. クラスタにノードを追加した場合は、定足数構成情報を更新します。 | |
3. 定足数投票権を割り当て、クラスタがまだインストールモードである場合は、インストールモードを解除します。 | |
4. 定足数構成の妥当性を検査します。 | |
5. (任意) ノードのプライベートホスト名を変更します。 | |
6. NTP 構成ファイルがまだ設定されていない場合は、このファイルを作成するか、または変更します。 | |
7. ボリュームマネージャーを使用している場合は、ボリューム管理ソフトウェアをインストールします。 |
第 4 章「Solaris Volume Manager ソフトウェアの構成」または第 5 章「VERITAS Volume Manager をインストールして構成する」 |
8. 必要に応じて、クラスタファイルシステムまたは高可用性ローカルファイルシステムを作成します。 |
「クラスタファイルシステムを追加する」または『Sun Cluster データサービスの計画と管理 (Solaris OS 版)』の「高可用性ローカルファイルシステムの有効化」 |
9. (任意) SPARC: クラスタを監視するように Sun Management Center を構成します。 |
「SPARC: Sun Cluster モジュールを Sun Management Center 用にインストールする」 |
10. Sun 以外のアプリケーションをインストールし、リソースタイプを登録し、リソースグループを設定し、データサービスを構成します。 |
『Sun Cluster データサービスの計画と管理 (Solaris OS 版)』 アプリケーションソフトウェアで提供されるマニュアル |
11. 終了したクラスタ構成の基準値の記録を取ります。 |
Sun Cluster ソフトウェアをクラスタのすべてのノードで構成するには、クラスタの 1 つのノードからこの手順を実行します。
この手順では、対話型の scinstall コマンドを使用します。インストールスクリプトを開発するときなど、非対話型の scinstall コマンドを使用する場合は、scinstall(1M) のマニュアルページを参照してください。
scinstall コマンドを実行する前に、手動またはサイレントモード形式の Java ES installer コマンドを使用して、Sun Cluster ソフトウェアパッケージがノードにインストールされていることを確認してください。Java ES installer プログラムをインストールスクリプトから実行する方法の詳細については、『Sun Java Enterprise System 5 インストールガイド (UNIX 版)』の第 5 章「サイレントモードでのインストール」を参照してください。
次の作業を実行します。
Sun Cluster ソフトウェアをサポートするように Solaris OS がインストールされているか確認します。
Solaris ソフトウェアがすでにノード上にインストールされている場合は、Solaris のインストールが Sun Cluster ソフトウェアの必要条件、およびそのクラスタにインストールする予定の他のソフトウェアの必要条件を満たしていることを確認してください。Solaris ソフトウェアをインストールして、Sun Cluster ソフトウェアの必要条件を満たす方法の詳細については、「Solaris ソフトウェアをインストールする」を参照してください。
Sun Cluster ソフトウェアパッケージとパッチがノードにインストールされていることを確認します。「Sun Cluster フレームワークおよびデータサービスソフトウェアパッケージをインストールする」を参照してください。
使用する scinstall ユーティリティーのモードが「通常」または「カスタム」のどちらであるかを判断します。「通常」を指定した Sun Cluster ソフトウェアのインストールでは、scinstall が自動的に次のデフォルト構成を指定します。
コンポーネント |
デフォルト値 |
---|---|
プライベートネットワークアドレス |
172.16.0.0 |
プライベートネットワークネットマスク |
255.255.248.0 |
クラスタトランスポートアダプタ |
正確に 2 つのアダプタ |
クラスタトランスポートスイッチ |
switch1 および switch2 |
グローバルデバイスファイルシステム名 |
/globaldevices |
インストールセキュリティ (DES) |
制限付き |
次のクラスタ構成ワークシートのうちの 1 つに必要事項を記入します。どちらのワークシートを使用するかは、scinstall ユーティリティーを「通常」または「カスタム」のどちらのモードで実行するかによって決まります。
通常モードのワークシート - 通常モードを使用して、デフォルト値をすべて受け入れる場合は、次のワークシートに必要事項を記入します。
カスタムモードのワークシート - カスタムモードを使用して構成データをカスタマイズする場合は、次のワークシートに必要事項を記入します。
単一ノードクラスタをインストールしている場合、クラスタでプライベートネットワークを使用していなくても、scinstall ユーティリティが自動的にデフォルトのプライベートネットワークアドレスとネットマスクを割り当てます。
これらのガイドラインに従い、次に示す手順で対話式の scinstall ユーティリティーを使用します。
対話式 scinstall を使用すると、先行入力が可能になります。したがって、次のメニュー画面がすぐに表示されなくても、Return キーを押すのは一度だけにしてください。
特に指定のある場合を除いて、Control-D キーを押すと、関連する一連の質問の最初に戻るか、メインメニューに戻ります。
前のセッションのデフォルトの解凍が、質問の最後に角かっこ ([ ]) で囲まれて表示されます。入力せずに角かっこ内の回答を入力するには、Return キーを押します。
Sun Cluster ソフトウェアのインストール時にリモート構成を無効にした場合は、リモート構成をもう一度有効にします。
すべてのクラスタノードで スーパーユーザーのリモートシェル (rsh(1M)) またはセキュアシェル (ssh(1)) アクセスします。
新しいクラスタのプライベートインターコネクトでスイッチを使用している場合は、NDP (Neighbor Discovery Protocol) が無効になっていることを確認します。
スイッチのマニュアルの手順に従って、NDP が有効になっているかどうかを確認し、NDP を無効にします。
クラスタ構成中に、ソフトウェアはプライベートインターコネクトにトラフィックがないことを確認します。プライベートインターコネクトでトラフィックを確認したときに NDP がプライベートアダプタにパッケージを送信する場合、ソフトウェアはインターコネクトがプライベートではないものとみなし、クラスタ構成が中断されます。このため、クラスタ作成中は NDP を無効にしてください。
クラスタが確立されたあと、NDP の機能を使用する場合は、プライベートインターコネクトスイッチ上でもう一度 NDP を有効にすることができます。
クラスタを構成するクラスタノードでスーパーユーザーになります。
scinstall ユーティリティーを起動します。
phys-schost# /usr/cluster/bin/scinstall |
「新しいクラスタの作成またはクラスタノードの追加」というオプションに対応する番号を入力し、Return キーを押します。
*** Main Menu *** Please select from one of the following (*) options: * 1) Create a new cluster or add a cluster node 2) Configure a cluster to be JumpStarted from this install server 3) Manage a dual-partition upgrade 4) Upgrade this cluster node * 5) Print release information for this cluster node * ?) Help with menu options * q) Quit Option: 1 |
「新しいクラスタとクラスタノード」メニューが表示されます。
「新しいクラスタの作成」オプションの番号を入力し、Return キーを押します。
「通常」または「カスタム」モードメニューが表示されます。
「通常」または「カスタム」のいずれかのオプション番号を入力し、Return キーを押します。
「新しいクラスタの作成」画面が表示されます。要件を読み、Control-D キーを押して操作を続けます。
メニュープロンプトに従って、構成計画ワークシートから回答を入力します。
scinstall ユーティリティーは、すべてのクラスタノードのインストールを行い、クラスタを再起動します。クラスタ内ですべてのノードが正常に起動されると、クラスタが確立されます。Sun Cluster のインストール出力は、/var/cluster/logs/install/scinstall.log.N に記録されます。
Solaris 10 OS では、各ノードで、Service Management Facility (SMF) 用のマルチユーザーサービスがオンラインであることを確認します。
ノードのサービスがまだオンラインでない場合は、次のステップに進む前に状態がオンラインになるまで待ちます。
phys-schost# svcs multi-user-server node STATE STIME FMRI online 17:52:55 svc:/milestone/multi-user-server:default |
1 つのノードで、スーパーユーザーになります。
phys-schost# clnode status |
出力は次のようになります。
=== Cluster Nodes === --- Node Status --- Node Name Status --------- ------ phys-schost-1 Online phys-schost-2 Online phys-schost-3 Online |
詳細は、clnode(1CL) のマニュアルページを参照してください。
(省略可能) 監視対象ディスクパスのすべてに障害が発生した場合に自動ノード再起動を有効にします。
自動リブート機能を有効にします。
phys-schost# clnode set -p reboot_on_path_failure=enabled |
設定するプロパティーを指定します。
クラスタ内の異なるノードから 1 つ以上のディスクにアクセスできる場合、監視されているすべてのディスクパスで障害が発生するとノードが再起動するように指定します。
ディスクパスの障害発生時の自動リブートが有効になっていることを確認します。
phys-schost# clnode show === Cluster Nodes === Node Name: node … reboot_on_path_failure: enabled … |
高可用ローカルファイルシステムで Sun Cluster HA for NFS を使用する場合は、ループバックファイルシステム (LOFS) が無効になっていることを確認してください。
LOFS を無効にするには、クラスタの各ノードの/etc/system ファイルに次のエントリを追加します。
exclude:lofs |
/etc/system ファイルへの変更は、次のシステム再起動後に有効になります。
高可用ローカルファイルシステムで Sun Cluster HA for NFS を使用し、automountd を実行している場合は、LOFS を有効にすることはできません。LOFS が Sun Cluster HA for NFS でスイッチオーバーの問題を引き起こすおそれがあります。高可用ローカルファイルシステムに Sun Cluster HA for NFS を追加することを選択する場合は、次のいずれかの構成の変更を行う必要があります。
ただし、クラスタで非大域ゾーンを構成する場合は、すべてのクラスタノードで LOFS を有効にする必要があります。高可用ローカルファイルシステム上の Sun Cluster HA for NFS が LOFS と共存する必要がある場合は、LOFS を無効にする代わりに、ほかのソリューションを使用してください。
LOFS を無効にします。
automountd デーモンを無効にします。
Sun Cluster HA for NFS からエクスポートされた高可用ローカルファイルシステムに含まれるすべてのファイルをオートマウンタマップから除外します。この選択により、LOFS と automountd デーモンの両方を有効なままにすることができます。
ループバックファイルシステムについての詳細は、「The Loopback File System」 in 『System Administration Guide: Devices and File Systems』 (Solaris 9またはSolaris 10) を参照してください。
ここでは、scinstall を使用して 2 ノードクラスタ schost で構成作業を完了したときに、ログに記録される scinstall 進行状況メッセージの例を示します。このクラスタは、scinstall の「通常」モードを使用することによって、phys-schost-1 からインストールされます。もう一つのクラスタノードは、phys-schost-2 です。アダプタ名は qfe2 と qfe3です。定足数デバイスの自動選択は有効です。
Installation and Configuration Log file - /var/cluster/logs/install/scinstall.log.24747 Testing for "/globaldevices" on "phys-schost-1" … done Testing for "/globaldevices" on "phys-schost-2" … done Checking installation status … done The Sun Cluster software is already installed on "phys-schost-1". The Sun Cluster software is already installed on "phys-schost-2". Starting discovery of the cluster transport configuration. The following connections were discovered: phys-schost-1:qfe2 switch1 phys-schost-2:qfe2 phys-schost-1:qfe3 switch2 phys-schost-2:qfe3 Completed discovery of the cluster transport configuration. Started sccheck on "phys-schost-1". Started sccheck on "phys-schost-2". sccheck completed with no errors or warnings for "phys-schost-1". sccheck completed with no errors or warnings for "phys-schost-2". Removing the downloaded files … done Configuring "phys-schost-2" … done Rebooting "phys-schost-2" … done Configuring "phys-schost-1" … done Rebooting "phys-schost-1" … Log file - /var/cluster/logs/install/scinstall.log.24747 Rebooting … |
構成の失敗 - 1 つまたは複数のノードがクラスタに参加できない場合、または誤った構成情報が指定された場合は、まずこの手順をもう一度実行してみてください。それでも問題が修正されない場合は、誤った構成の各ノードで 「インストールの問題を修正するために Sun Cluster ソフトウェアを構成解除する」の手順を実行して、クラスタ構成からそのノードを削除します。Sun Cluster ソフトウェアパッケージをアンインストールする必要はありません。それから、この手順をもう一度実行します。
単一ノードのクラスタをインストールした場合、クラスタの確立は完了です。「クラスタファイルシステムの作成」に進んで、ボリューム管理ソフトウェアをインストールし、クラスタを構成してください。
複数ノードクラスタをインストールして、自動定足数構成を選択した場合は、インストール後の設定は完了しています。「定足数構成とインストールモードを確認する」に進みます。
複数ノードクラスタをインストールして、自動定足数構成を拒否した場合は、インストール後の設定を実行します。「 「定足数デバイスを構成する」」に進みます。
XML クラスタ構成ファイルを使用して新規クラスタを構成するには、以下の手順を実行します。新しいクラスタは、Sun Cluster 3.2 2/08 ソフトウェアを実行する既存のクラスタから複製できます。
この手順では、次のクラスタ構成要素を構成します。
クラスタ名
クラスタノードのメンバーシップ
クラスタインターコネクト
グローバルデバイス
次の作業を実行します。
Sun Cluster ソフトウェアをサポートするように Solaris OS がインストールされているか確認します。
Solaris ソフトウェアがすでにノード上にインストールされている場合は、Solaris のインストールが Sun Cluster ソフトウェアの必要条件、およびそのクラスタにインストールする予定の他のソフトウェアの必要条件を満たしていることを確認してください。Solaris ソフトウェアをインストールして、Sun Cluster ソフトウェアの必要条件を満たす方法の詳細については、「Solaris ソフトウェアをインストールする」を参照してください。
Sun Cluster ソフトウェアをサポートするように Solaris OS がインストールされているか確認します。
Solaris ソフトウェアがすでにノード上にインストールされている場合は、Solaris のインストールが Sun Cluster ソフトウェアの必要条件、およびそのクラスタにインストールする予定の他のソフトウェアの必要条件を満たしていることを確認してください。Solaris ソフトウェアをインストールして、Sun Cluster ソフトウェアの必要条件を満たす方法の詳細については、「Solaris ソフトウェアをインストールする」を参照してください。
Sun Cluster 3.2 2/08 ソフトウェアとパッチが構成する各ノードにインストールされていることを確認します。「Sun Cluster フレームワークおよびデータサービスソフトウェアパッケージをインストールする」を参照してください。
作成するクラスタノードで Sun Cluster 3.2 2/08 ソフトウェアがまだ設定されていないことを確認します。
新しいクラスタに設定するノードでスーパーユーザーになります。
作成するノードで Sun Cluster ソフトウェアがすでに構成されているか調べます。
phys-schost# /usr/sbin/clinfo -n |
コマンドが次のメッセージを返す場合は、手順 c に進みます。
clinfo: node is not configured as part of acluster: Operation not applicable |
このメッセージは、作成するノードで Sun Cluster ソフトウェアがまだ構成されていないことを示します。
このコマンドでノード ID 番号が返される場合、この手順を実行しないでください。
ノード ID が返されることは、Sun Cluster ソフトウェアがすでにノードで構成されていることを示します。
クラスタで旧バージョンの Sun Cluster ソフトウェアが実行されていて、Sun Cluster 3.2 2/08 ソフトウェアをインストールしたい場合、代わりに『Sun Cluster Upgrade Guide for Solaris OS』のアップグレード手順を実行します。
新しいクラスタで構成する残りの各ノードで手順 a および手順 b を繰り返します。
作成するクラスタノードでSun Cluster ソフトウェアがまだ構成されていない場合は、手順 2 に進みます。
新しいクラスタのプライベートインターコネクトでスイッチを使用している場合は、NDP (Neighbor Discovery Protocol) が無効になっていることを確認します。
スイッチのマニュアルの手順に従って、NDP が有効になっているかどうかを確認し、NDP を無効にします。
クラスタ構成中に、ソフトウェアはプライベートインターコネクトにトラフィックがないことを確認します。プライベートインターコネクトでトラフィックを確認したときに NDP がプライベートアダプタにパッケージを送信する場合、ソフトウェアはインターコネクトがプライベートではないものとみなし、クラスタ構成が中断されます。このため、クラスタ作成中は NDP を無効にしてください。
クラスタが確立されたあと、NDP の機能を使用する場合は、プライベートインターコネクトスイッチ上でもう一度 NDP を有効にすることができます。
Sun Cluster 3.2 2/08 ソフトウェアを実行している既存のクラスタを複製する場合は、そのクラスタ内のノードを使用して、クラスタ構成 XML ファイルを作成します。
複製するクラスタの有効なメンバーでスーパーユーザーになります。
既存のクラスタの構成情報をファイルにエクスポートします。
phys-schost# cluster export -o clconfigfile |
出力先を指定します。
クラスタ構成 XML ファイルの名前。指定するファイル名は、既存のファイルまたはコマンドで作成される新規ファイルになります。
詳細については、cluster(1CL) のマニュアルページを参照してください。
新しいクラスタを構成するノードに構成ファイルをコピーします。
クラスタノードとして構成する他のホストからアクセス可能なディレクトリであれば、任意のディレクトリにファイルを格納できます。
新しいクラスタに設定するノードでスーパーユーザーになります。
必要に応じてクラスタ構成 XML ファイルを変更します。
クラスタ構成 XML ファイルを編集するために開きます。
XML 要素の値を作成するクラスタ構成を反映するように変更します。
クラスタを確立するには、クラスタ構成 XML ファイルで次の構成要素が有効な値を持つ必要があります。
クラスタ名
クラスタノード
クラスタトランスポート
クラスタは、クラスタノードとして構成する各ノードに /globaldevices パーティションが存在することを前提に作成されます。このパーティションにグローバルデバイスの名前空間が作成されます。グローバルデバイスを作成する別のファイルシステム名を使用する必要がある場合は、/globaldevicesという名前のパーティションを持たない各ノードの<propertyList>要素に次のプロパティを追加します。
… <nodeList> <node name="node" id="N"> <propertyList> … <property name="globaldevfs" value="/filesystem-name"/> … </propertyList> </node> … |
既存のクラスタからエクスポートした構成情報を変更する場合、新しいクラスタを反映するために変更の必要な一部の値 (ノード名など) が複数のクラスタオブジェクトに含まれています。
クラスタ構成 XML ファイルの構造と内容の詳細については、clconfiguration(5CL) のマニュアルページを参照してください。
クラスタ構成XMLファイルを確認します。
phys-schost# /usr/share/src/xmllint --valid --noout clconfigfile |
詳細については、xmllint(1) のマニュアルページを参照してください。
クラスタ構成 XML ファイルの潜在ノードから、クラスタを作成します。
phys-schost# cluster create -i clconfigfile |
入力ソースとして使用するクラスタ構成 XML ファイルの名前を指定します。
Solaris 10 OS では、各ノードで、Service Management Facility (SMF) 用のマルチユーザーサービスがオンラインであることを確認します。
ノードのサービスがまだオンラインでない場合は、次のステップに進む前に状態がオンラインになるまで待ちます。
phys-schost# svcs multi-user-server node STATE STIME FMRI online 17:52:55 svc:/milestone/multi-user-server:default |
1 つのノードで、スーパーユーザーになります。
phys-schost# clnode status |
出力は次のようになります。
=== Cluster Nodes === --- Node Status --- Node Name Status --------- ------ phys-schost-1 Online phys-schost-2 Online phys-schost-3 Online |
詳細は、clnode(1CL) のマニュアルページを参照してください。
Sun Cluster ソフトウェアをサポートするために必要なパッチをインストールしていない場合は、これをインストールします。
パッチおよびインストール手順の場所については、『Sun Cluster 3.2 2/08 Release Notes for Solaris OS』の「Patches and Required Firmware Levels」を参照してください。
高可用ローカルファイルシステムで Sun Cluster HA for NFS を使用する場合は、ループバックファイルシステム (LOFS) が無効になっていることを確認してください。
LOFS を無効にするには、クラスタの各ノードの/etc/system ファイルに次のエントリを追加します。
exclude:lofs |
/etc/system ファイルへの変更は、次のシステム再起動後に有効になります。
高可用ローカルファイルシステムで Sun Cluster HA for NFS を使用し、automountd を実行している場合は、LOFS を有効にすることはできません。LOFS が Sun Cluster HA for NFS でスイッチオーバーの問題を引き起こすおそれがあります。高可用ローカルファイルシステムに Sun Cluster HA for NFS を追加することを選択する場合は、次のいずれかの構成の変更を行う必要があります。
ただし、クラスタで非大域ゾーンを構成する場合は、すべてのクラスタノードで LOFS を有効にする必要があります。高可用ローカルファイルシステム上の Sun Cluster HA for NFS が LOFS と共存する必要がある場合は、LOFS を無効にする代わりに、ほかのソリューションを使用してください。
LOFS を無効にします。
automountd デーモンを無効にします。
Sun Cluster HA for NFS からエクスポートされた高可用ローカルファイルシステムに含まれるすべてのファイルをオートマウンタマップから除外します。この選択により、LOFS と automountd デーモンの両方を有効なままにすることができます。
ループバックファイルシステムについての詳細は、「The Loopback File System」 in 『System Administration Guide: Devices and File Systems』 (Solaris 9またはSolaris 10) を参照してください。
既存のクラスタから定足数情報を複製するには、クラスタ構成 XML ファイルを使用して定足数デバイスを構成します。
2 ノードクラスタを作成した場合、定足数デバイスを構成する必要があります。必要な定足数デバイスを作成するためにクラスタ構成 XML ファイルを使用しない場合は、代わりに 「定足数デバイスを構成する」に進みます。
定足数デバイスに定足数サーバーを使用する場合は、定足数サーバーが設定されて動作していることを確認します。
「定足数サーバーソフトウェアをインストールして構成する」の手順に従います。
定足数デバイスに NAS デバイスを使用している場合は、NAS デバイスが設定されて動作していることを確認します。
NAS デバイスを定足数デバイスとして使用するための要件を守ってください。
『Sun Cluster 3.1 - 3.2 With Network-Attached Storage Devices Manual for Solaris OS』を参照してください。
デバイスの手順に従って、NAS デバイスを設定してください。
クラスタ構成 XML ファイル内の定足数構成情報が作成したクラスタの有効な値を反映していることを確認します。
クラスタ構成 XML ファイルを変更した場合は、そのファイルを確認します。
phys-schost# xmllint --valid --noout clconfigfile |
定足数デバイスを構成します。
phys-schost# clquorum add -i clconfigfile devicename |
定足数デバイスとして構成するストレージデバイスの名前を指定します。
クラスタのインストールモードを解除します。
phys-schost# clquorum reset |
構成されたクラスタメンバーでないマシンによるクラスタ構成へのアクセスを終了します。
phys-schost# claccess deny-all |
(省略可能) 監視対象のディスクパスがすべて失敗する場合は、自動ノード再起動を有効にします。
自動リブート機能を有効にします。
phys-schost# clnode set -p reboot_on_path_failure=enabled |
設定するプロパティーを指定します。
クラスタ内の異なるノードから 1 つ以上のディスクにアクセスできる場合、監視されているすべてのディスクパスで障害が発生するとノードが再起動するように指定します。
ディスクパスの障害発生時の自動リブートが有効になっていることを確認します。
phys-schost# clnode show === Cluster Nodes === Node Name: node … reboot_on_path_failure: enabled … |
次の例では、既存の 2 ノードクラスタのクラスタ構成と定足数構成を新しい 2 ノードクラスタに複製します。新しいクラスタには Solaris 10 OS がインストールされ、非大域ゾーンで構成されていません。クラスタ構成は、既存のクラスタノード、phys-oldhost-1 からクラスタ構成 XML ファイル clusterconf.xml にエクスポートされます。新しいクラスタのノード名は、phys-newhost-1 および phys-newhost-2 です。新しいクラスタで定足数デバイスとして構成されるデバイスは、d3 です。
この例で、プロンプト名 phys-newhost-N は、コマンドが両方のクラスタノードで実行されることを示しています。
phys-newhost-N# /usr/sbin/clinfo -n clinfo: node is not configured as part of acluster: Operation not applicable phys-oldhost-1# cluster export -o clusterconf.xml Copy clusterconf.xml to phys-newhost-1 and modify the file with valid values phys-newhost-1# xmllint --valid --noout clusterconf.xml No errors are reported phys-newhost-1# cluster create -i clusterconf.xml phys-newhost-N# svcs multi-user-server phys-newhost-N STATE STIME FMRI online 17:52:55 svc:/milestone/multi-user-server:default phys-newhost-1# clnode status Output shows that both nodes are online phys-newhost-1# clquorum add -i clusterconf.xml d3 phys-newhost-1# clquorum reset |
構成の失敗 - 1 つまたは複数のノードがクラスタに参加できない場合、または誤った構成情報が指定された場合は、まずこの手順をもう一度実行してみてください。それでも問題が修正されない場合は、誤った構成の各ノードで 「インストールの問題を修正するために Sun Cluster ソフトウェアを構成解除する」の手順を実行して、クラスタ構成からそのノードを削除します。Sun Cluster ソフトウェアパッケージをアンインストールする必要はありません。それから、この手順をもう一度実行します。
「定足数構成とインストールモードを確認する」に進みます。
クラスタが完全に確立されたら、既存のクラスタから他のクラスタ構成要素の構成を複製できます。まだ複製を実行していない場合は、複製する XML 要素の値を構成要素を追加するクラスタ構成を反映するように変更します。たとえば、リソースグループを複製している場合、ノード名が同じでない限り、<resourcegroupNodeList> エントリに複製したクラスタからのノード名でなく、新しいクラスタの有効なノード名が含まれることを確認してください。
クラスタ構成要素を複製するには、複製するクラスタ構成要素のオブジェクト指向コマンドの export サブコマンドを実行します。コマンド構文およびオプションの詳細については、複製するクラスタオブジェクトのマニュアルページを参照してください。次の表は、クラスタを確立した後にクラスタ構成 XML ファイルから作成できるクラスタ構成要素および構成要素を複製するために使用するコマンドのマニュアルページを示しています。
この表では、長い形式の Sun Cluster コマンドを示しています。多くのコマンドには短縮形もあります。コマンド名の形式を除き、コマンドは同じです。コマンドの一覧および短い形式については、『Sun Cluster のシステム管理 (Solaris OS 版)』の付録 A「Sun Cluster オブジェクト指向コマンド」を参照してください。
クラスタコンポーネント |
マニュアルページ |
特別な指示 |
---|---|---|
デバイスグループ: Solaris Volume Manager および VERITAS Volume Manager |
cldevicegroup(1CL) |
Solaris Volume Manager の場合、最初にクラスタ構成 XML ファイルで指定するディスクセットを作成します。 VxVM の場合、 最初に VxVM ソフトウェアをインストールして設定し、クラスタ構成 XML ファイルで指定するディスクグループを作成します。 |
リソース |
clresource(1CL) |
clresource、clressharedaddress、または clreslogicalhostname コマンドの -a オプションを使用して、複製するリソースに関連したリソースタイプとリソースグループを複製することもできます。 それ以外の場合は、リソースを追加する前に、まずリソースタイプとリソースグループをクラスタに追加する必要があります。 |
共有アドレスリソース |
clressharedaddress(1CL) |
|
論理ホスト名リソース |
clreslogicalhostname(1CL) |
|
リソースタイプ |
clresourcetype(1CL) |
|
リソースグループ |
clresourcegroup(1CL) |
|
NAS デバイス |
clnasdevice(1CL) |
デバイスのマニュアルの手順に従って、最初に NAS デバイスを設定する必要があります。 |
SNMP ホスト |
clsnmphost(1CL) |
clsnmphost create -i コマンドでは、-f オプションでユーザーのパスワードファイルを指定する必要があります。 |
SNMP ユーザー |
clsnmpuser(1CL) | |
クラスタオブジェクト上のシステムリソースを監視するためのしきい値 |
cltelemetryattribute(1CL) |
この手順では、カスタム JumpStart によるインストール方法である scinstall(1M) の設定と使用について説明します。この方法は、Solaris OS と Sun Cluster ソフトウェアの両方をすべてのクラスタノードにインストールし、クラスタを動作可能にします。この手順は、新規ノードを既存のクラスタに追加するときにも使用できます。
次の作業を実行します。
Solaris ソフトウェアをインストールする前に、ハードウェアの設定が完了していることと、接続が完全であることを確認します。ハードウェアの設定の詳細については、『Sun Cluster Hardware Administration Collection』およびサーバーと記憶装置のマニュアルを参照してください。
各クラスタノードの Ethernet アドレスを調べます。
ネームサービスを使用する場合、クライアントがクラスタサービスにアクセスするときに使用する任意のネームサービスに次の情報が追加されていることを確認します。計画のガイドラインについては、「パブリックネットワーク IP アドレス」を参照してください。Solaris ネームサービスの使用については、Solaris システム管理者用のマニュアルを参照してください。
すべての公開ホスト名と論理アドレスのアドレスと名前の対応付け
JumpStart インストールサーバーの IP アドレスとホスト名
クラスタ構成の計画が完了していることを確認します。要件とガイドラインについては、「クラスタソフトウェアのインストールの準備をする」を参照してください。
フラッシュアーカイブを作成するサーバーで、Sun Cluster ソフトウェアをサポートするために必要なすべてのSolaris OS ソフトウェア、パッチ、およびファームウェアがインストールされていることを確認します。
Solaris ソフトウェアがすでにサーバーにインストールされている場合は、Solaris のインストールが Sun Cluster ソフトウェアの必要条件、およびそのクラスタにインストールする予定の他のソフトウェアの必要条件を満たしていることを確認してください。Solaris ソフトウェアをインストールして、Sun Cluster ソフトウェアの必要条件を満たす方法の詳細については、「Solaris ソフトウェアをインストールする」を参照してください。
フラッシュアーカイブを作成するサーバーで、Sun Cluster ソフトウェアパッケージとそのパッチがインストールされていることを確認します。「Sun Cluster フレームワークおよびデータサービスソフトウェアパッケージをインストールする」を参照してください。
使用する scinstall ユーティリティーのモードが「通常」または「カスタム」のどちらであるかを判断します。「通常」を指定した Sun Cluster ソフトウェアのインストールでは、scinstall が自動的に次のデフォルト構成を指定します。
コンポーネント |
デフォルト値 |
---|---|
プライベートネットワークアドレス |
172.16.0.0 |
プライベートネットワークネットマスク |
255.255.248.0 |
クラスタトランスポートアダプタ |
正確に 2 つのアダプタ |
クラスタトランスポートスイッチ |
switch1 および switch2 |
グローバルデバイスファイルシステム名 |
/globaldevices |
インストールセキュリティ (DES) |
制限付き |
次のクラスタ構成ワークシートのうちの 1 つに必要事項を記入します。どちらのワークシートを使用するかは、scinstall ユーティリティーを「通常」または「カスタム」のどちらのモードで実行するかによって決まります。計画のガイドラインについては、「Sun Cluster 環境の計画」を参照してください。
通常モードのワークシート - 通常モードを使用して、デフォルト値をすべて受け入れる場合は、次のワークシートに必要事項を記入します。
カスタムモードのワークシート - カスタムモードを使用して構成データをカスタマイズする場合は、次のワークシートに必要事項を記入します。
単一ノードクラスタをインストールしている場合、クラスタでプライベートネットワークを使用していなくても、scinstall ユーティリティーが自動的にデフォルトのプライベートネットワークアドレスとネットマスクを使用します。
これらのガイドラインに従い、次に示す手順で対話式の scinstall ユーティリティーを使用します。
対話式 scinstall を使用すると、先行入力が可能になります。したがって、次のメニュー画面がすぐに表示されなくても、Return キーを押すのは一度だけにしてください。
特に指定のある場合を除いて、Control-D キーを押すと、関連する一連の質問の最初に戻るか、メインメニューに戻ります。
前のセッションのデフォルトの解凍が、質問の最後に角かっこ ([ ]) で囲まれて表示されます。入力せずに角かっこ内の回答を入力するには、Return キーを押します。
JumpStart インストールサーバーを設定します。
JumpStart インストールサーバーが次の条件に適合していることを確認します。
インストールサーバーがクラスタノードと同じサブネットにあるか、クラスタノードが使用するサブネットに Solaris ブートサーバーがあること。
インストールサーバー自体はクラスタノードでないこと。
インストールサーバーによって、Sun Cluster ソフトウェアがサポートする Solaris OS のリリースがインストールされていること。
Sun Cluster ソフトウェアの JumpStart インストール用のカスタム JumpStart ディレクトリが存在すること。この jumpstart-dir ディレクトリは、次の要件を満たしている必要があります。
check ユーティリティーのコピーを含むこと。
JumpStart インストールサーバーで読み取れるように NFS エクスポートされていること。
各新規クラスタノードが、Sun Cluster インストール用に設定されたカスタム JumpStart ディレクトリを使用する、カスタムJumpStart インストールクライアントとして構成されていること。
使用するソフトウェアプラットフォームと OS のバージョンに該当する手順に従って、JumpStart インストールサーバーを設定します。『Solaris 9 9/04 Installation Guide』の「Creating a Profile Server for Networked Systems」または『Solaris 10 8/07 Installation Guide: Custom JumpStart and Advanced Installations』の「Creating a Profile Server for Networked Systems」を参照してください。
setup_install_server(1M) およびadd_install_client(1M) のマニュアルページも参照してください。
既存のクラスタに新しいノードをインストールする場合、ノードを許可クラスタノードのリストに追加します。
詳細は、『Sun Cluster のシステム管理 (Solaris OS 版)』の「ノードを認証ノードリストに追加する」を参照してください。
クラスタノードまたは同じサーバープラットフォームの別のマシンで、Solaris OS をまだインストールしていない場合は、Solaris OS をインストールします。
Solaris ソフトウェアがすでにサーバーにインストールされている場合は、Solaris のインストールが Sun Cluster ソフトウェアの必要条件、およびそのクラスタにインストールする予定の他のソフトウェアの必要条件を満たしていることを確認してください。Solaris ソフトウェアをインストールして、Sun Cluster ソフトウェアの必要条件を満たす方法の詳細については、「Solaris ソフトウェアをインストールする」を参照してください。
「Solaris ソフトウェアをインストールする」の手順に従います。
上記インストールを行なったシステムで、Sun Cluster ソフトウェアをまだインストールしていない場合は、これをインストールします。
「Sun Cluster フレームワークおよびデータサービスソフトウェアパッケージをインストールする」の手順に従います。
パッチおよびインストール手順の場所については、『Sun Cluster 3.2 2/08 Release Notes for Solaris OS』の「Patches and Required Firmware Levels」を参照してください。
共通エージェントコンテナ デーモンがシステムのブート中に自動的に起動できるようにします。
machine# cacaoadm enable |
上記インストールを行なったシステムで/etc/inet/ipnodes ファイルを編集して、クラスタで使用されている公開 IP アドレスをすべて追加します。
この手順は、ネームサービスを使用しているかどうかに関わらず実行します。IP アドレスを追加する必要がある Sun Cluster コンポーネントについては、「パブリックネットワーク IP アドレス」を参照してください。
インストールしたシステムのフラッシュアーカイブを作成します。
machine# flarcreate -n name archive |
フラッシュアーカイブに付ける名前
フラッシュアーカイブに付ける、フルパス付きのファイル名。規則により、ファイル名は .flar で終わります。
次のいずれかのマニュアルの手順に従います。
フラッシュアーカイブが NFS でエクスポートされており、JumpStart インストールサーバーから読み取れることを確認します。
自動ファイル共有についての詳細は、「Managing Network File Systems (Overview),」 in 『System Administration Guide: Network Services』 (Solaris 9またはSolaris 10) を参照してください。
JumpStart インストールサーバーで、スーパーユーザーになります。
JumpStart インストールサーバーから、scinstall(1M) ユーティリティーを起動します。
ここでは、作成した JumpStart インストールディレクトリの例として、パス /export/suncluster/sc31/ を使用します。メディアパスで、arch は sparc または x86 (Solaris 10 の場合のみ) に置き換え、ver は 9 (Solaris 9 の場合) または 10 (Solaris 10 の場合) に置き換えます。
installserver# cd /export/suncluster/sc31/Solaris_arch/Product/sun_cluster/ \ Solaris_ver/Tools/ installserver# ./scinstall |
scinstall のメインメニューが表示されます。
「このインストールサーバーから JumpStart できるようにクラスタを構成」オプションのオプション番号を入力し、Return キーを押します。
このオプションを使用して、カスタム JumpStart 完了スクリプトを構成します。JumpStart は、これらの完了スクリプトを使用して、 Sun Cluster ソフトウェアをインストールします。
*** Main Menu *** Please select from one of the following (*) options: * 1) Create a new cluster or add a cluster node * 2) Configure a cluster to be JumpStarted from this install server 3) Manage a dual-partition upgrade 4) Upgrade this cluster node * 5) Print release information for this cluster node * ?) Help with menu options * q) Quit Option: 2 |
メニュープロンプトに従って、構成計画ワークシートから回答を入力します。
scinstall コマンドにより構成情報が格納され、デフォルトの class ファイルである autoscinstall.class ファイルが /jumpstart-dir/autoscinstall.d/3.2/ ディレクトリにコピーされます。このファイルは、次の例のようになります。
install_type initial_install system_type standalone partitioning explicit filesys rootdisk.s0 free / filesys rootdisk.s1 750 swap filesys rootdisk.s3 512 /globaldevices filesys rootdisk.s7 20 cluster SUNWCuser add package SUNWman add |
必要に応じて、フラッシュアーカイブをインストールするように JumpStart を構成するためにautoscinstall.class ファイルを変更します。
必要に応じてエントリを編集して、Solaris OS をフラッシュアーカイブマシンにインストールしたとき、あるいはscinstall ユーティリティーを実行したときに行なった構成の選択に一致するようにします。
たとえば、グローバルデバイスファイルシステムにスライス4 を割り当て、そのファイルシステムの名前が /gdevs であると scinstall に指定した場合、autoscinstall.class ファイルの /globaldevices エントリを次のように変更します。
filesys rootdisk.s4 512 /gdevs |
autoscinstall.class ファイルの次のエントリを変更します。
置換する既存のエントリ |
追加する新規エントリ |
||
---|---|---|---|
install_type |
initial_install |
install_type |
flash_install |
system_type |
standalone |
archive_location |
retrieval_type location |
archive_location キーワードを一緒に使用するときのretrieval_type と location の有効な値については、『Solaris 9 9/04 Installation Guide』または 『Solaris 10 Installation Guide: Custom JumpStart and Advanced Installations』の「archive_location Keyword」を参照してください。
たとえば次のような、特定のパッケージをインストールするエントリをすべて削除します。
cluster SUNWCuser add package SUNWman add |
使用する構成に追加の Solaris ソフトウェア要件がある場合は、それに応じて autoscinstall.class ファイルを変更します。
autoscinstall.class ファイルにより、エンドユーザー Solaris ソフトウェアグループ (SUNWCuser) がインストールされます。
エンドユーザー Solaris ソフトウェアグループ (SUNWCuser ) をインストールする場合、autoscinstall.class ファイルに必要な任意の追加の Solaris ソフトウェアパッケージを追加します。
一部の Sun Cluster 機能のサポートに必要な Solarisパッケージを次の表に示します。これらのパッケージは、エンドユーザー Solaris ソフトウェアグループには含まれていません。詳細については、「Solaris ソフトウェアグループについて」を参照してください。
機能 |
必須の Solaris ソフトウェアパッケージ |
---|---|
RSMAPI、RSMRDT ドライバ、または SCI-PCI アダプタ (SPARC ベースのクラスタのみ) |
SPARC:Solaris 9: SUNWrsm SUNWrsmx SUNWrsmo SUNWrsmox Solaris 10: SUNWrsm SUNWrsmo |
SUNWapchr SUNWapchu |
デフォルトの class ファイルは、次のいずれかの方法で変更できます。
autoscinstall.class ファイルを直接編集します。変更内容は、このカスタム JumpStart ディレクトリを使用するすべてのクラスタのすべてのノードに適用されます。
他のプロファイルを指す rules ファイルを更新後、check ユーティリティーを実行して、rules ファイルの妥当性検査を行います。
Solaris OS のインストールプロファイルが Sun Cluster の最小ファイルシステム割り当て要件を満たす限り、Sun Cluster ソフトウェアはインストールプロファイルのその他の変更を制限しません。Sun Cluster ソフトウェアをサポートするためのパーティション分割のガイドラインと要件については、「システムディスクパーティション」を参照してください。
JumpStart プロファイルについての詳細は、『Solaris 9 9/04 Installation Guide』の第 26 章「Preparing Custom JumpStart Installations (Tasks)」または『Solaris 10 8/07 Installation Guide: Custom JumpStart and Advanced Installations』の第 3 章「Preparing Custom JumpStart Installations (Tasks)」を参照してください。
次の機能のいずれかをインストールしたり、その他のインストール後のタスクを実行したりするには、ユーザー固有の finish スクリプトを設定します。
Remote Shared Memory Application Programming Interface (RSMAPI)
インターコネクトトランスポート用の SCI-PCI アダプタ
RSMRDT ドライバ
RSMRDT ドライバを使用できるのは、Oracle9i リリース 2 SCI 構成を RSM を有効にして実行しているクラスタだけです。インストールと構成手順についての詳細は、Oracle9i リリース 2 のユーザーマニュアルを参照してください。
scinstall コマンドでインストールされる標準の finish スクリプトがインストールされた後に、ユーザー独自の finish スクリプトが実行されます。JumpStart finish スクリプトの作成方法については、『Solaris 9 9/04 Installation Guide』の第 26 章「Preparing Custom JumpStart Installations (Tasks)」の「Preparing Custom JumpStart Installations」または『Solaris 10 8/07 Installation Guide: Custom JumpStart and Advanced Installations』の第 3 章「Preparing Custom JumpStart Installations (Tasks)」を参照してください。
デフォルトの class ファイルにより、依存性 Solaris パッケージがインストールされることを確認します。
詳細は、手順 13 を参照してください。
完了スクリプトに finish と名前を付けます。
次の表の一覧から使用する機能に対応するソフトウェアパッケージをインストールするには、finish スクリプトを修正します。
機能 |
インストールする追加の Sun Cluster 3.2 2/08 パッケージ |
---|---|
RSMAPI |
SUNWscrif |
SCI-PCI アダプタ |
|
RSMRDT ドライバ |
SUNWscrdt |
表に示した順序でパッケージをインストールします。
Solaris_arch/Product/sun_cluster/Solaris_ver/Packages/ ディレクトリ (arch は sparc または x86 (Solaris 10 のみ)、ver は Solaris 9 の場合 9 または Solaris 10 の場合 10) からパッケージをインストールします。
finish スクリプトで実行するその他のインストール後の作業用に追加の修正を加えます。
finish スクリプトをそれぞれの jumpstart-dir/autoscinstall.d/nodes/node ディレクトリにコピーします。
クラスタ内の各ノードに 1 つの node ディレクトリを作成します。または、共有 finish スクリプトへのシンボリックリンクを作成する命名規則を使用します。
JumpStart インストールサーバーを終了します。
新しいクラスタのプライベートインターコネクトでスイッチを使用している場合は、NDP (Neighbor Discovery Protocol) が無効になっていることを確認します。
スイッチのマニュアルの手順に従って、NDP が有効になっているかどうかを確認し、NDP を無効にします。
クラスタ構成中に、ソフトウェアはプライベートインターコネクトにトラフィックがないことを確認します。プライベートインターコネクトでトラフィックを確認したときに NDP がプライベートアダプタにパッケージを送信する場合、ソフトウェアはインターコネクトがプライベートではないものとみなし、クラスタ構成が中断されます。このため、クラスタ作成中は NDP を無効にしてください。
クラスタが確立されたあと、NDP の機能を使用する場合は、プライベートインターコネクトスイッチ上でもう一度 NDP を有効にすることができます。
クラスタ管理コンソールを使用している場合、クラスタ内にある各ノードのコンソール画面を表示します。
クラスタコントロールパネル (CCP) ソフトウェアが管理コンソールにインストールされ、構成されている場合は、cconsole(1M) ユーティリティーを使用して、コンソール画面を個別に表示します。
スーパーユーザーとして、次のコマンドを使用して、cconsole ユーティリティーを起動します。
adminconsole# /opt/SUNWcluster/bin/cconsole clustername & |
また、cconsole ユーティリティーを使用してマスターウィンドウを開くことができます。ここでの入力を、個々のすべてのコンソールウィンドウに同時に送信できます。
cconsole ユーティリティーを使用しない場合は、各ノードのコンソールに個別に接続します。
各ノードを停止します。
phys-schost# shutdown -g0 -y -i0 |
各ノードを起動し、JumpStart のインストールを開始します。
SPARC ベースのシステムでは、次の操作を実行します。
ok boot net - install |
上記コマンド内のダッシュ記号 (-) の両側は、空白文字で囲む必要があります。
x86 ベースのシステムでは、次の操作を実行します。
起動シーケンスを開始するには、どれかキーを押します。
Press any key to reboot. keystroke |
BIOS 情報画面が表示されたら、すぐに Esc+2 キーまたは F2 キーを押します。
初期化シーケンスが完了すると、BIOS セットアップユーティリティー画面が表示されます。
BIOS セットアップユーティリティのメニューバーで、ブートメニュー項目に移動します。
ブートデバイスの一覧が表示されます。
一覧に表示された JumpStart PXE インストールサーバーと同じネットワークに接続されている IBA を探して、ブート順の最上位に移動させます。
IBA ブート選択肢の右の一番下の数字は、一番下の Ethernet ポート番号に対応しています。IBA ブート選択肢の右の一番上の数字は、一番上の Ethernet ポート番号に対応しています。
変更を保存し、BIOS を終了します。
ブートシーケンスがもう一度開始されます。さらに処理が進んで、GRUB メニューが表示されます。
すぐに Solaris JumpStart エントリを選択して、Enter キーを押します。
Solaris JumpStart エントリが一覧に表示される唯一のエントリである場合、代わりに選択画面がタイムアウトするのを待つこともできます。30 秒以内に応答しないと、システムは自動的にブートシーケンスを継続します。
GNU GRUB version 0.95 (631K lower / 2095488K upper memory) +-------------------------------------------------------------------------+ | Solaris_10 Jumpstart | | | | | +-------------------------------------------------------------------------+ Use the ^ and v keys to select which entry is highlighted. Press enter to boot the selected OS, 'e' to edit the commands before booting, or 'c' for a command-line. |
さらに処理が進んで、インストールの種類のメニューが表示されます。
インストールの種類のメニューから、すぐにカスタム JumpStart の番号を入力します。
30 秒のタイムアウト期間が終了するまでにカスタム JumpStart の番号を入力しないと、システムは自動的に Solaris の対話型のインストールを開始します。
Select the type of installation you want to perform: 1 Solaris Interactive 2 Custom JumpStart 3 Solaris Interactive Text (Desktop session) 4 Solaris Interactive Text (Console session) 5 Apply driver updates 6 Single user shell Enter the number of your choice. 2 |
JumpStart が Solaris OS と Sun Cluster ソフトウェアを各ノードにインストールします。インストールが正常に完了すると、各ノードは新しいクラスタノードとして完全にインストールされます。Sun Cluster のインストール出力は、/var/cluster/logs/install/scinstall.log.N に記録されます。
BIOS 画面がもう一度表示されたら、すぐに Esc+2 キーを押すか、F2 キーを押します。
この時点でインストールを中断しない場合、自動的にインストールの種類のメニューに戻ります。そこで 30 秒以内に入力しない場合、システムは自動的に対話型のインストールを開始します。
さらに処理が進んだ後、BIOS セットアップユーティリティーが表示されます。
メニューバーで、ブートメニューに進みます。
ブートデバイスの一覧が表示されます。
ハードディスクドライブのエントリに進み、ブート順の最上位に戻します。
変更を保存し、BIOS を終了します。
ブートシーケンスがもう一度開始されます。GRUB メニューでクラスタモードへの起動を完了するために必要な操作はこれ以上ありません。
Solaris 10 OS では、各ノードで、Service Management Facility (SMF) 用のマルチユーザーサービスがオンラインであることを確認します。
ノードのサービスがまだオンラインでない場合は、次のステップに進む前に状態がオンラインになるまで待ちます。
phys-schost# svcs multi-user-server node STATE STIME FMRI online 17:52:55 svc:/milestone/multi-user-server:default |
既存のクラスタに新しいノードをインストールする場合、新しいノード上で、既存のすべてのクラスタファイルシステム用のマウントポイントを作成します。
クラスタ内にある別のアクティブなノードから、すべてのクラスタファイルシステムの名前を表示します。
phys-schost# mount | grep global | egrep -v node@ | awk '{print $1}' |
クラスタに追加したノード上で、クラスタ内にある各クラスタファイルシステム用のマウントポイントを作成します。
phys-schost-new# mkdir -p mountpoint |
たとえば、マウントコマンドが戻したファイルシステム名が /global/dg-schost-1 である場合、クラスタに追加するノード上で mkdir -p /global/dg-schost-1 を実行します。
手順 25 でクラスタを再起動すると、マウントポイントが有効になります。
VERITAS Volume Manager (VxVM) がクラスタ内にあるノードにすでにインストールされている場合は、インストールされた VxVMの各ノードで vxio 番号を表示します。
phys-schost# grep vxio /etc/name_to_major vxio NNN |
VxVM がインストールされている各ノード上で同じ vxio 番号が使用されていることを確認します。
VxVM がインストールされていない各ノード上で vxio 番号が使用できることを確認してください。
VxVM がインストールされていないノード上ですでに vxio 番号が使用されている場合、そのノードで該当番号を解放します。また、/etc/name_to_major エントリは、別の番号に変更してください。
(省略可能) Sun Enterprise 10000 サーバで動的再構成を使用するには、クラスタ内の各ノード上の /etc/system ファイルに次のエントリを追加します。
set kernel_cage_enable=1 |
このエントリは、次のシステム再起動後に有効になります。Sun Cluster 構成で、動的再構成の作業を実行するための手順については、『Sun Cluster のシステム管理 (Solaris OS 版)』 を参照してください。動的再構成の詳細については、サーバーのマニュアルを参照してください。
高可用ローカルファイルシステムで Sun Cluster HA for NFS を使用する場合は、ループバックファイルシステム (LOFS) が無効になっていることを確認してください。
LOFS を無効にするには、クラスタの各ノードの/etc/system ファイルに次のエントリを追加します。
exclude:lofs |
/etc/system ファイルへの変更は、次のシステム再起動後に有効になります。
高可用ローカルファイルシステムで Sun Cluster HA for NFS を使用し、automountd を実行している場合は、LOFS を有効にすることはできません。LOFS が Sun Cluster HA for NFS でスイッチオーバーの問題を引き起こすおそれがあります。高可用ローカルファイルシステムに Sun Cluster HA for NFS を追加することを選択する場合は、次のいずれかの構成の変更を行う必要があります。
ただし、クラスタで非大域ゾーンを構成する場合は、すべてのクラスタノードで LOFS を有効にする必要があります。高可用ローカルファイルシステム上の Sun Cluster HA for NFS が LOFS と共存する必要がある場合は、LOFS を無効にする代わりに、ほかのソリューションを使用してください。
LOFS を無効にします。
automountd デーモンを無効にします。
Sun Cluster HA for NFS からエクスポートされた高可用ローカルファイルシステムに含まれるすべてのファイルをオートマウンタマップから除外します。この選択により、LOFS と automountd デーモンの両方を有効なままにすることができます。
ループバックファイルシステムについての詳細は、「The Loopback File System」 in 『System Administration Guide: Devices and File Systems』 (Solaris 9またはSolaris 10) を参照してください。
x86: デフォルトのブートファイルを設定します。
この値を設定すると、ログインプロンプトにアクセスできないときにノードを再起動できます。
クラスタの再起動が必要な作業を実行したら、次の手順に従って、クラスタを再起動してください。
再起動が必要な作業には、次のものがあります。
既存のクラスタへの新しいノードの追加
ノードまたはクラスタの再起動が必要なパッチのインストール
有効にするために再起動の必要な構成の変更
1 つのノードで、スーパーユーザーになります。
クラスタを停止します。
phys-schost-1# cluster shutdown -y -g0 clustername |
クラスタがシャットダウンするまで、最初にインストールしたクラスタノードを再起動しないでください。クラスタのインストールモードが無効になるまでは、最初にインストールした (つまり、クラスタを構築した) ノードだけが定足数投票権を持ちます。まだインストールモードにある確立されたクラスタで、最初にインストールしたノードを再起動する前にクラスタをシャットダウンしていない場合、残りのクラスタノードが定足数を獲得できません。クラスタ全体が停止します。
clsetup コマンドを初めて実行するまで、クラスタノードは、インストールモードのままになります。「定足数デバイスを構成する」の手順の間にこのコマンドを実行します。
クラスタ内にある各ノードを再起動します。
SPARC ベースのシステムでは、次の操作を実行します。
ok boot |
x86 ベースのシステムでは、次の操作を実行します。
GRUB メニューが表示された時点で、適切な Solaris エントリを選択し Enter キーを押します。GRUB メニューは次のようになっています。
GNU GRUB version 0.95 (631K lower / 2095488K upper memory) +-------------------------------------------------------------------------+ | Solaris 10 /sol_10_x86 | | Solaris failsafe | | | +-------------------------------------------------------------------------+ Use the ^ and v keys to select which entry is highlighted. Press enter to boot the selected OS, 'e' to edit the commands before booting, or 'c' for a command-line. |
GRUB ベースの起動の詳細については、『System Administration Guide: Basic Administration』の第 11 章「GRUB Based Booting (Tasks)」を参照してください。
scinstall ユーティリティーは、すべてのクラスタノードのインストールを行い、クラスタを再起動します。クラスタ内ですべてのノードが正常に起動されると、クラスタが確立されます。Sun Cluster のインストール出力は、/var/cluster/logs/install/scinstall.log.N に記録されます。
(省略可能) 手順 25 を実行してノードを再起動しなかった場合、各ノードで Sun Java Web Console Web サーバーを手動で起動します。
phys-schost# smcwebserver start |
詳細については、smcwebserver(1M) のマニュアルページを参照してください。
1 つのノードで、スーパーユーザーになります。
phys-schost# clnode status |
出力は次のようになります。
=== Cluster Nodes === --- Node Status --- Node Name Status --------- ------ phys-schost-1 Online phys-schost-2 Online phys-schost-3 Online |
詳細は、clnode(1CL) のマニュアルページを参照してください。
(省略可能) 監視対象のディスクパスがすべて失敗する場合は、各ノードで自動ノード再起動を有効にします。
自動リブート機能を有効にします。
phys-schost# clnode set -p reboot_on_path_failure=enabled |
設定するプロパティーを指定します。
クラスタ内の異なるノードから 1 つ以上のディスクにアクセスできる場合、監視されているすべてのディスクパスで障害が発生するとノードが再起動するように指定します。
ディスクパスの障害発生時の自動リブートが有効になっていることを確認します。
phys-schost# clnode show === Cluster Nodes === Node Name: node … reboot_on_path_failure: enabled … |
2 ノードクラスタにノードを追加した場合は、「クラスタへのノードの追加後に定足数デバイスを更新する」に進みます。
それ以外の場合は、次の該当する手順に進みます。
複数ノードクラスタをインストールして、自動定足数構成を選択した場合は、インストール後の設定は完了しています。「定足数構成とインストールモードを確認する」に進みます。
複数ノードクラスタをインストールして、自動定足数構成を拒否した場合は、インストール後の設定を実行します。「 「定足数デバイスを構成する」」に進みます。
定足数デバイスを使用する既存のクラスタに新しいノードを追加した場合は、「クラスタへのノードの追加後に定足数デバイスを更新する」に進みます。
定足数デバイスを使用しない既存のクラスタに新しいノードを追加した場合は、クラスタの状態を確認します。「定足数構成とインストールモードを確認する」に進みます。
単一ノードのクラスタをインストールした場合、クラスタの確立は完了です。「クラスタファイルシステムの作成」に進んで、ボリューム管理ソフトウェアをインストールし、クラスタを構成してください。
無効な scinstall オプション - scinstall コマンドの JumpStart オプションの前にアスタリスクがない場合、このオプションは無効です。これは、JumpStart の設定が完了していないか、セットアップでエラーが発生したことを意味します。この条件を修正するには、まず scinstall ユーティリティーを終了します。手順 1 から 手順 14 までを繰り返して JumpStart の設定を修正し、scinstall ユーティリティーを再起動します。
存在しないノードに関するエラーメッセージ、scinstall コマンドでデフォルトの ntp.conf ファイルが自動的にインストールされます。デフォルトファイルでは、最大ノード数を想定しています。したがって、xntpd(1M) デーモンは起動時にこれらのノードに関してエラーメッセージを発行することがあります。これらのメッセージは無視しても問題ありません。それ以外の通常のクラスタ条件でこれらのメッセージを表示しない方法については、「時間情報プロトコル (NTP) を構成する」を参照してください。
以下の手順を実行して、既存のクラスタノードで新しいクラスタノードを追加するためにクラスタを準備します。
次の作業を実行します。
必要なハードウェアがすべてインストールされていることを確認します。
ホストアダプタが新しいノードに取り付けられていることを確認します。『Sun Cluster 3.1 - 3.2 Hardware Administration Manual for Solaris OS』を参照してください。
既存のクラスタインターコネクトが新しいノードをサポートできることを確認します。『Sun Cluster 3.1 - 3.2 Hardware Administration Manual for Solaris OS』を参照してください。
追加の記憶装置がインストールされていることを確認します。Sun Cluster 3.1 - 3.2 ハードウェアの管理コレクションから該当するマニュアルを参照してください。
クラスタコントロールパネル (CCP) を使用している場合は、管理コンソールの構成ファイルを更新します。
新しいノードの名前をクラスタの承認済みノードリストに追加します。
単一ノードクラスタにノードを追加する場合、インターコネクト構成を表示して、2 つのクラスタインターコネクトがすでに存在することを確認します。
phys-schost# clinterconnect show |
少なくとも 2 つのケーブルまたは 2 つのアダプタを構成しなければなりません。
出力に 2 つのケーブルまたは 2 つのアダプタの構成情報が表示される場合は、手順 4 に進んでください。
出力にケーブルまたはアダプタの構成情報が表示されない場合、または 1 つのケーブルまたはアダプタだけの構成情報が表示される場合は、新しいクラスタインターコネクトを構成してください。
1 つのノードで、clsetup ユーティリティーを開始します。
phys-schost# clsetup |
「クラスタインターコネクト」という項目を選択します。
「トランスポートケーブルを追加」という項目を選択します。
指示通りにクラスタに追加するノードの名前、トランスポートアダプタの名前、およびトランスポートスイッチを使用するかどうかを指定します。
必要に応じて、手順 c を繰り返して、2 番目のクラスタインターコネクトを設定します。
完了後 clsetup ユーティリティーを終了します。
クラスタに 2 つのクラスタインターコネクトが設定されていることを確認します。
phys-schost# clinterconnect show |
コマンド出力は、少なくとも 2 つのクラスタインターコネクトの構成情報を表示する必要があります。
プライベートネットワーク構成で、追加するノードおよびプライベートネットワークをサポートできることを確認します。
現在のプライベートネットワーク構成でサポートされているノードおよびプライベートネットワークの最大数を表示します。
phys-schost# cluster show-netprops |
出力は次のようになります。これはデフォルト値を示しています。
=== Private Network === private_netaddr: 172.16.0.0 private_netmask: 255.255.248.0 max_nodes: 64 max_privatenets: 10 |
現在のプライベートネットワークで非大域ゾーンおよびプライベートネットワークを含めたノードの数の増加に対応できるかどうかを判断します。
現在の IP アドレス範囲が十分な場合、新しいノードをインストールできます。
現在の IP アドレス範囲が不十分な場合、プライベート IP アドレス範囲を再構成してください。
「ノードまたはプライベートネットワークを追加するときにプライベートネットワーク構成を変更する」に進みます。プライベート IP アドレス範囲を変更するには、クラスタをシャットダウンする必要があります。このためには、各リソースグループをオフラインに切り替え、クラスタ内のすべてのリソースを無効にして、IP アドレス範囲を再構成する前に非クラスタモードで再起動します。
新しいクラスタノードで Sun Cluster ソフトウェアを構成します。「追加のクラスタノードとして Sun Cluster ソフトウェアを構成する (scinstall)」または 「追加のクラスタノードで Sun Cluster ソフトウェアを構成する (XML)」に進みます。
クラスタのプライベート IP アドレス範囲を変更して、ノードまたは非大域ゾーンの数の増加やプライベートネットワークの数の増加、またはこれらの組み合わせに対応するには、この作業を実行します。また、この手順を使用して、プライベート IP アドレスの範囲を小さくすることもできます。
この手順を実行するには、クラスタ全体をシャットダウンする必要があります。
すべてのクラスタノードで スーパーユーザーのリモートシェル (rsh(1M)) またはセキュアシェル (ssh(1)) アクセス が有効になっていることを確認します。
各クラスタのノードのスーパーユーザーになります。
1 つのノードから clsetup ユーティリティーを開始します。
# clsetup |
clsetup のメインメニューが表示されます。
各リソースグループをオフラインに切り替えます。
ノードに非大域ゾーンが含まれている場合は、ゾーン内にあるリソースグループもすべてオフラインに切り替わります。
クラスタ内のすべてのリソースを無効にします。
clsetup ユーティリティーを終了します。
すべてのノード上のすべてのリソースが Offline になっており、そのすべてのリソースグループが Unmanaged 状態であることを確認します。
# cluster status -t resource,resourcegroup |
指定したクラスタオブジェクトへの出力を制限します
リソースを指定します
リソースグループを指定します
ノードのどれか 1 つでクラスタを停止します。
# cluster shutdown -g0 -y |
待機時間を秒単位で指定します。
シャットダウンの確認を促すプロンプトを発生させないようにします。
各ノードを非クラスタモードで起動します。
SPARC ベースのシステム上で、以下のコマンドを実行します。
ok boot -x |
x86 ベースのシステム上で、次のコマンドを実行します。
GRUB メニューで矢印キーを使用して該当する Solaris エントリを選択し、e と入力してコマンドを編集します。
GRUB メニューは次のようになっています。
GNU GRUB version 0.95 (631K lower / 2095488K upper memory) +----------------------------------------------------------------------+ | Solaris 10 /sol_10_x86 | | Solaris failsafe | | | +----------------------------------------------------------------------+ Use the ^ and v keys to select which entry is highlighted. Press enter to boot the selected OS, 'e' to edit the commands before booting, or 'c' for a command-line. |
GRUB ベースのブートの詳細は、『System Administration Guide: Basic Administration』の第 11 章「GRUB Based Booting (Tasks)」を参照してください。
ブートパラメータ画面で矢印キーを使用して kernel エントリを選択し、e と入力してエントリを編集します。
GRUB ブートパラメータの画面は、次のような画面です。
GNU GRUB version 0.95 (615K lower / 2095552K upper memory) +----------------------------------------------------------------------+ | root (hd0,0,a) | | kernel /platform/i86pc/multiboot | | module /platform/i86pc/boot_archive | +----------------------------------------------------------------------+ Use the ^ and v keys to select which entry is highlighted. Press 'b' to boot, 'e' to edit the selected command in the boot sequence, 'c' for a command-line, 'o' to open a new line after ('O' for before) the selected line, 'd' to remove the selected line, or escape to go back to the main menu. |
コマンドに -x を追加して、システムが非クラスタモードで起動するように指定します。
[ Minimal BASH-like line editing is supported. For the first word, TAB lists possible command completions. Anywhere else TAB lists the possible completions of a device/filename. ESC at any time exits. ] grub edit> kernel /platform/i86pc/multiboot -x |
Enter キーを押して変更を承諾し、ブートパラメータ画面に戻ります。
画面には編集されたコマンドが表示されます。
GNU GRUB version 0.95 (615K lower / 2095552K upper memory) +----------------------------------------------------------------------+ | root (hd0,0,a) | | kernel /platform/i86pc/multiboot -x | | module /platform/i86pc/boot_archive | +----------------------------------------------------------------------+ Use the ^ and v keys to select which entry is highlighted. Press 'b' to boot, 'e' to edit the selected command in the boot sequence, 'c' for a command-line, 'o' to open a new line after ('O' for before) the selected line, 'd' to remove the selected line, or escape to go back to the main menu.- |
b と入力して、ノードを非クラスタモードで起動します。
カーネル起動パラメータコマンドへのこの変更は、システムを起動すると無効になります。次にノードを再起動する際には、ノードはクラスタモードで起動します。非クラスタモードで起動するには、上記の手順を実行してもう一度カーネルのブートパラメータに -x オプションを追加してください。
1 つのノードから、clsetup ユーティリティーを起動します。
非クラスタモードで動作している場合、clsetup ユーティリティーは非クラスタモード動作用のメインメニューを表示します。
IP アドレス範囲を変更するためのオプションに対応する番号を入力し、Return キーを押します。
clsetup ユーティリティーは現在のプライベートネットワーク構成を表示し、この構成を変更するかどうかを尋ねます。
プライベートネットワーク IP アドレスか IP アドレス範囲のいずれかを変更するには、「yes」と入力し、Return キーを押します。
clsetup ユーティリティーはデフォルトのプライベートネットワーク IP アドレスである 172.16.0.0 を表示し、このデフォルトをそのまま使用してもよいかどうかを尋ねます。
プライベートネットワーク IP アドレスを変更するか、そのまま使用します。
デフォルトのプライベートネットワーク IP アドレス範囲を変更するか、そのまま使用します。
デフォルトのネットマスクは 255.255.248.0 です。このデフォルトの IP アドレス範囲は、クラスタ内で最大 64 のノードと最大 10 のプライベートネットワークをサポートします。
デフォルトの IP アドレス範囲をそのまま使用するには、「yes」と入力して、Return キーを押します。
続いて、次の手順に進みます。
IP アドレス範囲を変更するには、次のサブステップを実行します。
clsetup ユーティリティーの、デフォルトのアドレス範囲をそのまま使用してもよいかどうかに関する質問に対しては「no」と入力し、Return キーを押します。
デフォルトのネットマスクを使用しない場合、clsetup ユーティリティーは、ユーザーがクラスタで構成する予定のノードとプライベートネットワークの数を入力するプロンプトを出します。
クラスタで構成する予定のノードとプライベートネットワークの数を入力します。
これらの数から、clsetup ユーティリティーは 2 つの推奨ネットマスクを計算します。
第一のネットマスクは、ユーザーが指定したノードとプライベートネットワークの数をサポートする、最低限のネットマスクです。
第二のネットマスクは、将来ありうる成長に対応するため、ユーザーが指定したノードとプライベートネットワークの数の 2 倍をサポートします。
計算されたネットマスクのいずれかを指定するか、ノードとプライベートネットワークの予定数をサポートする別のネットマスクを指定します。
更新の継続に関する clsetup ユーティリティーの質問に対しては、「yes」と入力します。
完了後 clsetup ユーティリティーを終了します。
各ノードを再起動してクラスタに戻します。
各ノードを停止します。
# shutdown -g0 -y |
各ノードをクラスタモードで起動します。
SPARC ベースのシステムでは、次の操作を実行します。
ok boot |
x86 ベースのシステムでは、次の操作を実行します。
GRUB メニューが表示された時点で、適切な Solaris エントリを選択し Enter キーを押します。GRUB メニューは次のようになっています。
GNU GRUB version 0.95 (631K lower / 2095488K upper memory) +-------------------------------------------------------------------------+ | Solaris 10 /sol_10_x86 | | Solaris failsafe | | | +-------------------------------------------------------------------------+ Use the ^ and v keys to select which entry is highlighted. Press enter to boot the selected OS, 'e' to edit the commands before booting, or 'c' for a command-line. |
GRUB ベースの起動の詳細については、『System Administration Guide: Basic Administration』の第 11 章「GRUB Based Booting (Tasks)」を参照してください。
1 つのノードから、clsetup ユーティリティーを起動します。
# clsetup |
clsetup のメインメニューが表示されます。
すべての無効リソースを再度有効にします。
各リソースグループをオンラインに戻します。
ノードに非大域ゾーンが含まれる場合は、それらのゾーン内にあるリソースグループもすべてオンラインにします。
すべてのリソースグループがオンラインに戻ったら、clsetup ユーティリティーを終了します。
q を入力して各サブメニューを取り消すか、Ctrl-C を押してください。
既存のクラスタにノードを追加するには、次のいずれかの手順に進みます。
ノードに非大域ゾーンを作成するには、「クラスタノードでの非大域ゾーンの設定」に進みます。
この手順を実行して、新しいノードを既存のクラスタに追加します。この手順の代わりに JumpStart を使用して新しいノードを追加するには、「Solaris と Sun Cluster ソフトウェアをインストールする (JumpStart)」を参照してください。
この手順では、対話型の scinstall コマンドを使用します。インストールスクリプトを開発するときなど、非対話型の scinstall コマンドを使用する場合は、scinstall(1M) のマニュアルページを参照してください。
scinstall コマンドを実行する前に、手動またはサイレントモード形式の Java ES installer コマンドを使用して、Sun Cluster ソフトウェアパッケージがノードにインストールされていることを確認してください。Java ES installer プログラムをインストールスクリプトから実行する方法の詳細については、『Sun Java Enterprise System 5 インストールガイド (UNIX 版)』の第 5 章「サイレントモードでのインストール」を参照してください。
次の作業を実行します。
Sun Cluster ソフトウェアをサポートするように Solaris OS がインストールされているか確認します。
Solaris ソフトウェアがすでにノード上にインストールされている場合は、Solaris のインストールが Sun Cluster ソフトウェアの必要条件、およびそのクラスタにインストールする予定の他のソフトウェアの必要条件を満たしていることを確認してください。Solaris ソフトウェアをインストールして、Sun Cluster ソフトウェアの必要条件を満たす方法の詳細については、「Solaris ソフトウェアをインストールする」を参照してください。
Sun Cluster ソフトウェアパッケージとパッチがノードにインストールされていることを確認します。「Sun Cluster フレームワークおよびデータサービスソフトウェアパッケージをインストールする」を参照してください。
クラスタが新しいノードの追加用に準備されていることを確認します。「追加のクラスタノード用にクラスタを準備する」を参照してください。
使用する scinstall ユーティリティーのモードが「通常」または「カスタム」のどちらであるかを判断します。「通常」を指定した Sun Cluster ソフトウェアのインストールでは、scinstall が自動的に次のデフォルト構成を指定します。
コンポーネント |
デフォルト値 |
---|---|
クラスタトランスポートスイッチ |
switch1 および switch2 |
グローバルデバイスファイルシステム名 |
/globaldevices |
次の構成計画ワークシートの 1 つに必要事項を記入します。計画のガイドラインについては、「Solaris OS の計画」および 「Sun Cluster 環境の計画」を参照してください。
通常モードのワークシート - 通常モードを使用して、デフォルト値をすべて受け入れる場合は、次のワークシートに必要事項を記入します。
カスタムモードのワークシート - カスタムモードを使用して構成データをカスタマイズする場合は、次のワークシートに必要事項を記入します。
これらのガイドラインに従い、次に示す手順で対話式の scinstall ユーティリティーを使用します。
対話式 scinstall を使用すると、先行入力が可能になります。したがって、次のメニュー画面がすぐに表示されなくても、Return キーを押すのは一度だけにしてください。
特に指定のある場合を除いて、Control-D キーを押すと、関連する一連の質問の最初に戻るか、メインメニューに戻ります。
前のセッションのデフォルトの解凍が、質問の最後に角かっこ ([ ]) で囲まれて表示されます。入力せずに角かっこ内の回答を入力するには、Return キーを押します。
構成するクラスタノードで、スーパーユーザーになります。
scinstall ユーティリティーを起動します。
phys-schost-new# /usr/cluster/bin/scinstall |
scinstall のメインメニューが表示されます。
「新しいクラスタの作成またはクラスタノードの追加」というオプションに対応する番号を入力し、Return キーを押します。
*** Main Menu *** Please select from one of the following (*) options: * 1) Create a new cluster or add a cluster node 2) Configure a cluster to be JumpStarted from this install server 3) Manage a dual-partition upgrade 4) Upgrade this cluster node * 5) Print release information for this cluster node * ?) Help with menu options * q) Quit Option: 1 |
「新しいクラスタとクラスタノード」メニューが表示されます。
「このマシンを既存のクラスタ内にノードとして追加」オプションに対応する番号を入力し、Return キーを押します。
メニュープロンプトに従って、構成計画ワークシートから回答を入力します。
scinstall ユーティリティーがノードを構成し、クラスタのノードを起動します。
DVD-ROM ドライブから Sun Java Availability Suite DVD-ROM を取り出します。
他のノードでもこの手順を繰り返して、すべての追加ノードの構成が完了するまでクラスタに追加します。
Solaris 10 OS では、各ノードで、Service Management Facility (SMF) 用のマルチユーザーサービスがオンラインであることを確認します。
ノードのサービスがまだオンラインでない場合は、次のステップに進む前に状態がオンラインになるまで待ちます。
phys-schost# svcs multi-user-server node STATE STIME FMRI online 17:52:55 svc:/milestone/multi-user-server:default |
有効なクラスタメンバーから、他のノードがクラスタに参加するのを防ぎます。
phys-schost# claccess deny-all |
あるいは、clsetup ユーティリティーも使用できます。詳細は、『Sun Cluster のシステム管理 (Solaris OS 版)』の「ノードを認証ノードリストに追加する」を参照してください。
1 つのノードで、スーパーユーザーになります。
phys-schost# clnode status |
出力は次のようになります。
=== Cluster Nodes === --- Node Status --- Node Name Status --------- ------ phys-schost-1 Online phys-schost-2 Online phys-schost-3 Online |
詳細は、clnode(1CL) のマニュアルページを参照してください。
必要なパッチがすべてインストールされていることを確認します。
phys-schost# showrev -p |
(省略可能) 監視対象のディスクパスがすべて失敗する場合は、自動ノード再起動を有効にします。
自動リブート機能を有効にします。
phys-schost# clnode set -p reboot_on_path_failure=enabled |
設定するプロパティーを指定します。
クラスタ内の異なるノードから 1 つ以上のディスクにアクセスできる場合、監視されているすべてのディスクパスで障害が発生するとノードが再起動するように指定します。
ディスクパスの障害発生時の自動リブートが有効になっていることを確認します。
phys-schost# clnode show === Cluster Nodes === Node Name: node … reboot_on_path_failure: enabled … |
高可用ローカルファイルシステムで Sun Cluster HA for NFS を使用する場合は、ループバックファイルシステム (LOFS) が無効になっていることを確認してください。
LOFS を無効にするには、クラスタの各ノードの/etc/system ファイルに次のエントリを追加します。
exclude:lofs |
/etc/system ファイルへの変更は、次のシステム再起動後に有効になります。
高可用ローカルファイルシステムで Sun Cluster HA for NFS を使用し、automountd を実行している場合は、LOFS を有効にすることはできません。LOFS が Sun Cluster HA for NFS でスイッチオーバーの問題を引き起こすおそれがあります。高可用ローカルファイルシステムに Sun Cluster HA for NFS を追加することを選択する場合は、次のいずれかの構成の変更を行う必要があります。
ただし、クラスタで非大域ゾーンを構成する場合は、すべてのクラスタノードで LOFS を有効にする必要があります。高可用ローカルファイルシステム上の Sun Cluster HA for NFS が LOFS と共存する必要がある場合は、LOFS を無効にする代わりに、ほかのソリューションを使用してください。
LOFS を無効にします。
automountd デーモンを無効にします。
Sun Cluster HA for NFS からエクスポートされた高可用ローカルファイルシステムに含まれるすべてのファイルをオートマウンタマップから除外します。この選択により、LOFS と automountd デーモンの両方を有効なままにすることができます。
ループバックファイルシステムについての詳細は、「The Loopback File System」 in 『System Administration Guide: Devices and File Systems』 (Solaris 9またはSolaris 10) を参照してください。
次の例は、クラスタ schost に追加されたノード phys-schost-3 を示しています。スポンサーノードは、phys-schost-1 です。
*** Adding a Node to an Existing Cluster *** Fri Feb 4 10:17:53 PST 2005 scinstall -ik -C schost -N phys-schost-1 -A trtype=dlpi,name=qfe2 -A trtype=dlpi,name=qfe3 -m endpoint=:qfe2,endpoint=switch1 -m endpoint=:qfe3,endpoint=switch2 Checking device to use for global devices file system ... done Adding node "phys-schost-3" to the cluster configuration ... done Adding adapter "qfe2" to the cluster configuration ... done Adding adapter "qfe3" to the cluster configuration ... done Adding cable to the cluster configuration ... done Adding cable to the cluster configuration ... done Copying the config from "phys-schost-1" ... done Copying the postconfig file from "phys-schost-1" if it exists ... done Copying the Common Agent Container keys from "phys-schost-1" ... done Setting the node ID for "phys-schost-3" ... done (id=1) Setting the major number for the "did" driver ... Obtaining the major number for the "did" driver from "phys-schost-1" ... done "did" driver major number set to 300 Checking for global devices global file system ... done Updating vfstab ... done Verifying that NTP is configured ... done Initializing NTP configuration ... done Updating nsswitch.conf ... done Adding clusternode entries to /etc/inet/hosts ... done Configuring IP Multipathing groups in "/etc/hostname.<adapter>" files Updating "/etc/hostname.hme0". Verifying that power management is NOT configured ... done Ensure that the EEPROM parameter "local-mac-address?" is set to "true" ... done The "local-mac-address?" parameter setting has been changed to "true". Ensure network routing is disabled ... done Updating file ("ntp.conf.cluster") on node phys-schost-1 ... done Updating file ("hosts") on node phys-schost-1 ... done Rebooting ... |
構成の失敗 - 1 つまたは複数のノードがクラスタに参加できない場合、または誤った構成情報が指定された場合は、まずこの手順をもう一度実行してみてください。それでも問題が修正されない場合は、誤った構成の各ノードで 「インストールの問題を修正するために Sun Cluster ソフトウェアを構成解除する」の手順を実行して、クラスタ構成からそのノードを削除します。Sun Cluster ソフトウェアパッケージをアンインストールする必要はありません。それから、この手順をもう一度実行します。
定足数デバイスを使用する既存のクラスタに新しいノードを追加した場合は、「クラスタへのノードの追加後に定足数デバイスを更新する」に進みます。
それ以外の場合は、「定足数構成とインストールモードを確認する」に進みます。
XML クラスタ構成ファイルを使用して新規クラスタを構成するには、以下の手順を実行します。新しいクラスタは、Sun Cluster 3.2 2/08 ソフトウェアを実行する既存のクラスタから複製できます。
この手順では、次のクラスタ構成要素を構成します。
クラスタノードのメンバーシップ
クラスタインターコネクト
グローバルデバイス
次の作業を実行します。
Sun Cluster ソフトウェアをサポートするように Solaris OS がインストールされているか確認します。
Solaris ソフトウェアがすでにノード上にインストールされている場合は、Solaris のインストールが Sun Cluster ソフトウェアの必要条件、およびそのクラスタにインストールする予定の他のソフトウェアの必要条件を満たしていることを確認してください。Solaris ソフトウェアをインストールして、Sun Cluster ソフトウェアの必要条件を満たす方法の詳細については、「Solaris ソフトウェアをインストールする」を参照してください。
Sun Cluster ソフトウェアパッケージと必要なパッチがノードにインストールされていることを確認します。「Sun Cluster フレームワークおよびデータサービスソフトウェアパッケージをインストールする」を参照してください。
クラスタが新しいノードの追加用に準備されていることを確認します。「追加のクラスタノード用にクラスタを準備する」を参照してください。
クラスタを追加するノード上で Sun Cluster ソフトウェアがまだ構成されていないことを確認します。
作成するノード上でスーパーユーザーになります。
作成するノードで Sun Cluster ソフトウェアがすでに構成されているか調べます。
phys-schost-new# /usr/sbin/clinfo -n |
作成するノードを非クラスタモードで起動します。
SPARC ベースのシステム上で、以下のコマンドを実行します。
ok boot -x |
x86 ベースのシステム上で、次のコマンドを実行します。
GRUB メニューで矢印キーを使用して該当する Solaris エントリを選択し、e と入力してコマンドを編集します。
GRUB メニューは次のようになっています。
GNU GRUB version 0.95 (631K lower / 2095488K upper memory) +----------------------------------------------------------------------+ | Solaris 10 /sol_10_x86 | | Solaris failsafe | | | +----------------------------------------------------------------------+ Use the ^ and v keys to select which entry is highlighted. Press enter to boot the selected OS, 'e' to edit the commands before booting, or 'c' for a command-line. |
GRUB ベースのブートの詳細は、『System Administration Guide: Basic Administration』の第 11 章「GRUB Based Booting (Tasks)」を参照してください。
ブートパラメータ画面で矢印キーを使用して kernel エントリを選択し、e と入力してエントリを編集します。
GRUB ブートパラメータの画面は、次のような画面です。
GNU GRUB version 0.95 (615K lower / 2095552K upper memory) +----------------------------------------------------------------------+ | root (hd0,0,a) | | kernel /platform/i86pc/multiboot | | module /platform/i86pc/boot_archive | +----------------------------------------------------------------------+ Use the ^ and v keys to select which entry is highlighted. Press 'b' to boot, 'e' to edit the selected command in the boot sequence, 'c' for a command-line, 'o' to open a new line after ('O' for before) the selected line, 'd' to remove the selected line, or escape to go back to the main menu. |
コマンドに -x を追加して、システムが非クラスタモードで起動するように指定します。
[ Minimal BASH-like line editing is supported. For the first word, TAB lists possible command completions. Anywhere else TAB lists the possible completions of a device/filename. ESC at any time exits. ] grub edit> kernel /platform/i86pc/multiboot -x |
Enter キーを押して変更を承諾し、ブートパラメータ画面に戻ります。
画面には編集されたコマンドが表示されます。
GNU GRUB version 0.95 (615K lower / 2095552K upper memory) +----------------------------------------------------------------------+ | root (hd0,0,a) | | kernel /platform/i86pc/multiboot -x | | module /platform/i86pc/boot_archive | +----------------------------------------------------------------------+ Use the ^ and v keys to select which entry is highlighted. Press 'b' to boot, 'e' to edit the selected command in the boot sequence, 'c' for a command-line, 'o' to open a new line after ('O' for before) the selected line, 'd' to remove the selected line, or escape to go back to the main menu.- |
b と入力して、ノードを非クラスタモードで起動します。
カーネル起動パラメータコマンドへのこの変更は、システムを起動すると無効になります。次にノードを再起動する際には、ノードはクラスタモードで起動します。非クラスタモードで起動するには、上記の手順を実行してもう一度カーネルのブートパラメータに -x オプションを追加してください。
Sun Cluster ソフトウェアを作成するノードから削除します。
phys-schost-new# /usr/cluster/bin/clnode remove |
Sun Cluster 3.2 2/08 ソフトウェアを実行するノードを複製する場合は、クラスタ構成 XML ファイルを作成します。
作成するノード上でスーパーユーザーになります。
必要に応じてクラスタ構成 XML ファイルを変更します。
クラスタ構成XMLファイルを確認します。
phys-schost-new# xmllint --valid --noout clconfigfile |
新しいクラスタノードを構成します。
phys-schost-new# clnode add -n sponsornode -i clconfigfile |
既存のクラスタメンバーの名前を新しいノードのスポンサーの役割を果たすように指定します。
入力ソースとして使用するクラスタ構成 XML ファイルの名前を指定します。
(省略可能) 監視対象のディスクパスがすべて失敗する場合は、自動ノード再起動を有効にします。
自動リブート機能を有効にします。
phys-schost# clnode set -p reboot_on_path_failure=enabled |
設定するプロパティーを指定します。
クラスタ内の異なるノードから 1 つ以上のディスクにアクセスできる場合、監視されているすべてのディスクパスで障害が発生するとノードが再起動するように指定します。
ディスクパスの障害発生時の自動リブートが有効になっていることを確認します。
phys-schost# clnode show === Cluster Nodes === Node Name: node … reboot_on_path_failure: enabled … |
構成の失敗 - 1 つまたは複数のノードがクラスタに参加できない場合、または誤った構成情報が指定された場合は、まずこの手順をもう一度実行してみてください。それでも問題が修正されない場合は、誤った構成の各ノードで 「インストールの問題を修正するために Sun Cluster ソフトウェアを構成解除する」の手順を実行して、クラスタ構成からそのノードを削除します。Sun Cluster ソフトウェアパッケージをアンインストールする必要はありません。それから、この手順をもう一度実行します。
定足数デバイスを使用する既存のクラスタに新しいノードを追加した場合は、「クラスタへのノードの追加後に定足数デバイスを更新する」に進みます。
それ以外の場合は、「定足数構成とインストールモードを確認する」に進みます。
クラスタにノードを追加したら、SCSI デバイス、NAS デバイス、定足数サーバー、またはこれらの組み合わせのどれを使用しているかに関わらず、定足数デバイスの構成情報を更新する必要があります。これを行うには、定足数デバイスをすべて削除して、グローバルデバイスの名前空間を更新します。必要に応じて、使用を継続する定足数デバイスを再構成することもできます。これにより、それぞれの定足数デバイスに新しいノードが登録され、クラスタ内の新しいノード数に基づいて、定足数デバイスの票数が再計算されます。
新しく構成された SCSI 定足数デバイスは、SCSI-3 予約に設定されます。
追加されたノードへの Sun Cluster ソフトウェアのインストールが完了したことを確認します。
クラスタの任意のノードで、スーパーユーザーになります。
現在の定足数構成を表示します。
コマンド出力にそれぞれの定足数デバイスとノードの一覧が表示されます。次の出力例は、現在の SCSI 定足数デバイス d3 を示しています。
phys-schost# clquorum list d3 … |
それぞれの定足数デバイスの名前が表示されていることに注意してください。
元の定足数デバイスを削除します。
構成する定足数デバイスごとにこの手順を実行します。
phys-schost# clquorum remove devicename |
定足数デバイスの名前を指定します。
元の定足数デバイスがすべて削除されたことを確認します。
定足数デバイスの削除が成功した場合、定足数デバイスの一覧は表示されません。
phys-schost# clquorum status |
グローバルデバイスの名前空間を更新します。
phys-schost# cldevice populate |
この手順はノードのパニックを防ぐために必要です。
各ノードで、定足数デバイスを追加する前に cldevice populate コマンドが処理を完了していることを確認します。
cldevice populate コマンドは、1 つのノードからのみ発行されても、リモートからすべてのノードで実行されます。 cldevice populate コマンドが処理を終了したかどうかを確認するには、クラスタの各ノードで次のコマンドを実行します。
phys-schost# ps -ef | grep scgdevs |
(省略可能) 定足数デバイスを追加します。
もともと定足数デバイスとして構成されていたデバイスと同じデバイスを構成するか、構成する新しい共有デバイスを選択することができます。
(省略可能) 新しい共有デバイスを選択して、定足数デバイスとして構成する場合、システムがチェックするすべてのデバイスを表示します。
それ以外の場合は、手順 c に進みます。
phys-schost# cldevice list -v |
出力は次のようになります。
DID Device Full Device Path ---------- ---------------- d1 phys-schost-1:/dev/rdsk/c0t0d0 d2 phys-schost-1:/dev/rdsk/c0t6d0 d3 phys-schost-2:/dev/rdsk/c1t1d0 d3 phys-schost-1:/dev/rdsk/c1t1d0 … |
この出力から、定足数デバイスとして構成する共有デバイスを選択します。
この共有デバイスを定足数デバイスとして構成します。
phys-schost# clquorum add -t type devicename |
定足数デバイスの種類を指定します。このオプションを指定しない場合、デフォルトの種類である scsi が使用されます。
構成する定足数デバイスごとにこの手順を繰り返します。
新しい定足数構成を確認します。
phys-schost# clquorum list |
出力には、それぞれの定足数デバイスとノードの一覧が表示されるはずです。
次の例では、元の SCSI 定足数デバイス d2 を特定し、この定足数デバイスを削除し、使用できる共有デバイスの一覧を表示し、グローバルデバイスの名前空間を更新し、d3 を新しい SCSI 定足数デバイスとして構成して、新しいデバイスを検証します。
phys-schost# clquorum list d2 phys-schost-1 phys-schost-2 phys-schost# clquorum remove d2 phys-schost# clquorum status … --- Quorum Votes by Device --- Device Name Present Possible Status ----------- ------- -------- ------ phys-schost# cldevice list -v DID Device Full Device Path ---------- ---------------- … d3 phys-schost-2:/dev/rdsk/c1t1d0 d3 phys-schost-1:/dev/rdsk/c1t1d0 … phys-schost# cldevice populate phys-schost# ps -ef - grep scgdevs phys-schost# clquorum add d3 phys-schost# clquorum list d3 phys-schost-1 phys-schost-2 |
「定足数構成とインストールモードを確認する」に進みます。
次の場合は定足数デバイスを構成する必要はありません。
Sun Cluster ソフトウェアの構成時に自動定足数構成を選択した場合
単一ノードクラスタをインストールした場合
ノードを既存のクラスタに追加し、十分な定足数投票を割り当て済みの場合
代わりに、「定足数構成とインストールモードを確認する」に進みます。
次の手順は、クラスタが完全に形成された後に一度だけ実行します。この手順で定足数投票を割り当て、クラスタのインストールモードを解除します。
定足数サーバーまたは NAS デバイスを定足数デバイスとして構成するために次の準備を実行します。
定足数サーバーを定足数デバイスとして構成するには、次の手順を実行します。
定足数サーバーのホストコンピュータに Sun Cluster 定足数サーバー ソフトウェアをインストールして、定足数サーバーを起動します。定足数サーバーのインストールと起動についての詳細は、「定足数サーバーソフトウェアをインストールして構成する」を参照してください。
クラスタノードに直接接続されているネットワークスイッチが次の基準を満たすことを確認します。
スイッチは RSTP (Rapid Spanning Tree Protocol) をサポートしています。
スイッチ上で高速ポートモードが有効になっています。
クラスタノードと定足数サーバー間ですぐに通信できるようにするには、これらの機能の 1 つが必要です。この通信がスイッチによって大幅に遅延すると、クラスタはこの通信の中断を定足数デバイスが失われたものと解釈します。
次の情報を用意します。
構成された定足数デバイスの名前
定足数サーバーのホストコンピュータの IP アドレス
定足数サーバーのポート番号
NAS (network-attached storage) デバイスを定足数デバイスとして構成するには、次の手順を実行します。
NAS デバイスのハードウェアとソフトウェアをインストールします。NAS ハードウェアおよびソフトウェアの要件およびインストール手順については、『Sun Cluster 3.1 - 3.2 With Network-Attached Storage Devices Manual for Solaris OS』 およびデバイスのマニュアルを参照してください。
Network Appliance NAS デバイスの場合、次の情報も指定します。
NAS デバイスの名前
NAS デバイスの LUN ID
定足数サーバーを定足数デバイスとして使用するには、クラスタを定足数サーバーと通信するように準備します。
定足数サーバー構成ファイル (/etc/scqsd/scqsd.conf) を編集します。
Sun Cluster ソフトウェアをインストールすると、デフォルトの構成ファイルである /etc/scqsd/scqsd.conf が作成されます。このファイルには 1 つのデフォルトの定足数サーバーに関する情報が含まれています。/etc/scqsd/scqsd.conf ファイルの各行は、次のような形式になっています。
/usr/cluster/lib/sc/scqsd [-d quorumdirectory] [-i instancename] -p port |
Sun Cluster ソフトウェアをインストールした場所へのフルパスです。この値は、/usr/cluster/lib/sc/scqsd である必要があります。
定足数サーバーが定足数データを格納できるディレクトリへのパスです。
クラスタ固有の定足数情報を格納するために、定足数サーバープロセスはこのディレクトリに 1 クラスタにつき 1 つのファイルを作成します。デフォルトでは、このオプションの値は /var/scqsd です。このディレクトリは、ユーザーが構成する各定足数サーバーに対して一意にします。
定足数サーバーインスタンスに対してユーザーが選択する一意の名前です。
定足数サーバーがクラスタからの要求を待機するポート番号です。デフォルトのポートは 9000 です。
インスタンス名はオプションです。定足数サーバーに対して名前を指定する場合、その名前はシステム内のすべての定足数サーバー間で一意にします。インスタンス名のオプションを省略した場合は、定足数サーバーが待機するポートにより定足数サーバーを参照します。
パブリックネットワークで可変長サブネット化 (CIDR (Classless Inter-Domain Routing) とも呼ばれる) を使用している場合は、各ノードで次のファイルを変更します。
クラスフルサブネットを使用する場合は、これらの手順を実行する必要はありません。
定足数サーバーの IP アドレスがクラスタの各ノードの /etc/inet/hosts または /etc/inet/ipnodes ファイルに含まれていることを確認します。
ネームサービスを使用する場合は、定足数サーバーがネームとアドレスのマッピングに含まれていることを確認します。
1 つのノードで、スーパーユーザーになります。
共有 SCSI ディスクを定足数デバイスとして使用するには、デバイスのクラスタノードへの接続を確認し、構成するデバイスを選択します。
クラスタの 1 つのノードから、システムがチェックするすべてのデバイスの一覧を表示します。
このコマンドを実行するために、スーパーユーザーとしてログインする必要はありません。
phys-schost-1# cldevice list -v |
出力は次のようになります。
DID Device Full Device Path ---------- ---------------- d1 phys-schost-1:/dev/rdsk/c0t0d0 d2 phys-schost-1:/dev/rdsk/c0t6d0 d3 phys-schost-2:/dev/rdsk/c1t1d0 d3 phys-schost-1:/dev/rdsk/c1t1d0 … |
出力にクラスタノードとストレージデバイス間のすべての接続が表示されていることを確認します。
定足数デバイスとして構成する各共有ディスクのグローバルデバイス ID 名を決定します。
共有ディスクを選択した場合は、その共有ディスクが定足数デバイスとして使用する権限を持つ必要があります。定足数デバイスの選択の詳細については、「定足数デバイス」を参照してください。
手順 a の scdidadm コマンドの出力を使用して、定足数デバイスとして構成する各共有ディスクのデバイス ID 名を識別します。たとえば、手順 a の出力はグローバルデバイス d2 が phys-schost-1 と phys-schost-2 によって共有されていることを示しています。
phys-schost# clsetup |
「初期クラスタ設定」画面が表示されます。
代わりに「メインメニュー」が表示された場合は、クラスタの初期設定はすでに正しく行われています。手順 9 に進みます。
「定足数デバイスを追加しますか?」というプロンプトに答えます。
定足数デバイスとして構成するデバイスの種類を指定します。
定足数デバイスの種類 |
説明 |
---|---|
scsi |
Sun NAS デバイスまたは共有 SCSI ディスク |
quorum_server |
定足数サーバー |
netapp_nas |
ネットワークアプライアンス NAS デバイス |
定足数デバイスとして構成するデバイスの名前を指定します。
「「Install mode」をリセットしますか?」というプロンプトで、「Yes」を入力します。
clsetup ユーティリティーによって、クラスタの定足数構成と投票数が設定されたあと、「クラスタの初期化は完了しました。」というメッセージが表示されます。ユーティリティは、「メインメニュー」に戻ります。
clsetup ユーティリティーを終了します。
定足数構成とインストールモードが無効になっていることを確認します。「定足数構成とインストールモードを確認する」に進みます。
中断された clsetup 処理 - 定足数設定プロセスが中断されるか、完了に失敗した場合は、clsetup をもう一度実行してください。
定足数票カウントへの変更 - 後で定足数デバイスに接続したノードの数を増やしたり、減らしたりした場合、定足数票カウントは自動的には再計算されません。各定足数デバイスを一度に 1 つずつ取り外してもう一度構成に追加することにより、正しい定足数投票をもう一度確立できます。2 ノードクラスタの場合、定足数デバイスを取り外して、もとの定足数デバイスに戻す前に一時的に新しい定足数デバイスを追加します。次に一時的に追加した定足数デバイスを取り外します。『Sun Cluster のシステム管理 (Solaris OS 版)』の第 6 章「定足数の管理」の「定足数デバイスのノードリストを変更する」の手順を参照してください。
この手順で、定足数構成が正常に完了し、クラスタのインストールモードが無効になったことを確認します。
これらのコマンドを実行するために、スーパーユーザーである必要はありません。
任意のノードから、デバイスとノードの定足数構成を確認します。
phys-schost% clquorum list |
出力には、それぞれの定足数デバイスとノードの一覧が表示されます。
任意のノードから、クラスタのインストールモードが無効になっていることを確認します。
phys-schost% cluster show -t global | grep installmode installmode: disabled |
クラスタのインストールはこれで完了です。
次のリストから、ご使用のクラスタ構成に次に適用するタスクを決めます。このリストから複数のタスクを実行する必要がある場合は、このリストのそれらのタスクのうち最初のタスクに進みます。
プライベートホスト名を変更する場合は、「プライベートホスト名を変更する」に進みます。
Sun Cluster ソフトウェアをインストールする前に独自の /etc/inet/ntp.conf ファイルをインストールしなかった場合は、NTP 構成ファイルをインストールまたは作成します。「時間情報プロトコル (NTP) を構成する」に進みます。
Solaris IP Filter をフェイルオーバーと共に使用する場合は、Solaris IP Filter を構成します。「Solaris IP Filter を構成する」に進みます。
ボリュームマネージャーをインストールするには、第 4 章「Solaris Volume Manager ソフトウェアの構成」および 第 5 章「VERITAS Volume Manager をインストールして構成する」を参照して、ボリューム管理ソフトウェアをインストールしてください。
VxVM を使用するクラスタに新しいノードを追加した場合は、次の作業のうちの 1 つを行う必要があります。
VxVM を当該ノードにインストールします。
当該ノードの /etc/name_to_major ファイルを変更して、VxVM との共存をサポートするようにします。
「VERITAS Volume Manager ソフトウェアをインストールする」の手順に従って、これらの必要な作業のうちの 1 つを実行します。
クラスタファイルシステムを作成するには、「クラスタファイルシステムを追加する」に進みます。
ノードに非大域ゾーンを作成する場合は、「クラスタノードに非大域ゾーンを作成する」を参照してください。
SPARC:Sun Management Centerをクラスタを監視するように設定する場合は、「SPARC: Sun Cluster モジュールを Sun Management Center 用にインストールする」を参照してください。
Sun 以外のアプリケーションをインストールし、リソースタイプを登録し、リソースグループを設定し、データサービスを構成します。アプリケーションソフトウェアに付属のマニュアルおよび 『Sun Cluster データサービスの計画と管理 (Solaris OS 版)』を参照してください。
クラスタを稼動させる前に、将来の診断のためにクラスタ構成の基準値レコードを作成します。「クラスタ構成の診断データを記録する」に進みます。
クラスタ構成のバックアップを取ります。クラスタ構成のバックアップを保存しておけば、クラスタ構成の回復がより簡単になります。詳細は、『Sun Cluster のシステム管理 (Solaris OS 版)』の「クラスタ構成をバックアップする」を参照してください。
次の作業は、Sun Cluster ソフトウェアのインストール中に割り当てられるデフォルトのプライベートホスト名 (clusternodenodeid-priv) を使用しない場合に実行します。
この手順は、アプリケーションとデータサービスの構成および起動後には実行しないでください。アプリケーションやデータサービスは、名前の変更後も引き続き古いプライベートホスト名を使用することがあり、この手順を実行するとホスト名の衝突が発生します。アプリケーションやデータサービスが実行中の場合は、この手順を実行する前に停止しておいてください。
クラスタの 1 つのアクティブなノードで次の手順を実行します。
クラスタノード上にインストールするクラスタノード上でスーパーユーザーになります。
phys-schost# clsetup |
clsetup のメインメニューが表示されます。
「プライベートホスト名」オプションの番号を入力し、Return キーを押します。
「プライベートホスト名」メニューが表示されます。
「プライベートホスト名の変更」オプションの番号を入力し、Return キーを押します。
プロンプトに従って、プライベートホスト名を変更します。
変更するプライベートホスト名ごとに繰り返します。
phys-schost# clnode show -t node | grep privatehostname privatehostname: clusternode1-priv privatehostname: clusternode2-priv privatehostname: clusternode3-priv |
次のリストから、ご使用のクラスタ構成に次に適用するタスクを決めます。このリストから複数のタスクを実行する必要がある場合は、このリストのそれらのタスクのうち最初のタスクに進みます。
Sun Cluster ソフトウェアをインストールする前に独自の /etc/inet/ntp.conf ファイルをインストールしなかった場合は、NTP 構成ファイルをインストールまたは作成します。「時間情報プロトコル (NTP) を構成する」に進みます。
ボリュームマネージャーをインストールするには、第 4 章「Solaris Volume Manager ソフトウェアの構成」および 第 5 章「VERITAS Volume Manager をインストールして構成する」を参照して、ボリューム管理ソフトウェアをインストールしてください。
VxVM を使用するクラスタに新しいノードを追加した場合は、次の作業のうちの 1 つを行う必要があります。
VxVM を当該ノードにインストールします。
当該ノードの /etc/name_to_major ファイルを変更して、VxVM との共存をサポートするようにします。
「VERITAS Volume Manager ソフトウェアをインストールする」の手順に従って、これらの必要な作業のうちの 1 つを実行します。
クラスタファイルシステムを作成するには、「クラスタファイルシステムを追加する」に進みます。
ノードに非大域ゾーンを作成する場合は、「クラスタノードに非大域ゾーンを作成する」を参照してください。
SPARC:Sun Management Centerをクラスタを監視するように設定する場合は、「SPARC: Sun Cluster モジュールを Sun Management Center 用にインストールする」を参照してください。
Sun 以外のアプリケーションをインストールし、リソースタイプを登録し、リソースグループを設定し、データサービスを構成します。アプリケーションソフトウェアに付属のマニュアルおよび 『Sun Cluster データサービスの計画と管理 (Solaris OS 版)』を参照してください。
クラスタを稼動させる前に、将来の診断のためにクラスタ構成の基準値レコードを作成します。「クラスタ構成の診断データを記録する」に進みます。
Sun Cluster ソフトウェアをインストールする前に独自の /etc/inet/ntp.conf ファイルをインストールしてある場合は、この手順を実行する必要はありません。次の手順を決めます。
次のいずれかの作業を実行した後で NTP 構成ファイルを作成または修正するには、この作業を実行します。
Sun Cluster ソフトウェアをインストールする
既存のクラスタにノードを追加する
クラスタ内のノードのプライベートホスト名を変更する
単一ノードのクラスタにノードを追加した場合、使用する NTP 構成ファイルがもとのクラスタノードおよび新しいノードにコピーされていることを確認します。
NTP を構成する (つまり、クラスタ内で同期をとる) 場合に重要な第一の条件は、すべてのクラスタノードが同時に同期をとる必要があるということです。ノード間で同期をとる場合に重要な第二の条件は、個々のノードの時間が正確であるということです。このような同期についての基本的条件に適合する場合は、NTP はニーズに合わせて自由に構成できます。
クラスタの時刻についての詳細は、『Sun Cluster の概念 (Solaris OS 版)』を参照してください。NTP を Sun Cluster 構成用に構成する場合のガイドラインについては、/etc/inet/ntp.cluster テンプレートファイルを参照してください。
クラスタノード上にインストールするクラスタノード上でスーパーユーザーになります。
独自の /etc/inet/ntp.conf ファイルがある場合は、そのファイルをクラスタの各ノードにコピーします。
インストールする /etc/inet/ntp.conf ファイルがない場合は、 /etc/inet/ntp.conf.cluster ファイルを NTP 構成ファイルとして使用します。
ntp.conf.cluster ファイルの名前を ntp.conf に変更してはいけません。
ノード上に /etc/inet/ntp.conf.cluster ファイルが存在しない場合、Sun Cluster ソフトウェアの初期インストールに /etc/inet/ntp.conf ファイルが存在する可能性があります。ノード上に /etc/inet/ntp.conf ファイルが存在しない場合、Sun Cluster ソフトウェアは NTP 構成ファイルとして /etc/inet/ntp.conf.cluster ファイルを作成します。この場合、その ntp.conf ファイルを次のように編集します。
各ノードでコマンドが正しく完了するのを待ってから、手順 5 に進みます。
SPARC:Solaris 9 OS の場合は、次のコマンドを実行します。
phys-schost# /etc/init.d/xntpd stop |
Solaris 10 OS の場合は、次のコマンドを実行します。
phys-schost# svcadm disable ntp |
各ノード上で、NTP デーモンを再起動します。
ntp.conf.cluster ファイルを使用する場合、次のコマンドを実行します。
phys-schost# /etc/init.d/xntpd.cluster start |
xntpd.cluster 起動スクリプトは最初に、/etc/inet/ntp.conf ファイルを検索します。
ntp.conf ファイルが存在する場合、スクリプトは NTP デーモンを起動することなくすぐに終了します。
ntp.conf ファイルは存在しないが、ntp.conf.cluster ファイルは存在する場合、スクリプトは NTP デーモンを起動します。この場合、スクリプトは ntp.conf.cluster ファイルを NTP 構成ファイルとして使用します。
ntp.conf ファイルを実行する場合、次のいずれかのコマンドを実行します。
SPARC:Solaris 9 OS の場合は、次のコマンドを実行します。
phys-schost# /etc/init.d/xntpd start |
Solaris 10 OS の場合は、次のコマンドを実行します。
phys-schost# svcadm enable ntp |
次のリストから、ご使用のクラスタ構成に次に適用するタスクを決めます。このリストから複数のタスクを実行する必要がある場合は、このリストのそれらのタスクのうち最初のタスクに進みます。
Solaris IP Filter をフェイルオーバーと共に使用する場合は、Solaris IP Filter を構成します。「Solaris IP Filter を構成する」に進みます。
ボリュームマネージャーをインストールするには、第 4 章「Solaris Volume Manager ソフトウェアの構成」および 第 5 章「VERITAS Volume Manager をインストールして構成する」を参照して、ボリューム管理ソフトウェアをインストールしてください。
VxVM を使用するクラスタに新しいノードを追加した場合は、次の作業のうちの 1 つを行う必要があります。
VxVM を当該ノードにインストールします。
当該ノードの /etc/name_to_major ファイルを変更して、VxVM との共存をサポートするようにします。
「VERITAS Volume Manager ソフトウェアをインストールする」の手順に従って、これらの必要な作業のうちの 1 つを実行します。
クラスタファイルシステムを作成するには、「クラスタファイルシステムを追加する」に進みます。
ノードに非大域ゾーンを作成する場合は、「クラスタノードに非大域ゾーンを作成する」を参照してください。
SPARC:Sun Management Centerをクラスタを監視するように設定する場合は、「SPARC: Sun Cluster モジュールを Sun Management Center 用にインストールする」を参照してください。
Sun 以外のアプリケーションをインストールし、リソースタイプを登録し、リソースグループを設定し、データサービスを構成します。アプリケーションソフトウェアに付属のマニュアルおよび 『Sun Cluster データサービスの計画と管理 (Solaris OS 版)』を参照してください。
クラスタを稼動させる前に、将来の診断のためにクラスタ構成の基準値レコードを作成します。「クラスタ構成の診断データを記録する」に進みます。
クラスタの構成が終わって、稼動させる前に、Sun Explorer ユーティリティーを使用して、クラスタに関する基準値情報を記録します。このデータは、将来クラスタの問題を解決する場合に使用できます。
スーパーユーザーになります。
クラスタ内の各ノードで explorer ユーティリティーを実行します。
プラットフォームに適したコマンドを使用します。
サーバー |
コマンド |
---|---|
Sun Fire 3800 〜 6800 |
# explorer -i -w default,scextended |
Sun Fire V1280 および E2900 |
# explorer -i -w default,1280extended |
Sun Fire T1000 および T2000 |
# explorer -i -w default,Tx000 |
Sun Fire X4x00 および X8x00 |
# explorer -i -w default,ipmi |
その他すべてのプラットフォーム |
# explorer -i |
詳細は、/opt/SUNWexplo/man/man1m/ ディレクトリにある explorer(1M) のマニュアルページおよび『Sun Explorer User’s Guide』を参照してください。
explorer の出力ファイルは、/opt/SUNWexplo/output/ ディレクトリに explorer.hostid.hostname-date.tar.gz として保存されます。
クラスタ全体が停止した場合は、ファイルをアクセスできる場所に保存します。
すべての explorer ファイルを電子メールでお住まいの地域の Sun Explorer データベースのエイリアスに送信します。
このデータベースは、ユーザーのクラスタの技術的な問題を診断するためにデータが必要な場合に、Sun のテクニカルサポートにユーザーの explorer 出力を提供します。
場所 |
電子メールアドレス |
---|---|
北米、中米、および南米 (AMER) |
explorer-database-americas@sun.com |
ヨーロッパ、中東、およびアフリカ (EMEA) |
explorer-database-emea@sun.com |
アジア、オーストラリア、ニュージーランド、および太平洋 (APAC) |
explorer-database-apac@sun.com |