ナビゲーションリンクをスキップ | |
印刷ビューの終了 | |
![]() |
Oracle Solaris Cluster ソフトウェアのインストール Oracle Solaris Cluster (日本語) |
1. Oracle Solaris Cluster 構成を計画する
2. グローバルクラスタノードへのソフトウェアのインストール
新規グローバルクラスタまたは新規グローバルクラスタノードの確立
すべてのノードで Oracle Solaris Cluster ソフトウェアを構成する (scinstall)
すべてのノードで Oracle Solaris Cluster ソフトウェアを構成する (XML)
Solaris と Oracle Solaris Cluster ソフトウェアをインストールする (JumpStart)
ノードまたはプライベートネットワークを追加するときにプライベートネットワーク構成を変更する
追加のグローバルクラスタノードとして Oracle Solaris Cluster ソフトウェアを構成する (scinstall)
追加のグローバルクラスタノードで Oracle Solaris Cluster ソフトウェアを構成する (XML)
グローバルクラスタへのノード追加後に定足数デバイスを更新する
4. Solaris ボリュームマネージャー ソフトウェアの構成
5. Veritas Volume Manager をインストールして構成する
8. Oracle Solaris Cluster モジュールの Sun Management Center へのインストール
この節では、新しいグローバルクラスタを確立したり、既存のクラスタにノードを追加したりするための情報と手順について説明します。グローバルクラスタノードは、物理マシンの場合もあれば、(SPARC 専用の) Sun Logical Domains (LDoms) I/O ドメインの場合もあれば、LDoms ゲストドメインの場合もあります。 クラスタは、これらの種類のノードを任意に組み合わせて構成できます。これらの作業を開始する前に、「ソフトウェアをインストールします」で説明した手順に従って、Oracle Solaris OS、Oracle Solaris Cluster フレームワーク、およびその他の製品用のソフトウェアパッケージをインストールしていることを確認してください。
次の作業マップに、新しいグローバルクラスタ、または既存のグローバルクラスタに追加されたノードに対して実行する作業を示します。 ここに示す順に従って手順を実行します。
表 3-1 作業マップ:新しいグローバルクラスタの確立
|
表 3-2 作業マップ:既存のグローバルクラスタにノードを追加する
|
Oracle Solaris Cluster ソフトウェアをクラスタのすべてのノードで設定するには、グローバルクラスタの 1 つのノードからこの手順を実行します。
注 - この手順では、対話型の scinstall コマンドを使用します。インストールスクリプトを開発するときなど、非対話型の scinstall コマンドを使用する場合は、scinstall(1M) のマニュアルページを参照してください。
scinstall コマンドを実行する前に、手動またはサイレントモード形式の installer コマンドを使用して、Oracle Solaris Cluster ソフトウェアパッケージがノードにインストールされていることを確認してください。 installer プログラムをインストールスクリプトから実行する方法の詳細については、『Sun Java Enterprise System 5 Update 1 Installation Guide for UNIX』の第 5 章「Installing in Silent Mode」を参照してください。
始める前に
次の作業を実行します。
Oracle Solaris Cluster ソフトウェアをサポートするように Solaris OS がインストールされているか確認します。
Solaris ソフトウェアがすでにノード上にインストールされている場合は、Solaris のインストールが Oracle Solaris Cluster ソフトウェアの必要条件、およびそのクラスタにインストールする予定の他のソフトウェアの必要条件を満たしていることを確認してください。Solaris ソフトウェアをインストールして、Oracle Solaris Cluster ソフトウェアの必要条件を満たす方法の詳細については、「Solaris ソフトウェアをインストールする」を参照してください。
SPARC: Sun Logical Domains (LDoms) の I/O ドメイン、またはゲストドメインをクラスタノードとして構成する場合、各物理マシン上に LDoms ソフトウェアがインストールされていることと、ドメインが Oracle Solaris Cluster の要件を満たしていることを確認する必要があります。 「SPARC: Sun Logical Domains ソフトウェアをインストールし、ドメインを作成する」を参照してください。
Oracle Solaris Cluster ソフトウェアパッケージおよびパッチが各ノードにインストールされていることを確認します。 「Oracle Solaris Cluster フレームワークおよびデータサービスソフトウェアパッケージをインストールする 」を参照してください。
使用する scinstall ユーティリティーのモードが「通常」または「カスタム」のどちらであるかを判断します。
「通常」を指定した Oracle Solaris Cluster ソフトウェアのインストールでは、scinstall が自動的に次のデフォルト構成を指定します。
|
次のクラスタ構成ワークシートのうちの 1 つに必要事項を記入します。どちらのワークシートを使用するかは、scinstall ユーティリティーを「通常」または「カスタム」のどちらのモードで実行するかによって決まります。
「通常」モードのワークシート - 「通常」モードを使用して、デフォルト値をすべて受け入れる場合は、次のワークシートに必要事項を記入します。
|
「カスタム」モードのワークシート - 「カスタム」モードを使用して構成データをカスタマイズする場合は、次のワークシートに必要事項を記入します。
注 - 単一ノードクラスタをインストールしている場合、クラスタでプライベートネットワークを使用していなくても、scinstall ユーティリティーが自動的にデフォルトのプライベートネットワークアドレスとネットマスクを割り当てます。
|
これらのガイドラインに従い、次に示す手順で対話式の scinstall ユーティリティーを使用します。
対話式 scinstall を使用すると、先行入力が可能になります。したがって、次のメニュー画面がすぐに表示されなくても、Return キーを押すのは一度だけにしてください。
特に指定のある場合を除いて、Control-D キーを押すと、関連する一連の質問の最初に戻るか、メインメニューに戻ります。
前のセッションのデフォルトの解凍が、質問の最後に角かっこ ([ ]) で囲まれて表示されます。入力せずに角かっこ内の回答を入力するには、Return キーを押します。
すべてのクラスタノードで スーパーユーザーのリモートシェル (rsh(1M)) またはセキュアシェル (ssh(1)) アクセス します。
スイッチのドキュメントの手順に従って、NDP が有効になっているかどうかを確認し、NDP を無効にします。
クラスタ構成中に、ソフトウェアはプライベートインターコネクトにトラフィックがないことを確認します。プライベートインターコネクトでトラフィックを確認したときに NDP がプライベートアダプタにパッケージを送信する場合、ソフトウェアはインターコネクトがプライベートではないものとみなし、クラスタ構成が中断されます。このため、クラスタ作成中は NDP を無効にしてください。
クラスタが確立されたあと、NDP の機能を使用する場合は、プライベートインターコネクトスイッチ上でもう一度 NDP を有効にすることができます。
phys-schost# /usr/cluster/bin/scinstall
*** Main Menu *** Please select from one of the following (*) options: * 1) Create a new cluster or add a cluster node * 2) Configure a cluster to be JumpStarted from this install server 3) Manage a dual-partition upgrade 4) Upgrade this cluster node * 5) Print release information for this cluster node * ?) Help with menu options * q) Quit Option: 1
「新しいクラスタとクラスタノード」メニューが表示されます。
「通常」または「カスタム」モードメニューが表示されます。
「新しいクラスタの作成」画面が表示されます。要件を読み、Control-D キーを押して操作を続けます。
scinstall ユーティリティーは、すべてのクラスタノードのインストールを行い、クラスタを再起動します。クラスタ内ですべてのノードが正常に起動されると、クラスタが確立されます。Oracle Solaris Cluster のインストール出力は、/var/cluster/logs/install/scinstall.log.N に記録されます。
ノードのサービスがまだオンラインでない場合は、次のステップに進む前に状態がオンラインに変わるまで待ちます。
phys-schost# svcs multi-user-server node STATE STIME FMRI online 17:52:55 svc:/milestone/multi-user-server:default
phys-schost# clnode status
出力は次のようになります。
=== Cluster Nodes === --- Node Status --- Node Name Status --------- ------ phys-schost-1 Online phys-schost-2 Online phys-schost-3 Online
詳細は、clnode(1CL) のマニュアルページを参照してください。
少なくともディスクのいずれかが、クラスタ内の別のノードからアクセス可能である場合、監視される共有ディスクパスがすべて失敗すると、この機能はノードを自動的に再起動します。
phys-schost# clnode set -p reboot_on_path_failure=enabled
設定するプロパティーを指定します。
監視される共有ディスクパスすべてに障害が発生する場合、自動ノードリブートを有効化します。
phys-schost# clnode show === Cluster Nodes === Node Name: node … reboot_on_path_failure: enabled …
LOFS を無効にするには、クラスタの各ノードの/etc/system ファイルに次のエントリを追加します。
exclude:lofs
/etc/system ファイルへの変更は、次のシステム再起動後に有効になります。
注 - 高可用性ローカルファイルシステムで HA for NFS を使用し、かつ automountd を実行している場合は、LOFS を有効にすることはできません。 LOFS により、HA for NFS でスイッチオーバーの問題が発生する可能性があります。 高可用性ローカルファイルシステムに HA for NFS を追加することを選択する場合は、次のいずれかの構成変更を行う必要があります。
ただし、クラスタで非大域ゾーンを構成する場合は、すべてのクラスタノードで LOFS を有効にする必要があります。高可用性ローカルファイルシステム上の HA for NFS が LOFS と共存する必要がある場合は、LOFS を無効にする代わりに、ほかのソリューションを使用してください。
LOFS を無効にします。
automountd デーモンを無効にします。
HA for NFS からエクスポートされた高可用性ローカルファイルシステムに含まれるすべてのファイルをオートマウンタマップから除外します。 この選択により、LOFS と automountd デーモンの両方を有効なままにすることができます。
ループバックファイルシステムについては、『Solaris のシステム管理 (デバイスとファイルシステム)』の「ループバックファイルシステム」を参照してください。
例 3-1 すべてのノードでの Oracle Solaris Cluster ソフトウェアの構成
ここでは、scinstall を使用して 2 ノードクラスタ schost で構成作業を完了したときに、ログに記録される scinstall 進行状況メッセージの例を示します。このクラスタは、「通常」モードで、scinstall ユーティリティーを使用することによって、phys-schost-1 からインストールされます。もう一つのクラスタノードは、phys-schost-2 です。アダプタ名は qfe2 と qfe3です。定足数デバイスの自動選択は有効です。いずれのノードもパーティション /globaldevices をグローバル-デバイス名前空間として使用します。
Installation and Configuration Log file - /var/cluster/logs/install/scinstall.log.24747 Testing for "/globaldevices" on "phys-schost-1" … done Testing for "/globaldevices" on "phys-schost-2" … done Checking installation status … done The Sun Cluster software is already installed on "phys-schost-1". The Sun Cluster software is already installed on "phys-schost-2". Starting discovery of the cluster transport configuration. The following connections were discovered: phys-schost-1:qfe2 switch1 phys-schost-2:qfe2 phys-schost-1:qfe3 switch2 phys-schost-2:qfe3 Completed discovery of the cluster transport configuration. Started cluster check on "phys-schost-1". Started cluster check on "phys-schost-2". cluster check completed with no errors or warnings for "phys-schost-1". cluster check completed with no errors or warnings for "phys-schost-2". Removing the downloaded files … done Configuring "phys-schost-2" … done Rebooting "phys-schost-2" … done Configuring "phys-schost-1" … done Rebooting "phys-schost-1" … Log file - /var/cluster/logs/install/scinstall.log.24747 Rebooting …
注意事項
構成の失敗 – 1 つ以上のノードをクラスタに結合できなかったり、間違った構成情報が指定された場合は、まずこの手順の再実行を試みます。 それでも問題が修正されない場合は、誤った構成の各ノードで 「インストールの問題を修正するために Oracle Solaris Cluster ソフトウェアを構成解除する」 の手順を実行して、クラスタ構成からそのノードを削除します。 Oracle Solaris Cluster ソフトウェアパッケージをアンインストールする必要はありません。それから、この手順をもう一度実行します。
次の手順
単一ノードクラスタをインストールすると、クラスタは確立されます。「クラスタファイルシステムの作成」に進んで、ボリューム管理ソフトウェアをインストールし、クラスタを構成してください。
複数ノードクラスタをインストールして、自動定足数構成を選択した場合は、インストール後の設定は完了しています。「定足数構成とインストールモードを確認する」に進みます。
複数ノードクラスタをインストールして、自動定足数構成を拒否した場合は、インストール後の設定を実行します。「定足数デバイスを構成する」に進みます。
クラスタに定足数デバイスを構成する場合、「定足数デバイスを構成する」 を参照してください。
それ以外の場合は、「定足数構成とインストールモードを確認する」に進みます。
XML クラスタ構成ファイルを使用して新規グローバルクラスタを構成するには、以下の手順を実行します。新しいクラスタは、Oracle Solaris Cluster 3.3 5/11 ソフトウェアを実行する既存のクラスタから複製できます。
この手順では、次のクラスタ構成要素を構成します。
クラスタ名
クラスタノードのメンバーシップ
クラスタインターコネクト
グローバルデバイス
始める前に
次の作業を実行します。
Oracle Solaris Cluster ソフトウェアをサポートするように Solaris OS がインストールされているか確認します。
Solaris ソフトウェアがすでにノード上にインストールされている場合は、Solaris のインストールが Oracle Solaris Cluster ソフトウェアの必要条件、およびそのクラスタにインストールする予定の他のソフトウェアの必要条件を満たしていることを確認してください。Solaris ソフトウェアをインストールして、Oracle Solaris Cluster ソフトウェアの必要条件を満たす方法の詳細については、「Solaris ソフトウェアをインストールする」を参照してください。
Oracle Solaris Cluster ソフトウェアをサポートするように Solaris OS がインストールされているか確認します。
Solaris ソフトウェアがすでにノード上にインストールされている場合は、Solaris のインストールが Oracle Solaris Cluster ソフトウェアの必要条件、およびそのクラスタにインストールする予定の他のソフトウェアの必要条件を満たしていることを確認してください。Solaris ソフトウェアをインストールして、Oracle Solaris Cluster ソフトウェアの必要条件を満たす方法の詳細については、「Solaris ソフトウェアをインストールする」を参照してください。
SPARC: Sun Logical Domains (LDoms) の I/O ドメイン、またはゲストドメインをクラスタノードとして構成する場合、各物理マシン上に LDoms ソフトウェアがインストールされていることと、ドメインが Oracle Solaris Cluster の要件を満たしていることを確認する必要があります。 「SPARC: Sun Logical Domains ソフトウェアをインストールし、ドメインを作成する」を参照してください。
Oracle Solaris Cluster 3.3 5/11 ソフトウェアとパッチが構成する各ノードにインストールされていることを確認します。「Oracle Solaris Cluster フレームワークおよびデータサービスソフトウェアパッケージをインストールする 」を参照してください。
phys-schost# /usr/sbin/clinfo -n
clinfo: node is not configured as part of acluster: Operation not applicable
このメッセージは、作成するノードで Oracle Solaris Cluster ソフトウェアがまだ構成されていないことを示します。
ノード ID が返されることは、Oracle Solaris Cluster ソフトウェアがすでにノードで構成されていることを示します。
クラスタで旧バージョンの Oracle Solaris Cluster ソフトウェアが実行されていて、Oracle Solaris Cluster 3.3 5/11 ソフトウェアをインストールする場合、代わりに『Oracle Solaris Cluster Upgrade Guide』のアップグレード手順を実行します。
作成するクラスタノードでOracle Solaris Cluster ソフトウェアがまだ構成されていない場合は、手順 2 に進みます。
スイッチのドキュメントの手順に従って、NDP が有効になっているかどうかを確認し、NDP を無効にします。
クラスタ構成中に、ソフトウェアはプライベートインターコネクトにトラフィックがないことを確認します。プライベートインターコネクトでトラフィックを確認したときに NDP がプライベートアダプタにパッケージを送信する場合、ソフトウェアはインターコネクトがプライベートではないものとみなし、クラスタ構成が中断されます。このため、クラスタ作成中は NDP を無効にしてください。
クラスタが確立されたあと、NDP の機能を使用する場合は、プライベートインターコネクトスイッチ上でもう一度 NDP を有効にすることができます。
phys-schost# cluster export -o clconfigfile
出力先を指定します。
クラスタ構成 XML ファイルの名前。指定するファイル名は、既存のファイルまたはコマンドで作成される新規ファイルになります。
詳細については、cluster(1CL)のマニュアルページを参照してください。
クラスタノードとして構成する他のホストからアクセス可能なディレクトリであれば、任意のディレクトリにファイルを格納できます。
clconfiguration(5CL) のマニュアルページに示した要素の階層に基づいてファイルを作成して下さい。クラスタノードとして構成する他のホストからアクセス可能なディレクトリであれば、任意のディレクトリにファイルを格納できます。
クラスタを確立するには、クラスタ構成 XML ファイルで次の構成要素が有効な値を持つ必要があります。
クラスタ名
クラスタノード
クラスタトランスポート
クラスタは、クラスタノードとして構成する各ノードに /globaldevices パーティションが存在することを前提に作成されます。このパーティションにグローバルデバイスの名前空間が作成されます。グローバルデバイスを作成する別のファイルシステム名を使用する必要がある場合は、/globaldevicesという名前のパーティションを持たない各ノードの<propertyList>要素に次のプロパティを追加します。
… <nodeList> <node name="node" id="N"> <propertyList> … <property name="globaldevfs" value="/filesystem-name"> … </propertyList> </node> …
その代わり、グローバル-デバイス名前空間に lofi デバイスを使用するには、globaldevfs プロパティの値をlofi に設定します。
<property name="globaldevfs" value="lofi">
既存のクラスタからエクスポートした構成情報を変更する場合、新しいクラスタを反映するために変更の必要な一部の値 (ノード名など) が複数のクラスタオブジェクトに含まれています。
クラスタ構成 XML ファイルの構造と内容の詳細については、clconfiguration(5CL) のマニュアルページを参照してください。
phys-schost# /usr/share/src/xmllint --valid --noout clconfigfile
詳細については、xmllint() のマニュアルページを参照してください。
phys-schost# cluster create -i clconfigfile
入力ソースとして使用するクラスタ構成 XML ファイルの名前を指定します。
ノードのサービスがまだオンラインでない場合は、次のステップに進む前に状態がオンラインに変わるまで待ちます。
phys-schost# svcs multi-user-server node STATE STIME FMRI online 17:52:55 svc:/milestone/multi-user-server:default
phys-schost# clnode status
出力は次のようになります。
=== Cluster Nodes === --- Node Status --- Node Name Status --------- ------ phys-schost-1 Online phys-schost-2 Online phys-schost-3 Online
詳細は、clnode(1CL) のマニュアルページを参照してください。
パッチおよびインストール手順の場所については、『Oracle Solaris Cluster 3.3 5/11 リリースノート』の「パッチと必須ファームウェアのレベル」を参照してください。
LOFS を無効にするには、クラスタの各ノードの/etc/system ファイルに次のエントリを追加します。
exclude:lofs
/etc/system ファイルへの変更は、次のシステム再起動後に有効になります。
注 - 高可用性ローカルファイルシステムで HA for NFS を使用し、かつ automountd を実行している場合は、LOFS を有効にすることはできません。 LOFS により、HA for NFS でスイッチオーバーの問題が発生する可能性があります。 高可用性ローカルファイルシステムに HA for NFS を追加することを選択する場合は、次のいずれかの構成変更を行う必要があります。
ただし、クラスタで非大域ゾーンを構成する場合は、すべてのクラスタノードで LOFS を有効にする必要があります。高可用性ローカルファイルシステム上の HA for NFS が LOFS と共存する必要がある場合は、LOFS を無効にする代わりに、ほかのソリューションを使用してください。
LOFS を無効にします。
automountd デーモンを無効にします。
HA for NFS からエクスポートされた高可用性ローカルファイルシステムに含まれるすべてのファイルをオートマウンタマップから除外します。 この選択により、LOFS と automountd デーモンの両方を有効なままにすることができます。
ループバックファイルシステムについては、『Solaris のシステム管理 (デバイスとファイルシステム)』の「ループバックファイルシステム」を参照してください。
2 ノードクラスタを作成した場合、定足数デバイスを構成する必要があります。必要な定足数デバイスを作成するためにクラスタ構成 XML ファイルを使用しない場合は、代わりに 「定足数デバイスを構成する」に進みます。
「定足数サーバー ソフトウェアをインストールおよび構成する」の手順に従います。
『Oracle Solaris Cluster 3.3 With Network-Attached Storage Device Manual 』を参照してください。
phys-schost# xmllint --valid --noout clconfigfile
phys-schost# clquorum add -i clconfigfile devicename
定足数デバイスとして構成するストレージデバイスの名前を指定します。
phys-schost# clquorum reset
phys-schost# claccess deny-all
phys-schost# clnode set -p reboot_on_path_failure=enabled
設定するプロパティーを指定します。
監視される共有ディスクパスすべてに障害が発生する場合、自動ノードリブートを有効化します。
phys-schost# clnode show === Cluster Nodes === Node Name: node … reboot_on_path_failure: enabled …
例 3-2 すべてのノードで XML ファイルを使用して、Oracle Solaris Cluster ソフトウェアを構成する
次の例では、既存の 2 ノードクラスタのクラスタ構成と定足数構成を新しい 2 ノードクラスタに複製します。新しいクラスタには Solaris 10 OS がインストールされ、非大域ゾーンで構成されていません。クラスタ構成は、既存のクラスタノード、phys-oldhost-1 からクラスタ構成 XML ファイル clusterconf.xml にエクスポートされます。新しいクラスタのノード名は、phys-newhost-1 および phys-newhost-2 です。新しいクラスタで定足数デバイスとして構成されるデバイスは、d3 です。
この例で、プロンプト名 phys-newhost-N は、コマンドが両方のクラスタノードで実行されることを示しています。
phys-newhost-N# /usr/sbin/clinfo -n clinfo: node is not configured as part of acluster: Operation not applicable phys-oldhost-1# cluster export -o clusterconf.xml Copy clusterconf.xml to phys-newhost-1 and modify the file with valid values phys-newhost-1# xmllint --valid --noout clusterconf.xml No errors are reported phys-newhost-1# cluster create -i clusterconf.xml phys-newhost-N# svcs multi-user-server STATE STIME FMRI online 17:52:55 svc:/milestone/multi-user-server:default phys-newhost-1# clnode status Output shows that both nodes are online phys-newhost-1# clquorum add -i clusterconf.xml d3 phys-newhost-1# clquorum reset
注意事項
構成の失敗 – 1 つ以上のノードをクラスタに結合できなかったり、間違った構成情報が指定された場合は、まずこの手順の再実行を試みます。 それでも問題が修正されない場合は、誤った構成の各ノードで 「インストールの問題を修正するために Oracle Solaris Cluster ソフトウェアを構成解除する」 の手順を実行して、クラスタ構成からそのノードを削除します。 Oracle Solaris Cluster ソフトウェアパッケージをアンインストールする必要はありません。それから、この手順をもう一度実行します。
次の手順
「定足数構成とインストールモードを確認する」に進みます。
参照
クラスタが完全に確立されたら、既存のクラスタから他のクラスタ構成要素の構成を複製できます。まだ複製を実行していない場合は、複製する XML 要素の値を構成要素を追加するクラスタ構成を反映するように変更します。たとえば、リソースグループを複製している場合、ノード名が同じでない限り、<resourcegroupNodeList> エントリに複製したクラスタからのノード名でなく、新しいクラスタの有効なノード名が含まれることを確認してください。
クラスタ構成要素を複製するには、複製するクラスタ構成要素のオブジェクト指向コマンドの export サブコマンドを実行します。コマンド構文およびオプションの詳細については、複製するクラスタオブジェクトのマニュアルページを参照してください。次の表は、クラスタを確立した後にクラスタ構成 XML ファイルから作成できるクラスタ構成要素および構成要素を複製するために使用するコマンドのマニュアルページを示しています。
|
この手順では、カスタム JumpStart によるインストール方法であるscinstall(1M)の設定と使用方法について説明します。この方法は、Solaris OS と Oracle Solaris Cluster ソフトウェアの両方をすべてのグローバルクラスタノードにインストールし、クラスタを確立します。この手順は、新規ノードを既存のクラスタに追加するときにも使用できます。
始める前に
次の作業を実行します。
Solaris ソフトウェアをインストールする前に、ハードウェアの設定が完了していることと、接続が完全であることを確認します。ハードウェアの設定については、『Oracle Solaris Cluster Hardware Administration Collection』およびサーバーと記憶装置のドキュメントを参照してください。
各クラスタノードの Ethernet アドレスを調べます。
ネームサービスを使用する場合、クライアントがクラスタサービスにアクセスするときに使用する任意のネームサービスに次の情報が追加されていることを確認します。計画のガイドラインについては、「パブリックネットワーク IP アドレス」を参照してください。Solaris ネームサービスの使用については、Solaris システム管理者用のドキュメントを参照してください。
すべての公開ホスト名と論理アドレスのアドレスと名前の対応付け
JumpStart インストールサーバーの IP アドレスとホスト名
クラスタ構成の計画が完了していることを確認します。要件とガイドラインについては、「クラスタソフトウェアのインストールの準備をする」を参照してください。
フラッシュアーカイブを作成するサーバーで、Oracle Solaris Cluster ソフトウェアをサポートするために必要なすべてのSolaris OS ソフトウェア、パッチ、およびファームウェアがインストールされていることを確認します。
Solaris ソフトウェアがすでにサーバーにインストールされている場合は、Solaris のインストールが Oracle Solaris Cluster ソフトウェアの必要条件、およびそのクラスタにインストールする予定の他のソフトウェアの必要条件を満たしていることを確認してください。Solaris ソフトウェアをインストールして、Oracle Solaris Cluster ソフトウェアの必要条件を満たす方法の詳細については、「Solaris ソフトウェアをインストールする」を参照してください。
SPARC: Sun Logical Domains (LDoms) の I/O ドメイン、またはゲストドメインをクラスタノードとして構成する場合、各物理マシン上に LDoms ソフトウェアがインストールされていることと、ドメインが Oracle Solaris Cluster の要件を満たしていることを確認する必要があります。 「SPARC: Sun Logical Domains ソフトウェアをインストールし、ドメインを作成する」を参照してください。
フラッシュアーカイブを作成するサーバーで、Oracle Solaris Cluster ソフトウェアパッケージとそのパッチがインストールされていることを確認します。「Oracle Solaris Cluster フレームワークおよびデータサービスソフトウェアパッケージをインストールする 」を参照してください。
使用する scinstall ユーティリティーのモードが「通常」または「カスタム」のどちらであるかを判断します。「通常」を指定した Oracle Solaris Cluster ソフトウェアのインストールでは、scinstall が自動的に次のデフォルト構成を指定します。
|
次のクラスタ構成ワークシートのうちの 1 つに必要事項を記入します。どちらのワークシートを使用するかは、scinstall ユーティリティーを「通常」または「カスタム」のどちらのモードで実行するかによって決まります。計画のガイドラインについては、「Oracle Solaris Cluster 環境の準備」を参照してください。
「通常」モードのワークシート - 「通常」モードを使用して、デフォルト値をすべて受け入れる場合は、次のワークシートに必要事項を記入します。
|
「カスタム」モードのワークシート - 「カスタム」モードを使用して構成データをカスタマイズする場合は、次のワークシートに必要事項を記入します。
注 - 単一ノードクラスタをインストールしている場合、クラスタでプライベートネットワークを使用していなくても、scinstall ユーティリティーが自動的にデフォルトのプライベートネットワークアドレスとネットマスクを使用します。
|
これらのガイドラインに従い、次に示す手順で対話式の scinstall ユーティリティーを使用します。
対話式 scinstall を使用すると、先行入力が可能になります。したがって、次のメニュー画面がすぐに表示されなくても、Return キーを押すのは一度だけにしてください。
特に指定のある場合を除いて、Control-D キーを押すと、関連する一連の質問の最初に戻るか、メインメニューに戻ります。
前のセッションのデフォルトの解凍が、質問の最後に角かっこ ([ ]) で囲まれて表示されます。入力せずに角かっこ内の回答を入力するには、Return キーを押します。
JumpStart インストールサーバーが次の条件に適合していることを確認します。
インストールサーバーがクラスタノードと同じサブネットにあるか、クラスタノードが使用するサブネットに Solaris ブートサーバーがあること。
インストールサーバー自体はクラスタノードでないこと。
インストールサーバーによって、Oracle Solaris Cluster ソフトウェアがサポートする Solaris OS のリリースがインストールされていること。
Oracle Solaris Cluster ソフトウェアの JumpStart インストール用のカスタム JumpStart ディレクトリが存在すること。この jumpstart-dir ディレクトリは、次の要件を満たしている必要があります。
check ユーティリティーのコピーを含むこと。
JumpStart インストールサーバーで読み取れるように NFS エクスポートされていること。
各新規クラスタノードが、Oracle Solaris Cluster インストール用に設定されたカスタム JumpStart ディレクトリを使用する、カスタムJumpStart インストールクライアントとして構成されていること。
使用するソフトウェアプラットフォームと OS のバージョンに該当する手順に従って、JumpStart インストールサーバーを設定します。『Solaris 10 10/09 インストールガイド (カスタムJumpStart/ 上級編)』の「ネットワーク上のシステム用のプロファイルサーバーの作成」を参照してください。
setup_install_server(1M)およびadd_install_client(1M)のマニュアルページも参照してください。
詳細は、『Oracle Solaris Cluster システム管理』の「ノードを認証ノードリストに追加する」を参照してください。
Solaris ソフトウェアがすでにサーバーにインストールされている場合は、Solaris のインストールが Oracle Solaris Cluster ソフトウェアの必要条件、およびそのクラスタにインストールする予定の他のソフトウェアの必要条件を満たしていることを確認してください。Solaris ソフトウェアをインストールして、Oracle Solaris Cluster ソフトウェアの必要条件を満たす方法の詳細については、「Solaris ソフトウェアをインストールする」を参照してください。
「Solaris ソフトウェアをインストールする」の手順に従います。
「SPARC: Sun Logical Domains ソフトウェアをインストールし、ドメインを作成する」の手順に従います。
「Oracle Solaris Cluster フレームワークおよびデータサービスソフトウェアパッケージをインストールする 」の手順に従います。
パッチおよびインストール手順の場所については、『Oracle Solaris Cluster 3.3 5/11 リリースノート』の「パッチと必須ファームウェアのレベル」を参照してください。
machine# cacaoadm enable
この手順は、ネームサービスを使用しているかどうかに関わらず実行します。IP アドレスを追加する必要がある Oracle Solaris Cluster コンポーネントについては、「パブリックネットワーク IP アドレス」を参照してください。
次のコマンドを実行すると、Web コンソールから構成情報が削除されます。構成情報の一部は、インストールシステムに固有の情報です。この情報を削除してから、フラッシュアーカイブを作成する必要があります。そのようにしないと、クラスタノードに転送される構成情報によって、Web コンソールが起動しなくなったり、クラスタノードと正しく対話できなくなる場合があります。
# /usr/share/webconsole/private/bin/wcremove -i console
クラスタノード上に未設定の Web コンソールをインストールし、初めて Web コンソールを起動した場合、Web コンソールは初期構成で自動的に動作し、クラスタノードからの情報が使われます。
wcremove コマンドについては、『Solaris のシステム管理 (基本編)』の「Oracle Java Web Console のユーザー ID」を参照してください。
『Solaris 10 10/09 インストールガイド (Solaris フラッシュアーカイブの作成とインストール)』の第 3 章「Solaris フラッシュアーカイブの作成 (作業)」の手順に従ってください。
machine# flarcreate -n name archive
フラッシュアーカイブに付ける名前
フラッシュアーカイブに付ける、フルパス付きのファイル名。規則により、ファイル名は .flar で終わります。
自動ファイル共有については、『Solaris のシステム管理 (ネットワークサービス)』の第 4 章「ネットワークファイルシステムの管理 (概要)」を参照してください。
メディアパスで、arch は sparc または x86 に置き換え、ver は 10 に置き換えます (Solaris 10 の場合)。
installserver# cd /cdrom/cdrom0Solaris_arch/Product/sun_cluster/ \ Solaris_ver/Tools/ installserver# ./scinstall
scinstall のメインメニューが表示されます。
このオプションを使用して、カスタム JumpStart 完了スクリプトを構成します。JumpStart は、これらの完了スクリプトを使用して、 Oracle Solaris Cluster ソフトウェアをインストールします。
*** Main Menu *** Please select from one of the following (*) options: * 1) Create a new cluster or add a cluster node * 2) Configure a cluster to be JumpStarted from this install server 3) Manage a dual-partition upgrade 4) Upgrade this cluster node * 5) Print release information for this cluster node * ?) Help with menu options * q) Quit Option: 2
scinstall コマンドにより構成情報が格納され、デフォルトの class ファイルである autoscinstall.class ファイルが /jumpstart-dir/autoscinstall.d/3.2/ ディレクトリにコピーされます。このファイルは、次の例のようになります。
install_type initial_install system_type standalone partitioning explicit filesys rootdisk.s0 free / filesys rootdisk.s1 750 swap filesys rootdisk.s3 512 /globaldevices filesys rootdisk.s7 20 cluster SUNWCuser add package SUNWman add
たとえば、グローバルデバイスファイルシステムにスライス4 を割り当て、そのファイルシステムの名前が /gdevs であると scinstall に指定した場合、autoscinstall.class ファイルの /globaldevices エントリを次のように変更します。
filesys rootdisk.s4 512 /gdevs
|
archive_location キーワードを一緒に使用するときの retrieval_type および location の有効値については、『Solaris 10 10/09 インストールガイド (カスタムJumpStart/ 上級編)』の「archive_location プロファイルキーワード」の 「archive_location キーワード」を参照してください。
cluster SUNWCuser add package SUNWman add
autoscinstall.class ファイルにより、エンドユーザー Solaris ソフトウェアグループ (SUNWCuser) がインストールされます。
一部の Oracle Solaris Cluster 機能のサポートに必要な Solarisパッケージを次の表に示します。これらのパッケージは、エンドユーザー Solaris ソフトウェアグループには含まれていません。詳細は、「Oracle Solaris ソフトウェアグループについて」を参照してください。
|
デフォルトの class ファイルは、次のいずれかの方法で変更できます。
autoscinstall.class ファイルを直接編集します。変更内容は、このカスタム JumpStart ディレクトリを使用するすべてのクラスタのすべてのノードに適用されます。
ほかのプロファイルを指す rules ファイルを更新後、check ユーティリティーを実行して、rules ファイルの妥当性検査を行います。
Solaris OS のインストールプロファイルが Oracle Solaris Cluster の最小ファイルシステム割り当て要件を満たす限り、Oracle Solaris Cluster ソフトウェアはインストールプロファイルのその他の変更を制限しません。Oracle Solaris Cluster ソフトウェアをサポートするためのパーティション分割のガイドラインと要件については、「システムディスクパーティション」を参照してください。
JumpStart プロファイルについては、『Solaris 10 10/09 インストールガイド (カスタムJumpStart/ 上級編)』の第 3 章「カスタム JumpStart インストールの準備 (作業)」を参照してください。
scinstall コマンドでインストールされる標準の finish スクリプトがインストールされた後に、ユーザー独自の finish スクリプトが実行されます。JumpStart finish スクリプトの作成方法については、『Solaris 10 10/09 インストールガイド (カスタムJumpStart/ 上級編)』の第 3 章「カスタム JumpStart インストールの準備 (作業)」を参照してください。
詳細は、手順 15 を参照してください。
クラスタ内の各ノードに 1 つの node ディレクトリを作成します。または、共有 finish スクリプトへのシンボリックリンクを作成する命名規則を使用します。
スイッチのドキュメントの手順に従って、NDP が有効になっているかどうかを確認し、NDP を無効にします。
クラスタ構成中に、ソフトウェアはプライベートインターコネクトにトラフィックがないことを確認します。プライベートインターコネクトでトラフィックを確認したときに NDP がプライベートアダプタにパッケージを送信する場合、ソフトウェアはインターコネクトがプライベートではないものとみなし、クラスタ構成が中断されます。このため、クラスタ作成中は NDP を無効にしてください。
クラスタが確立されたあと、NDP の機能を使用する場合は、プライベートインターコネクトスイッチ上でもう一度 NDP を有効にすることができます。
スーパーユーザーとして、次のコマンドを使用して、cconsole ユーティリティーを起動します。
adminconsole# /opt/SUNWcluster/bin/cconsole clustername &
また、cconsole ユーティリティーを使用してマスターウィンドウを開くことができます。ここでの入力を、個々のすべてのコンソールウィンドウに同時に送信できます。
phys-schost# shutdown -g0 -y -i0
ok boot net - install
注 - 上記コマンド内のダッシュ記号 (-) の両側は、空白文字で囲む必要があります。
Press any key to reboot. keystroke
初期化シーケンスが完了すると、BIOS セットアップユーティリティー画面が表示されます。
ブートデバイスの一覧が表示されます。
IBA ブート選択肢の右の一番下の数字は、一番下の Ethernet ポート番号に対応しています。IBA ブート選択肢の右の一番上の数字は、一番上の Ethernet ポート番号に対応しています。
ブートシーケンスがもう一度開始されます。さらに処理が進んで、GRUB メニューが表示されます。
注 - Solaris JumpStart エントリが一覧に表示される唯一のエントリである場合、代わりに選択画面がタイムアウトするのを待つこともできます。30 秒以内に応答しないと、システムは自動的にブートシーケンスを継続します。
GNU GRUB version 0.95 (631K lower / 2095488K upper memory) +-------------------------------------------------------------------------+ | Solaris_10 Jumpstart | | | | | +-------------------------------------------------------------------------+ Use the ^ and v keys to select which entry is highlighted. Press enter to boot the selected OS, 'e' to edit the commands before booting, or 'c' for a command-line.
さらに処理が進んで、インストールの種類のメニューが表示されます。
注 - 30 秒のタイムアウト期間が終了するまでにカスタム JumpStart の番号を入力しないと、システムは自動的に Solaris の対話型のインストールを開始します。
Select the type of installation you want to perform: 1 Solaris Interactive 2 Custom JumpStart 3 Solaris Interactive Text (Desktop session) 4 Solaris Interactive Text (Console session) 5 Apply driver updates 6 Single user shell Enter the number of your choice. 2
JumpStart が Solaris OS と Oracle Solaris Cluster ソフトウェアを各ノードにインストールします。インストールが正常に完了すると、各ノードは新しいクラスタノードとして完全にインストールされます。Oracle Solaris Cluster のインストール出力は、/var/cluster/logs/install/scinstall.log. N ファイルに記録されます。
注 - この時点でインストールを中断しない場合、自動的にインストールの種類のメニューに戻ります。そこで 30 秒以内に入力しない場合、システムは自動的に対話型のインストールを開始します。
さらに処理が進んだ後、BIOS セットアップユーティリティーが表示されます。
ブートデバイスの一覧が表示されます。
ブートシーケンスがもう一度開始されます。GRUB メニューでクラスタモードへの起動を完了するために必要な操作はこれ以上ありません。
ノードのサービスがまだオンラインでない場合は、次のステップに進む前に状態がオンラインに変わるまで待ちます。
phys-schost# svcs multi-user-server node STATE STIME FMRI online 17:52:55 svc:/milestone/multi-user-server:default
phys-schost# mount | grep global | egrep -v node@ | awk '{print $1}'
phys-schost-new# mkdir -p mountpoint
たとえば、マウントコマンドが戻したファイルシステム名が /global/dg-schost-1 である場合、クラスタに追加するノード上で mkdir -p /global/dg-schost-1 を実行します。
phys-schost# grep vxio /etc/name_to_major vxio NNN
VxVM がインストールされている各ノード上で同じ vxio 番号が使用されていることを確認します。
VxVM がインストールされていない各ノード上で vxio 番号が使用できることを確認してください。
VxVM がインストールされていないノード上ですでに vxio 番号が使用されている場合、そのノードで該当番号を解放します。また、/etc/name_to_major エントリは、別の番号に変更してください。
set kernel_cage_enable=1
このエントリは、次のシステム再起動後に有効になります。Oracle Solaris Cluster 構成で、動的再構成の作業を実行するための手順については、『Oracle Solaris Cluster システム管理』を参照してください。 動的再構成の詳細については、サーバーのドキュメントを参照してください。
LOFS を無効にするには、クラスタの各ノードの/etc/system ファイルに次のエントリを追加します。
exclude:lofs
/etc/system ファイルへの変更は、次のシステム再起動後に有効になります。
注 - 高可用性ローカルファイルシステムで HA for NFS を使用し、かつ automountd を実行している場合は、LOFS を有効にすることはできません。 LOFS により、HA for NFS でスイッチオーバーの問題が発生する可能性があります。 高可用性ローカルファイルシステムに HA for NFS を追加することを選択する場合は、次のいずれかの構成変更を行う必要があります。
ただし、クラスタで非大域ゾーンを構成する場合は、すべてのクラスタノードで LOFS を有効にする必要があります。高可用性ローカルファイルシステム上の HA for NFS が LOFS と共存する必要がある場合は、LOFS を無効にする代わりに、ほかのソリューションを使用してください。
LOFS を無効にします。
automountd デーモンを無効にします。
HA for NFS からエクスポートされた高可用性ローカルファイルシステムに含まれるすべてのファイルをオートマウンタマップから除外します。 この選択により、LOFS と automountd デーモンの両方を有効なままにすることができます。
ループバックファイルシステムについては、『Solaris のシステム管理 (デバイスとファイルシステム)』の「ループバックファイルシステム」を参照してください。
|
このエントリは、次のシステム再起動後に有効になります。
この値を設定すると、ログインプロンプトにアクセスできないときにノードを再起動できます。
grub edit> kernel /platform/i86pc/multiboot kmdb
再起動が必要な作業には、次のものがあります。
既存のクラスタへの新しいノードの追加
ノードまたはクラスタの再起動が必要なパッチのインストール
有効にするために再起動の必要な構成の変更
phys-schost-1# cluster shutdown -y -g0 clustername
注 - クラスタがシャットダウンするまで、最初にインストールしたクラスタノードを再起動しないでください。クラスタのインストールモードが無効になるまでは、最初にインストールした (つまり、クラスタを構築した) ノードだけが定足数投票権を持ちます。まだインストールモードにある確立されたクラスタで、最初にインストールしたノードを再起動する前にクラスタをシャットダウンしていない場合、残りのクラスタノードが定足数を獲得できません。クラスタ全体が停止します。
clsetup コマンドを初めて実行するまで、クラスタノードは、インストールモードのままになります。「定足数デバイスを構成する」の手順の間にこのコマンドを実行します。
ok boot
GRUB メニューが表示された時点で、適切な Solaris エントリを選択し Enter キーを押します。GRUB メニューは次のようになっています。
GNU GRUB version 0.95 (631K lower / 2095488K upper memory) +-------------------------------------------------------------------------+ | Solaris 10 /sol_10_x86 | | Solaris failsafe | | | +-------------------------------------------------------------------------+ Use the ^ and v keys to select which entry is highlighted. Press enter to boot the selected OS, 'e' to edit the commands before booting, or 'c' for a command-line.
GRUB ベースの起動についての詳細は、『Solaris のシステム管理 (基本編)』の「GRUB を使用して x86 システムをブートする (作業マップ)」を参照してください。
scinstall ユーティリティーは、すべてのクラスタノードのインストールを行い、クラスタを再起動します。クラスタ内ですべてのノードが正常に起動されると、クラスタが確立されます。Oracle Solaris Cluster のインストール出力は、/var/cluster/logs/install/scinstall.log.N に記録されます。
phys-schost# smcwebserver start
詳細については、smcwebserver(1M)のマニュアルページを参照してください。
phys-schost# clnode status
出力は次のようになります。
=== Cluster Nodes === --- Node Status --- Node Name Status --------- ------ phys-schost-1 Online phys-schost-2 Online phys-schost-3 Online
詳細は、clnode(1CL) のマニュアルページを参照してください。
phys-schost# clnode set -p reboot_on_path_failure=enabled
設定するプロパティーを指定します。
監視される共有ディスクパスすべてに障害が発生する場合、自動ノードリブートを有効化します。
phys-schost# clnode show === Cluster Nodes === Node Name: node … reboot_on_path_failure: enabled …
次の手順
2 ノードクラスタにノードを追加した場合は、「グローバルクラスタへのノード追加後に定足数デバイスを更新する」に進みます。
それ以外の場合は、次の該当する手順に進みます。
複数ノードクラスタをインストールして、自動定足数構成を選択した場合は、インストール後の設定は完了しています。「定足数構成とインストールモードを確認する」に進みます。
複数ノードクラスタをインストールして、自動定足数構成を拒否した場合は、インストール後の設定を実行します。「定足数デバイスを構成する」に進みます。
定足数デバイスを使用する既存のクラスタに新しいノードを追加した場合は、「グローバルクラスタへのノード追加後に定足数デバイスを更新する」に進みます。
定足数デバイスを使用しない既存のクラスタに新しいノードを追加した場合は、クラスタの状態を確認します。「定足数構成とインストールモードを確認する」に進みます。
単一ノードクラスタをインストールすると、クラスタは確立されます。「クラスタファイルシステムの作成」に進んで、ボリューム管理ソフトウェアをインストールし、クラスタを構成してください。
注意事項
無効な scinstall オプション – scinstall コマンドの JumpStart オプションの前にアスタリスクがない場合、このオプションは無効です。これは、JumpStart の設定が完了していないか、セットアップでエラーが発生したことを意味します。この条件を修正するには、まず scinstall ユーティリティーを終了します。手順 1 から手順 16 までを繰り返して JumpStart の設定を修正し、scinstall ユーティリティーを再起動します。
以下の手順を実行して、既存のグローバルクラスタノードで新しいクラスタノードを追加するためにクラスタを準備します。
始める前に
次の作業を実行します。
必要なハードウェアがすべてインストールされていることを確認します。
ホストアダプタが新しいノードに取り付けられていることを確認します。『Oracle Solaris Cluster 3.3 Hardware Administration Manual』を参照してください。
既存のクラスタインターコネクトが新しいノードをサポートできることを確認します。『Oracle Solaris Cluster 3.3 Hardware Administration Manual』を参照してください。
追加の記憶装置がインストールされていることを確認します。『Oracle Solaris Cluster 3.3 Hardware Administration Collection』の該当するマニュアルを参照してください。
phys-schost# clsetup
メインメニューが表示されます。
clsetup ユーティリティーは、作業がエラーなしで完了した場合、「コマンドが正常に完了しました」というメッセージを表示します。
phys-schost# clinterconnect show
少なくとも 2 つのケーブルまたは 2 つのアダプタを構成しなければなりません。
phys-schost# clsetup
指示通りにクラスタに追加するノードの名前、トランスポートアダプタの名前、およびトランスポートスイッチを使用するかどうかを指定します。
phys-schost# clinterconnect show
コマンド出力は、少なくとも 2 つのクラスタインターコネクトの構成情報を表示する必要があります。
phys-schost# cluster show-netprops
次に出力例を示します。
=== Private Network === private_netaddr: 172.16.0.0 private_netmask: 255.255.240.0 max_nodes: 64 max_privatenets: 10 max_zoneclusters: 12
「追加のグローバルクラスタノードとして Oracle Solaris Cluster ソフトウェアを構成する (scinstall)」に進みます。
「ノードまたはプライベートネットワークを追加するときにプライベートネットワーク構成を変更する」に進みます。プライベート IP アドレス範囲を変更するには、クラスタをシャットダウンする必要があります。このためには、各リソースグループをオフラインに切り替え、クラスタ内のすべてのリソースを無効にして、IP アドレス範囲を再構成する前に非クラスタモードで再起動します。
次の手順
新しいクラスタノードで Oracle Solaris Cluster ソフトウェアを構成します。「追加のグローバルクラスタノードとして Oracle Solaris Cluster ソフトウェアを構成する (scinstall)」 または「追加のグローバルクラスタノードで Oracle Solaris Cluster ソフトウェアを構成する (XML)」に進みます。
このタスクを実行してグローバルクラスタのプライベート IP アドレス範囲を変更し、次の 1 つまたは複数のクラスタコンポーネントにおける増加に対応します。
ノードまたは非大域ゾーンの数
プライベートネットワークの数
ゾーンクラスタの数
また、この手順を使用して、プライベート IP アドレスの範囲を小さくすることもできます。
注 - この手順では、クラスタ全体をシャットダウンする必要があります。 ゾーンクラスタのサポートの追加など、ネットマスクだけを変更する必要がある場合、この手順は実行しないでください。 その代わり、ゾーンクラスタの予想数を指定するため、クラスタモードで動作しているグローバルクラスタノードから次のコマンドを実行します。
phys-schost# cluster set-netprops num_zoneclusters=N
このコマンドはクラスタのシャットダウンを要求しません。
始める前に
すべてのクラスタノードで スーパーユーザーのリモートシェル (rsh(1M)) またはセキュアシェル (ssh(1)) アクセス が有効になっていることを確認します。
# clsetup
clsetup のメインメニューが表示されます。
ノードに非大域ゾーンが含まれている場合は、ゾーン内にあるリソースグループもすべてオフラインに切り替わります。
リソースグループメニューが表示されます。
# cluster status -t resource,resourcegroup
指定したクラスタオブジェクトへの出力を制限します
リソースを指定します
リソースグループを指定します
# cluster shutdown -g0 -y
待機時間を秒単位で指定します。
シャットダウンの確認を促すプロンプトを発生させないようにします。
ok boot -x
GRUB メニューは次のようになっています。
GNU GRUB version 0.97 (639K lower / 1047488K upper memory) +----------------------------------------------------------------------+ | Solaris 10 /sol_10_x86 | | Solaris failsafe | | | +----------------------------------------------------------------------+ Use the ^ and v keys to select which entry is highlighted. Press enter to boot the selected OS, 'e' to edit the commands before booting, or 'c' for a command-line.
GRUB ベースの起動についての詳細は、『Solaris のシステム管理 (基本編)』の「GRUB を使用して x86 システムをブートする (作業マップ)」を参照してください。
GRUB ブートパラメータの画面は、次のような画面です。
GNU GRUB version 0.97 (639K lower / 1047488K upper memory) +----------------------------------------------------------------------+ | root (hd0,0,a) | | kernel /platform/i86pc/multiboot | | module /platform/i86pc/boot_archive | |+----------------------------------------------------------------------+ Use the ^ and v keys to select which entry is highlighted. Press 'b' to boot, 'e' to edit the selected command in the boot sequence, 'c' for a command-line, 'o' to open a new line after ('O' for before) the selected line, 'd' to remove the selected line, or escape to go back to the main menu.
[ Minimal BASH-like line editing is supported. For the first word, TAB lists possible command completions. Anywhere else TAB lists the possible completions of a device/filename. ESC at any time exits. ] grub edit> kernel /platform/i86pc/multiboot -x
画面には編集されたコマンドが表示されます。
GNU GRUB version 0.97 (639K lower / 1047488K upper memory) +----------------------------------------------------------------------+ | root (hd0,0,a) | | kernel /platform/i86pc/multiboot -x | | module /platform/i86pc/boot_archive | +----------------------------------------------------------------------+ Use the ^ and v keys to select which entry is highlighted. Press 'b' to boot, 'e' to edit the selected command in the boot sequence, 'c' for a command-line, 'o' to open a new line after ('O' for before) the selected line, 'd' to remove the selected line, or escape to go back to the main menu.-
注 - カーネル起動パラメータコマンドへのこの変更は、システムを起動すると無効になります。次にノードを再起動する際には、ノードはクラスタモードで起動します。非クラスタモードで起動するには、上記の手順を実行してもう一度カーネルのブートパラメータコマンドに -x オプションを追加してください。
非クラスタモードで動作している場合、clsetup ユーティリティーは非クラスタモード動作用のメインメニューを表示します。
clsetup ユーティリティーは現在のプライベートネットワーク構成を表示し、この構成を変更するかどうかを尋ねます。
clsetup ユーティリティーはデフォルトのプライベートネットワーク IP アドレスである 172.16.0.0 を表示し、このデフォルトをそのまま使用してもよいかどうかを尋ねます。
clsetup ユーティリティーは、デフォルトのネットマスクをそのまま使用してもよいかどうかを尋ねます。次の手順に進み、応答を入力します。
clsetup ユーティリティーは、新しいプライベートネットワーク IP アドレスを入力するプロンプトを表示します。
clsetup ユーティリティーはデフォルトのネットマスクを表示し、デフォルトのネットマスクをそのまま使用してもよいかどうかを尋ねます。
デフォルトのネットマスクは 255.255.240.0 です。このデフォルトの IP アドレス範囲は、クラスタ内で最大 64 のノード、最大 12 のゾーンクラスタ、および最大 10 のプライベートネットワークをサポートします。
続いて、次の手順に進みます。
デフォルトのネットマスクを使用しない場合、clsetup ユーティリティーは、ユーザーがクラスタで構成する予定のノード、プライベートネットワーク、およびゾーンクラスタの数を入力するプロンプトを表示します。
これらの数から、clsetup ユーティリティーは 2 つの推奨ネットマスクを計算します。
第一のネットマスクは、ユーザーが指定したノード、プライベートネットワーク、およびゾーンクラスタの数をサポートする、最低限のネットマスクです。
第二のネットマスクは、将来ありうる成長に対応するため、ユーザーが指定したノード、プライベートネットワーク、およびゾーンクラスタの数の 2 倍をサポートします。
# shutdown -g0 -y
ok boot
GRUB メニューが表示された時点で、適切な Solaris エントリを選択し Enter キーを押します。GRUB メニューは次のようになっています。
GNU GRUB version 0.95 (631K lower / 2095488K upper memory) +-------------------------------------------------------------------------+ | Solaris 10 /sol_10_x86 | | Solaris failsafe | | | +-------------------------------------------------------------------------+ Use the ^ and v keys to select which entry is highlighted. Press enter to boot the selected OS, 'e' to edit the commands before booting, or 'c' for a command-line.
GRUB ベースの起動についての詳細は、『Solaris のシステム管理 (基本編)』の「GRUB を使用して x86 システムをブートする (作業マップ)」を参照してください。
# clsetup
clsetup のメインメニューが表示されます。
リソースグループメニューが表示されます。
ノードに非大域ゾーンが含まれる場合は、それらのゾーン内にあるリソースグループもすべてオンラインにします。
q を入力して各サブメニューを取り消すか、Ctrl-C を押してください。
次の手順
既存のクラスタにノードを追加するには、次のいずれかの手順に進みます。
「追加のグローバルクラスタノードとして Oracle Solaris Cluster ソフトウェアを構成する (scinstall)」
「Solaris と Oracle Solaris Cluster ソフトウェアをインストールする (JumpStart)」
クラスタノード上に非大域ゾーンを作成するには、「グローバルクラスタノード上での非大域ゾーンの設定」に進みます。
この手順を実行して、新しいノードを既存のグローバルクラスタに追加します。この手順の代わりに JumpStart を使用して新しいノードを追加するには、「Solaris と Oracle Solaris Cluster ソフトウェアをインストールする (JumpStart)」を参照してください。
注 - この手順では、対話型の scinstall コマンドを使用します。インストールスクリプトを開発するときなど、非対話型の scinstall コマンドを使用する場合は、scinstall(1M) のマニュアルページを参照してください。
scinstall コマンドを実行する前に、手動またはサイレントモード形式の installer コマンドを使用して、Oracle Solaris Cluster ソフトウェアパッケージがノードにインストールされていることを確認してください。 installer プログラムをインストールスクリプトから実行する方法の詳細については、『Sun Java Enterprise System 5 Update 1 Installation Guide for UNIX』の第 5 章「Installing in Silent Mode」を参照してください。
始める前に
次の作業を実行します。
Oracle Solaris Cluster ソフトウェアをサポートするように Solaris OS がインストールされているか確認します。
Solaris ソフトウェアがすでにノード上にインストールされている場合は、Solaris のインストールが Oracle Solaris Cluster ソフトウェアの必要条件、およびそのクラスタにインストールする予定の他のソフトウェアの必要条件を満たしていることを確認してください。Solaris ソフトウェアをインストールして、Oracle Solaris Cluster ソフトウェアの必要条件を満たす方法の詳細については、「Solaris ソフトウェアをインストールする」を参照してください。
SPARC: Sun Logical Domains (LDoms) の I/O ドメイン、またはゲストドメインをクラスタノードとして構成する場合、各物理マシン上に LDoms ソフトウェアがインストールされていることと、ドメインが Oracle Solaris Cluster の要件を満たしていることを確認する必要があります。 「SPARC: Sun Logical Domains ソフトウェアをインストールし、ドメインを作成する」を参照してください。
Oracle Solaris Cluster ソフトウェアパッケージとパッチがノードにインストールされていることを確認します。「Oracle Solaris Cluster フレームワークおよびデータサービスソフトウェアパッケージをインストールする 」を参照してください。
クラスタが新しいノードの追加用に準備されていることを確認します。「追加のグローバルクラスタノード用にクラスタを準備する」を参照してください。
使用する scinstall ユーティリティーのモードが「通常」または「カスタム」のどちらであるかを判断します。「通常」を指定した Oracle Solaris Cluster ソフトウェアのインストールでは、scinstall が自動的に次のデフォルト構成を指定します。
|
次の構成計画ワークシートの 1 つに必要事項を記入します。計画のガイドラインについては、「Oracle Solaris OS の計画」および 「Oracle Solaris Cluster 環境の準備」を参照してください。
「通常」モードのワークシート - 「通常」モードを使用して、デフォルト値をすべて受け入れる場合は、次のワークシートに必要事項を記入します。
|
「カスタム」モードのワークシート - 「カスタム」モードを使用して構成データをカスタマイズする場合は、次のワークシートに必要事項を記入します。
|
これらのガイドラインに従い、次に示す手順で対話式の scinstall ユーティリティーを使用します。
対話式 scinstall を使用すると、先行入力が可能になります。したがって、次のメニュー画面がすぐに表示されなくても、Return キーを押すのは一度だけにしてください。
特に指定のある場合を除いて、Control-D キーを押すと、関連する一連の質問の最初に戻るか、メインメニューに戻ります。
前のセッションのデフォルトの解凍が、質問の最後に角かっこ ([ ]) で囲まれて表示されます。入力せずに角かっこ内の回答を入力するには、Return キーを押します。
phys-schost-new# /usr/cluster/bin/scinstall
scinstall のメインメニューが表示されます。
*** Main Menu *** Please select from one of the following (*) options: * 1) Create a new cluster or add a cluster node 2) Configure a cluster to be JumpStarted from this install server 3) Manage a dual-partition upgrade 4) Upgrade this cluster node * 5) Print release information for this cluster node * ?) Help with menu options * q) Quit Option: 1
「新しいクラスタとクラスタノード」メニューが表示されます。
scinstall ユーティリティーがノードを構成し、クラスタのノードを起動します。
phys-schost# eject cdrom
ノードのサービスがまだオンラインでない場合は、次のステップに進む前に状態がオンラインに変わるまで待ちます。
phys-schost# svcs multi-user-server node STATE STIME FMRI online 17:52:55 svc:/milestone/multi-user-server:default
phys-schost# claccess deny-all
あるいは、clsetup ユーティリティーも使用できます。手順については、『Oracle Solaris Cluster システム管理』の「ノードを認証ノードリストに追加する」を参照してください。
phys-schost# clnode status
出力は次のようになります。
=== Cluster Nodes === --- Node Status --- Node Name Status --------- ------ phys-schost-1 Online phys-schost-2 Online phys-schost-3 Online
詳細は、clnode(1CL) のマニュアルページを参照してください。
phys-schost# showrev -p
phys-schost# clnode set -p reboot_on_path_failure=enabled
設定するプロパティーを指定します。
監視される共有ディスクパスすべてに障害が発生する場合、自動ノードリブートを有効化します。
phys-schost# clnode show === Cluster Nodes === Node Name: node … reboot_on_path_failure: enabled …
LOFS を無効にするには、クラスタの各ノードの/etc/system ファイルに次のエントリを追加します。
exclude:lofs
/etc/system ファイルへの変更は、次のシステム再起動後に有効になります。
注 - 高可用性ローカルファイルシステムで HA for NFS を使用し、かつ automountd を実行している場合は、LOFS を有効にすることはできません。 LOFS により、HA for NFS でスイッチオーバーの問題が発生する可能性があります。 高可用性ローカルファイルシステムに HA for NFS を追加することを選択する場合は、次のいずれかの構成変更を行う必要があります。
ただし、クラスタで非大域ゾーンを構成する場合は、すべてのクラスタノードで LOFS を有効にする必要があります。高可用性ローカルファイルシステム上の HA for NFS が LOFS と共存する必要がある場合は、LOFS を無効にする代わりに、ほかのソリューションを使用してください。
LOFS を無効にします。
automountd デーモンを無効にします。
HA for NFS からエクスポートされた高可用性ローカルファイルシステムに含まれるすべてのファイルをオートマウンタマップから除外します。 この選択により、LOFS と automountd デーモンの両方を有効なままにすることができます。
ループバックファイルシステムについては、『Solaris のシステム管理 (デバイスとファイルシステム)』の「ループバックファイルシステム」を参照してください。
例 3-3 追加ノードでの Oracle Solaris Cluster ソフトウェアの構成
次の例は、クラスタ schost に追加されたノード phys-schost-3 を示しています。スポンサーノードは、phys-schost-1 です。
*** Adding a Node to an Existing Cluster *** Fri Feb 4 10:17:53 PST 2005 scinstall -ik -C schost -N phys-schost-1 -A trtype=dlpi,name=qfe2 -A trtype=dlpi,name=qfe3 -m endpoint=:qfe2,endpoint=switch1 -m endpoint=:qfe3,endpoint=switch2 Checking device to use for global devices file system ... done Adding node "phys-schost-3" to the cluster configuration ... done Adding adapter "qfe2" to the cluster configuration ... done Adding adapter "qfe3" to the cluster configuration ... done Adding cable to the cluster configuration ... done Adding cable to the cluster configuration ... done Copying the config from "phys-schost-1" ... done Copying the postconfig file from "phys-schost-1" if it exists ... done Copying the Common Agent Container keys from "phys-schost-1" ... done Setting the node ID for "phys-schost-3" ... done (id=1) Setting the major number for the "did" driver ... Obtaining the major number for the "did" driver from "phys-schost-1" ... done "did" driver major number set to 300 Checking for global devices global file system ... done Updating vfstab ... done Verifying that NTP is configured ... done Initializing NTP configuration ... done Updating nsswitch.conf ... done Adding clusternode entries to /etc/inet/hosts ... done Configuring IP Multipathing groups in "/etc/hostname.<adapter>" files Updating "/etc/hostname.hme0". Verifying that power management is NOT configured ... done Ensure that the EEPROM parameter "local-mac-address?" is set to "true" ... done The "local-mac-address?" parameter setting has been changed to "true". Ensure network routing is disabled ... done Updating file ("ntp.conf.cluster") on node phys-schost-1 ... done Updating file ("hosts") on node phys-schost-1 ... done Rebooting ...
注意事項
構成の失敗 – 1 つ以上のノードをクラスタに結合できなかったり、間違った構成情報が指定された場合は、まずこの手順の再実行を試みます。 それでも問題が修正されない場合は、誤った構成の各ノードで 「インストールの問題を修正するために Oracle Solaris Cluster ソフトウェアを構成解除する」 の手順を実行して、クラスタ構成からそのノードを削除します。 Oracle Solaris Cluster ソフトウェアパッケージをアンインストールする必要はありません。それから、この手順をもう一度実行します。
次の手順
定足数デバイスを使用する既存のクラスタにノードを追加した場合は、「グローバルクラスタへのノード追加後に定足数デバイスを更新する」に進みます。
それ以外の場合は、「定足数構成とインストールモードを確認する」に進みます。
XML クラスタ構成ファイルを使用して新規グローバルクラスタノードを構成するには、以下の手順を実行します。新しいクラスタは、Oracle Solaris Cluster 3.3 5/11 ソフトウェアを実行する既存のクラスタから複製できます。
この手順では、次のクラスタ構成要素を構成します。
クラスタノードのメンバーシップ
クラスタインターコネクト
グローバルデバイス
始める前に
次の作業を実行します。
Oracle Solaris Cluster ソフトウェアをサポートするように Solaris OS がインストールされているか確認します。
Solaris ソフトウェアがすでにノード上にインストールされている場合は、Solaris のインストールが Oracle Solaris Cluster ソフトウェアの必要条件、およびそのクラスタにインストールする予定の他のソフトウェアの必要条件を満たしていることを確認してください。Solaris ソフトウェアをインストールして、Oracle Solaris Cluster ソフトウェアの必要条件を満たす方法の詳細については、「Solaris ソフトウェアをインストールする」を参照してください。
SPARC: Sun Logical Domains (LDoms) の I/O ドメイン、またはゲストドメインをクラスタノードとして構成する場合、各物理マシン上に LDoms ソフトウェアがインストールされていることと、ドメインが Oracle Solaris Cluster の要件を満たしていることを確認する必要があります。 「SPARC: Sun Logical Domains ソフトウェアをインストールし、ドメインを作成する」を参照してください。
Oracle Solaris Cluster ソフトウェアパッケージと必要なパッチがノードにインストールされていることを確認します。「Oracle Solaris Cluster フレームワークおよびデータサービスソフトウェアパッケージをインストールする 」を参照してください。
クラスタが新しいノードの追加用に準備されていることを確認します。「追加のグローバルクラスタノード用にクラスタを準備する」を参照してください。
phys-schost-new# /usr/sbin/clinfo -n
ok boot -x
GRUB メニューは次のようになっています。
GNU GRUB version 0.97 (639K lower / 1047488K upper memory) +----------------------------------------------------------------------+ | Solaris 10 /sol_10_x86 | | Solaris failsafe | | | +----------------------------------------------------------------------+ Use the ^ and v keys to select which entry is highlighted. Press enter to boot the selected OS, 'e' to edit the commands before booting, or 'c' for a command-line.
GRUB ベースの起動についての詳細は、『Solaris のシステム管理 (基本編)』の「GRUB を使用して x86 システムをブートする (作業マップ)」を参照してください。
GRUB ブートパラメータの画面は、次のような画面です。
GNU GRUB version 0.97 (639K lower / 1047488K upper memory) +----------------------------------------------------------------------+ | root (hd0,0,a) | | kernel /platform/i86pc/multiboot | | module /platform/i86pc/boot_archive | |+----------------------------------------------------------------------+ Use the ^ and v keys to select which entry is highlighted. Press 'b' to boot, 'e' to edit the selected command in the boot sequence, 'c' for a command-line, 'o' to open a new line after ('O' for before) the selected line, 'd' to remove the selected line, or escape to go back to the main menu.
[ Minimal BASH-like line editing is supported. For the first word, TAB lists possible command completions. Anywhere else TAB lists the possible completions of a device/filename. ESC at any time exits. ] grub edit> kernel /platform/i86pc/multiboot -x
画面には編集されたコマンドが表示されます。
GNU GRUB version 0.97 (639K lower / 1047488K upper memory) +----------------------------------------------------------------------+ | root (hd0,0,a) | | kernel /platform/i86pc/multiboot -x | | module /platform/i86pc/boot_archive | +----------------------------------------------------------------------+ Use the ^ and v keys to select which entry is highlighted. Press 'b' to boot, 'e' to edit the selected command in the boot sequence, 'c' for a command-line, 'o' to open a new line after ('O' for before) the selected line, 'd' to remove the selected line, or escape to go back to the main menu.-
注 - カーネル起動パラメータコマンドへのこの変更は、システムを起動すると無効になります。次にノードを再起動する際には、ノードはクラスタモードで起動します。非クラスタモードで起動するには、上記の手順を実行してもう一度カーネルのブートパラメータコマンドに -x オプションを追加してください。
phys-schost-new# /usr/cluster/bin/clnode remove
phys-schost# clnode export -o clconfigfile
出力先を指定します。
クラスタ構成 XML ファイルの名前。指定するファイル名は、既存のファイルまたはコマンドで作成される新規ファイルになります。
詳細は、clnode(1CL) のマニュアルページを参照してください。
clconfiguration(5CL)のマニュアルページに示した要素の階層に基づいてファイルを作成して下さい。このファイルは任意のディレクトリに格納できます。
クラスタ構成 XML ファイルの構造と内容の詳細については、clconfiguration(5CL)のマニュアルページを参照してください。
phys-schost-new# xmllint --valid --noout clconfigfile
phys-schost-new# clnode add -n sponsornode -i clconfigfile
既存のクラスタメンバーの名前を新しいノードのスポンサーの役割を果たすように指定します。
入力ソースとして使用するクラスタ構成 XML ファイルの名前を指定します。
phys-schost# clnode set -p reboot_on_path_failure=enabled
設定するプロパティーを指定します。
監視される共有ディスクパスすべてに障害が発生する場合、自動ノードリブートを有効化します。
phys-schost# clnode show === Cluster Nodes === Node Name: node … reboot_on_path_failure: enabled …
注意事項
構成の失敗 – 1 つ以上のノードをクラスタに結合できなかったり、間違った構成情報が指定された場合は、まずこの手順の再実行を試みます。 それでも問題が修正されない場合は、誤った構成の各ノードで 「インストールの問題を修正するために Oracle Solaris Cluster ソフトウェアを構成解除する」 の手順を実行して、クラスタ構成からそのノードを削除します。 Oracle Solaris Cluster ソフトウェアパッケージをアンインストールする必要はありません。それから、この手順をもう一度実行します。
次の手順
定足数デバイスを使用する既存のクラスタに新しいノードを追加した場合は、「グローバルクラスタへのノード追加後に定足数デバイスを更新する」に進みます。
それ以外の場合は、「定足数構成とインストールモードを確認する」に進みます。
グローバルクラスタにノードを追加したら、共有ディスク、NAS デバイス、定足数サーバー、またはこれらの組み合わせのどれを使用しているかに関わらず、定足数デバイスの構成情報を更新する必要があります。これを行うには、定足数デバイスをすべて削除して、グローバルデバイスの名前空間を更新します。必要に応じて、使用を継続する定足数デバイスを再構成することもできます。これにより、それぞれの定足数デバイスに新しいノードが登録され、クラスタ内の新しいノード数に基づいて、定足数デバイスの票数が再計算されます。
新しく構成された SCSI 定足数デバイスは、SCSI-3 予約に設定されます。
始める前に
追加されたノードへの Oracle Solaris Cluster ソフトウェアのインストールが完了したことを確認します。
phys-schost# cluster status -t node
コマンド出力にそれぞれの定足数デバイスとノードの一覧が表示されます。次の出力例は、現在の SCSI 定足数デバイス d3 を示しています。
phys-schost# clquorum list d3 …
構成する定足数デバイスごとにこの手順を実行します。
phys-schost# clquorum remove devicename
定足数デバイスの名前を指定します。
定足数デバイスの削除が成功した場合、定足数デバイスの一覧は表示されません。
phys-schost# clquorum status
phys-schost# cldevice populate
注 - この手順はノードのパニックを防ぐために必要です。
cldevice populate コマンドは、1 つのノードからのみ発行されても、リモートからすべてのノードで実行されます。 cldevice populate コマンドが処理を終了したかどうかを確認するには、クラスタの各ノードで次のコマンドを実行します。
phys-schost# ps -ef | grep scgdevs
もともと定足数デバイスとして構成されていたデバイスと同じデバイスを構成するか、構成する新しい共有デバイスを選択することができます。
それ以外の場合は、手順 c に進みます。
phys-schost# cldevice list -v
出力は次のようになります。
DID Device Full Device Path ---------- ---------------- d1 phys-schost-1:/dev/rdsk/c0t0d0 d2 phys-schost-1:/dev/rdsk/c0t6d0 d3 phys-schost-2:/dev/rdsk/c1t1d0 d3 phys-schost-1:/dev/rdsk/c1t1d0 …
phys-schost# clquorum add -t type devicename
定足数デバイスの種類を指定します。このオプションを指定しない場合、デフォルトの種類である shared_disk が使用されます。
phys-schost# clquorum list
出力には、それぞれの定足数デバイスとノードの一覧が表示されるはずです。
例 3-4 2 ノードクラスタへのノードの追加後に SCSI 定足数デバイスを更新する
次の例では、元の SCSI 定足数デバイス d2 を特定し、この定足数デバイスを削除し、使用できる共有デバイスの一覧を表示し、グローバルデバイスの名前空間を更新し、d3 を新しい SCSI 定足数デバイスとして構成して、新しいデバイスを検証します。
phys-schost# clquorum list d2 phys-schost-1 phys-schost-2 phys-schost# clquorum remove d2 phys-schost# clquorum status … --- Quorum Votes by Device --- Device Name Present Possible Status ----------- ------- -------- ------ phys-schost# cldevice list -v DID Device Full Device Path ---------- ---------------- … d3 phys-schost-2:/dev/rdsk/c1t1d0 d3 phys-schost-1:/dev/rdsk/c1t1d0 … phys-schost# cldevice populate phys-schost# ps -ef - grep scgdevs phys-schost# clquorum add d3 phys-schost# clquorum list d3 phys-schost-1 phys-schost-2
次の手順
「定足数構成とインストールモードを確認する」に進みます。
注 - 次の場合は定足数デバイスを構成する必要はありません。
Oracle Solaris Cluster ソフトウェアの構成時に自動定足数構成を選択した場合
単一ノードグローバルクラスタをインストールした場合
ノードを既存のグローバルクラスタに追加し、十分な定足数投票を割り当て済みの場合
代わりに、「定足数構成とインストールモードを確認する」に進みます。
次の手順は、新しいクラスタが完全に形成された後に一度だけ実行します。この手順で定足数投票を割り当て、クラスタのインストールモードを解除します。
始める前に
定足数サーバーまたは NAS デバイスを定足数デバイスとして構成するために次の準備を実行します。
定足数サーバー – 定足数サーバーを定足数デバイスとして構成するには、次を実行します。
定足数サーバーのホストコンピュータに 定足数サーバー ソフトウェアをインストールして、定足数サーバーを起動します。定足数サーバーのインストールと起動についての詳細は、「定足数サーバー ソフトウェアをインストールおよび構成する」を参照してください。
クラスタノードに直接接続されているネットワークスイッチが次の基準を満たすことを確認します。
スイッチは RSTP (Rapid Spanning Tree Protocol) をサポートしています。
スイッチ上で高速ポートモードが有効になっています。
クラスタノードと定足数サーバー間ですぐに通信できるようにするには、これらの機能の 1 つが必要です。この通信がスイッチによって大幅に遅延すると、クラスタはこの通信の中断を定足数デバイスが失われたものと解釈します。
次の情報を用意します。
構成された定足数デバイスの名前
定足数サーバーのホストコンピュータの IP アドレス
定足数サーバーのポート番号
NAS デバイス – ネットワーク接続ストレージ (NAS) デバイスを構成するには、次を実行します。
NAS デバイスのハードウェアとソフトウェアをインストールします。NAS ハードウェアおよびソフトウェアの要件とインストール手順については、『Oracle Solaris Cluster 3.3 With Network-Attached Storage Device Manual』およびお使いのデバイスのドキュメントを参照してください。
Network Appliance NAS デバイスの場合、次の情報も指定します。
NAS デバイスの名前
NAS デバイスの LUN ID
定足数サーバーを使用する場合。
パブリックネットワークが、classless inter domain routing (CIDR) とも称せられる可変長のサブネットマスキングを使用する場合。
定足数サーバーを使用するが、パブリックネットワークが RFC 791 で定義されたようにクラスフルサブネットを使用する場合、このステップを実行する必要はありません。
パブリックネットワークの IP アドレスとネットマスクを含むエントリ例は、次のとおりです。
10.11.30.0 255.255.255.0
nodename netmask + broadcast +
phys-schost# cluster status -t node
このコマンドを実行するために、スーパーユーザーとしてログインする必要はありません。
phys-schost-1# cldevice list -v
出力は次のようになります。
DID Device Full Device Path ---------- ---------------- d1 phys-schost-1:/dev/rdsk/c0t0d0 d2 phys-schost-1:/dev/rdsk/c0t6d0 d3 phys-schost-2:/dev/rdsk/c1t1d0 d3 phys-schost-1:/dev/rdsk/c1t1d0 …
手順 a の scdidadm コマンドの出力を使用して、定足数デバイスとして構成する各共有ディスクのデバイス ID 名を識別します。たとえば、手順 a の出力はグローバルデバイス d3 が phys-schost-1 と phys-schost-2 によって共有されていることを示しています。
phys-schost# cldevice show device === DID Device Instances === DID Device Name: /dev/did/rdsk/dN … default_fencing: nofencing …
代わりに、単に各ディスクのフェンシングを無効化することもできます。これにより、global_fencing プロパティーにどのような値を設定しても、そのディスクのフェンシングが上書きされます。手順 c に進んで、各ディスクのフェンシングを無効化します。
phys-schost# cluster show -t global === Cluster === Cluster name: cluster … global_fencing: nofencing …
注 - 各ディスクの default_fencing プロパティーが global に設定されている場合は、クラスタ全体の global_fencing プロパティーが nofencing または nofencing-noscrub に設定されている場合にのみ、各ディスクのフェンシングが無効化されます。global_fencing プロパティーをフェンシングを有効化する値に変更すると、default_fencing プロパティーが global に設定されているすべてのディスクのフェンシングが有効化されます。
phys-schost# cldevice set \ -p default_fencing=nofencing-noscrub device
phys-schost# cldevice show device
phys-schost# clsetup
「初期クラスタ設定」画面が表示されます。
|
定足数サーバーの場合、次の情報も指定します。
定足数サーバーのホストコンピュータの IP アドレス
クラスタノードとやり取りする際に定足数サーバーが使用するポート番号
Network Appliance NAS デバイスの場合、次の情報も指定します。
NAS デバイスの名前
NAS デバイスの LUN ID
clsetup ユーティリティーによって、クラスタの定足数構成と投票数が設定されたあと、「クラスタの初期化は完了しました。」というメッセージが表示されます。ユーティリティーは、「メインメニュー」に戻ります。
次の手順
定足数構成とインストールモードが無効になっていることを確認します。「定足数構成とインストールモードを確認する」に進みます。
注意事項
中断された clsetup 処理 - 定足数設定プロセスが中断されるか、完了に失敗した場合は、clsetup を再実行してください。
定足投票数の変更 – 定足数デバイスに対するノード接続の数をあとで増減させる場合、定足数が自動的に再計算されることはありません。 各定足数デバイスを一度に 1 つずつ取り外してもう一度構成に追加することにより、正しい定足数投票をもう一度確立できます。2 ノードクラスタの場合、定足数デバイスを取り外して、もとの定足数デバイスに戻す前に一時的に新しい定足数デバイスを追加します。次に一時的に追加した定足数デバイスを取り外します。『Oracle Solaris Cluster システム管理』の第 6 章「定足数の管理」の「定足数デバイスのノードリストを変更する」手順を参照してください。
到達不可能な定足数デバイス – クラスタノードで定足数デバイスが到達不可能というメッセージが表示される場合、またはクラスタノードで「CMM: 定足数デバイスを獲得できません」というエラーメッセージが表示される場合、定足数デバイスまたは定足数デバイスへのパスに問題がある可能性があります。定足数デバイスおよび定足数デバイスへのパスが機能していることを確認してください。
引き続き問題が発生する場合、別の定足数デバイスを使用します。また、同じ定足数デバイスを使用する場合は、定足数のタイムアウトを次のように高い値に増やします。
注 - Oracle Real Application Clusters (Oracle RAC) の場合、25 秒というデフォルトの定足数のタイムアウトは変更しないでください。一部のスプリットブレーンシナリオでは、タイムアウト時間を長くすると、VIP リソースのタイムアウトが原因で Oracle RAC VIP フェイルオーバーが失敗する可能性があります。使用している定足数デバイスがデフォルトの 25 秒のタイムアウトに適合しない場合は、別の定足数デバイスを使用します。
1. スーパーユーザーになります。
2. 各クラスタノードで、スーバーユーザーとして /etc/system ファイルを編集して、タイムアウトを高い値に設定します。
次の例では、タイムアウトを 700 秒に設定します。
phys-schost# vi /etc/system … set cl_haci:qd_acquisition_timer=700
3. ノードのどれか 1 つでクラスタを停止します。
phys-schost-1# cluster shutdown -g0 -y
4. 各ノードを起動してクラスタに戻します。
/etc/system ファイルに対する変更は、再起動後に初期化されます。
定数が構成され、そのクラスタイントールモードが無効である場合、定数構成が正常に完了したことを確認するために、この手順を実行します。
これらのコマンドを実行するために、スーパーユーザーである必要はありません。
phys-schost% clquorum list
出力には、それぞれの定足数デバイスとノードの一覧が表示されます。
phys-schost% cluster show -t global | grep installmode installmode: disabled
クラスタのインストールと作成が完了しました。
次の手順
次のリストから、ご使用のクラスタ構成に次に適用するタスクを決めます。このリストから複数のタスクを実行する必要がある場合は、このリストのそれらのタスクのうち最初のタスクに進みます。
プライベートホスト名を変更する場合は、「プライベートホスト名を変更する」に進みます。
Oracle Solaris Cluster ソフトウェアをインストールする前に独自の /etc/inet/ntp.conf ファイルをインストールしなかった場合は、NTP 構成ファイルをインストールまたは作成します。「時間情報プロトコル (NTP) を構成する」に進みます。
プライベートインターコネクト上に IPsec を構成する場合、「クラスタプライベートインターコネクト上で IP セキュリティーアーキテクチャー (IPSec) を構成する」に進みます。
ボリュームマネージャーをインストールするには、第 4 章Solaris ボリュームマネージャー ソフトウェアの構成および第 5 章Veritas Volume Manager をインストールして構成するを参照して、ボリューム管理ソフトウェアをインストールしてください。
注 - VxVM を使用するクラスタに新しいノードを追加した場合は、次の作業のうちの 1 つを実行します。
VxVM を当該ノードにインストールします。
当該ノードの /etc/name_to_major ファイルを変更して、VxVM との共存をサポートするようにします。
「Veritas Volume Manager ソフトウェアをインストールする」の手順に従って、これらの必要な作業のうちの 1 つを実行します。
クラスタファイルシステムを作成するには、「クラスタファイルシステムを追加する」に進みます。
ノード上に非大域ゾーンを作成する場合は、「グローバルクラスタノードに非大域ゾーンを作成する」を参照してください。
SPARC: Sun Management Center をクラスタを監視するように設定する場合は、「SPARC: Oracle Solaris Cluster モジュールを Sun Management Center 用にインストールする」を参照してください。
他社製のアプリケーションをインストールし、リソースタイプを登録し、リソースグループを設定し、データサービスを構成します。アプリケーションソフトウェアに付属のドキュメント、および『Oracle Solaris Cluster Data Services Planning and Administration Guide』を参照してください。
クラスタを稼動させる前に、将来の診断のためにクラスタ構成の基準値レコードを作成します。「クラスタ構成の診断データを記録する」に進みます。
参照
クラスタ構成のバックアップを取ります。
クラスタ構成のバックアップを保存しておけば、クラスタ構成の回復がより簡単になります。詳細は、『Oracle Solaris Cluster システム管理』の「クラスタ構成をバックアップする」を参照してください。
次の作業は、Oracle Solaris Cluster ソフトウェアのインストール中に割り当てられるデフォルトのプライベートホスト名 (clusternodenodeid-priv) を使用しない場合に実行します。
注 - この手順は、アプリケーションとデータサービスの構成および起動後には実行しないでください。アプリケーションやデータサービスは、名前の変更後も引き続き古いプライベートホスト名を使用することがあり、この手順を実行するとホスト名の衝突が発生します。アプリケーションやデータサービスが実行中の場合は、この手順を実行する前に停止しておいてください。
クラスタの 1 つのアクティブなノードで次の手順を実行します。
phys-schost# clsetup
clsetup のメインメニューが表示されます。
「プライベートホスト名」メニューが表示されます。
変更するプライベートホスト名ごとに繰り返します。
phys-schost# clnode show -t node | grep privatehostname privatehostname: clusternode1-priv privatehostname: clusternode2-priv privatehostname: clusternode3-priv
次の手順
次のリストから、ご使用のクラスタ構成に次に適用するタスクを決めます。このリストから複数のタスクを実行する必要がある場合は、このリストのそれらのタスクのうち最初のタスクに進みます。
Oracle Solaris Cluster ソフトウェアをインストールする前に独自の /etc/inet/ntp.conf ファイルをインストールしなかった場合は、NTP 構成ファイルをインストールまたは作成します。「時間情報プロトコル (NTP) を構成する」に進みます。
プライベートインターコネクト上に IPsec を構成する場合、「クラスタプライベートインターコネクト上で IP セキュリティーアーキテクチャー (IPSec) を構成する」に進みます。
ボリュームマネージャーをインストールするには、第 4 章Solaris ボリュームマネージャー ソフトウェアの構成および第 5 章Veritas Volume Manager をインストールして構成するを参照して、ボリューム管理ソフトウェアをインストールしてください。
注 - VxVM を使用するクラスタに新しいノードを追加した場合は、次の作業のうちの 1 つを実行します。
VxVM を当該ノードにインストールします。
当該ノードの /etc/name_to_major ファイルを変更して、VxVM との共存をサポートするようにします。
「Veritas Volume Manager ソフトウェアをインストールする」の手順に従って、これらの必要な作業のうちの 1 つを実行します。
クラスタファイルシステムを作成するには、「クラスタファイルシステムを追加する」に進みます。
ノード上に非大域ゾーンを作成する場合は、「グローバルクラスタノードに非大域ゾーンを作成する」を参照してください。
SPARC: Sun Management Center をクラスタを監視するように設定する場合は、「SPARC: Oracle Solaris Cluster モジュールを Sun Management Center 用にインストールする」を参照してください。
他社製のアプリケーションをインストールし、リソースタイプを登録し、リソースグループを設定し、データサービスを構成します。アプリケーションソフトウェアに付属のドキュメント、および『Oracle Solaris Cluster Data Services Planning and Administration Guide』を参照してください。
クラスタを稼動させる前に、将来の診断のためにクラスタ構成の基準値レコードを作成します。「クラスタ構成の診断データを記録する」に進みます。
負荷制限を設定することによって、ノードまたはゾーンのリソースグループの負荷の自動分散を有効にできます。 リソースグループに負荷係数を割り当てると、その負荷係数はノードの定義済み負荷制限に対応します。
デフォルトの動作では、リソースグループの負荷は使用可能なすべてのノードに均等に分散されます。 各リソースグループは、そのノードリストのノードで起動されます。 Resource Group Manager (RGM) により、設定された負荷分散ポリシーをもっとも満たすノードが選択されます。 RGM によってリソースグループがノードに割り当てられると、各ノードのリソースグループの負荷係数が合計され、合計負荷が算出されます。 次に、合計負荷がそのノードの負荷制限と比較されます。
負荷制限は、グローバルクラスタまたはゾーンクラスタで設定できます。
各ノードの負荷分散を制御するために設定する要素には、負荷制限、リソースグループの優先順位、およびプリエンプションモードがあります。 グローバルクラスタでは、Concentrate_load プロパティーを設定して優先される負荷分散ポリシーを選択できます。これにより、負荷制限を超えずにリソースグループの負荷をできるだけ少ないノードに集中させたり、使用可能なすべてのノードにできるだけ均等に負荷を分散させたりすることができます。 デフォルトの動作では、リソースグループの負荷は分散されます。 各リソースグループは、負荷係数や負荷制限の設定にかかわらず、ノードリストにあるノードのみに実行が制限されます。
注 - リソースグループの負荷分散を設定するには、コマンド行、Oracle Solaris Cluster Manager インタフェース、または clsetup ユーティリティーを使用します。 次の手順は、clsetup ユーティリティーを使用してリソースグループの負荷分散を設定する方法を示したものです。 コマンド行を使用してこれらの手順を実行する手順については、『Oracle Solaris Cluster システム管理』の「負荷制限の設定」を参照してください。
ここでは、次の手順について説明します。
各クラスタノードまたはゾーンに、一連の負荷制限をそれぞれ設定することができます。 リソースグループに負荷係数を割り当てると、その負荷係数はノードの定義済み負荷制限に対応します。 弱い負荷制限 (超えることができる) または強い負荷制限 (超えることができない) を設定できます。
phys-schost# clsetup
clsetup のメニューが表示されます。
「その他のクラスタ作業メニュー (Other Cluster Tasks Menu)」が表示されます。
「リソースグループの負荷分散の管理メニュー (Manage Resource Group Load Distribution Menu)」が表示されます。
「負荷制限の管理メニュー (Manage load limits Menu)」が表示されます。
負荷制限の作成、変更、または削除が可能です。
2 番目のノードに負荷制限を設定する場合は、2 番目のノードに対応するオプション番号を選択し、Return キーを押します。 負荷制限を設定するすべてのノードを選択したら、q と入力し、Return キーを押します。
たとえば、負荷制限の名前として mem_load を入力します。
yes と入力した場合は、弱い制限値を入力し、Enter を押します。
yes と入力した場合は、強い制限値を入力し、Enter を押します。
選択したノードの弱い負荷制限および強い負荷制限とともに、「コマンドが正常に完了しました (Command completed successfully)」というメッセージが表示されます。 Return キーを押して続行します。
q を入力して前のメニューに戻り、Return キーを押します。
高い優先度を持つようにリソースグループを設定すると、特定のノードから移動させられる可能性が低くなります。 負荷制限を超えた場合は、優先順位の低いリソースグループが強制的にオフラインになることがあります。
phys-schost# clsetup
clsetup のメニューが表示されます。
「その他のクラスタ作業メニュー (Other Cluster Tasks Menu)」が表示されます。
「リソースグループの負荷分散の管理メニュー (Manage Resource Group Load Distribution Menu)」が表示されます。
「リソースグループの優先順位の設定メニュー (Set the Priority of a Resource Group Menu)」が表示されます。
既存の優先順位値が表示されます。 デフォルトの優先順位値は 500 です。
「リソースグループの負荷分散の管理メニュー (Manage Resource Group Load Distribution Menu)」が表示されます。
負荷係数は、負荷制限で負荷に割り当てる値です。 負荷係数はリソースグループに割り当て、それらの負荷係数はノードの定義済み負荷制限に対応します。
phys-schost# clsetup
clsetup のメニューが表示されます。
「その他のクラスタ作業メニュー (Other Cluster Tasks Menu)」が表示されます。
「リソースグループの負荷分散の管理メニュー (Manage Resource Group Load Distribution Menu)」が表示されます。
「リソースグループの負荷係数の設定メニュー (Set the load factors of a Resource Group Menu)」が表示されます。
たとえば、mem_load@50 と入力することによって、選択したリソースグループに mem_load という負荷係数を設定できます。 完了したら、Ctrl-D を押します。
「リソースグループの負荷分散の管理メニュー (Manage Resource Group Load Distribution Menu)」が表示されます。
preemption_mode プロパティーは、ノードの過負荷が原因でリソースグループが優先順位の高いリソースグループによってノードからプリエンプトされるかどうかを判定します。 このプロパティーは、あるノードから別のノードへのリソースグループの移動のコストを示します。
phys-schost# clsetup
clsetup のメニューが表示されます。
「その他のクラスタ作業メニュー (Other Cluster Tasks Menu)」が表示されます。
「リソースグループの負荷分散の管理メニュー (Manage Resource Group Load Distribution Menu)」が表示されます。
「リソースグループのプリエンプションモードの設定メニュー (Set the Preemption Mode of a Resource Group Menu)」が表示されます。
リソースグループにプリエンプションモードが設定されている場合、それは次のように表示されます。
The preemption mode property of "rg11" is currently set to the following: preemption mode: Has_Cost
Has_cost、No_cost、Never の 3 つの選択肢があります。
「リソースグループの負荷分散の管理メニュー (Manage Resource Group Load Distribution Menu)」が表示されます。
Concentrate_load プロパティーを false に設定すると、クラスタはリソースグループの負荷を使用可能なすべてのノードに均等に分散します。 このプロパティーを True に設定すると、クラスタはリソースグループの負荷を負荷制限を超えずにできるだけ少ないノードに集中させようとします。 デフォルトでは、Concentrate_load プロパティーは False に設定されています。 グローバルクラスタでは、Concentrate_load プロパティーのみを設定できます。ゾーンクラスタではこのプロパティーは設定できません。 ゾーンクラスタでは、デフォルトの設定は常に False です。
phys-schost# clsetup
clsetup のメニューが表示されます。
「その他のクラスタ作業メニュー (Other Cluster Tasks Menu)」が表示されます。
「クラスタの負荷の集中プロパティーの設定メニュー (Set the Concentrate Load Property of the Cluster Menu)」が表示されます。
現在の値として TRUE または FALSE が表示されます。
「その他のクラスタ作業メニュー (Other Cluster Tasks Menu)」が表示されます。
注 - Oracle Solaris Cluster ソフトウェアをインストールする前に独自の /etc/inet/ntp.conf ファイルをインストールしてある場合は、この手順を実行する必要はありません。次の手順を決めます。
次のいずれかの作業を実行した後で NTP 構成ファイルを作成または修正するには、この作業を実行します。
Oracle Solaris Cluster ソフトウェアをインストールする
既存のグローバルクラスタにノードを追加する
グローバルクラスタ内のノードのプライベートホスト名を変更する
単一ノードのクラスタにノードを追加した場合、使用する NTP 構成ファイルがもとのクラスタノードおよび新しいノードにコピーされていることを確認します。
注 - ntp.conf.cluster ファイルの名前を ntp.conf に変更してはいけません。
ノード上に /etc/inet/ntp.conf.cluster ファイルが存在しない場合、Oracle Solaris Cluster ソフトウェアの初期インストールに /etc/inet/ntp.conf ファイルが存在する可能性があります。ノード上に /etc/inet/ntp.conf ファイルが存在しない場合、Oracle Solaris Cluster ソフトウェアは NTP 構成ファイルとして /etc/inet/ntp.conf.cluster ファイルを作成します。この場合、その ntp.conf ファイルを次のように編集します。
各ノードでコマンドが正しく完了するのを待ってから、手順 5 に進みます。
phys-schost# svcadm disable ntp
phys-schost# /etc/init.d/xntpd.cluster start
xntpd.cluster 起動スクリプトは最初に、/etc/inet/ntp.conf ファイルを検索します。
ntp.conf ファイルが存在する場合、スクリプトは NTP デーモンを起動することなくすぐに終了します。
ntp.conf ファイルは存在しないが、ntp.conf.cluster ファイルは存在する場合、スクリプトは NTP デーモンを起動します。この場合、スクリプトは ntp.conf.cluster ファイルを NTP 構成ファイルとして使用します。
phys-schost# svcadm enable ntp
次の手順
次のリストから、ご使用のクラスタ構成に次に適用するタスクを決めます。このリストから複数のタスクを実行する必要がある場合は、このリストのそれらのタスクのうち最初のタスクに進みます。
プライベートインターコネクトに IPsec を構成する場合、「クラスタプライベートインターコネクト上で IP セキュリティーアーキテクチャー (IPSec) を構成する」 に進みます。
ボリュームマネージャーをインストールするには、第 4 章Solaris ボリュームマネージャー ソフトウェアの構成および第 5 章Veritas Volume Manager をインストールして構成するを参照して、ボリューム管理ソフトウェアをインストールしてください。
注 - VxVM を使用するクラスタに新しいノードを追加した場合は、次の作業のうちの 1 つを実行します。
VxVM を当該ノードにインストールします。
当該ノードの /etc/name_to_major ファイルを変更して、VxVM との共存をサポートするようにします。
「Veritas Volume Manager ソフトウェアをインストールする」の手順に従って、これらの必要な作業のうちの 1 つを実行します。
クラスタファイルシステムを作成するには、「クラスタファイルシステムを追加する」に進みます。
ノード上に非大域ゾーンを作成する場合は、「グローバルクラスタノードに非大域ゾーンを作成する」を参照してください。
SPARC: Sun Management Center をクラスタを監視するように設定する場合は、「SPARC: Oracle Solaris Cluster モジュールを Sun Management Center 用にインストールする」を参照してください。
他社製のアプリケーションをインストールし、リソースタイプを登録し、リソースグループを設定し、データサービスを構成します。アプリケーションソフトウェアに付属のドキュメント、および『Oracle Solaris Cluster Data Services Planning and Administration Guide』を参照してください。
クラスタを稼動させる前に、将来の診断のためにクラスタ構成の基準値レコードを作成します。「クラスタ構成の診断データを記録する」に進みます。
クラスタインターコネクトに安全な TCP/IP 通信を提供するには、clprivnetインタフェースに IP セキュリティアーキテクチャー (IPsec) を構成します。
IPsec の詳細については、『Solaris のシステム管理 (IP サービス)』のパート IV「IP セキュリティー」と、ipsecconf(1M)のマニュアルページを参照してください。clprivnet インタフェースの詳細については、clprivnet(7)のマニュアルページを参照してください。
IPsec を構成するグローバルクラスタ投票ノードごとに、この手順を実行します。
phys-schost# ifconfig clprivnet0
『Solaris のシステム管理 (IP サービス)』の「IPsec で 2 つのシステム間のトラフィックを保護するには」の手順に従ってください。それに加えて、次のガイドラインも参照してください。
対象アドレスの構成パラメータの値が、すべてのパートナーノードで一貫性があることを確認します。
構成ファイルで、独立した行として各ポリシーを構成します。
再起動せずに IPsec を実装するには、「リブートせずに IPsec でトラフィックを保護する」の手順例に従ってください。
sa unique ポリシーの詳細については、ipsecconf(1M)マニュアルページを参照してください。
ローカルノードの clprivnet IP アドレスを含めます。
この機能を使用すると、ドライバはクラスタプライベートネットワークの帯域を最適に利用することができるようになるため、高い分散粒度が実現し、スループットも向上します。clprivnet インタフェースは、トラフィックをストライプ化するため、パケットのセキュリティーパラメータインデックス (Security Parameter Index、SPI) を使用します。
クラスタトランスポート用に構成されたポリシールールに、このエントリを追加します。この設定により、クラスタノードを再起動したときに再生成されるセキュリティーアソシエーションの時間が指定され、再起動したノードがクラスタを再結合できる速度が制限されます。値は 30 秒が適切です。
phys-schost# vi /etc/inet/ike/config … { label "clust-priv-interconnect1-clust-priv-interconnect2" … p2_idletime_secs 30 } …
次の手順
次のリストから、ご使用のクラスタ構成に次に適用するタスクを決めます。このリストから複数のタスクを実行する必要がある場合は、このリストのそれらのタスクのうち最初のタスクに進みます。
ボリュームマネージャーをインストールするには、第 4 章Solaris ボリュームマネージャー ソフトウェアの構成および第 5 章Veritas Volume Manager をインストールして構成するを参照して、ボリューム管理ソフトウェアをインストールしてください。
注 - VxVM を使用するクラスタに新しいノードを追加した場合は、次の作業のうちの 1 つを実行します。
VxVM を当該ノードにインストールします。
当該ノードの /etc/name_to_major ファイルを変更して、VxVM との共存をサポートするようにします。
「Veritas Volume Manager ソフトウェアをインストールする」の手順に従って、これらの必要な作業のうちの 1 つを実行します。
クラスタファイルシステムを作成するには、「クラスタファイルシステムを追加する」に進みます。
ノード上に非大域ゾーンを作成する場合は、「グローバルクラスタノードに非大域ゾーンを作成する」を参照してください。
SPARC: Sun Management Center をクラスタを監視するように設定する場合は、「SPARC: Oracle Solaris Cluster モジュールを Sun Management Center 用にインストールする」を参照してください。
他社製のアプリケーションをインストールし、リソースタイプを登録し、リソースグループを設定し、データサービスを構成します。アプリケーションソフトウェアに付属のドキュメント、および『Oracle Solaris Cluster Data Services Planning and Administration Guide』を参照してください。
再起動しない場合、すべてのハードウェアおよびソフトウェアのインストールと構成の作業を完了したら、クラスタを確認します。「クラスタの妥当性を検査する」に進みます。
クラスタのすべての構成を完了したら、cluster check コマンドを使用して、クラスタの構成と機能の妥当性を検査します。詳細については、cluster(1CL)のマニュアルページを参照してください。
ヒント - 今後の参照またはトラブルシューティングが容易になるように、実行する妥当性の検査ごとに、-o outputdir オプションを使用してログファイルのサブディレクトリを指定します。既存のサブディレクトリ名を再使用すると、そのサブディレクトリにある既存のファイルすべてが削除されます。そのため、今後の参照のためにログファイルを使用できるようにするには、実行するクラスタチェックごとに固有のサブディレクトリ名を指定します。
始める前に
ファームウェアやパッチなど、クラスタ内のハードウェアおよびソフトウェアコンポーネントすべてのインストールと構成を完了したことを確認します。
My Oracle Support の「パッチと更新」タブを参照します。詳細検索の場合、製品として「Solaris Cluster」を選択し、「説明」フィールドで「チェック」を指定して、チェックを含む Oracle Solaris Cluster パッチを検索します。まだクラスタにインストールされていないすべてのパッチを適用します。
# cluster check -v -o outputdir
冗長モード
outputdir サブディレクトリに出力をリダイレクトします。
このコマンドによって、すべての使用可能な基本検査が実行されます。クラスタ機能には影響はありません。
# cluster check -v -k interactive -o outputdir
実行するインタラクティブな妥当性検査を指定します。
このコマンドで、すべての使用可能なインタラクティブ検査が実行され、クラスタについて必要な情報の入力が求められます。クラスタ機能には影響はありません。
# cluster list-checks -k functional
たとえば、機能検査によって、ノードパニックまたは他のノードへのフェイルオーバーがトリガーされる可能性があります。
# cluster list-checks -v -C checkID
特定の検査を指定します。
# cluster check -v -k functional -C checkid -o outputdir
実行する機能の妥当性検査を指定します。
検査の実行に必要な情報を確認し、実行に必要な情報または操作を求めるプロンプトに入力を行います。
注 - 記録を保存するために、実行する検査ごとに固有の outputdir サブディレクトリ名を指定します。outputdir 名を再利用する場合、新しい検査の出力によって、再利用した outputdir サブディレクトリの既存の内容が上書きされます。
例 3-5 インタラクティブな妥当性検査のリスト
クラスタで実行するために使用できるすべてインタラクティブな妥当性検査の例を以下に示します。出力例に、使用できる検査の例を示します。実際に使用できる検査は、構成によって異なります。
# cluster list-checks -k interactive Some checks might take a few moments to run (use -v to see progress)... I6994574 : (Moderate) Fix for GLDv3 interfaces on cluster transport vulnerability applied?
例 3-6 機能の妥当性検査の実行
まず、次の例は機能検査の詳細なリストを示します。検査 F6968101 の詳細な説明が表示されます。この説明で、検査によってクラスタサービスが中断されることがわかります。クラスタは稼働状態ではなくなります。機能検査が実行され、funct.test.F6968101.12Jan2011 サブディレクトリに詳細な出力が記録されます。出力例に、使用できる検査の例を示します。実際に使用できる検査は、構成によって異なります。
# cluster list-checks -k functional F6968101 : (Critical) Perform resource group switchover F6984120 : (Critical) Induce cluster transport network failure - single adapter. F6984121 : (Critical) Perform cluster shutdown F6984140 : (Critical) Induce node panic … # cluster list-checks -v -C F6968101 F6968101: (Critical) Perform resource group switchover Keywords: SolarisCluster3.x, functional Applicability: Applicable if multi-node cluster running live. Check Logic: Select a resource group and destination node. Perform '/usr/cluster/bin/clresourcegroup switch' on specified resource group either to specified node or to all nodes in succession. Version: 1.2 Revision Date: 12/10/10 Take the cluster out of production # cluster check -k functional -C F6968101 -o funct.test.F6968101.12Jan2011 F6968101 initializing... initializing xml output... loading auxiliary data... starting check run... pschost1, pschost2, pschost3, pschost4: F6968101.... starting: Perform resource group switchover ============================================================ >>> Functional Check <<< 'Functional' checks exercise cluster behavior. It is recommended that you do not run this check on a cluster in production mode.' It is recommended that you have access to the system console for each cluster node and observe any output on the consoles while the check is executed. If the node running this check is brought down during execution the check must be rerun from this same node after it is rebooted into the cluster in order for the check to be completed. Select 'continue' for more details on this check. 1) continue 2) exit choice: 1 ============================================================ >>> Check Description <<< … Follow onscreen directions
次の手順
クラスタを稼動させる前に、将来の診断のためにクラスタ構成の基準値レコードを作成します。「クラスタ構成の診断データを記録する」に進みます。
グローバルクラスタの構成が完了したら、本番稼動させる前に、Oracle Explorer ユーティリティーを使用して、クラスタに関するベースライン情報を記録します。このデータは、将来クラスタの問題を解決する場合に使用できます。
Services Tools Bundle には、Oracle Explorer パッケージの SUNWexplo と SUNWexplu が含まれています。ソフトウェアのダウンロードとインストールについては、http://www.oracle.com/us/support/systems/premier/services-tools-bundle-sun-systems-163717.html を参照してください。
プラットフォームに適したコマンドを使用します。
|
詳細は、/opt/SUNWexplo/man/man1m/ ディレクトリにある explorer (1M) のマニュアルページおよび『Oracle Explorer User’s Guide』を参照してください。
explorer の出力ファイルは、/opt/SUNWexplo/output/ ディレクトリに explorer.hostid.hostname-date.tar.gz として保存されます。
Oracle Explorer データベースは、ユーザーのクラスタの技術的な問題を診断するためにデータが必要な場合に、ユーザーの explorer 出力を Oracle の技術サポートが使用できるようにします。
|
また、FTP または HTTPS を使用して Oracle Explorer ファイルを送信する場合は、『Oracle Explorer User’s Guide』を参照してください。