この章では、クラスタのインストールおよび構成手順を説明します。 これらの手順は、既存のクラスタに新しいノードを追加するためにも利用できます。
この章の内容は、次のとおりです。
次の表は、ソフトウェアのインストール時に実行する作業を示しています。
表 2-1 作業マップ: ソフトウェアのインストール
作業 |
参照個所 |
---|---|
クラスタ構成のレイアウトを計画し、ソフトウェアをインストールするための準備を行う | |
(任意) 管理コンソールに Cluster Control Panel (CCP) ソフトウェアをインストールする | |
新しいクラスタノードを確立するために、Solaris オペレーティング環境と Sun Cluster ソフトウェアをインストールする。以下の 3 つの方法のどれか 1 つを選択してください。 |
|
| |
| |
| |
ネームサービスの参照順序を構成する | |
ディレクトリパスを設定する | |
データサービスソフトウェアパッケージをインストールする | 「データサービスソフトウェアパッケージをインストールする」 |
インストール後の設定を行い、定足数投票 (quorum vote) を割り当てる | |
ボリューム管理ソフトウェアのインストールと構成を行う |
|
|
Solstice DiskSuite のマニュアル |
|
VERITAS Volume Manager のマニュアル |
クラスタを構成する |
ソフトウェアのインストールを開始する前に、以下の準備作業を行ってください。
クラスタ構成の計画およびインストール方法を検討する上で参考となる情報を参照します。
『Sun Cluster 3.0 U1 ご使用にあたって』- 制限事項やバグ対策などの最新情報
『Sun Cluster 3.0 U1 Release Notes Supplement』- リリース後に追加された制限事項、バグ対策、新機能などの最新情報。この文書は、定期的に更新されて以下の Web サイトに公開されます。
『Sun Cluster 3.0 U1 の概念』- Sun Cluster 製品の概要
『Sun Cluster 3.0 U1 ソフトウェアのインストール』(このマニュアル) - Solaris、Sun Cluster、ボリューム管理ソフトウェアのインストールと構成を行うためのガイドラインと作業手順
『Sun Cluster 3.0 U1 データサービスのインストールと構成』- データサービスのインストールと構成を行うためのガイドラインと作業手順
クラスタ構成の計画を立てます。
第 1 章「Sun Cluster 構成の計画」および『Sun Cluster 3.0 U1 データサービスのインストールと構成』に示されているガイドラインを利用し、クラスタのインストールと構成の方法を決定してください。
『Sun Cluster 3.0 U1 ご使用にあたって』のクラスタフレームワークのワークシートとデータサービス構成のワークシートに必要事項を記入してください。完成したワークシートは、インストールと構成の作業を行う際に参考情報として利用します。
関連文書 (サン製品以外の文書など) をすべて用意します。
クラスタのインストールを行う場合に参考となる製品ドキュメントの一部を以下に示します。
Solaris ソフトウェア
Solstice DiskSuite ソフトウェア
VERITAS Volume Manager
Sun Management Center
Sun 以外のアプリケーション (Oracle など)
クラスタ構成に必要なパッチをすべて入手します。
パッチの入手方法とインストール方法については、『Sun Cluster 3.0 U1 ご使用にあたって』を参照してください。
管理コンソールからクラスタノードへの接続を行うために Cluster Control Panel (CCP) ソフトウェアを使用するかどうかを決定します。
CCP ソフトウェアを使用する場合は、「CCP ソフトウェアを管理コンソールにインストールする」へ進んでください。
CCP ソフトウェアを使用しない場合は、以下の作業のいずれかを行ってください。
SunPlex Manager (GUI ベースの方法) か scinstall ユーティリティ (テキストベースの方法) を使用して Sun Cluster ソフトウェアをインストールする場合は、「Solaris ソフトウェアをインストールする」へ進み、まず Solaris ソフトウェアをインストールしてください。
Solaris と Sun Cluster ソフトウェアを同時に (JumpStart ベースの方法) インストールする場合は、「Solaris と Sun Cluster ソフトウェアをインストールする (JumpStart)」へ進んでください。
この手順では、管理コンソールに Cluster Control Panel (CCP) ソフトウェアをインストールする方法を説明します。CCP により、cconsole(1M)、ctelnet(1M)、crlogin(1M) の各ツールを起動できます。これらの各ツールは、一連のノードとの多重ウィンドウ接続に加え、すべてのノードに入力を一括送信する共通ウィンドウも備えています。
管理コンソールには、Solaris 8 オペレーティング環境が動作する任意のデスクトップマシンを使用できます。また、管理コンソール/サーバー、および AnswerBook サーバーとして使用することもできます。Sun Management Center ソフトウェアのインストールの詳細については、Sun Management Center のマニュアルを参照してください。AnswerBook サーバーのインストールの詳細については、『Sun Cluster 3.0 U1 ご使用にあたって』を参照してください。
管理コンソールの使用は必須ではありません。管理コンソールを使用しない場合は、クラスタ内の特定のノードから管理作業を行います。
管理コンソール用としてに、Solaris 8 オペレーティング環境と Solaris パッチをインストールしたマシンを用意します。
少なくとも「エンドユーザーシステムサポート」ソフトウェアグループがインストールされた Solaris 8 が、すべてのプラットフォームで必要です。
CD-ROM からインストールする場合は、管理コンソール用のマシンの CD-ROM ドライブに Sun Cluster 3.0 7/01 CD-ROM を挿入します。
ボリューム管理デーモン vold(1M) が実行されており、CD-ROM デバイスを管理するように構成されている場合は、CD-ROM は自動的に /cdrom/suncluster_3_0u1 ディレクトリにマウントされます。
/cdrom/suncluster_3_0u1/SunCluster_3.0/Packages ディレクトリに移動します。
# cd /cdrom/suncluster_3_0u1/SunCluster_3.0/Packages |
SUNWccon パッケージをインストールします。
# pkgadd -d . SUNWccon |
(省略可能) SUNWscman パッケージをインストールします。
# pkgadd -d . SUNWscman |
管理コンソールに SUNWscman パッケージをインストールすることで、クラスタノードに Sun Cluster ソフトウェアをインストールする前に、管理コンソールから Sun Cluster のマニュアルページを参照できるようになります。
CD-ROM から インストールした場合は、CD-ROM を取り出します。
/etc/clusters ファイルを作成します。
クラスタ名と、各クラスタノードの物理ノード名をファイルに追加します。
# vi /etc/clusters clustername node1 node2 |
詳細は、/opt/SUNWcluster/bin/clusters(4) のマニュアルページを参照してください。
/etc/serialports ファイルを作成します。
各クラスタノードの物理ノード名、端末集配信装置 (コンセントレータ: TC) 名またはシステムサービスプロセッサ (SSP) 名、シリアルポート番号をファイルに追加します。
# vi /etc/serialports node1 TC-hostname 500N node2 TC-hostname 500N |
クラスタノードの物理名
TC または SSP の名前
シリアル (telnet) ポートの番号
/etc/serialports ファイルのシリアルポート番号には、物理ポート番号ではなく telnet(1) ポート番号を使用してください。シリアルポート番号は、物理ポート番号に 5000 を加えた値です。たとえば、物理ポート番号が 6 の場合、シリアルポート番号は 5006 になります。
Sun Enterprise E10000 サーバーについて詳細と、特に注意する点については、/opt/SUNWcluster/bin/serialports(4) のマニュアルページを参照してください。
利便性を考慮し、 /opt/SUNWcluster/bin ディレクトリを PATH 環境変数に、/opt/SUNWcluster/man ディレクトリを管理コンソールの MANPATH 環境変数にそれぞれ追加します。
SUNWscman パッケージをインストールした場合は、/usr/cluster/man ディレクトリも MANPATH に追加します。
CCP ユーティリティを起動します。
# /opt/SUNWcluster/bin/ccp clustername |
CCP の詳細については、『Sun Cluster 3.0 U1 のシステム管理』の Sun Cluster に遠隔ログインする手順についての説明と、/opt/SUNWcluster/bin/ccp(1M) のマニュアルページを参照してください。
Solaris オペレーティング環境をインストールします。
「Solaris ソフトウェアをインストールする」 に進んでください。
scinstall JumpStart オプションを使用し、Solaris と Sun Cluster ソフトウェアをインストールする場合は、「Solaris と Sun Cluster ソフトウェアをインストールする (JumpStart)」 に進んでください。
ソフトウェアのインストールにカスタム JumpStart インストール手法である scinstall(1M) を使用しない場合は、以下の手順に従ってクラスタ内の各ノードに Solaris オペレーティング環境をインストールしてください。
ノードにすでに Solaris オペレーティング環境がインストールされている場合でも、Sun Cluster ソフトウェアを確実にインストールするためには、以下の方法で Solaris ソフトウェアを再度インストールする必要があります。
Solaris ソフトウェアをインストールする前にハードウェアの設定が完了していることと、接続が正しいことを確認します。
詳細は、『Sun Cluster 3.0 U1 Hardware Guide 』およびサーバーと記憶装置のマニュアルを参照してください。
『Sun Cluster 3.0 ご使用にあたって』の「ローカルファイルシステム配置のワークシート」に必要事項を記入したものを用意します。
ネームサービスを使用しているかどうかを確認します。
クラスタ管理コンソールを使用している場合は、クラスタ内の各ノードにコンソール画面を表示します。
管理コンソールに対して Cluster Control Panel (CCP) のインストールと構成がすでに行われている場合は、cconsole(1M) ユーティリティを使用して個々のコンソール画面を表示できます。CCP には、個々のコンソールウィンドウすべてに入力情報を同時に送信できるマスターウィンドウもあります。
CCP を使用しない場合は、各ノードのコンソールに個々に接続してください。
時間を節約するために、各ノードに Solaris オペレーティング環境を同時にインストールできます。
クラスタの各ノードで、local-mac-address 変数が false に正しく設定されていることを確認します。
Sun Cluster ソフトウェアは、local-mac-address 変数の値として true をサポートしません。
local-mac-address 変数の値を表示します。
ノードに Solaris ソフトウェアがあらかじめインストールされている場合は、スーパーユーザーで次のコマンドを実行します。
# /usr/sbin/eeprom local-mac-address? |
ノードに Solaris ソフトウェアがまだインストールされていない場合は、ok プロンプトから次のコマンドを実行します。
ok printenv local-mac-address? |
local-mac-address?=falseと表示されるかどうかを確認します。
この値が表示される場合は、変数は正しく設定されています。手順 6 へ進んでください。
この値が表示されない場合は、次のいずれかの方法で false に設定されていないノードの設定を変更してください。
ノードに Solaris ソフトウェアがあらかじめインストールされている場合は、スーパーユーザーで次のコマンドを実行します。
# /usr/sbin/eeprom local-mac-address?=false |
ノードに Solaris ソフトウェアがまだインストールされていない場合は、ok プロンプトから次のコマンドを実行します。
ok setenv local-mac-address? false |
上記の手順 aを繰り返し、手順 b で加えた変更を確認します。
新しい設定は、次にシステムを再起動したときに有効になります。
Solaris のインストールマニュアルの指示に従って、Solaris オペレーティング環境をインストールします。
同一クラスタ内のノードはすべて、同じバージョンの Solaris オペレーティング環境である必要があります。
Solaris オペレーティング環境の一般的なインストール方法で、クラスタ環境にインストールする新しいノードにソフトウェアをインストールできます。これらの方法には、Solaris 対話式インストールプログラム、Solaris JumpStart、Solaris Web Start などがあります。
Solaris ソフトウェアをインストールする間に以下の作業を行います。
少なくとも「エンドユーザーシステムサポート」ソフトウェアグループをインストールします。
Sun Enterprise E10000 サーバーでは、「全体ディストリビューションプラス OEM」ソフトウェアグループが必要になります。
Apache HTTP サーバーパッケージなどの、「エンドユーザーシステムサポート」ソフトウェアグループに含まれない他の Solaris ソフトウェアパッケージをインストールする必要がある場合があります。Oracle などの Sun 以外のソフトウェアでも、追加の Solaris パッケージが必要になる場合があります。Solaris ソフトウェアの必要条件については、各製品のマニュアルを参照してください。
ファイルシステムを設定するために「Manual Layout」を選択します。
広域デバイスサブシステムで使用できるように、100M バイト以上のファイルシステムを作成してください。SunPlex Manager を使用して Sun Cluster ソフトウェアをインストールする場合は、マウントポイントを /globaldevices に設定してファイルシステムを作成する必要があります。このマウントポイントは、scinstall が使用するデフォルトです。
Sun Cluster ソフトウェアをインストールするためには、広域デバイスファイルシステムを用意する必要があります。
SunPlex Manager を使用して Sun Cluster ソフトウェアをインストールする一方で Solstice DiskSuite もインストールする場合は、マウントポイントに /sds を指定してスライス 7 に 10M バイト以上のファイルシステムを作成してください。あるいは、「システムディスクパーティション」で説明している方法でボリューム管理ソフトウェアのサポートに必要なファイルシステムパーティションを作成してください。
「auto reboot」を選択します。
Sun Cluster ソフトウェアをインストールするためには、広域デバイスファイルシステムを用意する必要があります。
管理を容易にするため、各ノードに同じ root パスワードを設定します。
省電力自動停止機能を有効にするかどうかの問い合わせには、「no」と入力します。
Sun Cluster 構成では自動停止機能を無効にする必要があります。詳細は、pmconfig(1M) および power.conf(4) のマニュアルページを参照してください。
Solaris のインタフェースグループ機能は、Solaris ソフトウェアのインストール時にデフォルトで無効に設定されます。インタフェースグループは Sun Cluster 構成ではサポートされていないため、有効にしないでください。Solaris インタフェースグループの詳細については、ifconfig(1M) のマニュアルページを参照してください。
既存のクラスタに新しいノードをインストールするかどうかを決定します。
クラスタの認証ノードリストにこの新しいノードをすでに追加しているかどうかを確認します。
追加している場合は、手順 9 へ進んでください。
まだ追加してない場合は、別のアクティブクラスタノードから scsetup(1M) を実行して認証クラスタノードのリストにこの新しいノードの名前を追加してください。手順については、『Sun Cluster 3.0 U1 のシステム管理』の「クラスタノードを認証ノードリストに追加する」を参照してください。
新しいノード上で、クラスタ内の各クラスタファイルシステムのマウントポイントを作成します。
Solaris 用のソフトウェアパッチをインストールします。
パッチの入手方法とインストール方法については、『Sun Cluster 3.0 U1 ご使用にあたって』を参照してください。必要に応じ、/etc/release ファイルを参照し、ノードにインストールされている Solaris ソフトウェアの正確なバージョンを確認してください。
ハードウェア関連のパッチをインストールし、ハードウェアパッチに含まれるファームウェアの中から必要なものをダウンロードします。
パッチの入手方法とインストール方法については、『Sun Cluster 3.0 U1 ご使用にあたって』を参照してください。
クラスタのすべてのパブリックホスト名と論理アドレスを使用し、各ノード上の /etc/inet/hosts ファイルを更新します。
この作業は、ネームサービスを使用しているかどうかにかかわらず実行してください。
クラスタノード上で、Sun Cluster ソフトウェアをインストールします。
SunPlex Manager を使用する場合は、「SunPlex Manager による Sun Cluster ソフトウェアのインストール」へ進んでください。
scinstall を使用する場合は、「Sun Cluster ソフトウェアをインストールする(scinstall)」へ進んでください。
Solaris オペレーティング環境をインストールしたあと、クラスタの各ノード上で以下の作業を実施することにより、Sun Cluster ソフトウェアのインストールと新しいクラスタノードの確立を行います。この作業手順は、既存のクラスタに新しいノードを追加する場合にも利用できます。
scinstall(1M) カスタム JumpStart または SunPlex Manager でソフトウェアをインストールした場合は、Sun Cluster ソフトウェアは既にインストールされています。「ネームサービススイッチを構成する」に進んでください。
『Sun Cluster 3.0 ご使用にあたって』の以下のワークシートに必要事項を記入したものを用意します。
「クラスタ名とノード名のワークシート」
「クラスタインターコネクトのワークシート」
計画のガイドラインについては、「Sun Cluster 環境の計画」を参照してください。
クラスタノードでスーパーユーザーになります。
CD-ROM からインストールする場合は、インストールと構成を行うノードの CD-ROM ドライブに Sun Cluster 3.0 7/01 CD-ROM を挿入します。
ボリューム管理デーモン vold(1M) が実行されており、CD-ROM デバイスを管理するように構成されている場合は、CD-ROM は自動的に /cdrom/suncluster_3_0u1 ディレクトリにマウントされます。
/cdrom/suncluster_3_0u1/SunCluster_3.0/Tools ディレクトリに移動します。
# cd /cdrom/suncluster_3_0u1/SunCluster_3.0u1/Tools |
既存のクラスタに新しいノードをインストールするかどうかを決定します。
最初のノードをインストールして、新しいクラスタを設定します。
プロンプトに従い、構成計画ワークシートの情報を参照して Sun Cluster ソフトウェアをインストールします。
scinstall(1M) ユーティリティを起動します。
# ./scinstall |
対話形式の scinstall ユーティリティを使用するときは、以下のガイドラインに従ってください。
対話形式の scinstall では先打ち入力が可能です。したがって、次のメニュー画面がすぐに表示されなくても、何度も Return キーを押さないでください。
特に指定がない場合は、Control-D キーを押すと、関連のある一連の質問の最初、またはメインメニューに戻ります。
セッションでの回答内容は、そのメニューオプションを次回実行したときのデフォルトとして格納されます。プロンプトの最後に、角括弧 ([ ]) に囲まれてデフォルトの回答が表示されます。
ノードがクラスタモードで正常に起動するまでは、scinstall を再度実行し、必要に応じて構成情報を変更できます。ただし、不正なノード構成データが、クラスタに設定されてしまった場合は、最初にその不正な情報を削除しておく必要があります。不正な情報を削除するには、アクティブなクラスタノードの 1 つにログオンし、scsetup(1M) コマンドを使用して、不正なアダプタ、接続点、またはケーブル情報を削除します。
「Main Menu」で、1 (Establish a new cluster) と入力します。
*** Main Menu *** Please select from one of the following (*) options: * 1) Establish a new cluster using this machine as the first node * 2) Add this machine as a node in an established cluster 3) Configure a cluster to be JumpStarted from this install server 4) Add support for new data services to this cluster node 5) Print release information for this cluster node * ?) Help with menu options * q) Quit Option: 1 *** Establishing a New Cluster *** ... Do you want to continue (yes/no) [yes]? y |
クラスタ名を指定します。
>>> Cluster Name <<< ... What is the name of the cluster you want to establish? clustername |
このクラスタの一部となる他のノードの名前を指定します。
>>> Cluster Nodes <<< ... Node name: node2 Node name (Ctrl-D to finish): <Control-D> This is the complete list of nodes: ... Is it correct (yes/no) [yes]? |
データ暗号化規格 (DES) 認証を使用するかどうかを指定します。
デフォルトでは、Sun Cluster ソフトウェアを使用してノードをクラスタに接続できるのは、ノードが物理的にプライベートインターコネクトに接続されていて、かつ上記の手順 d の方法でノード名が指定されている場合だけです。しかし、プライベートインターコネクトはまだ完全に構成されていないため、実際にはノードはパブリックネットワークを介してスポンサーノードと通信します。DES 認証を使用すると、スポンサーノードは、クラスタ構成を更新するために接続を試みるノードを確実に認証できます。このため、インストール時のセキュリティレベルが高くなります。
セキュリティを高めるために DES 認証を使用する場合は、ノードをクラスタに追加する前に、必要な暗号化鍵をすべて構成する必要があります。詳細は、keyserv(1M) および publickey(4) のマニュアルページを参照してください。
>>> Authenticating Requests to Add Nodes <<< ... Do you need to use DES authentication (yes/no) [no]? |
プライベートネットワークアドレスとネットマスクを指定します。
クラスタが正しく構成されたあとでは、プライベートネットワークアドレスは変更できません。
>>> Network Address for the Cluster Transport <<< ... Is it okay to accept the default network address (yes/no) [yes]? Is it okay to accept the default netmask (yes/no) [yes]? |
2 ノードクラスタである場合は、クラスタがトランスポート接続点を使用するかどうかを指定します。
ノードが互いに直接接続されているかどうかにかかわらず、クラスタがトランスポート接続点を使用するように指定できます。クラスタがトランスポート接続点を使用するように指定すると、クラスタに新しいノードを簡単に追加できるようになります。
>>> Point-to-Point Cables <<< ... Does this two-node cluster use transport junctions (yes/no) [yes]? |
このクラスタがトランスポート接続点を使用する場合は、トランスポート接続点の名前を指定します。
クラスタに 3 つ以上のノードが含まれる場合は、トランスポート接続点を使用する必要があります。この場合、デフォルトの名前 switchN を使用することも、独自の名前を作成することもできます。
>>> Cluster Transport Junctions <<< ... What is the name of the first junction in the cluster [switch1]? What is the name of the second junction in the cluster [switch2]? |
クラスタインターコネクトのトランスポートアダプタ、およびそれらの接続先であるトランスポート接続点 (使用されている場合) の名前を指定します。
scinstall コマンドを使用し、アダプタを 2 つまで構成できます。Sun Cluster ソフトウェアのインストール後は、scsetup ユーティリティを使用してアダプタを追加構成できます。
>>> Cluster Transport Adapters and Cables <<< ... What is the name of the first cluster transport adapter? adapter ... Name of the junction to which "adapter" is connected [switch1]? ... What is the name of the second cluster transport adapter? adapter ... Okay to use the default for the "qfe0" connection (yes/no) [yes]? What is the name of the second cluster transport adapter? adapter Name of the junction to which "adapter" is connected [switch2]? Use the default port for the "adapter" connection [yes]? |
広域デバイスのファイルシステム名を指定します。
>>> Global Devices File System <<< ... The default is to use /globaldevices. Is it okay to use this default (yes/no) [yes]? |
インストールの必要がある Sun Cluster ソフトウェアパッチがあるかどうかを確認します。
インストールする場合は、「Automatic Reboot」画面で「no」と入力して自動再起動を行わないようにします。
インストールしない場合は、「yes」と入力して自動再起動を行います。
>>> Automatic Reboot <<< ... Do you want scinstall to reboot for you (yes/no) [yes]? |
起動された scinstall コマンドを使用するかどうかを決定します。
scinstall コマンドにより確認が求められます。
>>> Confirmation <<< Your responses indicate the following options to scinstall: scinstall -i ¥ ... Are these the options you want to use (yes/no) [yes]? Do you want to continue with the install (yes/no) [yes]? |
コマンドを使用してインストールを続行する場合は、scinstall コマンドの処理が継続します。scinstall の処理中に表示される出力例を、「例 - Sun Cluster ソフトウェアのインストール」に示します。
このコマンドを使用しない場合は、「Main Menu」が表示されます。ここからメニューオプション 1 を再度実行し、別の応答を入力できます。この場合、以前の応答がデフォルトとして表示されます。
Sun Cluster のインストール出力は、/var/cluster/logs/install/scinstall.log.pid ファイルに記録されます (pid は scinstall インスタンスのプロセス ID 番号)。
独自の /etc/inet/ntp.conf ファイルをインストールしていないかぎり、scinstall コマンドによりデフォルトの ntp.conf ファイルがインストールされます。このデフォルトファイルは、出荷時には可能なかぎり多くのノードを参照する状態になっています。このため、xntpd(1M) デーモンは起動時に一部の参照についてエラーメッセージを表示することがあります。これらのメッセージは無視しても問題ありません。通常のクラスタ条件下で、これらのメッセージを表示しないようにする方法については、「Network Time Protocol (NTP) を更新する」を参照してください。
インストールの必要がある Sun Cluster ソフトウェアパッチがあるかどうかを確認します。
存在する場合は、ノードにパッチをインストールしてそのノードを再起動します。パッチの入手方法とインストール方法については、『Sun Cluster 3.0 U1 ご使用にあたって』を参照してください。
パッチが存在せず、インストール時に scinstall によってノードが再起動された場合は、手順 8へ進んでください。scinstall によってノードが再起動されなかった場合は、手動でノードを再起動させてクラスタを確立し、その後 手順 8へ進んでください。
Sun Cluster ソフトウェアのインストールのあとでノードを初めて再起動すると、クラスタが構成されるとともに、クラスタの最初のインストールノードとしてこのノードが確立されます。
クラスタの 2 つめのノードをインストールします。
プロンプトに従って Sun Cluster ソフトウェアをインストールします。構成計画ワークシートの情報を参照してください。
他のノードをインストールしている間は、(別のノードをスポンサーノードとして使用している場合でも) 最初のインストールノードの再起動や停止を行わないでください。クラスタノードに定足数投票 (quorum vote) が割り当てられてクラスタインストールモードが無効になるまでは、クラスタを設定した最初のインストールノードにしか定足数投票はありません。このため、最初のインストールノードの再起動または停止を行うと、定足数が失われてシステムパニックが起きます。
scinstall ユーティリティを起動します。
この手順は、最初のインストールノード上でソフトウェアのインストールがまだ進行している間でも開始できます。2 つめのノードは、必要に応じて最初のノードのインストールが完了するのを待ちます。
# ./scinstall |
「Main Menu」で、2 (Add this machine as a node) と入力します。
*** Main Menu *** Please select from one of the following (*) options: * 1) Establish a new cluster using this machine as the first node * 2) Add this machine as a node in an established cluster 3) Configure a cluster to be JumpStarted from this install server 4) Add support for new data services to this cluster node 5) Print release information for this cluster node * ?) Help with menu options * q) Quit Option: 2 *** Adding a Node to an Established Cluster *** ... Do you want to continue (yes/no) [yes]? y |
スポンサーノードとなる既存のクラスタノードの名前を指定します。
>>> Sponsoring Node <<< ... What is the name of the sponsoring node? node1 |
クラスタ名を指定します。
>>> Cluster Name <<< ... What is the name of the cluster you want to join? clustername |
2 ノードクラスタであるかどうか、およびクラスタがトランスポート接続点を使用するかどうかを指定します。
クラスタに 3 つ以上のノードが含まれる場合は、トランスポート接続点を使用する必要があります。
>>> Point-to-Point Cables <<< ... Is this a two-node cluster (yes/no) [yes]? Does this two-node cluster use transport junctions (yes/no) [yes]? |
クラスタインターコネクトのトランスポートアダプタとトランスポート接続点を指定します (存在する場合)。
>>> Cluster Transport Adapters and Cables <<< ... What is the name of the first cluster transport adapter? adapter ... Name of adapter on "node1" to which "adapter" is connected? adapter What is the name of the second cluster transport adapter? adapter Name of adapter on "node1" to which "adapter" is connected? adapter |
広域デバイスのファイルシステム名を指定します。
>>> Global Devices File System <<< ... The default is to use /globaldevices. Is it okay to use this default (yes/no) [yes]? |
インストールの必要がある Sun Cluster ソフトウェアパッチがあるかどうかを確認します。
インストールする場合は、「Automatic Reboot」画面で「no」と入力して自動再起動を行わないようにします。
インストールしない場合は、「yes」と入力して自動再起動を行います。
>>> Automatic Reboot <<< ... Do you want scinstall to reboot for you (yes/no) [yes]? |
起動された scinstall コマンドを使用するかどうかを決定します。
scinstall コマンドにより確認が求められます。
>>> Confirmation <<< Your responses indicate the following options to scinstall: scinstall -i ¥ ... Are these the options you want to use (yes/no) [yes]? Do you want to continue with the install (yes/no) [yes]? |
コマンドを使用してインストールを続行する場合は、scinstall の処理が継続します。scinstall の処理中に表示される出力例を、「例 - Sun Cluster ソフトウェアのインストール」に示します。クラスタ内でスポンサーノードがまだ確立されていない場合、scinstall はスポンサーノードが利用できるようになるのを待ちます。
このコマンドを使用しない場合は、「Main Menu」が表示されます。ここからメニューオプション 2 を再度実行し、別の応答を入力できます。この場合、以前の応答がデフォルトとして表示されます。
Sun Cluster のインストール出力は、/var/cluster/logs/install/scinstall.log.pid ファイルに記録されます (pid は scinstall インスタンスのプロセス ID 番号)。
独自の /etc/inet/ntp.conf ファイルをインストールしていないかぎり、scinstall コマンドによりデフォルトの ntp.conf ファイルがインストールされます。このデフォルトファイルは、出荷時には 8 個のノードを参照する状態になっています。このため、xntpd(1M) デーモンは起動時に一部の参照についてエラーメッセージを表示することがあります。これらのメッセージは無視しても問題ありません。通常のクラスタ条件下で、これらのメッセージを表示しないようにする方法については、「Network Time Protocol (NTP) を更新する」を参照してください。
インストールの必要がある Sun Cluster ソフトウェアパッチがあるかどうかを確認します。
存在する場合は、ノードにパッチをインストールしてそのノードを再起動します。パッチの入手方法とインストール方法については、『Sun Cluster 3.0 U1 ご使用にあたって』を参照してください。
他のノードをインストールしている間は、(別のノードをスポンサーノードとして使用している場合でも) 最初のインストールノードの再起動または停止を行わないでください。クラスタノードに定足数投票が割り当てられてクラスタインストールモードが無効になるまでは、クラスタを設定した最初のインストールノードにしか定足数投票はありません。このため、最初のインストールノードの再起動または停止を行うと、定足数が失われてシステムパニックが起きます。クラスタノードは、「インストール後設定を行う」で scsetup(1M) コマンドを最初に実行するまでは、インストールモードのままです。
パッチが存在せず、インストール時に scinstall によってノードが再起動された場合は、手順 10 へ進んでください。scinstall によってノードが再起動されなかった場合は、手動でノードを再起動させてクラスタを確立し、その後 手順 10 へ進んでください。
すべてのノードが完全に構成されるまで、各追加ノードに対して 手順 8 と 手順 9 を繰り返します。
追加ノードへのインストールを開始する際に、2 番目のノードのインストールが完了するのを待ってこのノードを再起動する必要はありません。
ネームサービスの参照順序を設定します。
「ネームサービススイッチを構成する」へ進んでください。
次に、ノード phys-schost-1 (クラスタにインストールされる最初のノード) で scinstall のインストール作業が完了した時点で表示される進行状況メッセージの例を示します。
** Installing SunCluster 3.0 ** SUNWscr.....done. SUNWscdev...done. SUNWscu.....done. SUNWscman...done. SUNWscsal...done. SUNWscsam...done. SUNWscrsmop.done. SUNWsci.....done. SUNWscid....done. SUNWscidx...done. SUNWscvm....done. SUNWmdm.....done. Initializing cluster name to "sccluster" ... done Initializing authentication options ... done Initializing configuration for adapter "hme2" ... done Initializing configuration for adapter "hme4" ... done Initializing configuration for junction "switch1" ... done Initializing configuration for junction "switch2" ... done Initializing configuration for cable ... done Initializing configuration for cable ... done Setting the node ID for "phys-schost-1" ... done (id=1) Checking for global devices global file system ... done Checking device to use for global devices file system ... done Updating vfstab ... done Verifying that NTP is configured ... done Installing a default NTP configuration ... done Please complete the NTP configuration after scinstall has finished. Verifying that "cluster" is set for "hosts" in nsswitch.conf ... done Adding the "cluster" switch to "hosts" in nsswitch.conf ... done Verifying that "cluster" is set for "netmasks" in nsswitch.conf ... done Adding the "cluster" switch to "netmasks" in nsswitch.conf ... done Verifying that power management is NOT configured ... done Unconfiguring power management ... done /etc/power.conf has been renamed to /etc/power.conf.060199105132 Power management is incompatible with the HA goals of the cluster. Please do not attempt to re-configure power management. Ensure routing is disabled ... done Network routing has been disabled on this node by creating /etc/notrouter. Having a cluster node act as a router is not supported by Sun Cluster. Please do not re-enable network routing. Log file - /var/cluster/logs/install/scinstall.log.276 Rebooting ... |
既存のクラスタに新しいノードを追加する場合は、SunPlex Manager を使用しないでください。代わりに、「Sun Cluster ソフトウェアをインストールする(scinstall)」へ進んでください。
この節では、SunPlex Manager のインストール方法、および SunPlex Manager を使用して Sun Cluster ソフトウェアをインストールし、クラスタノードを確立する方法について説明します。SunPlex Manager は、以下の追加ソフトウェア製品をインストールする場合にも使用できます。
Solstice DiskSuite ソフトウェア - 最大 3 つのメタセットおよび対応するメタデバイスの構成や、各メタセット用のクラスタファイルシステムの作成とマウントも行います。
Sun Cluster HA for NFS データサービス
Sun Cluster HA for Apache スケーラブルデータサービス
次に、SunPlex Manager を使用してこれらの追加ソフトウェア製品をインストールするための要件を示します。
表 2-2 SunPlex Manager によるソフトウェアインストールの要件
ソフトウェアパッケージ |
インストール要件 |
---|---|
Solstice DiskSuite |
/sds をファイルシステム名として使用する 10M バイトのパーティション |
Sun Cluster HA for NFS データサービス |
同じノードセットに接続された、サイズが同じである 2 台以上の共有ディスク |
SunPlex Manager によってインストールされた Solstice DiskSuite ソフトウェア |
|
Sun Cluster HA for NFS が使用する論理ホスト名。この論理ホスト名の IP アドレスは、すべてのクラスタノードからアクセスできる有効なものであると同時に、クラスタノードのベースホスト名と同じサブネット上に存在するものでなければなりません。 |
|
Sun Cluster HA for Apache スケーラブルデータサービス |
同じノードセットに接続された、サイズが同じである 2 台以上の共有ディスク |
SunPlex Manager によってインストールされた Solstice DiskSuite ソフトウェア |
|
Sun Cluster HA for Apache が使用する共有アドレス。この共有アドレスの IP アドレスは、すべてのクラスタノードからアクセスできる有効なものであると同時に、クラスタノードのベースホスト名と同じサブネット上に存在するものでなければなりません。 |
次の表は、ノードに接続される共有ディスクの数に従って、SunPlex Manager によって作成される各メタセット名と、クラスタファイルシステムのマウントポイントを示しています。たとえば、ノードに共有ディスクが 4 台接続されている場合、SunPlex Manager は、mirror-1 メタセットと stripe-1メタセットを作成しますが、concat-1 メタセットは作成しません。これは、このノードに 3 つ目のメタセットを作成するだけの十分な共有ディスクが存在しないためです。
表 2-3 SunPlex Manager がインストールするメタセット
SunPlex Manager グラフィカルユーザーインタフェース (GUI) を使用すると、Sun Cluster ソフトウェアのインストールと管理を簡単に行えます。クラスタに SunPlex Manager ソフトウェアをインストールするには、この手順に従ってください。
別の方法で Sun Cluster ソフトウェアをインストールする場合は、この作業を行う必要はありません。scinstall コマンドにより、インストール処理の一環として SunPlex Manager をインストールすることもできます。
この作業はクラスタの各ノード上で行ってください。
クラスタの各ノードに Solaris ソフトウェアとパッチがインストールされていることを確認します。
インストール手順については、「Solaris ソフトウェアをインストールする」を参照してください。
任意のクラスタノードでスーパーユーザーになります。
Apache ソフトウェアパッケージをインストールします。
Apache ソフトウェアパッケージは、「Solaris 全体ディストリビューション」ソフトウェアグループおよびすべての上位ソフトウェアグループに含められます。下位ソフトウェアグループをインストールしてある場合は、pkginfo(1) コマンドを使用して、以下に示すソフトウェアパッケージがインストールされているかどうかを確認してください。インストールされている場合は、手順 4 へ進んでください。
CD-ROM からインストールする場合は、ノードの CD-ROM ドライブに Solaris 8 Software 2 of 2 CD-ROM を挿入します。
ボリューム管理デーモン vold(1M) が実行されていて CD-ROM デバイスを管理するように構成されている場合は、vold(1M) によって自動的に CD-ROM がマウントされます。
/cdrom/sol_8_sparc/Solaris_8/Product ディレクトリに移動します。
# cd /cdrom/sol_8_sparc/Solaris_8/Product |
Apache ソフトウェアパッケージを次の順序でインストールします。
# pkgadd -d . SUNWapchr SUNWapchu SUNWapchd |
Solaris CD-ROM を取り出します。
Apache ソフトウェアパッチをインストールします。
パッチの入手方法とインストール方法については、『Sun Cluster 3.0 U1 ご使用にあたって』を参照してください。
SunPlex Manager ソフトウェアパッケージをインストールします。
CD-ROM からインストールする場合は、ノードの CD-ROM ドライブに Sun Cluster 3.0 7/01 CD-ROM を挿入します。
ボリューム管理デーモン vold(1M) が実行されていて CD-ROM デバイスを管理するように構成されている場合は、vold(1M) によって自動的に /cdrom/suncluster_3_0u1 ディレクトリに CD-ROM がマウントされます。
/cdrom/suncluster_3_0u1/SunCluster_3.0/Packages ディレクトリに移動します。
# cd /cdrom/suncluster_3_0u1/SunCluster_3.0/Packages |
SunPlex Manager ソフトウェアパッケージをインストールし、すべてのプロンプトに「yes」と入力します。
# pkgadd -d . SUNWscva SUNWscvr SUNWscvw |
Sun Cluster CD-ROM を取り出します。
クラスタの全ノードで同じ root パスワードが設定されているかどうかを確認します。
同じ場合は、手順 7 へ進んでください。
異なる場合は、クラスタのすべてのノードで同じ値になるように root パスワードを設定してください。必要に応じ、chkey(1) を使用して RPC 鍵ペアを更新してください。
# passwd 新しいパスワードを入力する # chkey -p |
root パスワードを使用して SunPlex Manager にアクセスするためには、クラスタ内のすべてのノードで root パスワードが同じでなければなりません。
SunPlex Manager にアクセスするユーザーアカウントをさらに設定するかどうかを決定します。
さらに設定する場合は、手順 8 へ進んでください。
これ以上設定しない場合は、「Sun Cluster ソフトウェアをインストールする (SunPlex Manager)」へ進み、クラスタノードに Sun Cluster ソフトウェアをインストールしてください。
root システムアカウントを使用することもなく、ある特定のノードでのユーザーアカウントも設定されていないというユーザーは、そのノードから SunPlex Manager を介してクラスタにアクセスすることはできません。また、アクセス権のある別のクラスタノードを介してそのノードを管理することもできません。
SunPlex Manager にアクセスするユーザーアカウントをどのように設定するかを決定します
SunPlex Manager へのログインは、root ユーザーアクセスのほかに、役割によるアクセス制御 (RBAC) を持つユーザーアカウントを使用しても行えます。ユーザーアカウントを設定するには、次の表に示す作業のいずれかを行ってください。
表 2-4 SunPlex Manager ユーザーアカウントの設定方法
方法 |
実行する作業 |
---|---|
既存のユーザーアカウントに RBAC 認証を追加する | |
RBAC 認証を持つ新しいユーザーアカウントを作成する |
root 以外のユーザーアカウントに RBAC 認証を割り当てると、そのユーザーアカウントは、通常は root にしか行えない管理アクションを実施できるようになります。
詳細は、『Solaris のシステム管理 (第 2 巻)』の「役割によるアクセス制御」を参照してください。
既存のユーザーアカウントに RBAC 認証を追加します。これにより、ユーザーは自分自身の通常のシステムパスワードを使用して SunPlex Manager にログインできるようになり、SunPlex Manager の全機能へのアクセス権を持つようになります。
root 以外のユーザーアカウントに RBAC 認証を割り当てると、そのユーザーアカウントは、通常であれば root にしか行えない管理アクションを実施できるようになります。
任意のクラスタノードでスーパーユーザーになります。
/etc/user_attr ファイルに以下のエントリを追加します。
# vi /etc/user_attr username::::type=normal;auths=solaris.cluster.admin |
残りの各クラスタノードでも同様の手順を繰り返します。
SunPlex Manager を使用して Sun Cluster ソフトウェアをインストールします。
すべてのクラスタノードで新しいユーザーアカウントを作成します。
root 以外のユーザーアカウントに RBAC 認証を割り当てると、そのユーザーアカウントは、通常であれば root にしか行えない管理アクションを実施できるようになります。
任意のクラスタノードでスーパーユーザーになります。
新しいユーザーアカウントを作成します。
# useradd -d dir -A solaris.cluster.admin login |
新しいユーザーのホームディレクトリを指定する
新しいユーザーアカウントに solaris.cluster.admin 認証を割り当てる
新しいユーザーアカウントの名称
ユーザー名は固有でなければならず、ローカルマシン上にもネットワークネームサービス内にも存在してはなりません。
ユーザーアカウントの作成方法についての詳細は、useradd(1M) のマニュアルページを参照してください。
パスワードを設定します。
# passwd login |
残りの各クラスタノードでも同様の手順を繰り返します。
ユーザーアカウントのパスワードは、必ずすべてのクラスタノード上で同じにしてください。
SunPlex Manager を使用して Sun Cluster ソフトウェアをインストールします。
既存のクラスタに新しいノードを追加する場合は、SunPlex Manager を使用しないでください。代わりに、「Sun Cluster ソフトウェアをインストールする(scinstall)」へ進んでください。
この作業は、SunPlex Manager を使用し、1 回の操作で Sun Cluster ソフトウェアとパッチをクラスタ内のすべてのノードにインストールする場合に行います。この作業は、Solstice DiskSuite ソフトウェアとパッチをインストールし、さらに Sun Cluster HA for NFS データサービスまたは Sun Cluster HA for Apache スケーラブルデータサービス (あるいはこの両方) をインストールする場合にも使用できます。
このインストール処理は、クラスタノードの数、データサービスの種類、クラスタ構成内のディスクの数に応じて、30 分〜 2 時間以上かかる可能性があります。
クラスタの各ノードに SunPlex Manager ソフトウェアがインストールされていることを確認します。
「SunPlex Manager ソフトウェアをインストールする」を参照してください。インストール要件については、「SunPlex Manager による Sun Cluster ソフトウェアのインストール」を参照してください。
Sun Cluster HA for NFS または Sun Cluster HA for Apache をインストールするかどうかを決定します。
インストールしない場合は、手順 3 へ進んでください。
インストールする場合は、クラスタ構成が該当するすべての要件を満たしているかどうかを確認してください。「SunPlex Manager による Sun Cluster ソフトウェアのインストール」を参照してください。
インストールする各ソフトウェア製品の CD-ROM イメージへのファイルシステムパスを用意します。
各ノードが使用できる場所に各 CD-ROM イメージを用意します。
CD-ROM イメージは、クラスタのすべてのノードから同じファイルシステムパスを使用してアクセスできなければなりません。これらのパスとして、以下に示す場所のいずれかを指定できます。
クラスタの外部に存在するマシンからネットワークにエクスポートされた CD-ROM ドライブ
クラスタの外部に存在するマシン上のエクスポートされたファイルシステム
クラスタの各ノード上のローカルファイルシステムにコピーされた CD-ROM イメージ。ローカルファイルシステムの名前は、すべてのノードで同じにする必要があります。
各 CD-ROM イメージのパスを記録します。
この情報は、手順 19 で SunPlex Manager に対する情報として利用します。
Sun Cluster ソフトウェアまたは Solstice DiskSuite ソフトウェアをサポートするために必要なパッチがあるかどうかを確認します。
パッチのインストールに SunPlex Manager を使用するかどうかを決定します。
各ノードが利用できるファイルシステム上の 1 つのディレクトリに、Sun Cluster または Solstice DiskSuite ソフトウェアに必要なパッチをコピーします。
このディレクトリには、各パッチのバージョンを 1 つだけコピーするようにしてください。
パッチディレクトリに同じパッチのバージョンが複数存在すると、SunPlex Manager はパッチの依存性順位を正しく判断できなくなります。
パッチファイルが解凍されていることを確認します。
パッチディレクトリのパスを記録します。
この情報は、手順 19 で SunPlex Manager に対する情報として利用します。
『Sun Cluster 3.0 ご使用にあたって』の以下の構成計画ワークシートに必要事項を記入したものを用意します。
「クラスタ名とノード名のワークシート」
「クラスタインターコネクトのワークシート」
「ネットワークリソース」のワークシート
計画のガイドラインについては、第 1 章「Sun Cluster 構成の計画」と『Sun Cluster 3.0 U1 データサービスのインストールと構成』を参照してください。
管理コンソール、またはクラスタの外部に存在する他のマシンから、ブラウザを起動します。
ブラウザの Web プロキシを無効にします。
SunPlex Manager のインストール機能は、Web プロキシと互換性がありません。
ディスクキャッシュとメモリーキャッシュが有効になっていることを確認します。
ディスクキャッシュとメモリーキャッシュのサイズは、0 より大きくなくてはなりません。
ブラウザから、任意のクラスタノードのポート 3000 に接続します。
https://node:3000/ |
ブラウザのウィンドウに「Sun Cluster Installation」画面が表示されます。
「Sun Cluster Installation」画面ではなく管理インタフェースが表示される場合は、そのノードに Sun Cluster ソフトウェアがすでにインストールされています。URL 内のノード名がインストール対象のクラスタノードの名前と一致していることを確認してください。
ブラウザに「New Site Certification」ウィンドウが表示される場合は、画面上の指示に従ってください。
「Sun Cluster Installation」画面で、 SunPlex Manager を使用するための要件をクラスタが満たしていることを確認します。
Solaris エンドユーザーソフトウェアグループまたはこれ以上の機能がインストールされている
ルートディスクパーティションには、マウントポイントが /globaldevices に設定された 100M バイトのスライスが存在する
ルートディスクパーティションには、マウントポイントが /sds に設定された 10M バイトのスライスが存在する (Solstice DiskSuite をインストールする場合)
手順 3 から 手順 6 までに説明されているように、必要となるすべての CD-ROM イメージのファイルシステムパスとパッチが設定されている。
示されている要件をすべて満たしている場合は、「Next」をクリックして次の画面へ進んでください。
クラスタの名前を入力し、クラスタ内のノードの数を選択します。
「Next」をクリックして継続します。
「Back」ボタンを使用して前の画面に戻り、情報を変更できます。ただし、後続の画面で入力した情報は、保持されません。それらの画面の構成情報は、再度入力する必要があります。
各クラスタノードの名前を入力します。
「Next」をクリックして継続します。
各ノードのプルダウンリストから、プライベートインターコネクトに使用するアダプタの名前を 2 つ選択します。
各ノードに対応するアダプタ名については、「クラスタインターコネクトのワークシート」を参照してください。
「Next」をクリックして継続します。
Solstice DiskSuite ソフトウェアをインストールするかどうかを選択します。
Sun Cluster HA for NFS または Sun Cluster HA for Apache データサービスをインストールする場合は、Solstice DiskSuite ソフトウェアをインストールする必要があります。
Solstice DiskSuite がインストールされる際に、共有ディスク上のデータはすべて失われます。
「Next」をクリックして継続します。
Sun Cluster HA for NFS、Sun Cluster HA for Apache、またはこの両方をインストールするかどうかを選択します。
該当する論理ホスト名または共有アドレスについては、「ネットワークリソース」ワークシートを参照してください。
Sun Cluster HA for NFS については、データサービスが使用する論理ホスト名も指定してください。
Sun Cluster HA for Apache については、データサービスが使用する共有アドレスも指定してください。
「Next」をクリックして継続します。
指定したパッケージのインストールに必要な各 CD-ROM イメージのパスを入力し、必要に応じてパッチディレクトリのパスも入力します。
表 2-5 に示すように、該当するパスフィールドに各ソフトウェアパッケージのパスを入力します。
CD-ROM イメージに指定するパスは、その CD-ROM の .cdtocファイルが入ったディレクトリでなければなりません。
インストールしないソフトウェアパッケージについては、関連するパスフィールドを空白のままにします。
必要なパッチをすでにインストール済みである場合は、「Patch Directory Path」フィールドを空白のままにします。
インストールするソフトウェアパッケージ |
CD-ROM イメージパスフィールドの名前 |
---|---|
Solstice DiskSuite |
Solaris CD-ROM Path |
Sun Cluster |
Sun Cluster3.0 7/01 CD-ROM Path |
Sun Cluster HA for NFS, Sun Cluster HA for Apache |
Sun Cluster 3.0 Agents 7/01 CD-ROM Path |
Sun Cluster パッチ、Solstice DiskSuite パッチ |
Patch Directory Path |
「Next」をクリックして継続します。
「Confirm Information」画面に表示された入力情報が正しいかどうかを確認します。
正しい場合は、手順 21 へ進んでください。
正しくない場合は、以下の手順に従って構成情報を修正してください。
「Begin Installation」をクリックしてインストール処理を開始します。
インストール処理中は、ブラウザウィンドウを閉じたり URL を変更したりしないでください。
ブラウザに「New Site Certification」ウィンドウが表示された場合は、画面上の指示に従ってください。
ブラウザにログイン情報のプロンプトが表示された場合は、接続先ノードの該当するユーザー ID とパスワードを入力してください。
インストールが進行している間、クラスタインストール処理の状況を示す簡単なメッセージが画面に表示されます。インストールが完了した時点で、ブラウザにクラスタ監視 / 管理用の GUI が表示されます。
SunPlex Manager のインストール出力は、/var/cluster/spm ディレクトリに記録されます。Sun Cluster のインストール出力は、/var/cluster/logs/install/scinstall.log.pid ファイルに記録されます(pid は scinstall インスタンスのプロセス ID 番号)。
必要に応じ、SunPlex Manager を使用して定足数割り当ての確認と変更を行います。
3 つ以上のノードを持つクラスタの場合、共有定足数デバイスの使用は任意です。SunPlex Manager による定足数デバイスへの投票数の割り当ては、適切な共有ディスクが利用可能かどうかに基づいて行われます。ユーザーは、SunPlex Manager を使用して定足数デバイスを指定することも、クラスタ内の定足数投票数を割り当てなおすこともできます。
ネームサービスの参照順序を設定します。
「ネームサービススイッチを構成する」へ進んでください。
この節では、カスタム JumpStart によるインストール方法である scinstall(1M) の設定と使用について説明します。この方法を利用すると、1 回の操作ですべてのクラスタノード上に、Solaris ソフトウェアと Sun Cluster ソフトウェアの両方をインストールし、クラスタを確立できます。また、既存のクラスタに新しいノードを追加するためにも利用できます。
Solaris ソフトウェアをインストールする前に、ハードウェアの設定が完了していることと接続が正しいことを確認します。
ハードウェアの設定の詳細については、『Sun Cluster 3.0 U1 Hardware Guide』およびサーバーと記憶装置のマニュアルを参照してください。
以下の情報を用意します。
各クラスタノードの Ethernet アドレス
『Sun Cluster 3.0 ご使用にあたって』の以下のワークシートに必要事項を記入したもの
「ローカルファイルシステム配置のワークシート」
「クラスタとノード名のワークシート」
「クラスタインターコネクトのワークシート」
計画のガイドラインについては、「Solaris オペレーティング環境の計画」と 「Sun Cluster 環境の計画」を参照してください。
ネームサービスを使用しているかどうかを確認します。
既存のクラスタに新しいノードをインストールするかどうかを決定します。
新しいノードをインストールする場合は、別のアクティブクラスタノードから scsetup(1M) を実行し、認証クラスタノードのリストにこの新しいノードの名前を追加します。手順については、『Sun Cluster 3.0 U1 のシステム管理』の「クラスタノードを認証ノードリストに追加する」を参照してください。
新しいノードをインストールしない場合は、手順 5 へ進んでください。
スーパーユーザーで、Solaris オペレーティング環境のインストール用に JumpStart インストールサーバーを設定します。
JumpStart インストールサーバーの設定方法については、setup_install_server(1M) と add_install_client(1M) のマニュアルページ、および『Solaris のインストール (上級編)』を参照してください。
インストールサーバーを設定するときは、以下の要件が満たされていることを確認します。
インストールサーバーはクラスタノードと同じサブネット上にあるが、それ自体はクラスタノードではない。
インストールサーバーによって、Sun Cluster ソフトウェアに必要な Solaris オペレーティング環境のリリースがインストールされる。
Sun Cluster の JumpStart インストール用にカスタム JumpStart ディレクトリが存在する (この jumpstart-dir ディレクトリには、check(1M) ユーティリティのコピーが含まれており、JumpStart インストールサーバーで読み取れるように NFS によってエクスポートされている必要があります)。
各新規クラスタノードが、Sun Cluster のインストール用のカスタム JumpStart ディレクトリ設定を使用する、カスタム JumpStart インストールクライアントとして構成されている。
JumpStart インストールサーバーに、Sun Cluster 3.0 7/01 CD-ROM のコピーを格納する ディレクトリを作成します。
次の例では、このために /export/suncluster ディレクトリを作成します。
# mkdir -m 755 /export/suncluster |
Sun Cluster CD-ROM を JumpStart インストールサーバーにコピーします。
JumpStart インストールサーバーの CD-ROM ドライブに Sun Cluster 3.0 7/01 CD-ROM を挿入します。
ボリューム管理デーモン vold(1M) が実行されており、CD-ROM デバイスを管理するように構成されている場合は、CD-ROM は自動的に /cdrom/suncluster_3_0u1 ディレクトリにマウントされます。
/cdrom/suncluster_3_0u1/SunCluster_3.0/Tools ディレクトリに移動します。
# cd /cdrom/suncluster_3_0u1/SunCluster_3.0/Tools |
CD-ROM を JumpStart インストールサーバー上の新しいディレクトリにコピーします。
scinstall コマンドで、CD-ROM のファイルをコピーする新しいインストールディレクトリを作成します。ここでは、インストールディレクトリ名 /export/suncluster/sc30 を例として使用します。
# ./scinstall -a /export/suncluster/sc30 |
Eject the CD-ROM.
# cd / # eject cdrom |
JumpStart インストールサーバー上の Sun Cluster 3.0 7/01 CD-ROM イメージが、JumpStart インストールサーバーで読み取れるように NFS によってエクスポートされていることを確認します。
自動ファイル共有の詳細については、『NFS の管理』、および share(1M) と dfstab(4) のマニュアルページを参照してください。
既存のクラスタに新しいノードをインストールするかどうかを決定します。
クラスタの認証ノードリストにこの新しいノードを追加しているかどうかを確認します。
追加している場合は、手順 10 へ進んでください。
まだ追加してない場合は、任意の既存クラスタノードから scsetup(1M) を実行して認証クラスタノードのリストにこの新しいノードの名前を追加してください。手順については、『Sun Cluster 3.0 U1 のシステム管理』の「クラスタノードを認証ノードリストに追加する」を参照してください。
scinstall を使用し、カスタム JumpStart 完了スクリプトを構成します。
JumpStart は、これらの完了スクリプトを使用して Sun Cluster ソフトウェアをインストールします。
JumpStart インストールサーバーから scinstall(1M) ユーティリティを起動します。
ここでは、作成したインストールディレクトリの例として、パス /export/suncluster/sc30 を使用します。
# cd /export/suncluster/sc30/SunCluster_3.0/Tools # ./scinstall |
対話形式の scinstall ユーティリティを使用するときは、以下のガイドラインに従ってください。
対話形式の scinstall では先打ち入力が可能です。したがって、次のメニュー画面がすぐに表示されなくても、何度も Return キーを押さないでください。
特に指定がない場合は、Control-D キーを押すと、関連のある一連の質問の最初か、またはメインメニューに戻ります。
セッションでの入力内容は、そのメニューオプションを次回実行したときのデフォルトとして格納されます。プロンプトの最後に、角括弧 ([ ]) に囲まれてデフォルトの回答が表示されます。
「Main Menu」で、3 (Configure a cluster to be JumpStarted from this install server) を入力します。
オプション 3 の前にアスタリスクが表示されていない場合は、JumpStart 設定が完了しなかったか、エラーがあるためにこのオプションが無効になっていることを示します。scinstall ユーティリティを終了して 手順 5 〜 手順 7 を繰り返して JumpStart 設定を修正してから、scinstall ユーティリティを再起動してください。
*** Main Menu *** Please select from one of the following (*) options: 1) Establish a new cluster using this machine as the first node 2) Add this machine as a node in an established cluster * 3) Configure a cluster to be JumpStarted from this install server 4) Add support for new data services to this cluster node 5) Print release information for this cluster node * ?) Help with menu options * q) Quit Option: 3 *** Custom JumpStart *** ... Do you want to continue (yes/no) [yes]? |
JumpStart ディレクトリ名を指定します。
>>> Custom JumpStart Directory <<< .... What is your JumpStart directory name? jumpstart-dir |
クラスタの名前を指定します。
>>> Cluster Name <<< ... What is the name of the cluster you want to establish? clustername |
すべてのクラスタノードの名前を指定します。
>>> Cluster Nodes <<< ... Please list the names of all cluster nodes planned for the initial cluster configuration. You must enter at least two nodes. List one node name per line. When finished, type Control-D: Node name: node1 Node name: node2 Node name (Ctrl-D to finish): <Control-D> This is the complete list of nodes: ... Is it correct (yes/no) [yes]? |
データ暗号化規格 (DES) 認証を使用するかどうかを指定します。
デフォルトでは、Sun Cluster ソフトウェアを使用してノードをクラスタに接続できるのは、ノードが物理的にプライベートインターコネクトに接続されていて、かつ上記の手順 e の方法でノード名が指定されている場合だけです。しかし、プライベートインターコネクトはまだ完全に構成されていないため、実際にはノードはパブリックネットワークを介してスポンサーノードと通信します。DES 認証を使用すると、スポンサーノードは、クラスタ構成を更新するために接続を試みるノードを確実に認証できます。このため、インストール時のセキュリティレベルが高くなります。
セキュリティを高めるために DES 認証を使用する場合は、ノードをクラスタに追加する前に、必要な暗号化鍵をすべて構成する必要があります。詳細は、keyserv(1M) および publickey(4) のマニュアルページを参照してください。
>>> Authenticating Requests to Add Nodes <<< ... Do you need to use DES authentication (yes/no) [no]? |
プライベートネットワークアドレスとネットマスクを指定します。
クラスタが正しく構成されたあとでは、プライベートネットワークアドレスは変更できません。
>>> Network Address for the Cluster Transport <<< ... Is it okay to accept the default network address (yes/no) [yes]? Is it okay to accept the default netmask (yes/no) [yes]? |
2 ノードクラスタである場合は、クラスタがトランスポート接続点を使用するかどうかを指定します。
ノードが互いに直結されているかどうかにかかわらず、クラスタがトランスポート接続点を使用するように指定できます。クラスタがトランスポート接続点を使用するように指定すると、クラスタに新しいノードを簡単に追加できるようになります。
>>> Point-to-Point Cables <<< ... Does this two-node cluster use transport junctions (yes/no) [yes]? |
このクラスタがトランスポート接続点を使用する場合は、トランスポート接続点の名前を指定します。
クラスタに 3 つ以上のノードが含まれる場合は、トランスポート接続点を使用する必要があります。この場合、デフォルトの名前 switchN を使用することも、独自の名前を作成することもできます。
>>> Cluster Transport Junctions <<< ... What is the name of the first junction in the cluster [switch1]? What is the name of the second junction in the cluster [switch2]? |
クラスタインターコネクトのトランスポートアダプタ、およびそれらの接続先であるトランスポート接続点 (使用されている場合) の名前を指定します。
scinstall コマンドを使用し、アダプタを 2 つまで構成できます。Sun Cluster ソフトウェアのインストール後は、scsetup ユーティリティを使用してのアダプタを追加構成できます。
>>> Cluster Transport Adapters and Cables <<< ... For node "node1", What is the name of the first cluster transport adapter? adapter ... For node "node1", Name of the junction to which "adapter" is connected [switch1]? ... For node "node1", Okay to use the default for the "adapter" connection (yes/no) [yes]? For node "node1", What is the name of the second cluster transport adapter? adapter For node "node1", Name of the junction to which "adapter" is connected [switch2]? For node "node1", Use the default port for the "adapter" connection (yes/no) [yes]? For node "node2", What is the name of the first cluster transport adapter? adapter For node "node2", Name of the junction to which "adapter" is connected [switch1]? For node "node2", Okay to use the default for the "adapter" connection (yes/no) [yes]? For node "node2", What is the name of the second cluster transport adapter? adapter For node "node2", Name of the junction to which "adapter" is connected [switch2]? For node "node2", Use the default port for the "adapter" connection (yes/no) [yes]? |
広域デバイスのファイルシステム名を指定します。
>>> Global Devices File System <<< ... The default is to use /globaldevices. For node "node1", Is it okay to use this default (yes/no) [yes]? For node "node2", Is it okay to use this default (yes/no) [yes]? |
起動された scinstall コマンドを使用するかどうかを決定します。
scinstall コマンドにより確認が求められます。
>>> Confirmation <<< Your responses indicate the following options to scinstall: ----------------------------------------- For node "node1", scinstall -c jumpstart-dir -h node1 ¥ ... Are these the options you want to use (yes/no) [yes]? ----------------------------------------- For node "node2", scinstall -c jumpstart-dir -h node2 ¥ ... Are these the options you want to use (yes/no) [yes]? ----------------------------------------- Do you want to continue with JumpStart set up (yes/no) [yes]? |
コマンドを使用しない場合は、「Main Menu」が表示されます。ここからメニューオプション 3 を再度実行し、別の応答を入力できます。この場合、以前の応答がデフォルトとして表示されます。
必要に応じて、scinstall によって作成されたデフォルトの class ファイルまたはプロファイルを調整します。
scinstall コマンドによって、デフォルトの class ファイルである autoscinstall.class が、jumpstart-dir/autoscinstall.d/3.0 ディレクトリに作成されます。
install_type initial_install system_type standalone partitioning explicit filesys rootdisk.s0 free / filesys rootdisk.s1 750 swap filesys rootdisk.s3 100 /globaldevices filesys rootdisk.s7 10 cluster SUNWCuser add package SUNWman add |
デフォルトの class ファイルによって、Solaris ソフトウェアの「エンドユーザーシステムサポート」ソフトウェアグループ (SUNWCuser) がインストールされます。Sun Enterprise E10000 サーバーの場合は、必ず、「全体ディストリビューションプラス OEM」ソフトウェアグループをインストールしてください。また、Oracle などの Sun 以外のソフトウェアでは、追加の Solaris パッケージが必要になる場合があります。Solaris ソフトウェアの必要条件については、各製品のマニュアルを参照してください。
プロファイルは、以下のいずれかの方法で変更できます。
autoscinstall.class ファイルを直接編集します。変更内容は、このカスタム JumpStart ディレクトリを使用するすべてのクラスタのすべてのノードに適用されます。
他のファイルを示すように rules ファイルを更新してから、check ユーティリティを実行して rules ファイルを検証します。
Solaris オペレーティング環境のインストールプロファイルが、Sun Cluster ファイルシステムの最小の割り当て要件を満たしているかぎり、インストールプロファイルに対するその他の変更に制限はありません。Sun Cluster 3.0 ソフトウェアをサポートするためのパーティション分割のガイドラインについては、「システムディスクパーティション」を参照してください。
Solaris 用のパッチディレクトリを設定します。
クラスタ内の各ノードに、JumpStart サーバー上の jumpstart-dir/autoscinstall.d/nodes/node/patches ディレクトリを作成します。
クラスタ内のノードごとにディレクトリを 1 つ作成してください (node はクラスタノードの名前)。あるいは、この命名規則を使用して共有パッチディレクトリへのシンボリックリンクを作成することもできます。
# mkdir jumpstart-dir/autoscinstall.d/nodes/node/patches |
これらの各ディレクトリに Solaris パッチのコピーを置きます。
また、Solaris ソフトウェアのインストール後にインストールしたハードウェア関連のパッチも、これらの各ディレクトリに置いてください。
各ノード上で必要なホスト名情報を含むようにファイルを設定します。
JumpStart インストールサーバーに、jumpstart-dir/autoscinstall.d/nodes/node/archive/etc/inet/hosts という名前のファイルを作成します。
各ノードに 1 つずつファイルを作成します。node には、クラスタノードの名前を指定します。
あるいは、この命名規則を使用して共有ホストファイルへのシンボリックリンクを作成することもできます。
各ファイルに以下のエントリを追加します。
Sun Cluster CD-ROM のイメージがコピーされている NFS サーバーの IP アドレスとホスト名。これは、JumpStart インストールサーバーまたは別のマシンの可能性があります。
クラスタ内の各ノードの IP アドレスとホスト名。
(省略可能) インストール後に実行する独自の完了スクリプトを追加します。
独自の完了スクリプトを追加できます。このスクリプトは、scinstall コマンドによってインストールされる標準の完了スクリプトに続いて実行されます。
管理コンソールを使用している場合は、クラスタ内の各ノードにコンソール画面を表示します。
管理コンソールで cconsole(1M) がインストールおよび構成されている場合は、これを使用して個々のコンソール画面を表示できます。それ以外の場合は、コンソールを各ノードに個別にインストールする必要があります。
各ノードのコンソールの「ok」PROM プロンプトから、boot net - install コマンドを入力して、各ノードのネットワーク JumpStart インストールを開始します。
コマンドに含まれるダッシュ (-) の両側には、空白文字を入力します。
ok boot net - install |
Sun Cluster のインストール出力は、/var/cluster/logs/install/scinstall.log.pid ファイルに記録されます (pid は scinstall インスタンスのプロセス ID 番号)。
独自の ntp.conf ファイルを /etc/inet ディレクトリにインストールしていない場合は、scinstall コマンドによって、デフォルトの ntp.conf ファイルが自動的にインストールされます。このデフォルトファイルは、出荷時には ノードの最大可能個数を参照する状態になっているため、起動時に xntpd(1M) で一部の参照に関してエラーメッセージが表示される場合があります。これらのメッセージは無視しても問題ありません。通常のクラスタ条件下でこれらのメッセージを表示しないようにする方法については、「Network Time Protocol (NTP) を更新する」を参照してください。
インストールが正常に完了すると、各ノードは、新しいクラスタノードとして完全にインストールされた状態になります。
Solaris のインタフェースグループ機能は、Solaris ソフトウェアのインストール中にデフォルトで無効に設定されます。インタフェースグループは Sun Cluster 構成ではサポートされていないため、有効にしないでください。Solaris インタフェースグループの詳細については、ifconfig(1M) のマニュアルページを参照してください。
既存のクラスタに新しいノードをインストールするかどうかを決定します。
インストールしない場合は、手順 18 へ進んでください。
インストールする場合は、新しいノードで既存のすべてのクラスタファイルシステムのマウントポイントを作成してください。
クラスタ内の別のアクティブノードから、すべてのクラスタファイルシステムの名前を表示します。
% mount | grep global | egrep -v node@ | awk '{print $1}' |
クラスタに追加したノード上で、クラスタ内のクラスタファイルシステムごとにマウントポイントを作成します。
% mkdir -p mountpoint |
たとえば、mount コマンドで表示されるファイルシステム名が /global/dg-schost-1 の場合は、クラスタに追加する新しいノードで mkdir -p /global/dg-schost-1 を実行します。
これらのマウントポイントは、手順 19 によりクラスタを再起動するとアクティブになります。
Sun Cluster ソフトウェア用のパッチをインストールします。
パッチの入手方法とインストール方法については、『Sun Cluster 3.0 U1 ご使用にあたって』を参照してください。
既存のクラスタに対する新しいノードの追加、またはクラスタ全体の再起動を必要とする Sun Cluster ソフトウェアパッチのインストール (あるいはこの両方) を行ったかどうかを確認します。
これらの作業を行っていない場合は、インストールしたパッチがノードの再起動を必要とする場合にだけ個々のノードを再起動してください。
これらの作業を行った場合は、再構成再起動を行ってください。
任意のノードからクラスタを停止します。
# scshutdown |
このクラスタが停止されるまで、クラスタの最初のインストールノードは再起動しないでください。
クラスタ内の各ノードを再起動します。
ok boot |
クラスタインストールモードが無効になるまでは、定足数投票はクラスタを確立した最初のインストールノードにしかありません。確立されたクラスタがまだインストールモードにある場合、クラスタを停止せずに最初のインストールノードを再起動すると、残りのクラスタノードは定足数を得られず、クラスタ全体が停止します。クラスタノードは、「インストール後設定を行う」の手順で scsetup(1M) コマンドを最初に実行するまでは、インストールモードのままです。
ネームサービスの参照順序を設定します。
「ネームサービススイッチを構成する」へ進んでください。
クラスタ内の各ノードで次の作業を行います。
クラスタノードのスーパーユーザになります。
/etc/nsswitch.conf ファイルを編集します。
cluster が、データベースエントリの hosts および netmasks の最初の参照先になっていることを確認します。
この順序は、Sun Cluster ソフトウェアを正しく動作させるために重要です。scinstall(1M) コマンドによって、インストール中に cluster がこれらのエントリに追加されます。
(省略可能) ネームサービスが利用不能になった場合にデータサービスの可用性を向上させるには、以下のエントリの参照順序を変更してください。
データベースエントリ hosts および netmasks では、cluster の後に files を配置します。
その他のすべてのデータベースについては、files を参照順序の最初に配置します。
参照順序を変更した結果、[NOTFOUND=return] 条件がエントリの最後の項目になる場合、この条件は不要となります。エントリから [NOTFOUND=return] 条件を削除することも、あるいはそのまま残す (この場合は無視されます) こともできます。
次に、/etc/nsswitch.conf ファイルの内容の一部を例として示します。データベースエントリ hosts および netmasks の参照順序は、cluster、files の順です。その他のエントリの参照順序は、files から始まります。[NOTFOUND=return] 条件は、このエントリからは削除しています。
# vi /etc/nsswitch.conf ... passwd: files nis group: files nis ... hosts: cluster files nis ... netmasks: cluster files nis ... |
nsswitch.conf エントリの詳細は、nsswitch.conf(4) のマニュアルページを参照してください。
root ユーザーの環境を設定します。
「root 環境を設定する」へ進んでください。
クラスタノードのスーパーユーザになります。
Sun Cluster 構成では、各種シェルのユーザー初期化ファイルは、それらが対話式のシェルから実行されていることを確認した上で、端末への出力を試みる必要があります。この方法に従わない場合は、予期しない動作やデータサービス妨害が発生する可能性があります。ユーザーの作業環境をカスタマイズする方法についての詳細は、『Solaris のシステム管理 (第 1 巻)』を参照してください。
クラスタノードでスーパーユーザになります。
.cshrc ファイルの PATH および MANPATH エントリを変更します。
/usr/sbin および /usr/cluster/bin を含むように PATH 環境変数を設定します。
VERITAS Volume Manager の場合も、/etc/vx/bin を含むように PATH 環境変数を指定します。VRTSvmsa パッケージをインストールしてある場合は、/opt/VRTSvmsa/bin も PATH 環境変数に追加します。
/usr/cluster/man を含むように MANPATH 環境変数を設定します。また、ボリューム管理ソフトウェアに固有のパスを含めます。
Solstice DiskSuite ソフトウェアの場合は、/usr/share/man を含めるように MANPATH 環境変数を設定します。
VERITAS Volume Manager の場合は、/opt/VRTSvxvm/man を含めるように MANPATH 環境変数を設定します。VRTSvmsa パッケージをインストールしてある場合は、/opt/VRTSvmsa/man も MANPATH 環境変数に追加します。
(省略可能) 管理を行いやすくするため、各ノードに同じ root パスワードを設定します (まだ設定していない場合)。
データサービスソフトウェアパッケージをインストールします。「データサービスソフトウェアパッケージをインストールする」に進みます。
各クラスタノードで以下の作業を行います。
SunPlex Manager を使用し、Sun Cluster HA for NFS または Sun Cluster HA for Apache (あるいはこの両方) をインストールしており、他のデータサービスをインストールする予定がない場合は、この作業を行う必要はありません。「インストール後設定を行う」へ進んでください。
クラスタノードのスーパーユーザになります。
CD-ROM からインストールする場合は、ノードの CD-ROM ドライブに Sun Cluster 3.0 Agents 7/01 CD-ROM を挿入します。
scinstall(1M) ユーティリティを起動します。
# ./scinstall |
対話形式の scinstall ユーティリティを使用するときは、以下のガイドラインに従ってください。
対話形式の scinstall では先打ち入力が可能です。したがって、次のメニュー画面がすぐに表示されなくても、何度も Return キーを押さないでください。
特に指定がない場合は、Control-D キーを押すと、関連のある一連の質問の最初か、またはメインメニューに戻ります。
データサービスを追加するには、4 (Add support for a new data service to this cluster node) を入力します。
プロンプトに従って、インストールするデータサービスをすべて選択します。
インストールしたデータサービスのリソースをノードでホストする予定がない場合でも、各ノードに同じデータサービスパッケージのセットをインストールする必要があります。
CD-ROM からインストールする場合は、CD-ROM を取り出します。
Sun Cluster 用のデータサービスパッチをインストールします。
パッチの入手方法とインストール方法については、『Sun Cluster 3.0 U1 ご使用にあたって』を参照してください。
パッチの特別な指示によって再起動が指定されていないかぎり、Sun Cluster データサービスのパッチをインストールした後で再起動する必要はありません。再起動が必要な場合は、クラスタの最初のノードを再起動する前に scshutdown(1M) コマンドを使用してそのクラスタを停止してください。
クラスタインストールモードが無効になるまでは、定足数投票はクラスタを確立した最初のインストールノードにしかありません。確立されたクラスタがまだインストールモードにある場合、クラスタを停止せずに最初のインストールノードを再起動すると、残りのクラスタノードは定足数を得られず、クラスタ全体が停止します。クラスタノードは、「インストール後設定を行う」の手順で scsetup(1M) コマンドを最初に実行するまでは、インストールモードのままです。
インストール後設定を行い、定足数投票を割り当てます。
「インストール後設定を行う」へ進みます。
次の手順は、クラスタが完全に形成された後に一度だけ実行します。
すべてのノードがクラスタに結合していることを確認します。
任意のノードから、すべてのノードがクラスタに結合していることを確認します。
クラスタノードのリストを表示するため、scstat(1M)コマンドを実行します。このコマンドを実行するために、スーパーユーザーとしてログインする必要はありません。
% scstat -n |
出力は次のようになります。
-- Cluster Nodes -- Node name Status --------- ------ Cluster node: phys-schost-1 Online Cluster node: phys-schost-2 Online |
各ノードで、クラスタノードに対するデバイスの接続性を検証します。
scdidadm(1M) コマンドを実行し、システムによって検査されるすべてのデバイスのリストを表示します。
このコマンドを実行するために、スーパーユーザーとしてログインする必要はありません。
% scdidadm -L |
各ノードのリストは同じ内容になります。出力は次のようになります。
1 phys-schost-1:/dev/rdsk/c0t0d0 /dev/did/rdsk/d1 2 phys-schost-1:/dev/rdsk/c1t1d0 /dev/did/rdsk/d2 2 phys-schost-2:/dev/rdsk/c1t1d0 /dev/did/rdsk/d2 3 phys-schost-1:/dev/rdsk/c1t2d0 /dev/did/rdsk/d3 3 phys-schost-2:/dev/rdsk/c1t2d0 /dev/did/rdsk/d3 ... |
定足数デバイスとして構成する各共有ディスクの広域デバイス ID (DID) を決定します。
手順 2 で得られた scdidadm の出力で、定足数デバイスとして構成する各共有ディスクの DID 名を確認してください。たとえば、上記の手順の出力は、広域デバイス d2 が phys-schost-1 と phys-schost-2 で共有されていることを示しています。この情報は、手順 8 で使用します。定足数デバイスについての計画の詳細は、「定足数デバイス」を参照してください。
既存のクラスタに新しいノードを追加するかどうかを決定します。
SunPlex Manager を使用して Sun Cluster ソフトウェアをインストールしたかどうかを確認します。
任意のクラスタノードでスーパーユーザーになります。
scsetup(1M) ユーティリティを起動します。
# scsetup |
「Initial Cluster Setup」画面が表示されます。
代わりに「Main Menu」が表示された場合は、クラスタの初期設定はすでに正しく行われています。手順 11 へ進んでください。
定足数の設定処理が中断されたり、正常に終了しなかった場合は、scsetup を再度実行してください。
クラスタが 2 ノードクラスタの場合は、「Do you want to add any quorum disks?」というプロンプトで 1 つ以上の共有定足数デバイスを構成してください。
2 ノードクラスタは、共有定足数デバイスが構成されるまでインストールモードのままです。scsetup ユーティリティが定足数デバイスを構成し終わると、「Command completed successfully」というメッセージが表示されます。クラスタに 3 つ以上のノードが存在する場合は、定足数デバイスの構成は任意です。
「Is it okay to reset "installmode"?」というプロンプトに、「Yes」とこたえます。
scsetup ユーティリティによって、クラスタの定足数構成と投票数 (quorum vote count) が設定されたあと、「Cluster initialization is complete」というメッセージが表示され、「Main Menu」に戻ります。
任意のノードから、デバイスとノードの定足数構成を確認します。
% scstat -q |
任意のノードから、クラスタインストールモードが無効になっていることを確認します。
このコマンドを実行するためにスーパーユーザーになる必要はありません。
% scconf -p | grep "Cluster install mode:" Cluster install mode: disabled |
ボリューム管理ソフトウェアをインストールします。
Solstice DiskSuite ソフトウェアをインストールする場合は、「Solstice DiskSuite の構成」へ進んでください。
VERITAS Volume Manager ソフトウェアをインストールする場合は、「VxVM ソフトウェアのインストールと構成」へ進んでください。
次の表に、クラスタを構成する場合の作業を示します。これらの作業を開始する前に、以下の作業が完了していることを確認してください。
クラスタフレームワークのインストール (「ソフトウェアのインストール」の手順を使用)
ボリューム管理ソフトウェアのインストールと構成 (「Solstice DiskSuite の構成」または 「VxVM ソフトウェアのインストールと構成」の手順を使用)
作業 |
参照箇所 |
---|---|
クラスタファイルシステムの作成とマウントを行う | |
(任意) 追加のパブリックネットワークアダプタを構成する | |
パブリックネットワーク管理 (PNM) を構成し、ネットワークアダプタフェイルオーバー (NAFO) グループを設定する | |
(任意) ノードのプライベートホスト名を変更する | |
/etc/inet/ntp.conf ファイルを編集してノード名エントリを更新する | |
(任意) Sun Management Center ソフトウェアに Sun Cluster モジュールをインストールする |
「Sun Management Center 用の Sun Cluster モジュールのインストール」 Sun Management Center のマニュアル |
他のアプリケーションをインストールし、アプリケーション、データサービス、リソースグループを構成する |
『Sun Cluster 3.0 U1 データサービスのインストールと構成』 『Sun Cluster 3.0 U1 ご使用にあたって』の「データサービス構成のためのワークシート(記入例)」 各アプリケーションのマニュアル |
追加する各クラスタファイルシステムについて次の作業を行います。
ファイルシステムを作成すると、ディスク上のデータはすべて失われます。必ず、正しいディスクデバイス名を指定してください。誤ったデバイス名を指定した場合、その内容は、新しいファイルシステムが作成されたときに消去されます。
SunPlex Manager を使用してデータサービスをインストールした場合は、クラスタファイルシステムがすでに自動的に作成されています (十分な共有ディスクが存在する場合)。
ボリューム管理ソフトウェアのインストールと構成が行われていることを確認します。
ボリューム管理ソフトウェアのインストール方法については、「Solstice DiskSuite の構成」か 「VxVM ソフトウェアのインストールと構成」を参照してください。
クラスタ内の任意のノードでスーパーユーザーになります。
ファイルシステムを迅速に作成するには、ファイルシステムを作成する広域デバイスの現在の主ノードでスーパーユーザーになります。
newfs(1M) コマンドを使用してファイルシステムを作成します。
# newfs raw-disk-device |
次の表に、引数 raw-disk-device の名前の例を示します。命名規約はボリューム管理ソフトウェアごとに異なるので注意してください。
表 2-7 raw ディスクデバイス名のサンプル
ボリューム管理ソフトウェア |
ディスクデバイス名の例 |
説明 |
---|---|---|
Solstice DiskSuite |
/dev/md/oracle/rdsk/d1 |
oracle ディスクセット内の raw ディスクデバイス d1 |
VERITAS Volume Manager |
/dev/vx/rdsk/oradg/vol01 |
oradg ディスクグループ内の raw ディスクデバイス vol01 |
なし |
/dev/global/rdsk/d1s3 |
raw ディスクデバイス d1s3 |
クラスタ内の各ノードに、クラスタファイルシステムのマウントポイントディレクトリを作成します。
特定のノードではクラスタファイルシステムがアクセスされない場合でも、各ノードにマウントポイントが必要です。
管理を行いやすくするには、マウントポイントを /global/device-group ディレクトリに作成します。この場所を使用することで、広域的に使用できるクラスタファイルシステムと、ローカルファイルシステムを簡単に区別できるようになります。
# mkdir -p /global/device-group/mountpoint |
デバイスが含まれるデバイスグループの名前に対応するディレクトリ名を指定します。
クラスタファイルシステムをマウントするディレクトリ名を指定します。
クラスタ内の各ノードで、マウントポイント用の /etc/vfstab ファイルにエントリを追加します。
以下の必須マウントオプションを使用します。
ロギングはすべてのクラスタファイルシステムに必要です。
Solaris UFS ロギング - マウントオプション global と logging を使用します。UFS マウントオプションの詳細は、mount_ufs(1M) のマニュアルページを参照してください。
syncdir マウントオプションは、UFS クラスタファイルシステムでは必要ありません。syncdir を指定すると、POSIX に準拠したファイルシステムの動作が保証されます。指定しない場合は、UFS ファイルシステムと同じ動作になります。syncdir を指定しないと、ディスクブロックを割り当てる書き込み処理のパフォーマンスを大幅に向上できます (ファイルにデータを追加する場合など)。ただし、場合によっては、syncdir を指定しないと、ファイルを閉じるまで容量不足の状態を検出できません。syncdir を指定しないことで生じる問題はほとんどありません。syncdir (および POSIX 動作) を指定すると、ファイルを閉じる前に容量不足の状態を検出できます。
Solstice DiskSuite トランスメタデバイス - global マウントオプションを使用します (logging マウントオプションは使用しないでください)。トランスメタデバイスの設定方法については、Solstice DiskSuite のマニュアルを参照してください。
クラスタファイルシステムを自動的にマウントするには、「mount at boot」フィールドを「yes」に設定します。
各クラスタファイルシステムで、/etc/vfstab エントリの情報が各ノードで同じになるようにします。
各ノードの /etc/vfstab ファイルのエントリに、デバイスが同じ順序で表示されることを確認します。
ファイルシステムの起動順序の依存関係を確認します。
たとえば、phys-schost-1 が /global/oracle にディスクデバイス d0 をマウントし、phys-schost-2 が /global/oracle/logs にディスクデバイス d1 をマウントするとします。この構成では、phys-schost-1 が起動して /global/oracle をマウントした後にのみ、phys-schost-2 が起動して /global/oracle/logs をマウントできます。
詳細については、vfstab(4) のマニュアルページを参照してください。
クラスタ内の任意のノードで、マウントポイントが存在していること、およびクラスタ内のすべてのノードで /etc/vfstab ファイルのエントリが正しいことを確認します。
# sccheck |
エラーがない場合は、何も表示されません。
クラスタ内の任意のノードから、クラスタファイルシステムをマウントします。
# mount /global/device-group/mountpoint |
クラスタの各ノードで、クラスタファイルシステムがマウントされていることを確認します。
df(1M) または mount(1M) のいずれかのコマンドを使用し、マウントされたファイルシステムの一覧を表示します。
クラスタノードが複数のパブリックサブネットに接続されているかどうかを確認します。
接続されている場合は、「追加のパブリックネットワークアダプタを構成する」へ進み、追加のパブリックネットワークアダプタを構成してください。
接続されていない場合は、「パブリックネットワーク管理 (PNM) を構成する」へ進み、PNM の構成と NAFO グループの設定を行ってください。
次の例では、Solstice DiskSuite メタデバイスの /dev/md/oracle/rdsk/d1 にUFS クラスタファイルシステムが作成されます。
# newfs /dev/md/oracle/rdsk/d1 ... (各ノードで実行) # mkdir -p /global/oracle/d1 # vi /etc/vfstab #device device mount FS fsck mount mount #to mount to fsck point type pass at boot options # /dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs 2 yes global,logging (保存して終了) (1 つのノードで実行) # sccheck # mount /global/oracle/d1 # mount ... /global/oracle/d1 on /dev/md/oracle/dsk/d1 read/write/setuid/global/logging/ largefiles on Sun Oct 3 08:56:16 2000 |
クラスタ内のノードが複数のパブリックサブネットに接続されている場合、2 つ目のサブネット用の追加のパブリックネットワークアダプタを構成できます。この作業は必要に応じて行ってください。
プライベートネットワークアダプタではなく、パブリックネットワークアダプタだけを構成します。
『Sun Cluster 3.0 U1 ご使用にあたって』 の「パブリックネットワークのワークシート」に必要事項を記入したものを用意します。
追加のパブリックネットワークアダプタ用に構成されているノードでスーパーユーザーになります。
/etc/hostname.adapter という名前のファイルを作成します。adapter にはアダプタの名前を指定します。
各 NAFO グループでは、グループ内の 1 つのアダプタに対してだけ /etc/hostname.adapter ファイルが存在する必要があります。
パブリックネットワークアダプタの IP アドレスのホスト名を /etc/hostname.adapter ファイル入力します。
たとえば次のコマンドを実行すると、アダプタ hme3 のファイル /etc/hostname.hme3 の内容が表示され、ホスト名 phys-schost-1 が含まれていることが分かります。
# vi /etc/hostname.hme3 phys-schost-1 |
各クラスタノードで、/etc/inet/hosts ファイルに、パブリックネットワークアダプタに割り当てられている IP アドレスとその対応ホスト名が含まれることを確認します。
たとえば、次は、phys-schost-1 のエントリの例です。
# vi /etc/inet/hosts ... 192.29.75.101 phys-schost-1 ... |
ネームサービスを使用する場合は、この情報がネームサービスデータベースにも存在している必要があります。
各クラスタノードで、アダプタをオンに設定します。
# ifconfig adapter plumb # ifconfig adapter hostname netmask + broadcast + -trailers up |
アダプタが正しく構成されていることを確認します。
# ifconfig adapter |
出力には、アダプタの正しい IP アドレスが含まれています。
PNM の構成と NAFO グループの設定を行います。
「パブリックネットワーク管理 (PNM) を構成する」に進みます。
Resource Group Manager (RGM) で管理する各パブリックネットワークアダプタは、NAFO グループに属している必要があります。
クラスタの各ノードで次の作業を行います。
パブリックネットワークアダプタは、すべて NAFO グループに属している必要があります。また、各ノードでは、サブネットごとに 1 つの NAFO グループだけを使用できます。
『Sun Cluster 3.0 U1 ご使用にあたって』の「パブリックネットワークのワークシート」に必要事項を記入したものを用意します。
NAFO グループ用に構成されているノードでスーパーユーザーになります。
NAFO グループを作成します。
# pnmset -c nafo-group -o create adapter [adapter ...] |
NAFO グループ nafo_group を構成します。
1 つまたは複数のパブリックネットワークアダプタが含まれる新しい NAFO を作成します。
詳細については、pnmset(1M) のマニュアルページを参照してください。
NAFO グループの状態を確認します。
# pnmstat -l |
詳細については、pnmstat(1M) のマニュアルページを参照してください。
プライベートホスト名を変更するかどうかを決定します。
変更する場合は、「プライベートホスト名を変更する」へ進んでください。
変更しない場合は、「Network Time Protocol (NTP) を更新する」へ進み、/etc/inet/ntp.conf ファイルを更新してください。
次の例では、パブリックネットワークアダプタ qfe1 および qfe5 を使用する NAFO グループ nafo0 を作成します。
# pnmset -c nafo0 -o create qfe1 qfe5 # pnmstat -l group adapters status fo_time act_adp nafo0 qfe1:qfe5 OK NEVER qfe5 nafo1 qfe6 OK NEVER qfe6 |
次の作業は、Sun Cluster ソフトウェアのインストール中に割り当てられるデフォルトのプライベートホスト名 (clusternodenodeid-priv) を使用しない場合に実行します。
この手順は、アプリケーションとデータサービスの構成および起動後には実行しないでください。アプリケーションやデータサービスは、名前の変更後も引き続き古いプライベートホスト名を使用することがあり、この手順を実行するとホスト名の衝突が発生します。アプリケーションやデータサービスが実行中の場合は、この手順を実行する前に停止しておいてください。
クラスタ内の 1 つのノードのスーパーユーザになります。
scsetup(1M) ユーティリティを起動します。
# scsetup |
プライベートホスト名に対して作業を行うには、5 (Private hostnames) を入力します。
プライベートホスト名を変更するには、1 (Change a private hostname) を入力します。
プロンプトに従って、プライベートホスト名を変更します。変更するプライベートホスト名ごとに繰り返します。
新しいプライベートホスト名を確認します。
# scconf -pv | grep "private hostname" (phys-schost-1) Node private hostname: phys-schost-1-priv (phys-schost-3) Node private hostname: phys-schost-3-priv (phys-schost-2) Node private hostname: phys-schost-2-priv |
/etc/inet/ntp.conf ファイルを更新します。
各ノードで次の作業を行います。
クラスタノードでスーパーユーザーになります。
/etc/inet/ntp.conf ファイルを編集します。
scinstall(1M) コマンドは、標準的なクラスタインストールの一部として、テンプレートファイル ntp.cluster を /etc/inet/ntp.conf にコピーします。ただし、Sun Cluster ソフトウェアをインストールする前に ntp.conf ファイルがすでに存在している場合は、既存のファイルは変更されません。pkgadd(1M) を直接使用するなど、その他の方法でクラスタパッケージをインストールした場合は、NTP の構成が必要です。
クラスタで使用されていないすべてのプライベートホスト名を削除します。
存在しないプライベートホスト名が ntp.conf ファイルに含まれている場合、ノードを再起動したときにそれらのプライベートホスト名に接続しようとすると、エラーメッセージが表示されます。
Sun Cluster ソフトウェアのインストール後にプライベートホスト名を変更した場合は、各ファイルのエントリを新しいプライベートホスト名に更新します。
必要に応じて、NTP の必要条件を満たすようにその他の変更を加えます。
クラスタ内で NTP や時刻同期機能を構成する際の第一の必要条件は、すべてのクラスタノードを同じ時刻に同期させることです。ノード間の時刻の同期に続き、個々のノードの時間の精度を考慮します。NTP は、この基本的な同期必要条件を満たしている限り、目的に合わせて自由に構成できます。
クラスタの時刻の詳細については『Sun Cluster 3.0 U1 の概念』を、 Sun Cluster 構成のために NTP を構成する場合のガイドラインについては ntp.cluster テンプレートを参照してください。
NTP デーモンを再起動します。
# /etc/init.d/xntpd stop # /etc/init.d/xntpd start |
Sun Management Center を使用し、リソースグループの構成やクラスタの監視を行うかどうかを決定します。
このソフトウェアを使用してこれらの作業を行う場合は、「Sun Management Center 用の Sun Cluster モジュールのインストール」へ進んでください。
このソフトウェアを使用しない場合は、ほかのアプリケーションのインストール、リソースタイプの登録、リソースグループの設定、データサービスの構成をそれぞれ行ってください。アプリケーションソフトウェアに付属のマニュアルと『Sun Cluster 3.0 U1 データサービスのインストールと構成』を参照してください。
次の表に、Sun Management Center 用の Sun Cluster モジュールソフトウェアをインストールするために実行する作業を示します。
表 2-8 作業マップ : Sun Management Center 用の Sun Cluster モジュールのインストール
作業 |
参照箇所 |
---|---|
Sun Management Center サーバー、ヘルプサーバー、エージェント、コンソールパッケージをインストールする |
Sun Management Center のマニュアル |
Sun Cluster モジュールパッケージをインストールする | |
Sun Management Center サーバー、コンソール、エージェントプロセスを起動する | |
各クラスタノードを Sun Management Center エージェントホストオブジェクトとして追加する | |
Sun Cluster モジュールを読み込んで、クラスタの監視を開始する |
Sun Management Center (以前の名称は Sun Enterprise SyMON) の Sun Cluster モジュールは、リソースグループの構成とクラスタの監視をするために使用されます。Sun Cluster モジュールパッケージをインストールする前に、以下の必要条件を確認してください。
容量- Sun Cluster モジュールパッケージ用に、各クラスタノードに 25M バイトの容量があることを確認します。
Sun Management Center パッケージ - クラスタ以外のノードに、Sun Management Center サーバー、ヘルプサーバー、コンソールパッケージをインストールする必要があります。管理コンソールやその他の専用マシンを使用している場合は、管理コンソール上でコンソールを実行し、別のマシン上でサーバーを実行することで、パフォーマンスを向上できます。各クラスタノードに Sun Management Center エージェントパッケージをインストールする必要があります。
Sun Management Center のマニュアルに記載された手順に従って、Sun Management Center パッケージをインストールします。
Simple Network Management Protocol (SNMP) ポート - エージェント上に Sun Management Center をインストールするときは、エージェント (SNMP) の通信にデフォルトの 161、または他の番号のどちらを使用するかを選択します。このポート番号によって、サーバーはこのエージェントと通信できるようになります。後で監視用のクラスタを構成するときに参照できるように、選択したポート番号を控えておいてください。
以下の手順を実行して、Sun Cluster モジュールコンソール、サーバー、ヘルプサーバーパッケージをインストールします。
Sun Cluster モジュールエージェントパッケージ (SUNWscsal および SUNWscsam) は、Sun Cluster ソフトウェアのインストール中にクラスタノードに追加されています。
Sun Management Center のコアパッケージがインストールされていることを確認します。
この手順には、各クラスタノードへの Sun Management Center エージェントパッケージのインストールが含まれます。インストール方法については、Sun Management Center のマニュアルを参照してください。
管理コンソールで、Sun Cluster モジュールコンソールパッケージをインストールします。
サーバーマシンに、Sun Cluster モジュールサーバーパッケージである SUNWscssv をインストールします。
手順 2 と同じ手順を実行します。
ヘルプサーバーマシンに、Sun Cluster モジュールヘルプサーバーパッケージである SUNWscshl をインストールします。
手順 2 と同じ手順を実行します。
Sun Cluster モジュールパッチをインストールします。
パッチの入手方法とインストール方法については、『Sun Cluster 3.0 U1 ご使用にあたって』を参照してください。
Sun Management Center を起動します。
次の手順を実行して、Sun Management Center サーバー、エージェント、コンソールプロセスを起動します。
スーパーユーザとして、Sun Management Center サーバーマシンで Sun Management Center サーバープロセスを起動します。
# /opt/SUNWsymon/sbin/es-start -S |
スーパーユーザとして、各 Sun Management Center エージェントマシン (クラスタノード) ごとに Sun Management Center エージェントプロセスを起動します。
# /opt/SUNWsymon/sbin/es-start -a |
Sun Management Center コンソールマシン (管理コンソール) で Sun Management Center コンソールを起動します。
コンソールプロセスを起動するには、スーパーユーザである必要はありません。
% /opt/SUNWsymon/sbin/es-start -c |
ログイン名、パスワード、サーバーのホスト名を入力し、「Login」をクリックします。
クラスタノードを監視対象のホストオブジェクトとして追加します。
「クラスタノードを Sun Management Center エージェントホストオブジェクトとして追加する」に進みます。
次の手順を実行して、クラスタノードの Sun Management Center エージェントホストオブジェクトを作成します。
Sun Cluster モジュールの監視および構成機能を使用するには、クラスタ全体で必要なクラスタノードホストオブジェクトは、1 つだけです。ただし、そのクラスタノードが利用不能になると、ホストオブジェクトを通じてクラスタと接続することもできなくなります。したがって、クラスタに再接続するには、別のクラスタノードホストオブジェクトが必要となります。
Sun Management Center のメインウィンドウで、「Sun Management Center Administrative Domains」プルダウンリストからドメインを選択します。
作成する Sun Management Center エージェントホストオブジェクトがこのドメインに格納されます。Sun Management Center ソフトウェアのインストール中に、「Default Domain」が自動的に作成されています。このドメインを使用するか、別の既存のドメインを選択するか、新しいドメインを作成します。
Sun Management Center ドメインの作成方法については、Sun Management Center のマニュアルを参照してください。
プルダウンメニューから「Edit」>「Create an Object」の順に選択します。
「Node」タブを選択します。
「Monitor via」プルダウンリストから、「Sun Management Center Agent - Host」を選択します。
「Node Label」および「Hostname」テキストフィールドにクラスタノードの名前 (phys-schost-1 など) を入力します。
「IP」テキストフィールドは空白のままにしておきます。「Description」テキストフィールドはオプションです。
「Port」テキストフィールドに、Sun Management Center エージェントのインストール時に選択したポート番号を入力します。
「OK」をクリックします。
ドメインに Sun Management Center エージェントホストオブジェクトが作成されます。
Sun Cluster モジュールを読み込みます。
「Sun Cluster モジュールを読み込む」に進みます。
次の手順を実行して、クラスタ監視機能を起動します。
Sun Management Center のメインウィンドウで、クラスタノードのアイコンを選択してマウスの右ボタンをクリックします。表示されたプルダウンメニューから、「Load Module」を選択します。
「Load Module」ウィンドウに、利用可能な各 Sun Management Center モジュールと、そのモジュールが現在読み込まれているかどうかが表示されます。
通常はリストの最下位にある「Sun Cluster: Not loaded」を選択し、「OK」をクリックします。
「Module Loader」ウィンドウに、選択したモジュールの現在のパラメータ情報が表示されます。
「OK」をクリックします。
モジュールが読み込まれ、「Details」ウィンドウに Sun Cluster のアイコンが表示されます。
「Details」ウィンドウの「Operating System」カテゴリで、以下のいずれかの方法で Sun Cluster サブツリーを展開します。
ウィンドウ左側のツリー階層で、カーソルを Sun Cluster モジュールのアイコンに合わせ、マウスのセレクトボタンをクリックします。
ウィンドウ右側のトポロジ表示領域で、カーソルを Sun Cluster モジュールのアイコンに合わせ、マウスのセレクトボタンをダブルクリックします。
Sun Cluster モジュールの機能の使用方法については、Sun Cluster モジュールのオンラインヘルプを参照してください。
Sun Cluster モジュールの特定の項目のオンラインヘルプを参照するには、その項目にカーソルを合わせてマウスのメニューボタンをクリックし、ポップアップメニューから「Help」を選択します。
Sun Cluster モジュールのオンラインヘルプのホームページにアクセスするには、「Cluster Info」アイコンにカーソルを合わせてマウスのメニューボタンをクリックし、ポップアップメニューから「Help」を選択します。
Sun Cluster モジュールのオンラインヘルプのホームページに直接アクセスするには、「Sun Management Center Help」ボタンをクリックしてヘルプブラウザを起動し、file:/opt/SUNWsymon/lib/locale/C/help/main.top.html にアクセスします。
Sun Management Center ブラウザの「Help」ボタンをクリックすると、Sun Cluster モジュールに固有のトピックではなく、Sun Management Center オンラインヘルプにアクセスします。
Sun Management Center の使用方法については、Sun Management Center オンラインヘルプおよび Sun Management Center のマニュアルを参照してください。
他のアプリケーションのインストール、リソースタイプの登録、リソースグループの設定、データサービスの構成をそれぞれ行います。アプリケーションソフトウェアに付属のマニュアルと『Sun Cluster 3.0 U1 データサービスのインストールと構成』を参照してください。