Sun Cluster 3.0 ソフトウェアのインストール

第 2 章 Sun Cluster ソフトウェアのインストールと構成

この章では、クラスタのインストールおよび構成手順を順を追って説明します。

この章の内容は、次のとおりです。

ソフトウェアのインストール

インストールを始める前に、クラスタ構成とインストールの準備に関して次のマニュアルを参照してください。

次の表に、ソフトウェアのインストール時に実行する作業を示します。

表 2-1 作業マップ : ソフトウェアのインストール

作業 

参照箇所 

クラスタ構成のレイアウトを計画する。 

第 1 章「Sun Cluster 構成の計画」および『Sun Cluster 3.0 ご使用にあたって 』のワークシートの記入例

(任意) 管理コンソールに Cluster Control Panel (CCP) ソフトウェアをインストールする。

「Cluster Control Panel ソフトウェアを管理コンソールにインストールする」

以下のいずれかの方法で、Solaris オペレーティング環境および Sun Cluster ソフトウェアをインストールする。 

 

 

方法 1 - Solaris ソフトウェアをインストールしてから、scinstall ユーティリティーを使用して Sun Cluster ソフトウェアをインストールする。

「Solaris オペレーティング環境をインストールする」および 「Sun Cluster ソフトウェアのインストールと新しいクラスタノードの設定を行う」

方法 2 - scinstall ユーティリティのカスタム JumpStart オプションを使用し、Solaris ソフトウェアと Sun Cluster ソフトウェアを 1 回の操作でインストールする。

「JumpStart による Solaris オペレーティング環境のインストールと新しいクラスタノードの設定」

ネームサービスの参照順序を構成する。 

「ネームサービススイッチを構成する」

ボリューム管理ソフトウェアをインストールする。 

 

 

Solstice DiskSuite ソフトウェアをインストールする。 

「Solstice DiskSuite ソフトウェアをインストールする」および Solstice DiskSuite のマニュアル。

VERITAS Volume Manager ソフトウェアをインストールする。 

「VERITAS Volume Manager ソフトウェアをインストールする」および VERITAS Volume Manager のマニュアル。

ディレクトリパスを設定する。 

 

「root ユーザーの環境を設定する」

データサービスソフトウェアパッケージをインストールする。 

 

「データサービスソフトウェアパッケージをインストールする」

クラスタを構成する。 

 

「クラスタの構成」

Cluster Control Panel ソフトウェアを管理コンソールにインストールする

この手順では、管理コンソールに Cluster Control Panel (CCP) ソフトウェアをインストールする方法を説明します。CCP により、cconsole(1M)、ctelnet(1M)、crlogin(1M) の各ツールを起動できます。これらの各ツールは、一連のノードとの多重ウィンドウ接続に加え、すべてのノードに入力を一括送信する共通ウィンドウも備えています。

管理コンソールには、Solaris 8 オペレーティング環境が動作する任意のデスクトップマシンを使用できます。また、管理コンソール/サーバー、および AnswerBook サーバーとして使用することもできます。Sun Management Center ソフトウェアのインストールの詳細については、Sun Management Center のマニュアルを参照してください。AnswerBook サーバーのインストールの詳細については、『Sun Cluster 3.0 ご使用にあたって』を参照してください。


注 -

管理コンソールの使用は必須ではありません。管理コンソールを使用しない場合は、クラスタ内の特定のノードから管理作業を行います。


  1. 管理コンソール用としてに、Solaris 8 オペレーティング環境と Solaris パッチをインストールしたマシンを用意します。

    少なくとも「エンドユーザーシステムサポート」ソフトウェアグループがインストールされた Solaris 8 が、すべてのプラットフォームで必要です。

  2. CD-ROM からインストールする場合は、管理コンソール用のマシンの CD-ROM ドライブに Sun Cluster 3.0 CD-ROM を挿入します。

    ボリューム管理デーモン vold(1M) が実行されており、CD-ROM デバイスを管理するように構成されている場合は、CD-ROM は自動的に /cdrom/suncluster_3_0 ディレクトリにマウントされます。

  3. /cdrom/suncluster_3_0/SunCluster_3.0/Packages ディレクトリに移動します。


    # cd /cdrom/suncluster_3_0/SunCluster_3.0/Packages
    
  4. SUNWccon パッケージをインストールします。


    # pkgadd -d . SUNWccon
    
  5. (省略可能) SUNWscman パッケージをインストールします。


    # pkgadd -d . SUNWscman
    

    管理コンソールに SUNWscman パッケージをインストールすることで、クラスタノードに Sun Cluster ソフトウェアをインストールする前に、管理コンソールから Sun Cluster のマニュアルページを参照できるようになります。

  6. CD-ROM から インストールした場合は、CD-ROM を取り出します。

  7. /etc/clusters ファイルを作成します。

    クラスタ名と、各クラスタノードの物理ノード名をファイルに追加します。


    # vi /etc/clusters
    clustername node1 node2
    

    詳細は、/opt/SUNWcluster/bin/clusters(4) のマニュアルページを参照してください。

  8. /etc/serialports ファイルを作成します。

    各クラスタノードの物理ノード名、端末集配信装置 (コンセントレータ: TC) 名またはシステムサービスプロセッサ (SSP) 名、シリアルポート番号をファイルに追加します。


    注 -

    /etc/serialports ファイルのシリアルポート番号には、物理ポート番号ではなく telnet(1) ポート番号を使用してください。シリアルポート番号は、物理ポート番号に 5000 を加えた値です。たとえば、物理ポート番号が 6 の場合、シリアルポート番号は 5006 になります。



    # vi /etc/serialports
    node1 TC_hostname 500n
    node2 TC_hostname 500n
    

    詳細と、Sun Enterprise E10000 サーバーについて特に注意する点については、/opt/SUNWcluster/bin/serialports(4) のマニュアルページを参照してください。

  9. 利便性を考慮し、 /opt/SUNWcluster/bin ディレクトリを PATH 環境変数に、/opt/SUNWcluster/man ディレクトリを管理コンソールの MANPATH 環境変数にそれぞれ追加します。

    SUNWscman パッケージをインストールした場合は、/usr/cluster/man ディレクトリも MANPATH に追加します。

  10. CCP ユーティリティーを起動します。


    # /opt/SUNWcluster/bin/ccp clustername
    

    CCP の詳細については、『Sun Cluster 3.0 のシステム管理』の Sun Cluster に遠隔ログインする手順についての説明と、/opt/SUNWcluster/bin/ccp(1M) のマニュアルページを参照してください。

次の作業

Solaris ソフトウェアをインストールする場合は、「Solaris オペレーティング環境をインストールする」 に進んでください。scinstall カスタム JumpStart オプションを使用し、Solaris と Sun Cluster ソフトウェアをインストールする場合は、「JumpStart による Solaris オペレーティング環境のインストールと新しいクラスタノードの設定」 に進んでください。

Solaris オペレーティング環境をインストールする

scinstall(1M) のカスタム JumpStart のインストールによる方法でソフトウェアをインストールしない場合は、クラスタ内の各ノードでこの作業を行います。

  1. Solaris ソフトウェアをインストールする前にハードウェアの設定が完了していることと接続が正しいことを確認します。

    詳細は、『Sun Cluster 3.0 Hardware Guide』およびサーバーと記憶装置のマニュアルを参照してください。

  2. クラスタの各ノードで、local-mac-address 変数が false に正しく設定されていることを確認します。


    # /usr/sbin/eeprom local-mac-address?
    
    • コマンドを実行して local-mac-address=false と表示された場合、変数は正しく設定されています。手順 3 に進んでください。

    • コマンドを実行して local-mac-address=true と表示された場合は、設定を false に変更します。


    # /usr/sbin/eeprom local-mac-address?=false
    

    新しい設定は、次回システムを再起動したときに有効になります。

  3. Sun Cluster 3.0 ご使用にあたって』の「ローカルファイルシステム配置のワークシート」に必要事項を記入したものを用意します。

  4. ネームサービスを更新します。

    すべてのパブリックホスト名と論理アドレスのアドレスと名前のマッピングを、クライアントがクラスタサービスにアクセスするために使用するネームサービス (NIS、NIS+、DNS など) に追加します。計画のガイドラインについては、「IP アドレス」を参照してください。

    また、「ネームサービススイッチを構成する」の手順を参照し、各ノードのローカル /etc/inet/hosts ファイルにもこれらのアドレスを追加します。

  5. クラスタ管理コンソールを使用している場合は、クラスタ内の各ノードにコンソール画面を表示します。

    管理コンソールで Cluster Control Panel がインストールおよび構成されている場合は、cconsole(1M) ユーティリティーを使用して個々のコンソール画面を表示できます。それ以外の場合は、コンソールを各ノードに個別にインストールする必要があります。

    Solaris オペレーティング環境を各ノードに同時にインストールすることもできます。すべてのノードに一度にインストールするには、cconsole ユーティリティーを使用します。

  6. 既存のクラスタに新しいノードをインストールするかどうかを決定します。

    • インストールしない場合は、手順 7 に進んでください。

    • インストールする場合は、次の手順に従ってクラスタ内の各クラスタファイルシステムにマウントポイントを作成します。

    1. クラスタ内の別のアクティブなノードから、すべてのクラスタファイルシステムの名前を表示します。


      % mount | grep global | egrep -v node@ | awk '{print $1}'
      
    2. クラスタに追加するノードで、クラスタ内の各クラスタファイルシステムにマウントポイントを作成します。


      % mkdir -p mountpoint
      

      たとえば、mount コマンドで表示されるファイルシステム名が /global/dg-schost-1 の場合は、クラスタに追加するノードで mkdir -p /global/dg-schost-1 を実行します。

  7. Solaris のインストールマニュアルの指示に従って、Solaris オペレーティング環境をインストールします。


    注 -

    同一クラスタ内のノードはすべて、同じバージョンの Solaris オペレーティング環境である必要があります。


    Solaris オペレーティング環境の一般的なインストール方法で、クラスタ環境にインストールする新しいノードにソフトウェアをインストールできます。これらの方法には、Solaris 対話式インストールプログラム、Solaris JumpStart、Solaris Web Start などがあります。

    インストールの間に以下の作業を行います。

    • 少なくとも「エンドユーザーシステムサポート」ソフトウェアグループをインストールします。Apache HTTP サーバーパッケージなどの、「エンドユーザーシステムサポート」ソフトウェアグループに含まれない他の Solaris ソフトウェアパッケージをインストールする必要がある場合があります。Oracle などの Sun 以外のソフトウェアでも、追加の Solaris パッケージが必要になる場合があります。Solaris ソフトウェアの必要条件については、各製品のマニュアルを参照してください。


      注 -

      Sun Enterprise E10000 サーバーでは、「全体ディストリビューションプラス OEM」ソフトウェアグループが必要になります。


    • マウントポイントを /globaldevices に設定した 100M バイト以上のファイルシステムと、ボリューム管理ソフトウェアのサポートに必要なファイルシステムパーティションを作成します。詳細については、「システムディスクパーティション」のパーティション分割のガイドラインを参照してください。


      注 -

      Sun Cluster ソフトウェアを正しくインストールするには、/globaldevices ファイルシステムが必要です。


    • 省電力自動停止機能を有効にするかどうかの問い合わせには、「no」と答えます。Sun Cluster 構成では、自動停止機能を無効にする必要があります。詳細については、pmconfig(1M) および power.conf(4) のマニュアルページを参照してください。

    • 管理を行いやすくするため、各ノードに同じ root パスワードを設定します。


    注 -

    Solaris のインタフェースグループ機能は、Solaris ソフトウェアのインストール中にデフォルトで無効に設定されます。インタフェースグループは Sun Cluster 構成ではサポートされていないため、有効にしないでください。Solaris インタフェースグループの詳細については、ifconfig(1M) のマニュアルページを参照してください。


  8. Solaris 用のソフトウェアパッチをインストールします。

    パッチの入手方法とインストール方法については、『Sun Cluster 3.0 ご使用にあたって』を参照してください。

  9. ハードウェア関連のパッチをインストールし、ハードウェアパッチに含まれる必要なファームウェアをダウンロードします。

    パッチの入手方法とインストール方法については、『Sun Cluster 3.0 ご使用にあたって』を参照してください。

次の作業

「Sun Cluster ソフトウェアのインストールと新しいクラスタノードの設定を行う」に進み、クラスタノードに Sun Cluster ソフトウェアをインストールします。

Sun Cluster ソフトウェアのインストールと新しいクラスタノードの設定を行う

Solaris オペレーティング環境をインストールしたら、クラスタの各ノードで次の作業を行います。


注 -

scinstall(1M) カスタム JumpStart でソフトウェアをインストールした場合は、Sun Cluster ソフトウェアは既にインストールされています。「ネームサービススイッチを構成する」に進んでください。


  1. Sun Cluster 3.0 ご使用にあたって』の以下のワークシートに必要事項を記入したものを用意します。

    • 「クラスタ名とノード名のワークシート」

    • 「クラスタインターコネクトのワークシート」

    計画のガイドラインについては、第 1 章「Sun Cluster 構成の計画」を参照してください。

  2. クラスタノードでスーパーユーザーになります。

  3. CD-ROM からインストールする場合は、インストールと構成を行うノードの CD-ROM ドライブに Sun Cluster 3.0 CD-ROM を挿入します。

    ボリューム管理デーモン vold(1M) が実行されており、CD-ROM デバイスを管理するように構成されている場合は、CD-ROM は自動的に /cdrom/suncluster_3_0 ディレクトリにマウントされます。

  4. /cdrom/suncluster_3_0/SunCluster_3.0/Tools ディレクトリに移動します。


    # cd /cdrom/suncluster_3_0/SunCluster_3.0/Tools
    
  5. scinstall(1M) ユーティリティーを起動します。


    # ./scinstall
    

    対話形式の scinstall ユーティリティーを使用するときは、以下のガイドラインに従ってください。

    • 対話形式の scinstall では先打ち入力が可能です。したがって、次のメニュー画面がすぐに表示されなくても、何度も Return キーを押さないでください。

    • 特に指定がない場合は、Control-D キーを押すと、関連のある一連の質問の最初、またはメインメニューに戻ります。

    • セッションでの回答内容は、そのメニューオプションを次回実行したときのデフォルトとして格納されます。

    • ノードがクラスタモードで正常に起動するまでは、scinstall を再度実行し、必要に応じて構成情報を変更できます。ただし、不正なノード構成データが、クラスタに設定されてしまった場合は、最初にその不正な情報を削除しておく必要があります。不正な情報を削除するには、アクティブなクラスタノードの 1 つにログオンし、scsetup(1M) ユーティリティーを使用して、不正なアダプタ、接続中継点、またはケーブル情報を削除します。

  6. 最初のノードをインストールして新しいクラスタを設定するため、1 (Establish a new cluster) を入力します。

    プロンプトに従い、構成計画ワークシートの情報を使って Sun Cluster ソフトウェアをインストールします。以下の情報を入力するよう求められます。

    • クラスタ名

    • このクラスタに加わるその他のノードの名前

    • ノードの認証

    • プライベートネットワークアドレスとネットマスク - クラスタが正しく構成された後では、プライベートネットワークアドレスは変更できません。

    • クラスタインターコネクト (トランスポートアダプタとトランスポート中継点) - scinstall コマンドで複数のアダプタは構成できませんが、後で scsetup ユーティリティーを使用して複数のアダプタを構成できます。

    • 広域デバイスのファイルシステム名

    • 自動再起動 - Sun Cluster ソフトウェアパッチをインストールする場合は、自動再起動を選択しないでください。

    これらの情報を入力し終えると、scinstall コマンドにより確認が求められます。このコマンドを受け入れないように選択した場合は、scinstall ユーティリティーはメインメニューに戻ります。メニュー 1 を再度実行して、異なる情報を指定できます。前に入力したエントリがデフォルトの値として表示されます。


    注 -

    独自の /etc/inet/ntp.conf ファイルがインストールされていない場合は、scinstall コマンドによってデフォルトの ntp.conf ファイルが自動的にインストールされます。このデフォルトファイルは、出荷時には 8 個のノードを参照する状態になっているため、起動時に xntpd(1M) で一部の参照に関してエラーメッセージが表示される場合があります。これらのメッセージは無視しても問題ありません。通常のクラスタ条件下でこれらのメッセージを表示しないようにする方法については、「Network Time Protocol (NTP) を更新する」を参照してください。


  7. クラスタの 2 番目のノードをインストールするために、2 (Add this machine as a node) を入力します。

    この手順は、最初のノードのインストール中に開始できます。

    プロンプトに従い、構成計画ワークシートの情報に従って Sun Cluster ソフトウェアをインストールします。以下の情報を入力します。

    • スポンサーノードと呼ばれる既存のクラスタノードの名前

    • クラスタ名

    • クラスタインターコネクト (トランスポートアダプタとトランスポート中継点)

    • 広域デバイスのファイルシステム名

    • 自動再起動 - Sun Cluster ソフトウェアパッチをインストールする場合は、自動再起動を選択しないでください。

    これらの情報を入力し終えると、scinstall コマンドにより確認が求められます。このコマンドを受け入れないように選択した場合は、scinstall ユーティリティーはメインメニューに戻ります。メニュー 2 を再度実行して、異なる情報を指定できます。前に入力したエントリがデフォルトの値として表示されます。

    インストールを続行するよう選択して、スポンサーノードがまだ設定されていない場合、scinstall は、スポンサーノードが利用可能になるまで待機します。

  8. すべてのノードを完全に構成し、各追加ノードに対して 手順 7 を繰り返します。

    追加のノードへのインストールを開始する際に、2 番目のノードのインストールが完了するのを待つ必要はありません。

  9. Sun Cluster 用のソフトウェアパッチをインストールします。

    パッチの入手方法とインストール方法については、『Sun Cluster 3.0 ご使用にあたって』を参照してください。

  10. Sun Cluster ソフトウェアパッチをインストールしたら、そのクラスタを停止し、クラスタの各ノードを再起動します。

    クラスタの最初のノードを再起動する前に、scshutdown コマンドを使用してそのクラスタを停止します。クラスタノードをインストールモードから削除するまでは、定足数 (quorum) の確立に使用される票 (quorum vote) は、クラスタを形成する最初のノード (スポンサーノード) にしかありません。形成されたクラスタがまだインストールモードにあり、最初のノードが再起動される前にクラスタが停止していない場合、残りのクラスタは定足数を得られず、クラスタ全体が停止します。

    クラスタノードは、「インストール後設定を行う」 の手順で scsetup(1M) コマンドを最初に実行するまでは、インストールモードのままです。

例 - Sun Cluster ソフトウェアのインストール

次に、scinstall によって、ノード phys-schost-1 のインストール作業が完了したときに表示される進行状況メッセージの例を示します。このノードは、クラスタにインストールする最初のノードです。


** Installing SunCluster 3.0 **
        SUNWscr.....done.
        SUNWscdev...done.
        SUNWscu.....done.
        SUNWscman...done.
        SUNWscsal...done.
        SUNWscsam...done.
        SUNWscrsmop.done.
        SUNWsci.....done.
        SUNWscid....done.
        SUNWscidx...done.
        SUNWscvm....done.
        SUNWmdm.....done.
 
Initializing cluster name to "sccluster" ... done
Initializing authentication options ... done
Initializing configuration for adapter "hme2" ... done
Initializing configuration for adapter "hme4" ... done
Initializing configuration for junction "switch1" ... done
Initializing configuration for junction "switch2" ... done
Initializing configuration for cable ... done
Initializing configuration for cable ... done
Setting the node ID for "phys-schost-1" ... done (id=1)
 
Checking for global devices global file system ... done
Checking device to use for global devices file system ... done
Updating vfstab ... done
 
Verifying that NTP is configured ... done
Installing a default NTP configuration ... done
Please complete the NTP configuration after scinstall has finished.
 
Verifying that "cluster" is set for "hosts" in nsswitch.conf ... done
Adding the "cluster" switch to "hosts" in nsswitch.conf ... done
 
Verifying that "cluster" is set for "netmasks" in nsswitch.conf ... done
Adding the "cluster" switch to "netmasks" in nsswitch.conf ... done
 
Verifying that power management is NOT configured ... done
Unconfiguring power management ... done
/etc/power.conf has been renamed to /etc/power.conf.060199105132
Power management is incompatible with the HA goals of the cluster.
Please do not attempt to re-configure power management.
 
Ensure routing is disabled ... done
Network routing has been disabled on this node by creating /etc/notrouter.
Having a cluster node act as a router is not supported by Sun Cluster.
Please do not re-enable network routing.
 
Log file - /var/cluster/logs/install/scinstall.log.276
 
Rebooting ... 

次の作業

「ネームサービススイッチを構成する」に進み、ネームサービスの参照順序を設定します。

JumpStart による Solaris オペレーティング環境のインストールと新しいクラスタノードの設定

以下の手順を実行して、カスタム JumpStart によるインストール方法で、Solaris オペレーティング環境と Sun Cluster ソフトウェアをすべてのクラスタノードに一度の操作でインストールします。

  1. Solaris ソフトウェアをインストールする前に、ハードウェアの設定が完了していることと接続が正しいことを確認します。

    ハードウェアの設定の詳細については、『Sun Cluster 3.0 Hardware Guide』およびサーバーと記憶装置のマニュアルを参照してください。

  2. クラスタの各ノードで、local-mac-address 変数が false に正しく設定されていることを確認します。


    # /usr/sbin/eeprom local-mac-address?
    
    • コマンドを実行して local-mac-address=false と表示された場合、変数は正しく設定されています。手順 3 に進んでください。

    • コマンドを実行して local-mac-address=true と表示された場合は、設定を false に変更します。


      # /usr/sbin/eeprom local-mac-address?=false
      

      新しい設定は、次回システムを再起動したときに有効になります。

  3. 以下の情報を用意します。

    • 各クラスタノードの Ethernet アドレス

    • Sun Cluster 3.0 ご使用にあたって』のワークシートに必要事項を記入したもの

      • 「ローカルファイルシステム配置のワークシート」

      • 「クラスタとノード名のワークシート」

      • 「クラスタインターコネクトのワークシート」

    計画のガイドラインについては、第 1 章「Sun Cluster 構成の計画」を参照してください。

  4. ネームサービスを更新します。

    すべてのパブリックホスト名と論理アドレスのアドレスと名前のマッピングのほかに、JumpStart サーバーの IP アドレスとホスト名も、クライアントがクラスタサービスへのアクセスに使用するネームサービス (NIS、NIS+、DNS など) に追加します。計画のガイドラインについては、「IP アドレス」を参照してください。「ネームサービススイッチを構成する」の手順で各ノードのローカルの /etc/inet/hosts ファイルにもこれらのアドレスを追加します。


    注 -

    ネームサービスを使用しない場合は、JumpStart インストールサーバー上で、クラスタの各ノードに 1 つずつ jumpstart-dir/autoscinstall.d/nodes/nodename/archive/etc/inet/hosts ファイルを作成します。nodename にはクラスタのノードの名前を指定します。これらのファイルにアドレスと名前のマッピングを追加します。


  5. スーパーユーザーで、Solaris オペレーティング環境のインストール用に JumpStart インストールサーバーを設定します。

    JumpStart インストールサーバーの設定方法については、setup_install_server(1M) と add_install_client(1M) のマニュアルページ、および『Solaris のインストール (上級編)』を参照してください。

    インストールサーバーを設定するときは、以下の要件が満たされていることを確認します。

    • インストールサーバーはクラスタノードと同じサブネット上にあるが、それ自体はクラスタノードではない。

    • インストールサーバーによって、Sun Cluster ソフトウェアに必要な Solaris オペレーティング環境のリリースがインストールされる。

    • Sun Cluster の JumpStart インストール用にカスタム JumpStart ディレクトリが存在する (この jumpstart-dir ディレクトリには、check(1M) ユーティリティーのコピーが含まれており、JumpStart インストールサーバーで読み取れるように NFS によってエクスポートされている必要があります)。

    • 各新規クラスタノードが、Sun Cluster のインストール用のカスタム JumpStart ディレクトリ設定を使用する、カスタム JumpStart インストールクライアントとして構成されている。

  6. (省略可能) JumpStart インストールサーバーに、Sun Cluster および Sun Cluster データサービス CD-ROM のコピーを格納する ディレクトリを作成します。

    次の例では、このために /export/suncluster ディレクトリを作成します。


    # mkdir -m 755 /export/suncluster
    
  7. Sun Cluster CD-ROM を JumpStart インストールサーバーにコピーします。

    1. JumpStart インストールサーバーの CD-ROM ドライブに Sun Cluster 3.0 CD-ROM を挿入します。

      ボリューム管理デーモン vold(1M) が実行されており、CD-ROM デバイスを管理するように構成されている場合は、CD-ROM は自動的に /cdrom/suncluster_3_0 ディレクトリにマウントされます。

    2. /cdrom/suncluster_3_0/SunCluster_3.0/Tools ディレクトリに移動します。


      # cd /cdrom/suncluster_3_0/SunCluster_3.0/Tools
      

    3. CD-ROM を JumpStart インストールサーバー上の新しいディレクトリにコピーします。

      scinstall コマンドで、CD-ROM のファイルをコピーする新しいインストールディレクトリを作成します。ここでは、インストールディレクトリ名 /export/suncluster/sc30 を例として使用します。


      # ./scinstall -a /export/suncluster/sc30
      

    4. CD-ROM を取り出します。


      # cd / # eject cdrom
      
    5. JumpStart インストールサーバー上の Sun Cluster 3.0 CD-ROM イメージが、JumpStart インストールサーバーで読み取れるように NFS によってエクスポートされていることを確認します。

      自動ファイル共有の詳細については、『NFS の管理』、および share(1M) と dfstab(4) のマニュアルページを参照してください。

  8. JumpStart インストールサーバーから scinstall(1M) ユーティリティーを起動します。

    ここでは、作成したインストールディレクトリの例として、パス /export/suncluster/sc30 を使用します。


    # cd /export/suncluster/sc30/SunCluster_3.0/Tools # ./scinstall
    

    対話形式の scinstall ユーティリティーを使用するときは、以下のガイドラインに従ってください。

    • 対話形式の scinstall では先打ち入力が可能です。したがって、次のメニュー画面がすぐに表示されなくても、何度も Return キーを押さないでください。

    • 特に指定がない場合は、Control-D キーを押すと、関連のある一連の質問の最初か、またはメインメニューに戻ります。

    • セッションでの入力内容は、そのメニューオプションを次回実行したときのデフォルトとして格納されます。

  9. JumpStart インストールを選択するには、3 (Configure a cluster to be JumpStarted from this install server) を入力します。


    注 -

    オプション 3 の前にアスタリスクが表示されていない場合は、JumpStart 設定が完了しなかったか、エラーがあるためにこのオプションが無効になっていることを示します。scinstall ユーティリティーを終了して JumpStart 設定を修正してから、scinstall ユーティリティを再起動してください。


    プロンプトに従って、Sun Cluster の構成情報を指定します。

    • JumpStart ディレクトリ名

    • クラスタ名

    • クラスタノード名

    • ノードの認証

    • プライベートネットワークアドレスとネットマスク - クラスタが正しく構成された後では、プライベートネットワークアドレスは変更できません。

    • クラスタインターコネクト (トランスポートアダプタとトランスポート中継点) - scinstall コマンドで複数のアダプタは構成できませんが、後で scsetup ユーティリティーを使用して複数のアダプタを構成できます。

    • 広域デバイスのファイルシステム名

    • 自動再起動 - Sun Cluster ソフトウェアパッチをインストールする場合は、自動再起動を選択しないでください。

    これらの情報を入力し終えると、scinstall コマンドにより確認が求められます。このコマンドを受け入れないように選択した場合は、scinstall ユーティリティーはメインメニューに戻ります。メニュー 3 を再度実行して、異なる情報を指定できます。前に入力したエントリがデフォルトの値として表示されます。

  10. 必要に応じて、scinstall によって作成されたデフォルトの class ファイルまたはプロファイルを調整します。

    scinstall コマンドによって、デフォルトの class ファイルである autoscinstall.class が、jumpstart-dir/autoscinstall.d/3.0 ディレクトリに作成されます。


    install_type    initial_install
    system_type     standalone
    partitioning    explicit
    filesys         rootdisk.s0 free /
    filesys         rootdisk.s1 750 swap
    filesys         rootdisk.s3 100  /globaldevices
    filesys         rootdisk.s7 10
    cluster         SUNWCuser       add
    package         SUNWman         add


    注 -

    デフォルトの class ファイルによって、Solaris ソフトウェアの「エンドユーザーシステムサポート」ソフトウェアグループ (SUNWCuser) がインストールされます。Sun Enterprise E10000 サーバーの場合は、必ず、「全体ディストリビューションプラス OEM」ソフトウェアグループをインストールしてください。また、Oracle などの Sun 以外のソフトウェアでは、追加の Solaris パッケージが必要になる場合があります。Solaris ソフトウェアの必要条件については、各製品のマニュアルを参照してください。


    プロファイルは、以下のいずれかの方法で変更できます。

    • autoscinstall.class ファイルを直接編集します。変更内容は、このカスタム JumpStart ディレクトリを使用するすべてのクラスタのすべてのノードに適用されます。

    • ほかのファイルを示すように rules ファイルを更新してから、check ユーティリティーを実行して rules ファイルを検証します。

    ファイルシステムの最小割り当て必要条件を満たしている限り、Solaris オペレーティング環境インストールプロファイルの変更内容に制限はありません。Sun Cluster 3.0 ソフトウェアをサポートするには、「システムディスクパーティション」のパーティション分割のガイドラインを参照してください。

  11. 既存のクラスタに新しいノードをインストールするかどうかを決定します。

    • インストールしない場合は、手順 12 に進んでください。

    • インストールする場合は、次の手順に従ってクラスタ内の各クラスタファイルシステムにマウントポイントを作成します。

    1. クラスタ内の別のアクティブなノードから、すべてのクラスタファイルシステムの名前を表示します。


      % mount | grep global | egrep -v node@ | awk '{print $1}'
      
    2. クラスタに追加するノードで、クラスタ内の各クラスタファイルシステムにマウントポイントを作成します。


      % mkdir -p mountpoint
      

      たとえば、mount コマンドで表示されるファイルシステム名が /global/dg-schost-1 の場合は、クラスタに追加するノードで mkdir -p /global/dg-schost-1 を実行します。

  12. Solaris 用のパッチディレクトリを設定します。

    1. クラスタ内の各ノードに、JumpStart サーバー上の jumpstart-dir/autoscinstall.d/nodes/nodename/patches ディレクトリを作成します。nodename には、クラスタノードの名前を指定します。


      # mkdir jumpstart-dir/autoscinstall.d/nodes/nodename/patches
      
    2. これらの各ディレクトリに Solaris パッチのコピーを置きます。また、Solaris ソフトウェアのインストール後にインストールしたハードウェア関連のパッチも、これらの各ディレクトリに置いてください。

  13. ネームサービスを使用しない場合は、必要なホスト名情報を含むようにファイルを設定します。

    1. JumpStart インストールサーバーに、jumpstart-dir/autoscinstall.d/nodes/nodename/archive/etc/inet/hosts という名前のファイルを作成します。

      各ノードに 1 つずつファイルを作成します。nodename には、クラスタノードの名前を指定します。

    2. 各ファイルに以下のエントリを追加します。

      • Sun Cluster CD-ROM のイメージがコピーされている NFS サーバーの IP アドレスとホスト名。これは、JumpStart インストールサーバーまたは別のマシンの可能性があります。

      • クラスタ内の各ノードの IP アドレスとホスト名。

  14. (省略可能) インストール後に実行する独自の完了スクリプトを追加します。

    独自の完了スクリプトを追加できます。このスクリプトは、scinstall コマンドによってインストールされる標準の完了スクリプトに続いて実行されます。

    1. 完了スクリプトに finish と名前を付けます。

    2. jumpstart-dir/autoscinstall.d/nodes/nodename ディレクトリに完了スクリプトをコピーします。クラスタ内の各ノードにコピーします。

  15. 管理コンソールを使用している場合は、クラスタ内の各ノードにコンソール画面を表示します。

    管理コンソールで cconsole(1M) がインストールおよび構成されている場合は、これを使用して個々のコンソール画面を表示できます。それ以外の場合は、コンソールを各ノードに個別にインストールする必要があります。

  16. 各ノードのコンソールの「ok」PROM プロンプトから、boot net - install コマンドを入力して、各ノードのネットワーク JumpStart インストールを開始します。


    注 -

    コマンドに含まれるダッシュ (-) の両側には、空白文字を入力します。



    ok boot net - install
    

    注 -

    独自の ntp.conf ファイルを /etc/inet ディレクトリにインストールしていない場合は、scinstall コマンドによって、デフォルトの ntp.conf ファイルが自動的にインストールされます。このデフォルトファイルは出荷時には 8 個のノードを参照する状態になっているため、起動時に xntpd(1M) で一部の参照に関してエラーメッセージが表示される場合があります。これらのメッセージは無視しても問題ありません。通常のクラスタ条件下でこれらのメッセージを表示しないようにする方法については、「Network Time Protocol (NTP) を更新する」を参照してください。


    インストールが正常に完了すると、各ノードは、新しいクラスタノードとして完全にインストールされた状態になります。


    注 -

    Solaris のインタフェースグループ機能は、Solaris ソフトウェアのインストール中にデフォルトで無効に設定されます。インタフェースグループは Sun Cluster 構成ではサポートされていないため、有効にしないでください。Solaris インタフェースグループの詳細については、ifconfig(1M) のマニュアルページを参照してください。


  17. Sun Cluster 用のソフトウェアパッチをインストールします。

    パッチの入手方法とインストール方法については、『Sun Cluster 3.0 ご使用にあたって』を参照してください。

  18. Sun Cluster ソフトウェアパッチをインストールしたら、そのクラスタを停止し、クラスタの各ノードを再起動します。

    クラスタの最初のノードを再起動する前に、scshutdown コマンドを使用してそのクラスタを停止します。クラスタノードをインストールモードから削除するまでは、定足数 (quorum) の確立に使用される票 (quorum vote) は、クラスタを形成する最初のノード (スポンサーノード) にしかありません。形成されたクラスタがまだインストールモードにあり、最初のノードが再起動される前にクラスタが停止していない場合、残りのクラスタは定足数を得られず、クラスタ全体が停止します。

    クラスタノードは、「インストール後設定を行う」 の手順で scsetup(1M) コマンドを最初に実行するまでは、インストールモードのままです。

次の作業

「ネームサービススイッチを構成する」に進み、ネームサービスの参照順序を設定します。

ネームサービススイッチを構成する

クラスタ内の各ノードで次の作業を行います。

  1. クラスタノードのスーパーユーザになります。

  2. /etc/nsswitch.conf ファイルを編集します。

    1. cluster が、データベースエントリの hosts および netmasks の最初の参照先になっていることを確認します。

      この順序は、Sun Cluster ソフトウェアを正しく動作させるために重要です。scinstall(1M) コマンドによって、インストール中に cluster がこれらのエントリに追加されます。

    2. (省略可能) データベースエントリ hosts および netmasks では、cluster の後に files が続きます。

    3. (省略可能) その他のすべてのデータベースについては、files を参照順序の最初に配置します。


    注 -

    この手順を実行すると、ネームサービスが利用できなくなった場合の、データベースサービスに対する可用性を向上できます。


    次に、/etc/nsswitch.conf ファイルの内容の一部を例として示します。データベースエントリ hosts および netmasks の参照順序は、clusterfiles の順です。その他のエントリの参照順序は files から始まります。


    # vi /etc/nsswitch.conf
    ...
    passwd:     files nis
    group:      files nis
    ...
    hosts:      cluster files nis
    ...
    netmasks:   cluster files nis
    ...

  3. クラスタのすべてのパブリックホスト名と論理アドレスを使用し、/etc/inet/hosts ファイルを更新します。

次の作業

Solstice DiskSuite ボリューム管理ソフトウェアをインストールする場合は、「Solstice DiskSuite ソフトウェアをインストールする」に進みます。VERITAS Volume Manager ボリューム管理ソフトウェアをインストールする場合は、「VERITAS Volume Manager ソフトウェアをインストールする」に進みます。

Solstice DiskSuite ソフトウェアをインストールする

クラスタ内の各ノードで次の作業を行います。

  1. クラスタノードのスーパーユーザになります。

  2. CD-ROM から インストールする場合は、Solaris 8 SOFTWARE 2 of 2 CD-ROM をノードの CD-ROM ドライブに挿入します。


    注 -

    Solstice DiskSuite ソフトウェアパッケージは Solaris 8 SOFTWARE CD-ROM に収められています。


    この手順では、ボリューム管理デーモン vold(1M) が実行されており、CD-ROM デバイスを管理するように構成されていることを想定しています。

  3. Solstice DiskSuite ソフトウェアパッケージをインストールします。


    注 -

    Solstice DiskSuite ソフトウェアパッチをインストールする場合は、Solstice DiskSuite ソフトウェアをインストールした後に再起動しないでください。


    ソフトウェアパッケージは、次の例に示す順序でインストールします。


    # cd /cdrom/sol_8_sparc_2/Solaris_8/EA/products/DiskSuite_4.2.1/sparc/Packages
    # pkgadd -d . SUNWmdr SUNWmdu [SUNWmdx] optional-pkgs
    

    すべての Solstice DiskSuite のインストールには、SUNWmdr および SUNWmdu パッケージが必要です。64 ビット版の Solstice DiskSuite をインストールするには、SUNWmdx パッケージも必要です。ソフトウェアパッケージの詳細については、Solstice DiskSuite のインストールマニュアルを参照してください。

  4. CD-ROM からインストールした場合は、CD-ROM を取り出します。

  5. Solstice DiskSuite パッチをインストールしていない場合は、インストールします。

    パッチの入手方法とインストール方法については、『Sun Cluster 3.0 ご使用にあたって』を参照してください。

  6. /usr/cluster/bin/scgdevs コマンドを実行して、Solstice DiskSuite の広域デバイス名前空間を手作業で生成します。

  7. Solstice DiskSuite ソフトウェアパッチをインストールしたら、そのクラスタを停止し、クラスタの各ノードを再起動します。

    クラスタの最初のノードを再起動する前に、scshutdown コマンドを使用してそのクラスタを停止します。クラスタノードをインストールモードから削除するまでは、定足数 (quorum) の確立に使用される票 (quorum vote) は、クラスタを形成する最初のノード (スポンサーノード) にしかありません。形成されたクラスタがまだインストールモードにあり、最初のノードが再起動される前にクラスタが停止していない場合、残りのクラスタは定足数を得られず、クラスタ全体が停止します。

    クラスタノードは、「インストール後設定を行う」 の手順で scsetup(1M) コマンドを最初に実行するまでは、インストールモードのままです。

Solstice DiskSuite ソフトウェアのインストールの詳細については、Solstice DiskSuite のインストールマニュアルを参照してください。

次の作業

「root ユーザーの環境を設定する」に進み、ルートユーザーの環境を設定します。

VERITAS Volume Manager ソフトウェアをインストールする

クラスタ内の各ノードで次の作業を行います。

  1. クラスタノードでスーパーユーザーになります。

  2. Dynamic Multipathing (DMP) を無効にします。


    # mkdir /dev/vx
    # ln -s /dev/dsk /dev/vx/dmp
    # ln -s /dev/rdsk /dev/vx/rdmp
    
  3. ノードの CD-ROM ドライブに VxVM CD-ROM を挿入します。

  4. VxVM ソフトウェアパッケージをインストールします。


    注 -

    VxVM ソフトウェアパッチをインストールする場合は、VxVM ソフトウェアをインストールした後に再起動しないでください。



    # cd /cdrom/volume_manager_3_0_4_solaris/pkgs
    # pkgadd -d . VRTSvxvm VRTSvmdev VRTSvmman
    

    pkgadd(1M) コマンドには、VRTSvxvmVRTSvmdev の順に指定します。その他の VxVM ソフトウェアパッケージの詳細については、VxVM のインストールマニュアルを参照してください。


    注 -

    すべての VxVM インストールには、VRTSvxvm および VRTSvmdev パッケージが必要です。


  5. CD-ROM を取り出します。

  6. VxVM 用のパッチをインストールします。

    パッチの入手方法とインストール方法については、『Sun Cluster 3.0 ご使用にあたって』を参照してください。

  7. VxVM ソフトウェアパッチをインストールしたら、そのクラスタを停止し、クラスタの各ノードを再起動します。

    クラスタの最初のノードを再起動する前に、scshutdown コマンドを使用してそのクラスタを停止します。クラスタノードをインストールモードから削除するまでは、定足数 (quorum) の確立に使用される票 (quorum vote) は、クラスタを形成する最初のノード (スポンサーノード) にしかありません。形成されたクラスタがまだインストールモードにあり、最初のノードが再起動される前にクラスタが停止していない場合、残りのクラスタは定足数を得られず、クラスタ全体が停止します。

    クラスタノードは、「インストール後設定を行う」 の手順で scsetup(1M) コマンドを最初に実行するまでは、インストールモードのままです。

VxVM ソフトウェアのインストールの詳細については、VxVM のインストールマニュアルを参照してください。

次の作業

「root ユーザーの環境を設定する」に進み、ルートユーザーの環境を設定します。

root ユーザーの環境を設定する

クラスタ内の各ノードで以下の作業を行います。

  1. クラスタノードのスーパーユーザになります。

  2. /usr/sbin および /usr/cluster/bin を含むように PATH 環境変数を設定します。

    VERITAS Volume Manager の場合も、/etc/vx/bin を含むように PATH 環境変数を指定します。VRTSvmsa パッケージをインストールしてある場合は、/opt/VRTSvmsa/binPATH 環境変数に追加します。

  3. /usr/cluster/man を含むように MANPATH 環境変数を設定します。また、ボリューム管理ソフトウェアに固有のパスを含めます。

    • Solstice DiskSuite ソフトウェアの場合は、/usr/share/man を含めるように MANPATH 環境変数を設定します。

    • VERITAS Volume Manager の場合は、/opt/VRTSvxvm/man を含めるように MANPATH 環境変数を設定します。VRTSvmsa パッケージをインストールしてある場合は、/opt/VRTSvmsa/manMANPATH 環境変数に追加します。

  4. (省略可能) 管理を行いやすくするため、各ノードに同じ root パスワードを設定します (まだ設定していない場合)。

次の作業

「データサービスソフトウェアパッケージをインストールする」に進み、データサービスソフトウェアパッケージをインストールします。

データサービスソフトウェアパッケージをインストールする

各クラスタノードで以下の作業を行います。


注 -

インストールしたデータサービスのリソースをノードでホストする予定がない場合でも、各ノードに同じデータサービスパッケージのセットをインストールする必要があります。


  1. クラスタノードのスーパーユーザになります。

  2. CD-ROM からインストールする場合は、ノードの CD-ROM ドライブに Data Services CD-ROM を挿入します。

  3. scinstall(1M) ユーティリティーを起動します。


    # scinstall
    

    対話形式の scinstall ユーティリティーを使用するときは、以下のガイドラインに従ってください。

    • 対話形式の scinstall では先打ち入力が可能です。したがって、次のメニュー画面がすぐに表示されなくても、何度も Return キーを押さないでください。

    • 特に指定がない場合は、Control-D キーを押すと、関連のある一連の質問の最初か、またはメインメニューに戻ります。

  4. データサービスを追加するには、4 (Add support for a new data service to this cluster node) を入力します。

    プロンプトに従って、インストールするデータサービスをすべて選択します。

  5. CD-ROM からインストールする場合は、CD-ROM を取り出します。

  6. Sun Cluster 用のデータサービスパッチをインストールします。

    パッチの入手方法とインストール方法については、『Sun Cluster 3.0 ご使用にあたって』を参照してください。


    注 -

    パッチの特別な指示がない限り、Sun Cluster データサービスのパッチをインストールした後に再起動する必要はありません。再起動が必要な場合は、クラスタの最初のノードを再起動する前に scshutdown コマンドを使用してそのクラスタを停止します。クラスタノードをインストールモードから削除するまでは、定足数 (quorum) の確立に使用される票 (quorum vote) は、クラスタを形成する最初のノード (スポンサーノード) にしかありません。形成されたクラスタがまだインストールモードにあり、最初のノードが再起動される前にクラスタが停止していない場合、残りのクラスタは定足数を得られず、クラスタ全体が停止します。クラスタノードは、「インストール後設定を行う」 の手順で scsetup(1M) コマンドを最初に実行するまでは、インストールモードのままです。


次の作業

インストール後の設定および構成作業については、「クラスタの構成」を参照してください。

クラスタの構成

次の表に、クラスタを構成するために行う作業を示します。

表 2-2 作業マップ : クラスタの構成

作業 

参照箇所 

インストール後設定を行う 

「インストール後設定を行う」

Solstice DiskSuite または VERITAS Volume Manager およびデバイスグループを構成する 

「ボリューム管理ソフトウェアを構成する」、ボリューム管理ソフトウェアのマニュアル

クラスタファイルシステムを作成してマウントする 

「クラスタファイルシステムを追加する」

(任意) 追加のパブリックネットワークアダプタを構成する

「追加のパブリックネットワークアダプタを構成する」

パブリックネットワーク管理 (PNM) を構成し、ネットワークアダプタフェイルオーバー (NAFO) グループを設定する 

「パブリックネットワーク管理 (PNM) を構成する」

(任意) ノードのプライベートホスト名を変更する

「プライベートホスト名を変更する」

/etc/inet/ntp.conf ファイルを編集してノード名エントリを更新する

「Network Time Protocol (NTP) を更新する」

(任意) Sun Cluster モジュールを Sun Management Center にインストールする

「Sun Management Center ソフトウェアのインストール条件」、Sun Management Center のマニュアル

他のアプリケーションをインストールし、アプリケーション、データサービス、リソースグループを構成する 

Sun Cluster 3.0 データサービスのインストールと構成』、各アプリケーションのマニュアル

インストール後設定を行う

次の手順は、クラスタが完全に形成された後に一度だけ実行します。

  1. すべてのノードがクラスタに結合していることを確認します。

    1. あるノードからクラスタノードのリストを表示し、すべてのノードがクラスタに結合していることを確認します。

      このコマンドを実行するために、スーパーユーザーとしてログインする必要はありません。


      % scstat -n
      

      出力は次のようになります。


      -- Cluster Nodes --
                         Node name      Status
                         ---------      ------
        Cluster node:    phys-schost-1  Online
        Cluster node:    phys-schost-2  Online
    2. 各ノードに、クラスタノードとの接続を確認するためにシステムが検査するすべてのデバイスのリストを表示します。

      このコマンドを実行するために、スーパーユーザーとしてログインする必要はありません。


      % scdidadm -L
      

      各ノードのリストは同じ内容になります。出力は次のようになります。


      1       phys-schost-1:/dev/rdsk/c0t0d0 /dev/did/rdsk/d1
      2       phys-schost-1:/dev/rdsk/c1t1d0 /dev/did/rdsk/d2
      2       phys-schost-2:/dev/rdsk/c1t1d0 /dev/did/rdsk/d2
      3       phys-schost-1:/dev/rdsk/c1t2d0 /dev/did/rdsk/d3
      3       phys-schost-2:/dev/rdsk/c1t2d0 /dev/did/rdsk/d3
      ...
    3. scdidadm の出力から、定足数 (quorum) デバイスとして構成する各共有ディスクの広域デバイス ID (DID) 名を判断します。

      たとえば、上記の手順の出力は、広域デバイス d2phys-schost-1phys-schost-2 で共有されていることを示します。この情報は、手順 4 で必要になります。定足数デバイスの計画の詳細については、「定足数デバイス」を参照してください。

  2. クラスタの 1 つのノードでスーパーユーザーになります。

  3. scsetup(1M) ユーティリティーを起動します。


    # scsetup
    

    「Initial Cluster Setup」画面が表示されます。


    注 -

    代わりに「Main Menu」が表示される場合でも、この手順は正しく実行されています。


  4. プロンプトに応えます。

    1. クラスタが 2 ノードクラスタの場合は、「Do you want to add any quorum disks?」というプロンプトで、少なくとも 1 つの共有定足数 (quorum) デバイスを構成します。

      2 ノードクラスタは、共有定足数デバイスを構成するまでインストールモードのままです。scsetup ユーティリティーが定足数デバイスを構成し終わると、「Command completed successfully」というメッセージが表示されます。クラスタに 3 つ以上のノードがある場合、定足数デバイスの構成は任意です。

    2. Is it okay to reset "installmode"?」というプロンプトに、「Yes」と応えます。

      scsetup ユーティリティーによってクラスタの定足数構成と投票数 (quorum vote count) が設定された後、「Cluster initialization is complete」というメッセージが表示され、ユーティリティは「Main Menu」に戻ります。


    注 -

    定足数の設定処理が中断されたり、正常に終了しなかった場合は、手順 3 および 手順 4 に戻ってやり直してください。


  5. 任意のノードから、クラスタインストールモードが無効になっていることを確認します。


    # scconf -p | grep "Cluster install mode:
    "Cluster install mode:                                 disabled

次の作業

「ボリューム管理ソフトウェアを構成する」に進み、ボリューム管理ソフトウェアを構成します。

ボリューム管理ソフトウェアを構成する

  1. 以下の情報を用意します。

    • ディスクドライブのマッピング

    • Sun Cluster 3.0 ご使用にあたって』の以下のワークシートに必要事項を記入したもの

      • 「ローカルファイルシステム配置のワークシート」

      • 「ディスクデバイスグループ構成のワークシート」

      • 「ボリューム管理ソフトウェア構成のワークシート」

      • 「メタデバイスのワークシート (Solstice DiskSuite)」

      計画のガイドラインについては、第 1 章「Sun Cluster 構成の計画」を参照してください。

  2. 使用するボリューム管理ソフトウェアに該当する構成手順に従います。

    ボリューム管理ソフトウェア 

    参照箇所 

    Solstice DiskSuite 

    付録 A 「Solstice DiskSuite ソフトウェアの構成」

    Solstice DiskSuite のマニュアル 

    VERITAS Volume Manager 

    付録 B 「VERITAS Volume Manager の構成」

    VERITAS Volume Manager のマニュアル 

次の作業

ボリューム管理ソフトウェアの構成後、「クラスタファイルシステムを追加する」に進み、クラスタファイルシステムを作成します。

クラスタファイルシステムを追加する

追加する各クラスタファイルシステムに次の作業を行います。


注意 - 注意 -

ファイルシステムを作成すると、ディスク上のデータはすべて失われます。必ず、正しいディスクデバイス名を指定してください。誤ったデバイス名を指定した場合、その内容は、新しいファイルシステムが作成されたときに消去されます。


  1. クラスタ内の任意のノードでスーパーユーザーになります。


    ヒント -

    ファイルシステムを迅速に作成するには、ファイルシステムを作成する広域デバイスのマスターとなっているノードでスーパーユーザーになります。


  2. newfs(1M) コマンドを使用してファイルシステムを作成します。


    # newfs raw-disk-device
    

    次の表に、引数 raw-disk-device の名前の例を示します。命名規約はボリューム管理ソフトウェアごとに異なるので注意してください。

    表 2-3 raw ディスクデバイス名のサンプル

    ボリューム管理ソフトウェア 

    ディスクデバイス名の例 

    説明 

    Solstice DiskSuite 

    /dev/md/oracle/rdsk/d1

    oracle ディスクセット内の raw ディスクデバイス d1

    VERITAS Volume Manager 

    /dev/vx/rdsk/oradg/vol01

    oradg ディスクグループ内の raw ディスクデバイス vol01

    なし 

    /dev/global/rdsk/d1s3

    raw ディスクデバイス d1s3

  3. クラスタ内の各ノードに、クラスタファイルシステムのマウントポイントディレクトリを作成します。

    特定のノードではクラスタファイルシステムがアクセスされない場合でも、各ノードにマウントポイントが必要です。


    # mkdir -p /global/device-group/mount-point
    
    device-group

    デバイスが含まれるデバイスグループの名前に対応するディレクトリ名を指定します。

    mount-point

    クラスタファイルシステムをマウントするディレクトリ名を指定します。


    ヒント -

    管理を行いやすくするには、マウントポイントを /global/device-group ディレクトリに作成します。この場所を使用することで、広域的に使用できるクラスタファイルシステムと、ローカルファイルシステムを簡単に区別できるようになります。


  4. クラスタ内の各ノードで、マウントポイント用の /etc/vfstab ファイルにエントリを追加します。


    注 -

    syncdir マウントオプションは、クラスタファイルシステムでは必要ありません。syncdir を指定すると、POSIX に準拠したファイルシステムの動作が保証されます。指定しない場合は、UFS ファイルシステムと同じ動作になります。syncdir を指定しないと、ディスクブロックを割り当てる書き込み処理のパフォーマンスを大幅に向上できます (ファイルにデータを追加する場合など)。ただし、場合によっては、syncdir を指定しないと、ファイルを閉じるまで容量不足の状態を検出できません。syncdir を指定しないことで生じる問題はほとんどありません。syncdir (および POSIX 動作) を指定すると、ファイルを閉じる前に容量不足の状態を検出できます。


    1. クラスタファイルシステムを自動的にマウントするには、「mount at boot」フィールドを「yes」に設定します。

    2. 以下の必須マウントオプションを使用します。

      • Solaris UFS ロギングを使用する場合は、マウントオプション global、logging を使用します。

      • UFS クラスタファイルシステムで、Solstice DiskSuite トランスメタデバイスが使用されている場合は、global マウントオプションを使用してください (logging マウントオプションは使用しないでください)。トランスメタデバイスの設定の詳細については、Solstice DiskSuite のマニュアルを参照してください。


      注 -

      ロギングはすべてのクラスタファイルシステムに必要です。


    3. 各クラスタファイルシステムで、/etc/vfstab エントリの情報が各ノードで同じになるようにします。

    4. ファイルシステムの起動順序の依存関係を確認します。

      たとえば、phys-schost-1/global/oracle にディスクデバイス d0 をマウントし、phys-schost-2/global/oracle/logs にディスクデバイス d1 をマウントするとします。この構成では、phys-schost-1 が起動して /global/oracle をマウントした後にのみ、phys-schost-2 が起動して /global/oracle/logs をマウントできます。

    5. 各ノードの /etc/vfstab ファイルのエントリに、デバイスが同じ順序で表示されることを確認します。

    詳細については、vfstab(4) のマニュアルページを参照してください。

  5. クラスタ内の任意のノードで、マウントポイントが存在していること、およびクラスタ内のすべてのノードで /etc/vfstab ファイルのエントリが正しいことを確認します。


    # sccheck
    

    エラーがない場合は、何も表示されません。

  6. クラスタ内の任意のノードから、クラスタファイルシステムをマウントします。


    # mount /global/device-group/mount-point
    
  7. クラスタの各ノードで、クラスタファイルシステムがマウントされていることを確認します。

    df(1M) または mount(1M) のいずれかのコマンドを使用し、マウントされたファイルシステムを表示します。

例 - クラスタファイルシステムの作成

次の例では、Solstice DiskSuite メタデバイスの /dev/md/oracle/rdsk/d1 にUFS クラスタファイルシステムが作成されます。


# newfs /dev/md/oracle/rdsk/d1
...
 
(各ノードで実行)
# mkdir -p /global/oracle/d1
# vi /etc/vfstab
#device           device        mount   FS      fsck    mount   mount
#to mount         to fsck       point   type    pass    at boot options
#                       
/dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs 2 yes global,logging
(保存して終了)
 
(1 つのノードで実行)
# sccheck
# mount /global/oracle/d1
# mount
...
/global/oracle/d1 on /dev/md/oracle/dsk/d1 read/write/setuid/global/logging/
largefiles on Sun Oct 3 08:56:16 1999

次の作業

クラスタノードが複数のパブリックサブネットに接続されている場合は、「追加のパブリックネットワークアダプタを構成する」に進み、追加のパブリックネットワークアダプタを構成します。

その他の場合は、「パブリックネットワーク管理 (PNM) を構成する」に進み、PNM の構成と NAFO グループを設定します。

追加のパブリックネットワークアダプタを構成する

クラスタ内のノードが複数のパブリックサブネットに接続されている場合、2 つ目のサブネット用の追加のパブリックネットワークアダプタを構成できます。ただし、2 つ目のサブネットの構成は必要ありません。


注 -

プライベートネットワークアダプタではなく、パブリックネットワークアダプタだけを構成します。


  1. Sun Cluster 3.0 ご使用にあたって』 の「パブリックネットワークのワークシート」に必要事項を記入したものを用意します。

  2. 追加のパブリックネットワークアダプタ用に構成されているノードでスーパーユーザーになります。

  3. /etc/hostname.adapter という名前のファイルを作成します。adapter にはアダプタの名前を指定します。


    注 -

    各 NAFO グループでは、グループ内の 1 つのアダプタに対してだけ /etc/hostname.adapter ファイルが存在する必要があります。


  4. パブリックネットワークアダプタの IP アドレスのホスト名を /etc/hostname.adapter ファイルに入力します。

    たとえば次のコマンドを実行すると、アダプタ hme3 のファイル /etc/hostname.hme3 の内容が表示され、ホスト名 phys-schost-1 が含まれていることが分かります。


    # vi /etc/hostname.hme3 
    phys-schost-1 
  5. 各クラスタノードで、/etc/inet/hosts ファイルに、パブリックネットワークアダプタに割り当てられている IP アドレスとその対応ホスト名が含まれることを確認します。

    たとえば、次は、phys-schost-1 のエントリの例です。


    # vi /etc/inet/hosts 
    ...192.29.75.101 phys-schost-1 
    ...


    注 -

    ネームサービスを使用する場合は、この情報がネームサービスデータベースにも存在している必要があります。


  6. 各クラスタノードで、アダプタをオンに設定します。


    # ifconfig adapter plumb
    # ifconfig adapter hostname netmask + broadcast + -trailers up
    

  7. アダプタが正しく構成されていることを確認します。


    # ifconfig adapter
    

    出力には、アダプタの正しい IP アドレスが含まれています。

次の作業

Resource Group Manager (RGM) で管理する各パブリックネットワークアダプタは、NAFO グループに属している必要があります。「パブリックネットワーク管理 (PNM) を構成する」に進み、PNM の構成と NAFO グループの設定を行います。

パブリックネットワーク管理 (PNM) を構成する

クラスタの各ノードで次の作業を行います。


注 -

パブリックネットワークアダプタは、すべて NAFO グループに属している必要があります。また、各ノードでは、サブネットごとに 1 つの NAFO グループだけを使用できます。


  1. Sun Cluster 3.0 ご使用にあたって』の「パブリックネットワークのワークシート」に必要事項を記入したものを用意します。

  2. NAFO グループ用に構成されているノードでスーパーユーザーになります。

  3. NAFO グループを作成します。


    # pnmset -c nafo_group -o create adapter [adapter ...]
    -c nafo_group

    NAFO グループ nafo_group を構成します。

    -o create adapter

    1 つまたは複数のパブリックネットワークアダプタが含まれる新しい NAFO を作成します。

    詳細については、pnmset(1M) のマニュアルページを参照してください。

  4. NAFO グループの状態を確認します。


    # pnmstat -l
    

    詳細については、pnmstat(1M) のマニュアルページを参照してください。

例 - PNM の構成

次の例では、パブリックネットワークアダプタ qfe1 および qfe5 を使用する NAFO グループ nafo0 を作成します。


# pnmset -c nafo0 -o create qfe1 qfe5
# pnmstat -l
group  adapters       status  fo_time    act_adp
nafo0  qfe1:qfe5      OK      NEVER      qfe5
nafo1  qfe6           OK      NEVER      qfe6

次の作業

プライベートホスト名を変更する場合は、「プライベートホスト名を変更する」に進みます。その他の場合は、「Network Time Protocol (NTP) を更新する」に進み、/etc/inet/ntp.conf ファイルを更新します。

プライベートホスト名を変更する

次の作業は、Sun Cluster ソフトウェアのインストール中に割り当てられるデフォルトのプライベートホスト名 (clusternodenodeid-priv) を使用しない場合に実行します。


注 -

この手順は、アプリケーションとデータサービスの構成および起動後には実行しないでください。アプリケーションやデータサービスは、名前の変更後も引き続き古いプライベートホスト名を使用することがあり、この手順を実行するとホスト名の衝突が発生します。アプリケーションやデータサービスが実行中の場合は、この手順を実行する前に停止しておいてください。


  1. クラスタ内の 1 つのノードのスーパーユーザになります。

  2. scsetup(1M) ユーティリティーを起動します。


    # scsetup
    
  3. プライベートホスト名に対して作業を行うには、4 (Private hostnames) を入力します。

  4. プライベートホスト名を変更するには、1 (Change a private hostname) を入力します。

    プロンプトに従って、プライベートホスト名を変更します。変更するプライベートホスト名ごとに繰り返します。

  5. 新しいプライベートホスト名を確認します。


    # scconf -pv | grep "private hostname"
    (phys-schost-1) Node private hostname:      phys-schost-1-priv
    (phys-schost-3) Node private hostname:      phys-schost-3-priv
    (phys-schost-2) Node private hostname:      phys-schost-2-priv

次の作業

「Network Time Protocol (NTP) を更新する」に進み、/etc/inet/ntp.conf ファイルを更新します。

Network Time Protocol (NTP) を更新する

各ノードで次の作業を行います。

  1. クラスタノードでスーパーユーザーになります。

  2. /etc/inet/ntp.conf ファイルを編集します。

    scinstall(1M) コマンドは、標準的なクラスタインストールの一部として、テンプレートファイル ntp.cluster/etc/inet/ntp.conf にコピーします。ただし、Sun Cluster ソフトウェアをインストールする前に ntp.conf ファイルがすでに存在している場合は、既存のファイルは変更されません。pkgadd(1M) を直接使用するなど、その他の方法でクラスタパッケージをインストールした場合は、NTP の構成が必要です。

    1. クラスタで使用されていないすべてのプライベートホスト名を削除します。

      存在しないプライベートホスト名が ntp.conf ファイルに含まれている場合、ノードを再起動したときにそれらのプライベートホスト名に接続しようとすると、エラーメッセージが表示されます。

    2. Sun Cluster ソフトウェアのインストール後にプライベートホスト名を変更した場合は、各ファイルのエントリを新しいプライベートホスト名に更新します。

    3. 必要に応じて、NTP の必要条件を満たすようにその他の変更を加えます。

      クラスタ内で NTP や時刻同期機能を構成する際の第一の必要条件は、すべてのクラスタノードを同じ時刻に同期させることです。ノード間の時刻の同期に続き、個々のノードの時間の精度を考慮します。NTP は、この基本的な同期必要条件を満たしている限り、目的に合わせて自由に構成できます。

      クラスタの時刻の詳細については『Sun Cluster 3.0 の概念』を、 Sun Cluster 構成のために NTP を構成する場合のガイドラインについては ntp.cluster テンプレートを参照してください。

  3. NTP デーモンを再起動します。


    # /etc/init.d/xntpd stop # /etc/init.d/xntpd start
    

次の作業

Sun Management Center 製品を使用してリソースグループを構成したり、クラスタを管理する場合は、「Sun Management Center ソフトウェアのインストール条件」に進みます。

また、他のアプリケーションをインストールする場合は、各アプリケーションソフトウェアに付属のマニュアルと『Sun Cluster 3.0 データサービスのインストールと構成』を参照してください。リソースの種類の登録、リソースグループの設定、データサービスの構成については、『Sun Cluster 3.0 データサービスのインストールと構成』を参照してください。

Sun Management Center 用の Sun Cluster モジュールのインストール

次の表に、Sun Management Center 用の Sun Cluster モジュールソフトウェアをインストールするために実行する作業を示します。

表 2-4 作業マップ : Sun Management Center 用の Sun Cluster モジュールのインストール

作業 

参照箇所 

Sun Management Center サーバー、ヘルプサーバー、エージェント、コンソールパッケージをインストールする 

Sun Management Center のマニュアル 

「Sun Management Center ソフトウェアのインストール条件」

Sun Cluster モジュールパッケージをインストールする 

「Sun Cluster モジュールを Sun Management Center 用にインストールする」

Sun Management Center サーバー、コンソール、エージェントプロセスを起動する 

「Sun Management Center ソフトウェアを起動する」

各クラスタノードを Sun Management Center エージェントホストオブジェクトとして追加する 

「クラスタノードを Sun Management Center エージェントホストオブジェクトとして追加する」

Sun Cluster モジュールを読み込んで、クラスタの監視を開始する 

「Sun Cluster モジュールを読み込む」

Sun Management Center ソフトウェアのインストール条件

Sun Management Center 製品 (以前の名称は Sun Enterprise SyMON) の Sun Cluster モジュールは、リソースグループの構成とクラスタの監視をするために使用されます。Sun Cluster モジュールパッケージをインストールする前に、以下の必要条件を確認してください。

Sun Cluster モジュールを Sun Management Center 用にインストールする

以下の手順を実行して、Sun Cluster モジュールコンソール、サーバー、ヘルプサーバーパッケージをインストールします。


注 -

Sun Cluster モジュールエージェントパッケージ (SUNWscsal および SUNWscsam) は、Sun Cluster ソフトウェアのインストール中にクラスタノードに追加されています。


  1. Sun Management Center のコアパッケージがインストールされていることを確認します。

    この手順には、各クラスタノードへの Sun Management Center エージェントパッケージのインストールが含まれます。インストール方法については、Sun Management Center のマニュアルを参照してください。

  2. 管理コンソールで、Sun Cluster モジュールコンソールパッケージをインストールします。

    1. スーパーユーザーになります。

    2. CD-ROM からインストールする場合は、CD-ROM ドライブに Sun Cluster モジュールの CD-ROM を挿入します。

    3. /cdrom/SunCluster_3.0/Packages ディレクトリに移動します。

    4. Sun Cluster モジュールコンソールパッケージをインストールします。


      # pkgadd -d .SUNWscscn
      
    5. CD-ROM からインストールした場合は、CD-ROM を取り出します。

  3. サーバーマシンに、Sun Cluster モジュールサーバーパッケージである SUNWscssv をインストールします。

    手順 2 と同じ手順を実行します。

  4. ヘルプサーバーマシンに、Sun Cluster モジュールヘルプサーバーパッケージである SUNWscshl をインストールします。

    手順 2 と同じ手順を実行します。

  5. Sun Cluster モジュールパッチをインストールします。

    パッチの入手方法とインストール方法については、『Sun Cluster 3.0 ご使用にあたって』を参照してください。

次の作業

「Sun Management Center ソフトウェアを起動する」 に進み、Sun Management Center ソフトウェアを起動します。

Sun Management Center ソフトウェアを起動する

次の手順を実行して、Sun Management Center サーバー、エージェント、コンソールプロセスを起動します。

  1. スーパーユーザとして、Sun Management Center サーバーマシンで Sun Management Center サーバープロセスを起動します。


    # /opt/SUNWsymon/sbin/es-start -S
    
  2. スーパーユーザとして、 Sun Management Center エージェントマシン (クラスタノード) ごとに Sun Management Center エージェントプロセスを起動します。


    # /opt/SUNWsymon/sbin/es-start -a
    
  3. Sun Management Center コンソールマシン (管理コンソール) で Sun Management Center コンソールを起動します。

    コンソールプロセスを起動するには、スーパーユーザである必要はありません。


    % /opt/SUNWsymon/sbin/es-start -c
    
  4. ログイン名、パスワード、サーバーのホスト名を入力し、「Login」をクリックします。

次の作業

「クラスタノードを Sun Management Center エージェントホストオブジェクトとして追加する」に進み、クラスタノードを監視対象のホストオブジェクトとして追加します。

クラスタノードを Sun Management Center エージェントホストオブジェクトとして追加する

次の手順を実行して、クラスタノードの Sun Management Center エージェントホストオブジェクトを作成します。


注 -

Sun Cluster モジュールの監視および構成機能を使用するには、クラスタ全体で必要なクラスタノードホストオブジェクトは、1 つだけです。ただし、そのクラスタノードが利用不能になると、ホストオブジェクトを通じてクラスタと接続することもできなくなります。したがって、クラスタに再接続するには、別のクラスタノードホストオブジェクトが必要となります。


  1. Sun Management Center のメインウィンドウで、「Sun Management Center Administrative Domains」プルダウンリストからドメインを選択します。

    作成する Sun Management Center エージェントホストオブジェクトがこのドメインに格納されます。Sun Management Center ソフトウェアのインストール中に、「Default Domain」が自動的に作成されています。このドメインを使用するか、別の既存のドメインを選択するか、新しいドメインを作成します。

    Sun Management Center ドメインの作成方法については、Sun Management Center のマニュアルを参照してください。

  2. プルダウンメニューから「Edit」>「Create an Object」の順に選択します。

  3. 「Node」タブを選択します。

  4. 「Monitor via」プルダウンリストから、「Sun Management Center Agent - Host」を選択します。

  5. 「Node Label」および「Hostname」テキストフィールドにクラスタノードの名前 (phys-schost-1 など) を入力します。

    「IP」テキストフィールドは空白のままにしておきます。「Description」テキストフィールドはオプションです。

  6. 「Port」テキストフィールドに、Sun Management Center エージェントのインストール中に選択したポート番号を入力します。

  7. 「OK」をクリックします。

    ドメインに Sun Management Center エージェントホストオブジェクトが作成されます。

次の作業

「Sun Cluster モジュールを読み込む」に進み、Sun Cluster モジュールを読み込みます。

Sun Cluster モジュールを読み込む

次の手順を実行して、クラスタ監視機能を起動します。

  1. Sun Management Center のメインウィンドウから、クラスタノードのエージェントホストオブジェクトをダブルクリックします。

    エージェントホストオブジェクトが 2 か所に表示されます。どちらをダブルクリックしてもかまいません。続いて、ホストオブジェクトの「Details」ウィンドウが表示されます。

  2. 階層のルート (最上部) にあるアイコンを選択して、強調表示します。

    このアイコンにはクラスタノード名が付けられています。

  3. プルダウンメニューから「Module」>「Load Module」の順に選択します。

    「Load Module」ウィンドウに、利用可能な各 Sun Management Center モジュールと、そのモジュールが現在読み込まれているかどうかが表示されます。

  4. 「Sun Cluster: Not loaded」(通常はリストの最下位にあります) を選択し、「OK」をクリックします。

    「Module Loader」ウィンドウに、選択したモジュールの現在のパラメータ情報が表示されます。

  5. 「OK」をクリックします。

    モジュールが読み込まれ、「Details」ウィンドウに Sun Cluster のアイコンが表示されます。

  6. 「Details」ウィンドウの「Operating System」カテゴリで、以下のいずれかの方法で Sun Cluster サブツリーを展開します。

    • ウィンドウ左側のツリー階層で、カーソルを Sun Cluster モジュールのアイコンに合わせ、マウスのセレクトボタンをクリックします。

    • ウィンドウ右側のトポロジ表示領域で、カーソルを Sun Cluster モジュールのアイコンに合わせ、マウスのセレクトボタンをダブルクリックします。

Sun Cluster モジュールの機能の使用方法については、Sun Cluster モジュールのオンラインヘルプを参照してください。


注 -

Sun Management Center ブラウザの「Help」ボタンをクリックすると、Sun Cluster モジュールに固有のトピックではなく、Sun Management Center オンラインヘルプにアクセスします。


Sun Management Center 製品の使用方法については、Sun Management Center オンラインヘルプおよび Sun Management Center のマニュアルを参照してください。

次の作業

他のアプリケーションをインストールするには、各アプリケーションソフトウェアに付属のマニュアルと『Sun Cluster 3.0 データサービスのインストールと構成』を参照してください。リソースタイプの登録、リソースグループの設定、データサービスの構成については、『Sun Cluster 3.0 データサービスのインストールと構成』を参照してください。