Sun Cluster 3.0 5/02 補足情報

第 4 章 インストール

この章では、Sun Cluster 3.0 5/02 Update リリースに追加された新しいインストール情報について説明します。この章の情報は『Sun Cluster 3.0 12/01 ソフトウェアのインストール』についての補足です。新しいデータサービスのインストールについては、第 5 章「データサービス」を参照してください。

この章では、次の項目の新しい情報について説明します。

Solaris オペレーティング環境についての計画

以下の情報は、このUpdate リリース以降のすべての更新に適用されます。

システムディスクパーティション (5/02)

次の変更は、Sun Cluster 3.0 5/02 Update リリースで行われました。この変更は、今回を含む Sun Cluster 3.0 ソフトウェアの今後のすべての Update リリースに適用されます。

Solaris 9 の場合、Solaris Volume Manager ソフトウェアが使用できるように、ディスクの最後にあるスライス (スライス 7) にボリュームマネージャ用の 20M バイトのパーティションを作成します。

広域デバイスとクラスタファイルシステムについての計画

以下の情報は、この Update リリース以降のすべての更新に適用されます。

クラスタファイルシステムのマウントについて (5/02)

次の変更は、Sun Cluster 3.0 5/02 Update リリースで行われました。この変更は、今回を含む Sun Cluster 3.0 ソフトウェアの今後のすべての Update リリースに適用されます。

Solstice DiskSuite ソフトウェアの指針 (5/02)

次の変更は、Sun Cluster 3.0 5/02 Update リリースで行われました。この変更は、今回を含む Sun Cluster 3.0 ソフトウェアの今後のすべての Update リリースに適用されます。

ソフトウェアのインストール

以下の情報は、このUpdate リリース以降のすべての更新に適用されます。

Cluster Control Panel ソフトウェアを管理コンソールにインストールする方法 (5/02)

次の変更は、Sun Cluster 3.0 5/02 Update リリースで行われました。この変更は、今回を含む Sun Cluster 3.0 ソフトウェアの今後のすべての Update リリースに適用されます。

CD-ROM へのパス - CD-ROM へのパスをすべて /cdrom/suncluster_3_0_u3 に変更します。これは、Solaris 8 および Solaris 9 の両方の Sun Cluster 3.0 5/02 CD-ROM に適用されます。

Solaris ソフトウェアをインストールする方法 (5/02)

次の変更は、Sun Cluster 3.0 5/02 Update リリースで行われました。この変更は、今回を含む Sun Cluster 3.0 ソフトウェアの今後のすべての Update リリースに適用されます。

ソフトウェアのインストールに scinstall(1M) ユーティリティのカスタム JumpStartTMインストール方法を使用しない場合、次の作業を実行して、Solaris オペレーティング環境をクラスタ内の各ノードにインストールします。


注 -

Solaris オペレーティング環境がすでにノードにインストールされている場合でも、Sun Cluster ソフトウェアを正しくインストールするためには、次の手順のとおりに Solaris ソフトウェアをインストールし直す必要があります。


  1. Solaris ソフトウェアをインストールする前に、ハードウェアの設定が完了していることと、接続が完全であることを確認します。

    詳細については、『Sun Cluster 3.0 12/01 Hardware Guide』およびサーバーや記憶装置のマニュアルを参照してください。

  2. クラスタ構成の計画が完了していることを確認します。

    条件と指針については、『Sun Cluster 3.0 12/01 ソフトウェアのインストール』の「クラスタソフトウェアのインストールの準備をする」を参照してください。

  3. Sun Cluster 3.0 5/02 ご使用にあたって』の「ローカルファイルシステム配置のワークシート」に必要な情報を記入しておきます。

  4. ネームサービスを使用しているかどうかを確認します。

    • 使用していない場合、手順 5 に進みます。手順 16 では、ローカルホスト名を設定します。

    • 使用している場合、すべての公開ホスト名と論理アドレス間のアドレスと名前の対応付けを、クライアントがクラスタサービスにアクセスするために使用する任意のネームサービス (NIS や DNS など) に追加します。計画の指針については、『Sun Cluster 3.0 12/01 ソフトウェアのインストール』の「IP アドレス」を参照してください。Solaris ネームサービスの使用については、Solaris システム管理者用のマニュアルを参照してください。

  5. クラスタ管理コンソールを使用している場合、クラスタ内にある各ノードのコンソール画面を表示します。

    Cluster Control Panel (CCP) が管理コンソールにインストールおよび構成されている場合、cconsole(1M) ユーティリティを使用すると、各ノードのコンソール画面を表示できます。また、CCP が開くマスターウィンドウに入力すると、各ノードのコンソールウィンドウに同時に送信できます。

    CCP を使用していない場合、各ノードのコンソールに個別に接続します。


    ヒント -

    Solaris オペレーティング環境は各ノードに同時にインストールできるため、時間を節約できます。


  6. クラスタの各ノード上で、local-mac-address 変数が false に設定されていることを確認します。

    Sun Cluster ソフトウェアは true に設定されている local-mac-address 変数をサポートしません。

    1. local-mac-address 変数の値を表示します。

      • Solaris ソフトウェアがすでにノードにインストールされている場合、スーパーユーザーとして、次のコマンドを実行します。


         # /usr/sbin/eeprom local-mac-address?
        

      • Solaris ソフトウェアがノードにインストールされていない場合、ok プロンプトから次のコマンドを実行します。


        ok printenv local-mac-address?
        

    2. 上記のコマンドを使用して各ノードで local-mac-address?=false が表示されたかどうかを確認します。

      • 表示された場合、変数は正しく設定されています。手順 7 に進みます。

      • 表示されない場合、変数は正しく (つまり、false に) 設定されていません。

        • Solaris ソフトウェアがすでにノードにインストールされている場合、スーパーユーザーとして、次のコマンドを実行します。


           # /usr/sbin/eeprom local-mac-address?=false
          

        • Solaris ソフトウェアがノードにインストールされていない場合、ok プロンプトから次のコマンドを実行します。


          ok setenv local-mac-address? false
          

    3. 手順 a を繰り返して、手順 b で行った変更を確認します。

      新しい設定は、次回システム再起動時に有効になります。

  7. Solaris インストールマニュアルに指示されているとおりに Solaris オペレーティング環境をインストールします。


    注 -

    クラスタ内にあるすべてのノードには、同じバージョンの Solaris オペレーティング環境をインストールする必要があります。


    クラスタ環境にインストールする新しいノードに Solaris オペレーティング環境をインストールするときには、通常の Solaris オペレーティング環境のインストール方法、すなわち Solaris 対話式インストールプログラム、Solaris JumpStart、および Solaris Web Start を使用できます。

    Solaris ソフトウェアのインストール時に、次の作業を行います。

    1. 少なくとも、エンドユーザーシステムサポートソフトウェアグループをインストールします。

      • Remote Shared Memory Application Programming Interface (RSMAPI) を使用する予定の場合、あるいはインターコネクトトランスポート用に PCI-SCI アダプタを使用している場合、必要な RSMAPI ソフトウェアパッケージ (SUNWrsmSUNWrsmxSUNWrsmo、および SUNWrsmox) は、より上位のソフトウェアグループに含まれています。エンドユーザーシステムサポートソフトウェアグループをインストールする場合、手順 12 において、Solaris CD-ROM から SUNWrsm* パッケージを手動でインストールする必要があります。

      • SunPlex Manager を使用する予定の場合、必要な Apache ソフトウェアパッケージ (SUNWapchr および SUNWapchu) は、より上位のソフトウェアグループに含まれています。エンドユーザーシステムサポートソフトウェアグループをインストールする場合、手順 13 において、Solaris CD-ROM から SUNWapch* パッケージを手動でインストールする必要があります。

      その他の Solaris ソフトウェア条件については、『Sun Cluster 3.0 12/01 ソフトウェアのインストール』の「Solaris ソフトウェアグループについて」を参照してください。

    2. 「Manual Layout」を選択して、ファイルシステムを設定します。

      • 広域デバイスサブシステムが使用するための、少なくとも 100M バイトのファイルシステムを作成します。SunPlex Manager を使用して Sun Cluster ソフトウェアをインストールする予定の場合、/globaldevices のマウントポイントでファイルシステムを作成する必要があります。 scinstall はデフォルトでこのマウントポイントを使用します。


        注 -

        Sun Cluster ソフトウェアを正しくインストールするには、広域デバイスファイルシステムが必要です。


      • SunPlex Manager を使用して Solstice DiskSuite ソフトウェア (Solaris 8) をインストールする予定の場合、Solaris Volume Manager ソフトウェア (Solaris 9) を構成 (あるいは、Sun Cluster ソフトウェアに加えて、Sun Cluster HA for NFS または Sun Cluster HA for Apache をインストール)して、スライス 7 上に /sds のマウントポイントでファイルシステムを作成します。Solstice DiskSuite の場合、このスライスは少なくとも 10M バイト必要です。Solaris Volume Manager の場合、このスライスは少なくとも 20M バイト必要です。その他の場合、使用するボリュームマネージャをサポートするのに必要なファイルシステムパーティションを作成します (『Sun Cluster 3.0 12/01 ソフトウェアのインストール』の「システムディスクパーティション」を参照)。

    3. 「Auto Reboot」を選択します。


      注 -

      Solaris ソフトウェアをインストールし、ノードを再起動した後に、次のプロンプトが表示されます。


    4. 管理しやすくするために、すべてのノード上で同じ root パスワードを設定します。

    5. 省電力のための自動シャットダウンを有効にするかどうかの問いかけに対しては、「no」と応答します。

      Sun Cluster 構成では、自動シャットダウンを無効にする必要があります。詳細については、pmconfig(1M) と power.conf(4) のマニュアルページを参照してください。


    注 -

    Solaris ソフトウェアのインストール時、Solaris インタフェースグループの機能はデフォルトで無効になります。Sun Cluster 構成ではインタフェースグループはサポートされないので、有効にしないでください。Solaris インタフェースグループの詳細については、ifconfig(1M) のマニュアルページを参照してください。


  8. 既存のクラスタに新しいノードをインストールするかどうかを確認します。

    • インストールする場合、手順 9 に進みます。

    • インストールしない場合、手順 12 に進みます。

  9. 新しいノードをクラスタの承認済みノードリストに追加したかどうかを確認します。

    • 追加した場合、手順 10 に進みます。

    • 追加していない場合、別のアクティブなノードから scsetup(1M) を実行して、新しいノードの名前をクラスタの承認済みノードリストに追加します。手順については、『Sun Cluster 3.0 12/01 のシステム管理』の「クラスタノードを承認済みノードリストに追加する」を参照してください。

  10. 新しいノード上で、クラスタ内にあるクラスタファイルシステムごとにマウントポイントを作成します。

    1. クラスタ内にある別のアクティブなノードから、すべてのクラスタファイルシステムの名前を表示します。


      % mount | grep global | egrep -v node@ | awk `{print $1}'
      

    2. 新しいノード上で、クラスタ内にあるクラスタファイルシステムごとにマウントポイントを作成します。


      % mkdir -p mountpoint
      

      たとえば、マウントコマンドがファイルシステム名 /global/dg-schost-1 を返した場合、クラスタに追加しようとしている新しいノード上で、mkdir -p /global/dg-schost-1 を実行します。

  11. クラスタ内にすでにある任意のノード上に VERITAS Volume Manager (VxVM) をインストールしているかどうかを確認します。

    • インストールしている場合、VxVM がインストールされているノード上で同じ vxio 番号が使用されていること、および、VxVM がインストールされていない各ノード上で vxio 番号が使用できることを確認します。


      # grep vxio /etc/name_to_major
      vxio NNN
      

      VxVM がインストールされていないノード上ですでに vxio 番号が使用されている場合、当該ノード上で /etc/name_to_major ファイルのエントリが使用する番号を変更して、この番号を解放します。

    • インストールしていない場合、手順 12 に進みます。

  12. Remote Shared Memory Application Programming Interface (RSMAPI) を使用する予定があるかどうか、あるいは、インターコネクトトランスポート用に PCI-SCI アダプタを使用しているかどうかを確認します。

    • 使用する場合、さらにエンドユーザーシステムサポートソフトウェアグループをインストールしている場合には、Solaris CD-ROM から SUNWrsm* パッケージをインストールします。


      # pkgadd -d . SUNWrsm SUNWrsmx SUNWrsmo SUNWrsmox
      

    • 使用しない場合、あるいは、より上位のソフトウェアグループをインストールしている場合には、手順 13に進みます。

  13. SunPlex Manager を使用する予定があるかどうかを確認します。

    • 使用する場合、さらにエンドユーザーシステムサポートソフトウェアグループをインストールしている場合には、Solaris CD-ROM から SUNWapch* パッケージをインストールします。


      # pkgadd -d . SUNWapchr SUNWapchu
      

    • 使用しない場合、あるいは、より上位のソフトウェアグループをインストールしている場合には、手順 14 に進みます。

    SunPlex Manager をインストールする前に、Apache ソフトウェアパッケージをあらかじめインストールしておく必要があります。

  14. 任意の Solaris ソフトウェアパッチをインストールします。

    パッチの場所とインストールの方法については、『Sun Cluster 3.0 5/02 ご使用にあたって』を参照してください。必要であれば、/etc/release ファイルを表示して、ノードにインストールする Solaris ソフトウェアの正確なバージョンを調べます。

  15. 任意のハードウェア関連のパッチをインストールして、ハードウェアパッチに含まれる必要なすべてのファームウェアをダウンロードします。

    パッチの場所とインストールの方法については、『Sun Cluster 3.0 5/02 ご使用にあたって』を参照してください。

  16. 各ノード上の /etc/inet/hostsファイルを、クラスタ内にあるすべてのパブリックホスト名と論理アドレスで更新します。

    この手順は、ネームサービスを使用しているかどうかに関わらず実行します。

  17. 動的再構成を使用する予定があるかどうかを確認します。


    注 -

    クラスタ構成で動的再構成を使用するには、Sun Cluster ソフトウェアで動的再構成を使用するようにサーバーを構成する必要があります。


    • 使用する予定の場合、各ノード上で次のエントリを /etc/system ファイルに追加します。


      set kernel_cage_enable=1

      このエントリは、次のシステム再起動後に有効になります。Sun Cluster 構成で動的再構成の作業を行う手順については、『Sun Cluster 3.0 12/01 のシステム管理』を参照してください。動的再構成の詳細については、サーバーのマニュアルを参照してください。

    • 使用する予定がない場合は、手順 18 に進みます。

  18. Sun Cluster ソフトウェアをクラスタノードにインストールします。

Sun Cluster ソフトウェアを 1 番目のクラスタノードにインストールする方法 (scinstall) (5/02)

次の変更は、Sun Cluster 3.0 5/02 Update リリースから導入されます。この変更は、今回をふくむ Sun Cluster 3.0 ソフトウェアの今後のすべての Update リリースに適用されます。

手順 1 実行後 - 手順 1 の後で、次の手順を新しい手順 2 として実行します。元の手順 2 は新しく手順 3 になります。

    SunPlex Manager を使用する予定があるかどうかを確認します。

    • 使用する予定の場合、Apache ソフトウェアパッケージがノードにインストールされていることを確認します。エンドユーザーシステムサポートソフトウェアグループをインストールしている場合、Solaris CD-ROM から SUNWapch* パッケージをインストールします。


      # pkgadd -d . SUNWapchr SUNWapchu
      

      エンドユーザーシステムサポートソフトウェアグループよりも上位レベルの Solaris ソフトウェアグループをインストールしている場合、Apache ソフトウェアパッケージは自動的にインストールされます。

    • 使用する予定がない場合、手順 3 に進みます。

Sun Cluster ソフトウェアを追加のクラスタノードにインストールする方法 (scinstall) (5/02)

次の変更は、Sun Cluster 3.0 5/02 Update リリースから導入されます。この変更は、今回を含む Sun Cluster 3.0 ソフトウェアの今後のすべての Update リリースに適用されます。

手順 2 実行後 - 手順 2 の後で、次の手順を新しい手順 3 として実行します。元の手順 3 は新しく手順 4 になります。

    SunPlex Manager を使用する予定があるかどうかを確認します。

    • 使用する予定の場合、Apache ソフトウェアパッケージがノードにインストールされていることを確認します。エンドユーザーシステムサポートソフトウェアグループをインストールしている場合、Solaris CD-ROM から SUNWapch* パッケージをインストールします。


      # pkgadd -d . SUNWapchr SUNWapchu
      

      エンドユーザーシステムサポートソフトウェアグループよりも上位レベルの Solaris ソフトウェアグループをインストールしている場合、Apache ソフトウェアパッケージは自動的にインストールされます。

    • 使用する予定がない場合、手順 4 に進みます。

SunPlex Manager を使用して Sun Cluster ソフトウェアをインストールする (5/02)

次の変更は、Sun Cluster 3.0 5/02 Update リリースから導入されます。この変更は、今回を含む Sun Cluster 3.0 ソフトウェアの今後のすべての Update リリースに適用されます。

Solaris Volume Manager - Solaris 9 の場合、Solaris Volume Manager ソフトウェアはすでに Solaris ソフトウェアインストールの一部としてインストールされています。SunPlex Manager を使用すると、3 つまでのメタセットおよび関連するメタデバイスを構成でき、さらに、それぞれにクラスタファイルシステムを作成およびマウントできます。

SunPlex Manager を使用して Sun Cluster HA for NFS データサービスまたは Sun Cluster HA for Apache スケーラブルデータサービスをインストールするには、SunPlex Manager を使用して Solaris Volume Manager ミラー化ディスクセットも構成する必要があります。

Solaris Volume Manager をサポートするためには、SunPlex Manager に必要な /sds パーティションに少なくとも 20M バイトが必要です。

メタセット名 - SunPlex Manager が作成する 3 つのメタセット名のうちの 2 つは次のように変更されました。

次の表に、SunPlex Manager が作成する各メタセットの名前とクラスタファイルシステムマウントポイントのリストを示します (ノードに接続されている共有ディスクの数で異なる)。

表 4-1 SunPlex Manager がインストールするメタセット

共有ディスク 

メタセット名 

クラスタファイルシステムマウントポイント 

目的 

共有ディスクの 1 番目のペア 

mirror-1

/global/mirror-1

Sun Cluster HA for NFS または Sun Cluster HA for Apache のスケーラブルデータサービス、または両方 

共有ディスクの 2 番目のペア 

mirror-2

/global/mirror-2

未使用 

共有ディスクの 3 番目のペア 

mirror-3

/global/mirror-3

未使用 

SunPlex Manager ソフトウェアをインストールする方法 (5/02)

次の変更は、Sun Cluster 3.0 5/02 Update リリースから導入されます。この変更は、今回を含む Sun Cluster 3.0 ソフトウェアの今後のすべての Update リリースに適用されます。

手順 3 - Solaris 9 ソフトウェア CD-ROM から Apache ソフトウェアパッケージをインストールするには、/cdrom/cdrom0/Solaris_9/Product ディレクトリに移動します。

Solaris と Sun Cluster ソフトウェアをインストールする方法 (JumpStart) (5/02)

次の変更は、Sun Cluster 3.0 5/02 Update リリースから導入されます。この変更は、今回を含む Sun Cluster 3.0 ソフトウェアの今後のすべての Update リリースに適用されます。

この手順では、scinstall(1M) ユーティリティのカスタム JumpStart インストール方法を設定および使用する方法を説明します。この方法は、Solaris と Sun Cluster ソフトウェアの両方を 1 回の操作ですべてのクラスタノードにインストールし、クラスタを動作可能にします。この手順は、新しいノードを既存のクラスタに追加するときにも使用できます。

  1. Solaris ソフトウェアをインストールする前に、ハードウェアの設定が完了していることと、接続が完全であることを確認します。

    ハードウェアを設定する方法の詳細については、『Sun Cluster 3.0 12/01 Hardware Guide』およびサーバーと記憶装置のマニュアルを参照してください。

  2. クラスタ構成の計画が完了していることを確認します。

    条件と指針については、『Sun Cluster 3.0 12/01 ソフトウェアのインストール』の「クラスタソフトウェアのインストールの準備をする」を参照してください。

  3. 次の情報を用意します。

    • 各クラスタノードの Ethernet アドレス

    • Sun Cluster 3.0 5/02 ご使用にあたって』にある、記入済みの構成計画ワークシート

      • 「ローカルファイルシステム配置のワークシート」

      • 「クラスタとノード名のワークシート」

      • 「クラスタインターコネクトのワークシート」

    計画の指針については、『Sun Cluster 3.0 12/01 ソフトウェアのインストール』の「Solaris オペレーティング環境の計画」と「Sun Cluster 環境の計画」を参照してください。

  4. ネームサービスを使用しているかどうかを確認します。

    • 使用していない場合、手順 5 に進みます。手順 31 において、必要なホスト名情報を設定します。

    • 使用している場合、すべての公開ホスト名と論理アドレス間のアドレスと名前マッピングを、JumpStart サーバーの IP アドレスとホスト名に加えて、クライアントがクラスタサービスにアクセスするために使用する任意のネームサービス (NIS や DNS など) に追加します。計画の指針については、『Sun Cluster 3.0 12/01 ソフトウェアのインストール』の「IP アドレス」を参照してください。Solaris ネームサービスの使用については、Solaris システム管理者用のマニュアルを参照してください。

  5. 既存のクラスタに新しいノードをインストールするかどうかを確認します。

    • インストールする場合、別のアクティブなノードから scsetup(1M) を実行して、新しいノードの名前をクラスタの承認済みノードリストに追加します。手順については、『Sun Cluster 3.0 12/01 のシステム管理』の「クラスタノードを承認済みノードリストに追加する」を参照してください。

    • インストールしない場合、手順 6 に進みます。

  6. スーパーユーザーとして、JumpStart インストールサーバーを Solaris オペレーティング環境インストール用に設定します。

    JumpStart インストールサーバーを設定する方法については、setup_install_server(1M) と add_install_client(1M) のマニュアルページ、および『Solaris のインストール (上級編)』を参照してください。

    インストールサーバーを設定するときには、次の条件に適合していることを確認します。

    • インストールサーバーがクラスタノードと同じサブネット上にあるが、それ自身はクラスタノードでないこと。

    • インストールサーバーに Sun Cluster ソフトウェアに必要なリリースの Solaris オペレーティング環境がインストールされていること。

    • Sun Cluster の JumpStart インストール用のカスタム JumpStart ディレクトリが存在すること。この jumpstart-dir ディレクトリには check(1M) ユーティリティのコピーが含まれているため、JumpStart インストールサーバーが読み取れるように NFS でエクスポートされている必要があります。

    • 新しいクラスタノードがそれぞれカスタム JumpStart インストールクライアントとして構成されており、Sun Cluster インストール用の JumpStart ディレクトリを使用すること。

  7. Sun Cluster 3.0 5/02 CD-ROM のコピーを格納するためのディレクトリを JumpStart インストールサーバー上に作成します (まだ、存在しない場合)。

    次の例では、このディレクトリとして /export/suncluster を使用します。


    # mkdir -m 755 /export/suncluster
    

  8. Sun Cluster CD-ROM を JumpStart インストールサーバーにコピーします。

    1. Sun Cluster 3.0 5/02 CD-ROM を JumpStart インストールサーバー上の CD-ROM ドライブに挿入します。

      ボリューム管理デーモン vold(1M) が動作しており、CD-ROM デバイスを管理するように構成されている場合、このデーモンは自動的に CD-ROM を /cdrom/suncluster_3_0_u3 ディレクトリにマウントします。

    2. /cdrom/suncluster_3_0_u3/SunCluster_3.0/Tools ディレクトリに移動します。


      # cd /cdrom/suncluster_3_0_u3/SunCluster_3.0/Tools
      

    3. CD-ROM を JumpStart インストールサーバー上の新しいディレクトリにコピーします。

      scinstall コマンドは、CD-ROM ファイルをコピーするときに新しいインストールディレクトリを作成します。この例では、インストールディレクトリの名前として /export/suncluster/sc30 を使用します。


      # ./scinstall -a /export/suncluster/sc30
      

    4. CD-ROM を取り出します。


      # cd /
      # eject cdrom
      

    5. JumpStart インストールサーバーが読み取れるように、JumpStart インストールサーバー上にある Sun Cluster 3.0 5/02 CD-ROM イメージが NFS でエクスポートされていることを確認します。

      自動ファイル共有の詳細については、『NFS Administration Guide』、および share(1M) と dfstab(4) のマニュアルページを参照してください。

  9. 既存のクラスタに新しいノードをインストールするかどうかを確認します。

    • インストールする場合、手順 10 に進みます。

    • インストールしない場合、手順 11 に進みます。

  10. 新しいノードをクラスタの承認済みノードリストに追加したかどうかを確認します。

    • 追加した場合、手順 11 に進みます。

    • 追加していない場合、既存の任意のクラスタノードから scsetup(1M) を実行して、新しいノードの名前をクラスタの承認済みノードリストに追加します。手順については、『Sun Cluster 3.0 12/01 のシステム管理』の「クラスタノードを承認済みノードリストに追加する」を参照してください。

  11. JumpStart インストールサーバーから scinstall(1M) ユーティリティを起動します。

    この例では、作成したインストールディレクトリとして /export/suncluster/sc30 を使用します。


    # cd /export/suncluster/sc30/SunCluster_3.0/Tools
    # ./scinstall
    

    対話式 scinstall ユーティリティを使用するときには、次の指針に従います。

    • 対話式 scinstall を使用すると、先行入力が可能になります。したがって、次のメニュー画面がすぐに表示されなくても、Return キーを複数回押さないでください。

    • 特に説明がない限り、Control-D を押すと、関連する一番最初の質問またはメインメニューに戻ることができます。Sun Cluster ソフトウェアをインストールした後に Control-D を押してセッションを中断した場合、scinstall はこれらのパッケージをアンインストールするかどうかをたずねます。

    • セッション中の応答は、次に同じメニューオプションを実行したときのデフォルトの応答として記憶されます。デフォルトの応答はプロンプトの終わりに角括弧 ([ ]) に囲まれて表示されます。

  12. メインメニューから 3 (Configure a cluster to be JumpStarted from this install server) を入力します。

    このオプションを使用して、カスタム JumpStart 完了スクリプトを構成します。JumpStart はこれらの完了スクリプトを使用して、Sun Cluster ソフトウェアをインストールします。


     *** Main Menu ***
     
        Please select from one of the following (*) options:
     
            1) Establish a new cluster using this machine as the first node
            2) Add this machine as a node in an established cluster
          * 3) Configure a cluster to be JumpStarted from this install server
            4) Add support for new data services to this cluster node
            5) Print release information for this cluster node
     
          * ?) Help with menu options
          * q) Quit
     
        Option:  3
     
     *** Custom JumpStart ***
    ...
        Do you want to continue (yes/no) [yes]? 


    注 -

    画面上でオプション 3 にアスタリスクが表示されない場合、JumpStart の設定が完了していないか、エラーが発生しているため、このオプションが無効であることを意味します。scinstall ユーティリティを終了し、手順 6 から手順 8 までを繰り返し、JumpStart の設定を修正してから scinstall ユーティリティを再起動します。


  13. JumpStart ディレクトリの名前を指定します。


    >>> Custom JumpStart Directory <<<
    ....
        What is your JumpStart directory name?  jumpstart-dir
    

  14. クラスタの名前を指定します。


    >>> Cluster Name <<<
    ...
        What is the name of the cluster you want to establish?  clustername
    

  15. すべてのクラスタノードの名前を指定します。


    >>> Cluster Nodes <<<
    ...
        Please list the names of all cluster nodes planned for the initial
        cluster configuration. You must enter at least two nodes. List one
        node name per line. When finished, type Control-D:
     
        Node name:  node1
        Node name:  node2
        Node name (Ctrl-D to finish): <Control-D>
     
        This is the complete list of nodes:
    ... 
        Is it correct (yes/no) [yes]? 

  16. データ暗号化標準 (DES) 認証を使用するかどうかを指定します。

    デフォルトでは、Sun Cluster ソフトウェアにおいてノードがクラスタに接続できるのは、ノードがプライベートインターコネクトに物理的に接続されており、かつ、手順 15 においてノード名が指定されている場合だけです。しかし、この時点ではプライベートインターコネクトは完全に構成されていないので、実際にはノードはパブリックネットワーク経由でスポンサーノードと通信します。DES 認証を使用すると、スポンサーノードはクラスタ構成を更新するために接続しようとするノードをより信頼性の高い方法で認証するため、インストール時のセキュリティレベルが上がります。

    DES 認証を使用してセキュリティレベルを上げることを選択した場合、任意のノードがクラスタに参加できるようにするためには、必要な暗号化鍵をすべて構成する必要があります。詳細については、keyserv(1M) と publickey(4) のマニュアルページを参照してください。


    >>> Authenticating Requests to Add Nodes <<<
    ...
        Do you need to use DES authentication (yes/no) [no]? 

  17. プライベートネットワークアドレスとネットマスクを指定します。


    >>> Network Address for the Cluster Transport <<<
    ...
        Is it okay to accept the default network address (yes/no) [yes]? 
        Is it okay to accept the default netmask (yes/no) [yes]? 


    注 -

    クラスタの構築に成功した後、プライベートネットワークアドレスは変更できません。


  18. クラスタがトランスポート接続点を使用するかどうかを指定します。

    • 当該クラスタが 2 ノードクラスタである場合、トランスポート接続点を使用するかどうかを指定します。


      >>> Point-to-Point Cables <<<
       ...
          Does this two-node cluster use transport junctions (yes/no) [yes]? 


      ヒント -

      ノードがお互いに直接接続されているかどうかに関わらず、クラスタがトランスポート接続点を使用することを指定できます。クラスタがトランスポート接続点を使用することを指定した場合、将来、より簡単に新しいノードをクラスタに追加できます。


    • クラスタが 4 つ以上のノードを持っている場合、トランスポート接続点を使用する必要があります。Return キーを押して、次の画面に進みます。


      >>> Point-to-Point Cables <<<
       ...
          Since this is not a two-node cluster, you will be asked to configure
          two transport junctions.
          
      Hit ENTER to continue: 

  19. クラスタがトランスポート接続点を使用するかどうかを確認します。

    • 使用する場合、トランスポート接続点の名前を指定します。このとき、デフォルトの名前 switchN を使用するか、または独自の名前を作成することが可能です。


      >>> Cluster Transport Junctions <<<
       ...
          What is the name of the first junction in the cluster [switch1]? 
          What is the name of the second junction in the cluster [switch2]? 

    • 使用しない場合、手順 20 に進みます。

  20. 1 番目のノードの 1 番目のクラスタインターコネクトトランスポートアダプタを指定します。


    >>> Cluster Transport Adapters and Cables <<<
    ...
     For node "node1",
        What is the name of the first cluster transport adapter?  adapter
    

  21. 1 番目のアダプタの接続エンドポイントを指定します。

    • クラスタがトランスポート接続点を使用しない場合、アダプタが接続されている 2 番目のノード上にあるアダプタの名前を指定します。


      ...
          Name of adapter on "node2" to which "adapter" is connected? adapter
      

    • クラスタがトランスポート接続点を使用する場合、1 番目のトランスポート接続点の名前とそのポートを指定します。


      ...
       For node "node1",
          Name of the junction to which "adapter" is connected? switch
      ...
       For node "node1",
          Use the default port name for the "adapter" connection (yes/no) [yes]? 


      注 -

      構成が SCI アダプタを使用している場合、アダプタの接続 (ポート名) についてたずねられたときにデフォルトをそのまま使用してはいけません。その代わりに、ノードが物理的にケーブル接続されている、Dolphin スイッチ自体の上にあるポート名 (012、または 3) を指定します。次の例に、デフォルトのポート名を拒否して、Dolphin スイッチのポート名 0 を指定するときのプロンプトと応答を示します。



      ...
          Use the default port name for the "adapter" connection (yes/no) [yes]?  no
          What is the name of the port you want to use?  0
      
  22. 1 番目のノードの 2 番目のクラスタインターコネクトトランスポートアダプタを指定します。


    ...
     For node "node1",
        What is the name of the second cluster transport adapter?  adapter
    

  23. 2 番目のアダプタの接続エンドポイントを指定します。

    • 当該クラスタがトランスポート接続点を使用しない場合、当該アダプタが接続されている 2 番目のノード上にあるアダプタの名前を指定します。


      ...
          Name of adapter on "node2" to which "adapter" is connected? adapter
      

    • クラスタがトランスポート接続点を使用する場合、2 番目のトランスポート接続点の名前とそのポートを指定します。


      ...
       For node "node1",
          Name of the junction to which "adapter" is connected? switch
      ...
       For node "node1",
          Use the default port name for the "adapter" connection (yes/no) [yes]? 


      注 -

      構成が SCI アダプタを使用している場合、アダプタの接続 (ポート名) についてたずねられたときにデフォルトをそのまま使用してはいけません。その代わりに、ノードが物理的にケーブル接続されている、Dolphin スイッチ自体の上にあるポート名 (012、または 3) を指定します。次の例に、デフォルトのポート名を拒否して、Dolphin スイッチのポート名 0 を指定するときのプロンプトと応答を示します。



      ...
          Use the default port name for the "adapter" connection (yes/no) [yes]?  no
          What is the name of the port you want to use?  0
      
  24. クラスタがトランスポート接続点を使用するかどうかを確認します。

    • 使用する場合、その他の各クラスタノードに対しても 手順 20 から 手順 23 までを繰り返します。

    • 使用しない場合、手順 25 に進みます。

  25. 各クラスタノードの広域デバイスファイルシステム名を指定します。


    >>> Global Devices File System <<<
    ...
        The default is to use /globaldevices.
     
     For node "node1",
        Is it okay to use this default (yes/no) [yes]? 
     
     For node "node2",
        Is it okay to use this default (yes/no) [yes]? 

  26. 生成された scinstall コマンドを使用するか、または拒否します。

    確認のため、これまでの入力から生成された scinstall コマンドが表示されます。


    >>> Confirmation <<<
     
        Your responses indicate the following options to scinstall:
    -----------------------------------------
     For node "node1",
          scinstall -c jumpstart-dir -h node1  ¥
    ...
        Are these the options you want to use (yes/no) [yes]? 
    -----------------------------------------
     For node "node2",
          scinstall -c jumpstart-dir -h node2  ¥
    ...
        Are these the options you want to use (yes/no) [yes]? 
    -----------------------------------------
        Do you want to continue with JumpStart set up (yes/no) [yes]? 

    生成されたコマンドを使用しない場合、scinstall ユーティリティはメインメニューに戻ります。メインメニューからオプション「3」を実行し直して、応答を変更します。以前の応答はデフォルトとして表示されます。

  27. 必要であれば、scinstall が生成したデフォルトの class ファイル (つまり、プロファイル) を調整します。

    scinstall コマンドは次の autoscinstall.class というデフォルトの class ファイルを jumpstart-dir/autoscinstall.d/3.0 ディレクトリに作成します。


    install_type    initial_install
    system_type     standalone
    partitioning    explicit
    filesys         rootdisk.s0 free /
    filesys         rootdisk.s1 750 swap
    filesys         rootdisk.s3 100  /globaldevices
    filesys         rootdisk.s7 10
    cluster         SUNWCuser       add
    package         SUNWman         add

    デフォルトの class ファイルは Solaris ソフトウェアのエンドユーザーシステムサポートソフトウェアグループ (SUNWCuser) をインストールします。構成に他の Solaris ソフトウェア条件がある場合、class ファイルを適宜変更します。詳細については、『Sun Cluster 3.0 12/01 ソフトウェアのインストール』の「Solaris ソフトウェアグループについて」を参照してください。

    次のいずれかの方法でプロファイルを変更します。

    • autoscinstall.class ファイルを直接編集します。この方法による変更は、カスタム JumpStart ディレクトリを使用するすべてのクラスタのすべてのノードに適用されます。

    • rules ファイルが別のプロファイルを指し示すように更新してから、check ユーティリティを実行して、rules ファイルの妥当性を検査します。

    Solaris オペレーティング環境のインストールプロファイルが最小限の Sun Cluster ファイルシステム割り当て条件に適合する限り、インストールプロファイルへのこれ以外の変更に制限はありません。Sun Cluster 3.0 ソフトウェアをサポートするためのパーティション分割の指針と条件については、『Sun Cluster 3.0 12/01 ソフトウェアのインストール』の「システムディスクパーティション」を参照してください。JumpStart プロファイルの詳細については、『Solaris 8 インストール (上級編)』または『Solaris 9 インストール (上級編)』を参照してください。

  28. Remote Shared Memory Application Programming Interface (RSMAPI) を使用する予定があるかどうか、あるいは、インターコネクトトランスポート用に PCI-SCI アダプタを使用するかどうかを確認します。

    • 使用する場合、さらにエンドユーザーシステムサポートソフトウェアグループをインストールしている場合は、手順 27 で説明されているとおりに、次のエントリをデフォルトの class ファイルに追加します。


      package         SUNWrsm         add
      package         SUNWrsmx        add
      package         SUNWrsmo        add
      package         SUNWrsmox       add

      さらに、Sun Cluster パッケージをインストールして RSMAPI と PCI-SCI アダプタをサポートするためには、手順 33において、インストール後に実行する完了スクリプトを作成または変更する必要があります。

      エンドユーザーシステムサポートソフトウェアグループよりも上位レベルの Solaris ソフトウェアグループをインストールしている場合、SUNWrsm* パッケージは Solaris ソフトウェアと一緒にインストールされるので、class ファイルに追加する必要はありません。

    • 使用する予定がない場合、手順 29 に進みます。

  29. SunPlex Manager を使用する予定があるかどうかを確認します。

    • 使用する場合、さらにエンドユーザーシステムサポートソフトウェアグループをインストールしている場合は、手順 27 で説明されているとおりに、次のエントリをデフォルトの class ファイルに追加します。


      package         SUNWapchr       add
      package         SUNWapchu       add

      エンドユーザーシステムサポートソフトウェアグループよりも上位レベルの Solaris ソフトウェアグループをインストールしている場合、SUNWrsm* パッケージは Solaris ソフトウェアと一緒にインストールされるので、class ファイルに追加する必要はありません。

    • 使用する予定のない場合、手順 30 に進みます。

  30. Solaris パッチディレクトリを設定します。

    1. jumpstart-dir/autoscinstall.d/nodes/node/patches ディレクトリを JumpStart インストールサーバー上に作成します。

      上記のディレクトリは node がクラスタノードの名前であるクラスタノードごとに 1 つずつ作成します。あるいは、次の命名規則を使用して、共有パッチディレクトリへのシンボリックリンクを作成します。


      # mkdir jumpstart-dir/autoscinstall.d/nodes/node/patches
      

    2. これらの各ディレクトリに Solaris パッチのコピーを格納します。

      また、Solaris ソフトウェアをインストールした後にインストールする必要があるすべてのハードウェア関連パッチのコピーもこれらのディレクトリに格納します。

  31. 各ノード上で、ローカルに必要なホスト名情報を含むファイルを設定します。

    1. JumpStart インストールサーバー上で、jumpstart-dir/autoscinstall.d/nodes/node/archive/etc/inet/hosts という名前のファイルを作成します。

      上記ファイルは node がクラスタノードの名前であるクラスタノードごとに 1 つずつ作成します。あるいは、この命名規則を使用して、共有 hosts ファイルへのシンボリックリンクを作成します。

    2. 次のエントリを各ファイルに追加します。

      • Sun Cluster CD-ROM イメージのコピーが格納されている NFS サーバーの IP アドレスとホスト名。これは JumpStart インストールサーバーである場合も、別のマシンである場合もあります。

      • クラスタ内にある各ノードの IP アドレスとホスト名。

  32. Remote Shared Memory Application Programming Interface (RSMAPI) を使用する予定があるかどうか、あるいは、インターコネクトトランスポート用に PCI-SCI アダプタを使用しているかどうかを確認します。

    • 使用する予定の場合、手順 33 の指示に従って、インストールに実行する完了スクリプトを設定し、次の追加パッケージをインストールします。次の表の順番どおりに、Sun Cluster 3.0 5/02 CD-ROM の /cdrom/suncluster_3_0_u3/SunCluster_3.0/Packages ディレクトリから適切なパッケージをインストールします。

      表 4-2 RSMAPI と PCI-SCI アダプタをサポートするための Sun Cluster 3.0 パッケージ

      特長 

      インストールすべき追加の Sun Cluster 3.0 パッケージ 

      RSMAPI 

      SUNWscrif

      PCI-SCI アダプタ 

      SUNWsci SUNWscid SUNWscidx

    • 使用する予定がない場合で、さらにインストール後に実行する独自の完了スクリプトを追加する予定の場合、手順 33 に進みます。それ以外の場合、手順 34 に進みます。

  33. (省略可能) インストール後に実行する独自の完了スクリプトを追加します。


    注 -

    Remote Shared Memory Application Programming Interface (RSMAPI) を使用する予定か、またはインターコネクトトランスポート用に PCI-SCI アダプタを使用している場合、Sun Cluster SUNWscrif ソフトウェアパッケージをインストールするように完了スクリプトを変更する必要があります。このパッケージは、scinstall では自動的にインストールされません。


    scinstall コマンドでインストールされた標準の完了スクリプトの後に実行するような独自の完了スクリプトも追加できます。JumpStart 完了スクリプトを作成する方法については、『Solaris 8 のインストール (上級編) 』または『Solaris 9 のインストール』を参照してください。

    1. 完了スクリプトに finish という名前をつけます。

    2. 独自の完了スクリプトを、クラスタ内にあるノードごとに 1 つずつある jumpstart-dir/autoscinstall.d/nodes/node ディレクトリにコピーします。

      あるいは、この命名規則を使用して、共有完了スクリプトへのシンボリックリンクを作成します。

  34. クラスタ管理コンソールを使用している場合、クラスタ内にある各ノードのコンソール画面を表示します。

    cconsole(1M) が管理コンソールにインストールおよび構成されている場合、このユーティリティを使用すると、各ノードのコンソール画面を表示できます。それ以外の場合、各ノードのコンソールに個別に接続する必要があります。

  35. 各ノードのコンソール上にある ok PROM プロンプトから boot net - install コマンドを入力して、ネットワーク JumpStart インストールを各ノード上で開始します。


    ok boot net - install
    


    注 -

    上記コマンド内のダッシュ記号 (-) の両側は空白文字で囲む必要があります。


    Sun Cluster インストールの出力は /var/cluster/logs/install/scinstall.log.pid ファイルに記録されます。ここに示した pid は、scinstall インスタンスのプロセス ID 番号です。


    注 -

    独自の /etc/inet/ntp.conf ファイルをインストールしていない限り、scinstall コマンドは自動的にデフォルトの ntp.conf ファイルをインストールします。デフォルトのファイルは 8 ノードを想定しているので、xntpd(1M) デーモンは起動時にこれらのノードに関してエラーメッセージを発行することがあります。このようなエラーメッセージは無視しても安全です。これ以外の通常のクラスタ条件において、このようなエラーメッセージを抑制する方法については、 「Network Time Protocol (NTP) を更新する方法 (5/02)」を参照してください。


    インストールが正常に完了すると、各ノードは新しいクラスタノードとして完全にインストールされます。


    注 -

    Solaris ソフトウェアのインストール時、Solaris インタフェースグループの機能はデフォルトで無効になります。Sun Cluster 構成ではインタフェースグループはサポートされないので、有効にしてはなりません。Solaris インタフェースグループの詳細については、ifconfig(1M) のマニュアルページを参照してください。


  36. 既存のクラスタに新しいノードをインストールするかどうかを確認します。

    • インストールしない場合、手順 37 に進みます。

    • インストールする場合、新しいノード上で、既存のすべてのクラスタファイルシステム用のマウントポイントを作成します。

    1. クラスタ内にある別のアクティブなノードから、すべてのクラスタファイルシステムの名前を表示します。


      % mount | grep global | egrep -v node@ | awk '{print $1}'
      

    2. クラスタに追加したノード上で、クラスタ内にある各クラスタファイルシステム用のマウントポイントを作成します。


      % mkdir -p mountpoint
      

      たとえば、マウントコマンドが戻したファイルシステム名が /global/dg-schost-1 である場合、クラスタに追加するノード上で mkdir -p /global/dg-schost-1 を実行します。


      注 -

      マウントポイントがアクティブになるのは、手順 39 においてクラスタを再起動した後です。


    3. クラスタ内にすでにある任意のノード上に VERITAS Volume Manager (VxVM) をインストールしているかどうかを確認します。

      • インストールしている場合、VxVM がインストールされているノード上で同じ vxio 番号が使用されていること、および、VxVM がインストールされていない各ノード上で vxio 番号が使用できることを確認します。


        # grep vxio /etc/name_to_major
        vxio NNN
        

        VxVM がインストールされていないノード上ですでに vxio 番号が使用されている場合、当該ノード上で /etc/name_to_major ファイルのエントリが使用する番号を変更して、この番号を解放します。

      • インストールしない場合、手順 37 に進みます。

  37. 任意の Sun Cluster ソフトウェアパッチをインストールします。

    パッチの場所とインストールの方法については、『Sun Cluster 3.0 5/02 ご使用にあたって』を参照してください。

  38. 動的再構成を使用する予定があるかどうかを確認します。


    注 -

    クラスタ構成で動的再構成を使用するには、Sun Cluster ソフトウェアで動的再構成を使用するようにサーバーを構成する必要があります。


    • 使用する予定の場合、各ノード上で次のエントリを /etc/system ファイルに追加します。


      set kernel_cage_enable=1

      このエントリは、次のシステム再起動後に有効になります。Sun Cluster 構成で動的再構成の作業を行う手順については、『Sun Cluster 3.0 12/01 のシステム管理』を参照してください。動的再構成の詳細については、サーバーのマニュアルを参照してください。

    • 使用する予定のない場合、手順 39 に進みます。

  39. 新しいノードを既存のクラスタに追加したか、クラスタ全体を再起動する必要があるような Sun Cluster ソフトウェアパッチをインストールしたか、あるいは、この両方を行ったかどうかを確認します。

    • 行なっていない場合、ノードを再起動する必要があるパッチをインストールした場合、あるいは、アクティブにするために再起動が必要な変更を行なった場合、個々のノードを再起動します。

    • 行なった場合、次の手順に従って再構成再起動を実行します。

    1. ノードの 1 つからクラスタを停止します。


      # scshutdown
      


      注 -

      クラスタがシャットダウンするまで、最初にインストールしたクラスタノードを再起動しないでください。


    2. クラスタ内にある各ノードを再起動します。


      ok boot
      

    クラスタのインストールモードが無効になるまでは、最初にインストールした (つまり、クラスタを構築した) ノードだけが定足数投票権を持ちます。インストールモードが無効になっていない (つまり、構築された) クラスタでは、クラスタをシャットダウンせずに最初にインストールしたノードを再起動すると、残りのクラスタノードは定足数を獲得できず、クラスタ全体が停止します。『Sun Cluster 3.0 12/01 ソフトウェアのインストール』の手順「インストール後設定を行う」の中で、scsetup(1M) コマンドを最初に実行するときまで、クラスタノードはインストールノードのままです。

  40. ネームサービス検索順を設定します。

    Sun Cluster 3.0 12/01 ソフトウェアのインストール』の「ネームサービススイッチを構成する」に進みます。

ルート環境を設定する方法 (5/02)

次の変更は、Sun Cluster 3.0 5/02 Update リリースから導入されます。この変更は、今回を含む Sun Cluster 3.0 ソフトウェアの今後のすべての Update リリースに適用されます。

VERITAS Volume Manager の場合、次のパスを含むように MANPATH 環境変数を設定します。

Sun Cluster ソフトウェアをアンインストールしてインストール上の問題を修正する方法 (5/02)

次の機能は、Sun Cluster 3.0 5/02 Update リリースから導入されます。これらの機能は、今回を含む Sun Cluster 3.0 ソフトウェアの今後のすべての Update リリースに適用されます。

インストールしたノードがクラスタに参加できなかったり、構成情報 (トランスポートアダプタなど) を修正する場合、次の手順を実行します。


注 -

ノードがすでにクラスタに参加しており、インストールモードではない場合 (『Sun Cluster 3.0 12/01 ソフトウェアのインストール』の「インストール後設定を行う」の手順 11 を参照)、この手順を行なってはいけません。その代わりに、「クラスタノードから Sun Cluster ソフトウェアをアンインストールする方法 (5/02)」に進みます。


  1. ノードを再インストールします。

    インストールに失敗したノードは、単に、当該ノード上で Sun Cluster ソフトウェアのインストールをやり直すだけで修正できる場合があります。ノードの再インストールを行なっても成功しなかった場合、手順 2 に進んで当該ノードから Sun Cluster ソフトウェアをアンインストールします。

  2. アンインストールを行なうノード以外のアクティブなクラスタメンバー上でスーパーユーザーになります。

  3. アクティブなクラスタメンバーから、アンインストールを行なうノードをクラスタのノード認証リストに追加します。


    # /usr/cluster/bin/scconf -a -T node=nodename
    

    -a

    追加します。

    -T

    認証オプションを指定します。

    node=nodename

    認証リストに追加するノードの名前を指定します。

    あるいは、scsetup(1M) ユーティリティも使用できます。手順については、『Sun Cluster 3.0 12/01 のシステム管理』の「クラスタノードを承認済みノードリストに追加する」を参照してください。

  4. アンインストールを行なうノード上でスーパーユーザーになります。

  5. ノードを再起動して、非クラスタモードにします。


    # shutdown -g0 -y -i0
    ok boot -x
    

  6. ノードをアンインストールします。


    # cd /
    # /usr/cluster/bin/scinstall -r
    

    詳細については、scinstall(1M) のマニュアルページを参照してください。

  7. Sun Cluster ソフトウェアをノードに再インストールします。

    インストール作業全体のリストとインストール作業を行う順番については、『Sun Cluster 3.0 12/01 ソフトウェアのインストール』の表 2-1 を参照してください。

クラスタの構成

以下の情報は、このUpdate リリース以降のすべての更新に適用されます。

クラスタファイルシステムを追加する方法 (5/02)

次の 手順 2手順 4、および 手順 8 への変更は Sun Cluster 3.0 5/02 リリースから導入され、以降のすべての Sun Cluster 3.0 ソフトウェアの更新に適用されます。

次の手順は、追加するクラスタファイルシステムごとに行います。


Caution - Caution -

ファイルシステムを作成するとき、ディスク上のデータは破壊されます。正しいディスクデバイス名を指定していることを確認してください。間違ったデバイス名を指定した場合、削除するつもりのないデータが削除されてしまいます。


SunPlex Manager を使用してデータサービスをインストールした場合、クラスタファイルシステムを作成した共有ディスクに十分な大きさがあった場合には、1 つまたは複数のクラスタファイルシステムがすでに存在しています。

  1. ボリュームマネージャソフトウェアがインストールおよび構成されていることを確認します。

    ボリュームマネージャのインストール手順については、『Sun Cluster 3.0 12/01 ソフトウェアのインストール』の「Solstice DiskSuite ソフトウェアのインストールと構成」と「VxVM ソフトウェアのインストールと構成」を参照してください。

  2. VERITAS File System (VxFS) ソフトウェアをインストールする予定があるかどうかを確認します。

    • インストールする予定がない場合、手順 3 に進みます。

    • インストールする予定の場合、次の手順を行います。

    1. VxFS のインストールマニュアルに従って、VxFS ソフトウェアをクラスタの各ノード上にインストールします。

    2. 各ノード上にある /etc/system ファイルで、次のエントリの設定値を 0x4000 から 0x6000 に変更します。


      set rpcmod:svc_default_stksize=0x6000

      Sun Cluster ソフトウェアには、少なくとも 0x6000 のデフォルトスタックサイズが必要です。VxFS をインストールすると、この設定が 0x4000 に変更されるので、VxFS のインストールが終わった後、この設定を手動で 0x6000 に戻す必要があります。

  3. クラスタ内にある任意のノード上でスーパーユーザーになります。


    ヒント -

    より早くファイルシステムを作成するためには、ファイルシステムを作成する予定の広域デバイスの現在の主ノード上でスーパーユーザーになります。


  4. ファイルシステムを作成します。

    • VxFS ファイルシステムの場合、VxFS のマニュアルに記載されている手順に従います。

    • UFS ファイルシステムの場合、newfs(1M) コマンドを使用します。


      # newfs raw-disk-device
      

    次の表に、raw-disk-device 引数の名前の例を示します。命名規則はボリュームマネージャごとに異なるので注意してください。

    表 4-3 raw ディスクデバイス名の例

    ボリュームマネージャ 

    ディスクデバイス名の例 

    説明 

    Solstice DiskSuite 

    /dev/md/oracle/rdsk/d1

    oracle ディスクセット内の raw デバイス d1

    VERITAS Volume Manager 

    /dev/vx/rdsk/oradg/vol01

    oradg ディスクセット内の raw デバイス vol01

    なし 

    /dev/global/rdsk/d1s3

    raw ディスクデバイス d1s3

  5. クラスタ内にある各ノード上で、クラスタファイルシステムごとにマウントポイントを作成します。

    ノード上でクラスタファイルシステムがアクセスされない場合でも、マウントポイントはノードごとに必要です。


    ヒント -

    管理しやすくするために、マウントポイントは /global/device-group ディレクトリに作成します。この場所を使用すると、広域的に利用できるクラスタファイルシステムとローカルファイルシステムを区別しやすくなります。



    # mkdir -p /global/device-group/mountpoint
    
    device-group

    デバイスが属するデバイスグループ名に対応するディレクトリの名前。

    mountpoint

    クラスタファイルシステムをマウントするディレクトリの名前。

  6. クラスタ内にある各ノード上で、/etc/vfstab ファイルにマウントポイント用のエントリを追加します。

    1. 次の必須マウントオプションを使用します。

      ロギングはすべてのクラスタファイルシステムに必要です。

      • Solaris UFS logging - global,logging マウントオプションを使用します。UFS マウントポイントの詳細については、mount_ufs(1M) のマニュアルページを参照してください。


        注 -

        syncdir マウントオプションは UFS クラスタファイルシステムには必要ありません。syncdir を指定した場合は、write() システムコールにおいてファイルシステムが POSIX に準拠して動作することが保証される、つまり、write() が成功した場合はディスク上に空間が確実に確保されます。syncdir を指定しない場合、ファイルシステムの動作は UFS ファイルシステムと同じです。syncdir を指定しない場合、ディスクブロックを割り当てる (つまり、データをファイルに追加するような) 書き込みの性能が大幅に向上します。しかし、syncdir を指定しない場合、ファイルを閉じるまでは空間不足 (ENOSPC) の状態が判明しません。この場合、ファイルを閉じるときに ENOSPC 状態になるのは、フェイルオーバー後の短い間だけです。syncdir (つまり、POSIX の動作) を指定した場合、空間不足状態はファイルを閉じる前に見つかります。


      • Solstice DiskSuite トランスメタデバイス - global マウントオプションを使用します。logging マウントオプションは使用しません。trans メタデバイスを設定する方法については、Solstice DiskSuite のマニュアルを参照してください。

      • VxFS ロギング - global, log マウントオプションを使用します。VxFS マウントオプションの詳細については、mount_vxfs(1M) のマニュアルページを参照してください。

    2. クラスタファイルシステムを自動的にマウントするには、mount at boot フィールドを yes に設定します。

    3. クラスタファイルシステムごとに、各ノードの /etc/vfstab ファイルにあるエントリの情報が同じであることを確認します。

    4. 各ノードの /etc/vfstab ファイルにあるエントリのデバイスの順番が同じであることを確認します。

    5. ファイルシステムの起動順の依存関係を検査します。

      たとえば、phys-schost-1 がディスクデバイス d0/global/oracle にマウントし、phys-schost-2 がディスクデバイス d1/global/oracle/logs にマウントすると仮定します。この構成では、phys-schost-2/global/oracle/logs を起動およびマウントできるのは、phys-schost-1/global/oracle を起動およびマウントした後だけです。

    詳細については、vfstab(4) のマニュアルページを参照してください。

  7. クラスタ内にある任意のノード上で、マウントポイントが存在し、クラスタ内にあるすべてのノード上で /etc/vfstab ファイルのエントリが正しいことを確認します。


    # sccheck
    

    エラーが発生していない場合は、何も戻されません。

  8. クラスタ内にある任意のノードから、クラスタファイルシステムをマウントします。


    # mount /global/device-group/mountpoint
    


    注 -

    VERITAS File System (VxFS) の場合、ファイルシステムを正しく確実にマウントするには、device-group の現在のマスターからファイルシステムをマウントします。さらに、ファイルシステムを正しく確実にマウント解除するには、device-group の現在のマスターからファイルシステムをマウント解除します。


  9. クラスタ内にある各ノード上で、クラスタファイルシステムがマウントされていることを確認します。

    マウントされているファイルシステムのリストを表示するには、df(1M) コマンドまたは mount(1M) コマンドを使用できます。

    Sun Cluster 環境で VxFS クラスタファイルシステムを管理する場合、管理コマンドを実行できるのは、VxFS クラスタファイルシステムがマウントされている主ノードだけです。

  10. クラスタノードが複数のパブリックサブネットに接続されているかどうかを確認します。

    • 接続されている場合、『Sun Cluster 3.0 12/01 ソフトウェアのインストール』の「追加のパブリックネットワークアダプタを構成する」に進んで、追加のパブリックネットワークアダプタを構成します。

    • 接続されていない場合、『Sun Cluster 3.0 12/01 ソフトウェアのインストール』の「パブリックネットワーク管理 (PNM) を構成する」に進んで PNM を構成し、NAFO グループを設定します。

例-クラスタファイルシステムを作成する

次の例では、UFS クラスタファイルシステムを Solstice DiskSuite メタデバイス /dev/md/oracle/rdsk/d1 上に作成します。


# newfs /dev/md/oracle/rdsk/d1
...
 
(各ノード上で実行する)
# mkdir -p /global/oracle/d1
# vi /etc/vfstab
#device           device        mount   FS      fsck    mount   mount
#to mount         to fsck       point   type    pass    at boot options
#                       
/dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs 2 yes global,logging
(保存して終了する)
 
(1 つのノード上で実行する)
# sccheck
# mount /global/oracle/d1
# mount
...
/global/oracle/d1 on /dev/md/oracle/dsk/d1 read/write/setuid/global/logging/
largefiles on Sun Oct 3 08:56:16 2000

Network Time Protocol (NTP) を更新する方法 (5/02)

次の変更は、Sun Cluster 3.0 5/02 Update リリースから導入されます。この変更は、今回を含む Sun Cluster 3.0 ソフトウェアの今後のすべての Update リリースに適用されます。

Sun Cluster ソフトウェアをインストールした後、次の作業を行なって、NTP 構成ファイルを作成および変更します。また、ノードを既存のクラスタに追加したときや、クラスタ内にあるノードのプライベートホスト名を変更したときも、NTP 構成ファイルを変更する必要があります。


注 -

NTP を構成する (つまり、クラスタ内で同期をとる) 場合に重要な第一の条件は、すべてのクラスタノードが同時に同期をとる必要があるということです。ノード間で同期をとる場合に重要な第二の条件は、個々のノードの時間が正確であるということです。このような同期についての基本的条件に適合する限り、NTP はニーズに合わせて自由に構成できます。クラスタ内の時間の詳細については、『Sun Cluster 3.0 12/01 の概念』を参照してください。NTP を Sun Cluster 構成に合わせて構成する方法の詳細については、/etc/inet/ntp.cluster テンプレートファイルを参照してください。


  1. Sun Cluster ソフトウェアをインストールするに、独自の /etc/inet/ntp.conf ファイルをインストールしたかどうかを確認します。

    • インストールした場合、独自の ntp.conf ファイルを変更する必要はありません。手順 8 に進みます。

    • インストールしていない場合、手順 2 に進みます。

  2. クラスタノード上でスーパーユーザーになります。

  3. 独自の /etc/inet/ntp.conf ファイルをクラスタノード上にインストールしたかどうかを確認します。

    • インストールした場合、独自の /etc/inet/ntp.conf ファイルをクラスタのノードにコピーして、手順 6 に進みます。


      注 -

      すべてのクラスタノードは同時に同期をとる必要があります。


    • インストールしていない場合、手順 4 に進んで、/etc/inet/ntp.conf.cluster ファイルを編集します。Sun Cluster のインストール時に /etc/inet/ntp.conf ファイルが見つからない場合、Sun Clusterソフトウェアは NTP 構成ファイルとしてこのファイルを作成します。ntp.conf.cluster ファイルの名前を ntp.conf に変更してはいけません。

  4. クラスタのどれか 1 つのノード上で、/etc/inet/ntp.conf.cluster ファイルにあるプライベートホスト名を編集します。

    ノード上に /etc/inet/ntp.conf.cluster ファイルが存在しない場合、Sun Cluster ソフトウェアの初期インストールに /etc/inet/ntp.conf ファイルが存在する可能性があります。この場合、その ntp.conf ファイルを次のように編集します。

    1. 各クラスタノードのプライベートホスト名用のエントリが存在することを確認します。

    2. 使用しないプライベートホスト名を削除します。

      存在しないプライベートホスト名が ntp.conf.cluster ファイルに存在する場合、ノードが再起動するときに、このような存在しないプライベートホスト名に接続しようとして、エラーメッセージが生成されます。

    3. ノードのプライベートホスト名を変更した場合、新しいプライベートホスト名が NTP 構成ファイルに存在することを確認します。

    4. 必要であれば、各自の NTP 条件に適合するように NTP 構成ファイルを変更します。

  5. クラスタ内にあるすべてのノードに NTP 構成ファイルをコピーします。

    ntp.conf.cluster ファイルの内容は、すべてのクラスタノードで同じである必要があります。

  6. 各ノード上で、NTP デーモンを停止します。

    各ノード上で停止コマンドが正常に終了するまで待機して、手順 7 に進みます。


    # /etc/init.d/xntpd stop
    

  7. 各ノード上で、NTP デーモンを再起動します。

    • ntp.conf.cluster の場合、次のコマンドを実行します。


      # /etc/init.d/xntpd.cluster start
      

      xntpd.cluster 起動スクリプトは最初に、/etc/inet/ntp.conf ファイルを検索します。このファイルが存在しない場合、起動スクリプトは NTP デーモンを起動せずに即座に終了します。ntp.conf が存在しないが、ntp.conf.cluster は存在する場合、NTP デーモンは ntp.conf.cluster を NTP 構成ファイルとして起動します。

    • ntp.conf の場合、次のコマンドを実行します。


      # /etc/init.d/xntpd start
      

  8. リソースグループを構成したり、クラスタを監視したりするために、Sun Management Center を使用する予定があるかどうかを確認します。

    • 使用する予定の場合、『Sun Cluster 3.0 12/01 ソフトウェアのインストール』の「Sun Management Center 用のSun Cluster モジュールのインストール」に進みます。

    • 使用する予定のない場合、Sun 以外のアプリケーションをインストールし、リソースタイプを登録し、リソースグループを設定し、データサービスを構成します。詳細については、アプリケーションソフトウェアに付属するマニュアルと『Sun Cluster 3.0 12/01 データサービスのインストールと構成』を参照してください。

Sun Management Center を起動する方法(5/02)

次の変更は、Sun Cluster 3.0 5/02 Update リリースから導入されます。この変更は、今回を含む Sun Cluster 3.0 ソフトウェアの今後のすべての Update リリースに適用されます。

手順 2 実行後 - 手順 2 の後で、次の手順を新しい手順 3 として実行します。元の手順 3 は新しく手順 4 になります。

    Sun Management Center エージェントマシン (クラスタノード) 上で、scsymon_srv デーモンが動作していることを確認します。


    # ps -ef | grep scsymon_srv
    

    任意のクラスタノード上で scsymon_srv デーモンが動作していない場合、そのノード上でデーモンを起動します。


    # /usr/cluster/lib/scsymon/scsymon_srv
    

Sun Cluster 2.2 から Sun Cluster 3.0 Update 2 ソフトウェアへのアップグレード

以下の情報は、このUpdate リリース以降のすべての更新に適用されます。

クラスタソフトウェアパッケージをアップグレードする方法 (5/02)

次の変更は、Sun Cluster 3.0 5/02 Update リリースから導入されます。この変更は、今回を含む Sun Cluster 3.0 ソフトウェアの今後のすべての Update リリースに適用されます。

CD-ROM へのパス - フレームワーク用の CD-ROM へのパスが発生する場所をすべて /cdrom/suncluster_3_0_u3 に変更します。これは Sun Cluster 3.0 5/02 CD-ROM に適用されます。

クラスタソフトウェアのアップグレードを終了する方法 (5/02)

次の変更は、Sun Cluster 3.0 5/02 Update リリースから導入されます。この変更は、今回を含む Sun Cluster 3.0 ソフトウェアの今後のすべての Update リリースに適用されます。

CD-ROM へのパス - データサービス用の CD-ROM へのパスが発生する場所をすべて /cdrom/scdataservices_3_0_u3 に変更します。これは Sun Cluster 3.0 Agents 5/02 CD-ROM に適用されます。

Solstice DiskSuite ソフトウェアのインストールと構成

以下の情報は、この Update リリース以降のすべての更新に適用されます。


注 -

Solaris 9 オペレーティング環境の Sun Cluster 3.0 5/02 の場合、Solaris 9 用の代替情報が指定されていない限り、Solstice DiskSuite ソフトウェアの情報と手順は Solaris Volume Manager ソフトウェアにも適用されます。


メタデバイス名の数とディスクセットを設定する方法 (5/02)

次の変更は、Sun Cluster 3.0 5/02 Update リリースから導入されます。この変更は、今回を含む Sun Cluster 3.0 ソフトウェアの今後のすべての Update リリースに適用されます。

メタデバイス名の最大値 - 次の情報は手順 1 と手順 2 を修正します。Solstice DiskSuite (Solaris 8) の場合、各ディスクセットのメタデバイス名の最大数は 1024 です。Solaris Volume Manager (Solaris 9) の場合、各ディスクセットのメタデバイス名の最大数は、『Sun Cluster 3.0 12/01 ソフトウェアのインストール』に記載されているとおり、8192 です。

  1. クラスタ内にある任意のディスクセットに必要なメタデバイス名の最大数を計算します。

    各ディスクセットのメタデバイス名の最大数は 1024 です。計算したメタデバイス名の数を nmd フィールドに指定します。

    1. 各ディスクセットに必要なメタデバイス名の数を計算します。

      ローカルメタデバイスを使用する場合、各ローカルメタデバイス名がクラスタ全体で一意であり、クラスタ内にある任意のデバイス ID (DID) と同じ名前を使用していないことを確認します。


      ヒント -

      DID 名として排他的に使用する番号の範囲と、そのローカルメタデバイス名として排他的に使用する各ノードの範囲を選択します。たとえば、DID は d1 から d99 までの範囲の名前を使用し、ノード 1 上のローカルメタデバイスは d100 から d199 までの範囲の名前を使用し、ノード 2 上のローカルメタデバイスは d200 から d299 までの範囲の名前を使用するなどです。


    2. 任意のディスクセットで使用するメタデバイス名の最大数を判断します。

      設定するメタデバイス名の数は、メタデバイス名の実際の数ではなく、メタデバイス名のに基づいています。たとえば、メタデバイス名の範囲が d950 から d1000 までの場合、Solstice DiskSuite ソフトウェアは 50 個ではなく 1000 個の名前を必要とします。

  2. クラスタ内に作成する予定のディスクセットの合計数を計算して、プライベートディスク管理用の 1 つを追加します。

    クラスタは最大 31 個のディスクセットを持つことができます (プライベートディスク管理用のディスクセットを除く)。デフォルトのディスクセット数は 4 です。この計算した値を md_nsets フィールドに指定します。

ディスクセットを作成する方法 (5/02)

次の変更は、Sun Cluster 3.0 5/02 Update リリースから導入されます。この変更は、今回を含む Sun Cluster 3.0 ソフトウェアの今後のすべての Update リリースに適用されます。

次の手順は、作成するディスクセットごとに行います。


注 -

SunPlex Manager を使用して Solstice DiskSuite をインストールした場合、1 つから 3 つまでのディスクセットがすでに存在する可能性があります。SunPlex Manager によって作成されるメタセットについては、「SunPlex Manager を使用して Sun Cluster ソフトウェアをインストールする (5/02)」を参照してください。


  1. クラスタ内にディスクセットを 4 つ以上作成する予定かどうかを確認します。

    • 作成する予定の場合、手順 2 に進んで、4 つ以上のディスクセットを作成できるようにクラスタを準備します。この作業は、初めてディスクセットをインストールするか、あるいは、完全に構成されたクラスタにより多くのディスクセットを追加するかに関わらず行います。

    • 作成する予定でない場合、手順 6 に進みます。

  2. md_nsets 変数の値が、クラスタに作成しようとするディスクセットの合計数より大きいことを確認します。

    1. クラスタの任意のノードで、/kernel/drv/md.conf ファイルの md_nsets 変数の値を検査します。

    2. クラスタ内に作成する予定のディスクセットの合計数が md_nsets の値から 1 を引いた数より大きい場合、各ノード上で md_nsets の値を希望の値まで増やします。

      作成できるディスクセットの最大数は、md_nsets の値から 1 を引いた数です。md_nsets に設定できる最大値は 32 です。

    3. クラスタの各ノードの /kernel/drv/md.conf ファイルが同じであるか確認します。


      Caution - Caution -

      この指針に従わない場合、深刻な Solstice DiskSuite エラーが発生して、データが失われてしまうことがあります。


    4. ノードのどれか 1 つでクラスタを停止します。


      # scshutdown -g0 -y
      

    5. クラスタの各ノードを再起動します。


      ok> boot
      

  3. クラスタの各ノードで devfsadm(1M) コマンドを実行します。

    このコマンドは、すべてのノードで同時に実行できます。

  4. クラスタのノードの 1 つで scgdevs(1M) コマンドを実行します。

  5. ディスクセットの作成に移る前に、各ノードで scgdevs コマンドが終了しているか確認します。

    ノードの 1 つで scgdevs コマンドを実行すると、このコマンドはリモートから自分自身をすべてのノードで呼び出します。scgdevs コマンドが処理を終了したかどうかを確認するには、クラスタの各ノードで次のコマンドを実行します。


    % ps -ef | grep scgdevs
    

  6. 作成する予定のディスクセットが次の条件の 1 つに適合することを確認します。

    • ディスク文字列を 2 つだけ構成する場合、ディスクセットは 2 つのノードと接続する必要があり、さらに、ディスクセットとして使用する 2 つのホストと同一である 2 つのメディエータホストを使用する必要があります。 メディエータを設定する方法の詳細については、『Sun Cluster 3.0 12/01 ソフトウェアのインストール』の「メディエータの概要」を参照してください。

    • ディスク文字列を 3 つ以上構成する場合、任意の 2 つのディスク文字列 S1 と S2 のディスク数の合計が 3 番目のディスク文字列 S3 のディスク数よりも多いことを確認します。この条件を式で表すと、count(S1) + count(S2)> count(S3) となります。

  7. root がグループ 14 のメンバーであることを確認します。


    # vi /etc/group
    ...
    sysadmin::14:root
    ...

  8. ローカルメタデバイス状態データベースの複製が存在することを確認します。

    指示については、『Sun Cluster 3.0 12/01 ソフトウェアのインストール』の「メタデバイス状態データベースの複製を作成する」を参照してください。

  9. ディスクセットをマスターする予定のクラスタノード上でスーパーユーザーになります。

  10. ディスクセットを作成します。

    さらにこのコマンドは、ディスクセットを Sun Cluster ディスクデバイスグループとして登録します。


    # metaset -s setname -a -h node1 node2
    
    -s setname

    ディスクセットの名前を指定します。

    -a

    ディスクセットを追加 (作成) します。

    -h node1

    ディスクセットをマスターとする主ノードの名前を指定します。

    node2

    ディスクセットをマスターとする二次ノードの名前を指定します。

  11. 新しいディスクセットの状態を確認します。


    # metaset -s setname
    

  12. ディスクセットにドライブを追加します。

    Sun Cluster 3.0 12/01 ソフトウェアのインストール』の「ディスクセットへのドライブの追加」に進みます。

例 - ディスクセットを作成する

次のコマンドは、2 つのディスクセット dg-schost-1dg-schost-2 を作成して、ノード phys-schost-1phys-schost-2 を潜在主ノードとして割り当てます。


# metaset -s dg-schost-1 -a -h phys-schost-1 phys-schost-2
# metaset -s dg-schost-2 -a -h phys-schost-1 phys-schost-2

VxVM ソフトウェアのインストールと構成

以下の情報は、このUpdate リリース以降のすべての更新に適用されます。

VERITAS Volume Manager ソフトウェアをインストールし、ルートディスクをカプセル化する方法 (5/02)

次の変更は、Sun Cluster 3.0 5/02 Update リリースから導入されます。この変更は、今回を含む Sun Cluster 3.0 ソフトウェアの今後のすべての Update リリースに適用されます。

この手順は、scvxinstall(1M) コマンドを使用して、1 つの操作で VxVM ソフトウェアをインストールし、ルートディスクをカプセル化します。


注 -

rootdg ディスクグループをローカルのルート以外のディスクに作成する予定の場合、「VERITAS Volume Manager ソフトウェアだけをインストールする方法 (5/02)」に進みます。


次の手順は、VxVM をインストールする予定の各ノード上で行います。VERITAS Volume Manager (VxVM) は、クラスタ内にあるすべてのノードにインストールすることや、VxVM が管理する記憶装置が物理的に接続されているノードだけにインストールすることも可能です。

  1. クラスタが次の条件に適合していることを確認します。

    • クラスタ内にあるすべてのノードがクラスタモードで動作していること。

    • インストールするノードのルートディスクに 2 つの空き (未割り当ての) パーティションがあること。

  2. VxVM をインストールする予定のノード上でスーパーユーザーになります。

  3. クラスタ内にあるすべてのノードをクラスタノード認証リストに追加します。

    1. scsetup(1M) ユーティリティを起動します。


      # scsetup
      

      メインメニューが表示されます。

    2. 「New Nodes」メニューにアクセスするには、メインメニューで「6」を入力します。

    3. ノードを承認済みリストに追加するには、「New Nodes」メニューで「3」を入力します。

    4. 自分自身を追加する可能性があるマシンの名前を指定します。

      プロンプトに従って、ノードの名前をクラスタに追加します。追加するノードの名前をたずねられます。

    5. 作業が正常に行われたことを確認します。

      作業が正常に行われた場合、scsetup ユーティリティは「Command completed successfully」というメッセージを出力します。

    6. クラスタ内にある各ノードで手順 c から手順 e までを繰り返して、すべてのクラスタノードをノード認証リストに追加します。

    7. scsetup ユーティリティを終了します。

  4. VxVM CD-ROM をノード上にある CD-ROM ドライブに挿入します。

  5. scvxinstall を対話モードで起動します。

    scvxinstall コマンドを中断するには、Control-C を随時押します。


    # scvxinstall
    

    詳細については、scvxinstall(1M) のマニュアルページを参照してください。

  6. ルートをカプセル化するかどうかの問い合わせに、「yes」を入力します。


    Do you want Volume Manager to encapsulate root [no]? y
    

  7. VxVM CD-ROM の場所をプロンプトに指定します。

    • 適切な VxVM CD-ROM が見つかった場合は、その場所を角括弧で囲んで (デフォルトとして) プロンプトに表示します。Enter キーを押すと、デフォルトの場所を使用します。


      Where is the volume manager cdrom [default]?

    • VxVM CD-ROM が見つからなかった場合、デフォルトの場所はプロンプトに表示されません。CD-ROM または CD-ROM イメージの場所を入力します。


      Where is the volume manager cdrom?

  8. VxVM ライセンスキーをプロンプトに入力します。


    Please enter license key:  license
    

    scvxinstall コマンドは次の作業を自動的に行います。

    • Dynamic Multipathing (DMP) を無効にします。


      注 -

      scvxinstall ユーティリティでインストール処理を開始すると、Dynamic Multipathing (DMP) は無効になりますが、バージョン 3.1.1 以降の VxVM を使用する場合、VRTSvxvm パッケージをインストールするときに DMP が再び有効になります。3.1.1 よりも前のバージョンの VxVM の場合、DMP は無効のままです。


    • VRTSvxvmVRTSvmdev、および VRTSvmman パッケージをインストールしてバージョン 3.2 以降の VxVM をインストールする場合、VRTSlic パッケージをインストールします。

    • クラスタ全体で有効な vxio ドライバメジャー番号を選択します。

    • ルートディスクをカプセル化することによって、rootdg ディスクグループを作成します。

    • /etc/vfstab ファイル内にある /global/.devices エントリを更新します。

    詳細については、scvxinstall(1M) のマニュアルページを参照してください。


    注 -

    インストール時、2 回だけ再起動が自動的に行われます。scvxinstall がすべてのインストール作業を完了した後、プロンプトで Control-C を押さない限り、2 回目の再起動が自動的に行われます。Control-C を押して 2 回目の再起動を中断した場合、VxVM のインストールを完了するには、後でノードを再起動する必要があります。


  9. VxVM クラスタ機能を有効にする予定の場合、vxlicense コマンドを実行して、クラスタ機能ライセンスキーを指定します。

    vxlicense コマンドの詳細については、VxVM のマニュアルを参照してください。

  10. (省略可能) VxVM GUI をインストールします。


    # pkgadd VRTSvmsa
    

    VxVM GUI については、VxVM のマニュアルを参照してください。

  11. CD-ROM を取り出します。

  12. 任意の VxVM パッチをインストールします。

    パッチの場所とインストールの方法については、『Sun Cluster 3.0 5/02 ご使用にあたって』を参照してください。

  13. (省略可能) VxVM のマニュアルページをクラスタノード上に置いておきたくない場合、マニュアルページのパッケージを削除します。


    # pkgrm VRTSvmman
    

  14. VxVM を別のノードにインストールする予定があるかどうかを確認します。

    • インストールする予定の場合、手順 2 から 手順 13 までを繰り返します。

    • インストールする予定のない場合、手順 15 に進みます。

  15. VxVM をインストールする予定のないノードが 1 つまたは複数あるかどうかを確認します。


    注 -

    VxVM クラスタ機能を有効にする予定の場合、クラスタ内にあるすべてのノードに VxVM をインストールする必要があります


    • インストールする予定の場合、手順 16 に進みます。

    • インストールする予定がない場合、手順 17 に進みます。

  16. VxVM 以外の各ノード上で、/etc/name_to_major ファイルを変更します。

    1. VxVM をインストールしたノード上で、vxio メジャー番号の設定を調べます。


      # grep vxio /etc/name_to_major
      

    2. VxVM をインストールする予定のないノード上でスーパーユーザーになります。

    3. /etc/name_to_major ファイルを編集して、vxio メジャー番号を NNN (手順 a で調べた番号) に設定するエントリを追加します。


      # vi /etc/name_to_major
      vxio NNN
      

    4. vxio エントリを初期化します。


      # drvconfig -b -i vxio -m NNN
      

    5. VxVM をインストールする予定のない、その他のすべてのノード上で、手順 b から手順 d までを繰り返します。

      この作業が終了したとき、クラスタ内にある各ノードで /etc/name_to_major ファイルの vxio エントリが同じである必要があります。

  17. 新しいマシンをクラスタに追加しないようにします。

    1. scsetup(1M) ユーティリティを起動します。


      # scsetup
      

      メインメニューが表示されます。

    2. 「New Nodes」メニューにアクセスするには、メインメニューで「6」を入力します。

    3. 「New Nodes」メニューで「1」を入力します。

      scsetup プロンプトに従います。このオプションを設定することによってクラスタは、新しいマシンからパブリックネットワーク経由で着信する、自分自身をクラスタに追加しようとする要求をすべて無視します。

    4. scsetup ユーティリティを終了します。

  18. カプセル化したルートディスクをミラー化する予定があるかどうかを確認します。

    • ミラー化する予定の場合、『Sun Cluster 3.0 12/01 ソフトウェアのインストール』の「カプセル化されたルートディスクをミラー化する」に進みます。

    • ミラー化する予定のない場合、『Sun Cluster 3.0 12/01 ソフトウェアのインストール』の「ディスクグループの作成と登録を行う」に進みます。


注 -

後でルートディスクのカプセル化を解除する必要が生じた場合、『Sun Cluster 3.0 12/01 ソフトウェアのインストール』の「ルートディスクのカプセル化を解除する」の手順に従います。


VERITAS Volume Manager ソフトウェアだけをインストールする方法 (5/02)

次の変更は、Sun Cluster 3.0 5/02 Update リリースから導入されます。この変更は、今回を含む Sun Cluster 3.0 ソフトウェアの今後のすべての Update リリースに適用されます。

この手順は、scvxinstall コマンドを使用して、VERITAS Volume Manager (VxVM) ソフトウェアだけをインストールします。


注 -

ルートディスクをカプセル化することによって rootdg ディスクグループを作成する場合、この手順を使用してはいけません。その代わりに、「VERITAS Volume Manager ソフトウェアをインストールし、ルートディスクをカプセル化する方法 (5/02)」に進んで、1 つの操作で、VxVM ソフトウェアをインストールし、ルートディスクをカプセル化します。


次の手順は、VxVM をインストールする予定の各ノード上で行います。VxVM は、クラスタ内にあるすべてのノードにインストールするか、あるいは、VxVM が管理する記憶装置が物理的に接続されているノードだけにインストールすることが可能です。

  1. クラスタ内にあるすべてのノードがクラスタモードで動作していることを確認します。

  2. VxVM をインストールする予定のクラスタノード上でスーパーユーザーになります。

  3. クラスタ内にあるすべてのノードをクラスタノード認証リストに追加します。

    1. scsetup(1M) ユーティリティを起動します。


      # scsetup
      

      メインメニューが表示されます。

    2. 「New Nodes」メニューにアクセスするには、メインメニューで「6」を入力します。

    3. ノードを承認リストに追加するには、「New Nodes」メニューで「3」を入力します。

    4. 自分自身を追加する可能性があるマシンの名前を指定します。

      ノードの名前をクラスタに追加するためのプロンプトに従います。追加するノードの名前をたずねられます。

    5. 作業が正常に行われたことを確認します。

      作業が正常に行われた場合、scsetup ユーティリティは「Command completed successfully」というメッセージを出力します。

    6. クラスタ内にある各ノードで手順 c から手順 e までを繰り返して、すべてのクラスタノードをノード認証リストに追加します。

    7. scsetup ユーティリティを終了します。

  4. VxVM CD-ROM をノード上にある CD-ROM ドライブに挿入します。

  5. scvxinstall を対話インストールモードで起動します。


    # scvxinstall -i
    

    scvxinstall コマンドは次の作業を自動的に行います。

    • Dynamic Multipathing (DMP) を無効にします。


      注 -

      scvxinstall ユーティリティでインストール処理を開始すると、Dynamic Multipathing (DMP) は無効になりますが、バージョン 3.1.1 以降の VxVM を使用する場合、VRTSvxvm パッケージをインストールするときに DMP が再び有効になります。3.1.1 よりも前のバージョンの VxVM の場合、DMP は無効のままです。


    • VRTSvxvmVRTSvmdev、および VRTSvmman パッケージをインストールしてバージョン 3.2 以降の VxVM をインストールする場合、VRTSlic パッケージをインストールします。

    • クラスタ全体で有効な vxio ドライバメジャー番号を選択します。

    詳細については、scvxinstall(1M) のマニュアルページを参照してください。

  6. (省略可能) VxVM GUI をインストールします。


    # pkgadd VRTSvmsa
    

    VxVM GUI については、VxVM のマニュアルを参照してください。

  7. CD-ROM を取り出します。

  8. 任意の VxVM パッチをインストールします。

    パッチの場所とインストールの方法については、『Sun Cluster 3.0 5/02 ご使用にあたって』を参照してください。

  9. (省略可能) VxVM のマニュアルページをクラスタノード上に置いておきたくない場合、マニュアルページのパッケージを削除します。


    # pkgrm VRTSvmman
    

  10. VxVM を別のノードにインストールする予定があるかどうかを確認します。

    • インストールする予定の場合、手順 2 から 手順 9 までを繰り返します。

    • インストールする予定のない場合、手順 11 に進みます。

  11. VxVM をインストールする予定のないノードが 1 つまたは複数あるかどうかを確認します。


    注 -

    VxVM クラスタ機能を有効にする予定の場合、クラスタ内にあるすべてのノードに VxVM をインストールする必要があります


    • インストールする予定の場合、手順 12 に進みます。

    • インストールする予定がない場合、手順 13 に進みます。

  12. VxVM 以外の各ノード上で、/etc/name_to_major ファイルを変更します。

    1. VxVM をインストールしたノード上で、vxio メジャー番号の設定を調べます。


      # grep vxio /etc/name_to_major
      

    2. VxVM をインストールする予定のないノード上でスーパーユーザーになります。

    3. /etc/name_to_major ファイルを編集して、vxio メジャー番号を NNN (手順 a で調べた番号) に設定するエントリを追加します。


      # vi /etc/name_to_major
      vxio NNN
      

    4. vxio エントリを初期化します。


      # drvconfig -b -i vxio -m NNN
      

    5. VxVM をインストールする予定のない、その他のすべてのノード上で、手順 a から手順 c までを繰り返します。

      この作業が終了したとき、クラスタ内にある各ノードで /etc/name_to_major ファイルの vxio エントリが同じである必要があります。

  13. 新しいマシンをクラスタに追加しないようにします。

    1. scsetup(1M) ユーティリティを起動します。


      # scsetup
      

      メインメニューが表示されます。

    2. 「New Nodes」メニューにアクセスするには、メインメニューで「6」を入力します。

    3. 「New Nodes」メニューで「1」を入力します。

      scsetup プロンプトに従います。このオプションを設定することによって、クラスタは、新しいマシンからパブリックネットワーク経由で着信する、自分自身をクラスタに追加しようとする要求をすべて無視します。

    4. scsetup ユーティリティを終了します。

  14. rootdg ディスクグループを作成します。

    Sun Cluster 3.0 12/01 ソフトウェアのインストール』の「ルート以外のrootdg ディスクグループを作成する」に進みます。