Sun Cluster 3.1 ソフトウェアのインストール

ソフトウェアのインストール

次の表は、ソフトウェアのインストール時に実行する作業を示しています。

表 2–1 作業マップ: ソフトウェアのインストール

作業 

参照箇所 

クラスタ構成のレイアウトを計画、およびソフトウェアをインストールするための準備 

クラスタソフトウェアのインストールの準備をする

(任意) 管理コンソールにクラスタコントロールパネル (CCP) ソフトウェアをインストール

クラスタコントロールパネルソフトウェアを管理コンソールにインストールする

新しいクラスタノードを確立するために、Solaris オペレーティング環境と Sun Cluster ソフトウェアをインストール。以下の 3 つの方法のどれか 1 つを選択 

 

  • 方法 1 – (新規クラスタまたは追加ノード) Solaris ソフトウェアをインストールしてから、scinstall ユーティリティを使用して Sun Cluster ソフトウェアをインストール

Solaris ソフトウェアをインストールする

最初のクラスタノードとして Sun Cluster ソフトウェアをインストールする (scinstall)

追加のクラスタノードとして Sun Cluster ソフトウェアをインストールする (scinstall)

  • 方法 2 – (新規クラスタのみ) Solaris ソフトウェアをインストール。続いて SunPlexTM Manager をインストールし、SunPlex Manager を使用して Sun Cluster ソフトウェアをインストール

Solaris ソフトウェアをインストールする

SunPlex Manager による Sun Cluster ソフトウェアのインストール

  • 方法 3 – (新規クラスタまたは追加ノード) scinstall のカスタム JumpStart オプションを使用し、Solaris ソフトウェアと Sun Cluster ソフトウェアを 1 回の操作でインストール

Solaris と Sun Cluster ソフトウェアをインストールする (JumpStart)

ネームサービスの参照順序を構成 

ネームサービススイッチを構成する

ディレクトリパスを設定 

root 環境を設定する

データサービスソフトウェアパッケージをインストール 

データサービスソフトウェアパッケージをインストールする

インストール後の設定、および定足数投票の割り当て 

インストール後の設定を行う

ボリューム管理ソフトウェアのインストールと構成 

 

  • Solstice DiskSuite/Solaris Volume Manager ソフトウェアのインストールと構成

Solstice DiskSuite/Solaris Volume Manager ソフトウェアのインストールと構成

Solstice DiskSuite/Solaris Volume Manager のマニュアル 

  • VERITAS Volume Manager ソフトウェアのインストールと構成

VxVM ソフトウェアのインストールと構成

VERITAS Volume Manager のマニュアル 

クラスタを構成 

クラスタの構成

クラスタソフトウェアのインストールの準備をする

ソフトウェアのインストールを開始する前に、以下の準備作業を行ってください。

  1. クラスタ構成の計画およびインストール方法を検討する上で参考となる情報を参照します。

    • Sun Cluster 3.1 ご使用にあたって』—制限事項やバグ対策などの最新情報

    • Sun Cluster 3.1 Release Notes Supplement』—リリース後に追加された制限事項、バグ対策、新機能などの最新情報。この文書は、定期的に更新されて以下の Web サイトに公開されます (英語) 。

      http://docs.sun.com

    • Sun Cluster 3.1 の概念』—Sun Cluster 製品の概要

    • 『Sun Cluster 3.1 ソフトウェアのインストール』(このマニュアル) — Solaris、Sun Cluster、ボリューム管理ソフトウェアのインストールと構成を行うためのガイドラインと作業手順

    • Sun Cluster 3.1 データサービスのインストールと構成』— データサービスのインストールと構成を行うためのガイドラインと作業手順

    • 使用するソフトウェアのマニュアル (サン以外の製品も含む)

  2. 関連文書 (サン以外の製品の文書も含む) をすべて用意します。

    クラスタのインストールを行う場合に参考となる製品ドキュメントの一部を以下に示します。

    • Solaris ソフトウェア

    • Solstice DiskSuite/Solaris Volume Manager ソフトウェア

    • VERITAS Volume Manager

    • Sun Management Center

    • サン以外のアプリケーション (ORACLE など)

  3. クラスタ構成の計画を立てます。


    注意 – 注意 –

    Solaris と Sun Cluster ソフトウェアのインストールを開始するに、クラスタのインストールを綿密に計画し、データサービスや他の製品 (サン以外のものも含む) すべてについての必要条件を認識しておく必要があります。 計画に不備があった場合、インストールエラーが発生し、Solaris や Sun Cluster ソフトウェアを完全にインストールし直す必要が生じる可能性もあります。たとえば、Oracle Parallel Server/Real Application Clusters の Oracle Parallel Fail Safe/Real Application Clusters Guard オプションには、ユーザーがクラスタ内で使用するホスト名に関する特殊な要件があります。 このような特別な必要条件は Sun Cluster HA for SAP にもあります。Sun Cluster ソフトウェアをインストールした後にホスト名は変更できないため、このような必要条件は Sun Cluster ソフトウェアをインストールする前に調整しておく必要があります。


  4. クラスタ構成に必要なパッチをすべて入手します。

    パッチの入手方法とインストール方法については、『Sun Cluster 3.1 ご使用にあたって』の「パッチとファームウェアレベル」を参照してください。

  5. 管理コンソールからクラスタノードへの接続を行うためにクラスタコントロールパネル (CCP) ソフトウェアを使用するかどうかを決定します。

クラスタコントロールパネルソフトウェアを管理コンソールにインストールする

この手順では、管理コンソールにクラスタコントロールパネル (CCP) ソフトウェアをインストールする方法を説明します。CCP により、cconsole(1M)、ctelnet(1M)、crlogin(1M) の各ツールを起動できます。これらの各ツールは、一連のノードとの多重ウィンドウ接続に加え、すべてのノードに入力を一括送信する共通ウィンドウも備えています。

管理コンソールには、Solaris 8 または Solaris 9 オペレーティング環境が動作する任意のデスクトップマシンを使用できます。また、管理コンソールは、Sun Management Center コンソール/サーバーとしても、AnswerBook サーバーとしても使用できます。Sun Management Center ソフトウェアをインストールする方法については、Sun Management Center のマニュアルを参照してください。AnswerBook サーバーをインストールする方法については、『Sun Cluster 3.1 ご使用にあたって』の「Sun Cluster 3.1 のマニュアル」を参照してください。


注 –

管理コンソールの使用は必須ではありません。管理コンソールを使用しない場合は、クラスタ内の特定のノードから管理作業を行います。


  1. 管理コンソールに、Solaris 8 または Solaris 9 オペレーティング環境と Solaris パッチがインストールされていることを確認します。

    すべてのプラットフォームにおいて、少なくとも「エンドユーザーシステムサポート」ソフトウェアグループでインストールされた Solaris 8 が必要です。

  2. CD-ROM からインストールする場合は、管理コンソール用のマシンの CD-ROM ドライブに Sun Cluster 3.1 CD-ROM を挿入します。

    ボリューム管理デーモン vold(1M) が実行されており、CD-ROM デバイスを管理するように構成されている場合は、CD-ROM は自動的に /cdrom/suncluster_3_1 ディレクトリにマウントされます。

  3. /cdrom/suncluster_3_1/SunCluster_3.1/Sol_ver/Packages ディレクトリに移動します。ここに示した ver は、8 (Solaris 8 の場合) または 9 (Solaris 9 の場合) に置き換えます。


    # cd /cdrom/suncluster_3_1/SunCluster_3.1/Sol_ver/Packages
    

  4. SUNWccon パッケージをインストールします。


    # pkgadd -d . SUNWccon
    

  5. (省略可能) SUNWscman パッケージをインストールします。


    # pkgadd -d . SUNWscman
    

    管理コンソールに SUNWscman パッケージをインストールすることで、クラスタノードに Sun Cluster ソフトウェアをインストールする前に、管理コンソールから Sun Cluster のマニュアルページを参照できるようになります。

  6. CD-ROM からインストールした場合は、CD-ROM を取り出します。

  7. /etc/clusters ファイルを作成します。

    クラスタ名と、各クラスタノードの物理ノード名をファイルに追加します。


    # vi /etc/clusters
    clustername node1 node2
    

    詳細については、/opt/SUNWcluster/bin/ clusters(4) のマニュアルページを参照してください。

  8. /etc/serialports ファイルを作成します。

    このファイルに、クラスタ内の各ノード用のエントリを追加します。物理ノード名、コンソールアクセスデバイス (端末集配信装置 (TC)、システムサービスプロセッサ (SSP)、 Sun Fire システムコントローラなど) のホスト名、ポート番号を指定します。

    • Sun Fire 15000 システムコントローラでは、各エントリのシリアルポート番号に telnet(1) ポート番号 23 を使用します。

    • その他すべてのコンソールアクセスデバイスでは、 telnet シリアルポート番号 (物理ポート番号ではない) を使用します。telnet シリアルポート番号は、物理ポート番号に 5000 を加えた値です。たとえば、物理ポート番号が 6 の場合、telnet シリアルポート番号は 5006 になります。

    • Sun Enterprise 10000 サーバーの詳細と注意事項については、 /opt/SUNWcluster/bin/ serialports(1) のマニュアルページを参照してください。


    # vi /etc/serialports
    node1 ca-dev-hostname port
    node2 ca-dev-hostname port
    
    node1, node2

    クラスタノードの物理名

    ca-dev-hostname

    コンソールアクセスデバイスのホスト名

    port

    シリアルポート番号

  9. 利便性を考慮し、管理コンソールを使用する上では、 /opt/SUNWcluster/bin ディレクトリを PATH 環境変数に、 /opt/SUNWcluster/man ディレクトリを MANPATH 環境変数にそれぞれ追加します。

    SUNWscman パッケージをインストールした場合は、/usr/cluster/man ディレクトリも MANPATH に追加します。

  10. CCP ユーティリティーを起動します。


    # /opt/SUNWcluster/bin/ccp clustername
    

    CCP ユーティリティーを使用する方法については、『Sun Cluster 3.1 のシステム管理』の「クラスタ管理の開始」の「クラスタに遠隔ログインする」手順を参照してください。ccp(1M) のマニュアルページも参照してください。

  11. Solaris オペレーティング環境をインストールします。

Solaris ソフトウェアをインストールする

ソフトウェアのインストールに scinstall(1M) カスタム JumpStart インストールを使用しない場合は、以下の手順に従ってクラスタ内の各ノードに Solaris オペレーティング環境をインストールしてください。


注 –

ノードにすでに Solaris オペレーティング環境がインストールされている場合でも、Sun Cluster ソフトウェアを確実にインストールするためには、以下の方法で Solaris ソフトウェアを再度インストールする必要があります。


  1. Solaris ソフトウェアをインストールする前に、ハードウェアの設定が完了していることと、接続が完全であることを確認します。

    詳細については、『Sun Cluster 3.1 Hardware Administration Collection』およびサーバーと記憶装置のマニュアルを参照してください。

  2. クラスタ構成の計画が完了していることを確認します。

    必要条件とガイドラインについては、クラスタソフトウェアのインストールの準備をする を参照してください。

  3. Sun Cluster 3.1 ご使用にあたって』の「ミラー化ルートワークシートのローカルファイルシステム」または『Sun Cluster 3.1 ご使用にあたって』の「非ミラー化ルートワークシートのローカルファイルシステム」に必要事項を記入したものを用意します。

  4. ネームサービスを使用しているかどうかを確認します。

    • 使用していない場合は、手順 5に進みます。手順 16 でローカルホスト名の情報を設定します。

    • 使用している場合、すべての公開ホスト名と論理アドレス間のアドレスと名前の対応付けを、クライアントがクラスタサービスにアクセスするために使用する任意のネームサービス (NIS や DNS など) に追加します。計画のガイドラインについては、IP アドレス を参照してください。Solaris ネームサービスの使用については、Solaris システム管理者用のマニュアルを参照してください。

  5. クラスタ管理コンソールを使用している場合、クラスタ内にある各ノードのコンソール画面を表示します。

    管理コンソールでクラスタコントロールパネル (CCP) のインストールと構成がすでに行われている場合は、cconsole(1M) ユーティリティーを使用して個々のコンソール画面を表示できます。また、CCP が開くマスターウィンドウに入力すると、各ノードのコンソールウィンドウに同時に送信できます。

    CCP を使用していない場合、各ノードのコンソールに個別に接続します。


    ヒント –

    Solaris オペレーティング環境は各ノードに同時にインストールできるため、時間を節約できます。


  6. クラスタ内のノードがEthernet アダプタを使用しているかどうかを確認します。

    • 使用していない場合は、手順 7へ進みます。

    • 使用している場合は、local-mac-address?変数が Ethernet アダプタ用に正しくtrue に設定されていることを確認します。

      Sun Cluster 3.1 ソフトウェアは、Ethernet アダプタ用については false に設定された local-mac-address? 変数をサポートしません。これは、Sun Cluster 3.0 ソフトウェア要件からの変更です。

    1. local-mac-address? 変数の値を表示します。

      • Solaris ソフトウェアがすでにノードにインストールされている場合、スーパーユーザーで、次のコマンドを実行します。


         # /usr/sbin/eeprom local-mac-address?
        

      • ノードに Solaris ソフトウェアがまだインストールされていない場合は、ok プロンプトから次のコマンドを実行します。


        ok printenv local-mac-address?
        

    2. 各ノードで local-mac-address?=true と表示されるかどうかを確認します。

      • この値が表示される場合は、変数は正しく設定されています。手順 7 に進みます。

      • この値が表示されない場合は、次のいずれかの方法で true に設定されていないノードの設定を変更してください。

        • Solaris ソフトウェアがすでにノードにインストールされている場合、スーパーユーザーで、次のコマンドを実行します。


           # /usr/sbin/eeprom local-mac-address?=true
          

        • Solaris ソフトウェアがノードにインストールされていない場合、ok プロンプトから次のコマンドを実行します。


          ok setenv local-mac-address? true
          

    3. 手順 a を再実行し、手順 b で加えた変更を確認します。

      新しい設定は、次回システム再起動時に有効になります。

  7. Solaris インストールマニュアルに指示されているとおりに Solaris オペレーティング環境をインストールします。


    注 –

    クラスタ内にあるすべてのノードには、同じバージョンの Solaris オペレーティング環境をインストールする必要があります。


    クラスタ環境に加わる新しいノードに Solaris オペレーティング環境をインストールするときには、通常の Solaris オペレーティング環境のインストール方法、すなわち Solaris 対話式インストールプログラム、Solaris JumpStart、および Solaris Web Start を使用できます。

    Solaris ソフトウェアのインストール時に、次の作業を行います。

    1. 少なくとも「エンドユーザーシステムサポート」ソフトウェアグループをインストールします。

      • インターコネクトトランスポート用に Remote Shared Memory Application Programming Interface (RSMAPI) または SCI-PCI アダプタを使用する場合、RSMAPI の必須ソフトウェアパッケージ (SUNWrsmSUNWrsmxSUNWrsmoSUNWrsmox) はより上位のレベルのソフトウェアグループに含まれています。「エンドユーザーシステムサポート」ソフトウェアグループをインストールする場合は、手順 12 において、SUNWrsm* パッケージを Solaris CD-ROM から手動でインストールする必要があります。

      • SunPlex Manager を使用する場合、 Apache の必須ソフトウェアパッケージ (SUNWapchr および SUNWapchu) は、より上位のソフトウェアグループに含まれています。「エンドユーザーシステムサポート」ソフトウェアグループをインストールする場合は、手順 13 において、SUNWapch* パッケージを Solaris CD-ROM から手動でインストールする必要があります。

      Solaris ソフトウェアの必要条件の詳細については Solaris ソフトウェアグループについて を参照してください。

    2. 「Manual Layout」を選択して、ファイルシステムを設定します。

      • 広域デバイスサブシステムが使用するための、少なくとも 512M バイトのファイルシステムを作成します。SunPlex Manager を使用して Sun Cluster ソフトウェアをインストールする場合は、マウントポイント名を /globaldevices に設定してファイルシステムを作成する必要があります。/globaldevices マウントポイント名は、 scinstall が使用するデフォルトです。


        注 –

        Sun Cluster ソフトウェアのインストールを正常に行うためには、広域デバイスファイルシステムを用意する必要があります。


      • SunPlex Manager を使用して Sun Cluster ソフトウェアのインストールのほかに、Solstice DiskSuite ソフトウェア (Solaris 8) をインストール、Solaris Volume Manager ソフトウェア (Solaris 9) を構成する、Sun Cluster HA for NFS または Sun Cluster HA for Apache をインストールする場合は、マウントポイント名に /sds を指定してスライス 7 に 20M バイトのファイルシステムを作成してください。

        あるいは、システムディスクパーティションで説明している方法でボリューム管理ソフトウェアのサポートに必要なファイルシステムパーティションを作成してください。

    3. 「Auto Reboot」を選択します。


      注 –

      Solaris インストールツールは、Solaris ソフトウェアをインストールし、ノードを再起動した後で次のプロンプトを表示します。


    4. 管理しやすくするために、すべてのノード上で同じ root パスワードを設定します。

    5. 省電力のための自動シャットダウンを有効にするかどうかの問いかけに対しては、「no」と応答します。

      Sun Cluster 構成では自動停止機能を無効にする必要があります。詳細については、pmconfig(1M) と power.conf(4) のマニュアルページを参照してください。


    注 –

    Solaris のインタフェースグループ機能は、Solaris ソフトウェアのインストール中にデフォルトで無効に設定されます。インタフェースグループは Sun Cluster 構成ではサポートされていないため、有効にしないでください。Solaris インタフェースグループの詳細については、 ifconfig(1M) のマニュアルページを参照してください。


  8. 既存のクラスタに新しいノードをインストールするかどうかを確認します。

    • インストールする場合は、手順 9 に進みます。

    • インストールしない場合は、手順 12に進みます。

  9. 新しいノードをクラスタの承認済みノードリストに追加したかどうかを確認します。

    • 追加している場合は、手順 10 に進みます。

    • まだ追加していない場合は、別のアクティブなノードから scsetup(1M) を実行して、新しいノードの名前をクラスタの承認済みノードリストに追加します。手順については、『Sun Cluster 3.1 のシステム管理』のを参照してください。

  10. 新しいノード上で、クラスタ内にあるクラスタファイルシステムごとにマウントポイントを作成します。

    1. クラスタ内にある別のアクティブなノードから、すべてのクラスタファイルシステムの名前を表示します。


      % mount | grep global | egrep -v node@ | awk `{print $1}'
      

    2. 新しいノード上で、クラスタ内にあるクラスタファイルシステムごとにマウントポイントを作成します。


      % mkdir -p mountpoint
      

      たとえば、mount コマンドで表示されるファイルシステム名が /global/dg-schost-1 の場合は、クラスタに追加する新しいノードで mkdir -p /global/dg-schost-1 を実行します。

  11. VERITAS Volume Manager (VxVM) が、クラスタ内にあるノードにすでにインストールされているかどうかを確認します。

    • インストールされている場合は、 VxVM がインストールされているノード上で同じ vxio 番号が使用されていること、および VxVM がインストールされていない各ノード上で vxio 番号が使用できることを確認します。


      # grep vxio /etc/name_to_major
      vxio NNN
      

      VxVM がインストールされていないノードで、vxio 番号がすでに使用されている場合は、 /etc/name_to_major のエントリを別の番号に変更して、そのノード上の該当番号を解放します。

    • インストールされていない場合は、手順 12へ進みます。

  12. インターコネクトトランスポート用に Remote Shared Memory Application Programming Interface (RSMAPI) または SCI-PCI アダプタを使用するかどうかを決定します。

    • どちらかを使用する場合で、「エンドユーザーシステムサポート」ソフトウェアグループをインストールしている場合は、SUNWrsm* パッケージを Solaris CD-ROM からインストールします。


      # pkgadd -d . SUNWrsm SUNWrsmx SUNWrsmo SUNWrsmox
      

    • どちらも使用しない場合、あるいは、より上位のレベルのソフトウェアグループをインストールしている場合は、手順 13 に進みます。

  13. SunPlex Manager を使用するかどうかを決定します。

    • 使用する場合で、「エンドユーザーシステムサポート」ソフトウェアグループをインストールしている場合は、SUNWapch* パッケージを Solaris CD-ROM からインストールします。


      # pkgadd -d . SUNWapchr SUNWapchu
      

    • 使用しない場合、あるいは、より上位のレベルのソフトウェアグループをインストールしている場合は、手順 14 に進みます。

    SunPlex Manager をインストールする前に、Apache ソフトウェアパッケージをあらかじめインストールしておく必要があります。

  14. Solaris 用のソフトウェアパッチをインストールします。

    パッチの入手方法とインストール方法については、『Sun Cluster 3.1 ご使用にあたって』の「パッチとファームウェアレベル」を参照してください。必要に応じて、/etc/release ファイルを参照し、ノードにインストールされている Solaris ソフトウェアの正確なバージョンを確認してください。

  15. ハードウェア関連のパッチをインストールし、ハードウェアパッチに含まれるファームウェアの中から必要なものをダウンロードします。

    パッチの入手方法とインストール方法については、『Sun Cluster 3.1 ご使用にあたって』の「パッチとファームウェアレベル」を参照してください。

  16. 各ノードでクラスタのすべてのパブリックホスト名と論理アドレスを持つよう、/etc/inet/hosts ファイルを更新します。

    この手順は、ネームサービスを使用しているかどうかに関わらず実行します。

  17. 動的再構成 (DR) を Sun Enterprise 10000 サーバーで使用するかどうかを決定します。

    • 使用する場合は、各ノード上にある /etc/system ファイルに次のエントリを追加します。


      set kernel_cage_enable=1

      このエントリは、次のシステム再起動後に有効になります。Sun Cluster 構成で、動的再構成の作業を実行するための手順については、『Sun Cluster 3.1 のシステム管理』を参照してください。動的再構成の詳細については、サーバーのマニュアルを参照してください。

    • 使用しない場合は、手順 18 に進みます。

  18. クラスタノードに、Sun Cluster ソフトウェアをインストールします。

最初のクラスタノードとして Sun Cluster ソフトウェアをインストールする (scinstall)

Solaris オペレーティング環境をインストールした後で、クラスタのいずれかのノード上で次の作業を行うと、Sun Cluster ソフトウェアがインストールされ、新しいクラスタが確立されます。


注 –

scinstall(1M) カスタム JumpStart または SunPlex Manager でソフトウェアをインストールした場合は、Sun Cluster ソフトウェアは既にインストールされています。 ネームサービススイッチを構成する に進みます。


  1. Solaris オペレーティング環境が Sun Cluster ソフトウェアをサポートするようにインストールされていることを確認します。

    Solaris ソフトウェアのインストールは、 Solaris ソフトウェアをインストールする で説明されているとおりに行う必要があります。Solaris ソフトウェアがすでにノード上にインストールされている場合は、Solaris のインストールが Sun Cluster ソフトウェアの必要条件、およびそのクラスタにインストールする予定の他のソフトウェアの必要条件を満たしていることを確認してください。

  2. SunPlex Manager を使用するかどうかを決定します。

    • 使用する場合、Apache ソフトウェアパッケージがノードにインストールされていることを確認します。Solaris の「エンドユーザーシステムサポート」ソフトウェアグループでインストールした場合は、SUNWapch* パッケージを Solaris CD-ROM からインストールします。


      # pkgadd -d . SUNWapchr SUNWapchu
      

      「エンドユーザーシステムサポート」ソフトウェアグループよりも上位レベルの Solaris ソフトウェアグループをインストールした場合、Apache ソフトウェアパッケージは自動的にインストールされています。

    • 使用しない場合は、手順 3 に進みます。

  3. 以下の構成計画ワークシートに必要事項を記入したものを用意します。

    計画のガイドラインについては、Sun Cluster 環境の計画 を参照してください。

  4. インストールするクラスタノードでスーパーユーザーになります。

  5. CD-ROM からインストールする場合は、インストールと構成を行うノードの CD-ROM ドライブに Sun Cluster 3.1 CD-ROM を挿入します。

    ボリューム管理デーモン vold(1M) が実行されており、CD-ROM デバイスを管理するように構成されている場合は、CD-ROM は自動的に /cdrom/suncluster_3_1 ディレクトリにマウントされます。

  6. インターコネクトトランスポート用にRemote Shared Memory Application Programming Interface (RSMAPI) または SCI-PCI アダプタを使用するかどうかを決定します。

    • 使用しない場合は、手順 7 に進みます。

    • 使用する場合は、Sun Cluster 3.1 CD-ROM の Packages ディレクトリから追加のパッケージをインストールします。これらのパッケージは、 scinstall(1M) によって自動的にインストールされません。


      # cd /cdrom/suncluster_3_1/SunCluster_3.1/Sol_ver/Packages
      # pkgadd -d . packages
      


      注 –

      CD-ROM パスの ver は、 8 (Solaris 8 の場合) または 9 (Solaris 9 の場合) に置き換えます。


      次の表に、RSMAPI または SCI-PCI アダプタをサポートするために必要な Sun Cluster 3.1 パッケージと、インストールする順番を示します。

      表 2–2 RSMAPI および SCI-PCI アダプタをサポートするための Sun Cluster 3.1 パッケージ

      機能 

      インストールする追加の Sun Cluster 3.1 パッケージ 

      RSMAPI 

      SUNWscrif

      SCI-PCI アダプタ 

      SUNWsci SUNWscid SUNWscidx

  7. /cdrom/suncluster_3_1/SunCluster_3.1/Sol_ver/Tools ディレクトリに移動します。ここに示した ver は、8 (Solaris 8 の場合) または 9 (Solaris 9 の場合) に置き換えます。

    以下の例では、Sun Cluster ソフトウェアの Solaris 8 バージョンのパスを使用しています。


    # cd /cdrom/suncluster_3_1/SunCluster_3.1/Sol_8/Tools
    

  8. scinstall(1M) ユーティリティーを起動します。


    ./scinstall
    

    プロンプトに従い、構成計画ワークシートの情報を参照して Sun Cluster ソフトウェアをインストールします。

    対話式 scinstall ユーティリティを使用するときには、次の指針に従います。

    • 対話式 scinstall を使用すると、先行入力が可能になります。したがって、次のメニュー画面がすぐに表示されなくても、何度も Return キーを押さないでください。

    • 特に指定のある場合以外は、Control-D キーを押すと、関連のある一連の質問の最初か、メインメニューに戻ります。 Sun Cluster ソフトウェアをインストールした後に Control-D を押してセッションを中断した場合、 scinstall は、これらのパッケージのインストールを解除するかどうかを問い合わせます。

    • セッション中の応答は、次に同じメニューオプションを実行したときのデフォルトの応答として記憶されます。デフォルトの応答はプロンプトの終わりに角括弧 ([  ]) に囲まれて表示されます。


    ヒント –

    ノードがクラスタモードで正常に起動するまでは、scinstall を再度実行し、必要に応じて構成情報を変更できます。ただし、不正なノード構成データが、クラスタに設定されてしまった場合は、最初にその不正な情報を削除しておく必要があります。不正な情報を削除するには、アクティブなクラスタノードの 1 つにログオンし、 scconf(1M) コマンドを使用して、不正なアダプタ、接続点、またはケーブル情報を削除します。


  9. 「メインメニュー」で、1 (新しいクラスタの確立) と入力します。

    「新しいクラスタの確立」画面の情報を確認し、yes と入力して次の画面に進みます。


     ***メインメニュー ***
     
        次の (*) オプションのうちから 1 つを選択してください:
     
          * 1) このマシンを最初のノードとして新しいクラスタを確立
          * 2) すでに確立されているクラスタにこのマシンを追加
            3) このインストールサーバーから JumpStart できるようにクラスタを構成
            4) 新しいデータサービスのサポートをこのクラスタノードに追加
            5) このクラスタノードのリリース情報を出力
     
          * ?) メニューオプションのヘルプ
          * q) 終了
     
        オプション:  1
     
     *** 新しいクラスタを確立 ***
    ...
     継続しますか (yes/no) [yes]?  yes
    

  10. Sun Cluster ソフトウェアパッケージのインストールを継続するかどうかをたずねられるので、yes と入力します。


    >>> ソフトウェアパッケージのインストール <<<
      
        Sun Cluster フレームワークソフトウェアのパッケージの
        インストールには数分かかります。
      
        継続しますか (yes/no) [yes]?  yes
      
    ** SunCluster 3.1 をインストールしています **
            SUNWscr.....完了しました。
    ...ENTER を押すと継続します

    すべてのパッケージをインストールしたなら、Return キーを押して次の画面に進みます。

  11. クラスタ名を指定します。


    >>> クラスタ名 <<<
    ...
        確立したいクラスタ名は ?  clustername 
    

  12. 事前インストール検査を行います。


    >>> チェック <<<
     
        This step runs sccheck(1M) to verify that certain basic hardware and
        software pre-configuration requirements have been met. If sccheck(1M)
        detects potential problems with configuring this machine as a cluster
        node, a list of warnings is printed.
        このステップでは、sccheck(1M) を実行して、基本的なハードウェア
        およびソフトウェアの事前構成条件に適合しているかどうかを確認し
        ます。当該マシンをクラスタノードとして構成するのに不都合な問題
        を検出した場合、sccheck(1M) は警告を出力します。
     
    ENTER を押すと継続します:

    sccheck(1M) コマンドが何らかの問題を検出した場合は、その問題についての情報が表示され、どのような対処方法を行うかたずねられます。


    sccheck ユーティリティは次のような潜在的な
    問題を見つけました:
    ...  
    ENTER を押すと継続します:
    ...
     何をしますか ?
      
            1) それでもインストールを開始します
            2) sccheck をやり直します
            q) メインメニューに戻ります
      
        オプション: 

    この sccheck エラーメッセージに対し、次のいずれかを入力します。

    • sccheck メッセージを無視しても安全だということがわかっている場合 (たとえば、危険のないエラーメッセージが発生することが『Sun Cluster 3.1 ご使用にあたって』の記述でわかっている場合など)、1 を入力してインストールを継続します。

    • scinstall ユーティリティーを終了しなくても問題を修正できる場合、問題を修正した後、2 を入力してもう一度 sccheck を実行します。

    • q を入力してインストールを中止します。sccheck が検出した問題を修正した後、 手順 8 に戻って scinstall を再起動します。

  13. このクラスタの一部となる他のノードの名前を指定します。


    >>> クラスタノード <<<
    ...
        ノード名:  node2
        ノード名 (終了するには Ctrl-D):  <Control-D>
     
        完成したノードのリスト
    ...
        よろしいですか (yes/no) [yes]?

  14. データ暗号化標準 (DES) 認証を使用するかどうかを指定します。

    デフォルトでは、Sun Cluster ソフトウェアを使用してクラスタに接続できるノードは、ノードが物理的にプライベートインターコネクトに接続されていて、かつ 手順 13 で指定されているノードだけです。しかし、この時点ではプライベートインターコネクトは完全に構成されていないので、実際にはノードはパブリックネットワーク経由でスポンサーノードと通信します。DES 認証を使用すると、スポンサーノードはクラスタ構成を更新するために接続しようとするノードをより信頼性の高い方法で認証するため、インストール時のセキュリティレベルが上がります。

    DES 認証を使用してセキュリティレベルを上げることを選択した場合、任意のノードがクラスタに参加できるようにするためには、必要な暗号化鍵をすべて構成する必要があります。詳細については、keyserv(1M) と publickey(4) のマニュアルページを参照してください。


    >>> ノードを追加する要求を認証する <<<
    ...
        DES 認証を使用しますか (yes/no) [no]? 

  15. プライベートネットワークアドレスとネットマスクを指定します。


    >>> クラスタトランスポートのネットワークアドレス <<<
    ...
        デフォルトのネットワークアドレスを使用しますか (yes/no) [yes]?
        デフォルトのネットマスクを使用しますか (yes/no) [yes]? 


    注 –

    クラスタの構築に成功した後では、プライベートネットワークアドレスは変更できません。


  16. クラスタがトランスポート接続点を使用するかどうかを指定します。

    • 2 ノードクラスタである場合は、トランスポート接続点を使用するかどうかを指定します。


      >>> ポイントツーポイントケーブル <<<
       ...
          この 2 ノードクラスタはトランスポート接続点を使用しますか (yes/no) [yes]? 


      ヒント –

      ノードがお互いに直接接続されているかどうかに関わらず、クラスタがトランスポート接続点を使用するように指定できます。クラスタがトランスポート接続点を使用するように指定した場合、将来、より簡単に新しいノードをクラスタに追加できます。


    • このクラスタに 3 つ以上のノードがある場合は、トランスポート接続点を使用する必要があります。Return キーを押して、次の画面に進みます。


      >>> ポイントツーポイントケーブル <<<
       ...
          このクラスタは 2 ノードクラスタではないため、2 つの
          トランスポート接続点を構成するようにたずねられます。
          
      ENTER を押すと継続します: 

  17. このクラスタがトランスポート接続点を使用するかどうかを決定します。

    • 使用する場合、トランスポート接続点の名前を指定します。この場合、デフォルトの名前 switchN を使用することも、独自の名前を作成することもできます。


      >>> クラスタトランスポート接続点 <<<
       ...
          クラスタ内の 1 番目の接続点の名前は [switch1]?
          クラスタ内の 2 番目の接続点の名前は [switch2]? 

    • 使用しない場合は、手順 18に進みます。

  18. 1 番目のクラスタインターコネクトトランスポートアダプタを指定します。


    >>> クラスタトランスポートアダプタとケーブル <<<
    ...
      使用する 1 番目のクラスタトランスポートアダプタを選択します
          1) adapter
          2) adapter
    ...
          N) Other
    
      オプション: 

    scinstall ユーティリティーは、自動検出で見つかったすべての Ethernet アダプタの一覧を表示します。SCI-PCI アダプタなど、一覧に含まれていないアダプタを構成するには、「Other」に数字を入力し、後続のメニューで要求されたアダプタ情報を指定します。

  19. クラスタがトランスポート接続点を使用する場合は、1 番目のトランスポート接続点の名前とそのポートを指定します。

    それ以外の場合は、手順 20 に進みます。


     「adapter」が接続される接続点の名前は [switch1]? 
      デフォルトのポート名を「adapter」接続に使用しますか (yes/no) [yes]? 
     
    ENTER を押すと継続します: 


    注 –

    SCI アダプタを使用する構成の場合は、アダプタ接続 (ポート名) をたずねられたときに、デフォルトを受け入れてはいけません。その代わりに、ノードが物理的にケーブル接続されている、Dolphin スイッチ自体の上にあるポート名 (012、または 3) を指定します。次の例に、デフォルトのポート名を拒否して、Dolphin スイッチのポート名 0 を指定するときのプロンプトと応答を示します。


        デフォルトのポート名を「adapter」接続に使用しますか (yes/no) [yes]?  no
        使用したいポートの名前は ?  0
    


  20. 2 番目のクラスタインターコネクトトランスポートアダプタを選択します。


      使用する 2 番目のクラスタトランスポートアダプタを選択します:
          1) adapter
          2) adapter
    ...
          N) Other
    
      オプション: 

    scinstall コマンドを使用し、アダプタを 2 つまで構成できます。Sun Cluster ソフトウェアのインストール後は、scsetup ユーティリティーを使用してアダプタを追加構成できます。

  21. クラスタがトランスポート接続点を使用する場合は、2 番目のトランスポート接続点の名前とそのポートを指定します。

    使用しない場合は、手順 22 に進みます。


      「adapter」が接続される接続点の名前は [switch2]? 
      デフォルトのポート名を「adapter」接続に使用しますか (yes/no) [yes]?nnection (yes/no) [yes]? 
     
    ENTER を押すと継続します: 


    注 –

    SCI アダプタを使用する構成の場合は、アダプタポート名をたずねられたときに、デフォルトを受け入れてはいけません。その代わりに、ノードが物理的にケーブル接続されている、Dolphin スイッチ自体の上にあるポート名 (012、または 3) を指定します。次の例に、デフォルトのポート名を拒否して、Dolphin スイッチのポート名 0 を指定するときのプロンプトと応答を示します。


        デフォルトのポート名を「adapter」接続に使用しますか (yes/no) [yes]?  no
        使用したいポートの名前は ?  0
    


  22. 広域デバイスのファイルシステム名を指定します。


    >>> 広域デバイスファイルシステム <<<
    ...
        デフォルトでは、/globaldevices を使用します。
     
        このデフォルトを使用しますか (yes/no) [yes]? 

  23. インストールの必要がある Sun Cluster ソフトウェアパッチがあるかどうかを確認します。


    >>> 自動リブート <<<
    ...
        scinstall にマシンをリブートさせますか (yes/no) [yes]? 

    • インストールする場合は、「自動リブート」画面で「no」と入力して自動再起動を行わないようにします。

    • インストールしない場合は、「yes」と入力して自動再起動を行います。

  24. scinstall コマンドにより生成されたオプションを受け入れるか否か決定します。

    確認のため、これまでの入力から生成された scinstall コマンドが表示されます。


    >>> 確認 <<<
     
        次のオプションを scinstall に指示しています:
     
          scinstall -ik  \
    ...
        これらのオプションを使用しますか (yes/no) [yes]?
        インストールを継続しますか (yes/no) [yes]? 

    • インストールを続行する場合は、scinstall の処理が継続されます。scinstall の処理中に表示される出力例を、例 — 最初のノードに Sun Cluster ソフトウェアをインストールする に示します。

      Sun Cluster インストールの出力は/var/cluster/logs/install/scinstall.log.pid ファイルに記録されます (pidscinstall インスタンスのプロセス ID 番号)。


      注 –

      独自の /etc/inet/ntp.conf ファイルをインストールしていない限り、scinstall コマンドによりデフォルトの ntp.conf ファイルがインストールされます。このデフォルトファイルは、出荷時にはノードの最大可能 個数を参照する状態になっているため、起動時に xntpd(1M) デーモンで一部の参照に関してエラーメッセージが表示される場合があります。これらのメッセージは無視しても問題ありません。通常のクラスタ条件下で、これらのメッセージを表示しないようにする方法については、ネットワークタイムプロトコル (NTP) を構成する を参照してください。


    • コマンドを拒否した場合は、 Sun Cluster ソフトウェアのインストールを解除するかどうかたずねられます。


          Sun Cluster ソフトウェアのインストールを解除しますか (yes/no) [no]? 

      scinstall がメインメニューに戻った後は、もう一度メニューオプション 1 を実行して異なる応答を指定できます。この場合、以前のセッションの応答がデフォルトとして表示されます。

  25. Sun Cluster ソフトウェア用のパッチをインストールします。

    パッチの入手方法とインストール方法については、『Sun Cluster 3.1 ご使用にあたって』の「パッチとファームウェアレベル」を参照してください。

  26. ノードを再起動してクラスタを確立します。

    手順 25 でパッチをインストールした後にノードを再起動している場合は、もう一度ノードを再起動する必要はありません。

    Sun Cluster ソフトウェアのインストール後にノードを初めて再起動すると、クラスタが構成されるとともに、クラスタの最初のインストールノードとしてこのノードが確立されます。

  27. 追加のノードをクラスタにインストールします。

    追加のクラスタノードとして Sun Cluster ソフトウェアをインストールする (scinstall) に進みます。

例 — 最初のノードに Sun Cluster ソフトウェアをインストールする

次に、ノード phys-schost-1 (クラスタに最初にインストールするノード) で scinstall コマンドを実行し、インストール作業が完了するまでに表示される進行状況メッセージの例を示します。このクラスタは 4 つのノードを持ち、Ethernet アダプタとトランスポート接続点を使用します。


>>> 確認 <<<
  
    次のオプションを scinstall に指示しています:
  
      scinstall -ik \
           -C sc-cluster \
           -F \
           -T node=phys-schost-1,node=phys-schost-2,node=phys-schost-3,node=phys
-schost-4,authtype=sys \
           -A trtype=dlpi,name=hme1 -A trtype=dlpi,name=hme3 \
           -B type=switch,name=switch1 -B type=switch,name=switch2 \
           -m endpoint=:hme1,endpoint=switch1 \
           -m endpoint=:hme3,endpoint=switch2
  
    これらのオプションを使用しますか (yes/no) [yes]?
  
    インストールを継続しますか (yes/no) [yes]?
  
広域デバイスファイルシステムとして使用できるかどうかをチェックしています ... 完了しました。
  
クラスタ名を「sc-cluster」に初期化しています ... 完了しました。
認証オプションを初期化しています ... 完了しました。
アダプタ「hme1」の構成を初期化しています ... 完了しました。
アダプタ「hme3」の構成を初期化しています ... 完了しました。
接続点「switch1」の構成を初期化しています ... 完了しました。
接続点「switch2」の構成を初期化しています ... 完了しました。
ケーブルの構成を初期化しています ... 完了しました。
ケーブルの構成を初期化しています ... 完了しました。
  
  
「phys-schost-1」のノード ID を設定しています ... 完了しました。(id=1)
  
 広域ファイルシステムの広域デバイスをチェックしています ... 完了しました。
Updating vfstab ... 完了しました。
  
 NTP が構成されているかどうかを確認しています ... 完了しました。
 デフォルトの NTP 構成をインストールしています ... 完了しました。
 scinstall が終了した後、NTP 構成を完了してください。
  
「cluster」が nsswitch.conf の「hosts」用に設定されていることを確認しています ... 完了しました。
「cluster」スイッチを nsswitch.conf の「hosts」に追加しています ... 完了しました。
  
 「cluster」が nsswitch.conf の「netmasks」用に設定されていることを確認しています ... 完了しました。
 「cluster」スイッチを nsswitch.conf の「netmasks」に追加しています ... 完了しました。
  
電源管理が構成されていないことを確認しています ... 完了しました。
電源管理の構成を解除しています ... 完了しました。
/etc/power.conf の名前は /etc/power.conf.061401232831 に変更されました
電源管理はクラスタの HA でサポートされません。
電源管理を構成し直さないでください。
  
ネットワークルーティングが無効であることを確認しています ... 完了しました。
このノードでは、/etc/notrouter を作成することによって、ネットワークルーティングが無効になっています。
Sun Cluster は、クラスタノードをルーターとして動作させることをサポートしていません。
ネットワークルーティングを有効にし直さないでください。
  
ログファイル - /var/cluster/logs/install/scinstall.log.10559
  
  
リブートしています ...

追加のクラスタノードとして Sun Cluster ソフトウェアをインストールする (scinstall)

最初のインストールノードに Sun Cluster ソフトウェアをインストールして、クラスタを確立した後は、クラスタにインストールする追加のノードごとに次の作業を行います。この手順は、新しいノードを既存のクラスタに追加するときにも使用できます。


注 –

scinstall(1M) カスタム JumpStart または SunPlex Manager でソフトウェアをインストールした場合は、 Sun Cluster ソフトウェアは既にインストールされています。ネームサービススイッチを構成する に進みます。


  1. 最初のインストールノードに Sun Cluster ソフトウェアが正常にインストールされており、クラスタが確立されていることを確認します。

    クラスタを確立するためのインストール手順については、最初のクラスタノードとして Sun Cluster ソフトウェアをインストールする (scinstall) を参照してください。

  2. 完全にインストールされている既存のクラスタに新しいノードを追加する場合は、次の作業を実行していることを確認します。

    1. クラスタが新しいノードを受け入れるための準備

      Sun Cluster 3.1 のシステム管理』の「クラスタノードの追加と削除」の「ノードを認証ノードリストに追加する」手順に従います。

    2. 新しいノードへの Solaris ソフトウェアのインストール

      Solaris ソフトウェアのインストールは、 Solaris ソフトウェアをインストールする で説明されているとおりに行う必要があります。Solaris ソフトウェアがすでにノード上にインストールされている場合は、Solaris のインストールが Sun Cluster ソフトウェアの必要条件、およびそのクラスタにインストールする予定の他のソフトウェアの必要条件を満たしていることを確認してください。

  3. SunPlex Manager を使用するかどうかを決定します。

    • 使用する場合、Apache ソフトウェアパッケージがノードにインストールされていることを確認します。Solaris の「エンドユーザーシステムサポート」ソフトウェアグループをインストールしている場合は、SUNWapch* パッケージを Solaris CD-ROM からインストールします。


      # pkgadd -d . SUNWapchr SUNWapchu
      

      エンドユーザーシステムサポートソフトウェアグループよりも上位レベルの Solaris ソフトウェアグループをインストールしている場合、Apache ソフトウェアパッケージは自動的にインストールされます。

    • 使用しない場合は、手順 4 に進みます。

  4. 以下の構成計画ワークシートに必要事項を記入したものを用意します。

    計画のガイドラインについては、Sun Cluster 環境の計画 を参照してください。

  5. インストールするクラスタノードでスーパーユーザーになります。

  6. CD-ROM からインストールする場合は、インストールと構成を行うノードの CD-ROM ドライブに Sun Cluster 3.1 CD-ROM を挿入します。

    ボリューム管理デーモン vold(1M) が実行されており、CD-ROM デバイスを管理するように構成されている場合は、CD-ROM は自動的に /cdrom/suncluster_3_1 ディレクトリにマウントされます。

  7. インターコネクトトランスポート用にRemote Shared Memory Application Programming Interface (RSMAPI) または SCI-PCI アダプタを使用するかどうかを決定します。

    • 使用しない場合は、手順 8 に進みます。

    • 使用する場合は、Sun Cluster 3.1 CD-ROM の Packages ディレクトリから追加のパッケージをインストールします。これらのパッケージは、scinstall(1M) によって自動的にインストールされません。


      # cd /cdrom/suncluster_3_1/SunCluster_3.1/Sol_ver/Packages
      # pkgadd -d . packages
      


      注 –

      CD-ROM パスの ver は、 8 (Solaris 8 の場合) または 9 (Solaris 9 の場合) に置き換えます。


      次の表に、RSMAPI または SCI-PCI アダプタをサポートするために必要な Sun Cluster 3.1 パッケージと、インストールする順番を示します。

      表 2–3 RSMAPI および SCI-PCI アダプタをサポートするための Sun Cluster 3.1 パッケージ

      機能 

      インストールする追加の Sun Cluster 3.1 パッケージ 

      RSMAPI 

      SUNWscrif

      SCI-PCI アダプタ 

      SUNWsci SUNWscid SUNWscidx

  8. /cdrom/suncluster_3_1/SunCluster_3.1/Sol_ver/Tools ディレクトリに移動します。ここに示した ver は、8 (Solaris 8 の場合) または 9 (Solaris 9 の場合) に置き換えます。

    以下の例では、Sun Cluster ソフトウェアの Solaris 8 バージョンのパスを使用しています。


    # cd /cdrom/suncluster_3_1/SunCluster_3.1/Sol_8/Tools
    

  9. scinstall ユーティリティーを起動します。


    ./scinstall
    

    この手順は、最初のインストールノード上でソフトウェアのインストールがまだ進行している間でも開始できます。2 つめのノードは、必要に応じて最初のノードのインストールが完了するのを待ちます。


    注意 – 注意 –

    他のノードをインストールしている間は、(別のノードをスポンサーノードとして使用している場合でも) 最初のインストールノードの再起動や停止を行わないでください。クラスタノードに定足数投票 (quorum vote) が割り当てられてクラスタインストールモードが無効になるまでは、クラスタを設定した最初のインストールノードにしか定足数投票はありません。このため、最初のインストールノードの再起動や停止を行うと、定足数が失われてシステムパニックが発生します。


  10. 「メインメニュー」で、2 (クラスタにこのマシンを追加) と入力します。

    「新しいクラスタの確立」画面の情報を確認し、yes と入力して次の画面に進みます。


     *** メインメニュー ***
     
        次の (*) オプションのうちから 1 つを選択してください
     
          * 1) このマシンを最初のノードとして新しいクラスタを確立
          * 2) このインストールサーバーから JumpStart できるようにクラスタを構成
            3) すでに確立されているクラスタにこのマシンを追加
            4) 新しいデータサービスのサポートをこのクラスタノードに追加
            5) このクラスタノードのリリース情報を出力
     
          * ?) メニューオプションのヘルプ
          * q) 終了
     
        オプション:  2
     
      *** 確立されたノードへのノードの追加 ***
    ...
        継続しますか (yes/no) [yes]? yes
    

  11. Sun Cluster ソフトウェアパッケージのインストールを継続するかどうかをたずねられるので、yes と入力します。


    >>> ソフトウェアパッケージのインストール <<<
      
        Sun Cluster フレームワークソフトウェアのパッケージの
        インストールには数分かかります。
      
        継続しますか (yes/no) [yes]?  yes
      
    ** SunCluster 3.1 をインストールしています **
            SUNWscr.....完了しました。
    ...Hit ENTER to continue:

    すべてのパッケージをインストールしたなら、Return キーを押して次の画面に進みます。

  12. スポンサーノードとなる既存のクラスタノードの名前を指定します。


    >>> スポンサーノード <<<
    ...
        スポンサーノードの名前は ?  node1
    

  13. クラスタ名を指定します。


    >>> クラスタ名 <<<
    ...
        参加したいクラスタ名は ?  clustername
    

  14. 事前インストール検査を行います。


    >>> チェック <<<
     
        このステップでは、sccheck(1M) を実行して、基本的なハードウェア
        および
        ソフトウェアの事前構成条件に適合しているかどうかを確認します。
        当該マシンをクラスタノードとして構成するのに不都合な問題を検出
        した場合、sccheck(1M) は警告を出力します。
     
    ENTER を押すと継続します:

    sccheck コマンドが 何らかの問題を検出した場合は、その問題についての情報が表示され、どのような対処方法を行うかたずねられます。


    sccheck ユーティリティは次のような潜在的な問題を見つけました:
    ...  
    ENTER を押すと継続します:
    ...
     何をしますか ?
      
            1) それでもインストールを開始します
            2) sccheck をやり直します
            q) メインメニューに戻ります
      
        オプション: 

    この sccheck エラーメッセージに対し、次のいずれかを入力します。

    • sccheck メッセージを無視しても安全だということがわかっている場合 (たとえば、危険のないエラーメッセージが発生することが『Sun Cluster 3.1 ご使用にあたって』の記述でわかっている場合など)、1 を入力してインストールを継続します。

    • scinstall ユーティリティーを終了しなくても問題を修正できる場合、問題を修正した後、2 を入力してもう一度 sccheck を実行します。

    • q を入力してインストールを中止します。sccheck が検出した問題を修正した後、 手順 9 に戻って scinstall を再起動します。

  15. 自動検出を使用してクラスタトランスポートを構成するかどうかを指定します。

    Ethernet アダプタを使用しない構成の場合は、no と答えて 手順 17 に進みます。


    >>>クラスタトランスポートの自動検出 <<<
      
        Ethernet アダプタをクラスタトランスポートアダプタとして使用
        している場合 、クラスタトランスポートを構成する最良の方法は
        自動検出です。
      
        自動検出を使用しますか (yes/no) [yes]?
    ...
        次の接続が見つかりました:
      
            node1:adapter switch node2:adapter 
            node1:adapter switch node2:adapter 
      
        これらの接続を構成に追加しますか (yes/no) [yes]?

  16. 手順 15 で自動検出を使用したかどうかを確認します。

    • 使用した場合は、手順 24 に進みます。

    • 使用していない場合は、手順 17 に進みます。

  17. 2 ノードクラスタであるかどうかを指定します。


    >>> ポイントツーポイントケーブル <<<
    ...
        これは 2 ノードクラスタですか (yes/no) [yes]? 

  18. 2 ノードクラスタであると指定したかどうかを確認します。

    • 指定した場合は、クラスタがトランスポート接続点を使用するかどうかを指定します。


          この 2 ノードクラスタはトランスポート接続点を使用しますか (yes/no) [yes]? 

    • 指定していない場合は、Return キーを押して継続します。クラスタに 3 つ以上のノードが含まれる場合は、トランスポート接続点を使用する必要があります。


          このクラスタは 2 ノードクラスタではないため、2 つのトランスポート
          接続点を構成するようにたずねられます
        
      ENTER を押すと継続します: 

  19. クラスタがトランスポート接続点を使用すると指定したかどうかを確認します。

    • 指定した場合は、トランスポート接続点を指定します。


      >>> クラスタトランスポート接続点 <<<
      ...
          クラスタ内の 1 番目の接続点の名前は [switch1]? 
          クラスタ内の 2 番目の接続点の名前は [switch2]? 

    • 指定していない場合は、手順 20 に進みます。

  20. 最初のクラスタインターコネクトトランスポート アダプタを指定します。

    help と入力すると、ノードで利用可能なすべてのトランスポートアダプタの一覧が表示されます。


    >>> クラスタトランスポートアダプタとケーブル <<<
    ...
        1 番目のクラスタトランスポートアダプタの名前は (help) ?  adapter
    

  21. 最初のトランスポートアダプタの接続先を指定します。

    • トランスポートアダプタがトランスポート接続点を使用する場合は、トランスポート接続点の名前とそのポートを指定します。


          「adapter」が接続される接続点の名前は [switch1]? 
      ...
          デフォルトのポート名を「adapter」接続に使用しますか (yes/no) [yes]?

    • トランスポートアダプタがトランスポート接続点を使用しない場合は、接続されている他のトランスポートアダプタの名前を指定します。


          「adapter」が接続される「node1」上のアダプタの名前は ?  adapter
      
  22. 2 番目のクラスタインターコネクトトランスポートアダプタを指定します。

    help と入力すると、ノードで利用可能なすべてのトランスポートアダプタの一覧が表示されます。


        2 番目のクラスタトランスポートアダプタの名前は (help) ?  adapter
    

  23. 2 番目のトランスポートアダプタの接続先を指定します。

    • トランスポートアダプタがトランスポート接続点を使用する場合は、トランスポート接続点の名前とそのポートを指定します。


          「adapter」が接続される接続点の名前は [switch2]? 
          デフォルトのポート名を「adapter」接続に使用しますか (yes/no) [yes]? 
       
      ENTER を押すと継続します: 

    • トランスポートアダプタがトランスポート接続点を使用しない場合は、接続されている他のトランスポートアダプタの名前を指定します。


          「adapter」が接続される「node1」上のアダプタの名前は ?  adapter
      

  24. 広域デバイスのファイルシステム名を指定します。


    >>> 広域デバイスファイルシステム <<<
    ...
        デフォルトでは、/globaldevices を使用します。
     
        このデフォルトを使用しますか (yes/no) [yes]? 

  25. インストールの必要がある Sun Cluster ソフトウェアパッチがあるかどうかを確認します。


    >>> 自動リブート <<<
    ...
        scinstall にマシンをリブートさせますか (yes/no) [yes]? 

    • インストールする場合は、「自動リブート」画面で「no」と入力して自動再起動を行わないようにします。

    • インストールしない場合は、「yes」と入力して自動再起動を行います。

  26. scinstall コマンドにより生成されたオプションを受け入れるか否か決定します。

    確認のため、これまでの入力から生成された scinstall コマンドが表示されます。


    >>> 確認 <<<
     
        次のオプションを scinstall に指示しています:
     
          scinstall -i  \
    ...
        これらのオプションを使用しますか (yes/no) [yes]? 
        インストールを継続しますか (yes/no) [yes]? 

    • コマンドを使用してインストールを続行する場合は、scinstall の処理が継続されます。scinstall の処理中に表示される出力例を、例 — 最初のノードに Sun Cluster ソフトウェアをインストールする に示します。クラスタ内でスポンサーノードがまだ確立されていない場合、scinstall はスポンサーノードが利用できるようになるまで待機します。

      Sun Cluster インストール出力は /var/cluster/logs/install/scinstall.log.pid ファイルに記録されます (pidscinstall インスタンスのプロセス ID 番号)。


      注 –

      独自の /etc/inet/ntp.conf ファイルをインストールしていない限り、scinstall コマンドは自動的にデフォルトの ntp.conf ファイルをインストールします。デフォルトのファイルは 8 ノードを想定しているので、xntpd(1M) デーモンは起動時にこれらのノードに関してエラーメッセージを発行することがあります。このようなエラーメッセージは無視しても安全です。通常のクラスタ条件下で、これらのメッセージを表示しないようにする方法については、ネットワークタイムプロトコル (NTP) を構成する を参照してください。


    • コマンドを拒否した場合は、 Sun Cluster ソフトウェアのインストールを解除するかどうかたずねられます。


          Sun Cluster ソフトウェアのインストールを解除しますか (yes/no) [no]? 

      scinstall が Main Menu に戻った後は、もう一度メニューオプション 2 を実行して異なる応答を指定できます。この場合、以前のセッションの応答がデフォルトとして表示されます。

  27. Sun Cluster ソフトウェア用のパッチをインストールします。

    パッチの入手方法とインストール方法については、『Sun Cluster 3.1 ご使用にあたって』の「パッチとファームウェアレベル」を参照してください。

  28. ノードを再起動してクラスタを確立します。

    手順 27 でパッチをインストールした後にノードを再起動している場合は、もう一度ノードを再起動する必要はありません。


    注意 – 注意 –

    他のノードをインストールしている間は、(別のノードをスポンサーノードとして使用している場合でも) 最初のインストールノードの再起動や停止を行わないでください。クラスタノードに定足数投票 (quorum vote) が割り当てられてクラスタインストールモードが無効になるまでは、クラスタを設定した最初のインストールノードにしか定足数投票はありません。このため、最初のインストールノードの再起動や停止を行うと、定足数が失われてシステムパニックが発生します。クラスタノードは インストール後の設定を行う の手順で scsetup(1M) コマンドを最初に実行するまで、インストールモードのままです。


  29. すべてのノードが完全に構成されるまで、各追加ノードに対してこの手順を繰り返します。

    追加ノードへのインストールを開始する際に、2 番目のノードのインストールが完了するのを待ってこのノードを再起動する必要はありません。

  30. ネームサービス検索順を設定します。

    ネームサービススイッチを構成する に進みます。

例 — Sun Cluster ソフトウェアを 2 番目のノードにインストールする

次に、ノード phys-schost-2 (クラスタに 2 番目にインストールするノード) で scinstall コマンドを実行し、インストール作業が完了するまでに表示される進行状況メッセージの例を示します。


>>> 確認 <<<
  
    次のオプションを scinstall に指示しています:
  
      scinstall -ik \
           -C sc-cluster \
           -N phys-schost-1 \
           -A trtype=dlpi,name=hme1 -A trtype=dlpi,name=hme3 \
           -B type=switch,name=switch1 -B type=switch,name=switch2 \
           -m endpoint=:hme1,endpoint=switch1 \
           -m endpoint=:hme3,endpoint=switch2
  
    これらのオプションを使用しますか (yes/no) [yes]?
  
    インストールを継続しますか (yes/no) [yes]?
  
広域デバイスファイルシステムとして使用できるかどうかをチェックしています ... 完了しました。
  
ノード「phys-schost-2」 をクラスタ構成に追加しています ... 完了しました。
アダプタ「hme1」 をクラスタ構成に追加しています ... 完了しました。
アダプタ「hme3」 をクラスタ構成に追加しています ... 完了しました。
ケーブル をクラスタ構成に追加しています ... 完了しました。
ケーブル をクラスタ構成に追加しています ... 完了しました。
  
「phys-schost-1」から構成をコピーしています ... 完了しました。
「phys-schost-2」のノード ID を設定しています ... 完了しました。(id=2)
  
広域ファイルシステムの広域デバイスをチェックしています ... 完了しました。
Updating vfstab ... 完了しました。
  
NTP が構成されているかどうかを確認しています ... 完了しました。
デフォルトの NTP 構成をインストールしています ... 完了しました。
scinstall が終了した後、NTP 構成を完了してください。
  
「cluster」が nsswitch.conf の「hosts」用に設定されていることを確認しています ... 完了しました。
「cluster」スイッチを nsswitch.conf の「hosts」に追加しています ... 完了しました。
  
「cluster」が nsswitch.conf の「netmasks」用に設定されていることを確認しています ... 完了しました。
「cluster」スイッチを nsswitch.conf の「netmasks」に追加しています ... 完了しました。
  
電源管理が構成されていないことを確認しています ... 完了しました。
電源管理の構成を解除しています ... 完了しました。
/etc/power.conf の名前は /etc/power.conf.61501001054 に変更されました
電源管理はクラスタの HA でサポートされません。
電源管理を構成し直さないでください。
  
ネットワークルーティングが無効であることを確認しています ... 完了しました。
このノードでは、/etc/notrouter を作成することによって、ネットワークルーティングが無効になっています。
Sun Cluster は、クラスタノードをルーターとして動作させることをサポートしていません。
ネットワークルーティングを有効にし直さないでください。
  

ログファイル - /var/cluster/logs/install/scinstall.log.9853
  
  
リブートしています ...

SunPlex Manager による Sun Cluster ソフトウェアのインストール


注 –

既存のクラスタに新しいノードを追加する場合は、SunPlex Manager を使用しないでください。代わりに、最初のクラスタノードとして Sun Cluster ソフトウェアをインストールする (scinstall) に進んでください。


この節では、SunPlex Manager のインストール方法、および SunPlex Manager を使用して Sun Cluster ソフトウェアをインストールし、クラスタノードを確立する方法について説明します。SunPlex Manager は、以下の追加ソフトウェア製品をインストールする場合にも使用できます。

Solaris 9 については、Solaris ソフトウェアのインストールの一部で Solaris Volume Manager ソフトウェアがすでにインストールされています。SunPlex Manager を使用して、最大 3 つのメタセットと対応する Solstice DiskSuite メタデバイスまたは Solaris Volume Manager ボリュームを構成し、各メタセット用のクラスタファイルシステムの作成とマウントを行うことができます。

次に、SunPlex Manager を使用してこれらの追加ソフトウェア製品をインストールするための必要条件を示します。

表 2–4 SunPlex Manager でソフトウェアをインストールするときの必要条件

ソフトウェアパッケージ 

インストール必要条件 

Solstice DiskSuite/Solaris Volume Manager 

/sds をマウントポイント名として使用するパーティション。少なくとも 20M バイトのパーティションが必要

Sun Cluster HA for NFS データサービス 

  • 同じノードセットに接続された、サイズが同じである 2 台以上の共有ディスク

  • SunPlex Manager によってインストールされた Solstice DiskSuite ソフトウェア、または構成された Solaris Volume Manager ソフトウェア

  • Sun Cluster HA for NFS が使用する論理ホスト名。この論理ホスト名の IP アドレスは、すべてのクラスタノードからアクセスできる有効なものであると同時に、クラスタノードのベースホスト名と同じサブネット上に存在するアドレスでなければなりません。

Sun Cluster HA for Apache スケーラブルデータサービス 

  • 同じノードセットに接続された、サイズが同じである 2 台以上の共有ディスク

  • SunPlex Manager によってインストールされた Solstice DiskSuite ソフトウェア、または構成された Solaris Volume Manager ソフトウェア

  • Sun Cluster HA for Apache が使用する共有アドレス。この共有アドレスの IP アドレスは、すべてのクラスタノードからアクセスできる有効なものであると同時に、クラスタノードのベースホスト名と同じサブネット上に存在するアドレスでなければなりません。

次の表に、SunPlex Manager が作成する各メタセットの名前とクラスタファイルシステムマウントポイントのリストを示します (ノードに接続されている共有ディスクの数で異なる)。たとえば、ノードに共有ディスクが 4 台接続されている場合、 SunPlex Manager は、mirror-1 メタセットと mirror-2 メタセットを作成しますが、mirror-3 メタセットは作成しません。これは、このノードに 3 つ目のメタセットを作成するだけの十分な共有ディスクが存在しないためです。

表 2–5 SunPlex Manager がインストールするメタセット

共有ディスク 

メタセット名 

クラスタファイルシステムマウントポイント 

目的 

共有ディスクの 1 番目のペア 

mirror-1

/global/mirror-1

Sun Cluster HA for NFS または Sun Cluster HA for Apache スケーラブルデータサービス、あるいはこの両方 

共有ディスクの 2 番目のペア 

mirror-2

/global/mirror-2

未使用 

共有ディスクの 3 番目のペア 

mirror-3

/global/mirror-3

未使用 


注 –

クラスタが最小の共有ディスク必要条件を満たさなくても、SunPlex Manager は Solstice DiskSuite パッケージをインストールします。ただし、十分な共有ディスクが存在しない状態では、 SunPlex Manager はデータサービスのインスタンスを作成する上で必要なメタセット、メタデバイス、ボリューム、クラスタファイルシステムなどを構成できません。


セキュリティを高めるために、SunPlex Manager は制限された文字セットを認識します。この文字セットに属していない文字は、HTML フォームが SunPlex Manager サーバーに送信されたときに無視されます。SunPlex Manager では、次の文字を使用できます。


()+,-./0-9:=@A-Z^_a-z{|}~

このフィルタ機能によって、以下の問題が生じる可能性があります。

SunPlex Manager ソフトウェアをインストールする

SunPlex Manager グラフィカルユーザーインタフェース (GUI) を使用すると、Sun Cluster ソフトウェアのインストールと管理を簡単に行えます。 クラスタに SunPlex Manager ソフトウェアをインストールするには、次の手順に従ってください。


注 –

別の方法で Sun Cluster ソフトウェアをインストールする場合は、この作業を行う必要はありません。scinstall コマンドにより、インストール処理の一環として SunPlex Manager をインストールすることもできます。


この作業はクラスタの各ノード上で行ってください。

  1. クラスタの各ノードに Solaris ソフトウェアとパッチがインストールされていることを確認します。

    Solaris ソフトウェアのインストールは、 Solaris ソフトウェアをインストールする で説明されているとおりに行う必要があります。Solaris ソフトウェアがすでにノード上にインストールされている場合は、Solaris のインストールが Sun Cluster ソフトウェアの必要条件、およびそのクラスタにインストールする予定の他のソフトウェアの必要条件を満たしていることを確認してください。

  2. クラスタノード上でスーパーユーザーになります。

  3. Apache ソフトウェアパッケージがノードにインストールされていることを確認します。

    • インストールされている場合は、手順 4 に進みます。

      Apache ソフトウェアパッケージは、Solaris Entire Distribution 以上のソフトウェアグループに含まれています。Solaris Entire Distribution よりも下位のソフトウェアグループをインストールしてある場合は、pkginfo(1) コマンドを使用して、手順 c に示すソフトウェアパッケージがインストールされているかどうかを確認してください。

    • Apache ソフトウェアパッケージをインストールします。

    1. CD-ROM からインストールする場合は、ノードの CD-ROM ドライブに Solaris 8 Software 2 of 2 CD-ROM を挿入します。

      ボリューム管理デーモン vold(1M) が実行されていて CD-ROM デバイスを管理するように構成されている場合は、このデーモンによって自動的に CD-ROM がマウントされます。

    2. /cdrom/sol_8_sparc/Solaris_8/Product ディレクトリに移動します。


      # cd /cdrom/sol_8_sparc/Solaris_8/Product
      

      Solaris 9 の場合は、 /cdrom/cdrom0/Solaris_9/Product ディレクトリに移動します。


      # cd /cdrom/cdrom0/Solaris_9/Product
      

    3. Apache ソフトウェアパッケージを次の順序でインストールします。


      # pkgadd -d . SUNWapchr SUNWapchu SUNWapchd
      

    4. Solaris CD-ROM を取り出します。

    5. Apache ソフトウェアパッチをインストールします。

      パッチの入手方法とインストール方法については、『Sun Cluster 3.1 ご使用にあたって』の「パッチとファームウェアレベル」を参照してください。

  4. SunPlex Manager ソフトウェアパッケージをインストールします。

    1. CD-ROM からインストールする場合は、ノードの CD-ROM ドライブに Sun Cluster 3.1 CD-ROM を挿入します。

      ボリューム管理デーモン vold(1M) が実行されており、CD-ROM デバイスを管理するように構成されている場合は、CD-ROM は自動的に /cdrom/suncluster_3_1 ディレクトリにマウントされます。

    2. /cdrom/suncluster_3_1/SunCluster_3.1/Sol_ver/Packages ディレクトリに移動します。ここに示した ver は、8 (Solaris 8 の場合) または 9 (Solaris 9 の場合) に置き換えます。

      以下の例では、Sun Cluster ソフトウェアの Solaris 8 バージョンのパスを使用しています。


      # cd /cdrom/suncluster_3_1/SunCluster_3.1/Sol_8/Packages
      

    3. SunPlex Manager ソフトウェアパッケージをインストールし、すべてのプロンプトに「yes」と入力します。


      # pkgadd -d . SUNWscva SUNWscvr SUNWscvw
      

    4. Sun Cluster CD-ROM を取り出します。

  5. クラスタ内の各ノードで、手順 2 から 手順 4 までの手順を繰り返します。

  6. クラスタの全ノードで同じ root パスワードが設定されているかどうかを確認します。

    • 同じ場合は、手順 7 に進みます。

    • 異なる場合は、クラスタのすべてのノードで同じ値になるように root パスワードを設定してください。必要に応じ、chkey(1) を使用して RPC 鍵ペアを更新してください。


      # passwd
      新しいパスワードを入力する
      # chkey -p
      

    root パスワードを使用して SunPlex Manager にアクセスするためには、クラスタ内のすべてのノードで root パスワードが同じでなければなりません。

  7. SunPlex Manager にアクセスするユーザーアカウントをさらに設定するかどうかを決定します。

    root システムアカウントを使用することもなく、ある特定のノードでのユーザーアカウントも設定されていないというユーザーは、そのノードから SunPlex Manager を介してクラスタにアクセスすることはできません。また、アクセス権のある別のクラスタノードを介してそのノードを管理することもできません。

  8. SunPlex Manager にアクセスするユーザーアカウントをどのように設定するかを決定します

    SunPlex Manager へのログインは、root ユーザーアクセスのほかに、役割によるアクセス制御 (RBAC) を持つユーザーアカウントを使用しても行えます。ユーザーアカウントを設定するには、次の表に示す作業のいずれかを行ってください。

    表 2–6 SunPlex Manager ユーザーアカウントの設定方法

    方法 

    実行する作業 

    既存のユーザーアカウントに RBAC 認証を追加 

    既存のユーザーアカウントに RBAC 認証を追加する

    RBAC 認証を持つ新しいユーザーアカウントを作成 

    新しいユーザーアカウントを作成する


    注 –

    root 以外のユーザーアカウントに RBAC 認証を割り当てると、そのユーザーアカウントは、通常は root にしか行えない管理アクションを実施できるようになります。


    詳細については、『 Solaris のシステム管理 (第 2 巻)』の「役割によるアクセス制御」を参照するか、『Solaris のシステム管理 (基本編)』を参照してください。

既存のユーザーアカウントに RBAC 認証を追加する

既存のユーザーアカウントに RBAC 認証を追加します。ユーザーは自分自身の通常のシステムパスワードを使用してSunPlex Manager にログインできるようになり、SunPlex Manager の全機能へのアクセス権を持つようになります。


注 –

root 以外のユーザーアカウントに RBAC 認証を割り当てると、そのユーザーアカウントは、通常であれば root にしか行えない管理アクションを実施できるようになります。


  1. 各クラスタのノードのスーパーユーザーになります。

  2. /etc/user_attr ファイルに以下のエントリを追加します。


    # vi /etc/user_attr
    username::::type=normal;auths=solaris.cluster.admin
    

  3. 残りの各クラスタノードでも同様の手順を繰り返します。

  4. SunPlex Manager を使用して Sun Cluster ソフトウェアをインストールします。

    Sun Cluster ソフトウェアをインストールする (SunPlex Manager) に進みます。

新しいユーザーアカウントを作成する

すべてのクラスタノードで新しいユーザーアカウントを作成します。


注 –

root 以外のユーザーアカウントに RBAC 認証を割り当てると、そのユーザーアカウントは、通常であれば root にしか行えない管理アクションを実施できるようになります。


  1. 各クラスタのノードのスーパーユーザーになります。

  2. 新しいユーザーアカウントを作成します。


    # useradd -d dir -A solaris.cluster.admin login      
    
    -d dir

    新しいユーザーのホームディレクトリを指定する

    -A solaris.cluster.admin

    新しいユーザーアカウントに solaris.cluster.admin 認証を割り当てる

    login

    新しいユーザーアカウントの名称


    注 –

    ユーザー名は固有である必要があり、ローカルマシン上にもネットワークネームサービス内にも存在してはなりません。


    ユーザーアカウントを作成する方法の詳細については、useradd(1M) のマニュアルページを参照してください。

  3. パスワードを設定します。


    # passwd login
    

  4. 残りの各クラスタノードでも同様の手順を繰り返します。

    ユーザーアカウントのパスワードは、必ずすべてのクラスタノード上で同じにしてください。

  5. SunPlex Manager を使用して Sun Cluster ソフトウェアをインストールします。

    Sun Cluster ソフトウェアをインストールする (SunPlex Manager) に進みます。

Sun Cluster ソフトウェアをインストールする (SunPlex Manager)

注 –

既存のクラスタに新しいノードを追加する場合は、SunPlex Manager を使用しないでください。代わりに、最初のクラスタノードとして Sun Cluster ソフトウェアをインストールする (scinstall) に進んでください。


この作業は、SunPlex Manager を使用して、1 回の操作で Sun Cluster ソフトウェアとパッチをクラスタ内のすべてのノードにインストールする場合に行います。この手順は、Solstice DiskSuite ソフトウェアとパッチのインストール (Solaris 8) 、または Solaris Volume Manager のミラーディスクセットの構成 (Solaris 9) にも使用できます。 SunPlex Manager を使用して、Solstice DiskSuite ソフトウェアのインストールまたは Solaris Volume Manager ディスクセットの構成を行う場合は、Sun Cluster HA for NFS データサービスまたはスケーラブルな Sun Cluster HA for Apache データサービス、あるいはこの両方をインストールすることもできます。

このインストール処理は、クラスタノードの数、データサービスの種類、クラスタ構成内のディスクの数に応じて、30 分〜 2 時間以上かかる場合があります。

  1. クラスタの各ノードに SunPlex Manager ソフトウェアがインストールされていることを確認します。

    インストール手順については、SunPlex Manager ソフトウェアをインストールする を参照してください。

  2. SunPlex Manager を使用してソフトウェアをインストールするための必要条件にクラスタ構成が適合していることを確認します。

    インストールの必要条件と制限については、SunPlex Manager による Sun Cluster ソフトウェアのインストール を参照してください。

  3. Sun Cluster HA for NFS または Sun Cluster HA for Apache をインストールするかどうかを決定します。

  4. インストールする各ソフトウェア製品の CD-ROM イメージへのファイルシステムパスを用意します。

    1. 各ノードが使用できる場所に各 CD-ROM イメージを用意します。

      CD-ROM イメージは、クラスタのすべてのノードから同じファイルシステムパスを使用してアクセスできなければなりません。これらのパスとして、以下に示す場所のいずれかを指定できます。

      • クラスタの外部に存在するマシンからネットワークにエクスポートされた CD-ROM ドライブ

      • クラスタの外部に存在するマシン上のエクスポートされたファイルシステム

      • クラスタの各ノード上のローカルファイルシステムにコピーされた CD-ROM イメージ。ローカルファイルシステムの名前は、すべてのノードで同じにする必要があります。

    2. 各 CD-ROM イメージのパスを記録します。

      この情報は、手順 17 で SunPlex Manager に対する情報として利用します。

  5. インターコネクトトランスポート用にRemote Shared Memory Application Programming Interface (RSMAPI) または SCI-PCI アダプタを使用するかどうかを決定します。

    • 使用しない場合は、手順 6 に進みます。

    • 使用する場合は、Sun Cluster 3.1 CD-ROM の Packages ディレクトリから追加のパッケージをインストールします。これらのパッケージは、 scinstall(1M) によって自動的にインストールされません。


      # cd /cdrom/suncluster_3_1/SunCluster_3.1/Sol_ver/Packages
      # pkgadd -d . packages
      


      注 –

      CD-ROM パスの ver は、 8 (Solaris 8 の場合) または 9 (Solaris 9 の場合) に置き換えます。


      次の表に、RSMAPI または SCI-PCI アダプタをサポートするために必要な Sun Cluster 3.1 パッケージと、インストールする順番を示します。

      表 2–7 RSMAPI および SCI-PCI アダプタをサポートするための Sun Cluster 3.1 パッケージ

      機能 

      インストールする追加の Sun Cluster 3.1 パッケージ 

      RSMAPI 

      SUNWscrif

      SCI-PCI アダプタ 

      SUNWsci SUNWscid SUNWscidx

  6. Sun Cluster または Solstice DiskSuite ソフトウェアをサポートするために必要なパッチがあるかどうかを確認します。

    • 存在する場合は、手順 7 に進みます。

    • 存在しない場合は、手順 9 に進みます。

  7. パッチのインストールに SunPlex Manager を使用するかどうかを決定します。

    • 使用する場合は、手順 8 に進みます。

    • 使用しない場合は、SunPlex Manager を使用する前に、Sun Cluster または Solstice DiskSuite ソフトウェアのサポートに必要なパッチをすべて手動でインストールして、手順 9 に進みます。

  8. 各ノードが利用できるファイルシステム上の 1 つのディレクトリに、Sun Cluster または Solstice DiskSuite ソフトウェアに必要なパッチをコピーします。

    1. このディレクトリには、各パッチのバージョンを 1 つだけコピーするようにしてください。

      パッチディレクトリに同じパッチのバージョンが複数存在すると、SunPlex Manager はパッチの依存性順位を正しく判断できなくなります。

    2. パッチファイルが解凍されていることを確認します。

    3. パッチディレクトリのパスを記録します。

      この情報は、手順 17 で SunPlex Manager に対する情報として利用します。

  9. 以下の構成計画ワークシートに必要事項を記入したものを用意します。

    計画のガイドラインについては、第 1 章「Sun Cluster 構成の計画」 および『Sun Cluster 3.1 データサービスのインストールと構成』を参照してください。

  10. SunPlex Manager を起動します。

    1. 管理コンソール、またはクラスタの外部に存在する他のマシンから、ブラウザを起動します。

    2. ブラウザの Web プロキシを無効にします。

      SunPlex Manager のインストール機能は、Web プロキシと互換性がありません。

    3. ディスクキャッシュとメモリーキャッシュが有効になっていることを確認します。

      ディスクキャッシュとメモリーキャッシュのサイズは、0 より大きくなくてはなりません。

    4. ブラウザから、任意のクラスタノードのポート 3000 に接続します。


      https://node:3000/
      

      ブラウザのウィンドウに「Sun Cluster のインストール」画面が表示されます。


      注 –

      「Sun Cluster のインストール」画面ではなく管理インタフェースが表示される場合は、そのノードにSun Cluster ソフトウェアがすでにインストールされています。URL 内のノード名がインストール対象のクラスタノードの名前と一致していることを確認してください。


    5. ブラウザに「新しいサイト証明書 (New Site Certification)」ウィンドウが表示された場合は、画面上の指示に従ってください。

  11. 「Sun Cluster のインストール」画面で、SunPlex Manager を使用するための要件をクラスタが満たしていることを確認します。

    • Solaris エンドユーザーソフトウェアグループまたはこれ以上の機能がインストールされていること

    • ルートディスクパーティションには、マウントポイントが /globaldevices に設定された 512M バイトのスライスが存在すること

    • ルートディスクパーティションには、マウントポイントが /sds に設定された 20M バイトのスライスが存在すること

    • 手順 4 から 手順 8 までに説明されているように、必要となるすべての CD-ROM イメージのファイルシステムパスとパッチが設定されていること

    示されている必要条件をすべて満たしている場合は、「次へ」をクリックして次の画面に進みます。

  12. クラスタの名前を入力し、クラスタ内のノードの数を選択します。

    表示されるデフォルトのノード数がクラスタにインストールするノード数よりも大きくなることもあります。この場合は、正しいノード数を選択してください。これは、SunPlex Manager がインストール可能な他のノードが、ユーザーがインストールしようとしているノードと同じパブリックネットワークを使用している場合に発生します。

    「次へ」をクリックして継続します。


    ヒント –

    「戻る」ボタンを使用して前の画面に戻り、情報を変更できます。ただし、後続の画面で入力した情報は保持されません。それらの画面の構成情報は、再度入力する必要があります。


  13. 各クラスタノードの名前を入力します。

    SunPlex Manager はパブリックネットワーク上で見つかったノードの名前を、SunPlex Manager がインストールするノードのデフォルトとして提供します。ネットワーク上にあるノード数よりも大きい数を指定した場合は、SunPlex Manager は追加のデフォルト名を提供します。このような追加のデフォルト名は、「phys-clustername-N」という命名規約に従って作成されます。


    注 –

    SunPlex Manager は、ユーザーがクラスタにインストールしようとしているノード以外のノードを表示することもあります。これは、そのノードが、ユーザーがインストールしようとしているノードと同じパブリックネットワークを使用しており、SunPlex Manager ソフトウェアによってインストールされているが、Sun Cluster ソフトウェアによってはインストールされていない場合に発生します。インストールしないクラスタノード名が示された場合は、正しいノード名を入力してください。


    「次へ」をクリックして継続します。

  14. 各ノードのプルダウンリストから、プライベートインターコネクトに使用するアダプタの名前を 2 つ選択します。

    各ノードに対応するアダプタ名については、「クラスタインターコネクトのワークシート」を参照してください。

    「次へ」をクリックして継続します。

  15. Solstice DiskSuite ソフトウェアをインストールするかどうか (Solaris 8)、Solaris Volume Manager ミラーディスクセットを構成するかどうか (Solaris 9) を選択します。

    Sun Cluster HA for NFS または Sun Cluster HA for Apache をインストールする予定の場合は、Solstice DiskSuite ソフトウェアをインストールするか (Solaris 8)、Solaris Volume Manager ミラーディスクセットを構成する (Solaris 9) 必要があります。


    注意 – 注意 –

    SunPlex Manager が Solstice DiskSuite ソフトウェアをインストールするか、Solaris Volume Manager ソフトウェアを構成した場合、すべての共有ディスク上のデータが失われます。


    「次へ」をクリックして継続します。

  16. Sun Cluster HA for NFS、Sun Cluster HA for Apache またはこの両方をインストールするかどうかを選択します。

    該当する論理ホスト名または共有アドレスについては、「ネットワークリソース」ワークシートを参照してください。

    • Sun Cluster HA for NFS については、データサービスが使用する論理ホスト名も指定してください。

    • Sun Cluster HA for Apache については、データサービスが使用する共有アドレスも指定してください。

    「次へ」をクリックして継続します。

  17. 指定したパッケージのインストールに必要な各 CD-ROM イメージのパスを入力し、必要に応じてパッチディレクトリのパスも入力します。

    • 表 2–8 に示すように、該当するパスフィールドに各ソフトウェアパッケージのパスを入力します。

    • CD-ROM イメージに指定するパスは、その CD-ROM の .cdtoc ファイルが入ったディレクトリでなければなりません。

    • インストールしないソフトウェアパッケージについては、関連するパスフィールドを空白のままにします。

    • 必要なパッチをすでにインストール済みである場合は、「パッチディレクトリのパス」フィールドを空白のままにします。

    表 2–8 ソフトウェアパッケージの CD-ROM イメージパスフィールド

    インストールするソフトウェアパッケージ 

    CD-ROM イメージパスフィールドの名前 

    Solstice DiskSuite 

    Solaris CD-ROM Path 

    Sun Cluster 

    Sun Cluster 3.1 CD-ROM Path 

    Sun Cluster HA for NFS, Sun Cluster HA for Apache 

    Sun Cluster 3.1 Agents CD-ROM Path 

    Sun Cluster patches, Solstice DiskSuite patches 

    Patch Directory Path 

    「次へ」をクリックして継続します。

  18. 「情報を確認」画面に表示された入力情報が正しいかどうかを確認します。

    • 正しい場合は、手順 19 に進みます。

    • 正しくない場合は、以下の手順に従って構成情報を修正してください。

    1. 変更する情報の画面に戻るまで「戻る」をクリックします。


      注 –

      「戻る」をクリックして以前の画面に戻った場合、後続の画面で入力してあった情報はすべて失われます。


    2. 正しい情報を入力して「次へ」をクリックします。

    3. 「情報を確認」画面に戻るまで、各画面の情報を入力し直します。

    4. 「情報を確認」画面の情報が正しいことを確認します。

  19. 「インストールを開始」をクリックしてインストール処理を開始します。


    注 –

    インストール処理中は、ブラウザウィンドウを閉じたり URL を変更したりしないでください。


    1. ブラウザに「新しいサイトの証明書」ウィンドウが表示された場合は、画面上の指示に従ってください。

    2. ブラウザにログイン情報のプロンプトが表示された場合は、接続先ノードの該当するユーザー ID とパスワードを入力してください。

    インストールが進行している間、クラスタインストール処理の状況を示す簡単なメッセージが画面に表示されます。インストールが完了した時点で、ブラウザにクラスタ監視 / 管理用の GUI が表示されます。

    SunPlex Manager のインストールの出力は、 /var/cluster/spm ディレクトリに記録されます。 Sun Cluster のインストール出力は、 /var/cluster/logs/install/scinstall.log.pid ファイルに記録されます (pidscinstall インスタンスのプロセス ID 番号)。

    インストール中、sccheck ユーティリティーが 何らかの問題を検出した場合は、その問題についての情報が表示され、どのような対処方法を行うかたずねられます。

    • 「取り消し」をクリックしてインストールを停止し、sccheck が見つけた問題を修正し、手順 d に戻って、SunPlex Manager を再起動します。

    • あるいは、SunPlex Manager を終了しなくても問題を修正できる場合、問題を修正した後、「検証をやり直す」をクリックして、もう一度 sccheck を実行します。

    • sccheck メッセージを無視しても安全だということがわかっている場合 (たとえば、危険のないエラーメッセージが発生することが『Sun Cluster 3.1 ご使用にあたって』の記述でわかっている場合など)、「インストールを継続」をクリックします。

  20. 必要に応じ、SunPlex Manager を使用して定足数割り当ての確認と変更を行います。

    3 つ以上のノードを持つクラスタの場合、共有定足数デバイスの使用は任意です。SunPlex Manager による定足数デバイスへの投票数の割り当ては、適切な共有ディスクが利用可能かどうかに基づいて行われます。ユーザーは、SunPlex Manager を使用して定足数デバイスを指定することも、クラスタ内の定足数投票数を割り当てなおすこともできます。

  21. ネームサービス検索順を設定します。

    ネームサービススイッチを構成する に進みます。

Solaris と Sun Cluster ソフトウェアをインストールする (JumpStart)

この節では、カスタム JumpStart によるインストール方法である scinstall(1M) の設定と使用について説明します。 この方法は、Solaris と Sun Cluster ソフトウェアの両方を 1 回の操作ですべてのクラスタノードにインストールし、クラスタを動作可能にします。この手順は、新しいノードを既存のクラスタに追加するときにも使用できます。

  1. Solaris ソフトウェアをインストールする前に、ハードウェアの設定が完了していることと、接続が完全であることを確認します。

    ハードウェアの設定の詳細については、『Sun Cluster 3.1 Hardware Administration Collection』およびサーバーと記憶装置のマニュアルを参照してください。

  2. クラスタ構成の計画が完了していることを確認します。

    必要条件とガイドラインについては、クラスタソフトウェアのインストールの準備をする を参照してください。

  3. 次の情報を用意します。

    計画のガイドラインについては、Solaris オペレーティング環境についての計画Sun Cluster 環境の計画 を参照してください。

  4. ネームサービスを使用しているかどうかを確認します。

    • 使用していない場合は、手順 5 に進みます。手順 31 で必要なホスト名情報を設定します。

    • 使用している場合、すべての公開ホスト名と論理アドレス間のアドレスと名前マッピングを、JumpStart サーバーの IP アドレスとホスト名に加えて、クライアントがクラスタサービスにアクセスするために使用する任意のネームサービス (NIS や DNS など) に追加します。計画のガイドラインについては、IP アドレス を参照してください。Solaris ネームサービスの使用については、Solaris システム管理者用のマニュアルを参照してください。

  5. 既存のクラスタに新しいノードをインストールするかどうかを確認します。

    • インストールする場合は、別のアクティブクラスタノードから scsetup(1M) を実行し、認証クラスタノードのリストにこの新しいノードの名前を追加します。詳細については、『Sun Cluster 3.1 のシステム管理』の「クラスタノードの追加と削除」の「ノードを認証ノードリストに追加する」手順を参照してください。

    • インストールしない場合は、手順 6 に進みます。

  6. スーパーユーザーとして、JumpStart インストールサーバーを Solaris オペレーティング環境インストール用に設定します。

    JumpStart インストールサーバーの設定方法については、setup_install_server(1M) と add_install_client(1M) のマニュアルページ、および『Solaris 9 インストールガイド』の「カスタム JumpStart インストールの準備」 を参照してください。

    インストールサーバーを設定するときには、次の条件に適合していることを確認します。

    • インストールサーバーはクラスタノードと同じサブネット上にあるが、それ自体はクラスタノードではないこと

    • インストールサーバーによって、Sun Cluster ソフトウェアに必要な Solaris オペレーティング環境のリリースがインストールされていること

    • Sun Cluster の JumpStart インストール用のカスタム JumpStart ディレクトリが存在すること。この jumpstart-dir ディレクトリには check(1M) ユーティリティのコピーが含まれているため、JumpStart インストールサーバーが読み取れるように NFS でエクスポートされている必要があります。

    • 各新規クラスタノードが、Sun Cluster のインストール用のカスタム JumpStart ディレクトリ設定を使用する、カスタム JumpStart インストールクライアントとして構成されていること

  7. JumpStart インストールサーバーに、Sun Cluster 3.1 CD-ROM のコピーを格納する ディレクトリを作成します。

    次の例では、このディレクトリとして /export/suncluster を使用します。


    # mkdir -m 755 /export/suncluster
    

  8. Sun Cluster CD-ROM を JumpStart インストールサーバーにコピーします。

    1. JumpStart インストールサーバーの CD-ROM ドライブに Sun Cluster 3.1 CD-ROM を挿入します。

      ボリューム管理デーモン vold(1M) が実行されており、CD-ROM デバイスを管理するように構成されている場合は、CD-ROM は自動的に /cdrom/suncluster_3_1 ディレクトリにマウントされます。

    2. /cdrom/suncluster_3_1/SunCluster_3.1/Sol_ver/Tools ディレクトリに移動します。ここに示した ver は、8 (Solaris 8 の場合) または 9 (Solaris 9 の場合) に置き換えます。

      以下の例では、Sun Cluster ソフトウェアの Solaris 8 バージョンのパスを使用しています。


      # cd /cdrom/suncluster_3_1/SunCluster_3.1/Sol_8/Tools
      

    3. CD-ROM を JumpStart インストールサーバー上の新しいディレクトリにコピーします。

      scinstall コマンドで、CD-ROM のファイルをコピーする新しいインストールディレクトリを作成します。この例では、インストールディレクトリの名前として /export/suncluster/sc31 を使用します。


      ./scinstall -a /export/suncluster/sc31
      

    4. CD-ROM を取り出します。


      # cd /
      # eject cdrom
      

    5. JumpStart インストールサーバー上の Sun Cluster 3.1 CD-ROM イメージが、JumpStart インストールサーバーで読み取れるように NFS によってエクスポートされていることを確認します。

      自動ファイル共有の詳細については、『Solaris のシステム管理 (第 3 巻)』の「Solaris NFS の環境」または『Solaris のシステム管理 (資源管理とネットワークサービス)』 のネットワークファイルシステムの管理 (概要)」を参照するか、 share(1M) および dfstab(4) のマニュアルページを参照してください。

  9. 既存のクラスタに新しいノードをインストールするかどうかを確認します。

    • インストールする場合は、手順 10 に進みます。

    • インストールしない場合は、手順 11 に進みます。

  10. 新しいノードをクラスタの承認済みノードリストに追加したかどうかを確認します。

    • 追加している場合は、手順 11 に進みます。

    • まだ追加していない場合は、任意の既存クラスタノードから scsetup(1M) を実行して認証クラスタノードのリストにこの新しいノードの名前を追加してください。詳細については、『 Sun Cluster 3.1 のシステム管理』の「ノードを認証ノードリストに追加する」を参照してください。

  11. JumpStart インストールサーバーから scinstall(1M) ユーティリティーを起動します。

    ここでは、作成したインストールディレクトリの例として、パス /export/suncluster/sc31 を使用します。


    # cd /export/suncluster/sc30/SunCluster_3.1/Sol_ver/Tools
    # ./scinstall
    


    注 –

    CD-ROM パスの ver は、 8 (Solaris 8 の場合) または 9 (Solaris 9 の場合) に置き換えます。


    対話式 scinstall ユーティリティを使用するときには、次の指針に従います。

    • 対話式 scinstall を使用すると、先行入力が可能になります。したがって、次のメニュー画面がすぐに表示されなくても、何度も Return キーを押さないでください。

    • 特に指定のある場合以外は、Control-D キーを押すと、関連のある一連の質問の最初か、メインメニューに戻ります。 Sun Cluster ソフトウェアをインストールした後に Control-D を押してセッションを中断した場合、 scinstall は、これらのパッケージのインストールを解除するかどうかをたずねます。

    • セッション中の応答は、次に同じメニューオプションを実行したときのデフォルトの応答として記憶されます。デフォルトの応答はプロンプトの終わりに角括弧 ([  ]) に囲まれて表示されます。

  12. メインメニューから 3 (このインストールサーバから JumpStart できるようにクラスタを構成) を入力します。

    このオプションを使用して、カスタム JumpStart 完了スクリプトを構成します。JumpStart は、これらの完了スクリプトを使用して、 Sun Cluster ソフトウェアをインストールします。


     *** メインメニュー ***
     
        次の (*) オプションのうちから 1 つを選択してください:
     
            1) このマシンを最初のノードとして新しいクラスタを確立
            2) すでに確立されているクラスタにこのマシンを追加
          * 3) このインストールサーバーから JumpStart できるようにクラスタを構成
            4) 新しいデータサービスのサポートをこのクラスタノードに追加
            5) このクラスタノードのリリース情報を出力
     
          * ?) メニューオプションのヘルプ
          * q) 終了
     
        オプション:  3
     
     *** カスタム JumpStart ***
    ...
        継続しますか (yes/no) [yes]?


    注 –

    画面上でオプション 3 にアスタリスクが表示されない場合、JumpStart の設定が完了していないか、エラーが発生しているため、このオプションが無効であることを意味します。scinstall ユーティリティーを終了し、 手順 6 から 手順 8 までを繰り返して JumpStart 設定を修正してから、scinstall ユーティリティーを再起動してください。


  13. JumpStart ディレクトリの名前を指定します。


    >>> カスタム JumpStart ディレクトリ <<<
    ....
        JumpStart ディレクトリ名は ?  jumpstart-dir
    

  14. クラスタの名前を指定します。


    >>> クラスタ名 <<<
    ...
        確立したいクラスタ名は ?  clustername
    

  15. すべてのクラスタノードの名前を指定します。


    >>> クラスタノード <<<
    ...
        初期クラスタ構成に参加させるすべてのノードの名前を入力してく
        ださい。 少なくとも 2 つのノードを入力する必要があります。一行
        ごとに 1 つのノードを入力します。終了したら、Ctrl-D を押してく
        ださい:
     
        ノード名:  node1
        ノード名:  node2
        ノード名 (終了するには Ctrl-D): <Control-D>
     
        完成したノードのリスト:
    ... 
        よろしいですか (yes/no) [yes]? 

  16. データ暗号化標準 (DES) 認証を使用するかどうかを指定します。

    デフォルトでは、Sun Cluster ソフトウェアを使用してノードをクラスタに接続できるのは、ノードが物理的にプライベートインターコネクトに接続されていて、かつ上記の 手順 15 の方法でノード名が指定されている場合だけです。しかし、この時点ではプライベートインターコネクトは完全に構成されていないので、実際にはノードはパブリックネットワーク経由でスポンサーノードと通信します。DES 認証を使用すると、スポンサーノードはクラスタ構成を更新するために接続しようとするノードをより信頼性の高い方法で認証するため、インストール時のセキュリティレベルが上がります。

    DES 認証を使用してセキュリティレベルを上げることを選択した場合、任意のノードがクラスタに参加できるようにするためには、必要な暗号化鍵をすべて構成する必要があります。詳細については、keyserv(1M) と publickey(4) のマニュアルページを参照してください。


    >>> ノードを追加する要求を認証する <<<
    ...
        DES 認証を使用しますか (yes/no) [no]? 

  17. プライベートネットワークアドレスとネットマスクを指定します。


    >>>クラスタトランスポートのネットワークアドレス <<<
    ...
        デフォルトのネットワークアドレスを使用しますか (yes/no) [yes]? 
        デフォルトのネットマスクを使用しますか (yes/no) [yes]? 


    注 –

    クラスタの構築に成功した後では、プライベートネットワークアドレスは変更できません。


  18. クラスタがトランスポート接続点を使用するかどうかを指定します。

    • 当該クラスタが 2 ノードクラスタである場合、トランスポート接続点を使用するかどうかを指定します。


      >>> ポイントツーポイントケーブル <<<
       ...
          この 2 ノードクラスタはトランスポート接続点を使用しますか (yes/no) [yes]? 


      ヒント –

      ノードがお互いに直接接続されているかどうかに関わらず、クラスタがトランスポート接続点を使用するように指定できます。クラスタがトランスポート接続点を使用するように指定した場合、将来、より簡単に新しいノードをクラスタに追加できます。


    • クラスタが 4 つ以上のノードを持っている場合、トランスポート接続点を使用する必要があります。Return キーを押して、次の画面に進みます。


      >>> ポイントツーポイントケーブル <<<
       ...
          このクラスタは 2 ノードクラスタではないため、2 つのトランス
          ポート接続点を構成するようにたずねられます。
          
      ENTER を押すと継続します: 

  19. クラスタがトランスポート接続点を使用するかどうかを確認します。

    • 使用する場合、トランスポート接続点の名前を指定します。このとき、デフォルトの名前 switchN を使用するか、または独自の名前を作成することが可能です。


      >>> クラスタトランスポート接続点 <<<
       ...
          クラスタ内の 1 番目の接続点の名前は [switch1]? 
          クラスタ内の 2 番目の接続点の名前は [switch2]? 

    • 使用しない場合は、手順 20 に進みます。

  20. 1 番目のノードの 1 番目のクラスタインターコネクトトランスポートアダプタを指定します。


    >>> クラスタトランスポートアダプタとケーブル <<<
    ...
     1 番目のクラスタトランスポートアダプタの名前は ?  adapter
    

  21. 1 番目のアダプタの接続エンドポイントを指定します。

    • 当該クラスタがトランスポート接続点を使用しない場合、当該アダプタが接続されている 2 番目のノード上にあるアダプタの名前を指定します。


      ...
          「adapter」が接続される「node2」上のアダプタの名前は ? adapter
      

    • クラスタがトランスポート接続点を使用する場合、1 番目のトランスポート接続点の名前とそのポートを指定します。


      ...
       「adapter」が接続される接続点の名前は ? switch
      ...
       デフォルトのポート名を「adapter」接続に使用しますか (yes/no) [yes]?


      注 –

      SCI アダプタを使用する構成の場合は、アダプタ接続 (ポート名) をたずねられたときに、デフォルトを受け入れてはいけません。その代わりに、ノードが物理的にケーブル接続されている、Dolphin スイッチ自体の上にあるポート名 (012、または 3) を指定します。次の例に、デフォルトのポート名を拒否して、Dolphin スイッチのポート名 0 を指定するときのプロンプトと応答を示します。


      ...
          デフォルトのポート名を「adapter」接続に使用しますか (yes/no) [yes]?  no
          使用したいポートの名前は ?  0
      


  22. 1 番目のノードの 2 番目のクラスタインターコネクトトランスポートアダプタを指定します。


    ...
     2 番目のクラスタトランスポートアダプタの名前は ?  adapter
    

  23. 2 番目のアダプタの接続エンドポイントを指定します。

    • 当該クラスタがトランスポート接続点を使用しない場合、当該アダプタが接続されている 2 番目のノード上にあるアダプタの名前を指定します。


      ...
          「adapter」が接続される「node2」上のアダプタの名前は ? adapter
      

    • クラスタがトランスポート接続点を使用する場合、2 番目のトランスポート接続点の名前とそのポートを指定します。


      ...
       「adapter」が接続される「node1」上のアダプタの名前は ? switch
      ...
       デフォルトのポート名を「adapter」接続に使用しますか (yes/no) [yes]?


      注 –

      構成が SCI アダプタを使用している場合、アダプタの接続 (ポート名) についてたずねられたときにデフォルトをそのまま使用してはいけません。その代わりに、ノードが物理的にケーブル接続されている、Dolphin スイッチ自体の上にあるポート名 (012、または 3) を指定します。次の例に、デフォルトのポート名を拒否して、Dolphin スイッチのポート名 0 を指定するときのプロンプトと応答を示します。


      ...
          デフォルトのポート名を「adapter」接続に使用しますか (yes/no) [yes]?  no
          使用したいポートの名前は ?  0
      


  24. クラスタがトランスポート接続点を使用するかどうかを確認します。

    • 使用する場合は、追加のクラスタノードごとに、手順 20 から 手順 23 までを繰り返します。

    • 使用しない場合は、手順 25 に進みます。

  25. 各クラスタノードの広域デバイスファイルシステム名を指定します。


    >>> 広域デバイスファイルシステム <<<
    ...
        デフォルトでは、/globaldevices を使用します。
     
     For node "node1",
       このデフォルトを使用しますか (yes/no) [yes]? 
     
     For node "node2",
        このデフォルトを使用しますか (yes/no) [yes]?

  26. 生成された scinstall コマンドを使用するか、または拒否します。

    確認のため、これまでの入力から生成された scinstall コマンドが表示されます。


    >>> 確認 <<<
     
        次のオプションを scinstall に指示しています:
    -----------------------------------------
     For node "node1",
          scinstall -c jumpstart-dir -h node1  \
    ...
        これらのオプションを使用しますか (yes/no) [yes]? 
    -----------------------------------------
     For node "node2",
          scinstall -c jumpstart-dir -h node2  \
    ...
        これらのオプションを使用しますか (yes/no) [yes]? 
    -----------------------------------------
        JumpStart の設定を継続しますか (yes/no) [yes]?

    生成されたコマンドを使用しない場合、scinstall ユーティリティはメインメニューに戻ります。メインメニューからオプション「3」を実行し直して、応答を変更します。以前の応答はデフォルトとして表示されます。

  27. 必要に応じて、 scinstall によって作成されたデフォルトの class ファイルまたはプロファイルを調整します。

    scinstall コマンドによって、デフォルトの class ファイルであるautoscinstall.class が、jumpstart-dir/autoscinstall.d/3.1 ディレクトリに作成されます。


    install_type    initial_install
    system_type     standalone
    partitioning    explicit
    filesys         rootdisk.s0 free /
    filesys         rootdisk.s1 750  swap
    filesys         rootdisk.s3 512  /globaldevices
    filesys         rootdisk.s7 20
    cluster         SUNWCuser        add
    package         SUNWman          add

    デフォルトの class ファイルは Solaris ソフトウェアのエンドユーザーシステムサポートソフトウェアグループ (SUNWCuser) をインストールします。構成に他の Solaris ソフトウェア条件がある場合、class ファイルを適宜変更します。詳細については、Solaris ソフトウェアグループについて を参照してください。

    次のいずれかの方法でプロファイルを変更します。

    • autoscinstall.class ファイルを直接編集します。この方法による変更は、カスタム JumpStart ディレクトリを使用するすべてのクラスタのすべてのノードに適用されます。

    • rules ファイルが別のプロファイルを指し示すように更新してから、check ユーティリティを実行して、rules ファイルの妥当性を検査します。

    Solaris オペレーティング環境のインストールプロファイルが、Sun Cluster ファイルシステムの最小の割り当て要件を満たしているかぎり、インストールプロファイルに対するその他の変更に制限はありません。Sun Cluster 3.1 ソフトウェアをサポートするためのパーティション分割のガイドラインについては、システムディスクパーティション を参照してください。JumpStart プロファイルの詳細については、『Solaris 9 インストールガイド』の「カスタム JumpStart インストールの準備」を参照してください。

  28. インターコネクトトランスポート用に Remote Shared Memory Application Programming Interface (RSMAPI) または SCI-PCI アダプタを使用するかどうかを決定します。

    • 使用する場合で、 かつ「エンドユーザーシステムサポート」ソフトウェアグループをインストールする場合は、手順 27 で説明されている方法を使用して、次のエントリをデフォルトの class ファイルに追加します。


      package         SUNWrsm         add
      package         SUNWrsmx        add
      package         SUNWrsmo        add
      package         SUNWrsmox       add

      さらに、Sun Cluster パッケージをインストールして、RSMAPI と SCI-PCI アダプタをサポートするためには、手順 33 で、インストール後に実行する完了スクリプトを作成または変更する必要があります。

      エンドユーザーシステムサポートソフトウェアグループよりも上位レベルの Solaris ソフトウェアグループをインストールしている場合、SUNWrsm* パッケージは Solaris ソフトウェアと一緒にインストールされるので、class ファイルに追加する必要はありません。

    • インストールしない場合は、手順 29 に進みます。

  29. SunPlex Manager を使用するかどうかを決定します。

    • 使用する場合で、 かつ 「エンドユーザーシステムサポート」ソフトウェアグループをインストールする場合は、手順 27 で説明されている方法を使用して、次のエントリをデフォルトの class ファイルに追加します。


      package         SUNWapchr       add
      package         SUNWapchu       add

      エンドユーザーシステムサポートソフトウェアグループよりも上位レベルの Solaris ソフトウェアグループをインストールしている場合、SUNWrsm* パッケージは Solaris ソフトウェアと一緒にインストールされるので、class ファイルに追加する必要はありません。

    • 使用しない場合は、手順 30 に進みます。

  30. Solaris パッチディレクトリを設定します。

    1. jumpstart-dir/autoscinstall.d/nodes/node/patches ディレクトリを JumpStart インストールサーバー上に作成します。

      上記のディレクトリは node がクラスタノードの名前であるクラスタノードごとに 1 つずつ作成します。あるいは、次の命名規則を使用して、共有パッチディレクトリへのシンボリックリンクを作成します。


      # mkdir jumpstart-dir/autoscinstall.d/nodes/node/patches
      

    2. これらの各ディレクトリに Solaris パッチのコピーを格納します。

      また、Solaris ソフトウェアをインストールした後にインストールする必要があるすべてのハードウェア関連パッチのコピーもこれらのディレクトリに格納します。

  31. 各ノード上で、ローカルに必要なホスト名情報を含むファイルを設定します。

    1. JumpStart インストールサーバーに、 jumpstart-dir/autoscinstall.d/nodes/node/archive/etc/inet/hosts という名前のファイルを作成します。

      上記ファイルは node がクラスタノードの名前であるクラスタノードごとに 1 つずつ作成します。あるいは、この命名規則を使用して、共有 hosts ファイルへのシンボリックリンクを作成します。

    2. 各ファイルに以下のエントリを追加します。

      • Sun Cluster CD-ROM のイメージがコピーされている NFS サーバーの IP アドレスとホスト名。これは JumpStart インストールサーバーである場合も、別のマシンである場合もあります。

      • クラスタ内にある各ノードの IP アドレスとホスト名。

  32. インターコネクト用にRemote Shared Memory Application Programming Interface (RSMAPI) または SCI-PCI アダプタを使用するかどうかを決定します。

    • 使用する場合は、手順 33 の指示に従って、インストール後に実行する完了スクリプトを設定して、次の追加パッケージをインストールします。次の表の順番どおりに、Sun Cluster 3.1 CD-ROM の /cdrom/suncluster_3_1/SunCluster_3.1/Sol_ver/Packages ディレクトリから適切なパッケージをインストールします。


      注 –

      CD-ROM パスの ver は、 8 (Solaris 8 の場合) または 9 (Solaris 9 の場合) に置き換えます。


      表 2–9 RSMAPI および SCI-PCI アダプタをサポートするための Sun Cluster 3.1 パッケージ

      機能 

      インストールする追加の Sun Cluster 3.1 パッケージ 

      RSMAPI 

      SUNWscrif

      SCI-PCI アダプタ 

      SUNWsci SUNWscid SUNWscidx

    • 使用せずに、独自のインストール後に実行する完了スクリプトを追加する場合は、手順 33 に進みます。それ以外の場合、手順 34 に進みます。

  33. (省略可能) インストール後に実行する独自の完了スクリプトを追加します。


    注 –

    インターコネクトトランスポート用にRemote Shared Memory Application Programming Interface (RSMAPI) または SCI-PCI アダプタを使用する場合は、Sun Cluster の SUNWscrif ソフトウェアパッケージをインストールするために、完了スクリプトを変更する必要があります。このパッケージは、scinstall では自動的にインストールされません。


    scinstall コマンドでインストールされた標準の完了スクリプトの後に実行するような独自の完了スクリプトも追加できます。JumpStart 完了スクリプトを作成する方法については、『Solaris 9 インストールガイド』の「カスタム JumpStart インストールの準備」を参照してください。

    1. 完了スクリプトに finish と名前を付けます。

    2. jumpstart-dir/autoscinstall.d/nodes/node ディレクトリに完了スクリプトをコピーします。クラスタ内の各ノードにコピーします。

      あるいは、この命名規則を使用して、共有完了スクリプトへのシンボリックリンクを作成します。

  34. クラスタ管理コンソールを使用している場合、クラスタ内にある各ノードのコンソール画面を表示します。

    管理コンソールで cconsole(1M) がインストールおよび構成されている場合は、これを使用して個々のコンソール画面を表示できます。それ以外の場合、各ノードのコンソールに個別に接続する必要があります。

  35. 各ノードのコンソール上にある ok PROM プロンプトから boot net - install コマンドを入力して、ネットワーク JumpStart インストールを各ノード上で開始します。


    ok boot net - install
    


    注 –

    上記コマンド内のダッシュ記号 (-) の両側は空白文字で囲む必要があります。


    Sun Cluster のインストール出力は、 /var/cluster/logs/install/scinstall.log.pid ファイルに記録されます (pidscinstall インスタンスのプロセス ID 番号)。


    注 –

    独自の /etc/inet/ntp.conf ファイルをインストールしていない限り、scinstall コマンドは自動的にデフォルトの ntp.conf ファイルをインストールします。デフォルトのファイルは 8 ノードを想定しているので、 xntpd(1M) デーモンは起動時にこれらのノードに関してエラーメッセージを発行することがあります。このようなエラーメッセージは無視しても安全です。通常のクラスタ条件下で、これらのメッセージを表示しないようにする方法については、ネットワークタイムプロトコル (NTP) を構成する を参照してください。


    インストールが正常に完了すると、各ノードは新しいクラスタノードとして完全にインストールされます。


    注 –

    Solaris ソフトウェアのインストール時、Solaris インタフェースグループの機能はデフォルトで無効になります。インタフェースグループは Sun Cluster 構成ではサポートされていないため、再度有効にしないでください。Solaris インタフェースグループの詳細については、 ifconfig(1M) のマニュアルページを参照してください。


  36. 既存のクラスタに新しいノードをインストールするかどうかを確認します。

    • インストールしない場合は、手順 37 に進みます。

    • インストールする場合、新しいノード上で、既存のすべてのクラスタファイルシステム用のマウントポイントを作成します。

    1. クラスタ内にある別のアクティブなノードから、すべてのクラスタファイルシステムの名前を表示します。


      % mount | grep global | egrep -v node@ | awk '{print $1}'
      

    2. クラスタに追加したノード上で、クラスタ内にある各クラスタファイルシステム用のマウントポイントを作成します。


      % mkdir -p mountpoint
      

      たとえば、マウントコマンドが戻したファイルシステム名が /global/dg-schost-1 である場合、クラスタに追加するノード上で mkdir -p /global/dg-schost-1 を実行します。


      注 –

      これらのマウントポイントは、手順 39 においてクラスタを再起動するとアクティブになります。


    3. VERITAS Volume Manager (VxVM) が、クラスタ内にあるノードにすでにインストールされているかどうかを確認します。

      • インストールされている場合は、 VxVM がインストールされているノード上で同じ vxio 番号が使用されていること、および VxVM がインストールされていない各ノード上で vxio 番号が使用できることを確認します。


        # grep vxio /etc/name_to_major
        vxio NNN
        

        VxVM がインストールされていないノード上ですでに vxio 番号が使用されている場合、当該ノード上で /etc/name_to_major ファイルのエントリが使用する番号を変更して、この番号を解放します。

      • インストールされていない場合は、手順 37 に進みます。

  37. Sun Cluster ソフトウェア用のパッチをインストールします。

    パッチの入手方法とインストール方法については、『Sun Cluster 3.1 ご使用にあたって』の「パッチとファームウェアレベル」を参照してください。

  38. Sun Enterprise 10000 サーバーで動的再構成 (DR) を使用するかどうかを決定します。

    • 使用する場合、各ノード上で次のエントリを /etc/system ファイルに追加します。


      set kernel_cage_enable=1

      このエントリは、次のシステム再起動後に有効になります。Sun Cluster 構成で、動的再構成の作業を実行するための手順については、『Sun Cluster 3.1 のシステム管理』を参照してください。動的再構成の詳細については、サーバーのマニュアルを参照してください。

    • 使用しない場合は、手順 39 に進みます。

  39. 既存のクラスタに対する新しいノードの追加、またはクラスタ全体の再起動を必要とする Sun Cluster ソフトウェアパッチのインストール (あるいはこの両方) を行ったかどうかを確認します。

    • 行っていない場合、かつ、インストールしている任意のノードがノードの再起動を必要とする場合、あるいは、変更箇所を有効にするには再起動が必要な場合は、個々のノードを再起動します。

    • 行った場合、次の手順に指示されているとおりに再構成用の再起動を実行します。

    1. ノードのどれか 1 つでクラスタを停止します。


      # scshutdown
      


      注 –

      クラスタがシャットダウンするまで、最初にインストールしたクラスタノードを再起動しないでください。


    2. クラスタ内にある各ノードを再起動します。


      ok boot
      

    クラスタのインストールモードが無効になるまでは、最初にインストールした (つまり、クラスタを構築した) ノードだけが定足数投票権を持ちます。インストールモードが無効になっていない (つまり、構築された) クラスタでは、クラスタをシャットダウンせずに最初にインストールしたノードを再起動すると、残りのクラスタノードは定足数を獲得できず、クラスタ全体が停止します。クラスタノードは インストール後の設定を行う の手順で scsetup(1M) コマンドを最初に実行するまで、インストールモードのままです。

  40. ネームサービス検索順を設定します。

    ネームサービススイッチを構成する に進みます。

ネームサービススイッチを構成する

クラスタ内の各ノードで次の作業を行います。

  1. クラスタノードのスーパーユーザーになります。

  2. /etc/nsswitch.conf ファイルを編集します。

    1. cluster が、データベースエントリの hosts および netmasks の最初の参照先になっていることを確認します。

      この順序は、Sun Cluster ソフトウェアを正しく動作させるために重要です。scinstall(1M) コマンドによって、インストール中に cluster がこれらのエントリに追加されます。

    2. (省略可能) ネームサービスが利用不能になった場合にデータサービスの可用性を向上させるには、以下のエントリの参照順序を変更してください。

      • データベースエントリ hosts および netmasks では、cluster の後に files を配置します。

        Sun Cluster HA for NFS については、files の後でネームサービスの前に[SUCCESS=return] を挿入します。これにより、ノードがローカルに名前を解決できる場合、リストされているネームサービスに問い合わせず、成功を即時返します。


        hosts:      cluster files [SUCCESS=return] nis

      • その他のすべてのデータベースについては、files を参照順序の最初に配置します。

      参照順序を変更した結果、[NOTFOUND=return] 条件がエントリの最後の項目になる場合、この条件は不要となります。エントリから [NOTFOUND=return] 条件を削除することも、あるいはそのまま残す (この場合は無視されます) こともできます。

    次に、/etc/nsswitch.conf ファイルの内容の一部を例として示します。データベースエントリ hosts および netmasks の参照順序は、clusterfiles の順です。その他のエントリの参照順序は、files から始まります。[NOTFOUND=return] 条件は、このエントリからは削除しています。


    # vi /etc/nsswitch.conf
    ...
    passwd:     files nis
    group:      files nis
    ...
    hosts:      cluster files nis
    ...
    netmasks:   cluster files nis
    ...

    nsswitch.conf エントリの詳細については、nsswitch.conf(4) のマニュアルページを参照してください。

  3. root ユーザーの環境を設定します。

    root 環境を設定する に進みます。

root 環境を設定する

クラスタ内の各ノードで次の作業を行います。


注 –

Sun Cluster 構成では、各種シェルのユーザー初期化ファイルは、それらが対話式のシェルから実行されていることを確認した上で、端末への出力を試みる必要があります。この方法に従わないと、予期しない動作やデータサービス妨害が発生する可能性があります。詳細については、 『Solaris のシステム管理 (基本編)』(Solaris 9) を参照してください。


  1. クラスタノード上でスーパーユーザーになります。

  2. .cshrc ファイルの PATHMANPATH エントリを変更します。

    1. /usr/sbin および /usr/cluster/bin を含むように PATH 環境変数を設定します。

      • VERITAS Volume Manager (VxVM) の場合は、 PATH 環境変数に /etc/vx/bin も含めます。

      • VRTSvmsa パッケージをインストールする場合は、VxVM 3.2 以前用に /opt/VRTSvmsa/binPATH に追加するか、VxVM 3.5 用に/opt/VRTSob/binPATH に追加します。.

      • VERITAS File System (VxFS) の場合は、 /opt/VRTSvxfs/sbin/usr/lib/fs/vxfs/bin、および /etc/fs/vxfs を含むように PATH 環境変数を設定します。

    2. MANPATH/usr/cluster/man が含まれるように設定します。また、次のようにボリューム管理ソフトウェア固有のパスも含めます。

      • Solstice DiskSuite/Solaris Volume Manager ソフトウェアの場合は、 MANPATH 環境変数に /usr/share/man を含めます。

      • VxVM の場合は、MANPATH 環境変数に次のパスを含めます。

        • VxVM 3.1 以前の場合は、/opt/VRTSvxvm/man を使用します。

        • VxVM 3.1.1 以降の場合は、/opt/VRTS/man を使用します。

      • VxVM 3.2 以前の場合で、VRTSvmsa パッケージをインストールする場合は、MANPATH 環境変数に /opt/VRTSvmsa/man を含めます。

      • VxFS の場合は、MANPATH 環境変数に /opt/VRTS/man も含めます。

  3. (省略可能) 管理を行いやすくするため、各ノードに同じ root パスワードを設定します。

  4. 残りの各クラスタノードで、手順 1 から 手順 3 までを繰り返します。

  5. データサービスソフトウェアパッケージをインストールします。

    データサービスソフトウェアパッケージをインストールする に進みます。

データサービスソフトウェアパッケージをインストールする

各クラスタノードで以下の作業を行います。


注 –

SunPlex Manager を使用して、Sun Cluster HA for NFS または Sun Cluster HA for Apache (あるいはこの両方) をインストールしており、他のデータサービスをインストールしない場合は、この作業を行う必要はありません。その代わりに、インストール後の設定を行う に進みます。


  1. クラスタノード上でスーパーユーザーになります。

  2. CD-ROM からインストールする場合は、ノードの CD-ROM ドライブに Sun Cluster 3.1 Agents CD-ROM を挿入します。

  3. scinstall(1M) ユーティリティーを起動します。


    # scinstall
    

    対話式 scinstall ユーティリティを使用するときには、次の指針に従います。

    • 対話式 scinstall を使用すると、先行入力が可能になります。したがって、次のメニュー画面がすぐに表示されなくても、何度も Return キーを押さないでください。

    • 特に指定のある場合以外は、Control-D キーを押すと、関連のある一連の質問の最初か、メインメニューに戻ります。

  4. データサービスを追加するには、4(新しいデータサービスのサポートをこのクラスタノードに追加) を入力します。

    プロンプトに従って、インストールするデータサービスをすべて選択します。


    注 –

    インストールしたデータサービスのリソースをノードでホストする予定がない場合でも、各ノードに同じデータサービスパッケージのセットをインストールする必要があります。


  5. CD-ROM からインストールした場合は、CD-ROM を取り出します。

  6. Sun Cluster データサービスパッケージをインストールします。

    パッチの入手方法とインストール方法については、『Sun Cluster 3.1 ご使用にあたって』の「パッチとファームウェアレベル」を参照してください。

    パッチの特別な指示によって再起動が指定されていないかぎり、Sun Cluster データサービスのパッチをインストールした後で再起動する必要はありません。再起動が必要な場合は、まず scshutdown(1M) コマンドを使用してクラスタを停止した後で、クラスタ内の各ノードを再起動してください。


    注 –

    クラスタのインストールモードが無効になるまでは、最初にインストールした (つまり、クラスタを構築した) ノードだけが定足数投票権を持ちます。確立されたクラスタがまだインストールモードにある場合、クラスタを停止せずに最初のインストールノードを再起動すると、残りのクラスタノードは定足数を得られず、クラスタ全体が停止します。クラスタノードは、インストール後の設定を行うの手順で scsetup(1M) コマンドを最初に実行するまでは、インストールモードのままです。


  7. 残りの各クラスタノードで、手順 1 から 手順 6 までを繰り返します。

  8. インストール後設定を行い、定足数投票を割り当てます。

    インストール後の設定を行う に進みます。

インストール後の設定を行う

次の手順は、クラスタが完全に形成された後に一度だけ実行します。

すべてのノードがクラスタに結合していることを確認します。

  1. 任意のノードから、すべてのノードがクラスタに結合していることを確認します。

    クラスタノードを表示するために、scstat(1M) コマンドを実行します。このコマンドを実行するために、スーパーユーザーとしてログインする必要はありません。


    % scstat -n
    

    出力は次のようになります。


    -- クラスタノード --
                       ノード名      状態
                       ---------      ------
      クラスタノード:    phys-schost-1  Online
      クラスタノード:    phys-schost-2  Online

  2. 各ノードで、クラスタノードに対するデバイスの接続性を検証します。

    scdidadm(1M) コマンドを実行し、システムによって検査されるすべてのデバイスのリストを表示します。このコマンドを実行するために、スーパーユーザーとしてログインする必要はありません。


    % scdidadm -L
    

    各ノードのリストは同じ内容になります。出力は次のようになります。


    1       phys-schost-1:/dev/rdsk/c0t0d0 /dev/did/rdsk/d1
    2       phys-schost-1:/dev/rdsk/c1t1d0 /dev/did/rdsk/d2
    2       phys-schost-2:/dev/rdsk/c1t1d0 /dev/did/rdsk/d2
    3       phys-schost-1:/dev/rdsk/c1t2d0 /dev/did/rdsk/d3
    3       phys-schost-2:/dev/rdsk/c1t2d0 /dev/did/rdsk/d3
    ...

  3. 定足数デバイスとして構成する各共有ディスクの広域デバイス ID (DID) を決定します。

    手順 2 で得られた scdidadm の出力で、定足数デバイスとして構成する各共有ディスクの DID 名を確認してください。たとえば、上記の手順の出力は、広域デバイス d2phys-schost-1phys-schost-2 で共有されていることを示しています。この情報は、手順 8 で使用します。定足数デバイスの計画の詳細については、定足数デバイス を参照してください。

  4. 既存のクラスタに新しいノードを追加するかどうかを決定します。

    • 追加する場合は、クラスタの新しい構成に対応できるように定足数の構成を更新しなければならないことがあります。定足数については、『 Sun Cluster 3.1 の概念 』を参照してください。定足数の構成を変更するには、『Sun Cluster 3.1 のシステム管理』の「定足数の管理」に示されている手順に従ってください。適切に定足数を設定したら手順 12 に進みます。

    • 追加しない場合は、手順 6 に進みます。

  5. SunPlex Manager を使用して Sun Cluster ソフトウェアをインストールしたかどうかを確認します。

    • SunPlex Manager を使用した場合は、手順 11 に進みます。Sun Cluster のインストール時に、SunPlex Manager は定足数投票を割り当て、クラスタをインストールモードから解除します。

    • 使用していない場合は、手順 6 に進みます。

  6. 任意のクラスタノードでスーパーユーザーになります。

  7. scsetup(1M) ユーティリティーを起動します。


    # scsetup
    

    「初期クラスタ設定」画面が表示されます。


    注 –

    代わりに「メインメニュー」が表示された場合は、クラスタの初期設定はすでに正しく行われています。手順 11 に進みます。


    定足数の設定処理が中断されたり、正常に終了しなかった場合は、scsetup を再度実行してください。

  8. クラスタが 2 ノードクラスタの場合は、「定足数ディスクを追加しますか?」というプロンプトで 1 つ以上の共有定足数デバイスを構成してください。

    2 ノードクラスタは、共有定足数デバイスが構成されるまでインストールモードのままです。scsetup ユーティリティーが定足数デバイスを構成し終わると、「コマンドが正常に完了しました」というメッセージが表示されます。クラスタに 3 つ以上のノードが存在する場合は、定足数デバイスの構成は任意です。

  9. 「installmode」をリセットしますか?」というプロンプトに、「Yes」と入力します。

    scsetup ユーティリティーによって、クラスタの定足数構成と投票数(quorum vote count) が設定されたあと、「クラスタの初期化は完了しました」とうメッセージが表示され、「メインメニュー」に戻ります。

  10. 任意のノードから、デバイスとノードの定足数構成を確認します。


    % scstat -q
    

  11. 任意のノードから、 クラスタインストールモードが無効になっていることを確認します。

    このコマンドを実行するためにスーパーユーザーになる必要はありません。


    % scconf -p 
    クラスタのインストールモード:                                  disabled

  12. ボリューム管理ソフトウェアをインストールします。

Sun Cluster ソフトウェアのアンインストールによるインストール問題を解決する

インストールしたノードがクラスタに参加できなかったり、構成情報 (トランスポートアダプタなど) を修正する場合、次の手順を実行します。


注 –

ノードがすでにクラスタに参加しており、インストールモード (インストール後の設定を行う手順 11 を参照) でない場合は、この手順を実行しないでください。代わりに、『Sun Cluster 3.1 のシステム管理』の「クラスタノードの追加と削除」の「クラスタソフトウェア構成からノードを削除する」手順に進みます。


  1. ノードを再インストールします。

    インストールに失敗したノードは、単に、当該ノード上で Sun Cluster ソフトウェアのインストールをやり直すだけで修正できる場合があります。ノードの再インストールを行なっても成功しなかった場合、手順 2 に進んで当該ノードから Sun Cluster ソフトウェアをアンインストールします。

  2. アンインストールを行なうノード以外のアクティブなクラスタメンバー上でスーパーユーザーになります。

  3. アクティブなクラスタメンバーから、アンインストールする予定のノードをクラスタのノード認証リストに追加します。


    # /usr/cluster/bin/scconf -a -T node=nodename
    
    -a

    追加します。

    -T

    認証オプションを指定します。

    node=nodename

    認証リストに追加するノードの名前を指定します。

    あるいは、scsetup(1M) ユーティリティも使用できます。手順については、『Sun Cluster 3.1 のシステム管理』の「ノードを認証ノードリストに追加する」を参照してください。

  4. アンインストールを行なうノード上でスーパーユーザーになります。

  5. ノードを再起動して、非クラスタモードになります。


    # shutdown -g0 -y -i0
    ok boot -x
    

  6. ノードをアンインストールします。

    Sun Cluster パッケージのファイルが何も含まれていないディレクトリから、scinstall コマンドを実行します。


    # cd /
    # /usr/cluster/bin/scinstall -r
    

    詳細については、scinstall(1M) のマニュアルページを参照してください。

  7. そのノードに Sun Cluster ソフトウェアを再インストールします。

    再インストールを実行するためのインストール作業のリストとその順序については、表 2–1 を参照してください。