Sun Cluster ソフトウェアのインストール (Solaris OS 版)

第 2 章 Sun Cluster ソフトウェアのインストールと構成

この章では、クラスタのインストールおよび構成手順を説明します。これらの手順は、既存のクラスタに新しいノードを追加するためにも利用できます。この章では、特定のクラスタソフトウェアを削除する方法についても説明します。

この章の内容は、次のとおりです。

ソフトウェアのインストール

この節では、クラスタノードにソフトウェアをインストールするための情報と手順を紹介します。

次の作業マップに、複数ノードまたは単一ノードのクラスタにソフトウェアをインストールするために実行する作業を示します。ここに示す順に従って手順を実行します。

表 2–1 Task Map: ソフトウェアのインストール

作業 

参照先 

1. クラスタ構成のレイアウトを計画、およびソフトウェアをインストールするための準備 

「クラスタソフトウェアのインストールの準備をする」

2. (省略可能) 管理コンソールにクラスタコントロールパネル (CCP) ソフトウェアをインストール

「クラスタコントロールパネルソフトウェアを管理コンソールにインストールする」

3. すべてのノードに Solaris OS をインストール 

「Solaris ソフトウェアをインストールする」

4. (省略可能) SPARC: Sun StorEdge Traffic Manager ソフトウェアをインストール 

「SPARC: Sun マルチパスソフトウェアをインストールする」

5. (省略可能) SPARC: VERITAS File System ソフトウェアをインストール 

「SPARC: VERITAS File System ソフトウェアをインストールする」

6. 使用する Solaris 8 または Solaris 9 OS 向けの Sun Cluster ソフトウェアパッケージと Sun Java System データサービスをインストール 

「Sun Cluster フレームワークとデータサービスソフトウェアパッケージをインストールする (Java ES installer)」

7. ディレクトリパスを設定 

「root 環境を設定する」

8. クラスタまたは追加のクラスタノードを確立 

「クラスタの確立」

Procedureクラスタソフトウェアのインストールの準備をする

ソフトウェアのインストールを開始する前に、以下の準備作業を行なってください。

手順
  1. クラスタ構成に選択したハードウェアとソフトウェアが Sun Cluster ソフトウェアの当該リリースでサポートされているかどうかを確認します。

    サポートされるクラスタ構成の最新情報については、Sun の販売代理店にお問い合わせください。

  2. クラスタ構成の計画およびインストール方法を検討する上で参考となる情報を参照します。

  3. 関連文書 (Sun 以外の製品の文書も含む) をすべて用意します。

    クラスタのインストールを行う場合に参考となるドキュメントを持つ製品の一部を以下に示します。

    • Solaris OS

    • Solstice DiskSuite または Solaris Volume Manager ソフトウェア

    • Sun StorEdge QFSSunStorEdgeQFS ソフトウェア

    • SPARC:VERITAS Volume Manager

    • SPARC:Sun Management Center

    • その他のアプリケーション

  4. クラスタ構成の計画を立てます。


    注意 – 注意 –

    クラスタのインストールを綿密に計画します。Solaris および Sun Cluster ソフトウェアのインストールを開始する前に、データサービスおよび他の製品すべてについて必要条件を認識しておく必要があります。計画に不備があった場合、インストールエラーが発生し、Solaris や Sun Cluster ソフトウェアを完全にインストールし直す必要が生じる可能性もあります。

    たとえば、Oracle Real Application Clusters の Oracle Real Application Clusters Guard オプションには、ユーザーがクラスタ内で使用するホスト名に関する特殊な要件があります。このような特別な必要条件は Sun Cluster HA for SAP にもあります。Sun Cluster ソフトウェアをインストールした後にホスト名は変更できないため、このような必要条件は Sun Cluster ソフトウェアをインストールする前に調整しておく必要があります。

    x86 ベースのクラスタでは、Oracle Real Application Clusters と Sun Cluster HA for SAP は両方とも使用できないことにも注意してください。


  5. クラスタ構成に必要なパッチをすべて入手します。

    パッチの入手先とインストール方法については、『Sun Cluster 3.1 8/05 ご使用にあたって (Solaris OS 版)』「パッチと必須ファームウェアのレベル」を参照してください。

    1. Sun Cluster に必要なパッチを 1 つのディレクトリにコピーします。

      ディレクトリは、すべてのノードからアクセス可能なファイルシステム上になければなりません。デフォルトのパッチディレクトリは、 /var/cluster/patches/ です。


      ヒント –

      Solaris ソフトウェアをノードにインストールした後、 /etc/release ファイルでインストールした Solaris ソフトウェアのバージョンを確認できます。


    2. (省略可能) SunPlex Installer を使用している場合は、パッチリストファイルを作成できます。

      パッチリストファイルを指定すると、SunPlex Installer はパッチリストファイルに含まれているパッチのみをインストールします。パッチリストファイルの作成方法については、patchadd(1M) のマニュアルページを参照してください。

    3. パッチディレクトリのパスを記録します。

次の手順

Cluster Control Panel ソフトウェアを使用して、管理コンソールからクラスタノードに接続する場合は、「クラスタコントロールパネルソフトウェアを管理コンソールにインストールする」に進みます。

それ以外の場合は、使用する Solaris インストール手順を選択します。

Procedureクラスタコントロールパネルソフトウェアを管理コンソールにインストールする


注 –

管理コンソールの使用は必須ではありません。管理コンソールを使用しない場合は、クラスタ内の特定のノードから管理作業を行います。


この手順では、管理コンソールにクラスタコントロールパネル (CCP) ソフトウェアをインストールする方法を説明します。CCP が提供する単一のインタフェースから、cconsole(1M)ctelnet(1M)、および crlogin(1M) の各ツールを起動できます。これらの各ツールは、共通ウィンドウや一連のノードとの多重ウィンドウ接続を提供します。共通ウィンドウを使用すると、すべてのノードに入力を一括送信できます。

管理コンソールには、Solaris 8 または Solaris 9 OS 環境が動作する任意のデスクトップマシンを使用できます。また、管理コンソールは、文書サーバーとしても使用 できます。Sun Cluster を SPARC ベースのシステムで使用している場合は、管理コンソールを Sun Management Center コンソールやサーバーとして使用できます。Sun Management Center ソフトウェアをインストールする方法については、Sun Management Center のマニュアルを参照してください。Sun Cluster のマニュアルをインストールする方法については、『Sun Cluster 3.1 8/05 ご使用にあたって (Solaris OS 版)』を参照してください。

始める前に

サポートされている Solaris OS 環境のバージョンと Solaris パッチが管理コンソールにインストールされていることを確認してください。すべてのプラットフォームで、少なくとも End User Solaris ソフトウェアグループが必要です。

手順
  1. 管理コンソールでスーパーユーザーになります。

  2. 管理コンソールの CD-ROM ドライブに Sun Cluster 2 of 2 CD-ROM を挿入します。

    ボリューム管理デーモンの vold(1M) が実行中で、CD-ROM デバイスを管理するように構成されている場合、デーモンによって自動的に CD-ROM が /cdrom/cdrom0/ ディレクトリにマウントされます。

  3. Solaris_arch/Product/sun_cluster/Solaris_ver/Packages/ ディレクトリに変更します (archsparc または x86 です。ver は、Solaris 8 の場合は 8、Solaris 9 の場合は 9、Solaris 10 の場合は 10)。


    # cd /cdrom/cdrom0/Solaris_arch/Product/sun_cluster/Solaris_ver/Packages/
    
  4. SUNWccon パッケージをインストールします。


    # pkgadd -d . SUNWjccon
    
  5. (省略可能) SUNWscman パッケージをインストールします。


    # pkgadd -d . SUNWjscman
    

    管理コンソールに SUNWscman パッケージをインストールすることで、クラスタノードに Sun Cluster ソフトウェアをインストールする前に、管理コンソールから Sun Cluster のマニュアルページを参照できるようになります。

  6. (省略可能) Sun Cluster マニュアルパッケージをインストールします。


    注 –

    管理コンソールにマニュアルをインストールしなくても、CD-ROM から直接 HTML または PDF のマニュアルを表示することができます。Web ブラウザを使用して、Sun Cluster 2 of 2 CD-ROM にある Solaris_arch/Product/sun_cluster/index.html ファイルを表示してください (archsparc または x86 です)。


    1. SUNWsdocs パッケージがすでに管理コンソールにインストールされているかどうかを判断します。


      # pkginfo | grep SUNWsdocs
      application SUNWsdocs     Documentation Navigation for Solaris 9

      SUNWsdocs パッケージがまだインストールされていない場合は、マニュアルパッケージをインストールする前にインストールする必要があります。

    2. インストールする Sun Cluster マニュアルパッケージを選択します。

      次のマニュアルコレクションは、HTML と PDF の両方の形式で参照できます。

      コレクション名 

      HTML パッケージ名 

      PDF パッケージ名 

      Sun Cluster 3.1 9/04 Software Collection for Solaris OS (SPARC 版) 

      SUNWscsdoc

      SUNWpscsdoc

      Sun Cluster 3.1 9/04 Software Collection for Solaris OS (x86 版) 

      SUNWscxdoc

      SUNWpscxdoc

      『Sun Cluster 3.x Hardware Collection for Solaris OS (SPARC Platform Edition)』 

      SUNWschw

      SUNWpschw

      『Sun Cluster 3.x Hardware Collection for Solaris OS (x86 Platform Edition)』 

      SUNWscxhw

      SUNWpscxhw

      『Sun Cluster 3.1 9/04 Reference Collection for Solaris OS』 

      SUNWscref

      SUNWpscref

    3. SUNWsdocs パッケージ (インストールされていない場合) と、選択したSun Cluster マニュアルパッケージをインストールします。


      注 –

      すべてのマニュアルパッケージは SUNWsdocs パッケージに依存関係があります。マニュアルパッケージをシステムに正常にインストールするには、そのシステムに SUNWsdocs パッケージが存在する必要があります。



      # pkgadd -d . SUNWsdocs pkg-list
      
  7. CD-ROM に含まれていないディレクトリに移動し、CD-ROM を取り出します。


    # eject cdrom
    
  8. 管理コンソールに /etc/clusters ファイルを作成します。

    クラスタ名と、各クラスタノードの物理ノード名をファイルに追加します。


    # vi /etc/clusters
    clustername node1 node2
    

    詳細については、 /opt/SUNWcluster/bin/clusters(4) のマニュアルページを参照してください。

  9. /etc/serialports ファイルを作成します。

    このファイルに、クラスタ内の各ノード用のエントリを追加します。物理ノード名、コンソールアクセスデバイスのホスト名、およびポート番号を指定します。コンソールアクセスデバイスの例として、端末集配信装置 (TC)、システムサービスプロセッサ (SSP)、および Sun Fire システムコントローラがあります。


    # vi /etc/serialports
    node1 ca-dev-hostname port
    node2 ca-dev-hostname port
    
    node1、 node2

    クラスタノードの物理名

    ca-dev-hostname

    コンソールアクセスデバイスのホスト名

    port

    シリアルポート番号

    /etc/serialports ファイルを作成するためには、次の注意事項に従ってください。

    • Sun Fire 15000 システムコントローラでは、各エントリのシリアルポート番号に telnet(1) ポート番号 23 を使用します。

    • その他すべてのコンソールアクセスデバイスについては、telnet シリアルポート番号を使用し、物理ポート番号は使用しません。telnet シリアルポート番号は、物理ポート番号に 5000 を加えた値です。たとえば、物理ポート番号が 6 の場合、telnet シリアルポート番号は 5006 になります。

    • Sun Enterprise 10000 サーバーの詳細と注意事項については、/opt/SUNWcluster/bin/serialports(4) のマニュアルページを参照してください。

  10. (省略可能) 便宜上、管理コンソール上のディレクトリパスを設定します。

    1. /opt/SUNWcluster/bin/ ディレクトリを PATH に追加します。

    2. /opt/SUNWcluster/man/ ディレクトリを MANPATH に追加します。

    3. SUNWscman パッケージをインストールした場合は、/usr/cluster/man/ ディレクトリも MANPATH に追加します。

  11. CCP ユーティリティーの起動


    # /opt/SUNWcluster/bin/ccp &
    

    CCP ウィンドウで、cconsolecrlogin、または ctelnet ボタンをクリックしてツールを起動します。これらのツールは直接起動することもできます。たとえば、ctelnet を起動するには、次のコマンドを入力します。


    # /opt/SUNWcluster/bin/ctelnet &
    

    CCP ユーティリティーを使用する方法については、『Sun Cluster のシステム管理 (Solaris OS 版)』「クラスタ管理の開始」を参照してください。ccp(1M) のマニュアルページも参照してください。

次の手順

Solaris OS がすでにインストールされており、Sun Cluster ソフトウェアの要件を満たしているかどうかを判断します。

ProcedureSolaris ソフトウェアをインストールする

クラスタ内の各ノードに Solaris OS をインストールする場合、あるいは、JumpStart インストール用のアーカイブをフラッシュするマスターノード上に Solaris OS をインストールする場合には、次の手順に従ってください。クラスタの JumpStart インストールの詳細については、「Solaris と Sun Cluster ソフトウェアをインストールする (JumpStart)」を参照してください。


ヒント –

Solaris OS は、各ノードに同時にインストールできるため、インストール時間を節約できます。


ノードに Solaris OS がすでにインストールされていても、Sun Cluster インストールの必要条件が満たされていない場合は、Solaris ソフトウェアを再インストールする必要があります。以下に示す手順に従って、Sun Cluster ソフトウェアを確実にインストールしてください。必要なルートディスクのパーティションの分割方法などの Sun Cluster インストール要件については、「Solaris OS の計画」を参照してください。

始める前に

次の作業を実行します。

手順
  1. クラスタ管理コンソールを使用している場合、クラスタ内にある各ノードのコンソール画面を表示します。

    • クラスタコントロールパネル (CCP) ソフトウェアが管理コンソールにインストールされ、構成されている場合は、cconsole(1M) ユーティリティーを使用して、コンソール画面を個々に表示します。

      cconsole ユーティリティーを起動するには、次のコマンドを使用します。


      # /opt/SUNWcluster/bin/cconsole clustername &
      

      cconsole ユーティリティーを起動するとマスターウィンドウが開き、そこから個々のコンソールウィンドウすべてに入力を同時に送信できます。

    • cconsole ユーティリティーを使用しない場合は、各ノードのコンソールに個別に接続します。

  2. Solaris インストールマニュアルに指示されているとおりに Solaris OS をインストールします。


    注 –

    同一クラスタ内のノードはすべて、同じバージョンの Solaris OS である必要があります。


    Solaris ソフトウェアの通常のインストール方法を使用してインストールします。Solaris ソフトウェアのインストール時に、次の作業を行います。

    1. 少なくとも End User Solaris ソフトウェアグループをインストールします。


      ヒント –

      Solaris ソフトウェアパッケージを手動でインストールしなくてすむように Entire Solaris Software Group Plus OEM Support をインストールしてください。


      これ以外の Solaris ソフトウェアの要件については、「Solaris ソフトウェアグループについて」を参照してください。

    2. 「手動配置」を選択して、ファイルシステムを設定します。

      • 広域デバイスサブシステムを使用するための、少なくとも 512M バイトのファイルシステムを作成します。

        SunPlex Installer を使用して Sun Cluster ソフトウェアをインストールする場合は、マウントポイント名を /globaldevices に設定してファイルシステムを作成する必要があります。/globaldevices マウントポイント名は、 scinstall が使用するデフォルトです。


        注 –

        Sun Cluster ソフトウェアのインストールを正常に行うためには、広域デバイスファイルシステムを用意する必要があります。


      • スライス 7 には少なくとも 20M バイトのサイズを指定します。

        SunPlex Installer を使用して Solstice DiskSuite ソフトウェア (Solaris 8) をインストールするか、Solaris ボリュームマネージャーソフトウェア (Solaris 9 または Solaris 10) を構成する予定の場合は、このファイルシステムを /sds にマウントする必要があります。


        注 –

        SunPlex Installer を使用して Sun Cluster HA for NFS または Sun Cluster HA for Apache をインストールする予定の場合は、SunPlex Installer を使用して、さらに Solstice DiskSuite ソフトウェア (Solaris 8) をインストールするか、または Solaris ボリュームマネージャーソフトウェア (Solaris 9 または Solaris 10) を構成する必要があります。


      • ほかにも必要なファイルシステムパーティションがある場合は、「システムディスクパーティション」の説明に従って作成します。

    3. 管理を容易にするため、各ノードに同じ root パスワードを設定します。

  3. 既存のクラスタにノードを追加する場合は、新しいノードを受け入れるようにクラスタを準備します。

    1. アクティブなクラスタメンバーで、scsetup(1M) ユーティリティーを開始します。


      # scsetup
      

      メインメニューが表示されます。

    2. メニュー項目から「新規ノード」を選択します。

    3. メニューから「自分自身を追加できるマシン名を指定」を選択します。

    4. プロンプトに従って、ノードの名前を認識されているマシンのリストに追加します。

      scsetup ユーティリティーは、作業がエラーなしで完了された場合、「Command completed successfully」というメッセージを出力します。

    5. scsetup ユーティリティーを終了します。

    6. アクティブなノードから、すべてのクラスタファイルシステムの名前を表示します。


      % mount | grep global | egrep -v node@ | awk '{print $1}'
      
    7. 新しいノード上で、クラスタ内のクラスタファイルシステムごとにマウントポイントを作成します。


      % mkdir -p mountpoint
      

      たとえば、mount コマンドで表示されるファイルシステム名が /global/dg-schost-1 の場合は、クラスタに追加する新しいノードで mkdir -p /global/dg-schost-1 を実行します。

  4. ノードを追加しており、かつ、VxVM がクラスタの任意のノードにインストールされている場合は、次の作業を実行します。

    1. VxVM がインストールされているノード上で同じ vxio 番号が使用されていることを確認してください。


      # grep vxio /etc/name_to_major
      vxio NNN
      
    2. VxVM がインストールされていない各ノード上で vxio 番号が使用できることを確認してください。

    3. その vxio 番号がすでに、VxVM がインストールされていないノード上で使用されている場合は、 /etc/name_to_major エントリを変更して、ほかの番号を使用します。

  5. End User Solaris Software Group をインストールしている場合は、pkgadd コマンドを使用して、必要な追加の Solaris ソフトウェアパッケージを手動でインストールする必要があります。

    一部の Sun Cluster 機能をサポートするには、次の Solarisパッケージが必要です。


    注 –

    次の表に示す順に、パッケージをインストールします。


    機能 

    必要な Solaris ソフトウェアパッケージ 

    RSMAPI、RSMRDT ドライバ、または SCI-PCI アダプタ (SPARC ベースのクラスタのみ) 

    Solaris 8 または Solaris 9: SUNWrsm SUNWrsmx SUNWrsmo SUNWrsmox

    Solaris 10: SUNWrsm SUNWrsmo

    SunPlex Manager 

    SUNWapchr SUNWapchu

    • Solaris 8 または Solaris 9 OS の場合は、次のコマンドを使用します。


      # pkgadd -d . packages
      
    • Solaris 10 OS の場合は、次のコマンドを使用します。


      # pkgadd -G -d . packages
      

      これらのパッケージは、大域ゾーンだけに追加する必要があります。-G オプションを使用すると、現在のゾーンだけにパッケージを追加します。このオプションは、既存の非大域ゾーン、またはあとで作成する非大域ゾーンにパッケージを伝達しないことも指定します。

  6. これら以外にも必要な Solaris OS のパッチ、ハードウェア関連のファームウェア、およびそのパッチ (ストレージアレイのサポート用のパッチも含む) があればインストールします。また、ハードウェアパッチに含まれるファームウェアの中から必要なものをダウンロードします。

    パッチの入手先とインストール方法については、『Sun Cluster 3.1 8/05 ご使用にあたって (Solaris OS 版)』「パッチと必須ファームウェアのレベル」を参照してください。

  7. x86: デフォルトのブートファイルを kadb に設定します。


    # eeprom boot-file=kadb
    

    この値を設定すると、ログインプロンプトにアクセスできないときにノードを再起動できます。

  8. 各ノードの /etc/inet/hosts ファイルを編集して、クラスタで使用されているすべての IP アドレスを追加します。

    この手順は、ネームサービスを使用しているかどうかに関わらず実行します。IP アドレスを追加する必要がある Sun Cluster コンポーネントについては、「IP アドレス」を参照してください。

  9. ce アダプタをクラスタインターコネクト用に使用する場合は、次のエントリを /etc/system ファイルに追加します。


    set ce:ce_taskq_disable=1

    このエントリは、次のシステム再起動後に有効になります。

  10. (省略可能) Sun Enterprise 10000 サーバーで、/etc/system ファイルを構成して、動的再構成を使用できるようにします。

    クラスタの各ノードで、次のエントリを /etc/system ファイルに追加します。


    set kernel_cage_enable=1

    このエントリは、次のシステム再起動後に有効になります。動的再構成の詳細については、サーバーのマニュアルを参照してください。

次の手順

Sun マルチパスソフトウェアを使用する予定の場合は、「SPARC: Sun マルチパスソフトウェアをインストールする」に進みます。

VxFS をインストールする予定の場合は、「SPARC: VERITAS File System ソフトウェアをインストールする」に進みます。

それ以外の場合は、Sun Cluster ソフトウェアパッケージをインストールします。「Sun Cluster フレームワークとデータサービスソフトウェアパッケージをインストールする (Java ES installer)」に進みます。

参照

Sun Cluster 構成で、動的再構成の作業を実行するための手順については、『Sun Cluster のシステム管理 (Solaris OS 版)』 を参照してください。

ProcedureSPARC: Sun マルチパスソフトウェアをインストールする

この手順は、クラスタの各ノードで実行して、ファイバチャネル (FC) ストレージ用の Sun マルチパスソフトウェアをインストールして構成します。マルチパスソフトウェアは、共有クラスタストレージへの複数の入出力パスを管理します。

始める前に

次の作業を実行します。

手順
  1. スーパーユーザーになります。

  2. Solaris 8 または Solaris 9 OS の場合、Sun StorEdge Traffic Manager ソフトウェアと必要なパッチを各ノードにインストールします。

    • Sun StorEdge Traffic Manager ソフトウェアをインストールする手順については、http://www.sun.com/products-n-solutions/hardware/docs/ にある「Sun StorEdge Traffic Manager Installation and Configuration Guide」を参照してください。

    • Sun StorEdge Traffic Manager ソフトウェアに必要なパッチについては、http://www.sun.com/storage/san/ にある「Sun StorEdge Traffic Manager Software Release Notes」を参照してください。

  3. マルチパス機能を有効にします。

    • Solaris 8 または 9 OS の場合、mpxio-disable パラメータの値を no に変更します。

      各ノードの /kernel/drv/scsi_vhci.conf ファイルで、次のエントリを変更します。


      set mpxio-disable=no
    • Solaris 10 OS の場合、次のコマンドを各ノードで実行します。


      注意 – 注意 –

      Sun Cluster ソフトウェアがすでにインストールされている場合、このコマンドは実行しないでください。stmsboot コマンドをアクティブなクラスタノードで実行すると、Solaris のサービスが保守状態になります。その代わりに、stmsboot(1M) のマニュアルページにある、stmsboot コマンドを Sun Cluster 環境で使用する手順に従います。



      # /usr/sbin/stmsboot -e
      
      -e

      Solaris の入出力マルチパス機能を有効にします。

      詳細については、stmsboot(1M) のマニュアルページを参照してください。

  4. Solaris 8 または Solaris 9 OS の場合、Sun StorEdge SAN Foundation ソフトウェアのバージョンに、使用中のストレージアレイのサポートが組み込まれているかどうかを判断します。

    使用中のストレージアレイのサポートが組み込まれていない場合、各ノードの /kernel/drv/scsi_vhci.conf ファイルを編集して、必要なエントリを挿入します。詳細については、使用中のストレージデバイスのリリースノートを参照してください。

  5. Solaris 8 または Solaris 9 OS の場合、各ノードをシャットダウンして、再起動します。

    この再起動によって、 Solaris の新しいデバイスファイルとリンクが作成されます。


    # shutdown -y -g0 -i0
    ok boot -r
    
  6. すべてのノードで再起動が完了したあと、使用中のストレージアレイに必要な追加の作業を実行して、その構成を完成させます。

    詳細については、『Sun Cluster Hardware Administration Collection 』で、該当するストレージアレイのインストール手順を参照してください。

注意事項

Sun Cluster ソフトウェアをクラスタにインストールしたあとで、Sun マルチパスソフトウェアをインストールした場合、DID マッピングを更新する必要がある場合があります。次のコマンドをクラスタの各ノードで実行して、DID 名前空間を生成し直してください。

# scdidadm -C# scdidadm -r(Solaris 8 または 9 のみ) # cfgadm -c configure# scgdevs

詳細については、scdidadm(1M)scgdevs(1M) のマニュアルページを参照してください。

次の手順

VxFS をインストールする予定の場合は、「SPARC: VERITAS File System ソフトウェアをインストールする」に進みます。

それ以外の場合は、Sun Cluster ソフトウェアパッケージをインストールします。「Sun Cluster フレームワークとデータサービスソフトウェアパッケージをインストールする (Java ES installer)」に進みます。

ProcedureSPARC: VERITAS File System ソフトウェアをインストールする

次の手順は、クラスタの各ノードで実行します。

手順
  1. VxFS のインストールマニュアルに従って、VxFS ソフトウェアをクラスタの各ノード上にインストールします。

  2. VxFS のサポートに必要なすべての Sun Cluster パッチをインストールします。

    パッチの入手先とインストール方法については、『Sun Cluster 3.1 8/05 ご使用にあたって (Solaris OS 版)』「パッチと必須ファームウェアのレベル」を参照してください。

  3. 各ノードの /etc/system ファイルで、次の値を設定します。


    set rpcmod:svc_default_stksize=0x8000
    set lwp_default_stksize=0x6000

    これらの変更は、次にシステムを再起動したときに有効になります。

    • Sun Cluster ソフトウェアには、少なくとも 0x8000 に設定された rpcmod:svc_default_stksize が必要です。VxFS をインストールすると、rpcmod:svc_default_stksize 変数の値が 0x4000 に設定されるため、VxFS のインストールが終わった後、値を手動で 0x8000 に設定する必要があります。

    • /etc/system ファイルの lwp_default_stksize 変数を設定して、VxFS デフォルト値の 0x4000 を無効にします。

次の手順

Sun Cluster ソフトウェアパッケージをインストールします。「Sun Cluster フレームワークとデータサービスソフトウェアパッケージをインストールする (Java ES installer)」に進みます。

ProcedureSun Cluster フレームワークとデータサービスソフトウェアパッケージをインストールする (Java ES installer)

この手順では、Sun JavaTM Enterprise System (Java ES) installer プログラムを使用して、次のインストール作業の 1 つまたは複数を実行します。


注 –

この手順は、次の種類のデータサービスパッケージをインストールするときには使用しないでください。


始める前に

次の作業を実行します。

手順
  1. (省略可能) installer プログラムを GUI で使用する場合は、インストールするクラスタノードのディスプレイ環境が GUI を表示するように設定されていることを確認します。


    % xhost +
    % setenv DISPLAY nodename:0.0
    
  2. インストールするクラスタノードでスーパーユーザーになります。

  3. Sun Cluster 1 of 2 CD-ROM を CD-ROM ドライブに挿入します。

  4. CD-ROM の installer プログラムが存在するディレクトリに移動します。


    # cd /cdrom/cdrom0/Solaris_arch/
    

    Solaris_arch/ ディレクトリで、archsparc または x86 です。

  5. Java ES installer プログラムを起動します。


    # ./installer
    
  6. 画面の指示に従って、Sun Cluster フレームワークソフトウェアとデータサービスをノードにインストールします。

    Sun Cluster フレームワークソフトウェアを構成するかどうかをたずねられたら、「Configure Later」を選択します。

    インストール完了後、インストールログを表示することができます。Java ES installer プログラムを使用する方法の詳細については、『Sun Java Enterprise System 2005Q5 Installation Guide』を参照してください。

  7. 次の機能のいずれかを使用する予定の場合は、追加のパッケージをインストールします。

    • Remote Shared Memory Application Programming Interface (RSMAPI)

    • インターコネクトトランスポート用の SCI-PCI アダプタ

    • RSMRDT ドライバ


    注 –

    RSMRDT ドライバを使用できるのは、RSM を有効にして Oracle9i リリース 2 SCI 構成を実行しているクラスタだけです。インストールと構成手順についての詳細は、Oracle9i リリース 2 のユーザーマニュアルを参照してください。


    1. インストールが必要なパッケージを決定します。

      次の表に、各パッケージグループをインストールする必要がある順序に従って、各機能で必要な Sun Cluster 3.1 8/05 パッケージを示します。Java ES installer プログラムはこれらのパッケージを自動的にインストールしません。


      注 –

      次の表に示す順に、パッケージをインストールします。


      機能 

      インストールする追加の Sun Cluster 3.1 8/05 パッケージ 

      RSMAPI 

      SUNWscrif

      SCI-PCI アダプタ 

      • Solaris 8 と 9: SUNWsci SUNWscid SUNWscidx

      • Solaris 10: SUNWscir SUNWsci SUNWscidr SUNWscid

      RSMRDT ドライバ 

      SUNWscrdt

    2. Sun Cluster 2 of 2 CD-ROM を挿入していない場合は、これを挿入します。

    3. Solaris_arch/Product/sun_cluster/Solaris_ver/Packages/ ディレクトリに変更します (archsparc または x86 です。ver は、Solaris 8 の場合は 8、Solaris 9 の場合は 9、Solaris 10 の場合は 10)。


      # cd /cdrom/cdrom0/Solaris_arch/Product/sun_cluster/Solaris_ver/Packages/
      
    4. 追加のパッケージをインストールします。


      # pkgadd -d . packages
      
  8. CD-ROM に含まれていないディレクトリに移動し、CD-ROM を取り出します。


    # eject cdrom
    
  9. /usr/java/ ディレクトリが最小限または最新のバージョンの Java ソフトウェアへのシンボリックリンク先であることを確認します。

    Sun Cluster ソフトウェアに必要な Java ソフトウェアの最小限のバージョンは 1.4.2_03 です。

    1. /usr/java/ ディレクトリのシンボリックリンク先のディレクトリを確認します。


      # ls -l /usr/java
      lrwxrwxrwx   1 root   other    9 Apr 19 14:05 /usr/java -> /usr/j2se/
    2. インストールされている Java ソフトウェアのバージョン (1 つまたは複数) を確認します。

      Java ソフトウェアの関連するリリースのバージョンを表示するために使用できるコマンドの例を次に示します。


      # /usr/j2se/bin/java -version
      # /usr/java1.2/bin/java -version
      # /usr/jdk/jdk1.5.0_01/bin/java -version
      
    3. /usr/java/ ディレクトリのシンボリックリンク先が、サポートされているバージョンの Java ソフトウェアではない場合、サポートされているバージョンの Java ソフトウェアにシンボリックリンクを作成し直します。

      Java 1.4.2_03 ソフトウェアが入っている /usr/j2se/ ディレクトリにシンボリックリンクを作成する例を、次に示します。


      # rm /usr/java
      # ln -s /usr/j2se /usr/java
      
次の手順

Sun StorEdge QFSSunStorEdgeQFS ファイルシステムソフトウェアをインストールする場合は、『Sun StorEdge QFS and Sun StorEdge SAM-FS Software Installation and Configuration Guide』の初期インストールの手順に従います。

それ以外の場合は、root ユーザーの環境を設定するために、「root 環境を設定する」に進みます。

Procedureroot 環境を設定する


注 –

Sun Cluster 構成では、各種シェルのユーザー初期化ファイルは、それらが対話式のシェルから実行されていることを確認する必要があります。確認は、端末への出力を試みる前に行なってください。この方法に従わないと、予期しない動作やデータサービス妨害が発生する可能性があります。詳細については、『Solaris のシステム管理 (第 1 巻) 』(Solaris 8) または『Solaris のシステム管理 (基本編)』(Solaris 9 または Solaris 10) を参照してください。


クラスタ内の各ノード上で次の手順を実行します。

手順
  1. クラスタノード上にインストールするクラスタノード上でスーパーユーザーになります。

  2. .cshrc ファイルまたは .profile ファイルで、PATH エントリと MANPATH エントリを変更します。

    1. PATH 環境変数に /usr/sbin//usr/cluster/bin/ を含めるように設定します。

    2. MANPATH 環境変数に /usr/cluster/man/ を含めるように設定します。

    追加のファイルパスの設定については、ボリュームマネージャーのマニュアルおよびアプリケーションのマニュアルを参照してください。

  3. (省略可能) 管理を行いやすくするため、各ノードに同じ root パスワードを設定します。

次の手順

クラスタノードで Sun Cluster ソフトウェアを構成します。「クラスタの確立」に進みます。

クラスタの確立

この節では、新しいクラスタを確立したり、既存のクラスタにノードを追加したりするための情報と手順について説明します。これらの作業を開始する前に、Solaris OS や Sun Cluster フレームワークなどの製品用のソフトウェアパッケージをインストールしていることを確認してください (「ソフトウェアのインストール」を参照)。

次の作業マップに、実行する作業を示します。ここに示す順に従って手順を実行します。

表 2–2 Task Map: クラスタの確立

方法 

参照先 

1. 次のいずれかの方法を使用して、新しいクラスタを確立するか、既存のクラスタにノードを追加します。 

  • (新しいクラスタのみ) scinstall ユーティリティーを使用して、クラスタを確立します。

「すべてのノードで Sun Cluster ソフトウェアを構成する (scinstall)」

  • (新しいクラスタまたは追加ノード) JumpStart インストールサーバーを設定します。そして、インストールされたシステムのフラッシュアーカイブを作成します。最後に、scinstall の JumpStart オプション を使用して、フラッシュアーカイブを各ノードにインストールし、クラスタを確立します。

「Solaris と Sun Cluster ソフトウェアをインストールする (JumpStart)」

  • (新しい複数ノードクラスタのみ) SunPlex Installer を使用して、クラスタを確立します。(省略可能) さらに、Solstice DiskSuite または Solaris ボリュームマネージャーのディスクセット、スケーラブル Sun Cluster HA for Apache データサービス、および Sun Cluster HA for NFS データサービスを構成します。

「SunPlex Installer の使用による Sun Cluster ソフトウェアの構成」

「Sun Cluster ソフトウェアを構成する (SunPlex Installer)」

  • (ノードの追加のみ) scinstall ユーティリティーを使用して、新しいノードで Sun Cluster ソフトウェアを構成します。

「追加のクラスタノードとして Sun Cluster ソフトウェアを構成する (scinstall)」

2. (Oracle Real Application Clusters のみ) Sun Cluster Support for Oracle Real Application Clusters を実行し、かつ、共有 SCSI ディスクを定足数デバイスとして使用している 2 ノードクラスタにノードを追加した場合、SCSI 予約を更新します。 

「ノードの追加後に SCSI 予約を更新する」

3. データサービスソフトウェアパッケージをインストールします。 

「データサービスソフトウェアパッケージをインストールする (pkgadd)」

「データサービスソフトウェアパッケージをインストールする (scinstall)」

「データサービスソフトウェアパッケージをインストールする (Web Start installer)」

4. 定足数投票権を割り当て、クラスタがまだインストールモードである場合は、インストールモードを解除します。 

「定足数デバイスを構成する」

5. 定足数構成の妥当性を検査します。 

「定足数構成とインストールモードを確認する」

6. クラスタを構成します。 

「クラスタの構成」

Procedureすべてのノードで Sun Cluster ソフトウェアを構成する (scinstall)

Sun Cluster ソフトウェアをクラスタのすべてのノードで構成するには、クラスタの 1 つのノードからこの手順を実行します。

始める前に

次の作業を実行します。

この手順で対話式 scinstall ユーティリティーを使用するときには、次のガイドラインに従ってください。

手順
  1. Sun Cluster ソフトウェアのインストール時にリモート構成を無効にした場合は、リモート構成をもう一度有効にします。

    すべてのクラスタノードで スーパーユーザーのリモートシェル (rsh(1M)) またはセキュアシェル (ssh(1) ) アクセスを有効に を有効にします。

  2. (省略可能) scinstall(1M) ユーティリティーを使用してパッチをインストールするには、パッチをパッチディレクトリにダウンロードします。

    • 「通常」モードを使用してクラスタをインストールする場合、/var/cluster/patches/ または /var/patches/ のどちらかのディレクトリ名を使用して、インストールするパッチを格納します。

      「通常」モードでは、scinstall コマンドはこれらのディレクトリの両方でパッチをチェックします。

      • これらのディレクトリのどちらも存在しない場合は、パッチは追加されません。

      • これら両方のディレクトリが存在する場合は、/var/cluster/patches/ ディレクトリにあるパッチのみが追加されます。

    • 「カスタム」モードを使用してクラスタをインストールする場合は、パッチディレクトリへのパスを指定します。このパスを指定することによって、scinstall が「通常」モードでチェックするパッチディレクトリを使用する必要がなくなります。

    パッチリストファイルは、パッチディレクトリに保存できます。デフォルトのパッチリストファイル名は patchlist です。パッチリストファイルの作成方法については、patchadd(1M) のマニュアルページを参照してください。

  3. クラスタを構成するクラスタノードでスーパーユーザーになります。

  4. scinstall ユーティリティーを起動します。


    # /usr/cluster/bin/scinstall
    
  5. 「メインメニュー」から「クラスタまたはクラスタノードをインストール」という項目を選択します。


     *** メインメニュー ***
    
        次の (*) オプションのうちから 1 つを選択してください:
    
          * 1) クラスタまたはクラスタノードをインストール
            2) このインストールサーバーから JumpStart できるようにクラスタを構成
            3) 新しいデータサービスのサポートをこのクラスタノードに追加
            4) このクラスタノードをアップグレード
          * 5) このクラスタノードのリリース情報を出力
          * ?) メニューオプションのヘルプ
          * q) 終了
    
        オプション:  1
    
  6. 「インストールメニュー」から「新しいクラスタのすべてのノードをインストール」という項目を選択します。

  7. 「インストールのタイプ」メニューから、「通常」または「カスタム」を選択します。

  8. メニュープロンプトに従って、 構成計画ワークシートから回答を入力します。

    scinstall ユーティリティーは、すべてのクラスタノードのインストールと構成を行い、クラスタを再起動します。クラスタ内ですべてのノードが正常に起動されると、クラスタが確立されます。Sun Cluster のインストール出力は、/var/cluster/logs/install/scinstall.log.N に記録されます。

  9. Solaris 10 OS の場合、各ノードで Service Management Facility (SMF) 用のマルチユーザーサービスがオンラインであることを確認します。

    あるノードでこれらのサービスがまだオンラインでない場合は、オンラインになるまで待機してから、次の手順に進みます。


    # svcs multi-user-server
    STATE          STIME    FMRI
    online         17:52:55 svc:/milestone/multi-user-server:default
  10. 任意のノードから、すべてのノードがクラスタに結合していることを確認します。

    scstat(1M) コマンドを実行して、クラスタノードのリストを表示します。このコマンドを実行するために、スーパーユーザーとしてログインする必要はありません。


    % scstat -n
    

    出力は次のようになります。


    -- クラスターノード --
                                  ノード名       状態
                                  --------       ----
      クラスターノード:            phys-schost-1  Online
      クラスターノード:            phys-schost-2  Online
  11. Sun Cluster ソフトウェアをサポートするのに必要なパッチをインストールしていない場合は、これらのパッチをすべてインストールします。

  12. ループバックファイルシステム (LOFS) を再び有効にするには、クラスタの各ノードの /etc/system ファイルから次のエントリを削除します。


    exclude:lofs

    このあと、システムをリブートすると、LOFS が再び有効になります。


    注 –

    Sun Cluster HA for NFS を高可用性ローカルファイルシステム上で使用しており、かつ、automountd を実行している場合、 LOFS は有効にできません。LOFS は、Sun Cluster HA for NFS のスイッチオーバーの問題の原因になる可能性があります。LOFS を有効にしたあとで、Sun Cluster HA for NFS を高可用性ローカルファイルシステムに追加することを選択した場合は、次のうちの 1 つを行う必要があります。

    • クラスタの各ノードの /etc/system ファイルに exclude:lofs エントリを戻して、各ノードをリブートします。この変更によって、LOFS は無効になります。

    • automountd デーモンを無効にします。

    • 高可用性ローカルファイルシステムの一部であり、Sun Cluster HA for NFS によってエクスポートされるファイルをすべて、オートマウンタマップから除外します。この方法では、LOFS と automountd デーモンの両方を有効にしたままにできます。


    ループバックファイルシステムの詳細については、『Solaris のシステム管理 (第 1 巻)』(Solaris 8) または『Solaris のシステム管理 (デバイスとファイルシステム)』(Solaris 9 または Solaris 10) を参照してください。


例 2–1 すべてのノードでの Sun Cluster ソフトウェアの構成

ここでは、scinstall を使用して 2 ノードクラスタ schost で構成作業を完了したときに、ログに記録される scinstall 進行状況メッセージの例を示します。このクラスタは、 scinstall の「通常」モードを使用することによって、phys-schost-1 からインストールされます。もう一つのクラスタノードは phys-schost-2 です。アダプタ名は qfe2qfe3 です。定足数デバイスの自動選択は有効です。


  インストールと構成

    ログファイル - /var/cluster/logs/install/scinstall.log.24747

    「/globaldevices」用のテストを「phys-schost-1"」で実行しています … done
    「/globaldevices」用のテストを「phys-schost-2」で実行しています … done
    インストール状態を検査しています … done

    Sun Cluster ソフトウェアは「phys-schost-1」にすでにインストールされています。
    Sun Cluster ソフトウェアは「phys-schost-2」にすでにインストールされています。
    クラスタトランスポート構成の検出を開始します。

    次の接続が見つかりました:

        phys-schost-1:qfe2  switch1  phys-schost-2:qfe2
        phys-schost-1:qfe3  switch2  phys-schost-2:qfe3

    クラスタトランスポート構成の検出を終了しました。

    sccheck を「phys-schost-1」上で開始しました。
    sccheck を「phys-schost-2」上で開始しました。

    sccheck が終了しました。「phys-schost-1」にエラーまたは警告はありません。
    sccheck が終了しました。「phys-schost-2」にエラーまたは警告はありません。

    ダウンロードファイルを削除しています … done

    「phys-schost-2」を構成しています … done
    「phys-schost-2」を再起動しています … done

    「phys-schost-1」を構成しています … done
    「phys-schost-1を再起動しています …

ログファイル - /var/cluster/logs/install/scinstall.log.24747

リブートしています …

次の手順

データサービスをインストールする予定の場合は、インストールするデータサービスと使用している Solaris OS のバージョンに適合する手順に進んでください。

 

Sun Cluster 2 of 2 CD-ROM 

(Sun Java System データサービス) 

Sun Cluster Agents CD 

(それ以外のすべてのデータサービス) 

手続き 

Solaris 8 または 9 

Solaris 10 

Solaris 8 または 9 

Solaris 10 

「Sun Cluster フレームワークとデータサービスソフトウェアパッケージをインストールする (Java ES installer)」

     

「データサービスソフトウェアパッケージをインストールする (pkgadd)」

 

   

「データサービスソフトウェアパッケージをインストールする (scinstall)」

   

「データサービスソフトウェアパッケージをインストールする (Web Start installer)」

   

 

それ以外の場合は、次の適切な手順に進みます。

注意事項

scinstall 処理の完了後は、プライベートネットワークアドレスやネットマスクを変更できません。別のプライベートネットワークアドレスやネットマスクを使用する必要があり、ノードがインストールモードのままの場合は、「Sun Cluster ソフトウェアのアンインストールによるインストール問題を解決する」の手順に従います。次に、「Sun Cluster フレームワークとデータサービスソフトウェアパッケージをインストールする (Java ES installer)」の手順を実行してから、この節の手順を実行して、 ソフトウェアをインストールし直し、正しい情報でノードを構成します。

ProcedureSolaris と Sun Cluster ソフトウェアをインストールする (JumpStart)

この節では、カスタム JumpStart によるインストール方法であるscinstall(1M) の設定と使用について説明します。この方法は、Solaris OS と Sun Cluster ソフトウェアの両方を同じ操作ですべてのクラスタノードにインストールし、クラスタを動作可能にします。この手順は、新しいノードを既存のクラスタに追加するときにも使用できます。

始める前に

次の作業を実行します。

この手順で対話式 scinstall ユーティリティーを使用するときには、次のガイドラインに従ってください。

手順
  1. JumpStart インストールサーバーを設定します。

    • ご使用のソフトウェアプラットフォームに該当する手順に従ってください。

      Solaris OS のプラットフォーム 

      参照先 

      SPARC 

      JumpStart インストールサーバーを設定する手順については、次のマニュアルのうちの 1 つを参照してください。 

      setup_install_server(1M) および add_install_client(1M) のマニュアルページも参照してください。

      x86 

      Preboot Execution Environment (PXE) インストール用に JumpStart Dynamic Host Configuration Protocol (DHCP) サーバーと Solaris ネットワークを設定する手順については、『Sun Fire V60x and Sun Fire V65x Server Solaris Operating Environment Installation Guide』の「「Solaris 9 Software Installation From a PXE Server」」を参照してください。

    • JumpStart インストールサーバーが次の条件に適合していることを確認します。

      • インストールサーバーがクラスタノードと同じサブネットにあるか、クラスタノードが使用するサブネットの Solaris ブートサーバーにあること

      • インストールサーバー自体はクラスタノードでないこと

      • インストールサーバーによって、Sun Cluster ソフトウェアがサポートする Solaris OS のリリースがインストールされていること

      • Sun Cluster ソフトウェアの JumpStart インストール用のカスタム JumpStart ディレクトリが存在すること。この jumpstart-dir ディレクトリには、check(1M) ユーティリティーのコピーが含まれている必要があります。ディレクトリは、JumpStart インストールサーバーが読み取れるように NFS でエクスポートされている必要があります。

      • 各新規クラスタノードが、Sun Cluster インストール用に設定されたカスタム JumpStart ディレクトリを使用する、カスタム JumpStart インストールクライアントとして構成されていること

  2. 既存のクラスタに新しいノードをインストールする場合、ノードを許可クラスタノードのリストに追加します。

    1. アクティブな別のクラスタノードに切り替えて、scsetup(1M) ユーティリティーを起動します。

    2. scsetup ユーティリティーを使用して、新しいノードの名前を許可クラスタノードのリストに追加します。

    詳細については、『Sun Cluster のシステム管理 (Solaris OS 版)』「ノードを認証ノードリストに追加する」を参照してください。

  3. クラスタノードまたは同じサーバープラットフォームの別のマシンで、Solaris OS をまだインストールしていない場合は、それをインストールします。

    「Solaris ソフトウェアをインストールする」の手順に従います。

  4. 上記インストールを行なったシステムで、Sun Cluster ソフトウェアをまだインストールしていない場合は、これをインストールします。

    「Sun Cluster フレームワークとデータサービスソフトウェアパッケージをインストールする (Java ES installer)」の手順に従います。

  5. 共通エージェントコンテナ デーモンがシステムのブート中に自動的に起動できるようにします。


    # cacaoadm enable
    
  6. 上記インストールを行なったシステムで、Sun Cluster ソフトウェアをサポートするのに必要なすべてのパッチをインストールします。

  7. 上記インストールを行なったシステムで、/etc/inet/hosts ファイルを編集して、クラスタで使用されているすべての IP アドレスを追加します。

    この手順は、ネームサービスを使用しているかどうかに関わらず実行します。IP アドレスを追加する必要がある Sun Cluster コンポーネントについては、「IP アドレス」を参照してください。

  8. Solaris 10 の場合、上記インストールを行なったシステムで、/etc/inet/ipnodes ファイルを編集して、クラスタで使用されているすべての IP アドレスを追加します。

    この手順は、ネームサービスを使用しているかどうかに関わらず実行します。

  9. インストールしたシステムのフラッシュアーカイブを作成します。


    # flarcreate -n name archive
    
    -n name

    フラッシュアーカイブに付ける名前

    archive

    フラッシュアーカイブに付ける、フルパス付きのファイル名。規則により、ファイル名は .flar で終わります。

    次のマニュアルにあるいずれかの手順に従います。

  10. フラッシュアーカイブが NFS エクスポートされており、JumpStart インストールサーバーから読み取れることを確認します。

    自動ファイル共有の詳細については、『Solaris のシステム管理 (第 3 巻)』 (Solaris 8) または『『Solaris のシステム管理 (ネットワークサービス)』』(Solaris 9または Solaris 10) を参照してください。

    share(1M) および dfstab(4) のマニュアルページも参照してください。

  11. JumpStart インストールサーバーから scinstall(1M) ユーティリティーを起動します。

    ここでは、作成したインストールディレクトリの例として、パス /export/suncluster/sc31/ を使用します。CD-ROM パスで、archsparc または x86 に置き換え、ver は Solaris 8 の場合は 8、Solaris 9 の場合は 9、Solaris 10 の場合は 10 に置き換えます。


    # cd /export/suncluster/sc31/Solaris_arch/Product/sun_cluster/ \
    Solaris_ver/Tools/
    # ./scinstall
    
  12. 「メインメニュー」 から 「このインストールサーバーから JumpStart できるようにクラスタを構成」 を選択します。

    このオプションを使用して、カスタム JumpStart 完了スクリプトを構成します。JumpStart は、これらの完了スクリプトを使用して、 Sun Cluster ソフトウェアをインストールします。


      *** メインメニュー ***
     
        次の (*) オプションのうちから 1 つを選択してください:
     
          * 1) クラスタまたはクラスタノードをインストール
          * 2) このインストールサーバーから JumpStart できるようにクラスタを構成
            3) 新しいデータサービスのサポートをこのクラスタノードに追加
            4) このクラスタノードをアップグレード
          * 5) このクラスタノードのリリース情報を出力
     
          * ?) メニューオプションのヘルプ
          * q) 終了
     
        オプション:  2
    
  13. メニュープロンプトに従って、 構成計画ワークシートから回答を入力します。

    scinstall コマンドによって、構成情報が格納され、デフォルトの class ファイルである autoscinstall.classjumpstart-dir/autoscinstall.d/3.1/ ディレクトリにコピーされます。次に、このファイルの例を示します。


    install_type    initial_install
    system_type     standalone
    partitioning    explicit
    filesys         rootdisk.s0 free /
    filesys         rootdisk.s1 750  swap
    filesys         rootdisk.s3 512  /globaldevices
    filesys         rootdisk.s7 20
    cluster         SUNWCuser        add
    package         SUNWman          add
  14. autoscinstall.class ファイルを編集して、JumpStart がフラッシュアーカイブをインストールするように調整します。

    1. エントリを必要に応じて変更して、Solaris OS をフラッシュアーカイブマシンにインストールしたとき、あるいは、scinstall ユーティリティーを実行したときに行なった構成の選択に一致するようにします。

      たとえば、広域デバイスファイルシステムにスライス 4 を割り当て、そのファイルシステムの名前が /gdevs であると scinstall に指定した場合、autoscinstall.class ファイルの /globaldevices エントリを次のように変更します。


      filesys         rootdisk.s4 512  /gdevs
    2. autoscinstall.class ファイルの次のエントリを変更します。

      置換する既存のエントリ 

      追加する新しいエントリ 

      install_type

      initial_install

      install_type

      flash_install

      system_type

      standalone

      archive_location

      retrieval_type location

      archive_location キーワードを一緒に使用するときの retrieval_typelocation の有効な値については、Solaris のインストールガイドを参照してください。

    3. たとえば次のような、特定のパッケージをインストールするエントリをすべて削除します。


      cluster         SUNWCuser        add
      package         SUNWman          add
  15. Solaris パッチをまだフラッシュアーカイブシステムにインストールしていない場合は、Solaris パッチディレクトリを設定します。


    注 –

    パッチディレクトリを scinstall ユーティリティーに指定すると、Solaris パッチディレクトリのパッチはインストールされません。


    1. JumpStart インストールサーバーから読み取れるように NFS エクスポートする jumpstart-dir/autoscinstall.d/nodes/node/patches/ ディレクトリを作成します。

      上記のディレクトリは node がクラスタノードの名前であるクラスタノードごとに 1 つずつ作成します。あるいは、次の命名規則を使用して、共有パッチディレクトリへのシンボリックリンクを作成します。


      # mkdir jumpstart-dir/autoscinstall.d/nodes/node/patches/
      
    2. これらの各ディレクトリに Solaris パッチのコピーを格納します。

    3. Solaris ソフトウェアをインストールした後にインストールする必要があるすべてのハードウェア関連パッチのコピーもこれらのディレクトリに格納します。

  16. クラスタ管理コンソールを使用している場合、クラスタ内にある各ノードのコンソール画面を表示します。

    • クラスタコントロールパネル (CCP) ソフトウェアが管理コンソールにインストールされ、構成されている場合は、cconsole(1M) ユーティリティーを使用して、コンソール画面を個々に表示します。

      cconsole ユーティリティーを起動するには、次のコマンドを使用します。


      # /opt/SUNWcluster/bin/cconsole clustername &
      

      cconsole ユーティリティーを起動するとマスターウィンドウが開き、そこから個々のコンソールウィンドウすべてに入力を同時に送信できます。

    • cconsole ユーティリティーを使用しない場合は、各ノードのコンソールに個別に接続します。

  17. 各ノードを停止します。


    # shutdown -g0 -y -i0
    
  18. 各ノードを起動し、JumpStart のインストールを開始します。

    • SPARC ベースのシステムでは、次の操作を実行します。


      ok boot net - install
      

      注 –

      上記コマンド内のダッシュ記号 (-) の両側は、空白文字で囲む必要があります。


    • x86 ベースのシステムでは、次の操作を実行します。

      1. BIOS 情報画面が表示されてから Esc キーを押します。

        「Select Boot Device」画面が表示されます。

      2. 「Select Boot Device」画面で、JumpStart PXE インストールサーバーと同じネットワークに接続されている IBA をリストから選択します。

        IBA ブート選択肢の右の一番下の数字は、一番下の Ethernet ポート番号に対応しています。IBA ブート選択肢の右の一番上の数字は、一番上の Ethernet ポート番号に対応しています。

        ノードが再起動され、Device Configuration Assistant が表示されます。

      3. 「Boot Solaris」画面で Net を選択します。

      4. 次のプロンプトで Custom JumpStart を選択し、Enter キーを押します。


        Select the type of installation you want to perform:
        
                 1 Solaris Interactive
                 2 Custom JumpStart
        
        Enter the number of your choice followed by the <ENTER> key.
        
        If you enter anything else, or if you wait for 30 seconds,
        an interactive installation will be started.
      5. プロンプトが表示されますので、質問に答えて画面の指示に従います。

    JumpStart が Solaris OS と Sun Cluster ソフトウェアを各ノードにインストールします。インストールが正常に完了すると、各ノードは新しいクラスタノードとして完全にインストールされます。Sun Cluster のインストール出力は、/var/cluster/logs/install/scinstall.log. N ファイルに記録されます。

  19. Solaris 10 OS の場合、各ノードで Service Management Facility (SMF) 用のマルチユーザーサービスがオンラインであることを確認します。

    あるノードでこれらのサービスがまだオンラインでない場合は、オンラインになるまで待機してから、次の手順に進みます。


    # svcs multi-user-server
    STATE          STIME    FMRI
    online         17:52:55 svc:/milestone/multi-user-server:default
  20. 既存のクラスタに新しいノードをインストールする場合、新しいノード上で、既存のすべてのクラスタファイルシステム用のマウントポイントを作成します。

    1. クラスタ内にある別のアクティブなノードから、すべてのクラスタファイルシステムの名前を表示します。


      % mount | grep global | egrep -v node@ | awk '{print $1}'
      
    2. クラスタに追加したノード上で、クラスタ内にある各クラスタファイルシステム用のマウントポイントを作成します。


      % mkdir -p mountpoint
      

      たとえば、マウントコマンドが戻したファイルシステム名が /global/dg-schost-1 である場合、クラスタに追加するノード上で mkdir -p /global/dg-schost-1 を実行します。


      注 –

      これらのマウントポイントは、手順 24 でクラスタを再起動するとアクティブになります。


    3. クラスタ内にある既存のノードに VERITAS Volume Manager (VxVM) がインストールされている場合は、VxVM がインストールされている各ノードで vxio 番号を表示します。


      # grep vxio /etc/name_to_major
      vxio NNN
      
      • VxVM がインストールされている各ノード上で同じ vxio 番号が使用されていることを確認します。

      • VxVM がインストールされていない各ノード上で vxio 番号が使用できることを確認してください。

      • VxVM がインストールされていないノード上ですでに vxio 番号が使用されている場合、そのノードで該当番号を解放します。また、/etc/name_to_major エントリは、別の番号に変更してください。

  21. (省略可能) Sun Enterprise 10000 サーバーで動的再構成を使用する場合、次のエントリを /etc/system ファイルに追加します。このエントリをクラスタ内の各ノードに追加します。


    set kernel_cage_enable=1

    このエントリは、次のシステム再起動後に有効になります。Sun Cluster 構成で、動的再構成の作業を実行するための手順については、『Sun Cluster のシステム管理 (Solaris OS 版)』を参照してください。動的再構成の詳細については、サーバーのマニュアルを参照してください。

  22. ループバックファイルシステム (LOFS) を再び有効にするには、クラスタの各ノードの /etc/system ファイルから次のエントリを削除します。


    exclude:lofs

    このあと、システムをリブートすると、LOFS が再び有効になります。


    注 –

    Sun Cluster HA for NFS を高可用性ローカルファイルシステム上で使用しており、かつ、automountd を実行している場合、 LOFS は有効にできません。LOFS は、Sun Cluster HA for NFS のスイッチオーバーの問題の原因になる可能性があります。LOFS を有効にしたあとで、Sun Cluster HA for NFS を高可用性ローカルファイルシステムに追加することを選択した場合は、次のうちの 1 つを行う必要があります。

    • クラスタの各ノードの /etc/system ファイルに exclude:lofs エントリを戻して、各ノードをリブートします。この変更によって、LOFS は無効になります。

    • automountd デーモンを無効にします。

    • 高可用性ローカルファイルシステムの一部であり、Sun Cluster HA for NFS によってエクスポートされるファイルをすべて、オートマウンタマップから除外します。この方法では、LOFS と automountd デーモンの両方を有効にしたままにできます。


    ループバックファイルシステムの詳細については、『Solaris のシステム管理 (第 1 巻)』(Solaris 8) または『Solaris のシステム管理 (デバイスとファイルシステム)』(Solaris 9 または Solaris 10) を参照してください。

  23. x86: デフォルトのブートファイルを kadb に設定します。


    # eeprom boot-file=kadb
    

    この値を設定すると、ログインプロンプトにアクセスできないときにノードを再起動できます。

  24. クラスタの再起動を必要とする作業を行なった場合は、次の手順に従って、クラスタを再起動します。

    再起動が必要な作業には、次のものがあります。

    • 既存のクラスタへの新しいノードの追加

    • ノードまたはクラスタの再起動が必要なパッチのインストール

    • 有効にするために再起動の必要な構成の変更

    1. ノードのどれか 1 つでクラスタを停止します。


      # scshutdown
      

      注 –

      クラスタがシャットダウンするまで、最初にインストールしたクラスタノードを再起動しないでください。クラスタのインストールモードが無効になるまでは、最初にインストールした (つまり、クラスタを構築した) ノードだけが定足数投票権を持ちます。インストールモードが無効になっていない (つまり、構築された) クラスタでは、クラスタをシャットダウンせずに最初にインストールしたノードを再起動すると、残りのクラスタノードは定足数を獲得できません。クラスタ全体が停止します。

      最初に scsetup(1M) コマンドを実行するまで、クラスタノードはインストールモードのままです。このコマンドは、「定足数デバイスを構成する」の手順中に実行します。


    2. クラスタ内にある各ノードを再起動します。

      • SPARC ベースのシステムでは、次の操作を実行します。


        ok boot
        
      • x86 ベースのシステムでは、次の操作を実行します。


                             <<< Current Boot Parameters >>>
        Boot path: /pci@0,0/pci-ide@7,1/ata@1/cmdk@0,0:b
        Boot args:
        
        Type   b [file-name] [boot-flags] <ENTER>  to boot with options
        or     i <ENTER>                           to enter boot interpreter
        or     <ENTER>                             to boot with defaults
        
                         <<< timeout in 5 seconds >>>
        Select (b)oot or (i)nterpreter: b
        

    scinstall ユーティリティーは、すべてのクラスタノードのインストールと構成を行い、クラスタを再起動します。クラスタ内ですべてのノードが正常に起動されると、クラスタが確立されます。Sun Cluster のインストール出力は、/var/cluster/logs/install/scinstall.log.N に記録されます。

  25. 任意のノードから、すべてのノードがクラスタに結合していることを確認します。

    scstat(1M) コマンドを実行して、クラスタノードのリストを表示します。このコマンドを実行するために、スーパーユーザーとしてログインする必要はありません。


    % scstat -n
    

    出力は次のようになります。


    -- クラスターノード --
                                  ノード名       状態
                                  --------       ----
      クラスターノード:            phys-schost-1  Online
      クラスターノード:            phys-schost-2  Online
次の手順

2 ノードクラスタにノードを追加した場合は、「ノードの追加後に SCSI 予約を更新する」に進みます。

データサービスをインストールする予定の場合は、インストールするデータサービスと使用している Solaris OS のバージョンに適合する手順に進んでください。

 

Sun Cluster 2 of 2 CD-ROM 

(Sun Java System データサービス) 

Sun Cluster Agents CD 

(それ以外のすべてのデータサービス) 

手続き 

Solaris 8 または 9 

Solaris 10 

Solaris 8 または 9 

Solaris 10 

「Sun Cluster フレームワークとデータサービスソフトウェアパッケージをインストールする (Java ES installer)」

     

「データサービスソフトウェアパッケージをインストールする (pkgadd)」

 

   

「データサービスソフトウェアパッケージをインストールする (scinstall)」

   

「データサービスソフトウェアパッケージをインストールする (Web Start installer)」

   

 

それ以外の場合は、次の適切な手順に進みます。

注意事項

無効な scinstall オプションscinstall コマンドの JumpStart オプションの前にアスタリスクが表示されていない場合、そのオプションは無効です。これは、JumpStart の設定が完了していないか、セットアップでエラーが発生したことを意味します。この状態を修正するには、まず、scinstall ユーティリティーを終了します。手順 1 から 手順 10 を繰り返して、JumpStart の設定を修正し、次に、scinstall ユーティリティーを再起動します。

存在しないノードに関するエラーメッセージ – ユーザー独自の /etc/inet/ntp.conf ファイルをインストールしていない限り、scinstall コマンドはデフォルトの ntp.conf ファイルをインストールします。デフォルトファイルでは、最大ノード数を想定しています。したがって、xntpd(1M) デーモンは起動時にこれらのノードに関してエラーメッセージを発行することがあります。これらのメッセージは無視しても問題ありません。通常のクラスタ条件下で、これらのメッセージを表示しないようにする方法については、「ネットワークタイムプロトコル (NTP) を構成する」を参照してください。

プライベートネットワークアドレスの変更scinstall の処理が終了したあとでは、プライベートネットワークアドレスとネットマスクは変更できません。別のプライベートネットワークアドレスやネットマスクを使用する必要があり、ノードがインストールモードのままの場合は、「Sun Cluster ソフトウェアのアンインストールによるインストール問題を解決する」の手順に従います。次にこの手順を繰り返して、正しい情報でノードのインストールと構成を行います。

SunPlex Installer の使用による Sun Cluster ソフトウェアの構成


注 –

この構成方法は、次の状況では使用しないでください。


この節では、SunPlex Manager のインストールモジュールである SunPlex Installer を使用して、新しいクラスタを確立する方法について説明します。SunPlex Installer は、以下の追加ソフトウェア製品をインストールまたは構成する場合にも使用できます。

インストール必要条件

次に、SunPlex Installer を使用してこれらの追加ソフトウェア製品をインストールするための必要条件を示します。

表 2–3 SunPlex Installer によるソフトウェアインストールの要件

ソフトウェアパッケージ 

インストール必要条件 

Solstice DiskSuite または Solaris Volume Manager 

/sds をマウントポイント名として使用するパーティション。少なくとも 20 M バイトのパーティションが必要

Sun Cluster HA for NFS データサービス 

  • 同じノードセットに接続された、サイズが同じである 2 台以上の共有ディスク

  • SunPlex Installer によってインストールされた Solstice DiskSuite ソフトウェア、または構成された Solaris ボリュームマネージャー ソフトウェア

  • Sun Cluster HA for NFS が使用する論理ホスト名。この論理ホスト名の IP アドレスは、すべてのクラスタノードからアクセスできる必要があります。IP アドレスは、論理アドレスをホストしている IP ネットワークマルチパス グループ内の任意のアダプタと同じサブネット上にある必要があります。

  • クラスタの各ノード用のテスト IP アドレス。SunPlex Installer は、テスト IP アドレスを使用して、Sun Cluster HA for NFS が使用する IP ネットワークマルチパス (Internet Protocol Network Multipathing) グループを作成します。

Sun Cluster HA for Apache スケーラブルデータサービス 

  • 同じノードセットに接続された、サイズが同じである 2 台以上の共有ディスク

  • SunPlex Installer によってインストールされた Solstice DiskSuite ソフトウェア、または構成された Solaris ボリュームマネージャー ソフトウェア

  • Sun Cluster HA for Apache が使用する共有アドレス。この共有アドレスの IP アドレスは、すべてのクラスタノードからアクセスできる必要があります。IP アドレスは、論理アドレスをホストしている IP ネットワークマルチパス グループ内の任意のアダプタと同じサブネット上にある必要があります。

  • クラスタの各ノード用のテスト IP アドレス。SunPlex Installer は、テスト IP アドレスを使用して、Sun Cluster HA for Apache が使用する IP ネットワークマルチパス (Internet Protocol Network Multipathing) グループを作成します。

テスト IP アドレス

指定したテスト IP アドレスは、以下の必要条件を満たす必要があります。

次の表に、SunPlex Installer が作成する各メタセット名とクラスタファイルシステムのマウントポイントのリストを示します。SunPlex Installer が作成するメタセットおよびマウントポイントの数は、そのノードに接続される共有ディスクの数で異なります。たとえば、ノードが 4 台の共有ディスクに接続されている場合、SunPlex Installer は mirror-1mirror-2 メタセットを作成します。ただし、SunPlex Installer は、mirror-3 メタセットは作成しません。これは、このノードに 3 つ目のメタセットを作成するだけの十分な共有ディスクが存在しないためです。

表 2–4 SunPlex Installer が作成するメタセット

共有ディスク 

メタセット名 

クラスタファイルシステムマウントポイント 

目的 

1 番目のペア 

mirror-1

/global/mirror-1

Sun Cluster HA for NFS または Sun Cluster HA for Apache スケーラブルデータサービス、あるいはこの両方 

2 番目のペア 

mirror-2

/global/mirror-2

未使用 

3 番目のペア 

mirror-3

/global/mirror-3

未使用 


注 –

クラスタが共有ディスクの最低必要条件を満たさなくても、SunPlex Installer は Solstice DiskSuite パッケージをインストールします。ただし、十分な共有ディスクが存在しない状態では、SunPlex Installer はメタセット、メタデバイス、またはボリュームを構成できません。さらに、SunPlex Installer は、データサービスのインスタンスを作成するのに必要なクラスタファイルシステムを構成することができません。


文字セットの制限

セキュリティーを高めるために、SunPlex Installer は制限された文字セットを認識します。この文字セットに属していない文字は、HTML フォームが SunPlex Installer サーバーに送信されたときに無視されます。SunPlex Installer では、次の文字を使用できます。


()+,-./0-9:=@A-Z^_a-z{|}~

このフィルタ機能によって、以下の問題が生じる可能性があります。

ProcedureSun Cluster ソフトウェアを構成する (SunPlex Installer)

この作業は、SunPlex Installer を使用して、1 回の操作で、クラスタ内のすべてのノードで Sun Cluster ソフトウェアを構成して、パッチをインストールする場合に行います。この手順は、Solstice DiskSuite ソフトウェアとパッチのインストール (Solaris 8)、そして、Solstice DiskSuite または Solaris ボリュームマネージャーミラー化ディスクセットの構成にも使用できます。


注 –

この構成方法は、次の状況では使用しないでください。


インストール処理には、30 分から 2 時間以上かかる場合があります。実際に要する時間は、クラスタノードの数、インストールするデータサービスの種類、クラスタ構成内のディスクの数により異なります。

始める前に

次の作業を実行します。

手順
  1. インストールする各ソフトウェア製品の CD-ROM イメージへのファイルシステムパスを用意します。

    ファイルシステムパスを用意する場合は、次のガイドラインに従ってください。

    • 各ノードが使用できる場所に各 CD-ROM イメージを用意します。

    • CD-ROM イメージは、クラスタのすべてのノードから同じファイルシステムパスを使用してアクセスできなければなりません。これらのパスとして、以下に示す場所のいずれかを指定できます。

      • クラスタの外部に存在するマシンからネットワークにエクスポートされた CD-ROM ドライブ

      • クラスタの外部に存在するマシン上のエクスポートされたファイルシステム

      • クラスタの各ノード上のローカルファイルシステムにコピーされた CD-ROM イメージローカルファイルシステムの名前は、すべてのノードで同じにする必要があります。

  2. x86: 管理コンソールで Netscape NavigatorTM ブラウザと Microsoft Internet Explorer ブラウザのどちらを使用するかを決定します。

    • Netscape Navigator を使用している場合は、手順 3 に進みます。

    • Internet Explorer を使用している場合は、手順 4 に進みます。

  3. x86: Java プラグインがインストールされ、管理コンソール上で動作しているのを確認します。

    1. クラスタへの接続に使用する管理コンソール上で Netscape Navigator ブラウザを起動します。

    2. 「ヘルプ」メニューから「プラグインについて」を選択します。

    3. Java プラグインを一覧表示するかどうかを決定します。

      • 一覧表示する場合は、手順 5 に進みます。

      • 一覧表示しない場合は、手順 d に進みます。

    4. 最新の Java プラグインを http://java.sun.com/products/plugin からダウンロードします。

    5. 管理コンソールにプラグインをインストールします。

    6. プラグインに対するシンボリックリンクを作成します。


      % cd ~/.netscape/plugins/
      % ln -s /usr/j2se/plugin/i386/ns4/javaplugin.so .
      
    7. 手順 5 に進みます。

  4. x86: Java 2 Platform, Standard Edition (J2SE) for Windows がインストールされ、管理コンソール上で動作していることを確認します。

    1. Microsoft Windows デスクトップで、「スタート」をクリックし、「設定」にカーソルを置き、「コントロールパネル」を選択します。

      「Control Panel」ウィンドウが表示されます。

    2. Java プラグインを一覧表示するかどうかを決定します。

      • 一覧表示しない場合は、手順 c に進みます。

      • 一覧表示する場合は、Java Plug-in のコントロールパネルをダブルクリックします。「コントロールパネル」ウィンドウが開きますので、「Java Plugin について」タブをクリックします。

        • 以前のバージョンが表示された場合は、手順 c に進みます。

        • バージョン 1.4.1 以降が表示された場合は、手順 5 に進みます。

    3. J2SE for Windows の最新バージョンを http://java.sun.com/j2se/downloads.html からダウンロードします。

    4. J2SE for Windows ソフトウェアを管理コンソールにインストールします。

    5. 管理コンソールが実行されているシステムを再起動します。

      J2SE for Windows のコントロールパネルが起動されます。

  5. Sun Cluster または Solstice DiskSuite のサポートに必要なパッチがある場合、これらのパッチをインストールする方法を決めます。

    • これらのパッチを手動でインストールする場合は、SunPlex Installer を使用する前に、patchadd コマンドを使用して、すべてのパッチをインストールします。

    • SunPlex Installer を使用してこれらのパッチをインストールする場合は、パッチを 1 つのディレクトリにコピーします。

      パッチディレクトリが以下の必要条件を満たすことを確認してください。

      • パッチディレクトリが各ノードで使用できるファイルシステムにあること。

      • このディレクトリには、各パッチのバージョンを 1 つだけコピーするようにしてください。パッチディレクトリに同じパッチのバージョンが複数存在すると、SunPlex Installer はパッチの依存性順位を正しく判断できなくなります。

      • パッチファイルは解凍されています。

  6. 管理コンソール、またはクラスタの外部に存在する他のマシンから、ブラウザを起動します。

  7. ブラウザの Web プロキシを無効にします。

    SunPlex Installer のインストール機能は、Web プロキシと互換性がありません。

  8. ディスクキャッシュとメモリーキャッシュが有効になっていることを確認します。

    ディスクキャッシュとメモリーキャッシュのサイズは、0 より大きくなくてはなりません。

  9. ブラウザから、任意のクラスタノードのポート 3000 に接続します。


    https://node:3000
    

    ブラウザのウィンドウに「Sun Cluster のインストール」画面が表示されます。


    注 –

    「Sun Cluster のインストール」画面ではなく、SunPlex Installer によりデータサービスのインストール画面が表示される場合は、Sun Cluster フレームワークソフトウェアがそのノードですでにインストールされて構成されています。URL 内のノード名がインストール対象のクラスタノードの名前と一致していることを確認してください。


  10. ブラウザに「新しいサイトの証明書」ウィンドウが表示された場合は、画面上の指示に従ってください。

  11. スーパーユーザーとしてログインします。

  12. 「Sun Cluster のインストール」画面で、SunPlex Installer を使用するための要件をクラスタが満たしていることを確認します。

    示されている必要条件をすべて満たしている場合は、「次へ」をクリックして次の画面に進みます。

  13. メニュープロンプトに従って、 構成計画ワークシートから回答を入力します。

  14. 「インストールを開始」をクリックしてインストール処理を開始します。

    次のガイドラインに従って、SunPlex Installer を使用してください。

    • インストール処理中は、ブラウザウィンドウを閉じたり URL を変更したりしないでください。

    • ブラウザに「新しいサイトの証明書」ウィンドウが表示された場合は、画面上の指示に従ってください。

    • ブラウザにログイン情報のプロンプトが表示された場合は、接続先ノードの該当するスーパーユーザー ID とパスワードを入力してください。

    SunPlex Installer は、引き続きすべてのクラスタノードのインストールと構成を行い、クラスタを再起動します。クラスタ内ですべてのノードが正常に起動されると、クラスタが確立されます。Sun Cluster のインストール出力は、/var/cluster/logs/install/scinstall.log.N に記録されます。

    インストールが進行している間、クラスタインストール処理の状況を示す簡単なメッセージが画面に表示されます。インストールと構成が完了した時点で、ブラウザにクラスタ監視 / 管理用の GUI が表示されます。

    SunPlex Installer のインストール出力は、/var/cluster/spm/messages ファイルに記録されます。Sun Cluster のインストール出力は、/var/cluster/logs/install/scinstall.log. N ファイルに記録されます。

  15. 任意のノードから、すべてのノードがクラスタに結合していることを確認します。

    scstat(1M) コマンドを実行して、クラスタノードのリストを表示します。このコマンドを実行するために、スーパーユーザーとしてログインする必要はありません。


    % scstat -n
    

    出力は次のようになります。


    -- クラスターノード --
                                  ノード名       状態
                                  --------       ----
      クラスターノード:            phys-schost-1  Online
      クラスターノード:            phys-schost-2  Online
  16. SunPlex Installer で必要に応じて、定足数の割り当ての確認と、その割り当ての変更を行います。

    3 つ以上のノードを持つクラスタの場合、共有定足数デバイスの使用は任意です。SunPlex Installer による定足数デバイスへの定足数投票の割り当ては、適切な共有ディスクが利用可能かどうかに基づいて行われます。ユーザーは、SunPlexManager を使用して定足数デバイスを指定することも、クラスタ内の定足数投票数を割り当てなおすこともできます。詳細については、『Sun Cluster のシステム管理 (Solaris OS 版)』の第 5 章「定足数の管理」を参照してください。

  17. ループバックファイルシステム (LOFS) を再び有効にするには、クラスタの各ノードの /etc/system ファイルから次のエントリを削除します。


    exclude:lofs

    このあと、システムをリブートすると、LOFS が再び有効になります。


    注 –

    Sun Cluster HA for NFS を高可用性ローカルファイルシステム上で使用しており、かつ、automountd を実行している場合、 LOFS は有効にできません。LOFS は、Sun Cluster HA for NFS のスイッチオーバーの問題の原因になる可能性があります。LOFS を有効にしたあとで、Sun Cluster HA for NFS を高可用性ローカルファイルシステムに追加することを選択した場合は、次のうちの 1 つを行う必要があります。

    • クラスタの各ノードの /etc/system ファイルに exclude:lofs エントリを戻して、各ノードをリブートします。この変更によって、LOFS は無効になります。

    • automountd デーモンを無効にします。

    • 高可用性ローカルファイルシステムの一部であり、Sun Cluster HA for NFS によってエクスポートされるファイルをすべて、オートマウンタマップから除外します。この方法では、LOFS と automountd デーモンの両方を有効にしたままにできます。


    ループバックファイルシステムの詳細については、『Solaris のシステム管理 (第 1 巻)』(Solaris 8) または『Solaris のシステム管理 (デバイスとファイルシステム)』(Solaris 9 または Solaris 10) を参照してください。

次の手順

データサービスをインストールする予定の場合は、インストールするデータサービスと使用している Solaris OS のバージョンに適合する手順に進んでください。

 

Sun Cluster 2 of 2 CD-ROM 

(Sun Java System データサービス) 

Sun Cluster Agents CD 

(それ以外のすべてのデータサービス) 

手続き 

Solaris 8 または 9 

Solaris 10 

Solaris 8 または 9 

Solaris 10 

「Sun Cluster フレームワークとデータサービスソフトウェアパッケージをインストールする (Java ES installer)」

     

「データサービスソフトウェアパッケージをインストールする (pkgadd)」

 

   

「データサービスソフトウェアパッケージをインストールする (scinstall)」

   

「データサービスソフトウェアパッケージをインストールする (Web Start installer)」

   

 

それ以外の場合は、「定足数構成とインストールモードを確認する」に進みます。

注意事項

scinstall の処理が終了した後で、プライベートネットワークアドレスとネットマスクを変更することはできません。別のプライベートネットワークアドレスやネットマスクを使用する必要があり、ノードがインストールモードのままの場合は、「Sun Cluster ソフトウェアのアンインストールによるインストール問題を解決する」の手順に従います。次にこの手順を繰り返して、正しい情報でノードのインストールと構成を行います。

Procedure追加のクラスタノードとして Sun Cluster ソフトウェアを構成する (scinstall)

この手順を実行して、新しいノードを既存のクラスタに追加します。JumpStart を使用して新しいノードを追加するには、代わりに、「Solaris と Sun Cluster ソフトウェアをインストールする (JumpStart)」の手順に従います。

始める前に

次の作業を実行します。

この手順で対話式 scinstall ユーティリティーを使用するときには、次のガイドラインに従ってください。

手順
  1. このノードを単一ノードクラスタに追加する場合は、インターコネクト構成を表示して、2 つのクラスタインターコネクトがすでに存在していることを確認します。


    # scconf -p | grep cable
    # scconf -p | grep adapter
    

    少なくとも 2 つのケーブルまたは 2 つのアダプタを構成しなければなりません。

    • 2 つのケーブルまたは 2 つのアダプタの構成情報が表示されている場合は、手順 2 に進みます。

    • 複数のケーブルまたはアダプタの構成情報が表示されていない場合、あるいは、1 つのケーブルまたはアダプタだけの構成情報が表示されている場合は、新しいクラスタインターコネクトを構成します。

      1. 既存のクラスタノードで scsetup(1M) ユーティリティーを開始します。


        # scsetup
        
      2. 「クラスタインターコネクト」という項目を選択します。

      3. 「トランスポートケーブルを追加」という項目を選択します。

        指示通りにクラスタに追加するノードの名前、トランスポートアダプタの名前、およびトランスポート接続点を使用するかどうかを指定します。

      4. 必要であれば、手順 c を繰り返して、2 番目のクラスタインターコネクトを構成します。

        完了後 scsetup ユーティリティーを終了します。

      5. クラスタに 2 つのクラスタインターコネクトが設定されていることを確認します。


        # scconf -p | grep cable
        # scconf -p | grep adapter
        

        コマンド出力は、少なくとも 2 つのクラスタインターコネクトの構成情報を表示する必要があります。

  2. このノードを既存のクラスタに追加する場合は、新しいノードをクラスタの承認済みノードリストに追加します。

    1. アクティブなクラスタメンバーで、scsetup(1M) ユーティリティーを開始します。


      # scsetup
      

      メインメニューが表示されます。

    2. メニュー項目から「新規ノード」を選択します。

    3. メニューから「自分自身を追加できるマシン名を指定」を選択します。

    4. プロンプトに従って、ノードの名前を認識されているマシンのリストに追加します。

      scsetup ユーティリティーは、作業がエラーなしで完了された場合、「Command completed successfully」というメッセージを出力します。

    5. scsetup ユーティリティーを終了します。

  3. 構成するクラスタノードでスーパーユーザーになります。

  4. scinstall ユーティリティーを起動します。


    # /usr/cluster/bin/scinstall
    
  5. 「メインメニュー」から「クラスタまたはクラスタノードをインストール」という項目を選択します。


      *** メインメニュー ***
    
        次の (*) オプションのうちから 1 つを選択してください:
    
          * 1) クラスタまたはクラスタノードをインストール
            2) このインストールサーバーから JumpStart できるようにクラスタを構成
            3) 新しいデータサービスのサポートをこのクラスタノードに追加
            4) このクラスタノードをアップグレード
          * 5) このクラスタノードのリリース情報を出力
    
          * ?) メニューオプションのヘルプ
          * q) 終了
    
        オプション:  1
    
  6. 「インストールメニュー」 から 「このマシンを既存のクラスタ内にノードとして追加」という項目を選択します。

  7. メニュープロンプトに従って、 構成計画ワークシートから回答を入力します。

    scinstall ユーティリティーがノードを構成し、クラスタのノードを起動します。

  8. CD-ROM に含まれていないディレクトリに移動し、CD-ROM を取り出します。


    # eject cdrom
    
  9. Sun Cluster ソフトウェアをサポートするのに必要なパッチをインストールしていない場合は、これらのパッチをすべてインストールします。

  10. 他のノードでもこの手順を繰り返して、すべての追加ノードの構成が完了するまでクラスタに追加します。

  11. Solaris 10 OS の場合、各ノードで Service Management Facility (SMF) 用のマルチユーザーサービスがオンラインであることを確認します。

    あるノードでこれらのサービスがまだオンラインでない場合は、オンラインになるまで待機してから、次の手順に進みます。


    # svcs multi-user-server
    STATE          STIME    FMRI
    online         17:52:55 svc:/milestone/multi-user-server:default
  12. アクティブなクラスタメンバーから、ノードがクラスタに接続するのを防止します。


    # /usr/cluster/bin/scconf -a -T node=.
    
    -a

    コマンドの追加形式を指定します。

    -T

    認証オプションを指定します。

    node=.

    認証リストに追加するドット (.) のノード名を指定して、これ以外のノードがクラスタに追加されるのを防止します。

    あるいは、scsetup(1M) ユーティリティーも使用できます。手順については、『Sun Cluster のシステム管理 (Solaris OS 版)』「ノードを認証ノードリストに追加する」を参照してください。

  13. 任意のノードから、すべてのノードがクラスタに結合していることを確認します。

    scstat(1M) コマンドを実行して、クラスタノードのリストを表示します。このコマンドを実行するために、スーパーユーザーとしてログインする必要はありません。


    % scstat -n
    

    出力は次のようになります。


    -- クラスターノード --
                                  ノード名       状態
                                  --------       ----
      クラスターノード:            phys-schost-1  Online
      クラスターノード:            phys-schost-2  Online
  14. ループバックファイルシステム (LOFS) を再び有効にするには、クラスタの各ノードの /etc/system ファイルから次のエントリを削除します。


    exclude:lofs

    このあと、システムをリブートすると、LOFS が再び有効になります。


    注 –

    Sun Cluster HA for NFS を高可用性ローカルファイルシステム上で使用しており、かつ、automountd を実行している場合、 LOFS は有効にできません。LOFS は、Sun Cluster HA for NFS のスイッチオーバーの問題の原因になる可能性があります。LOFS を有効にしたあとで、Sun Cluster HA for NFS を高可用性ローカルファイルシステムに追加することを選択した場合は、次のうちの 1 つを行う必要があります。

    • クラスタの各ノードの /etc/system ファイルに exclude:lofs エントリを戻して、各ノードをリブートします。この変更によって、LOFS は無効になります。

    • automountd デーモンを無効にします。

    • 高可用性ローカルファイルシステムの一部であり、Sun Cluster HA for NFS によってエクスポートされるファイルをすべて、オートマウンタマップから除外します。この方法では、LOFS と automountd デーモンの両方を有効にしたままにできます。


    ループバックファイルシステムの詳細については、『Solaris のシステム管理 (第 1 巻)』(Solaris 8) または『Solaris のシステム管理 (デバイスとファイルシステム)』(Solaris 9 または Solaris 10) を参照してください。


例 2–2 Sun Cluster ソフトウェアを追加ノードで構成する

次の例では、ノード phys-schost-3 をクラスタ schost に追加しています。スポンサーノードは、phys-schost-1 です。


*** 既存のクラスタにノードを追加する ***
Fri Feb  4 10:17:53 PST 2005


scinstall -ik -C schost -N phys-schost-1 -A trtype=dlpi,name=qfe2 -A trtype=dlpi,name=qfe3 
-m endpoint=:qfe2,endpoint=switch1 -m endpoint=:qfe3,endpoint=switch2
	

広域デバイスファイルシステムとして使用できるかどうかをチェックしています ... done

ノード「phys-schost-3」をクラスタ構成に追加しています ... done
アダプタ「qfe2」をクラスタ構成に追加しています ... done
アダプタ「qfe3」をクラスタ構成に追加しています ... done
ケーブルをクラスタ構成に追加しています ... done
ケーブルをクラスタ構成に追加しています ... done

「phys-schost-1」からクラスタ構成をコピーしています ... done

「phys-schost-1」から postconfig ファイルをコピーしています (存在する場合) ... done
「phys-schost-1」から Common Agent Container キーをコピーしています ... done


「phys-schost-3」のノード ID を設定しています ... done (id=1)

「did」ドライバのメジャー番号を設定しています  ... 
「phys-schost-1」から「did」ドライバのメジャー番号を取得しています ... done
「did」ドライバのメジャー番号が 300 に設定されました

広域ファイルシステムの広域デバイスをチェックしています ... done
vfstab を更新しています... done

NTP が構成されているかどうかを確認しています ... done
NTP 構成を初期化しています ... done

nsswitch.conf を更新しています ... 
done

クラスタノードエントリを /etc/inet/hosts に追加しています ... done


IP マルチパスグループを「/etc/hostname.<adapter>」ファイル内に構成しています

"/etc/hostname.hme0" を更新しています。

電源管理が構成されていないことを確認しています ... done

EEPROM パラメータ「local-mac-address?」が「true」に設定されていることを確認しています ... done
「local-mac-address?」パラメータ設定が「true」に変更されました。

ネットワークルーティングが無効であることを確認しています ... done

ノード「phys-schost-1」上のファイル「ntp.conf.cluster」を更新しています ... done
ノード「phys-schost-1」上のファイル「hosts」を更新しています  ... done

リブートしています ... 

次の手順

次に行う手順を決定します。

2 ノードクラスタにノードを追加した場合は、「ノードの追加後に SCSI 予約を更新する」に進みます。

データサービスをインストールする予定の場合は、インストールするデータサービスと使用している Solaris OS のバージョンに適合する手順に進んでください。

 

Sun Cluster 2 of 2 CD-ROM 

(Sun Java System データサービス) 

Sun Cluster Agents CD 

(それ以外のすべてのデータサービス) 

手続き 

Solaris 8 または 9 

Solaris 10 

Solaris 8 または 9 

Solaris 10 

「Sun Cluster フレームワークとデータサービスソフトウェアパッケージをインストールする (Java ES installer)」

     

「データサービスソフトウェアパッケージをインストールする (pkgadd)」

 

   

「データサービスソフトウェアパッケージをインストールする (scinstall)」

   

「データサービスソフトウェアパッケージをインストールする (Web Start installer)」

   

 

それ以外の場合は、「定足数構成とインストールモードを確認する」に進みます。

注意事項

定足数デバイスへのノード接続の数を増やしたり、減らしたりしても、クラスタは自動的に定足数投票カウントを再計算しません。正しい定足数投票カウントをもう一度確立するには、scsetup ユーティリティーを使用して、各定足数デバイスを取り外し、もう一度構成に追加します。この作業は、1 度に 1 つの定足数デバイスで行います。

クラスタが持つ定足数デバイスが 1 つしかない場合、元の定足数デバイスを削除して再度追加する前に 2 つめの定足数デバイスを構成してください。その後、2 つめの定足数デバイスを削除して、そのクラスタを元の構成に戻してください。

Procedureノードの追加後に SCSI 予約を更新する

1 つまたは複数の共有 SCSI ディスクを定足数デバイスとして使用する 2 ノードクラスタにノードを追加した場合、ISCSI Persistent Group Reservations (PGR) を更新する必要があります。これを行うためには、SCSI-2 予約を持っている定足数デバイスを削除する必要があります。定足数デバイスを再度追加する場合、新たに構成する定足数デバイスは SCSI-3 予約を持つことになります。

始める前に

追加したノードで Sun Cluster ソフトウェアのインストールが完了していることを確認します。

手順
  1. クラスタ内の任意のノード上でスーパーユーザーになります。

  2. 現在の定足数構成を表示します。

    次の例では、定足数デバイス d3 の状態が表示されています。


    # scstat -q
    

    一覧表示されている各定足数デバイスの名前に注目してください。

  3. 元の定足数デバイスを削除します。

    この手順は、構成されている定足数デバイスごとに実行します。


    # scconf -r -q globaldev=devicename
    
    -r

    削除します。

    -q globaldev=devicename

    定足数デバイスの名前を指定します。

  4. 元の定足数デバイスがすべて削除されていることを確認します。


    # scstat -q
    
  5. (省略可能) SCSI 定足数デバイスを追加します。

    定足数デバイスとして構成されていたのと同じデバイスを構成しても、新しい共有デバイスを選択して構成してもかまいません。

    1. (省略可能) 新しい共有デバイスを選択して定足数デバイスとして構成する場合は、システムがチェックするすべてのデバイスを表示します。

      それ以外の場合は、手順 c に進みます。


      # scdidadm -L
      

      出力は次のようになります。


      1       phys-schost-1:/dev/rdsk/c0t0d0 /dev/did/rdsk/d1
      2       phys-schost-1:/dev/rdsk/c1t1d0 /dev/did/rdsk/d2
      2       phys-schost-2:/dev/rdsk/c1t1d0 /dev/did/rdsk/d2
      3       phys-schost-1:/dev/rdsk/c1t2d0 /dev/did/rdsk/d3
      3       phys-schost-2:/dev/rdsk/c1t2d0 /dev/did/rdsk/d3
      …
    2. この出力から、定足数デバイスとして構成する共有デバイスを選択します。

    3. 共有デバイスを定足数デバイスとして構成します。


      # scconf -a -q globaldev=devicename
      
      -a

      追加します。

    4. 構成する定足数デバイスごとに繰り返します。

  6. 定足数デバイスを追加した場合は、新しい定足数構成を確認します。


    # scstat -q
    

    新しい定足数デバイスはそれぞれ Online であり、投票権が割り当てられているはずです。


例 2–3 ノードの追加後に SCSI 予約を更新する

次の例では、元の定足数デバイスは d2 で、この定足数デバイスを削除して利用可能な共有デバイスを一覧表示し、d3 を新しい定足数デバイスとして構成します。


(定足数デバイスを一覧表示します)
# scstat -q
…
-- Quorum Votes by Device --
 
                    Device Name         Present Possible Status
                    -----------         ------- -------- ------
  Device votes:     /dev/did/rdsk/d2s2  1        1       Online

(元の定足数デバイスを削除します)
# scconf -r -q globaldev=d2
 
(元の定足数デバイスが削除されていることを確認します)
# scstat -q
…
-- Quorum Votes by Device --
 
                    Device Name         Present Possible Status
                    -----------         ------- -------- ------
 
(利用可能なデバイスを一覧表示します)
# scdidadm -L
…
3       phys-schost-1:/dev/rdsk/c1t2d0 /dev/did/rdsk/d3
3       phys-schost-2:/dev/rdsk/c1t2d0 /dev/did/rdsk/d3
…
 
(定足数デバイスを追加します)
# scconf -a -q globaldev=d3
 
(新しい定足数デバイスが追加されていることを確認します)
# scstat -q
…
-- Quorum Votes by Device --

                    Device Name         Present Possible Status
                    -----------         ------- -------- ------
  Device votes:     /dev/did/rdsk/d3s2 2        2       Online

次の手順

Procedureデータサービスソフトウェアパッケージをインストールする (pkgadd)

この手順は、Solaris 10 OS 用のデータサービスを Sun Cluster 2 of 2 CD-ROM からインストールする場合に実行します。Sun Cluster 2 of 2 CD-ROM には、Sun Java System アプリケーション用のデータサービスが入っています。この手順は、pkgadd(1M) プログラムを使用して、パッケージをインストールします。この手順は、選択したデータサービスを実行するクラスタの各ノードで実行します。


注 –

この手順は、次の種類のデータサービスパッケージには使用しないでください。


手順
  1. クラスタノードのスーパーユーザーになります。

  2. Sun Cluster 2 of 2 CD-ROM を CD-ROM ドライブに挿入します。

    ボリューム管理デーモンの vold(1M) が実行中で、CD-ROM デバイスを管理するように構成されている場合、デーモンによって自動的に CD-ROM が /cdrom/cdrom0/ ディレクトリにマウントされます。

  3. Solaris_arch/Product/sun_cluster_agents/Solaris_10/Packages/ ディレクトリに移動します (archsparc または x86 です)。


    # cd /cdrom/cdrom0/Solaris_arch/Product/sun_cluster_agents/ \
    Solaris_10/Packages/
    
  4. データサービスパッケージを大域ゾーンにインストールします。


    # pkgadd -G -d . [packages]
    -G

    現在のゾーンだけにパッケージを追加します。Sun Cluster パッケージは、大域ゾーンだけに追加する必要があります。このオプションは、既存のゾーン、あるいは、あとで作成する非大域ゾーンにパッケージを伝達しないことも指定します。

    -d

    インストールするパッケージの場所を指定します。

    packages

    省略可能。 インストールする 1 つまたは複数のパッケージの名前を指定します。パッケージ名を指定しない場合、pkgadd プログラムは、インストールできるすべてのパッケージのピックリストを表示します。

  5. CD-ROM に含まれていないディレクトリに移動し、CD-ROM を取り出します。


    # eject cdrom
    
  6. インストールしたデータサービスの任意のパッチをインストールします。

    パッチの入手先とインストール方法については、『Sun Cluster 3.1 8/05 ご使用にあたって (Solaris OS 版)』「パッチと必須ファームウェアのレベル」を参照してください。

    パッチの特別な指示によって再起動が指定されていないかぎり、Sun Cluster データサービスのパッチをインストールした後で再起動する必要はありません。パッチのインストール指示で再起動が要求された場合は、次の手順を実行します。

    1. scshutdown(1M) コマンドを使用して、1 つのノードからクラスタをシャットダウンします。

    2. クラスタ内にある各ノードを再起動します。


    注 –

    クラスタのインストールモードが無効になるまでは、最初にインストールした (つまり、クラスタを構築した) ノードだけが定足数投票権を持ちます。インストールモードが無効になっていない (つまり、構築された) 複数ノードのクラスタでは、クラスタをシャットダウンせずに最初にインストールしたノードを再起動すると、残りのクラスタノードは定足数を獲得できません。クラスタ全体が停止します。

    Sun Cluster インストール中に自動定足数構成を選択した場合、あるいは、SunPlex Installer を使用して Sun Cluster ソフトウェアをインストールした場合、インストールユーティリティーはインストールリブート中に、自動的に定足数投票権を割り当て、クラスタをインストールモードから解除します。しかし、どちらの方法も選択しなかった場合、クラスタノードは、「定足数デバイスを構成する」の手順で scsetup(1M) コマンドを実行するまで、インストールモードのままです。


次の手順

Procedureデータサービスソフトウェアパッケージをインストールする (scinstall)

この手順は、Sun Cluster 3.1 8/05 リリースの Sun Cluster Agents CD からデータサービスをインストールする場合に実行します。この手順は、対話式の scinstall ユーティリティーを使用して、パッケージをインストールします。この手順は、選択したデータサービスを実行するクラスタ内の各ノードで実行します。


注 –

この手順は、次の種類のデータサービスパッケージには使用しないでください。


SunPlex Installer を使用して Sun Cluster HA for NFS または Sun Cluster HA for Apache、あるいはこの両方をインストールする場合や、ほかのデータサービスをインストールする予定がない場合は、この手順を実行する必要はありません。代わりに、「定足数デバイスを構成する」に進みます。

Sun Cluster 3.1 10/03 以前のリリースからデータサービスをインストールする場合は、Web Start installer プログラムを使用しても、パッケージをインストールできます。「データサービスソフトウェアパッケージをインストールする (Web Start installer)」を参照してください。

この手順で対話式 scinstall ユーティリティーを使用するときには、次のガイドラインに従ってください。

手順
  1. クラスタノードのスーパーユーザーになります。

  2. ノードの CD-ROM ドライブに Sun Cluster Agents CD を挿入します。

    ボリューム管理デーモンの vold(1M) が実行中で、CD-ROM デバイスを管理するように構成されている場合、デーモンによって自動的に CD-ROM が /cdrom/cdrom0/ ディレクトリにマウントされます。

  3. CD-ROM がマウントされているディレクトリに移動します。


    # cd /cdrom/cdrom0/
    
  4. scinstall(1M) ユーティリティーを起動します。


    # scinstall
    
  5. 「メインメニュー」から「新しいデータサービスのサポートをこのクラスタノードに追加」という項目を選択します。

  6. プロンプトに従って、インストールするデータサービスを選択します。

    同じセットのデータサービスパッケージを各ノードにインストールする必要があります。この要件は、インストールされたデータサービス用のリソースをノードがホストしなくても適用されます。

  7. データサービスがインストールされたなら、scinstall ユーティリティーを終了します。

  8. CD-ROM に含まれていないディレクトリに移動し、CD-ROM を取り出します。


    # eject cdrom
    
  9. Sun Cluster データサービスのパッチをインストールします。

    パッチの入手先とインストール方法については、『Sun Cluster 3.1 8/05 ご使用にあたって (Solaris OS 版)』「パッチと必須ファームウェアのレベル」を参照してください。

    パッチの特別な指示によって再起動が指定されていないかぎり、Sun Cluster データサービスのパッチをインストールした後で再起動する必要はありません。パッチのインストール指示で再起動が要求された場合は、次の手順を実行します。

    1. scshutdown(1M) コマンドを使用して、1 つのノードからクラスタをシャットダウンします。

    2. クラスタ内にある各ノードを再起動します。


    注 –

    クラスタのインストールモードが無効になるまでは、最初にインストールした (つまり、クラスタを構築した) ノードだけが定足数投票権を持ちます。インストールモードが無効になっていない (つまり、構築された) 複数ノードのクラスタでは、クラスタをシャットダウンせずに最初にインストールしたノードを再起動すると、残りのクラスタノードは定足数を獲得できません。定足数を獲得できない場合、クラスタ全体がシャットダウンされます。

    Sun Cluster インストール中に自動定足数構成を選択した場合、あるいは、SunPlex Installer を使用して Sun Cluster ソフトウェアをインストールした場合、インストールユーティリティーはインストールリブート中に、自動的に定足数投票権を割り当て、クラスタをインストールモードから解除します。しかし、どちらの方法も選択しなかった場合、クラスタノードは、「定足数デバイスを構成する」の手順で scsetup(1M) コマンドを実行するまで、インストールモードのままです。


次の手順

Procedureデータサービスソフトウェアパッケージをインストールする (Web Start installer)

この手順は、Solaris 8 または Solaris 9 OS 用のデータサービスを Sun Cluster Agents CD からインストールする場合に実行します。この手順は、CD-ROM 上の Web Start installer プログラムを使用して、パッケージをインストールします。この手順は、選択したデータサービスを実行するクラスタ内の各ノードで実行します。


注 –

この手順は、次の種類のデータサービスパッケージには使用しないでください。

SunPlex Installer を使用して Sun Cluster HA for NFS または Sun Cluster HA for Apache、あるいはこの両方をインストールする場合や、ほかのデータサービスをインストールする予定がない場合は、この手順を実行する必要はありません。代わりに、「定足数デバイスを構成する」に進みます。


Sun Cluster 3.1 10/03 以前のリリースからデータサービスをインストールする場合は、「データサービスソフトウェアパッケージをインストールする (scinstall)」の手順も使用できます。

installer プログラムは、コマンド行インタフェース (CLI) またはグラフィカルユーザーインタフェース (GUI) を使用して実行できます。CLI と GUI での作業の内容と手順はほとんど同じです。installer プログラムの詳細については、installer(1M) のマニュアルページを参照してください。

始める前に

GUI で installer プログラムを使用する予定の場合は、DISPLAY 環境変数を設定する必要があります。

手順
  1. クラスタノードのスーパーユーザーになります。

  2. Sun Cluster Agents CD を CD-ROM ドライブに挿入します。

    ボリューム管理デーモンの vold(1M) が実行中で、CD-ROM デバイスを管理するように構成されている場合、デーモンによって自動的に CD-ROM が /cdrom/cdrom0/ ディレクトリにマウントされます。

  3. CD-ROM の installer プログラムが存在するディレクトリに移動します。


    # cd /cdrom/cdrom0/Solaris_arch/
    

    Solaris_arch/ ディレクトリで、archsparc または x86 です。

  4. Web Start installer プログラムを起動します。


    # ./installer
    
  5. プロンプトが表示されたなら、インストールのタイプを選択します。

    各データサービスで使用できるロケールの一覧については、『Sun Cluster ご使用にあたって』を参照してください。

    • CD-ROM 上にあるすべてのデータサービスをインストールするには、「通常」を選択します。

    • CD-ROM 内のデータサービスのサブセットのみをインストールする場合は、カスタムを選択します。

  6. プロンプトが表示されたら、インストールするロケールを選択します。

    • C ロケールのみをインストールする場合は、「通常」を選択します。

    • ほかのロケールをインストールする場合は、「カスタム」を選択します。

  7. 画面上の指示に従ってデータサービスソフトウェアをノードにインストールします。

    インストールが完了した後、installer プログラムはインストールに関する要約を表示します。この要約では、インストール中にプログラムによって生成された記録を参照できます。これらのログは、/var/sadm/install/logs/ ディレクトリにあります。

  8. installer プログラムを終了します。

  9. CD-ROM に含まれていないディレクトリに移動し、CD-ROM を取り出します。


    # eject cdrom
    
  10. Sun Cluster データサービスのパッチをインストールします。

    パッチの入手先とインストール方法については、『Sun Cluster 3.1 8/05 ご使用にあたって (Solaris OS 版)』「パッチと必須ファームウェアのレベル」を参照してください。

    パッチの特別な指示によって再起動が指定されていないかぎり、Sun Cluster データサービスのパッチをインストールした後で再起動する必要はありません。パッチのインストール指示で再起動が要求された場合は、次の手順を実行します。

    1. scshutdown(1M) コマンドを使用して、1 つのノードからクラスタをシャットダウンします。

    2. クラスタ内にある各ノードを再起動します。


    注 –

    クラスタのインストールモードが無効になるまでは、最初にインストールした (つまり、クラスタを構築した) ノードだけが定足数投票権を持ちます。インストールモードが無効になっていない (つまり、構築された) 複数ノードのクラスタでは、クラスタをシャットダウンせずに最初にインストールしたノードを再起動すると、残りのクラスタノードは定足数を獲得できません。クラスタ全体が停止します。

    Sun Cluster インストール中に自動定足数構成を選択した場合、あるいは、SunPlex Installer を使用して Sun Cluster ソフトウェアをインストールした場合、インストールユーティリティーはインストールリブート中に、自動的に定足数投票権を割り当て、クラスタをインストールモードから解除します。しかし、どちらの方法も選択しなかった場合、クラスタノードは、「定足数デバイスを構成する」の手順で scsetup(1M) コマンドを実行するまで、インストールモードのままです。


次の手順

Procedure定足数デバイスを構成する


注 –

次の場合は定足数デバイスを構成する必要はありません。

代わりに、「定足数構成とインストールモードを確認する」に進みます。


次の手順は、クラスタが完全に形成された後に一度だけ実行します。この手順で定足数投票を割り当て、クラスタのインストールモードを解除します。

始める前に

Network Appliance ネットワーク接続ストレージ (NAS) デバイスを定足数デバイスとして構成する予定の場合は、次の作業を実行します。

手順
  1. 共有 SCSI ディスクを定足数デバイスとして使用する場合、デバイスからクラスタノードへの接続性を確認して、構成するデバイスを選択します。

    1. クラスタの 1 つのノードから、システムがチェックするすべてのデバイスのリストを表示します。

      このコマンドを実行するために、スーパーユーザーとしてログインする必要はありません。


      % scdidadm -L
      

      出力は次のようになります。


      1       phys-schost-1:/dev/rdsk/c0t0d0 /dev/did/rdsk/d1
      2       phys-schost-1:/dev/rdsk/c1t1d0 /dev/did/rdsk/d2
      2       phys-schost-2:/dev/rdsk/c1t1d0 /dev/did/rdsk/d2
      3       phys-schost-1:/dev/rdsk/c1t2d0 /dev/did/rdsk/d3
      3       phys-schost-2:/dev/rdsk/c1t2d0 /dev/did/rdsk/d3
      …
    2. クラスタノードとストレージデバイス間にあるすべての接続が表示されていることを確認します。

    3. 定足数デバイスとして構成する各共有ディスクの広域デバイス ID 名を決定します。


      注 –

      共有ディスクを選択した場合は、その共有ディスクが定足数デバイスとして使用する権限を持つ必要があります。定足数デバイスを選択する方法の詳細については、「定足数デバイス」を参照してください。


      手順 ascdidadm の出力を使用して、定足数デバイスとして構成する各共有ディスクのデバイス ID 名を確認します。たとえば、手順 a の出力では、広域デバイス d2phys-schost-1phys-schost-2 で共有されていることがわかります。

  2. 任意のクラスタノードでスーパーユーザーになります。

  3. scsetup(1M) ユーティリティーを起動します。


    # scsetup
    

    「初期クラスタ設定」画面が表示されます。


    注 –

    代わりに「メインメニュー」が表示された場合は、クラスタの初期設定はすでに正しく行われています。手順 8 に進みます。


  4. 定足数ディスクを追加しますか?」というプロンプトに答えます。

    • クラスタが 2 ノードクラスタの場合、1 つ以上の共有定足数デバイスを構成する必要があります。1 つ以上の定足数デバイスを構成する場合は、「Yes」を入力します。

    • クラスタに 3 つ以上のノードが存在する場合は、定足数デバイスの構成は任意です。

      • 追加の定足数デバイスを構成しない場合は、「No」を入力します。そして、手順 7 に進みます。

      • 追加の定足数デバイスを構成する場合は、「Yes」を入力します。そして、手順 5 に進みます。

  5. 定足数デバイスとして構成するデバイスの種類を指定します。

    • 共有 SCSI ディスクを構成する場合は、「scsi」を選択します。

    • Network Appliance NAS デバイスを構成する場合は、「netapp_nas」を選択します。

  6. 定足数として構成するデバイスの名前を指定します。

    Network Appliance NAS デバイスの場合は、次の情報も指定します。

    • NAS デバイスの名前

    • NAS デバイスの LUN ID

  7. 「installmode」をリセットしますか?」というプロンプトで、「Yes」を入力します。

    scsetup ユーティリティーによって、クラスタの定足数構成と投票数が設定されたあと、「クラスタの初期化は完了しました。」というメッセージが表示されます。ユーティリティーは、「メインメニュー」に戻ります。

  8. scsetup ユーティリティーを終了します。

次の手順

定足数構成とインストールモードが無効になっていることを確認します。「定足数構成とインストールモードを確認する」に進みます。

注意事項

中断された scsetup 処理 — 定足数の設定プロセスが中断された場合、あるいは、正常に終了しなかった場合は、scsetup を再実行します。

定足数投票カウントの変更 — 定足数デバイスへのノード接続の数を増やしたり、減らしたりしても、定足数投票カウントは自動的には再計算されません。各定足数デバイスを一度に 1 つずつ取り外してもう一度構成に追加することにより、正しい定足数投票をもう一度確立できます。2 ノードクラスタの場合、定足数デバイスを取り外して、もとの定足数デバイスに戻す前に一時的に新しい定足数デバイスを追加します。次に一時的に追加した定足数デバイスを取り外します。『Sun Cluster のシステム管理 (Solaris OS 版)』の第 5 章「定足数の管理」を参照してください。

Procedure定足数構成とインストールモードを確認する

この手順は、定足数構成が正常に完了していること、そして、クラスタのインストールモードが無効になっていることを確認する場合に実行します。

手順
  1. 任意のノードから、デバイスとノードの定足数構成を確認します。


    % scstat -q
    
  2. 任意のノードから、クラスタのインストールモードが無効になっていることを確認します。

    このコマンドを実行するためにスーパーユーザーになる必要はありません。


    % scconf -p | grep "インストールモード"
    クラスタ インストールモード:                disabled

    クラスタのインストールはこれで完了です。

次の手順

「クラスタの構成」に進んで、クラスタまたは新しいクラスタノードにボリューム管理ソフトウェアをインストールして、その他の構成作業を実行します。


注 –

VxVM を使用するクラスタに新しいノードを追加した場合は、「SPARC: VERITAS Volume Manager ソフトウェアをインストールする」の手順を実行して、次の作業のうちの 1 つを行う必要があります。


クラスタの構成

この節では、クラスタまたは新しいクラスタノードにインストールしたソフトウェアを構成するための情報と手順について説明します。これらの作業を開始する前に、以下の作業が完了していることを確認してください。

次の表に、クラスタを構成する場合の作業を示します。ここに示す順に従って手順を実行します。


注 –

VxVM を使用するクラスタに新しいノードを追加した場合は、「SPARC: VERITAS Volume Manager ソフトウェアをインストールする」の手順を実行して、次の作業のうちの 1 つを行う必要があります。


表 2–5 Task Map: クラスタの構成

作業 

参照先 

1. ボリューム管理ソフトウェアのインストールと構成 

  • Solstice DiskSuite または Solaris ボリュームマネージャーソフトウェアのインストールと構成

第 3 章「Solstice DiskSuite または Solaris Volume Manager ソフトウェアのインストールと構成」

Solstice DiskSuite または Solaris ボリュームマネージャーのマニュアル 

  • SPARC:VERITAS Volume Manager ソフトウェアのインストールと構成

第 4 章「SPARC: VERITAS Volume Manager をインストールして構成する」

VERITAS Volume Manager のマニュアル 

2. クラスタファイルシステムの作成とマウント 

「クラスタファイルシステムを追加する」

3. (Solaris 8 または SunPlex Installer インストール) IP ネットワークマルチパス グループにまだ構成されていない各パブリックネットワークアダプタ用の IP ネットワークマルチパス グループの作成 

「インターネットプロトコル (IP) マルチパスグループを構成する」

4. (省略可能) ノードのプライベートホスト名の変更 

「プライベートホスト名を変更する」

5. NTP 構成ファイルの作成または変更 

「ネットワークタイムプロトコル (NTP) を構成する」

6. (省略可能) SPARC:Sun Cluster モジュールの Sun Management Center ソフトウェアへのインストール 

「SPARC: Sun Management Center 用の Sun Cluster モジュールのインストール」

Sun Management Center のマニュアル 

7. Sun 以外のアプリケーションのインストールと、そのアプリケーション、データサービス、およびリソースグループの構成 

『Sun Cluster データサービスの計画と管理 (Solaris OS 版)』

各アプリケーションのマニュアル 

Procedureクラスタファイルシステムを追加する

この手順は、作成するクラスタファイルシステムごとに実行します。ローカルシステムと違って、クラスタファイルシステムはクラスタ内のどのノードからでもアクセスできます。SunPlex Installer を使用してデータサービスをインストールした場合、SunPlex Installer がすでに 1 つ以上のクラスタファイルシステムを作成している場合があります。


注意 – 注意 –

ファイルシステムを作成するとき、ディスク上のデータは破壊されます。必ず、正しいディスクデバイス名を指定してください。間違ったデバイス名を指定した場合、削除するつもりのないデータが削除されてしまいます。


始める前に

次の作業を実行します。

手順
  1. クラスタ内にある任意のノード上でスーパーユーザーになります。


    ヒント –

    ファイルシステムを迅速に作成するには、ファイルシステムを作成する広域デバイスの現在の主ノード上でスーパーユーザーになります。


  2. ファイルシステムを作成します。

    • UFS ファイルシステムの場合は、newfs(1M) コマンドを使用します。


      # newfs raw-disk-device
      

      下の表 に、引数 raw-disk-device の名前の例を挙げます。命名規約はボリューム管理ソフトウェアごとに異なるので注意してください。

      ボリュームマネージャー 

      ディスクデバイス名の例 

      説明 

      Solstice DiskSuite または Solaris ボリュームマネージャー 

      /dev/md/nfs/rdsk/d1

      nfs ディスクセット内の raw ディスクデバイス d1

      SPARC:VERITAS Volume Manager 

      /dev/vx/rdsk/oradg/vol01

      oradg ディスクセット内の raw デバイス vol01

      なし 

      /dev/global/rdsk/d1s3

      raw ディスクデバイス d1s3

    • Sun StorEdge QFSSunStorEdgeQFS ファイルシステムの場合、「Sun StorEdge QFS and Sun StorEdge SAM-FS Software Installation and Configuration Guide」に記載された構成を定義する手順に従ってください。

    • SPARC:VERITAS File System (VxFS) ファイルシステムの場合、VxFS のマニュアルに記載された手順に従ってください。

  3. クラスタの各ノード上で、クラスタファイルシステム用のマウントポイントディレクトリを作成します。

    ノード上でクラスタファイルシステムがアクセスされない場合でも、マウントポイントはノードごとに必要です。


    ヒント –

    管理をしやすくするために、マウントポイントは /global/device-group/ ディレクトリに作成します。この場所を使用すると、広域的に利用できるクラスタファイルシステムとローカルファイルシステムを区別しやすくなります。



    # mkdir -p /global/device-group/mountpoint/
    
    device-group

    デバイスが属するデバイスグループ名に対応するディレクトリの名前。

    mountpoint

    クラスタファイルシステムをマウントするディレクトリの名前。

  4. クラスタ内にある各ノード上で、/etc/vfstab ファイルにマウントポイント用のエントリを追加します。

    詳細については、vfstab(4) のマニュアルページを参照してください。

    1. 各エントリで、使用する種類のファイルシステムに必要なマウントオプションを指定します。


      注 –

      Solstice DiskSuite トランスメタデバイスや Solaris ボリュームマネージャートランザクショナルボリュームには、logging マウントオプションを使しないでください。トランスメタデバイスおよびトランザクショナルボリュームは、独自のロギングを提供します。

      さらに、Solaris ボリュームマネージャートランザクションボリュームロギング (旧 Solstice DiskSuite トランスメタデバイスロギング) は、将来の Solaris リリースで、Solaris OS から削除される予定です。Solaris UFS ロギング は、より低い管理条件とオーバーヘッドで、同様の機能を高いパフォーマンスで提供します。


    2. クラスタファイルシステムを自動的にマウントするには、mount at boot フィールドを yes に設定します。

    3. 各クラスタファイルシステムで、/etc/vfstab エントリの情報が各ノードで同じになるようにします。

    4. 各ノードの /etc/vfstab ファイルのエントリに、デバイスが同じ順序で表示されることを確認します。

    5. ファイルシステムの起動順の依存関係を検査します。

      たとえば、phys-schost-1 がディスクデバイス d0/global/oracle/ にマウントし、phys-schost-2 がディスクデバイス d1/global/oracle/logs/にマウントすると仮定します。この構成では、phys-schost-1 が起動して /global/oracle/ をマウントした後にのみ、phys-schost-2 が起動して /global/oracle/logs/ をマウントできます。

  5. クラスタ内の任意のノードで sccheck(1M) ユーティリティーを実行します。

    sccheck ユーティリティーは、マウントポイントの存在を確認します。また、/etc/vfstab ファイルのエントリが、クラスタのすべてのノードで正しいことを確認します。


    # sccheck
    

    エラーが発生していない場合は、何も戻されません。

  6. クラスタファイルシステムをマウントします。


    # mount /global/device-group/mountpoint/
    
    • UFS と QFS の場合は、クラスタ内の任意のノードからクラスタファイルシステムをマウントします。

    • SPARC:VxFS の場合、クラスタファイルシステムを正常にマウントするには、device-group の現在のマスターからマウントします。さらに、VxFS ファイルシステムを正しく確実にマウント解除するには、device-group の現在のマスターからファイルシステムをマウント解除します。


      注 –

      VxFS クラスタファイルシステムを Sun Cluster 環境で管理するには、VxFS クラスタファイルシステムがマウントされている主ノードだけから管理コマンドを実行します。


  7. クラスタ内にある各ノード上で、クラスタファイルシステムがマウントされていることを確認します。

    マウントされているファイルシステムのリストを表示するには、df(1M) コマンドまたは mount(1M) コマンドを使用できます。


例 2–4 クラスタファイルシステムを作成する

次の例では、Solstice DiskSuite メタデバイスの /dev/md/oracle/rdsk/d1 にUFS クラスタファイルシステムが作成されます。


# newfs /dev/md/oracle/rdsk/d1
…
 
(各ノード上で)
# mkdir -p /global/oracle/d1
# vi /etc/vfstab
#device           device        mount   FS      fsck    mount   mount
#to mount         to fsck       point   type   ; pass    at boot options
#                     
/dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs 2 yes global,logging
(保存と終了)
 
(1 つのノード上で)
# sccheck
# mount /global/oracle/d1
# mount
…
/global/oracle/d1 on /dev/md/oracle/dsk/d1 read/write/setuid/global/logging/largefiles
on Sun Oct 3 08:56:16 2000

次の手順

Sun Cluster ソフトウェアを Solaris 8 OS にインストールした場合、あるいは、SunPlex Installer を使用してクラスタをインストールした場合は、「インターネットプロトコル (IP) マルチパスグループを構成する」に進みます。

任意のプライベートホスト名を変更する場合は、「プライベートホスト名を変更する」に進みます。

Sun Cluster ソフトウェアをインストールする前に独自の /etc/inet/ntp.conf ファイルをインストールしていない場合は、NTP 構成ファイルをインストールまたは作成します。「ネットワークタイムプロトコル (NTP) を構成する」に進みます。

SPARC:Sun Management Center を構成して、クラスタを監視する場合は、「SPARC: Sun Management Center 用の Sun Cluster モジュールのインストール」に進みます。

そうでない場合は、Sun 以外のアプリケーションをインストールし、リソースタイプを登録し、リソースグループを設定し、データサービスを構成します。『Sun Cluster データサービスの計画と管理 (Solaris OS 版)』およびアプリケーションに付属のマニュアルで説明されている手順に従ってください。

Procedureインターネットプロトコル (IP) マルチパスグループを構成する

クラスタの各ノードで次の作業を行います。SunPlex Installer を使用して Sun Cluster HA for Apache または Sun Cluster HA for NFS をインストールした場合、これらのデータサービスが使用するパブリックネットワークアダプタ用の IP ネットワークマルチパスグループは SunPlex Installer によって構成されています。残りのパブリックネットワークアダプタについては、ユーザーが IP ネットワークマルチパスグループを構成する必要があります。


注 –

パブリックネットワークアダプタはすべて IP ネットワークマルチパスグループに属する必要があります。


始める前に

必要事項を記入した「パブリックネットワークのワークシート」を用意します。

手順

    IP ネットワークマルチパスグループを構成します。

    • 『Solaris のシステム管理 (IP サービス)』「IPMP グループの構成」 (Solaris 10) の手順を実行します。

    • また、以下に示す追加必要条件に従って Sun Cluster 構成の IP ネットワークマルチパスグループを設定します。

      • 各パブリックネットワークアダプタは、マルチパスグループに属している必要があります。

      • 次の種類のマルチパスグループでは、グループ内の各アダプタにテスト IP アドレスを設定する必要があります。

        • Solaris 8 OS では、すべてのマルチパスグループで、各アダプタにテスト IP アドレスを設定する必要があります。

        • Solaris 9 または Solaris 10 OS では、複数のアダプタがあるマルチパスグループでは、(各アダプタに) テスト IP アドレスを設定する必要があります。マルチパスグループにアダプタが 1 つしかない場合は、テスト IP アドレスを設定する必要はありません。

      • 同一マルチパスグループ内のすべてのアダプタ用のテスト IP アドレスは、単一の IP サブネットに属する必要があります。

      • テスト IP アドレスは高可用性ではないため、通常のアプリケーションでは使用しないようにします。

      • /etc/default/mpathd ファイルで、TRACK_INTERFACES_ONLY_WITH_GROUPS の値は yes でなければなりません。

      • マルチパスグループの名前に、必要条件はありません。

次の手順

任意のプライベートホスト名を変更する場合は、「プライベートホスト名を変更する」に進みます。

Sun Cluster ソフトウェアをインストールする前に独自の /etc/inet/ntp.conf ファイルをインストールしていない場合は、NTP 構成ファイルをインストールまたは作成します。「ネットワークタイムプロトコル (NTP) を構成する」に進みます。

SPARC ベースのシステムで Sun Cluster を使用しており、クラスタの監視に Sun Management Center を使用したい場合は、 Sun Management Center 用の Sun Cluster モジュールをインストールします。「SPARC: Sun Management Center 用の Sun Cluster モジュールのインストール」に進みます。

そうでない場合は、Sun 以外のアプリケーションをインストールし、リソースタイプを登録し、リソースグループを設定し、データサービスを構成します。『Sun Cluster データサービスの計画と管理 (Solaris OS 版)』およびアプリケーションに付属のマニュアルで説明されている手順に従ってください。

Procedureプライベートホスト名を変更する

次の作業は、Sun Cluster ソフトウェアのインストール中に割り当てられるデフォルトのプライベートホスト名 (clusternodenodeid-priv) を使用しない場合に実行します。


注 –

この手順は、アプリケーションとデータサービスの構成および起動後には実行しないでください。アプリケーションやデータサービスは、名前の変更後も引き続き古いプライベートホスト名を使用することがあり、この手順を実行するとホスト名の衝突が発生します。アプリケーションやデータサービスが実行中の場合は、この手順を実行する前に停止しておいてください。


クラスタの 1 つのアクティブなノードで次の手順を実行します。

手順
  1. クラスタ内の 1 つのノードのスーパーユーザになります。

  2. scsetup(1M) ユーティリティーを起動します。


    # scsetup
    
  3. 「メインメニュー」から「プライベートホスト名」という項目を選択します。

  4. 「プライベートホストメニュー」から 「プライベートホスト名を変更」という項目を選択します。

  5. プロンプトに従って、プライベートホスト名を変更します。

    変更するプライベートホスト名ごとに繰り返します。

  6. 新しいプライベートホスト名を確認します。


    # scconf -pv | grep "プライベートホスト名"
    (phys-schost-1) ノード プライベートホスト名:      phys-schost-1-priv
    (phys-schost-3) ノード プライベートホスト名:      phys-schost-3-priv
    (phys-schost-2) ノード プライベートホスト名:      phys-schost-2-priv
次の手順

Sun Cluster ソフトウェアをインストールする前に独自の /etc/inet/ntp.conf ファイルをインストールしていない場合は、NTP 構成ファイルをインストールまたは作成します。「ネットワークタイムプロトコル (NTP) を構成する」に進みます。

SPARC:Sun Management Center を構成して、クラスタを監視する場合は、「SPARC: Sun Management Center 用の Sun Cluster モジュールのインストール」に進みます。

そうでない場合は、Sun 以外のアプリケーションをインストールし、リソースタイプを登録し、リソースグループを設定し、データサービスを構成します。アプリケーションソフトウェアに付属のマニュアルおよび『Sun Cluster データサービスの計画と管理 (Solaris OS 版)』を参照してください。

Procedureネットワークタイムプロトコル (NTP) を構成する


注 –

Sun Cluster ソフトウェアをインストールする前に、ユーザー独自の /etc/inet/ntp.conf ファイルをインストールしていた場合は、この手順を実行する必要はありません。次に行う手順を決定します。


次に示す作業を実行した後には、この節の作業を実行して、NTP 構成ファイルを作成または変更します。

単一ノードクラスタにノードを追加した場合、新しいクラスタノードと同様に元のクラスタノードにも、使用する NTP 構成ファイルがコピーされていることを確認します。

NTP を構成する (つまり、クラスタ内で同期をとる) 場合に重要な第一の条件は、すべてのクラスタノードが同時に同期をとる必要があるということです。ノード間で同期をとる場合に重要な第二の条件は、個々のノードの時間が正確であるということです。このような同期についての基本的条件に適合する場合は、NTP はニーズに合わせて自由に構成できます。

クラスタの時刻の詳細については、『Sun Cluster の概念 (Solaris OS 版)』を参照してください。NTP を Sun Cluster 構成用に構成する場合のガイドラインについては、/etc/inet/ntp.cluster テンプレートファイルを参照してください。

手順
  1. クラスタノード上にインストールするクラスタノード上でスーパーユーザーになります。

  2. ユーザー独自の構成ファイルがある場合は、そのファイルをクラスタのノードにコピーします。

  3. インストールする /etc/inet/ntp.conf ファイルがない場合は、 /etc/inet/ntp.conf.cluster ファイルを NTP 構成ファイルとして使用します。


    注 –

    ntp.conf.cluster ファイルの名前を ntp.conf に変更してはいけません。


    ノード上に /etc/inet/ntp.conf.cluster ファイルが存在しない場合、Sun Cluster ソフトウェアの初期インストールに /etc/inet/ntp.conf ファイルが存在する可能性があります。ノード上に /etc/inet/ntp.conf ファイルが存在しない場合、Sun Cluster ソフトウェアは NTP 構成ファイルとして /etc/inet/ntp.conf.cluster ファイルを作成します。この場合、その ntp.conf ファイルを次のように編集します。

    1. 任意のテキストエディタを使用して、クラスタの 1 つのノードで /etc/inet/ntp.conf.cluster ファイルを編集用に開きます。

    2. 各クラスタノードのプライベートホスト名用のエントリが存在することを確認します。

      ノードのプライベートホスト名を変更した場合、新しいプライベートホスト名が NTP 構成ファイルに存在することを確認します。

    3. 必要であれば、各自の NTP 条件に適合するように NTP 構成ファイルを変更します。

  4. クラスタ内にあるすべてのノードに NTP 構成ファイルをコピーします。

    NTP 構成ファイルの内容は、すべてのクラスタノードで同じである必要があります。

  5. 各ノード上で NTP デーモンを停止します。

    各ノード上で停止コマンドが正常に終了するまで待機して、手順 6 に進みます。

    • Solaris 8 または Solaris 9 OS の場合は、次のコマンドを使用します。


      # /etc/init.d/xntpd stop
      
    • Solaris 10 OS の場合は、次のコマンドを使用します。


      # svcadm disable ntp
      
  6. 各ノード上で、NTP デーモンを再起動します。

    • ntp.conf.cluster ファイルを使用する場合は、次のコマンドを実行します。


      # /etc/init.d/xntpd.cluster start
      

      xntpd.cluster 起動スクリプトは最初に、/etc/inet/ntp.conf ファイルを検索します。

      • ntp.conf ファイルが存在する場合、このスクリプトは NTP デーモンを起動せずに即座に終了します。

      • ntp.conf ファイルは存在しないが、ntp.conf.cluster ファイルは存在する場合、スクリプトは NTP デーモンを起動します。この場合、スクリプトは ntp.conf.cluster ファイルを NTP 構成ファイルとして使用します。

    • ntp.conf ファイルを使用する場合、次のコマンドのうちの 1 つを実行します。

      • Solaris 8 または Solaris 9 OS の場合は、次のコマンドを使用します。


        # /etc/init.d/xntpd start
        
      • Solaris 10 OS の場合は、次のコマンドを使用します。


        # svcadm enable ntp
        
次の手順

SPARC:Sun Management Center を構成して、クラスタを監視する場合は、「SPARC: Sun Management Center 用の Sun Cluster モジュールのインストール」に進みます。

そうでない場合は、Sun 以外のアプリケーションをインストールし、リソースタイプを登録し、リソースグループを設定し、データサービスを構成します。アプリケーションソフトウェアに付属のマニュアルおよび『Sun Cluster データサービスの計画と管理 (Solaris OS 版)』を参照してください。

SPARC: Sun Management Center 用の Sun Cluster モジュールのインストール

この節では、Sun Cluster モジュール用のソフトウェアを Sun Management Center にインストールするための情報と手順について説明します。

Sun Management Center 用の Sun Cluster モジュールにより、Sun Management Center でクラスタを監視できます。次の表に、Sun Management Center 用の Sun Cluster モジュールソフトウェアをインストールするために実行する作業を示します。

表 2–6 Task Map: Sun Management Center 用の Sun Cluster モジュールのインストール

作業 

参照先 

1. Sun Management Center サーバー、ヘルプサーバー、エージェント、およびコンソールパッケージをインストール 

Sun Management Center のマニュアル 

「SPARC: Sun Cluster 監視のためのインストール条件」

2. Sun Cluster モジュールパッケージをインストール 

「SPARC: Sun Cluster モジュールを Sun Management Center 用にインストールする」

3. Sun Management Center サーバー、コンソール、およびエージェントプロセスを起動 

「SPARC: Sun Management Center を起動する」

4. 各クラスタノードを Sun Management Center エージェントホストオブジェクトとして追加 

「SPARC: クラスタノードを Sun Management Center エージェントホストオブジェクトとして追加する」

5. Sun Cluster モジュールを読み込んで、クラスタの監視を開始 

「SPARC: Sun Cluster モジュールを読み込む」

SPARC: Sun Cluster 監視のためのインストール条件

Sun Management Center の Sun Cluster モジュールは、Sun Cluster 構成を監視するために使用されます。Sun Cluster モジュールパッケージをインストールする前に、以下の必要条件を確認してください。

ProcedureSPARC: Sun Cluster モジュールを Sun Management Center 用にインストールする

以下の手順を実行して、Sun Cluster モジュールサーバーおよびヘルプサーバーパッケージをインストールします。


注 –

Sun Cluster モジュールエージェントパッケージ (SUNWscsal および SUNWscsam) は、Sun Cluster ソフトウェアのインストール中にクラスタノードに追加されています。


始める前に

Sun Management Center のコアパッケージが適切なマシン上にインストールされていることを確認します。この手順には、各クラスタノードへの Sun Management Center エージェントパッケージのインストールが含まれます。インストール方法については、Sun Management Center のマニュアルを参照してください。

手順
  1. サーバーマシンに、Sun Cluster モジュールサーバーパッケージである SUNWscssv をインストールします。

    1. スーパーユーザーになります。

    2. SPARC 版の Sun Cluster 2 of 2 CD-ROM を CD-ROM ドライブに挿入します。

      ボリューム管理デーモンの vold(1M) が実行中で、CD-ROM デバイスを管理するように構成されている場合、デーモンによって自動的に CD-ROM が /cdrom/cdrom0/ ディレクトリにマウントされます。

    3. Solaris_sparc/Product/sun_cluster/Solaris_ver/Packages/ ディレクトリに移動します (ver は、Solaris 8 の場合は 8、Solaris 9 の場合は 9、Solaris 10 の場合は 10 です)。


      # cd /cdrom/cdrom0/Solaris_sparc/Product/sun_cluster/Solaris_ver/Packages/
      
    4. Sun Cluster モジュールサーバーパッケージをインストールします。


      # pkgadd -d . SUNWjscssv
      
    5. CD-ROM に含まれていないディレクトリに移動し、CD-ROM を取り出します。


      # eject cdrom
      
  2. Sun Management Center 3.0 ヘルプサーバーマシンまたは Sun Management Center 3.5 サーバーマシンに、Sun Cluster モジュールヘルプサーバーパッケージである SUNWscshl をインストールします。

    上記と同じ手順を実行します。

  3. Sun Cluster モジュールパッチをインストールします。

    パッチの入手先とインストール方法については、『Sun Cluster 3.1 8/05 ご使用にあたって (Solaris OS 版)』「パッチと必須ファームウェアのレベル」を参照してください。

次の手順

Sun Management Center を起動します。「SPARC: Sun Management Center を起動する」に進みます。

ProcedureSPARC: Sun Management Center を起動する

次の手順を実行して、Sun Management Center サーバー、エージェント、コンソールプロセスを起動します。

手順
  1. スーパーユーザーとして、Sun Management Center サーバーマシンで Sun Management Center サーバープロセスを起動します。

    install-dir は、Sun Management Center ソフトウェアをインストールしたディレクトリです。デフォルトのディレクトリは /opt です。


    # /install-dir/SUNWsymon/sbin/es-start -S
    
  2. スーパーユーザーとして、 Sun Management Center エージェントマシン (クラスタノード) ごとに Sun Management Center エージェントプロセスを起動します。


    # /install-dir/SUNWsymon/sbin/es-start -a
    
  3. Sun Management Center エージェントマシン (クラスタノード) 上で、scsymon_srv デーモンが動作していることを確認します。


    # ps -ef | grep scsymon_srv
    

    任意のクラスタノード上で scsymon_srv デーモンが動作していない場合、そのノード上でデーモンを起動します。


    # /usr/cluster/lib/scsymon/scsymon_srv
    
  4. Sun Management Center コンソールマシン (管理コンソール) で Sun Management Center コンソールを起動します。

    コンソールプロセスを起動するには、スーパーユーザーである必要はありません。


    % /install-dir/SUNWsymon/sbin/es-start -c
    
次の手順

クラスタノードを監視対象のホストオブジェクトとして追加します。「SPARC: クラスタノードを Sun Management Center エージェントホストオブジェクトとして追加する」に進みます。

ProcedureSPARC: クラスタノードを Sun Management Center エージェントホストオブジェクトとして追加する

次の手順を実行して、クラスタノードの Sun Management Center エージェントホストオブジェクトを作成します。

手順
  1. Sun Management Center にログインします。

    Sun Management Center のマニュアルを参照してください。

  2. Sun Management Center のメインウィンドウで、「ドメイン」プルダウンリストからドメインを選択します。

    作成する Sun Management Center エージェントホストオブジェクトがこのドメインに格納されます。Sun Management Center ソフトウェアのインストール中に、「デフォルトのドメイン」が自動的に作成されています。このドメインを使用するか、別の既存のドメインを選択するか、または新しいドメインを作成します。

    Sun Management Center ドメインの作成方法については、Sun Management Center のマニュアルを参照してください。

  3. プルダウンメニューから 「編集」、「オブジェクトの作成」 の順に選択します。

  4. 「ノード」タブを選択します。

  5. 「監視ツール」プルダウンリストから、「エージェントホスト」を選択します。

  6. 「ノードラベル」および「ホスト名」テキストフィールドにクラスタノードの名前 (phys-schost-1 など) を入力します。

    「IP」テキストフィールドは空白のままにしておきます。「説明」テキストフィールドはオプションです。

  7. 「ポート」テキストフィールドに、Sun Management Center エージェントマシンのインストール時に選択したポート番号を入力します。

  8. 「OK」をクリックします。

    ドメインに Sun Management Center エージェントホストオブジェクトが作成されます。

次の手順

Sun Cluster モジュールを読み込みます。「SPARC: Sun Cluster モジュールを読み込む」に進みます。

注意事項

Sun Cluster モジュールの監視および構成機能を使用するには、クラスタ全体で必要なクラスタノードホストオブジェクトは、1 つだけです。ただし、そのクラスタノードが利用不能になると、ホストオブジェクトを通じてクラスタと接続することもできなくなります。したがって、クラスタに再接続するには、別のクラスタノードホストオブジェクトが必要となります。

ProcedureSPARC: Sun Cluster モジュールを読み込む

次の手順を実行して、クラスタ監視機能を起動します。

手順
  1. Sun Management Center のメインウィンドウで、クラスタノードのアイコンを右クリックします。

    プルダウンメニューが表示されます。

  2. 「モジュールの読み込み」を選択します。

    「モジュールの読み込み」ウィンドウに、利用可能な各 Sun Management Center モジュールと、そのモジュールが現在読み込まれているかどうかが表示されます。

  3. 「Sun Cluster」:「Not Loaded」を選択して、「了解」をクリックします。

    「モジュールの読み込み」ウィンドウに、選択したモジュールの現在のパラメータ情報が表示されます。

  4. 「OK」をクリックします。

    数分後、そのモジュールが読み込まれます。Sun Cluster アイコンが「詳細」ウィンドウに表示されます。

  5. Sun Cluster モジュールが読み込まれていることを確認します。

    「オペレーティングシステム」カテゴリで、以下のいずれかの方法で Sun Cluster サブツリーを展開します。

    • ウィンドウ左側のツリー階層で、カーソルを Sun Cluster モジュールのアイコンに合わせ、マウスのセレクトボタンをクリックします。

    • ウィンドウ右側のトポロジ表示領域で、カーソルを Sun Cluster モジュールのアイコンに合わせ、マウスのセレクトボタンをダブルクリックします。

参照

Sun Cluster モジュール機能を使用する方法については、Sun Cluster モジュールのオンラインヘルプを参照してください。


注 –

Sun Management Center ブラウザの「ヘルプ」ボタンをクリックすると、Sun Cluster モジュールに固有のトピックではなく、Sun Management Center オンラインヘルプにアクセスします。


Sun Management Center の使用方法については、Sun Management Center のオンラインヘルプと Sun Management Center のマニュアルを参照してください。

次の手順

他のアプリケーションのインストール、リソースタイプの登録、リソースグループの設定、データサービスの構成をそれぞれ行います。アプリケーションソフトウェアに付属のマニュアルおよび 『Sun Cluster データサービスの計画と管理 (Solaris OS 版)』を参照してください。

ソフトウェアの削除

この節では、Sun Cluster ソフトウェアを削除するための次の手順を説明します。

ProcedureSun Cluster ソフトウェアのアンインストールによるインストール問題を解決する

インストールしたノードがクラスタに参加できなかったり、構成情報を修正する場合、次の手順を実行します。たとえば、トランスポートアダプタやプライベートネットワークアドレスを再構成する場合に実行してください。


注 –

ノードがすでにクラスタに参加しており、インストールモードでない場合 (「定足数構成とインストールモードを確認する」手順 2 を参照) は、この手順を実行しないでください。代わりに、『Sun Cluster のシステム管理 (Solaris OS 版)』「クラスタノードの追加と削除」に進みます。


始める前に

ノードを再インストールします。インストールに失敗したノードは、当該ノード上で Sun Cluster ソフトウェアのインストールをやり直すと修正できる場合があります。

手順
  1. アンインストールする予定のノードをクラスタのノードの認証リストに追加します。

    単一ノードクラスタをアンインストールする場合は、手順 2 に進みます。

    1. アンインストールを行なうノード以外のアクティブなクラスタメンバー上でスーパーユーザーになります。

    2. 認証リストに追加するノードの名前を指定します。


      # /usr/cluster/bin/scconf -a -T node=nodename
      
      -a

      ノードを追加します。

      -T

      認証オプションを指定します。

      node=nodename

      認証リストに追加するノードの名前を指定します。

      この作業を実行するには、scsetup(1M) ユーティリティーも使用できます。手順については、『Sun Cluster のシステム管理 (Solaris OS 版)』「ノードを認証ノードリストに追加する」を参照してください。

  2. アンインストールを行なうノード上でスーパーユーザーになります。

  3. アンインストールするノードをシャットダウンします。


    # shutdown -g0 -y -i0
    
  4. ノードを再起動して、非クラスタモードになります。

    • SPARC ベースのシステムでは、次の操作を実行します。


      ok boot -x
      
    • x86 ベースのシステムでは、次の操作を実行します。


                          <<< Current Boot Parameters >>>
      Boot path: /pci@0,0/pci-ide@7,1/ata@1/cmdk@0,0:b
      Boot args:
      
      Type   b [file-name] [boot-flags] <ENTER>  to boot with options
      or     i <ENTER>                           to enter boot interpreter
      or     <ENTER>                             to boot with defaults
      
                       <<< timeout in 5 seconds >>>
      Select (b)oot or (i)nterpreter: b -x
      
  5. Sun Clusterパッケージのファイルが何も含まれていない、root (/) ディレクトリなどのディレクトリへ移動します。


    # cd /
    
  6. そのノードから Sun Cluster ソフトウェアをアンインストールします。


    # /usr/cluster/bin/scinstall -r
    

    詳細については、scinstall(1M) のマニュアルページを参照してください。

  7. ノードに Sun Cluster ソフトウェアを再インストールし、再構成します。

    すべてのインストール作業のリストと、これらの作業を実行する順番については、表 2–1 を参照してください。

ProcedureSUNWscrdt パッケージを削除する

クラスタ内の各ノード上で次の手順を実行します。

始める前に

この手順を実行する前に、RSMRDT ドライバを使用しているアプリケーションがないことを確認します。

手順
  1. SUNWscrdt パッケージをアンインストールするノード上でスーパーユーザーになります。

  2. SUNWscrdt パッケージを削除します。


    # pkgrm SUNWscrdt
    

ProcedureRSMRDT ドライバを手動でアンロードする

SUNWscrdt パッケージを削除する」を完了したあとで、ドライバがメモリーに読み込まれたままである場合は、この手順を実行して、ドライバを手動でアンロードします。

手順
  1. adb ユーティリティーを起動します。


    # adb -kw
    
  2. カーネル変数 clifrsmrdt_modunload_ok1 に設定します。


    physmem NNNN 
    clifrsmrdt_modunload_ok/W 1
    
  3. adb ユーティリティーを終了するには、Control-D を押します。

  4. clif_rsmrdt およびモジュール ID を見つけます。


    # modinfo | grep rdt
    
  5. clif_rsmrdt モジュールをアンロードします。

    モジュールをアンロードする前に、clif_rsmrdt モジュールをアンロードする必要があります。


    # modunload -i clif_rsmrdt_id
    
    clif_rsmrdt_id

    アンロードするモジュールの数値 ID を指定します。

  6. rsmrdt モジュールをアンロードします。


    # modunload -i rsmrdt_id
    
    rsmrdt_id

    アンロードするモジュールの数値 ID を指定します。

  7. モジュールがアンロードされたことを確認します。


    # modinfo | grep rdt
    

例 2–5 RSMRDT ドライバのアンロード

次の例は、RSMRDT ドライバを手動で削除した後のコンソール出力を示しています。


# adb -kw
physmem fc54
clifrsmrdt_modunload_ok/W 1
clifrsmrdt_modunload_ok: 0x0 = 0x1
^D
# modinfo | grep rsm
 88 f064a5cb 974 - 1 rsmops (RSMOPS module 1.1)
 93 f08e07d4 b95 - 1 clif_rsmrdt (CLUSTER-RSMRDT Interface module)
 94 f0d3d000 13db0 194 1 rsmrdt (Reliable Datagram Transport dri)
# modunload -i 93
# modunload -i 94
# modinfo | grep rsm
 88 f064a5cb 974 - 1 rsmops (RSMOPS module 1.1)
#

注意事項

modunload コマンドが失敗する場合は、おそらくアプリケーションがまだそのドライバを使用しています。modunload コマンドをもう一度実行する前にアプリケーションを終了してください。