Sun Cluster ソフトウェアのインストール (Solaris OS 版)

第 2 章 Sun Cluster ソフトウェアのインストールと構成

この章では、クラスタのインストールおよび構成手順を説明します。これらの手順は、既存のクラスタに新しいノードを追加するためにも利用できます。この章では、特定のクラスタソフトウェアを削除する方法についても説明します。

この章の内容は、次のとおりです。

作業マップ : ソフトウェアのインストール

次の作業マップは、複数または単一ノードのクラスタにソフトウェアをインストールするときに実行する作業を示しています。ここに示す順に従って手順を実行します。

表 2–1 作業マップ : ソフトウェアのインストール

目次 

参照箇所 

1. クラスタ構成のレイアウトを計画、およびソフトウェアをインストールするための準備 

「クラスタソフトウェアのインストールの準備をする」

2. (省略可能) 管理コンソールにクラスタコントロールパネル (CCP) ソフトウェアをインストール

「クラスタコントロールパネルソフトウェアを管理コンソールにインストールする」

3. Solaris OS 環境および Sun Cluster ソフトウェアをインストール。必要に応じて、Sun StorEdge QFS ソフトウェアをインストールします。次の方法のどれか 1 つを選択します。 

  • 方法 1 – (新規の複数クラスタのみ) Solaris ソフトウェアをインストールする。次にすべてのノードに、Sun Cluster ソフトウェアをインストールする。次にすべてのノードに、Sun Cluster ソフトウェアをインストールする。次に、scinstall ユーティリティーを使用してクラスタを確立する

  1. 「Solaris ソフトウェアをインストールする」

  2. 「Sun Cluster ソフトウェアパッケージをインストールする」

  3. 「すべてのノードで Sun Cluster ソフトウェアを構成する (scinstall)」

  • 方法 2 – (新規の複数クラスタのみ) Solaris ソフトウェアをインストールする。次に、SunPlexTM Manager をインストールし、次に SunPlex Installer を使用して Sun Cluster ソフトウェアをインストールする

  1. 「Solaris ソフトウェアをインストールする」

  2. 「SunPlex Installer により Sun Cluster ソフトウェアをインストールする」

  • 方法 3 – (新規の複数クラスタまたは追加ノード) scinstall ユーティリティーのカスタム JumpStart オプションを使用して Solaris ソフトウェアと Sun Cluster ソフトウェアを 1 回の操作でインストールする

「Solaris と Sun Cluster ソフトウェアをインストールする (JumpStart)」

  • 方法 4 – (新規の単一ノードクラスタ) Solaris ソフトウェアをインストールしてから、scinstall -iFo コマンドを使用して Sun Cluster ソフトウェアをインストールする

  1. 「Solaris ソフトウェアをインストールする」

  2. 「Sun Cluster ソフトウェアを単一ノードクラスタにインストールする」

  • Method 5 – (追加ノードのみ) Solaris ソフトウェアを新しいノードにインストールする。次に新しいノードに Sun Cluster ソフトウェアをインストールする。次に scinstall ユーティリティーを使用して、新しいノード上で Sun Cluster ソフトウェアを構成する

  1. 「Solaris ソフトウェアをインストールする」

  2. 「Sun Cluster ソフトウェアパッケージをインストールする」

  3. 「追加のクラスタノードとして Sun Cluster ソフトウェアを構成する (scinstall)」

4. (オプション) SPARC: VERITAS File System ソフトウェアをインストール

「SPARC: VERITAS File System ソフトウェアをインストールする」

5. ネームサービスの参照順序を構成 

「ネームサービススイッチを構成する」

6.ディレクトリパスを設定 

「root 環境を設定する」

7.データサービスソフトウェアパッケージをインストール 

「データサービスソフトウェアパッケージをインストールする (installer)」 または 「データサービスソフトウェアパッケージをインストールする (scinstall)」

8.Sun Cluster のインストール中に実行されていない場合は、定足数投票を割り当て、クラスタのインストールモードを解除 

「インストール後の設定を行い、定足数デバイスを構成する」

9.定足数構成の妥当性を検査 

「定足数構成とインストールモードを確認する」

10.ボリューム管理ソフトウェアのインストールと構成 

  • Solstice DiskSuite または Solaris Volume Manager ソフトウェアのインストールと構成

  • SPARC: VERITAS Volume Manager ソフトウェアのインストールと構成

11.クラスタを構成 

「クラスタの構成」

ソフトウェアのインストール

この節では、クラスタノードにソフトウェアをインストールするための情報と手順を紹介します。

クラスタソフトウェアのインストールの準備をする

ソフトウェアのインストールを開始する前に、以下の準備作業を行ってください。

  1. クラスタ構成の計画およびインストール方法を検討する上で参考となる情報を参照します。

  2. 関連文書 (Sun 以外の製品の文書も含む) をすべて用意します。

    クラスタのインストールを行う場合に参考となるドキュメントを持つ製品の一部を以下に示します。

    • Solaris OS

    • Solstice DiskSuite または Solaris Volume Manager ソフトウェア

    • Sun StorEdge QFS ソフトウェア

    • SPARC:VERITAS Volume Manager

    • SPARC:Sun Management Center

    • その他のアプリケーション

  3. クラスタ構成の計画を立てます。


    注意 – 注意 –

    クラスタのインストールを綿密に計画します。Solaris および Sun Cluster ソフトウェアのインストールを開始する前に、データサービスおよび他の製品すべてについて必要条件を認識しておく必要があります。計画に不備があった場合、インストールエラーが発生し、Solaris や Sun Cluster ソフトウェアを完全にインストールし直す必要が生じる可能性もあります。

    たとえば、Oracle Real Application Clusters の Oracle Real Application Clusters Guard オプションには、クラスタで使用するホスト名に関する特別な必要条件があります。このような特別な必要条件は Sun Cluster HA for SAP にもあります。Sun Cluster ソフトウェアをインストールした後にホスト名は変更できないため、このような必要条件は Sun Cluster ソフトウェアをインストールする前に調整しておく必要があります。

    x86 ベースのクラスタでは、Oracle Real Application Clusters と Sun Cluster HA for SAP は両方とも使用できないことにも注意してください。


    • 第 1 章「Sun Cluster 構成の計画」および『Sun Cluster データサービスの計画と管理 (Solaris OS 版)』に示されているガイドラインを利用して、クラスタのインストールと構成の方法を決定してください。

    • 計画ガイドラインで参照されるクラスタフレームワークおよびデータサービス構成のワークシートに必要事項を記入してください。完成したワークシートは、インストールと構成の作業を行う際に参考情報として利用します。

  4. クラスタ構成に必要なパッチをすべて入手します。

    パッチの入手先とインストール方法については、『Sun Cluster 3.1 ご使用にあたって 』の「パッチと必須ファームウェアのレベル」を参照してください。

    1. Sun Cluster に必要なパッチを 1 つのディレクトリにコピーします。

      このディレクトリは、すべてのノードからアクセス可能なファイルシステムになければなりません。デフォルトのパッチディレクトリは、 /var/cluster/patches/ です。


      ヒント –

      Solaris ソフトウェアをノードにインストールした後、 /etc/release ファイルでインストールした Solaris ソフトウェアのバージョンを確認できます。


    2. (省略可能) SunPlex Installer を使用していない場合は、パッチリストファイルを作成できます。

      パッチリストファイルを指定すると、SunPlex Installer はパッチリストファイルに含まれているパッチのみをインストールします。パッチリストファイルの作成については、patchadd(1M) のマニュアルページを参照してください。

    3. パッチディレクトリのパスを記録します。

  5. (省略可能) 管理コンソールからクラスタノードへの接続を行うためにクラスタコントロールパネル (CCP) ソフトウェアを使用します。

    「クラスタコントロールパネルソフトウェアを管理コンソールにインストールする」へ進んでください。

  6. 使用する Solaris のインストール手順を選択します。

クラスタコントロールパネルソフトウェアを管理コンソールにインストールする


注 –

管理コンソールの使用は必須ではありません。管理コンソールを使用しない場合は、クラスタ内の特定のノードから管理作業を行います。


この手順では、管理コンソールにクラスタコントロールパネル (CCP) ソフトウェアをインストールする方法を説明します。CCP により、cconsole(1M)ctelnetle(1M)crloginle(1M) の各ツールを起動できます。 これらの各ツールは、共通ウィンドウや一連のノードとの多重ウィンドウ接続を提供します。共通ウィンドウを使用すると、すべてのノードに入力を一括送信できます。

管理コンソールには、Solaris 8 または Solaris 9 OS 環境が動作する任意のデスクトップマシンを使用できます。また、管理コンソールは、文書サーバーとしても使用できます。Sun Cluster を SPARC ベースのシステムで使用している場合は、管理コンソールを Sun Management Center コンソールやサーバーとして使用できます。Sun Management Center ソフトウェアをインストールする方法については、Sun Management Center のマニュアルを参照してください。Sun Cluster のマニュアルのインストール方法については、『Sun Cluster ご使用にあたって (Solaris OS 版)』を参照してください。

  1. 管理コンソールでスーパーユーザーになります。

  2. サポートされている Solaris OS 環境のバージョンと Solaris パッチが管理コンソールにインストールされていることを確認してください。

    すべてのプラットフォームで、少なくとも End User Solaris ソフトウェアグループが必要です。

  3. 管理コンソール用のマシンの CD-ROM ドライブに Sun Cluster 3.1 9/04 CD-ROM を挿入します。

    ボリューム管理デーモンの vold(1M) が実行中で、CD-ROM デバイスを管理するように構成されている場合、デーモンによって自動的に CD-ROM が /cdrom/cdrom0/ ディレクトリにマウントされます。

  4. Solaris_arch/Product/sun_cluster/Solaris_ver/Packages/ ディレクトリに変更します。ここでは archsparc または x86 で、ver8 (Solaris 8 の場合) または 9 (Solaris 9 の場合) となります。


    # cd /cdrom/cdrom0/Solaris_arch/Product/sun_cluster/Solaris_ver/Packages/
    

  5. インストーラプログラムを起動します。


    # ./installer
    

  6. 「カスタム」インストールを選択します。

    ユーティリティにより、ソフトウェアパッケージの一覧が表示されます。

  7. 必要に応じて、管理コンソールにインストールしないパッケージを選択解除します。

  8. 「Sun Cluster cconsole package」という項目を選択します。

  9. (省略可能) 「Sun Cluster manpage package」という項目を選択します。

  10. (省略可能) 「Sun Cluster documentation package」という項目を選択します。

  11. 画面の指示に従って、パッケージのインストールを続けます。

    インストールが完了すると、インストールログを表示できます。

  12. SUNWccon パッケージをインストールします。


    # pkgadd -d . SUNWccon
    

  13. (省略可能) SUNWscman パッケージをインストールします。


    # pkgadd -d . SUNWscman
    

    管理コンソールに SUNWscman パッケージをインストールすることで、クラスタノードに Sun Cluster ソフトウェアをインストールする前に、管理コンソールから Sun Cluster のマニュアルページを参照できるようになります。

  14. (省略可能) Sun Cluster マニュアルパッケージをインストールします。


    注 –

    管理コンソールにドキュメントをインストールしなくても、HTML または PDF のドキュメントを CD-ROM から直接見ることができます。Web ブラウザを使用して、CD-ROM のトップレベルにある index.html を表示してください。


    1. pkgadd ユーティリティーを対話モードで起動します。


      # pkgadd -d .
      

    2. Documentation Navigation for Solaris 9 package が管理コンソールにインストールされていない場合は、これを選択します。

    3. インストールする Sun Cluster マニュアルパッケージを選択します。

      次のマニュアルコレクションは、HTML と PDF の両方の形式で参照できます。

      • 『Sun Cluster 3.1 9/04 Software Collection for Solaris OS (SPARC Platform Edition)』

      • 『Sun Cluster 3.1 9/04 Software Collection for Solaris OS (x86 Platform Edition)』

      • 『Sun Cluster 3.x Hardware Collection for Solaris OS (SPARC Platform Edition)』

      • 『Sun Cluster 3.x Hardware Collection for Solaris OS (x86 Platform Edition)』

      • 『Sun Cluster 3.1 9/04 Reference Collection for Solaris OS』

    4. 画面に表示される指示に従って、パッケージのインストールを続けます。

  15. CD-ROM に含まれていないディレクトリに移動し、CD-ROM を取り出します。


    # eject cdrom
    

  16. 管理コンソールに /etc/clusters ファイルを作成します。

    クラスタ名と、各クラスタノードの物理ノード名をファイルに追加します。


    # vi /etc/clusters
    clustername node1 node2
    

    詳細については、clusters(4) のマニュアルページを参照してください。

  17. /etc/serialports ファイルを作成します。

    このファイルに、クラスタ内の各ノード用のエントリを追加します。物理ノード名、コンソールアクセスデバイスのホスト名、およびポート番号を指定します。コンソールアクセスデバイスの例として、端末集配信装置 (TC)、システムサービスプロセッサ (SSP)、および Sun Fire システムコントローラがあります。


    # vi /etc/serialports
    node1 ca-dev-hostname port
    node2 ca-dev-hostname port
    
    ノード1、 ノード2

    クラスタノードの物理名

    ca-dev-hostname

    コンソールアクセスデバイスのホスト名

    port

    シリアルポート番号

    /etc/serialports ファイルを作成するためには、次の注意事項に従ってください。

    • Sun Fire 15000 システムコントローラでは、各エントリのシリアル番号に telnet(1)ポート番号 23 を使用します。

    • その他すべてのコンソールアクセスデバイスについては、telnet シリアルポート番号を使用し、物理ポート番号は使用しません。 telnet シリアルポート番号は、物理ポート番号に 5000 を加えた値です。たとえば、物理ポート番号が 6 の場合、telnet シリアルポート番号は 5006 になります。

    • Sun Enterprise 10000 サーバーの詳細と注意事項については、 /opt/SUNWcluster/bin/ serialports(1) のマニュアルページを参照してください。

  18. (省略可能) 便宜上、管理コンソール上のディレクトリパスを設定します。

    • /opt/SUNWcluster/bin/ ディレクトリを PATH に追加します。

    • /opt/SUNWcluster/man/ ディレクトリを MANPATH に追加します。

    • SUNWscman パッケージをインストールした場合は、/usr/cluster/man/ ディレクトリも MANPATH に追加します。

  19. CCP ユーティリティーの起動


    # /opt/SUNWcluster/bin/ccp &
    

    CCP ウィンドウで、cconsolecrlogin、または ctelnet ボタンをクリックしてツールを起動します。 これらのツールは直接起動することもできます。たとえば、ctelnet を起動するには、次のコマンドを入力します。


    # /opt/SUNWcluster/bin/ctelnet &
    

    CCP ユーティリティーを使用する方法については、『Sun Cluster のシステム管理 (Solaris OS 版)』の「クラスタ管理の開始」の「クラスタに遠隔ログインする」手順を参照してください。 ccp(1M) のマニュアルページも参照してください。

  20. Solaris OS が各クラスタノードにインストールされており、Sun Cluster ソフトウェアの必要条件を満たしているかどうかを確認します。

Solaris ソフトウェアをインストールする

ソフトウェアのインストールに scinstall(1M) カスタム JumpStart インストールを使用しない場合は、この作業を行います。以下の手順に従ってクラスタ内の各ノードに Solaris OS をインストールしてください。


ヒント –

Solaris OS は、各ノードに同時にインストールできるため、インストール時間を節約できます。


ノードに Solaris OS がすでにインストールされていても、Sun Cluster インストールの必要条件が満たされていない場合は、Solaris ソフトウェアを再インストールする必要があります。以下に示す手順に従って、Sun Cluster ソフトウェアを確実にインストールしてください。必要なルートディスクのパーティション分割と Sun Cluster インストールのその他の必要条件については、「Solaris OS の計画」を参照してください。

  1. Solaris ソフトウェアをインストールする前に、ハードウェアの設定が完了していることと、接続が完全であることを確認します。

    詳細については、『Sun Cluster Hardware Administration Collection』およびサーバーと記憶装置のマニュアルを参照してください。

  2. クラスタ構成の計画が完了していることを確認します。

    必要条件とガイドラインについては、「クラスタソフトウェアのインストールの準備をする」 を参照してください。

  3. 必要事項が記入された「ローカルファイルシステム配置のワークシート」を用意します。

  4. ネームサービスを使用している場合、すべての公開ホスト名と論理アドレス間のアドレスと名前の対応付けを、クライアントがクラスタサービスにアクセスするために使用する任意のネームサービスに追加します。手順 11 でローカルホスト名の情報を設定します。

    計画のガイドラインについては、「IP アドレス」を参照してください。Solaris ネームサービスの使用については、Solaris システム管理者用のマニュアルを参照してください。

  5. クラスタ管理コンソールを使用している場合、クラスタ内にある各ノードのコンソール画面を表示します。

    • クラスタコントロールパネル (CCP) ソフトウェアが管理コンソールにインストールされ、構成されている場合は、cconsole (1M) ユーティリティーを使用して、コンソール画面を個別に表示できます。また、cconsole ユーティリティーを使用してマスターウィンドウを開くことができます。ここでの入力を、個々のすべてのコンソールウィンドウに同時に送信できます。cconsole を起動するには、次のコマンドを入力します。


      # /opt/SUNWcluster/bin/cconsole clustername &
      

    • cconsole ユーティリティーを使用しない場合は、各ノードのコンソールに個別に接続します。

  6. Solaris インストールマニュアルに指示されているとおりに Solaris OS をインストールします。


    注 –

    同一クラスタ内のノードはすべて、同じバージョンの Solaris OS である必要があります。


    Solaris ソフトウェアの通常のインストール方法を使用してインストールします。Solaris ソフトウェアのインストール時に、次の作業を行います。

    1. 少なくとも End User Solaris ソフトウェアグループをインストールします。

      Solaris ソフトウェアの必要条件の詳細については 「Solaris ソフトウェアグループについて」 を参照してください。

    2. 「手動配置」を選択して、ファイルシステムを設定します。

      • 広域デバイスサブシステムを使用するための、少なくとも 512M バイトのファイルシステムを作成します。 SunPlex Installer を使用して Sun Cluster ソフトウェアをインストールする場合は、マウントポイント名を /globaldevices に設定してファイルシステムを作成する必要があります。/globaldevices マウントポイント名は、 scinstall が使用するデフォルトです。


        注 –

        Sun Cluster ソフトウェアのインストールを正常に行うためには、広域デバイスファイルシステムを用意する必要があります。


      • スライス 7 には少なくとも 20M バイトのサイズを指定します。SunPlex Installer を使用して Solstice DiskSuite ソフトウェア (Solaris 8) をインストールするか、Solaris ボリュームマネージャ ソフトウェア (Solaris 9) を構成する場合は、このファイルシステムを /sds にマウントする必要があります。

      • 「システムディスクパーティション」 の説明どおり、他の必要なファイルシステムパーティションを作成してください。


        注 –

        Sun Cluster HA for NFS または Sun Cluster HA for Apache をインストールする場合は、Solstice DiskSuite ソフトウェア (Solaris 8) をインストールするか、Solaris ボリュームマネージャ ソフトウェア (Solaris 9) を構成する必要があります。


    3. 管理しやすくするために、すべてのノード上で同じ root パスワードを設定します。

  7. 既存のクラスタにノードを追加する場合は、新しいノードを受け入れるようにクラスタを準備します。

    1. アクティブなクラスタメンバーで、scsetup(1M) ユーティリティーを開始します。


      # scsetup
      

      メインメニューが表示されます。

    2. メニュー項目から「New nodes」を選択します。

    3. メニューから「追加されるマシンの名前を指定」を選択します。

    4. プロンプトに従って、ノードの名前を認識されているマシンのリストに追加します。

      scsetup ユーティリティーは、作業がエラーなしで完了された場合、「コマンドが正常に完了しました」というメッセージを出力します。

    5. scsetup ユーティリティーを終了します。

    6. アクティブなノードから、すべてのクラスタファイルシステムの名前を表示します。


      % mount | grep global | egrep -v node@ | awk '{print $1}'
      

    7. 新しいノード上で、クラスタ内のクラスタファイルシステムごとにマウントポイントを作成します。


      % mkdir -p mountpoint
      

      たとえば、mount コマンドで表示されるファイルシステム名が /global/dg-schost-1 の場合は、クラスタに追加する新しいノードで mkdir -p /global/dg-schost-1 を実行します。

    8. VERITAS Volume Manager (VxVM) が、クラスタ内にあるノードにすでにインストールされているかどうかを確認します。

    9. 既存のクラスタノードに VxVM がインストールされている場合は、 VxVM がインストールされているノード上で同じ vxio 番号が使用されていることを確認します。また、VxVM がインストールされていない各ノード上で vxio 番号が使用できることを確認してください。


      # grep vxio /etc/name_to_major
      vxio NNN
      

      VxVM がインストールされていないノードで、vxio 番号がすでに使用されている場合は、そのノード上の該当番号を解放します。また、/etc/name_to_major エントリは、別の番号に変更してください。

  8. End User Solaris ソフトウェアグループをインストールした場合は、pkgaddコマンドを使用して、使用する可能性がある追加 Solaris ソフトウェアパッケージを手動でインストールします。

    一部の Sun Cluster 機能をサポートするには、次の Solarisパッケージが必要です。

    機能 

    必要な Solaris ソフトウェアパッケージ(インストール順) 

    RSMAPI、RSMRDT ドライバ、または SCI-PCI アダプタ (SPARC ベースのクラスタのみ) 

    SUNWrsm SUNWrsmx SUNWrsmo SUNWrsmox

    SunPlex Manager 

    SUNWapchr SUNWapchu

  9. ハードウェア関連のパッチをインストールします。また、ハードウェアパッチに含まれるファームウェアの中から必要なものをダウンロードします。

    パッチの入手先とインストール方法については、『Sun Cluster 3.1 ご使用にあたって 』の「パッチと必須ファームウェアのレベル」を参照してください。

  10. x86: デフォルトのブートファイルを kadb に設定します。


    # eeprom boot-file=kadb
    

    この値を設定すると、ログインプロンプトにアクセスできないときにノードを再起動できます。

  11. クラスタのすべてのパブリックホスト名と論理アドレスを持つように、各ノードで /etc/inet/hosts ファイルを更新します。

    この手順は、ネームサービスを使用しているかどうかに関わらず実行します。

  12. (省略可能) Sun Enterprise 10000 サーバーで /etc/system ファイルを動的構成を使用するように構成します。

    クラスタの各ノード上の /etc/system ファイルに次のエントリを追加します。


    set kernel_cage_enable=1

    このエントリは、次のシステム再起動後に有効になります。

    Sun Cluster 構成で、動的再構成の作業を実行するための手順については、『Sun Cluster のシステム管理 (Solaris OS 版)』を参照してください。動的再構成の詳細については、サーバーのマニュアルを参照してください。

  13. Sun Cluster ソフトウェアパッケージをインストールします。

    「Sun Cluster ソフトウェアパッケージをインストールする」に進みます。

Sun Cluster ソフトウェアパッケージをインストールする


注 –

管理者に、すべてのクラスタノードに対する スーパーユーザーのリモートシェル (rsh(1M)) またはセキュアシェル (ssh(1) ) アクセスを有効に している場合は、この手順を実行する必要はありません。代わりに、「すべてのノードで Sun Cluster ソフトウェアを構成する (scinstall)」に進んでください。この手順では、scinstall(1M) ユーティリティにより Sun Cluster フレームワークソフトウェアをすべてのクラスタノードに自動的にインストールします。

ただし、フレームワークソフトウェアの他に何らかの Sun Cluster ソフトウェアパッケージをインストールする必要がある場合は、Sun Cluster 3.1 9/04 CD-ROM からこれらのパッケージをインストールします。scinstall(1M) ユーティリティーを起動する前にこの作業を行なってください。pkgadd (1M) コマンドを使用するか、または installer (1M) プログラムを以下の手順で実行して、追加の Sun Cluster ソフトウェアパッケージをインストールできます。


Sun Cluster ソフトウェアパッケージをインストールするには、クラスタのすべてのノードにこの手順を実行します。

  1. Solaris OS がインストールされて、Sun Cluster ソフトウェアをサポートしていることを確認します。

    Solaris ソフトウェアがすでにノード上にインストールされている場合は、Solaris のインストールが Sun Cluster ソフトウェアの必要条件、およびそのクラスタにインストールする予定の他のソフトウェアの必要条件を満たしていることを確認してください。Sun Cluster ソフトウェア必要条件を満たして、Solaris ソフトウェアをインストールするための詳細については、「Solaris ソフトウェアをインストールする」を参照してください。

  2. インストールするクラスタノードでスーパーユーザーになります。

  3. Sun Web Console パッケージをインストールします。

    これらのパッケージは、Sun Web Console を使用しなくても Sun Cluster ソフトウェアに必要です。

    1. CD-ROM ドライブにSun Cluster 3.1 9/04 CD-ROM を挿入します。

    2. /cdrom/cdrom0/Solaris_arch/Product/sun_web_console/2.1/ ディレクトリに変更します。ここで archsparc または x86 です。

    3. setup コマンドを実行します。


      # ./setup
      

      setup コマンドにより、Sun Web Console をサポートするすべてのパッケージがインストールされます。

  4. (省略可能) installer プログラムを GUI 付きで使用するために、DISPLAY 環境変数が設定されていることを確認します。

  5. installer プログラムがある CD-ROM のルートディレクトリに変更します。


    # cd /cdrom/cdrom0/
    

  6. installer プログラムを実行します。


    # ./installer
    

  7. 「通常」または「カスタム」インストールを選択します。

    • Sun Cluster フレームワークソフトウェアパッケージのデフォルトのセットをインストールする場合は、「通常」を選択します。

    • 他の言語、RSMAPI、および SCI-PCI アダプタなどをサポートする追加の Sun Cluster ソフトウェアパッケージをインストールする場合は、「カスタム」を選択します。

  8. 画面の指示に従って、Sun Cluster ソフトウェアをノードにインストールします。

    インストールが完了したら、インストールログを表示できます。

  9. CD-ROM に含まれていないディレクトリに移動し、CD-ROM を取り出します。


    # eject cdrom
    

  10. クラスタノード上で Sun Cluster ソフトウェアを構成します。

すべてのノードで Sun Cluster ソフトウェアを構成する (scinstall)

Sun Cluster ソフトウェアをクラスタのすべてのノードで構成するには、クラスタの 1 つのノードからこの手順を実行します。

  1. Solaris OS がインストールされて、Sun Cluster ソフトウェアをサポートしていることを確認します。

    Solaris ソフトウェアがすでにノード上にインストールされている場合は、Solaris のインストールが Sun Cluster ソフトウェアの必要条件、およびそのクラスタにインストールする予定の他のソフトウェアの必要条件を満たしていることを確認してください。Sun Cluster ソフトウェア必要条件を満たして、Solaris ソフトウェアをインストールするための詳細については、「Solaris ソフトウェアをインストールする」を参照してください。

  2. Sun Cluster ソフトウェアのインストール時にリモート構成を無効にした場合は、リモート構成をもう一度有効にします。

    無効にしている場合は、すべてのクラスタノードに対して スーパーユーザーのリモートシェル (rsh(1M)) またはセキュアシェル (ssh(1) ) アクセスを有効に にします。

  3. (省略可能) scinstall(1M) ユーティリティーを使用してパッチをインストールするには、パッチをパッチディレクトリにダウンロードします。

    「通常」モードを使用してクラスタをインストールする場合は、/var/cluster/patches/ または /var/patches/ のいずれかの名前のディレクトリを使用します。「通常」モードでは、scinstall コマンドはこれらのディレクトリの両方でパッチをチェックします。

    • これらのディレクトリのどちらも存在しない場合は、パッチは追加されません。

    • 両方のディレクトリが存在する場合は、/var/cluster/patches/ ディレクトリのパッチだけが追加されます。

    「カスタム」モードを使用してクラスタをインストールする場合、パッチへのパスを指定するため、「通常」モードで scinstall がチェックするパッチディレクトリを使用する必要はありません。

    パッチリストファイルは、パッチディレクトリに保存できます。デフォルトのパッチリストファイル名は patchlist です。パッチリストファイルの作成方法については、patchadd(1M) のマニュアルページを参照してください。

  4. 次の構成ワークシートの 1 つに必要事項を記入します。

    計画のガイドラインについては、「Sun Cluster 環境の計画」を参照してください。

    表 2–2 対話形式の scinstall の構成ワークシート (通常)

    コンポーネント 

    説明/例 

    回答記入欄 

    クラスタ名 

    確立するクラスタの名前 

     

    クラスタノード 

    初期クラスタ構成で構成するその他のクラスタノードの名前 

     

    クラスタトランスポートアダプタおよびケーブル 

    ノードをプライベートインターコネクトに接続する 2 つのクラスタトランスポートアダプタの名前 

    1

      

    2

      

    チェック 

    sccheck エラー発生時にインストールを中断するかどうか(sccheck が事前構成要件を満たしていることを確認します)

    Yes  |  No 

    「通常」を指定した Sun Cluster ソフトウェアの構成では、scinstall ユーティリティが自動的に以下のデフォルト構成を指定します。

    コンポーネント 

    デフォルト値 

    プライベートネットワークアドレス 

    172.16.0.0

    プライベートネットワークネットマスク 

    255.255.0.0

    クラスタトランスポート接続点 

    switch1 および switch2

    広域デバイスファイルシステム名 

    /globaldevices

    インストールセキュリティ (DES) 

    制限付き 

    Solaris および Sun Cluster パッチディレクトリ 

    /var/cluster/patches/

    表 2–3 対話形式の scinstall の構成ワークシート (カスタム)

    コンポーネント 

    説明/例 

    回答記入欄 

    クラスタ名 

    確立するクラスタの名前 

     

    クラスタノード 

    初期クラスタ構成で構成するその他のクラスタノードの名前 

     

    DES 認証 

    DES 認証が必要かどうか 

    No  |  Yes 

    クラスタトランスポート用ネットワークアドレス 

    デフォルトのネットワークアドレス (172.16.0.0) を使用するかどうか

    Yes   |  No 

    使用しない場合は、独自のネットワークアドレスを指定する 

    _____ ._____.0.0

    デフォルトのネットマスク (255.255.0.0) を使用するかどうか

    Yes   |  No 

    使用しない場合は、独自のネットマスクを指定する 

    255.255.___ .___

    ポイントツーポイントケーブル 

    2 ノードクラスタである場合は、クラスタがトランスポート接続点を使用するかどうか 

    Yes  |  No 

    クラスタトランスポート接続点 

    使用する場合は、2 つのトランスポート接続点の名前を指定する 

      デフォルト値switch1 and switch2


    1

      

    2

      

    クラスタトランスポートアダプタおよびケーブル 

    ノード名 (scinstall を実行するノード):

     

    トランスポートアダプタ: 

    1

      

    2

      

    各トランスポートアダプタの接続場所 (トランスポート接続点または別のアダプタ)

      接続点のデフォルト:switch1 および switch2


      

    トランスポート接続点でデフォルトのポート名を使用するかどうか 

    Yes | No 

    Yes | No 

    使用しない場合は、使用するポートの名前 

      

    自動検出機能を使用してその他のノードで使用可能なアダプタを一覧表示するかどうか 

    この機能を使用しない場合は、各追加ノードに対して次の情報を指定する 

    Yes  |  No 

    各追加ノードで指定 

    ノード名: 

     

    トランスポートアダプタ: 

    1

      

    2

      

    各トランスポートアダプタの接続場所 (トランスポート接続点または別のアダプタ)

      デフォルト値switch1 および switch2


      

    トランスポート接続点でデフォルトのポート名を使用するかどうか 

    Yes | No 

    Yes | No 

    使用しない場合は、使用するポートの名前 

      

    ソフトウェアパッチのインストール 

    scinstall を使用してパッチをインストールするかどうか

    Yes  |  No 

    scinstall を使用する場合は、パッチディレクトリの名前

     

    パッチリストを使用するかどうか 

    Yes  |  No 

    広域デバイスのファイルシステム 

    (各ノードで指定)

    広域デバイスのファイルシステムのデフォルト名 (/globaldevices) を使用するかどうか

    Yes  |  No 

    デフォルト名を使用しない場合は、すでに存在するファイルシステムを使用するかどうか 

    Yes  |  No 

    使用するファイルシステムの名前 

     

    チェック 

    sccheck エラー発生時にインストールを中断するかどうか (sccheck が事前構成要件を満たしていることを確認します)

    Yes  |  No 


    注 –

    scinstall 処理の完了後は、プライベートネットワークアドレスやネットマスクを変更できません。別のプライベートネットワークアドレスやネットマスクを使用する必要があり、ノードがインストールモードのままの場合は、「Sun Cluster ソフトウェアのアンインストールによるインストール問題を解決する」の手順に従います。次に「Sun Cluster ソフトウェアパッケージをインストールする」とこの手順を実行し、ソフトウェアを再インストールして、正しい情報を使用してノードを構成します。


  5. クラスタを構成するクラスタノードでスーパーユーザーになります。

  6. 以下の機能を使用する場合は、追加パッケージをインストールします。

    • Remote Shared Memory Application Programming Interface (RSMAPI)

    • インターコネクトトランスポート用の SCI-PCI アダプタ

    • RSMRDT ドライバ


    注 –

    RSMRDT ドライバを使用できるのは、Oracle9i リリース 2 SCI 構成を RSM を有効にして実行しているクラスタだけです。インストールと構成手順についての詳細は、Oracle9i リリース 2 のユーザーマニュアルを参照してください。


    1. インストールするパッケージを決めます。

      下の表は、各機能で必要な Sun Cluster 3.1 9/04 パッケージとそれぞれの機能にグループをインストールする順序を示しています。installer プログラムはこれらのパッケージを自動的にはインストールしません。

      機能 

      インストールする追加の Sun Cluster 3.1 9/04 パッケージ 

      RSMAPI 

      SUNWscrif

      SCI-PCI アダプタ 

      SUNWsci SUNWscid SUNWscidx

      RSMRDT ドライバ 

      SUNWscrdt

    2. 関連する Solaris パッケージが既にインストールされていることを確認します。

      「Solaris ソフトウェアをインストールする」手順 8 を参照してください。

    3. Sun Cluster 3.1 9/04 CD-ROM を CD-ROM ドライブに入れます。

    4. Solaris_arch/Product/sun_cluster/Solaris_ver/Packages/ ディレクトリに変更します。ここでは archsparc または x86 で、ver8 (Solaris 8 の場合) または 9 (Solaris 9 の場合) となります。


      # cd /cdrom/cdrom0/Solaris_arch/Product/sun_cluster/Solaris_ver/Packages/
      

    5. 追加のパッケージをインストールします。


      # pkgadd -d . packages
      

    6. CD-ROM に含まれていないディレクトリに移動し、CD-ROM を取り出します。


      # eject cdrom
      

    7. クラスタ内のそれぞれの追加ノードで手順を繰り返します。

  7. 1 つのノードで scinstall ユーティリティーを開始します。


    # /usr/cluster/bin/scinstall
    

  8. 対話形式の scinstall ユーティリティーを使用するときは、次のガイドラインに従ってください。

    • 対話式 scinstall を使用すると、先行入力が可能になります。したがって、次のメニュー画面がすぐに表示されなくても、Return キーを押すのは一度だけにしてください。

    • 特に指定のある場合を除いて、Control-D キーを押すと、関連する一連の質問の最初に戻るか、メインメニューに戻ります。

    • 前のセッションのデフォルトの解凍が、質問の最後に角かっこ ([ ]) で囲まれて表示されます。入力せずに角かっこ内の回答を入力するには、Return キーを押します。

  9. 「メインメニュー」から「クラスタまたはクラスタノードをインストール」という項目を選択します。


     *** メインメニュー ***
    
        次の (*) オプションのうちから 1 つを選択してください:
    
          * 1) クラスタまたはクラスタノードをインストール
            2) このインストールサーバーから JumpStart できるようにクラスタを構成
            3) 新しいデータサービスのサポートをこのクラスタノードに追加
          * 4) このクラスタノードのリリース情報を出力
          * ?) メニューオプションのヘルプ
          * q) 終了
    
        オプション:  1
    

  10. 「インストールメニュー」から「新しいクラスタのすべてのノードをインストール」という項目を選択します。

  11. 「インストールのタイプ」メニューから「通常」または「カスタム」を選択します。

  12. メニュープロンプトに従って 手順 4 で作成したワークシートから回答を入力します。

    scinstall ユーティリティーは、すべてのクラスタノードのインストールを行い、クラスタを再起動します。クラスタ内ですべてのノードが正常に起動されると、クラスタが確立されます。Sun Cluster のインストール出力は、/var/cluster/logs/install/scinstall.log.N に記録されます。

  13. Sun StorEdge QFS ファイルシステムソフトウェアをインストールします。

    初期インストールについては、『Sun StorEdge QFS and Sun StorEdge SAM-FS Software Installation and Configuration Guide』の手順に従ってください。

  14. (省略可能) SPARC: VERITAS File System をインストールするには、「SPARC: VERITAS File System ソフトウェアをインストールする」 に進みます。

  15. ネームサービスの参照順序を設定します。

    「ネームサービススイッチを構成する」 に進みます。

例 – すべてのノードでの Sun Cluster ソフトウェアの構成

ここでは、scinstall を使用して 2 ノードクラスタで構成作業を完了したときに、ログに記録される scinstall 進行状況メッセージの例を示します。クラスタノード名は、phys-schost-1phys-schost-2 です。指定されたアダプタ名は、qfe2hme2 です。


  インストールと構成

    ログファイル- /var/cluster/logs/install/scinstall.log.834

    「/globaldevices」用のテストを「phys-schost-1」上で実行しています... done
    「/globaldevices」用のテストを「phys-schost-2」上で実行しています... done

    インストール状態を検査しています... done

    Sun Cluster ソフトウエアは「phys-schost-1」に既にインストールされています。
    Sun Cluster ソフトウエアは「phys-schost-2」に既にインストールされています。

    クラスタトランスポート構成の検出を開始します。

    次の接続が見つかりました:

        phys-schost-1:qfe2 switch1 phys-schost-2:qfe2
        phys-schost-1:hme2 switch2 phys-schost-2:hme2

    クラスタトランスポート構成の検出を終了しました。

    sccheck を「phys-schost-1」上で開始しました。
    sccheck を「phys-schost-2」上で開始しました。

    sccheck が終了しました。「phys-schost-1」にエラーまたは警告はありません。
    sccheck が終了しました。「phys-schost-2」にエラーまたは警告はありません。

    「phys-schost-2」を構成しています... done
    「phys-schost-2」を再起動しています... done

    「phys-schost-1」を構成しています... done
    「phys-schost-1」を再起動しています...

ログファイル- /var/cluster/logs/install/scinstall.log.834

リブートしています...

SunPlex Installer により Sun Cluster ソフトウェアをインストールする


注 –

既存のクラスタに新しいノードを追加するには、代わりに「追加のクラスタノードとして Sun Cluster ソフトウェアを構成する (scinstall)」の手順に従ってください。


この節では、SunPlex Manager ソフトウェアのインストール方法について説明します。この節では、SunPlex Manager のインストールモジュールである SunPlex Installer を使用して Sun Cluster ソフトウェアをインストールして、新しいクラスタノードを確立する方法についても説明します。SunPlex Installer は、以下の追加ソフトウェア製品をインストールまたは構成する場合にも使用できます。

インストール必要条件

次に、SunPlex Installer を使用してこれらの追加ソフトウェア製品をインストールするための必要条件を示します。

表 2–4 SunPlex Installer によるソフトウェアインストールの要件

ソフトウェアパッケージ 

インストール必要条件 

Solstice DiskSuite または Solaris Volume Manager 

/sds をマウントポイント名として使用するパーティション。少なくとも 20 M バイトのパーティションが必要

Sun Cluster HA for NFS データサービス 

  • 同じノードセットに接続された、サイズが同じである 2 台以上の共有ディスク

  • SunPlex Installer によってインストールされた Solstice DiskSuite ソフトウェア、または構成された Solaris ボリュームマネージャ ソフトウェア

  • Sun Cluster HA for NFS が使用する論理ホスト名。この論理ホスト名の IP アドレスは、すべてのクラスタノードからアクセスできる必要があります。IP アドレスは、クラスタノードのベースホスト名と同じサブネット上に存在するアドレスでなければなりません。

  • クラスタの各ノード用のテスト IP アドレス。SunPlex Installer は、テスト IP アドレスを使用して、Sun Cluster HA for NFS が使用する IP ネットワークマルチパス (Internet Protocol Network Multipathing) グループを作成します。

Sun Cluster HA for Apache スケーラブルデータサービス 

  • 同じノードセットに接続された、サイズが同じである 2 台以上の共有ディスク

  • SunPlex Installer によってインストールされた Solstice DiskSuite ソフトウェア、または構成された Solaris ボリュームマネージャ ソフトウェア

  • Sun Cluster HA for Apache が使用する共有アドレス。この共有アドレスの IP アドレスは、すべてのクラスタノードからアクセスできる必要があります。IP アドレスは、クラスタノードのベースホスト名と同じサブネット上に存在するアドレスでなければなりません。

  • クラスタの各ノード用のテスト IP アドレス。SunPlex Installer は、テスト IP アドレスを使用して、Sun Cluster HA for Apache が使用する IP ネットワークマルチパス (Internet Protocol Network Multipathing) グループを作成します。

テスト IP アドレス

指定したテスト IP アドレスは、以下の必要条件を満たす必要があります。

次の表に、SunPlex Installer が作成する各メタセット名とクラスタファイルシステムのマウントポイントのリストを示します。SunPlex Installer が作成するメタセットおよびマウントポイントの数は、そのノードに接続される共有ディスクの数で異なります。たとえば、ノードが 4 台の共有ディスクに接続されている場合、SunPlex Installer は mirror-1mirror-2 メタセットを作成します。ただし、SunPlex Installer は、mirror-3 メタセットは作成しません。これは、このノードに 3 つ目のメタセットを作成するだけの十分な共有ディスクが存在しないためです。

表 2–5 SunPlex Installer がインストールするメタセット

共有ディスク 

メタセット名 

クラスタファイルシステムマウントポイント 

目的 

1 番目のペア 

mirror-1

/global/mirror-1

Sun Cluster HA for NFS または Sun Cluster HA for Apache スケーラブルデータサービス、あるいはこの両方 

2 番目のペア 

mirror-2

/global/mirror-2

未使用 

3 番目のペア 

mirror-3

/global/mirror-3

未使用 


注 –

クラスタが共有ディスクの最低必要条件を満たさなくても、SunPlex Installer は Solstice DiskSuite パッケージをインストールします。ただし、十分な共有ディスクが存在しない状態では、SunPlex Installer はメタセット、メタデバイス、またはボリュームを構成できません。さらに、SunPlex Installer は、データサービスのインスタンスを作成するのに必要なクラスタファイルシステムを構成することができません。


文字セットの制限

セキュリティを高めるために、SunPlex Installer は制限された文字セットを認識します。この文字セットに属していない文字は、HTML フォームが SunPlex Installer サーバーに送信されたときに無視されます。SunPlex Installer では、次の文字を使用できます。


()+,-./0-9:=@A-Z^_a-z{|}~

このフィルタ機能によって、以下の問題が生じる可能性があります。

SunPlex Manager ソフトウェアをインストールする

ここでは、クラスタに SunPlex Manager ソフトウェアをインストールする手順について説明します。

この手順はクラスタの各ノード上で行ってください。

  1. クラスタの各ノードに Solaris ソフトウェアとパッチがインストールされていることを確認します。

    Solaris ソフトウェアのインストールは、 「Solaris ソフトウェアをインストールする」 で説明されているとおりに行う必要があります。Solaris ソフトウェアがすでにノードにインストールされている場合は、Solaris のインストールが Sun Cluster ソフトウェアの必要条件を満たしていることを確認してください。また、そのクラスタにインストールする予定の他のソフトウェアの必要条件も満たしている必要があります。

  2. 「SunPlex Installer により Sun Cluster ソフトウェアをインストールする」の必要条件とガイドラインを見直してください。

  3. x86: 管理コンソールで Netscape NavigatorTM ブラウザと Microsoft Internet Explorer ブラウザのどちらを使用するかを決定します。

    • Netscape Navigator を使用する場合は、手順 4に進みます。

    • Internet Explorer を使用する場合は、手順 5に進みます。

  4. x86: Java プラグインがインストールされ、管理コンソール上で動作しているのを確認します。

    1. クラスタへの接続に使用する管理コンソール上で Netscape Navigator ブラウザを起動します。

    2. 「ヘルプ」メニューから「プラグインについて」を選択します。

    3. Java プラグインを一覧表示するかどうかを決定します。

      • 一覧表示する場合は、手順 6 に進みます。

      • 一覧表示しない場合は、手順 d に進みます。

    4. 最新の Java プラグインを http://java.sun.com/products/plugin からダウンロードします。

    5. 管理コンソールにプラグインをインストールします。

    6. プラグインに対するシンボリックリンクを作成します。


      % cd ~/.netscape/plugins/
      % ln -s /usr/j2se/plugin/i386/ns4/javaplugin.so .
      

    7. 手順 6 に進みます。

  5. x86: Java 2 Platform, Standard Edition (J2SE) for Windows がインストールされ、管理コンソール上で動作していることを確認します。

    1. Microsoft Windows デスクトップで、「スタート」をクリックし、「設定」にカーソルを置き、「コントロールパネル」を選択します。

      「コントロールパネル」ウィンドウが表示されます。

    2. Java プラグインを一覧表示するかどうかを決定します。

      • 一覧表示しない場合は、手順 c に進みます。

      • 一覧表示する場合は、Java Plug-in のコントロールパネルをダブルクリックします。「コントロールパネル」ウィンドウが開きますので、「Java Plugin について」タブをクリックします。

        • バージョン 1.4.1 以降が表示された場合は、手順 6 に進みます。

        • 最新バージョンが表示された場合は、手順 c に進みます。

    3. J2SE for Windows の最新バージョンを http://java.sun.com/j2se/downloads.html からダウンロードします。

    4. J2SE for Windows ソフトウェアを管理コンソールにインストールします。

    5. 管理コンソールが実行されているシステムを再起動します。

      J2SE for Windows のコントロールパネルが起動されます。

  6. クラスタノードのスーパーユーザーになります。

  7. Apache ソフトウェアパッケージがノードにインストールされていることを確認します。


    # pkginfo SUNWapchr SUNWapchu SUNWapchd
    

    必要であれば、次の手順を実行して、不足している Apache ソフトウェアパッケージをインストールします。

    1. ノードの CD-ROM ドライブに Solaris 8 または Solaris 9 Software 2 of 2 CD-ROM を挿入します。

      ボリューム管理デーモンの vold(1M) が実行中で、CD-ROM デバイスを管理するように構成されている場合、デーモンによって自動的に CD-ROM が /cdrom/cdrom0/ ディレクトリにマウントされます。

    2. Product/ ディレクトリに移動します。

      • Solaris 8 の場合は、/cdrom/sol_8_sparc/Solaris_8/Product/ ディレクトリに移動します。


        # cd /cdrom/sol_8_sparc/Solaris_8/Product/
        

      • Solaris 9 の場合は、 /cdrom/cdrom0/Solaris_9/Product/ ディレクトリに移動します。


        # cd /cdrom/cdrom0/Solaris_9/Product/
        

    3. Apache ソフトウェアパッケージをこの手順の順番でインストールします。


      # pkgadd -d . SUNWapchr SUNWapchu SUNWapchd
      

    4. CD-ROM に含まれていないディレクトリに移動し、CD-ROM を取り出します。


      # eject cdrom
      

    5. Apache ソフトウェアパッチをインストールします。

      パッチの入手先とインストール方法については、『Sun Cluster 3.1 ご使用にあたって 』の「パッチと必須ファームウェアのレベル」を参照してください。

  8. まだインストールされていない場合、Java Dynamic Management Kit (JDMK) パッケージをインストールします。

    これらのパッケージは Sun Cluster ソフトウェアに必要です。

    1. Sun Cluster 3.1 9/04 CD-ROM を挿入します。

    2. Solaris_arch/Product/sun_cluster/Solaris_ver/Packages/ ディレクトリに変更します。ここでは archsparc または x86 で、ver8 (Solaris 8 の場合) または 9 (Solaris 9 の場合) となります。


      phys-schost-1# cd Solaris_arch/Product/sun_cluster/Solaris_ver/Packages/
      

    3. JDMK パッケージを挿入します。


      phys-schost-1# pkgadd -d . SUNWjdmk*
      

    4. CD-ROM に含まれていないディレクトリに移動し、CD-ROM を取り出します。


      # eject cdrom
      

  9. まだインストールされていない場合は、共通エージェントコンテナ のセキュリティファイルをインストールします。

    以下の手順を実行して、共通エージェントコンテナセキュリティファイルがすべてのクラスタノード上で同一になり、コピーされたファイルに正しいファイル許可があるようにします。これらのファイルは Sun Cluster ソフトウェアに必要です。

    1. すべてのクラスタノード上で、共通エージェントコンテナのセキュリティファイルエージェントを停止します。


      # /opt/SUNWcacao/bin/cacaoadm stop
      

    2. クラスタの 1 つのノード上で、Sun Cluster 3.1 9/04 CD-ROM を入れます。

    3. Solaris_arch/Product/sun_cluster/Solaris_ver/Packages/ ディレクトリに変更します。ここでは archsparc または x86 で、ver8 (Solaris 8 の場合) または 9 (Solaris 9 の場合) となります。


      phys-schost-1# cd Solaris_arch/Product/sun_cluster/Solaris_ver/Packages/
      

    4. 共通エージェントコンテナパッケージをインストールします。


      phys-schost-1# pkgadd -d . SUNWcacao*
      

    5. CD-ROM に含まれていないディレクトリに移動し、CD-ROM を取り出します。


      # eject cdrom
      

    6. ディレクトリを /etc/opt/SUNWcacao/ ディレクトリに変更します。


      phys-schost-1# cd /etc/opt/SUNWcacao/
      

    7. /etc/opt/SUNWcacao/security ディレクトリの tarfile を作成します。


      phys-schost-1# tar cf /tmp/SECURITY.tar security
      

    8. /tmp/SECURITY.tar ファイルを他のクラスタノードのそれぞれにコピーします。

    9. /tmp/SECURITY.tar ファイルをコピーした各ノード上で、セキュリティファイルを解凍します。

      /etc/opt/SUNWcacao/ ディレクトリに既にセキュリティファイルがある場合は、すべて上書きされます。


      phys-schost-2# cd /etc/opt/SUNWcacao/
      phys-schost-2# tar xf /tmp/SECURITY.tar
      

    10. クラスタ内の各ノードから /tmp/SECURITY.tar ファイルを削除します。

      セキュリティのリスクを避けるために tarfile の各コピーを削除する必要があります。


      phys-schost-1# rm /tmp/SECURITY.tar
      phys-schost-2# rm /tmp/SECURITY.tar
      

    11. すべてのノードで、セキュリティファイルエージェントを再起動します。


      phys-schost-1# /opt/SUNWcacao/bin/cacaoadm start
      

  10. Sun Web Console パッケージをインストールします。

    これらのパッケージは、Sun Web Console を使用しなくても Sun Cluster ソフトウェアに必要です。

    1. CD-ROM ドライブにSun Cluster 3.1 9/04 CD-ROM を挿入します。

    2. /cdrom/cdrom0/Solaris_arch/Product/sun_web_console/2.1/ ディレクトリに変更します。ここで archsparc または x86 です。

    3. setup コマンドを実行します。


      # ./setup
      

      setup コマンドにより、Sun Web Console をサポートするすべてのパッケージがインストールされます。

  11. SunPlex Manager ソフトウェアパッケージをインストールします。

    1. Sun Cluster 3.1 9/04 CD-ROM を CD-ROM ドライブに入れます。

    2. Solaris_arch/Product/sun_cluster/Solaris_ver/Packages/ ディレクトリに変更します。ここでは archsparc または x86 で、ver8 (Solaris 8 の場合) または 9 (Solaris 9 の場合) となります。


      # cd /cdrom/cdrom0/Solaris_arch/Product/sun_cluster/Solaris_ver/Packages/
      

    3. SunPlex Manager ソフトウェアパッケージをインストールします。


      # pkgadd -d . SUNWscva SUNWscspm SUNWscspmu SUNWscspmr
      

    4. CD-ROM に含まれていないディレクトリに移動し、CD-ROM を取り出します。


      # eject cdrom
      

  12. SunPlex Installer を使用して、Sun Cluster ソフトウェアをインストールして構成します。

    「Sun Cluster ソフトウェア (SunPlex Installer) をインストールして構成する」に進みます。

Sun Cluster ソフトウェア (SunPlex Installer) をインストールして構成する


注 –

既存のクラスタに新しいノードを追加するには、代わりに「追加のクラスタノードとして Sun Cluster ソフトウェアを構成する (scinstall)」の手順に従ってください。


SunPlex Installer を使用して Sun Cluster ソフトウェアとパッチを 1 回の操作でクラスタ内のすべてのノードにインストールし、構成するには、次の手順を実行してください。この手順は、Solstice DiskSuite ソフトウェアとパッチのインストール (Solaris 8)、または Solaris ボリュームマネージャ ミラーディスクセットの構成 (Solaris 9) にも使用できます。

SunPlex Installer を使用して Solstice DiskSuite ソフトウェアのインストール、または Solaris ボリュームマネージャ ディスクセットの構成を行う場合は、以下のデータサービスの 1 つまたは両方をインストールできます。

インストール処理には、30 分から 2 時間以上かかる場合があります。実際に要する時間は、クラスタノードの数、インストールするデータサービスの種類、クラスタ構成内のディスクの数により異なります。

  1. SunPlex Installer を使用してソフトウェアをインストールするための必要条件にクラスタ構成が適合していることを確認します。

    インストールの必要条件と制限については、「SunPlex Installer により Sun Cluster ソフトウェアをインストールする」 を参照してください。

  2. クラスタのすべてのノードで root パスワードが同じであることを確認します。

    root パスワードを使用して SunPlex Installer または SunPlex Manager にアクセスするためには、クラスタ内のすべてのノードで root パスワードが同じでなければなりません。

    root パスワードが他のノードと異なるノードがある場合は、クラスタ内のすべてのノードで同じ値になるように、root パスワードを設定してください。必要に応じ、chkey を使用して RPC 鍵ペアを更新してください。chkey(1) のマニュアルページを参照してください。


    # passwd
    Enter new password
    # chkey -p
    

  3. Sun Cluster HA for NFS または Sun Cluster HA for Apache をインストールする場合は、クラスタ構成が該当するすべての要件を満たしているかどうかを確認してください。

    「SunPlex Installer により Sun Cluster ソフトウェアをインストールする」 を参照してください。

  4. クラスタの各ノードに SunPlex Manager ソフトウェアがインストールされていることを確認します。

    インストール手順については、「SunPlex Manager ソフトウェアをインストールする」を参照してください。

  5. インストールする各ソフトウェア製品の CD-ROM イメージへのファイルシステムパスを用意します。

    ファイルシステムパスを用意する場合は、次のガイドラインに従ってください。

    • 各ノードが使用できる場所に各 CD-ROM イメージを用意します。

    • CD-ROM イメージは、クラスタのすべてのノードから同じファイルシステムパスを使用してアクセスできなければなりません。これらのパスとして、以下に示す場所のいずれかを指定できます。

      • クラスタの外部に存在するマシンからネットワークにエクスポートされた CD-ROM ドライブ

      • クラスタの外部に存在するマシン上のエクスポートされたファイルシステム

      • クラスタの各ノード上のローカルファイルシステムにコピーされた CD-ROM イメージローカルファイルシステムの名前は、すべてのノードで同じにする必要があります。

  6. 以下の機能を使用する場合は、追加パッケージをインストールします。

    • Remote Shared Memory Application Programming Interface (RSMAPI)

    • インターコネクトトランスポート用の SCI-PCI アダプタ

    • RSMRDT ドライバ


    注 –

    RSMRDT ドライバを使用できるのは、Oracle9i リリース 2 SCI 構成を RSM を有効にして実行しているクラスタだけです。インストールと構成手順についての詳細は、Oracle9i リリース 2 のユーザーマニュアルを参照してください。


    1. インストールが必要なパッケージを決定します。

      各機能に必要な Sun Cluster 3.1 9/04 パッケージとパッケージの各グループのインストール順序を次の表に示します。SunPlex Installerは自動的にはこれらのパッケージをインストールしません。

      機能 

      インストールする追加の Sun Cluster 3.1 9/04 パッケージ 

      RSMAPI 

      SUNWscrif

      SCI-PCI アダプタ 

      SUNWsci SUNWscid SUNWscidx

      RSMRDT ドライブ 

      SUNWscrdt

    2. 関連する Solaris パッケージがすでにインストールされていることを確認します。

      「Solaris ソフトウェアをインストールする」手順 8 を参照してください。

    3. Sun Cluster 3.1 9/04 CD-ROM を CD-ROM ドライブに入れます。

    4. Solaris_arch/Product/sun_cluster/Solaris_ver/Packages/ ディレクトリに変更します。ここでは archsparc または x86 で、ver8 (Solaris 8 の場合) または 9 (Solaris 9 の場合) となります。


      # cd /cdrom/cdrom0/Solaris_arch/Product/sun_cluster/Solaris_ver/Packages/
      

    5. 追加のパッケージをインストールします。


      # pkgadd -d . packages
      

    6. CD-ROM に含まれていないディレクトリに移動し、CD-ROM を取り出します。


      # eject cdrom
      

    7. クラスタ内のそれぞれの追加ノードで手順を繰り返します。

  7. Sun Cluster または Solstice DiskSuite のサポートに必要なパッチがある場合、これらのパッチをインストールする方法を決めます。

    • これらのパッチを手動でインストールする場合は、SunPlex Installer を使用する前に pkgadd コマンドを使用します。

    • SunPlex Installer を使用してこれらのパッチをインストールする場合は、パッチを 1 つのディレクトリにコピーします。

      パッチディレクトリが以下の必要条件を満たすことを確認してください。

      • パッチディレクトリが各ノードで使用できるファイルシステムにあること。

      • このディレクトリには、各パッチのバージョンを 1 つだけコピーするようにしてください。

        パッチディレクトリに同じパッチのバージョンが複数存在すると、SunPlex Installer はパッチの依存性順位を正しく判断できなくなります。

      • パッチファイルは解凍されています。

  8. 次の インストールワークシートに必要事項を記入します。

    表 2–6 SunPlex Installer インストールと構成のワークシート

    コンポーネント 

    説明/例 

    回答記入欄 

    クラスタ名 

    確立するクラスタの名前 

     

    クラスタに インストールするノード数 

     

    ノード名 

    クラスタノードの名前 

     

    クラスタトランスポートアダプタおよびケーブル 

    使用する 2 つのトランスポートアダプタの名前 (1 ノードにつき 2 アダプタ) 

     

    Solstice DiskSuite または Solaris ボリュームマネージャ 

    • Solaris 8:Solstice DiskSuite をインストールするかどうか

    • Solaris 9:Solaris ボリュームマネージャ を構成するかどうか

    Yes  |  No 

    Sun Cluster HA for NFS 

    Solstice DiskSuite または Solaris ボリュームマネージャ が必要かどうか

    Sun Cluster HA for NFS をインストールするかどうか 

    インストールする場合は、次の項目を指定します。 

    Yes  |  No 

    データサービスが使用する論理ホスト名 

     

    使用するテスト IP アドレス 

    クラスタ内のすべてのノードにテスト IP アドレスを提供するかどうか

     

    Sun Cluster HA for Apache (拡張可能) 

    Solstice DiskSuite または Solaris ボリュームマネージャ が必要かどうか

    拡張可能な Sun Cluster HA for Apache をインストールするかどうか 

    インストールする場合は、次の項目を指定します。 

    Yes  |  No 

    データサービスが使用する論理ホスト名 

     

    使用するテスト IP アドレス 

    クラスタ内のすべてのノードにテスト IP アドレスを提供するかどうか

     

    CD-ROM のパス 

    インストールする次の各コンポーネントのパス 

    CD-ROM のパスは、.cdtoc ファイルを含むディレクトリで終わる必要がある。

     

    Solstice DiskSuite: 

    Sun Cluster (フレームワーク): 

    Sun Cluster データサービス (エージェント): 

    パッチ: 

    妥当性チェック 

    sccheck ユーティリティーを実行して、クラスタの妥当性を確認するかどうか

    Yes  |  No 


    注 –

    SunPlex Installer インストールでは、デフォルトプライベートネットワークアドレス (172.16.0.0) および ネットマスク (255.255.0.0) が自動的に指定されます。別のアドレスを使用する必要がある場合は、Sun Cluster ソフトウェアのインストールに SunPlex Installer を使用しないでください。代わりに「Sun Cluster ソフトウェアパッケージをインストールする」「すべてのノードで Sun Cluster ソフトウェアを構成する (scinstall)」の手順に従って、クラスタをインストールおよび構成してください。

    scinstall の処理が終了した後で、プライベートネットワークアドレスとネットマスクを変更することはできません。別のプライベートネットワークアドレスやネットマスクを使用する必要があり、 ノードがインストールモードのままの場合は、「Sun Cluster ソフトウェアのアンインストールによるインストール問題を解決する」の手順に従います。次にこの手順を繰り返して、正しい情報でノードのインストールと構成を行います。


    計画のガイドラインについては、「Solaris OS の計画」「Sun Cluster 環境の計画」 を参照してください。データサービスの計画ガイドラインについては、『Sun Cluster データサービスの計画と管理 (Solaris OS 版)』を参照してください。

  9. SunPlex Installer を起動します。

    1. 管理コンソール、またはクラスタの外部に存在する他のマシンから、ブラウザを起動します。

    2. ブラウザの Web プロキシを無効にします。

      SunPlex Installer のインストール機能は、Web プロキシと互換性がありません。

    3. ディスクキャッシュとメモリーキャッシュが有効になっていることを確認します。

      ディスクキャッシュとメモリーキャッシュのサイズは、0 より大きくなくてはなりません。

    4. ブラウザから、任意のクラスタノードのポート 3000 に接続します。


      https://node:3000
      

      ブラウザのウィンドウに「Sun Cluster のインストール」画面が表示されます。


      注 –

      「Sun Cluster のインストール」画面ではなく、SunPlex Installer によりデータサービスのインストール画面が表示される場合は、Sun Cluster フレームワークソフトウェアがそのノードですでにインストールされて構成されています。URL 内のノード名がインストール対象のクラスタノードの名前と一致していることを確認してください。


    5. ブラウザに「新しいサイトの証明書」ウィンドウが表示された場合は、画面上の指示に従ってください。

  10. スーパーユーザーとしてログインします。

  11. 「Sun Cluster のインストール」画面で、SunPlex Installer を使用するための要件をクラスタが満たしていることを確認します。

    示されている必要条件をすべて満たしている場合は、「次へ」をクリックして次の画面に進みます。

  12. メニュープロンプトに従って 手順 8 で作成したワークシートから回答を入力します。

  13. 「インストールを開始」をクリックしてインストール処理を開始します。

    次のガイドラインに従ってください。

    • インストール処理中は、ブラウザウィンドウを閉じたり URL を変更しないでください。

    • ブラウザに「新しいサイトの証明書」ウィンドウが表示された場合は、画面上の指示に従ってください。

    • ブラウザにログイン情報のプロンプトが表示された場合は、接続先ノードの該当するスーパーユーザー ID とパスワードを入力してください。

    SunPlex Installer は、引き続きすべてのクラスタノードのインストールと構成を行い、クラスタを再起動します。クラスタ内ですべてのノードが正常に起動されると、クラスタが確立されます。Sun Clusterのインストール出力は、/var/cluster/logs/install/scinstall.log.N に記録されます。

    インストールが進行している間、クラスタインストール処理の状況を示す簡単なメッセージが画面に表示されます。インストールと構成が完了した時点で、ブラウザにクラスタ監視 / 管理用の GUI が表示されます。

    SunPlex Installer インストールの出力は、/var/cluster/spm/messages ファイルに記録されます。Sun Cluster のインストール出力は、 /var/cluster/logs/install/scinstall.log.N に記録されます。

  14. SunPlex Installer で必要に応じて、定足数の割り当ての確認と、その割り当ての変更を行います。

    3 つ以上のノードを持つクラスタの場合、共有定足数デバイスの使用は任意です。SunPlex Installer による定足数デバイスへの定足数投票の割り当ては、適切な共有ディスクが利用可能かどうかに基づいて行われます。ユーザーは、SunPlexManager を使用して定足数デバイスを指定することも、クラスタ内の定足数投票数を割り当てなおすこともできます。詳細は、Sun Cluster のシステム管理 (Solaris 版)の「定足数の管理」を参照してください。

  15. Sun StorEdge QFS ファイルシステムソフトウェアをインストールします。

    初期インストールについては、『Sun StorEdge QFS and Sun StorEdge SAM-FS Software Installation and Configuration Guide』の手順に従ってください。

  16. (省略可能) SPARC: VERITAS File System をインストールするには、「SPARC: VERITAS File System ソフトウェアをインストールする」 に進みます。

  17. ネームサービス検索順を設定します。

    「ネームサービススイッチを構成する」 に進みます。

Solaris と Sun Cluster ソフトウェアをインストールする (JumpStart)

この節では、カスタム JumpStart によるインストール方法であるscinstall(1M) の設定と使用について説明します。この方法は、Solaris OS と Sun Cluster ソフトウェアの両方を同じ操作ですべてのクラスタノードにインストールし、クラスタを動作可能にします。この手順は、新しいノードを既存のクラスタに追加するときにも使用できます。

  1. Solaris ソフトウェアをインストールする前に、ハードウェアの設定が完了していることと、接続が完全であることを確認します。

    ハードウェアの設定の詳細については、『Sun Cluster Hardware Administration Collection』およびサーバーと記憶装置のマニュアルを参照してください。

  2. クラスタ構成の計画が完了していることを確認します。

    必要条件とガイドラインについては、「クラスタソフトウェアのインストールの準備をする」 を参照してください。

  3. ネームサービスを使用している場合、クライアントがクラスタサービスにアクセスするために使用する任意のネームサービスに、次の情報を追加します。

    • すべての公開ホスト名と論理アドレスのアドレスと名前の対応付け

    • JumpStart サーバーの IP アドレスとホスト名

    計画のガイドラインについては、「IP アドレス」を参照してください。Solaris ネームサービスの使用については、Solaris システム管理者用のマニュアルを参照してください。

  4. 既存のクラスタに新しいノードをインストールする場合、ノードを許可クラスタノードのリストに追加します。

    1. 別のアクティブなクラスタノードから scsetup(1M) を実行します。

    2. scsetup ユーティリティーを使用して、新しいノードの名前を許可クラスタノードのリストに追加します。

    詳細については、Sun Cluster のシステム管理 (Solaris OS 版)』の「クラスタノードの追加と削除」の「ノードを認証ノードリストに追加する」を参照してください。

  5. JumpStart インストールサーバーを設定します。

    • ご使用のソフトウェアプラットフォームに該当する手順に従ってください。

      Solaris OS のプラットフォーム 

      手順 

      SPARC 

      JumpStart インストールサーバーの設定方法については、Solaris 8 のインストール (上級編)』の「ネットワーク上のシステム用のプロファイルサーバーの作成」またはSolaris 9 インストールガイドの「ネットワーク上のシステム用のプロファイルサーバーの作成」を参照してください。

      また、setup_install_server(1M) および add_install_client(1M) のマニュアルページも参照してください。

      x86 

      PXE インストールのための JumpStart DHCP サーバーと Solaris ネットワークの設定方法については、Sun Fire V60x and Sun Fire V65x Server Solaris Operating Environment Installation Guideの「Solaris9 Software Installation From a PXE Server」を参照してください。

    • JumpStart インストールサーバーが次の条件に適合していることを確認します。

      • インストールサーバーはクラスタノードと同じサブネット上にあること

      • インストールサーバー自体はクラスタノードでないこと

      • インストールサーバーによって、Sun Cluster ソフトウェアがサポートする Solaris OS のリリースがインストールされていること

      • Sun Cluster ソフトウェアの JumpStart インストール用のカスタム JumpStart ディレクトリが存在すること。この jumpstart-dir ディレクトリには、check(1M) ユーティリティーのコピーが含まれている必要があります。ディレクトリは、JumpStart インストールサーバーが読み取れるように NFS でエクスポートされている必要があります。

      • 各新規クラスタノードが、Sun Cluster のインストール用のカスタム JumpStart ディレクトリ設定を使用する、カスタム JumpStart インストールクライアントとして構成されていること

  6. クラスタノードまたは同じサーバープラットフォームの別のマシン上で、Solaris OS および Sun Web Console ソフトウェアのフラッシュアーカイブを準備します。

    1. 「Solaris ソフトウェアをインストールする」の記載に従って、Solaris OS をインストールします。

    2. CD-ROM ドライブにSun Cluster 3.1 9/04 CD-ROM を挿入します。

    3. /cdrom/cdrom0/Solaris_arch/Product/sun_web_console/2.1/ ディレクトリに変更します。ここで archsparc または x86 です。

    4. setup コマンドを実行します。


      # ./setup
      

      setup コマンドにより、Sun Web Console をサポートするすべてのパッケージがインストールされます。

    5. CD-ROM に含まれていないディレクトリに移動し、CD-ROM を取り出します。


      # eject cdrom
      

    6. インストールしたシステムのフラッシュアーカイブを作成します。


      # flar create -n name archive
      
      -n name

      フラッシュアーカイブに付ける名前

      archive

      フラッシュアーカイブに付ける、フルパス付きのファイル名。規則により、ファイル名は .flar で終わります。

      Solaris 8 のインストール (上級編)の「フラッシュアーカイブの作成 (作業)」またはSolaris 9 9/04 インストールガイドの「フラッシュアーカイブの作成 (作業)」の手順に従ってください。

  7. フラッシュアーカイブを JumpStart インストールサーバーにコピーします。

  8. JumpStart インストールサーバーのフラッシュアーカイブが JumpStart インストールサーバーで読み取るためにエクスポートされた NFS であることを確認します。

    自動ファイル共有について詳しくは、『Solaris のシステム管理 (第 3 巻)』の「Solaris NFS の環境」またはSolaris のシステム管理 (資源管理とネットワークサービス)の「ネットワークファイルシステムの管理 (概要)」を参照してください。また、share(1M) および dfstab(4) のマニュアルページも参照してください。

  9. JumpStart インストールサーバーに Sun Cluster 3.1 9/04 CD-ROMのコピーを保存するためのディレクトリを作成します。

    次の例では、この目的のために /export/suncluster/ ディレクトリが作成されます。


    # mkdir -m 755 /export/suncluster/
    

  10. JumpStart インストールサーバーに Sun Cluster CD-ROM をコピーします。

    1. Sun Cluster 3.1 9/04 CD-ROM を JumpStart インストールサーバーの CD-ROM ドライブに入れます。

      ボリューム管理デーモンの vold(1M) が実行中で、CD-ROM デバイスを管理するように構成されている場合、デーモンによって自動的に CD-ROM が /cdrom/cdrom0/ ディレクトリにマウントされます。

    2. Solaris_arch/Product/sun_cluster/Solaris_ver/Tools/ ディレクトリに変更します。ここでは archsparc または x86 で、ver8 (Solaris 8 の場合) または 9 (Solaris 9 の場合) となります。


      # cd /cdrom/cdrom0/Solaris_arch/Product/sun_cluster/Solaris_ver/Tools/
      

    3. CD-ROM を JumpStart インストールサーバーの新しいディレクトリにコピーします。

      scinstall コマンドが CD-ROM のファイルをコピーするときに JumpStart インストールサーバーに新しいディレクトリを作成します。次の例では、/export/suncluster/sc31/ をインストールディレクトリ名として使用しています。


      ./scinstall -a /export/suncluster/sc31/
      

    4. CD-ROM に含まれていないディレクトリに移動し、CD-ROM を取り出します。


      # eject cdrom
      

  11. JumpStart インストールサーバー上の Sun Cluster 3.1 9/04 CD-ROM のイメージが JumpStart インストールサーバーで読み取るためにエクスポートされた NFS であることを確認します。

    自動ファイル共有について詳しくは、『Solaris のシステム管理 (第 3 巻)』の「Solaris NFS の環境」またはSolaris のシステム管理 (資源管理とネットワークサービス)の「ネットワークファイルシステムの管理 (概要)」を参照してください。また、share(1M) および dfstab(4) のマニュアルページも参照してください。

  12. 次の情報を用意します。

    • 各クラスタノードの Ethernet アドレス

    • T必要事項が記入された以下のインストールワークシート

    表 2–7 JumpStart インストールおよび構成ワークシート

    コンポーネント 

    説明/例 

    回答記入欄 

    JumpStart ディレクトリ 

    使用する JumpStart ディレクトリの名前 

     

    クラスタ名 

    確立するクラスタの名前 

     

    クラスタノード 

    初期クラスタ構成で構成するクラスタノードの名前 

     

    DES 認証 

    DES 認証が必要かどうか 

    No  |  Yes 

    クラスタトランスポート用ネットワークアドレス 

    デフォルトのネットワークアドレス (172.16.0.0) を使用するかどうか

    Yes   |  No 

    使用しない場合は、独自のネットワークアドレスを指定する 

    _____ ._____.0.0

    デフォルトのネットマスク (255.255.0.0) を使用するかどうか

    Yes   |  No 

    使用しない場合は、独自のネットマスクを指定する 

    255.255.___ .___

    ポイントツーポイントケーブル 

    クラスタがトランスポート接続点を使用するかどうか 

    Yes  |  No 

    クラスタトランスポート接続点 

    使用する場合は、2 つのトランスポート接続点の名前を指定する 

      デフォルト値switch1 および switch2


    1

    2

    クラスタトランスポートアダプタおよびケーブル 

    第 1 ノードの名前: 

     

    トランスポートアダプタ: 

    1

      

    2

      

    各トランスポートアダプタの接続場所 (トランスポート接続点または別のアダプタ)

      接続点のデフォルト:switch1 および switch2


      

    トランスポート接続点でデフォルトのポート名を使用するかどうか 

    Yes | No 

    Yes | No 

    使用しない場合は、使用するポートの名前 

      

    自動検出機能を使用してその他のノードで使用可能なアダプタを一覧表示するかどうか 

    この機能を使用しない場合は、各追加ノードに対して次の情報を指定する 

    Yes  |  No 

    各追加ノードで指定

    ノード名: 

     

    トランスポートアダプタ: 

    1

      

    2

      

    各トランスポートアダプタの接続場所 (トランスポート接続点または別のアダプタ)

      接続点のデフォルト:switch1 および switch2


      

    トランスポート接続点でデフォルトのポート名を使用するかどうか 

    Yes | No 

    Yes | No 

    使用しない場合は、使用するポートの名前 

      

    広域デバイスのファイルシステム 

    (各ノードで指定)

    広域デバイスのファイルシステムのデフォルト名 (/globaldevices) を使用するかどうか

    Yes  |   No 

    デフォルト名を使用しない場合は、すでに存在するファイルシステムを使用するかどうか 

    Yes  |   No 

    ファイルシステムの名前 

     

    ソフトウェアパッチのインストール 

    scinstall を使用してパッチをインストールするかどうか

    Yes  |   No 

    scinstall を使用する場合は、パッチディレクトリの名前

     

    パッチリストを使用するかどうか 

    Yes  |  No 

    計画のガイドラインについては、「Solaris OS の計画」「Sun Cluster 環境の計画」 を参照してください。


    注 –

    scinstall の処理が終了した後で、プライベートネットワークアドレスとネットマスクを変更することはできません。別のプライベートネットワークアドレスやネットマスクを使用する必要があり、 ノードがインストールモードのままの場合は、「Sun Cluster ソフトウェアのアンインストールによるインストール問題を解決する」の手順に従います。次にこの手順を繰り返して、正しい情報でノードのインストールと構成を行います。


  13. JumpStart インストールサーバーから scinstall(1M) ユーティリティーを起動します。

    ここでは、作成したインストールディレクトリの例として、パス /export/suncluster/sc31/ を使用します。CD-ROM パスでは、archsparc または x86 に、ver8 (Solaris 8 の場合) または 9 (Solaris 9 の場合) に置き換えます。


    # cd /export/suncluster/sc31/Solaris_arch/Product/sun_cluster/ \
    Solaris_ver/Tools/
    # ./scinstall
    

  14. 対話形式の scinstall ユーティリティーを使用するときは、次のガイドラインに従ってください。

    • 対話式 scinstall を使用すると、先行入力が可能になります。したがって、次のメニュー画面がすぐに表示されなくても、Return キーを押すのは一度だけにしてください。

    • 特に指定のある場合を除いて、Control-D キーを押すと、関連する一連の質問の最初に戻るか、メインメニューに戻ります。

    • 前のセッションのデフォルトの解凍が、質問の最後に角かっこ ([ ]) で囲まれて表示されます。入力せずに角かっこ内の回答を入力するには、Return キーを押します。

  15. 「メインメニュー」 から 「このインストールサーバーから JumpStart できるようにクラスタを構成」 を選択します。

    このオプションを使用して、カスタム JumpStart 完了スクリプトを構成します。JumpStart は、これらの完了スクリプトを使用して、 Sun Cluster ソフトウェアをインストールします。


     *** メインメニュー ***
     
        次の (*) オプションのうちから 1 つを選択してください:
     
          * 1) クラスタまたはクラスタノードをインストール
            2) このインストールサーバーから JumpStart できるようにクラスタを構成
            3) 新しいデータサービスのサポートをこのクラスタノードに追加
          * 4) このクラスタノードのリリース情報を出力
     
          * ?) メニューオプションのヘルプ
          * q) 終了
     
        オプション:  2
    


    注 –

    JumpStart オプションのフォントにアスタリスクが含まれていない場合は、オプションは無効です。これは、JumpStart の設定が完了していないか、セットアップでエラーが発生したことを意味します。この状態を修正するには、次の操作を行います。

    1. scinstall ユーティリティーを終了します。

    2. 手順 5から手順 10を繰り返し、JumpStart の設定を修正します。

    3. scinstall ユーティリティーを再起動します。


  16. メニュープロンプトに従って 手順 12 で作成したワークシートから回答を入力します。

    scinstall コマンドによって構成情報が保存され、デフォルトの class ファイルである autoscinstall.class が、jumpstart-dir /autoscinstall.d/3.1/ ディレクトリに作成されます。


    install_type    initial_install
    system_type     standalone
    partitioning    explicit
    filesys         rootdisk.s0 free /
    filesys         rootdisk.s1 750  swap
    filesys         rootdisk.s3 512  /globaldevices
    filesys         rootdisk.s7 20
    cluster         SUNWCuser        add
    package         SUNWman          add

  17. デフォルトの autoscinstall.class ファイルを適宜変更して、フラッシュアーカイブをインストールするように JumpStart を構成します。

    1. autoscinstall.class ファイルの次のエントリを変更します。表の最後の新しいエントリで、archive はフラッシュアーカイブファイルの場所を表します。

      既存のエントリ 

      新規エントリ 

      install_type

      initial_install

      install_type

      flash_install

      system_type

      standalone

      archive_location

      archive

    2. 特定のパッケージをインストールするエントリをすべて削除します。


      cluster         SUNWCuser        add
      package         SUNWman          add

  18. Solaris パッチディレクトリを設定します。


    注 –

    パッチディレクトリを scinstall ユーティリティーに指定すると、Solaris パッチディレクトリのパッチはインストールされません。


    1. jumpstart-dir/autoscinstall.d/nodes/node/patches/ ディレクトリを JumpStart インストールサーバー上に作成します。

      上記のディレクトリは node がクラスタノードの名前であるクラスタノードごとに 1 つずつ作成します。または、次の命名規則を使用して、共有パッチディレクトリへのシンボリックリンクを作成します。


      # mkdir jumpstart-dir/autoscinstall.d/nodes/node/patches/
      

    2. これらの各ディレクトリに Solaris パッチのコピーを格納します。

    3. Solaris ソフトウェアをインストールした後にインストールする必要があるすべてのハードウェア関連パッチのコピーもこれらのディレクトリに格納します。

  19. 各ノード上で必要なホスト名情報を含むようにファイルを設定します。

    1. JumpStart インストールサーバーに、jumpstart-dir/autoscinstall.d/nodes/node/archive/etc/inet/hosts という名前のファイルを作成します。

      上記のファイルは node がクラスタノードの名前であるノードごとに1 つずつ作成します。または、次の命名規則を使用して、共有 hosts ファイルへのシンボリックリンクを作成します。

    2. 各ファイルに以下のエントリを追加します。

      • Sun Cluster CD-ROM のイメージがコピーされている NFS サーバーの IP アドレスとホスト名。NFS サーバーが JumpStart インストールサーバーになりますが、別のマシンがインストールサーバーになる場合もあります。

      • クラスタ内にある各ノードの IP アドレスとホスト名。

  20. クラスタ管理コンソールを使用している場合、クラスタ内にある各ノードのコンソール画面を表示します。

    • クラスタコントロールパネル (CCP) ソフトウェアが管理コンソールにインストールされ、構成されている場合は、cconsole (1M) ユーティリティーを使用して、コンソール画面を個別に表示できます。また、cconsole ユーティリティーを使用してマスターウィンドウを開くことができます。ここでの入力を、個々のすべてのコンソールウィンドウに同時に送信できます。cconsole を起動するには、次のコマンドを入力します。


      # /opt/SUNWcluster/bin/cconsole clustername &
      

    • cconsole ユーティリティーを使用しない場合は、各ノードのコンソールに個別に接続します。

  21. 各ノードを停止します。


    # shutdown -g0 -y -i0
    
  22. 各ノードを起動し、JumpStart のインストールを開始します。

    • SPARC ベースのシステムでは、次の操作を実行します。


      ok boot net - install
      


      注 –

      コマンド内のダッシュ記号 (-) の両側は、空白文字で囲む必要があります。


    • x86 ベースのシステムでは、次の操作を実行します。

      1. BIOS 情報画面が表示されてから Esc キーを押します。

        「Select Boot Device」画面が表示されます。

      2. 「Select Boot Device」画面で、JumpStart DHCP インストールサーバーと同じネットワークに接続されている IBA をリストから選択します。

        IBA ブート選択肢の右の一番下の数字は、一番下の Ethernet ポート番号に対応しています。IBA ブート選択肢の右の一番上の数字は、一番上の Ethernet ポート番号に対応しています。

        ノードが再起動され、Device Configuration Assistant が表示されます。

      3. 「Boot Solaris」画面で Net を選択します。

      4. 次のプロンプトで Custom JumpStart を選択し、Enter キーを押します。


        Select the type of installation you want to perform:
        
                 1 Solaris Interactive
                 2 Custom JumpStart
        
        Enter the number of your choice followed by the <ENTER> key.
        
        If you enter anything else, or if you wait for 30 seconds,
        an interactive installation will be started.

      5. プロンプトが表示されますので、質問に答えて画面の指示に従います。

    JumpStart が Solaris OS と Sun Cluster ソフトウェアを各ノードにインストールします。


    注 –

    ユーザー独自の /etc/inet/ntp.conf ファイルをインストールしていない限り、scinstallコマンドは自動的にデフォルトの ntp.conf ファイルをインストールします。デフォルトファイルでは、最大ノード数を想定しています。したがって、xntpd(1M) デーモンは起動時にこれらのノードに関してエラーメッセージを発行することがあります。

    これらのメッセージは無視しても問題ありません。通常のクラスタ条件下で、これらのメッセージを表示しないようにする方法については、「ネットワークタイムプロトコル (NTP) を構成する」を参照してください。


    インストールが正常に完了すると、各ノードは新しいクラスタノードとして完全にインストールされます。Sun Cluster のインストール出力は、/var/cluster/logs/install/scinstall.log.N に記録されます。

    scinstall の処理が終了した後で、プライベートネットワークアドレスとネットマスクを変更することはできません。別のプライベートネットワークアドレスやネットマスクを使用する必要があり、 ノードがインストールモードのままの場合は、「Sun Cluster ソフトウェアのアンインストールによるインストール問題を解決する」の手順に従います。次にこの手順を繰り返して、正しい情報でノードのインストールと構成を行います。

  23. 既存のクラスタに新しいノードをインストールする場合、新しいノード上で、既存のすべてのクラスタファイルシステム用のマウントポイントを作成します。

    1. クラスタ内にある別のアクティブなノードから、すべてのクラスタファイルシステムの名前を表示します。


      % mount | grep global | egrep -v node@ | awk '{print $1}'
      

    2. クラスタに追加したノード上で、クラスタ内にある各クラスタファイルシステム用のマウントポイントを作成します。


      % mkdir -p mountpoint
      

      たとえば、マウントコマンドが戻したファイルシステム名が /global/dg-schost-1である場合、クラスタに追加するノード上で mkdir -p /global/dg-schost-1 を実行します。


      注 –

      これらのマウントポイントは、手順 26 においてクラスタを再起動するとアクティブになります。


    3. VERITAS Volume Manager (VxVM) がクラスタ内にあるノードにすでにインストールされている場合は、インストールされた VxVMの各ノードで vxio 番号を表示します。


      # grep vxio /etc/name_to_major
      vxio NNN
      

      • VxVM がインストールされている各ノード上で同じ vxio 番号が使用されていることを確認します。

      • VxVM がインストールされていない各ノード上で vxio 番号が使用できることを確認してください。

      • VxVM がインストールされていないノード上ですでに vxio 番号が使用されている場合、そのノードで該当番号を解放します。また、/etc/name_to_major エントリは、別の番号に変更してください。

  24. (省略可能) Sun Enterprise 10000 サーバーで動的再構成を使用する場合、次のエントリを /etc/system ファイルに追加します。このエントリをクラスタ内の各ノードに追加します。


    set kernel_cage_enable=1

    このエントリは、次のシステム再起動後に有効になります。Sun Cluster 構成で、動的再構成の作業を実行するための手順については、『Sun Cluster のシステム管理 (Solaris OS 版)』を参照してください。動的再構成の詳細については、サーバーのマニュアルを参照してください。

  25. x86: デフォルトのブートファイルを kadb に設定します。


    # eeprom boot-file=kadb
    

    この値を設定すると、ログインプロンプトにアクセスできないときにノードを再起動できます。

  26. クラスタの再起動を必要とする作業を行なった場合は、次の手順に従って、クラスタの再構成用の再起動を実行します。

    再起動が必要な作業には、次のものがあります。

    • 既存のクラスタへの新しいノードの追加

    • ノードまたはクラスタの再起動が必要なパッチのインストール

    • 有効にするために再起動の必要な構成の変更

    1. ノードのどれか 1 つでクラスタを停止します。


      # scshutdown
      


      注 –

      クラスタがシャットダウンするまで、最初にインストールしたクラスタノードを再起動しないでください。クラスタインストールモードが無効になるまで、クラスタを確立した、最初にインストールしたノードだけが定足数の投票を持ちます。まだインストールモードにある確立されたクラスタで、最初にインストールしたノードを再起動する前にクラスタをシャットダウンしていない場合、残りのクラスタノードが定足数を獲得できません。このため、クラスタ全体がシャットダウンします。

      最初に scsetup(1M) コマンドを実行するまで、クラスタノードはインストールモードのままです。このコマンドは、「インストール後の設定を行い、定足数デバイスを構成する」の手順の間に実行します。


    2. クラスタ内にある各ノードを再起動します。

      • SPARC ベースのシステムでは、次の操作を実行します。


        ok boot
        

      • x86 ベースのシステムでは、次の操作を実行します。


                             <<< Current Boot Parameters >>>
        Boot path: /pci@0,0/pci-ide@7,1/ata@1/cmdk@0,0:b
        Boot args:
        
        Type   b [file-name] [boot-flags] <ENTER>  to boot with options
        or     i <ENTER>                           to enter boot interpreter
        or     <ENTER>                             to boot with defaults
        
                         <<< timeout in 5 seconds >>>
        Select (b)oot or (i)nterpreter: b
        

    scinstall ユーティリティーは、すべてのクラスタノードのインストールを行い、クラスタを再起動します。クラスタ内ですべてのノードが正常に起動されると、クラスタが確立されます。Sun Cluster のインストール出力は、/var/cluster/logs/install/scinstall.log.N に記録されます。

  27. Sun StorEdge QFS ファイルシステムソフトウェアをインストールします。

    初期インストールについては、『Sun StorEdge QFS and Sun StorEdge SAM-FS Software Installation and Configuration Guide』の手順に従ってください。

  28. SPARC: VERITAS File System をインストールするには、「SPARC: VERITAS File System ソフトウェアをインストールする」 に進みます。

  29. ネームサービスの参照順序を設定します。

    「ネームサービススイッチを構成する」 に進みます。

Sun Cluster ソフトウェアを単一ノードクラスタにインストールする

scinstall コマンドを使用して、単一ノード上に Sun Cluster ソフトウェアをインストールして、クラスタを確立するには、次の手順を実行します。詳細については、scinstall(1M) のマニュアルページを参照してください。


注 –

単一ノードに Sun Cluster ソフトウェアをインストールする場合、SunPlex Installer または scinstall ユーティリティーの対話形式は使用できません。


scinstall -iFo コマンドは、インストール時に以下の操作をデフォルトで実行します。

複数ノードクラスタのインストールに必要な手順のいくつかは、単一ノードクラスタのインストールでは不要です。単一ノードクラスタをインストールする場合、次の手順は実行する必要がありません。


ヒント –

将来、2 番目のノードをクラスタに追加する可能性がある場合は、クラスタの初期インストール時にトランスポート接続点を構成します。トランスポート接続点は、後で使用することができます。詳細については、scinstall(1M) のマニュアルページを参照してください。

単一ノードクラスタは、複数ノードのクラスタに拡張できます。「追加のクラスタノードとして Sun Cluster ソフトウェアを構成する (scinstall)」で説明されている手順に従ってください。


  1. Solaris OS がインストールされて、Sun Cluster ソフトウェアをサポートしていることを確認します。

    Solaris ソフトウェアがすでにノード上にインストールされている場合は、Solaris のインストールが Sun Cluster ソフトウェアの必要条件、およびそのクラスタにインストールする予定の他のソフトウェアの必要条件を満たしていることを確認してください。Sun Cluster ソフトウェア必要条件を満たして、Solaris ソフトウェアをインストールするための詳細については、「Solaris ソフトウェアをインストールする」を参照してください。

  2. インストールするクラスタノードでスーパーユーザーになります。

  3. Sun Web Console パッケージをインストールします。

    これらのパッケージは、Sun Web Console を使用しなくても Sun Cluster ソフトウェアに必要です。

    1. CD-ROM ドライブにSun Cluster 3.1 9/04 CD-ROM を挿入します。

    2. /cdrom/cdrom0/Solaris_arch/Product/sun_web_console/2.1/ ディレクトリに変更します。ここで archsparc または x86 です。

    3. setup コマンドを実行します。


      # ./setup
      

      setup コマンドにより、Sun Web Console をサポートするすべてのパッケージがインストールされます。

  4. On the Sun Cluster 3.1 9/04 CD-ROM, change to the Solaris_arch/Product/sun_cluster/Solaris_ver/Tools/ ディレクトリに変更します。ここでは archsparc または x86 で、ver8 (Solaris 8 の場合) または 9 (Solaris 9 の場合) となります。 .


    # cd /cdrom/cdrom0/Solaris_arch/Product/sun_cluster/Solaris_ver/Tools/
    

  5. scinstall コマンドを使用して、Sun Cluster ソフトウェアと必要なパッチをインストールします。


    ./scinstall -iFo [-M patchdir=dirname]
    -i

    scinstall コマンドのインストール形式を指定します。scinstall コマンドは、Sun Cluster ソフトウェアをインストールし、そのノードを新規クラスタとして初期化します。

    -F

    新規クラスタの最初のノードとしてノードを確立します。単一ノードクラスタをインストールする場合、すべての -F オプションを使用できます。

    -o

    単一ノードクラスタ用に、1 つのノードのみがインストールされることを指定します。-o オプションは、コマンドで -i-F の両オプションと共に使用された場合にのみ有効です。-o オプションが使用される場合、クラスタのインストールモードは、無効状態に事前設定されます。

    -M patchdir=dirname[[,patchlistfile=filename]]

    scinstall コマンドで指定のパッチをインストールするために、パッチ情報へのパスを指定します。パッチリストファイルを指定しない場合、scinstall コマンドは、dirname ディレクトリ内のすべてのパッチをインストールします。tar、jar、zip形式のパッチもインストール対象になります。

    -M オプションは、scinstall -iFo コマンドでは必要ありません。ここでは、単一ノードクラスタのインストール中にパッチをインストールする際に、-M オプションが最も効率的な方法であるため示しています。ただし、パッチのインストールには、任意の方法を使用できます。

  6. CD-ROM に含まれていないディレクトリに移動し、CD-ROM を取り出します。


    # eject cdrom
    

  7. ノードを再起動します。

    Sun Cluster ソフトウェアのインストール後に再起動することで、ノードがクラスタとして確立されます。

  8. (省略可能) クラスタ名を変更します。

    単一ノードクラスタが、クラスタノードと同じ名前で作成されます。クラスタ名は、必要に応じて変更できます。scsetup ユーティリティーまたは次の scconfコマンドのいずれかを使用します。


    # /usr/cluster/bin/scconf -c -C cluster=newclustername
    

  9. scstat コマンドを使用して、インストールを検証します。


    # /usr/cluster/bin/scstat -n
    

    コマンド出力にはクラスタノードの一覧が online のステータスと共に表示されるはずです。詳細についてはscstat(1M) のマニュアルページを参照してください。

  10. クラスタインストールモードが無効になっていることを確認します。


    # /usr/cluster/bin/scconf -pv | grep "インストールモード"
    
  11. (省略可能) SPARC: VERITAS File System をインストールするには、「SPARC: VERITAS File System ソフトウェアをインストールする」 に進みます。

  12. ネームサービスの参照順序を設定します。

    「ネームサービススイッチを構成する」 に進みます。

例— 単一ノードクラスタに Sun Cluster ソフトウェアをインストールする

次の例では、scinstall および scstat コマンドを使用して、単一ノードクラスタをインストールし、検証します。ここでは、すべてのパッチのインストール例も示します。詳細については、scinstall(1M) および scstat(1M) のマニュアルページを参照してください。


# scinstall -iFo -M patchdir=/var/cluster/patches/

広域デバイスファイルシステムとして使用できるかどうかをチェックしています... 完了しました。
** SunCluster 3.1 framework をインストールしています**
...
パッチをインストールしています... 完了しました。

クラスタ名を「phys-schost-1」に初期化しています... 完了しました。
認証オプションを初期化しています... 完了しました。

「phys-schost-1」のノードID を設定しています完了しました。(id=1)

広域ファイルシステムの広域デバイスをチェックしています... 完了しました。
vfstab を更新しています... 完了しました。

「cluster」がnsswitch.conf の「hosts」用に設定されていることを確認しています... 完了しました。
「cluster」スイッチをnsswitch.conf の「hosts」に追加しています... 完了しました。

「cluster」がnsswitch.conf の「netmasks」用に設定されていることを確認しています... 完了しました。
「cluster」スイッチをnsswitch.conf の「netmasks」に追加しています... 完了しました。

電源管理が構成されていないことを確認しています... 完了しました。

EEPROM パラメータ「local-mac-address?」が「true」に設定されていることを
確認しています... 完了しました。

ネットワークルーティングが無効であることを確認しています... 完了しました。

このマシンをリブートしてください。

# reboot
# scstat -n
-- クラスタノード --

                     ノード名           状態
                     --------           ------
  クラスタノード:     phys-schost-1      Online
# scconf -pv | grep "インストールモード"
クラスタインストールモード:               disabled

追加のクラスタノードとして Sun Cluster ソフトウェアを構成する (scinstall)

この手順を実行して、新しいノードを既存のクラスタに追加します。

  1. 必要なハードウェアがすべてインストールされていることを確認します。

    • ホストアダプタが新しいノードに取り付けられていることを確認します。

      Sun Cluster Hardware Administration Manual for Solaris OS』を参照してください。

    • 既存のクラスタインターコネクトが新しいノードをサポートできることを確認します。

      Sun Cluster Hardware Administration Manual for Solaris OS』を参照してください。

    • 追加の記憶装置がインストールされていることを確認します。

      Sun Cluster 3.x Hardware Administration Collection から必要なマニュアルを参照します。

  2. Solaris OS がインストールされて、Sun Cluster ソフトウェアをサポートしていることを確認します。

    Solaris ソフトウェアがすでにノード上にインストールされている場合は、Solaris のインストールが Sun Cluster ソフトウェアの必要条件、およびそのクラスタにインストールする予定の他のソフトウェアの必要条件を満たしていることを確認してください。Sun Cluster ソフトウェア必要条件を満たして、Solaris ソフトウェアをインストールするための詳細については、「Solaris ソフトウェアをインストールする」を参照してください。

  3. Sun Cluster ソフトウェアパッケージがノードにインストールされていることを確認します。

    「Sun Cluster ソフトウェアパッケージをインストールする」を参照してください。

  4. 次の構成ワークシートの 1 つに必要事項を記入します。

    表 2–8 追加ノード構成のワークシート

    コンポーネント 

    説明/例 

    回答記入欄 

    ソフトウェアパッチのインストール 

    scinstall を使用してパッチをインストールするかどうか

    Yes  |  No 

    インストールする場合、パッチディレクトリを指定 

     

    パッチリストを使用するかどうか 

    Yes  |  No 

    スポンサーノード 

    スポンサーノードの名前 

    クラスタ内のアクティブなノードをどれか選択

     

    クラスタ名 

    ノードを追加するクラスタの名前 

     

    チェック 

    sccheck 妥当性検査ユーティリティーを実行するかどうか

    Yes  |  No 

    クラスタトランスポートの自動検出 

    クラスタトランスポートの構成に自動検出機能を使用するかどうか 

    使用しない場合は、次の追加情報を指定します。 

    Yes  |  No 

    ポイントツーポイントケーブル 

    クラスタに追加するノードによって、クラスタが 2 ノードクラスタになるかどうか 

    Yes  |  No 

    このクラスタがトランスポート接続点を使用するかどうかを決定します。 

    Yes  |  No 

    クラスタトランスポート接続点 

    使用する場合は、2 つのトランスポート接続点の名前を指定する 

      デフォルト値switch1 および switch2


    1

      

    2

      

    クラスタトランスポートアダプタおよびケーブル 

    2 つのトランスポートアダプタの名前 

    1

      

    2

      

    各トランスポートアダプタの接続場所 (トランスポート接続点または別のアダプタ)

      接続点のデフォルト:switch1 および switch2


      

    トランスポート接続点でデフォルトのポート名を使用するかどうか 

    Yes | No 

    Yes | No 

    使用しない場合は、使用するポートの名前 

      

    広域デバイスのファイルシステム 

    広域デバイスのファイルシステムの名前 

      初期値:/globaldevices


     

    自動再起動 

    scinstall によってインストール後ノードを自動的に再起動するかどうか

    Yes  |  No 

    計画のガイドラインについては、「Solaris OS の計画」「Sun Cluster 環境の計画」 を参照してください。

  5. このノードを単一ノードクラスタに追加する場合は、既存のクラスタノードから 2 つのクラスタインターコネクトがすでに存在しているかどうかを判断します。

    少なくとも 2 つのケーブルまたは 2 つのアダプタを構成しなければなりません。


    # scconf -p | grep cable
    # scconf -p | grep adapter
    
    • 出力が 2 つのケーブルまたは 2 つのアダプタの構成情報を表示している場合は、手順 6 に進みます。

    • ケーブルまたはアダプタの構成情報が表示されていない場合、または 1 つのケーブルまたはアダプタの構成情報しか表示されていない場合は、新しいクラスタインターコネクトを構成します。

    1. 既存のクラスタノードで scsetup(1M) ユーティリティーを開始します。


      # scsetup
      

    2. 「クラスタインターコネクト」という項目を選択します。

    3. 「トランスポートケーブルを追加」という項目を選択します。

      指示通りにクラスタに追加するノードの名前、トランスポートアダプタの名前、およびトランスポート接続点を使用するかどうかを指定します。

    4. 必要な場合は、手順 c を繰り返して、2 番目のクラスタインターコネクトを構成します。

      完了後 scsetup ユーティリティーを終了します。

    5. クラスタに 2 つのクラスタインターコネクトが設定されていることを確認します。


      # env LC_ALL=C scconf -p | grep cable
      # env LC_ALL=C scconf -p | grep adapter
      

      コマンド出力は、少なくとも 2 つのクラスタインターコネクトの構成情報を表示する必要があります。

  6. このノードを既存のクラスタに追加する場合は、新しいノードをクラスタの承認済みノードリストに追加します。

    1. アクティブなクラスタメンバーで、scsetup(1M) ユーティリティーを開始します。


      # scsetup
      

      メインメニューが表示されます。

    2. メニュー項目から「New nodes」を選択します。

    3. メニューから「追加されるマシンの名前を指定」を選択します。

    4. プロンプトに従って、ノードの名前を認識されているマシンのリストに追加します。

      scsetup ユーティリティーは、作業がエラーなしで完了された場合、「コマンドが正常に完了しました」というメッセージを出力します。

    5. scsetup ユーティリティーを終了します。

  7. 構成するクラスタノードでスーパーユーザーになります。

  8. Sun Web Console パッケージをインストールします。

    これらのパッケージは、Sun Web Console を使用しなくても Sun Cluster ソフトウェアに必要です。

    1. CD-ROM ドライブにSun Cluster 3.1 9/04 CD-ROM を挿入します。

    2. /cdrom/cdrom0/Solaris_arch/Product/sun_web_console/2.1/ ディレクトリに変更します。ここで archsparc または x86 です。

    3. setup コマンドを実行します。


      # ./setup
      

      setup コマンドにより、Sun Web Console をサポートするすべてのパッケージがインストールされます。

  9. 以下の機能を使用する場合は、追加パッケージをインストールします

    • Remote Shared Memory Application Programming Interface (RSMAPI)

    • インターコネクトトランスポート用の SCI-PCI アダプタ

    • RSMRDT ドライバ


    注 –

    RSMRDT ドライバを使用できるのは、Oracle9i リリース 2 SCI 構成を RSM を有効にして実行しているクラスタだけです。インストールと構成手順についての詳細は、Oracle9i リリース 2 のユーザーマニュアルを参照してください。


    1. インストールするパッケージを決めます。

      下の表は、各機能で必要な Sun Cluster 3.1 9/04 パッケージとそれぞれの機能にグループをインストールする順序を示しています。scinstall ユーティリティはこれらのパッケージを自動的にはインストールしません。

      機能 

      インストールする追加の Sun Cluster 3.1 9/04 パッケージ 

      RSMAPI 

      SUNWscrif

      SCI-PCI アダプタ 

      SUNWsci SUNWscid SUNWscidx

      RSMRDT ドライバ 

      SUNWscrdt

    2. 関連する Solaris パッケージがすでにインストールされていることを確認します。

      「Solaris ソフトウェアをインストールする」手順 8 を参照してください。

    3. On the Sun Cluster 3.1 9/04 CD-ROM, change to the Solaris_arch/Product/sun_cluster/Solaris_ver/Packages/ ディレクトリに変更します。ここでは archsparc または x86 で、ver8 (Solaris 8 の場合) または 9 (Solaris 9 の場合) となります。 .


      # cd /cdrom/cdrom0/Solaris_arch/Product/sun_cluster/Solaris_ver/Packages/
      

    4. 追加のパッケージをインストールします。単一ノードクラスタにノードを追加する場合は、上記の手順を繰り返して、同じパッケージをもとのクラスタノードに追加します。

    5. If you are adding a node to a single-node cluster, repeat these steps to add the same packages to the original cluster node.

  10. On the Sun Cluster 3.1 9/04 CD-ROM, change to the Solaris_arch/Product/sun_cluster/Solaris_ver/Tools/ ディレクトリに変更します。ここでは archsparc または x86 で、ver8 (Solaris 8 の場合) または 9 (Solaris 9 の場合) となります。 .


    # cd /cdrom/cdrom0/Solaris_arch/Product/sun_cluster/Solaris_ver/Tools/
    

  11. scinstall ユーティリティーを起動します。


    # /usr/cluster/bin/scinstall
    

  12. 対話形式の scinstall ユーティリティーを使用するときは、次のガイドラインに従ってください。

    • 対話式 scinstall を使用すると、先行入力が可能になります。したがって、次のメニュー画面がすぐに表示されなくても、Return キーを押すのは一度だけにしてください。

    • 特に指定のある場合を除いて、Control-D キーを押すと、関連する一連の質問の最初に戻るか、メインメニューに戻ります。

    • 前のセッションのデフォルトの解凍が、質問の最後に角かっこ ([ ]) で囲まれて表示されます。入力せずに角かっこ内の回答を入力するには、Return キーを押します。

  13. 「メインメニュー」 から 「クラスタまたはクラスタノードをインストール」という項目を選択します。


     *** メインメニュー ***
    
        次の (*) オプションのうちから 1 つを選択してください:
    
          * 1) クラスタまたはクラスタノードをインストール
            2) このインストールサーバーから JumpStart できるようにクラスタを構成
            3) 新しいデータサービスのサポートをこのクラスタノードに追加
          * 4) このクラスタノードのリリース情報を出力
    
          * ?) メニューオプションのヘルプ
          * q) 終了
    
        オプション:  1
    

  14. 「インストールメニュー」 から 「このマシンを既存のクラスタ内にノードとして追加」という項目を選択します。

  15. メニュープロンプトに従い、手順 4 で作成したワークシートから回答を入力します。

    scinstall ユーティリティーがノードを構成し、クラスタのノードを起動します。

  16. CD-ROM に含まれていないディレクトリに移動し、CD-ROM を取り出します。


    # eject cdrom
    

  17. 他のノードでもこの手順を繰り返して、すべての追加ノードの構成が完了するまでクラスタに追加します。

  18. アクティブなクラスタメンバーから、ノードがクラスタに接続するのを防止します。


    # /usr/cluster/bin/scconf -a -T node=.
    
    -a

    ノードを追加します。

    -T

    認証オプションを指定します。

    node=.

    認証リストに追加するドット (.) のノード名を指定して、これ以外のノードがクラスタに追加されるのを防止します。

    あるいは、scsetup(1M) ユーティリティも使用できます。手順については、『Sun Cluster のシステム管理 (Solaris OS 版)』の「ノードを認証ノードリストに追加する」を参照してください。

  19. 定足数投票カウントを更新します。

    定足数デバイスへのノード接続の数を増やしたり、減らしたりしても、クラスタは自動的に定足数投票カウントを再計算しません。

    scsetup ユーティリティーを使用して各定足数デバイスを取り外し、もう一度構成に追加します。続いて、2 番目の定足数デバイスを取り外して、クラスタをもとの構成に戻します。

    クラスタが持つ定足数デバイスが 1 つしかない場合、元の定足数デバイスを削除して再度追加する前に 2 つめの定足数デバイスを構成してください。その後、2 つめの定足数デバイスを削除して、そのクラスタを元の構成に戻してください。

  20. Sun StorEdge QFS ファイルシステムソフトウェアをインストールします。

    初期インストールについては、『Sun StorEdge QFS and Sun StorEdge SAM-FS Software Installation and Configuration Guide』の手順に従ってください。

  21. (省略可能) SPARC: VERITAS File System をインストールするには、「SPARC: VERITAS File System ソフトウェアをインストールする」 に進みます。

  22. ネームサービス検索順を設定します。

    「ネームサービススイッチを構成する」 に進みます。

例 – Sun Cluster ソフトウェアを追加ノードで構成する


 >>> 確認 <<<
  
    次のオプションをscinstall に指示しています。:
  
      scinstall -ik \
           -C sc-cluster \
           -N phys-schost-1 \
           -A trtype=dlpi,name=hme1 -A trtype=dlpi,name=hme3 \
           -m endpoint=:hme1,endpoint=switch1 \
           -m endpoint=:hme3,endpoint=switch2
  
    これらのオプションを使用しますか(yes/no) [yes]?
  
    インストールを継続しますか(yes/no) [yes]?
  
広域デバイスファイルシステムとして使用できるかどうかをチェックしています... done
  
ノード「phys-schost-3」をクラスタ構成に追加しています... done
アダプタ「hme1」をクラスタ構成に追加しています... done
アダプタ「hme3」をクラスタ構成に追加しています... done
ケーブルをクラスタ構成に追加しています... done
ケーブルをクラスタ構成に追加しています... done
  
「phys-schost-1」から構成をコピーしています... done
「phys-schost-3」のノードID を設定しています... done (id=3)
 
「did」ドライバのメジャー番号を「phys-schost-1」で確認しています... done
  
広域ファイルシステムの広域デバイスをチェックしています.. done
vfstab を更新しています... done
  
NTP が構成されているかどうかを確認しています... done
デフォルトの NTP 構成をインストールしています... done
scinstall が終了した後、NTP 構成を完了してください。
  
「cluster」が nsswitch.conf の「hosts」用に設定されていることを確認しています... 完了しました。
「cluster」スイッチを nsswitch.conf の「hosts」に追加しています... 完了しました。
  
「cluster」が nsswitch.conf の「netmasks」用に設定されていることを確認しています... 完了しました。
「cluster」スイッチを nsswitch.conf の「netmasks」に追加しています... 完了しました。
  
電源管理が構成されていないことを確認しています... 完了しました。

電源管理の構成を解除しています... 完了しました。

/etc/power.conf の名前は/etc/power.conf.093003193804 に変更されました
電源管理はクラスタのHA でサポートされません。
電源管理を構成し直さないでください。
  
EEPROM パラメータ「local-mac-address?」が「true」に設定されていることを確認しています... 完了しました。
ネットワークルーティングが無効であることを確認しています... 完了しました。

このノードでは、/etc/notrouter を作成することによって、ネットワークルーティングが無効になっています。
Sun Cluster は、クラスタノードをルーターとして動作させることをサポートしていません。

ネットワークルーティングを有効にし直さないでください。
  
ログファイル- /var/cluster/logs/install/scinstall.log.9853
  
リブートしています...

SPARC: VERITAS File System ソフトウェアをインストールする

この作業はクラスタの各ノード上で行ってください。

  1. VxFS のインストールマニュアルに従って、VxFS ソフトウェアをクラスタの各ノード上にインストールします。

  2. VxFS のサポートに必要なすべての Sun Cluster パッチをインストールします。

    パッチの入手先とインストール方法については、『Sun Cluster 3.1 ご使用にあたって 』の「パッチと必須ファームウェアのレベル」を参照してください。

  3. 各ノードの /etc/system ファイルで、次の値を設定します。


    set rpcmod:svc_default_stksize=0x8000
    set lwp_default_stksize=0x6000

    • Sun Cluster ソフトウェアには、少なくとも 0x8000 に設定された rpcmod:svc_default_stksize が必要です。VxFS をインストールすると、rpcmod:svc_default_stksize 変数の値が 0x4000 に設定されるため、VxFS のインストールが終わった後、値を手動で 0x8000 に設定する必要があります。

    • /etc/system ファイルの lwp_default_stksize 変数を設定して、VxFS デフォルト値の 0x4000 を無効にします。

  4. ネームサービス検索順を設定します。

    「ネームサービススイッチを構成する」 に進みます。

ネームサービススイッチを構成する

クラスタ内の各ノードで次の作業を行います。

  1. クラスタノードのスーパーユーザーになります。

  2. /etc/nsswitch.conf ファイルを編集します。

    1. cluster が、データベースエントリの hosts および netmasks の最初の参照先になっていることを確認します。

      この順序は、Sun Cluster ソフトウェアを正しく動作させるために重要です。scinstall(1M) コマンドによって、インストール中に cluster がこれらのエントリに追加されます。

    2. (省略可能) ネームサービスが利用不能になった場合にデータサービスの可用性を向上させるには、以下のエントリの参照順序を変更してください。

      • データーベースエントリ hosts および netmasks では、cluster の後に files を配置します。

      • Sun Cluster HA for NFS については、cluster files の後でネームサービスの前に[SUCCESS=return] を挿入します。


        hosts:      cluster files [SUCCESS=return] nis

        この参照順序では、ノードがローカルに名前を解決できる場合、そのノードはリストされているネームサービスに問い合わせません。代わりに、名前解決の成功を直ちに返します。

      • その他のすべてのデータベースについては、files を参照順序の最初に配置します。

      • 参照順序を変更した結果、[NOTFOUND=return] 条件がエントリの最後の項目になる場合、この条件は不要となります。エントリから [NOTFOUND=return] 条件を削除することも、あるいはそのまま残すこともできます。エントリの最後にある [NOTFOUND=return] 条件は無視されます。

    3. 特定のデータサービスで必要なその他の変更を行います。

      インストールしたデータサービスの各マニュアルを参照してください。

    次に、/etc/nsswitch.conf ファイルの内容の一部を例として示します。データベースエントリ hosts および netmasks の参照順序は、clusterfiles の順です。その他のエントリの参照順序は、files から始まります。[NOTFOUND=return] 条件は、このエントリからは削除しています。


    # vi /etc/nsswitch.conf
    …
    passwd:     files nis
    group:      files nis
    …
    hosts:      cluster files nis
    …
    netmasks:   cluster files nis
    …

    nsswitch.conf エントリの詳細については、nsswitch.conf(4) のマニュアルページを参照してください。

  3. root ユーザーの環境を設定します。

    「root 環境を設定する」へ進んでください。

root 環境を設定する


注 –

Sun Cluster 構成では、各種シェルのユーザー初期化ファイルは、それらが対話式のシェルから実行されていることを確認する必要があります。確認は、端末への出力を試みる前に行ってください。この方法に従わないと、予期しない動作やデータサービス妨害が発生する可能性があります。詳細については、『Solaris のシステム管理 (第 1 巻)』(Solaris 8) の「ユーザーの作業環境のカスタマイズ」を参照するか、『Solaris のシステム管理 (基礎編)』(Solaris 9) の「ユーザーの作業環境のカスタマイズ」を参照してください。


クラスタ内の各ノード上で次の手順を実行します。

  1. クラスタノードのスーパーユーザーになります。

  2. .cshrc または .profile ファイルの PATH および MANPATH エントリを変更します。

    1. /usr/sbin および/usr/cluster/bin/ を含むように PATH を設定します。

    2. MANPATH 環境変数に /usr/cluster/man/ を含めます。

    追加のファイルパスの設定については、ボリュームマネージャのマニュアルおよびアプリケーションのマニュアルを参照してください。

  3. (省略可能) 管理を行いやすくするため、各ノードに同じ root パスワードを設定します。

  4. Sun Cluster 3.1 9/04 データサービスソフトウェアパッケージをインストールします。

データサービスソフトウェアパッケージをインストールする (installer)

データサービスを Sun Cluster 3.1 9/04 リリースからインストールする場合は、installer プログラムを使用してパッケージをインストールできます。Sun Cluster 3.1 以前のリリースからデータサービスをインストールする場合は、「データサービスソフトウェアパッケージをインストールする (scinstall)」の手順に従ってください。

installer プログラムは、コマンド行インタフェース (CLI) またはグラフィカルユーザーインタフェース (GUI) を使用して実行できます。CLI と GUI では、指示の内容と順序がほぼ同じです。installer プログラムの詳細については、installer(1M) のマニュアルページを参照してください。

データサービスを実行するクラスタ内の各ノード上で、この手順を実行します。

  1. クラスタノードのスーパーユーザーになります。

  2. (省略可能) GUI で installer プログラムを使用する予定の場合は、DISPLAY 環境変数を設定する必要があります。

  3. Sun Cluster 3.1 9/04 Agents CD-ROM を CD-ROM ドライブに挿入します。

    ボリューム管理デーモンの vold(1M) が実行中で、CD-ROM デバイスを管理するように構成されている場合、デーモンによって自動的に CD-ROM が /cdrom/cdrom0/ ディレクトリにマウントされます。

  4. CD-ROM がマウントされているディレクトリに移動します。


    # cd /cdrom/cdrom0/
    

  5. installer プログラムを開始します。


    # ./installer
    
  6. プロンプトが表示されたなら、インストールの種類を選択します。

    各データサービスで使用できるロケールの一覧については、『Sun Cluster ご使用にあたって』を参照してください。

    • CD-ROM 内のすべてのデータサービスをインストールする場合は、一般を選択します。

    • CD-ROM 内のデータサービスのサブセットのみをインストールする場合は、カスタムを選択します。

  7. プロンプトが表示されたなら、インストールするロケールを選択します。

    • C ロケールのみをインストールする場合は、一般を選択します。

    • ほかのロケールをインストールする場合は、カスタムを選択します。

  8. 画面上の指示に従ってデータサービスソフトウェアをノードにインストールします。

    インストールが完了した後、installer プログラムはインストールに関する要約を表示します。この要約では、インストール中にプログラムによって生成された記録を参照できます。これらの記録は、/var/sadm/install/logs/ ディレクトリにあります。

  9. installer プログラムを終了します。

  10. CD-ROM に含まれていないディレクトリに移動し、CD-ROM を取り出します。


    # eject cdrom
    

  11. Sun Cluster データサービスのパッチをインストールします。

    パッチの入手先とインストール方法については、『Sun Cluster 3.1 ご使用にあたって 』の「パッチと必須ファームウェアのレベル」を参照してください。

    パッチの特別な指示によって再起動が指定されていないかぎり、Sun Cluster データサービスのパッチをインストールした後で再起動する必要はありません。パッチのインストール指示で再起動が要求された場合は、次の手順を実行します。

    1. scshutdown(1M) コマンドを使用してクラスタをひとつのノードからシャットダウンします。

    2. クラスタ内にある各ノードを再起動します。


    注 –

    クラスタのインストールモードが無効になるまでは、最初にインストールした (つまり、クラスタを構築した) ノードだけが定足数投票権を持ちます。インストールモードが無効になっていない (つまり、構築された) 複数ノードのクラスタでは、クラスタをシャットダウンせずに最初にインストールしたノードを再起動すると、残りのクラスタノードは定足数を獲得できません。クラスタ全体が停止します。

    クラスタノードは 「インストール後の設定を行い、定足数デバイスを構成する」 の手順で scsetup(1M) コマンドを最初に実行するまで、インストールモードのままです。


  12. 次の手順を決めます。

データサービスソフトウェアパッケージをインストールする (scinstall)


注 –

SunPlex Installer を使用して Sun Cluster HA for NFS または Sun Cluster HA for Apache、あるいはこの両方をインストールする場合や、ほかのデータサービスをインストールする予定がない場合は、この手順を実行する必要はありません。その代わりに、「インストール後の設定を行い、定足数デバイスを構成する」に進みます。


ここに示す手順を各クラスタノードで実行して、データサービスをインストールします。データサービスを Sun Cluster 3.1 10/03 リリースからインストールする 場合は、installer プログラムを使用してパッケージをインストールことも可能です。「データサービスソフトウェアパッケージをインストールする (installer)」を参照してください。

  1. クラスタノードのスーパーユーザーになります。

  2. ノードの CD-ROM ドライブに Sun Cluster 3.1 9/04 Agents CD-ROM をロードします。

    ボリューム管理デーモンの vold(1M) が実行中で、CD-ROM デバイスを管理するように構成されている場合、デーモンによって自動的に CD-ROM が /cdrom/cdrom0/ ディレクトリにマウントされます。

  3. CD-ROM がマウントされているディレクトリに移動します。


    # cd /cdrom/cdrom0/
    

  4. scinstall(1M) ユーティリティーを起動します。


    # scinstall
    

  5. 対話形式の scinstall ユーティリティーを使用するときは、次のガイドラインに従ってください。

    • 対話式 scinstall を使用すると、先行入力が可能になります。したがって、次のメニュー画面がすぐに表示されなくても、Return キーを押すのは一度だけにしてください。

    • 特に指定のある場合を除いて、Control-D キーを押すと、関連する一連の質問の最初に戻るか、メインメニューに戻ります。

    • 前のセッションのデフォルトの解凍が、質問の最後に角かっこ ([ ]) で囲まれて表示されます。入力せずに角かっこ内の回答を入力するには、Return キーを押します。

  6. 「メインメニュー」から「新しいデータサービスのサポートをこのクラスタノードに追加」という項目を選択します。

  7. プロンプトに従って、インストールするデータサービスを選択します。

    同じセットのデータサービスパッケージを各ノードにインストールする必要があります。この要件は、インストールされたデータサービス用のリソースをノードがホストしなくても適用されます。

  8. データサービスがインストールされたなら、scinstall ユーティリティーを終了します。

  9. CD-ROM に含まれていないディレクトリに移動し、CD-ROM を取り出します。


    # eject cdrom
    

  10. Sun Cluster データサービスのパッチをインストールします。

    パッチの入手先とインストール方法については、『Sun Cluster 3.1 ご使用にあたって 』の「パッチと必須ファームウェアのレベル」を参照してください。

    パッチの特別な指示によって再起動が指定されていないかぎり、Sun Cluster データサービスのパッチをインストールした後で再起動する必要はありません。パッチのインストール指示で再起動が要求された場合は、次の手順を実行します。

    1. scshutdown(1M) コマンドを使用してクラスタを1 つのノードからシャットダウンします。

    2. クラスタ内にある各ノードを再起動します。


    注 –

    クラスタのインストールモードが無効になるまでは、最初にインストールした (つまり、クラスタを構築した) ノードだけが定足数投票権を持ちます。インストールモードが無効になっていない (つまり、構築された) 複数ノードのクラスタでは、クラスタをシャットダウンせずに最初にインストールしたノードを再起動すると、残りのクラスタノードは定足数を獲得できません。定足数を獲得できない場合、クラスタ全体がシャットダウンされます。

    ノードは、scsetup(1M) コマンドを「インストール後の設定を行い、定足数デバイスを構成する」の手順でインストールするまで、インストールモードのままとなります。


  11. 次の手順を決めます。

インストール後の設定を行い、定足数デバイスを構成する


注 –

次の場合は定足数デバイスを構成する必要はありません。

代わりに、「定足数構成とインストールモードを確認する」へ進んでください。


次の手順は、クラスタが完全に形成された後に一度だけ実行します。この手順で定足数投票を割り当て、クラスタのインストールモードを解除します。

  1. 任意のノードから、すべてのノードがクラスタに結合していることを確認します。

    クラスタノードを表示するために、scstat(1M) コマンドを実行します。このコマンドを実行するために、スーパーユーザーとしてログインする必要はありません。


    % scstat -n
    

    出力は次のようになります。


    -- クラスターノード --
                                  ノード名       状態
                                  --------       ----
      クラスターノード:            phys-schost-1  Online
      クラスターノード:            phys-schost-2  Online

  2. 各ノードで、クラスタノードに対するデバイスの接続性を検証します。

    scdidadm(1M) コマンドを実行して、システムが検査するすべてのデバイスのリストを表示します。このコマンドを実行するために、スーパーユーザーとしてログインする必要はありません。


    % scdidadm -L
    

    各ノードのリストは同じ内容になります。出力は次のようになります。


    1       phys-schost-1:/dev/rdsk/c0t0d0 /dev/did/rdsk/d1
    2       phys-schost-1:/dev/rdsk/c1t1d0 /dev/did/rdsk/d2
    2       phys-schost-2:/dev/rdsk/c1t1d0 /dev/did/rdsk/d2
    3       phys-schost-1:/dev/rdsk/c1t2d0 /dev/did/rdsk/d3
    3       phys-schost-2:/dev/rdsk/c1t2d0 /dev/did/rdsk/d3
    …

  3. 既存のクラスタに新しいノードを追加するか場合は、クラスタの新しい構成に対応できるように定足数の構成を更新しなければならないことがあります。

    これが新しいクラスタの場合、手順 4 に進みます。

    1. 定足数については、『Sun Cluster の概要 (Solaris OS 版)』の「クォーラムデバイス」および『Sun Cluster の概念 (Solaris OS 版)』を参照してください。

    2. 定足数の構成を変更するには、『Sun Cluster のシステム管理 (Solaris OS 版)』の「定足数の管理」に示されている手順に従ってください。

    3. 適切に定足数を設定したあとで、「定足数構成とインストールモードを確認する」 へ進んでください。

  4. 定足数デバイスとして構成する各共有ディスクの広域デバイス ID 名を決定します。


    注 –

    共有ディスクを選択した場合は、その共有ディスクが定足数デバイスとして使用する権限を持つ必要があります。定足数デバイスについての選択の詳細は、「定足数デバイス」を参照してください。


    手順 2 で得られた scdidadm の出力で、定足数デバイスとして構成する各共有ディスクのデバイス ID 名を確認してください。たとえば、手順 2 の出力は、広域デバイス d2phys-schost-1phys-schost-2で共有されていることを示しています。この情報は、手順 7で使用します

  5. 任意のクラスタノードでスーパーユーザーになります。

  6. scsetup(1M) ユーティリティーを起動します。


    # scsetup
    

    「初期クラスタ設定」画面が表示されます。


    注 –

    代わりに「メインメニュー」が表示された場合は、クラスタの初期設定はすでに正しく行われています。手順 9に進みます。


  7. 「定足数デバイスを追加しますか?」というプロンプトに答えます。

    • クラスタが 2 ノードクラスタの場合、1 つ以上の共有定足数デバイスを構成する必要があります。「Yes」と入力し、プロンプトに従って 1 つ以上の定足数デバイスを構成してください。

    • クラスタに 3 つ以上のノードがある場合、定足数デバイス構成は省略可能です。追加の定足数デバイスを構成しない場合は「No」と入力し、構成する場合は「Yes」と入力して、追加の定足数デバイスを構成します。


    ヒント –

    後で定足数デバイスへのノード接続数を増やしたり減らしたりする場合、定足数投票カウントは自動的には再計算されません。各定足数デバイスを一度に 1 つずつ取り外してもう一度構成に追加することにより、正しい定足数投票をもう一度確立できます。

    2 ノードクラスタの場合、定足数デバイスを取り外して、もとの定足数デバイスに戻す前に一時的に新しい定足数デバイスを追加します。次に一時的に追加した定足数デバイスを取り外します。

    Sun Cluster のシステム管理 (Solaris OS 版)の「定足数の管理」の「定足数デバイスのノードリストを変更する」に記載された手順を参照してください。


  8. 「「Install mode」をリセットしますか?」というプロンプトで 「Yes」を入力します。

    scsetup ユーティリティーによって、クラスタの定足数構成と投票数が設定されたあと、「クラスタの初期化は完了しました。」というメッセージが表示されます。ユーティリティは、「メインメニュー」に戻ります。


    ヒント –

    定足数の設定処理が中断されたり、正常に終了しなかった場合は、scsetup を再度実行してください。


  9. scsetup ユーティリティーを終了します。

  10. 定足数構成とインストールモードが無効になっていることを確認します。

    「定足数構成とインストールモードを確認する」に進みます。

定足数構成とインストールモードを確認する

この手順で、定足数構成が正常に完了し、クラスタのインストールモードが無効になったことを確認します。

  1. 任意のノードから、デバイスとノードの定足数構成を確認します。


    % scstat -q
    

  2. 任意のノードから、クラスタインストールモードが無効になっていることを確認します。

    このコマンドを実行するために、スーパーユーザーである必要はありません。


    % scconf -p | grep "インストールモード"
    クラスタ インストールモード:                disabled

    クラスタのインストールはこれで完了です。 ボリューム管理ソフトウェアをインストールしてクラスタを構成できます。

作業手順: クラスタの構成

次の表に、クラスタを構成する場合の作業を示します。これらの作業を開始する前に、以下の作業が完了していることを確認してください。

表 2–9 作業手順: クラスタの構成

目次 

参照箇所 

クラスタファイルシステムの作成とマウント 

「クラスタファイルシステムを追加する」

IP ネットワークマルチパスグループを構成します。 

「インターネットプロトコル (IP) マルチパスグループを構成する」

(任意) ノードのプライベートホスト名を変更 

「プライベートホスト名を変更する」

NTP 構成ファイルを作成または変更 

「ネットワークタイムプロトコル (NTP) を構成する」

(任意) SPARC:Sun Cluster モジュールを Sun Management Center ソフトウェアにインストール

「SPARC: Sun Cluster モジュールを Sun Management Center 用にインストールする」

Sun Management Center のマニュアル 

サン以外のアプリケーションをインストールし、アプリケーション、データサービス、リソースグループを構成 

Sun Cluster データサービスの計画と管理 (Solaris OS 版)

各アプリケーションのマニュアル 

クラスタの構成

この節では、クラスタにインストールしたソフトウェアの構成に関する情報と手順について説明します。

クラスタファイルシステムを追加する

次の手順を実行して、クラスタファイルシステムを作成します。ローカルシステムと違って、クラスタファイルシステムはクラスタ内のどのノードからでもアクセスできます。SunPlex Installer を使用してデータサービスをインストールした場合、SunPlex Installer がすでに 1 つ以上のクラスタファイルシステムを作成している場合があります。


注意 – 注意 –

ファイルシステムを作成するとき、ディスク上のデータは破壊されます。必ず、正しいディスクデバイス名を指定してください。間違ったデバイス名を指定した場合、削除するつもりのないデータが削除されてしまいます。


作成するクラスタファイルシステムごとに、次の手順を実行します。

  1. ボリューム管理ソフトウェアのインストールと構成が行われていることを確認します。

    ボリューム管理ソフトウェアのインストール手順については、「Solstice DiskSuite または Solaris Volume Manager ソフトウェアのインストールと構成」「SPARC: VxVM ソフトウェアのインストールと構成」を参照してください。

  2. クラスタ内にある任意のノード上でスーパーユーザーになります。


    ヒント –

    ファイルシステムを迅速に作成するには、ファイルシステムを作成する広域デバイスの現在の主ノードでスーパーユーザーになります。


  3. ファイルシステムを作成します。

    • UFS ファイルシステムの場合、newfs(1M) コマンドを使用します。


      # newfs raw-disk-device
      

      下の表に、引数 raw-disk-device の名前の例を挙げます。命名規約はボリューム管理ソフトウェアごとに異なるので注意してください。

      ボリュームマネージャ 

      ディスクデバイス名の例 

      説明 

      Solstice DiskSuite または Solaris ボリュームマネージャ 

      /dev/md/nfs/rdsk/d1

      nfs ディスクセット内の raw デバイス d1

      SPARC:VERITAS Volume Manager 

      /dev/vx/rdsk/oradg/vol01

      oradg ディスクセット内の raw デバイス vol01

      なし 

      /dev/global/rdsk/d1s3

      raw ディスクデバイス d1s3

    • SunStorEdge QFS ファイルシステムの場合、『Sun StorEdge QFS and Sun StorEdge SAM-FS Software Installation and Configuration Guide』の構成を定義する手順に従ってください。

    • SPARC:VERITAS File System (VxFS) ファイルシステムの場合、VxFS のマニュアルに記載された手順に従ってください。

  4. クラスタ内の各ノードで、クラスタファイルシステムのマウントポイントディレクトリを作成します。

    そのノードからはクラスタファイルシステムにアクセスしない場合でも、マウントポイントはノードごとに必要です。


    ヒント –

    管理を行いやすくするには、マウントポイントを /global/device-group/ ディレクトリに作成します。この場所を使用すると、広域的に利用できるクラスタファイルシステムとローカルファイルシステムを区別しやすくなります。



    # mkdir -p /global/device-group/mountpoint/
    
    device-group

    デバイスが属するデバイスグループ名に対応するディレクトリの名前。

    mountpoint

    クラスタファイルシステムをマウントするディレクトリの名前。

  5. クラスタ内の各ノードで、マウントポイント用の /etc/vfstabファイルにエントリを追加します。

    詳細については、vfstab(4) のマニュアルページを参照してください。

    1. 各エントリで、使用する種類のファイルシステムに必要なマウントオプションを指定します。必要なマウントオプションのリストについては、表 2–10表 2–11または表 2–12 を参照してください。


      注 –

      Solstice DiskSuite トランスメタデバイスや Solaris ボリュームマネージャ トランザクショナルボリュームには、logging マウントオプションを使用しないでください。トランスメタデバイスおよびトランザクショナルボリュームは、独自のロギングを提供します。

      さらに、 Solaris ボリュームマネージャ トランザクションボリュームロギング (旧 Solstice DiskSuite トランスメタデバイスロギング) は、今後の Solaris のリリースで Solaris OS から削除される予定です。Solaris UFS ロギング は、より低い管理条件とオーバーヘッドで、同様の機能を高いパフォーマンスで提供します。


      表 2–10 UFS クラスタファイルシステムのマウントオプション

      マウントオプション 

      説明 

      大域 (global)

      必須。このオプションを選択すると、クラスタ内のすべてのノードでファイルシステムが表示されます。

      logging

      必須。このオプションを選択すると、ロギングが有効になります。

      forcedirectio

      Oracle Real Application Clusters RDBMS データファイル、ログファイル、および制御ファイルのホストとなるクラスタファイルシステムでは必須


      注 –

      Oracle Real Application Clusters SPARC ベースクラスタでのみ使用できます。


      onerror=panic

      必須。/etc/vfstab ファイルで onerror=panic マウントオプションを明示的に指定する必要はありません。他の onerror マウントオプションが指定されていない場合は、このマウントオプションがデフォルト値として使用されます。


      注 –

      onerror=panic オプションが Sun Cluster ソフトウェアによってサポートされている場合にだけ、このオプションを使用できます。onerror=umount または onerror=lock オプションは使用しないでください。これらのマウントオプションは、次の理由によりクラスタファイルシステムではサポートされていません。

      • onerror=umount または onerror=lock オプションによって、クラスタファイルシステムがロックされたり、アクセスできなくなる場合があります。クラスタファイルシステムでファイルが壊れると、このような状態になる可能性があります。

      • onerror=umount または onerror=lock オプションによって、クラスタファイルシステムがマウントできなくなる場合があります。この状態により、クラスタファイルシステムを使用するアプリケーションがハングしたり、強制終了できなくなることがあります。

      このような状態から復旧するには、ノードの再起動が必要になります。


      syncdir

      任意syncdir を指定した場合、write() システムコールにおいて、ファイルシステムが POSIX に準拠して動作することが保証されます。write() が成功した場合、このマウントオプションにより、ディスク上に十分な空間が確保されます。

      syncdir を指定しない場合、ファイルシステムの動作は UFS ファイルシステムと同じです。syncdir を指定しない場合、ディスクブロックを割り当てる (つまり、データをファイルに追加するような) 書き込みの性能が大幅に向上します。しかし、syncdir を指定しない場合、ファイルを閉じるまでは空間不足 (ENOSPC) の状態が判明しません。

      この場合、ファイルを閉じるときに ENOSPC 状態になるのは、フェイルオーバー後の短い間だけです。syncdir を指定した場合、POSIX の動作と同様、空間不足状態はファイルを閉じる前に見つかります。

      UFS マウントポイントの詳細については、mount_ufs(1M) のマニュアルページを参照してください。

      表 2–11 SPARC: SPARC: Sun StorEdge QFS 共有ファイルシステムのマウントパラメータ

      マウントパラメータ 

      説明 

      shared

      必須。このオプションは、このファイルシステムが共有ファイルシステムであり、このためクラスタ内のすべてのノードにグローバルに表示できることを指定します。


      注意 – 注意 –

      /etc/vfstab ファイルの設定が /etc/opt/SUNWsamfs/samfs.cmd ファイルの設定と競合しないことを確認してください。/etc/vfstab ファイルの設定は、/etc/opt/SUNWsamfs/samfs.cmd ファイルの設定を無効にします。


      Sun Cluster Support for Oracle Real Application Clusters などの一部のデータサービスには、QFS マウントパラメータに関する追加の必要条件とガイドラインがあります。追加の必要条件については、データサービスのマニュアルを参照してください。

      QFS のマウント パラメータについて詳しくは、mount_samfs(1M) のマニュアルページを参照してください。


      注 –

      /etc/vfstab マウントパラメータでは、ロギングは有効になりません。ロギングを有効にするには、『Sun StorEdge QFS and Sun StorEdge SAM-FS Software Installation and Configuration Guide』の手順に従ってください。


      表 2–12 SPARC: VxFS クラスタファイルシステムのマウントオプション

      マウントオプション 

      説明 

      大域 (global)

      必須。このオプションを選択すると、クラスタ内のすべてのノードでファイルシステムが表示されます。

      log

      必須。このオプションを選択すると、ロギングが有効になります。

      VxFS マウントオプションの詳細については、VxFS mount_vxfs のマニュアルページおよび『Sun Cluster のシステム管理 (Solaris OS 版)』の「クラスタファイルシステムの管理の概要」を参照してください。

    2. クラスタファイルシステムを自動的にマウントするには、mount at boot フィールドを yes に設定します。

    3. 各クラスタファイルシステムで、/etc/vfstab エントリの情報が各ノードで同じになるようにします。

    4. 各ノードの /etc/vfstab ファイルのエントリに、デバイスが同じ順序で表示されることを確認します。

    5. ファイルシステムの起動順の依存関係を検査します。

      たとえば、phys-schost-1 がディスクデバイス d0/global/oracle/ にマウントし、phys-schost-2 がディスクデバイス d1/global/oracle/logs/にマウントすると仮定します。この構成では、phys-schost-1 が起動して /global/oracle/ をマウントした後にのみ、 phys-schost-2 が起動して /global/oracle/logs/ をマウントできます。

  6. クラスタ内の任意のノードで sccheck(1M) ユーティリティーを実行します。

    sccheck ユーティリティーは、マウントポイントの存在を確認します。また、/etc/vfstab ファイルのエントリが、クラスタのすべてのノードで正しいことを確認します。


    # sccheck
    

    エラーが発生していない場合は、何も戻されません。

  7. クラスタファイルシステムをマウントします。


    # mount /global/device-group/mountpoint/
    

    • UFS と QFS の場合は、クラスタ内の任意のノードからクラスタファイルシステムをマウントします。

    • SPARC: VxFS の場合は、確実にファイルシステムをマウントするために、device-group のカレントマスターからクラスタファイルシステムをマウントします。さらに、ファイルシステムを正しく確実にマウント解除するには、device-group の現在のマスターからファイルシステムをマウント解除します。


      注 –

      VxFS クラスタファイルシステムを Sun Cluster 環境で管理するには、VxFS クラスタファイルシステムがマウントされている主ノードだけから管理コマンドを実行します。


  8. クラスタ内にある各ノード上で、クラスタファイルシステムがマウントされていることを確認します。

    マウントされているファイルシステムのリストを表示するには、df(1M) コマンドまたは mount(1M) コマンドを使用できます。

  9. IP ネットワークマルチパスグループを構成します。

    「インターネットプロトコル (IP) マルチパスグループを構成する」 に進みます。

例—クラスタファイルシステムを作成する

次の例では、Solstice DiskSuite メタデバイスの /dev/md/oracle/rdsk/d1 にUFS クラスタファイルシステムが作成されます。


# newfs /dev/md/oracle/rdsk/d1
…
 
(各ノード上で)
# mkdir -p /global/oracle/d1
# vi /etc/vfstab
#device           device        mount   FS      fsck    mount   mount
#to mount         to fsck       point   type   ; pass    at boot options
#                     
/dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs 2 yes global,logging
(保存と終了)
 
(1 つのノード上で)
# sccheck
# mount /global/oracle/d1
# mount
…
/global/oracle/d1 on /dev/md/oracle/dsk/d1 read/write/setuid/global/logging/largefiles
on Sun Oct 3 08:56:16 2000

インターネットプロトコル (IP) マルチパスグループを構成する

クラスタの各ノードで次の作業を行います。SunPlex Installer を使用して Sun Cluster HA for Apache または Sun Cluster HA for NFS をインストールした場合、これらのデータサービスが使用するパブリックネットワークアダプタ用の IP ネットワークマルチパスグループは SunPlex Installer によって構成されています。残りのパブリックネットワークアダプタについては、ユーザーが IP ネットワークマルチパスグループを構成する必要があります。


注 –

パブリックネットワークアダプタはすべて IP ネットワークマルチパスグループに属する必要があります。


  1. 必要事項を記入した「パブリックネットワークのワークシート」を用意します。

  2. IP ネットワークマルチパスグループを構成します。

    IP ネットワークマルチパスの管理』(Solaris 8) の「ネットワークマルチパスの導入」または『Solaris のシステム管理 (IP サービス)』(Solaris 9) の「ネットワークマルチパスの管理 (手順)」で説明されている IPv4 アドレスに関する手順を実行します。

    また、以下に示す追加必要条件に従って Sun Cluster 構成の IP ネットワークマルチパスグループを設定します。

    • 各パブリックネットワークアダプタは、マルチパスグループに属している必要があります。

    • マルチパスグループに 2 つ以上のアダプタが含まれている場合は、グループのアダプタごとにテストIP アドレスを設定する必要があります。マルチパスグループにアダプタが 1 つしかない場合は、テスト IP アドレスを設定する必要はありません。

    • 同一マルチパスグループ内のすべてのアダプタ用のテスト IP アドレスは、単一の IP サブネットに属する必要があります。

    • テスト IP アドレスは高可用性ではないため、通常のアプリケーションでは使用しないようにします。

    • /etc/default/mpathd ファイルで、TRACK_INTERFACES_ONLY_WITH_GROUPS の値はyes でなければなりません。

    • マルチパスグループの名前に、必要条件はありません。

  3. プライベートホスト名を変更する場合は、「プライベートホスト名を変更する」 に進みます。

  4. Sun Cluster ソフトウェアをインストールする前に、独自の/etc/inet/ntp.conf ファイルをインストールしていない場合は、

    「ネットワークタイムプロトコル (NTP) を構成する」に進み、NTP 構成ファイルのインストールまたは作成を行います。

  5. SPARC ベースのシステムで Sun Cluster を使用しており、クラスタの監視に Sun Management Center を使用したい場合は、 Sun Management Center 用の Sun Cluster モジュールをインストールします。

    「SPARC: Sun Cluster モジュールを Sun Management Center 用にインストールする」に進みます。

  6. Sun 以外のアプリケーションをインストールし、リソースタイプを登録し、リソースグループを設定し、データサービスを構成します。

    Sun Cluster データサービスの計画と管理 (Solaris OS 版)』およびアプリケーションに付属のマニュアルで説明されている手順に従ってください。

プライベートホスト名を変更する

次の作業は、Sun Cluster ソフトウェアのインストール中に割り当てられるデフォルトのプライベートホスト名 (clusternodenodeid-priv) を使用しない場合に実行します。


注 –

この手順は、アプリケーションとデータサービスの構成および起動後には実行しないでください。アプリケーションやデータサービスは、名前の変更後も引き続き古いプライベートホスト名を使用することがあり、この手順を実行するとホスト名の衝突が発生します。アプリケーションやデータサービスが実行中の場合は、この手順を実行する前に停止しておいてください。


クラスタの 1 つのアクティブなノードで次の手順を実行します。

  1. クラスタ内の 1 つのノードのスーパーユーザになります。

  2. scsetup(1M) ユーティリティーを起動します。


    # scsetup
    

  3. 「メインメニュー」から「プライベートホスト名」という項目を選択します。

  4. 「プライベートホストメニュー」から 「プライベートホスト名を変更」という項目を選択します。

  5. プロンプトに従って、プライベートホスト名を変更します。

    変更するプライベートホスト名ごとに繰り返します。

  6. 新しいプライベートホスト名を確認します。


    # scconf -pv | grep "プライベートホスト名"
    (phys-schost-1) ノード プライベートホスト名:      phys-schost-1-priv
    (phys-schost-3) ノード プライベートホスト名:      phys-schost-3-priv
    (phys-schost-2) ノード プライベートホスト名:      phys-schost-2-priv

  7. Sun Cluster ソフトウェアをインストールする前に独自の /etc/inet/ntp.conf ファイルをインストールしなかった場合は、NTP 構成ファイルをインストールまたは作成します。

    「ネットワークタイムプロトコル (NTP) を構成する」に進みます。

  8. (省略可能) SPARC: Sun Management Center をクラスタを監視するように構成します。

    「SPARC: Sun Cluster モジュールを Sun Management Center 用にインストールする」に進みます。

  9. Sun 以外のアプリケーションをインストールし、リソースタイプを登録し、リソースグループを設定し、データサービスを構成します。

    アプリケーションソフトウェアに付属のマニュアルおよび『Sun Cluster データサービスの計画と管理 (Solaris OS 版)』を参照してください。

ネットワークタイムプロトコル (NTP) を構成する

Sun Cluster ソフトウェアをインストールした後、次の作業を行なって、NTP 構成ファイルを作成および変更します。また、ノードを既存のクラスタに追加したときや、クラスタ内にあるノードのプライベートホスト名を変更したときも、NTP 構成ファイルを変更する必要があります。単一ノードのクラスタにノードを追加した場合、使用する NTP 構成ファイルがもとのクラスタノードにコピーされていることを確認します。

NTP を構成する (つまり、クラスタ内で同期をとる) 場合に重要な第一の条件は、すべてのクラスタノードが同時に同期をとる必要があるということです。ノード間で同期をとる場合に重要な第二の条件は、個々のノードの時間が正確であるということです。このような同期についての基本的条件に適合する場合は、NTP はニーズに合わせて自由に構成できます。

クラスタの時刻の詳細については、『Sun Cluster の概念 (Solaris OS 版)』を参照してください。NTP を Sun Cluster 構成用に構成する場合のガイドラインについては、/etc/inet/ntp.cluster テンプレートファイルを参照してください。

  1. Sun Cluster ソフトウェアをインストールする前に独自の /etc/inet/ntp.conf ファイルをインストールしてある場合は、その ntp.conf ファイルを変更する必要はありません。

    手順 8 に進んでください。

  2. クラスタノードのスーパーユーザーになります。

  3. 独自のファイルがある場合は、そのファイルをクラスタの各ノードにコピーします。

  4. インストールする /etc/inet/ntp.conf ファイルがない場合は、 /etc/inet/ntp.conf.cluster ファイルを NTP 構成ファイルとして使用します。


    注 –

    ntp.conf.cluster ファイルの名前を ntp.confに変更してはいけません。


    ノード上に /etc/inet/ntp.conf.cluster ファイルが存在しない場合、Sun Cluster ソフトウェアの初期インストールに /etc/inet/ntp.conf ファイルが存在する可能性があります。ノード上に /etc/inet/ntp.conf ファイルが存在しない場合、Sun Cluster ソフトウェアは NTP 構成ファイルとして /etc/inet/ntp.conf.cluster ファイルを作成します。この場合、その ntp.conf ファイルを次のように編集します。

    1. 任意のテキストエディタを使用して、クラスタの 1 つのノードで、/etc/inet/ntp.conf.cluster ファイルを編集するために開きます。

    2. 各クラスタノードのプライベートホスト名用のエントリが存在することを確認します。

      ノードのプライベートホスト名を変更した場合、新しいプライベートホスト名が NTP 構成ファイルに存在することを確認します。

    3. 使用しないプライベートホスト名を削除します。

      ntp.conf.cluster ファイルに存在しないプライベートホスト名が含まれている可能性があります。この場合、ノードを再起動するときに、ノードが存在しないプライベートホスト名に接続しようとするため、エラーメッセージが生成されます。

    4. 必要であれば、各自の NTP 条件に適合するように NTP 構成ファイルを変更します。

  5. クラスタ内にあるすべてのノードに NTP 構成ファイルをコピーします。

    NTP 構成ファイルの内容は、すべてのクラスタノードで同じである必要があります。

  6. 各ノード上で、NTP デーモンを停止します。

    各ノード上で停止コマンドが正常に終了するまで待機して、手順 7 に進みます。


    # /etc/init.d/xntpd stop
    

  7. 各ノード上で、NTP デーモンを再起動します。

    • ntp.conf.cluster ファイルを使用する場合は、次のコマンドを実行します。


      # /etc/init.d/xntpd.cluster start
      

      xntpd.cluster 起動スクリプトは最初に、/etc/inet/ntp.conf ファイルを検索します。このファイルが存在しない場合、起動スクリプトは NTP デーモンを起動せずに即座に終了します。ntp.conf ファイルは存在しないが、ntp.conf.cluster ファイルは存在する場合、スクリプトは NTP デーモンを起動します。この場合、スクリプトは ntp.conf.cluster ファイルを NTP 構成ファイルとして使用します。

    • ntp.confファイルを使用する場合は、次のコマンドを実行します。


      # /etc/init.d/xntpd start
      
  8. (省略可能) SPARC: Sun Management Center をクラスタを監視するように構成します。

    「SPARC: Sun Cluster モジュールを Sun Management Center 用にインストールする」に進みます。

  9. Sun 以外のアプリケーションをインストールし、リソースタイプを登録し、リソースグループを設定し、データサービスを構成します。

    アプリケーションソフトウェアに付属のマニュアルおよび『Sun Cluster データサービスの計画と管理 (Solaris OS 版)』を参照してください。

SPARC: 作業手順: Sun Cluster モジュールを Sun Management Center 用にインストールする

Sun Management Center 用の Sun Cluster モジュールにより、Sun Management Center でクラスタを監視できます。次の表に、Sun Management Center 用の Sun Cluster モジュールソフトウェアをインストールするために実行する作業を示します。

表 2–13 作業手順: Sun Management Center 用の Sun Cluster モジュールのインストール

目次 

参照箇所 

Sun Management Center サーバー、ヘルプサーバー、エージェント、コンソールパッケージをインストール 

Sun Management Center のマニュアル 

「SPARC: Sun Cluster 監視のためのインストール条件」

Sun Cluster– モジュールパッケージをインストール 

「SPARC: Sun Cluster モジュールを Sun Management Center 用にインストールする」

Sun Management Center サーバー、コンソール、エージェントプロセスを起動 

「SPARC: Sun Management Center を起動する」

各クラスタノードを Sun Management Center エージェントホストオブジェクトとして追加 

「SPARC: クラスタノードを Sun Management Center エージェントホストオブジェクトとして追加する」

Sun Cluster モジュールを読み込んで、クラスタの監視を開始 

「SPARC: Sun Cluster モジュールを読み込む」

SPARC: Sun Cluster モジュールを Sun Management Center 用にインストールする

この節では、Sun Management Center ソフトウェアに Sun Cluster モジュールをインストールするための情報と手順を紹介します。

SPARC: Sun Cluster 監視のためのインストール条件

Sun Management Center の Sun Cluster モジュールは、Sun Cluster 構成を監視するために使用されます。Sun Cluster モジュールパッケージをインストールする前に、以下の必要条件を確認してください。

SPARC: Sun Cluster モジュールを Sun Management Center 用にインストールする

以下の手順を実行して、Sun Cluster モジュールサーバーおよびヘルプサーバーパッケージをインストールします。


注 –

Sun Cluster モジュールエージェントパッケージ (SUNWscsal および SUNWscsam) は、Sun Cluster ソフトウェアのインストール中にクラスタノードに追加されています。


  1. Sun Management Center のコアパッケージが適切なマシン上にインストールされていることを確認します。

    これは、各クラスタノードでの Sun Management Center エージェントパッケージのインストールが含まれます。インストール方法については、Sun Management Center のマニュアルを参照してください。

  2. サーバーマシンに、Sun Cluster モジュールサーバーパッケージである SUNWscssv をインストールします。

    1. スーパーユーザーになります。

    2. CD-ROM ドライブに Sun Cluster 3.1 9/04 CD-ROM を挿入します。 ボリューム管理デーモンの vold(1M) が実行中で、CD-ROM デバイスを管理するように構成されている場合、デーモンによって自動的に CD-ROM が /cdrom/cdrom0/ ディレクトリにマウントされます。

    3. Solaris_arch/Product/sun_cluster/Solaris_ver/Packages/ ディレクトリに変更します。ここでは archsparc または x86 で、ver8 (Solaris 8 の場合) または 9 (Solaris 9 の場合) となります。


      # cd /cdrom/cdrom0/Solaris_arch/Product/sun_cluster/Solaris_ver/Packages/
      

    4. Sun Cluster モジュールサーバーパッケージをインストールします。


      # pkgadd -d . SUNWscssv
      

    5. CD-ROM に含まれていないディレクトリに移動し、CD-ROM を取り出します。


      # eject cdrom
      

  3. ヘルプサーバーマシンに、Sun Cluster モジュールヘルプサーバーパッケージである SUNWscshl をインストールします。

    上記と同じ手順を実行します。

  4. Sun Cluster モジュールパッチをインストールします。

    パッチの入手先とインストール方法については、『Sun Cluster 3.1 ご使用にあたって 』の「パッチと必須ファームウェアのレベル」を参照してください。

  5. Sun Management Center を起動します。

    「SPARC: Sun Management Center を起動する」 に進みます。

SPARC: Sun Management Center を起動する

次の手順を実行して、Sun Management Center サーバー、エージェント、コンソールプロセスを起動します。

  1. スーパーユーザとして、Sun Management Center サーバーマシンで Sun Management Center サーバープロセスを起動します。


    # /opt/SUNWsymon/sbin/es-start -S
    

  2. スーパーユーザーとして、 Sun Management Center エージェントマシン (クラスタノード) ごとに Sun Management Center エージェントプロセスを起動します。


    # /opt/SUNWsymon/sbin/es-start -a
    

  3. Sun Management Center エージェントマシン (クラスタノード) 上で、scsymon_srv デーモンが動作していることを確認します。


    # ps -ef | grep scsymon_srv
    

    任意のクラスタノード上で scsymon_srv デーモンが動作していない場合、そのノード上でデーモンを起動します。


    # /usr/cluster/lib/scsymon/scsymon_srv
    

  4. Sun Management Center コンソールマシン (管理コンソール) で Sun Management Center コンソールを起動します。

    コンソールプロセスを起動するには、スーパーユーザである必要はありません。


    % /opt/SUNWsymon/sbin/es-start -c
    

  5. ログイン名、パスワード、サーバーのホスト名を入力し、「ログイン」をクリックします。

  6. クラスタノードを監視対象のホストオブジェクトとして追加します。

    「SPARC: クラスタノードを Sun Management Center エージェントホストオブジェクトとして追加する」に進みます。

SPARC: クラスタノードを Sun Management Center エージェントホストオブジェクトとして追加する

次の手順を実行して、クラスタノードの Sun Management Center エージェントホストオブジェクトを作成します。


注 –

Sun Cluster モジュールの監視および構成機能を使用するには、クラスタ全体で必要なクラスタノードホストオブジェクトは、1 つだけです。ただし、そのクラスタノードが利用不能になると、ホストオブジェクトを通じてクラスタと接続することもできなくなります。したがって、クラスタに再接続するには、別のクラスタノードホストオブジェクトが必要となります。


  1. Sun Management Center のメインウィンドウで、「ドメイン」プルダウンリストからドメインを選択します。

    作成する Sun Management Center エージェントホストオブジェクトがこのドメインに格納されます。Sun Management Center ソフトウェアのインストール中に、「デフォルトのドメイン」が自動的に作成されています。このドメインを使用するか、別の既存のドメインを選択するか、または新しいドメインを作成します。

    Sun Management Center ドメインの作成方法については、Sun Management Center のマニュアルを参照してください。

  2. プルダウンメニューから「編集」>「オブジェクトの作成」の順に選択します。

  3. 「ノード」タブを選択します。

  4. 「監視ツール」プルダウンリストから、「エージェントホスト」を選択します。

  5. 「ノードラベル」および「ホスト名」テキストフィールドにクラスタノードの名前 (phys-schost-1 など) を入力します。

    「IP」テキストフィールドは空白のままにしておきます。「説明」テキストフィールドはオプションです。

  6. 「ポート」テキストフィールドに、Sun Management Center エージェントマシンのインストール時に選択したポート番号を入力します。

  7. 「了解」をクリックします。

    ドメインに Sun Management Center エージェントホストオブジェクトが作成されます。

  8. Sun Cluster モジュールを読み込みます。

    「SPARC: Sun Cluster モジュールを読み込む」に進みます。

SPARC: Sun Cluster モジュールを読み込む

次の手順を実行して、クラスタ監視機能を起動します。

  1. Sun Management Center のメインウィンドウで、クラスタノードのアイコンを右クリックします。

    プルダウンメニューが表示されます。

  2. 「モジュールの読み込み」を選択します。

    「モジュールの読み込み」ウィンドウに、利用可能な各 Sun Management Center モジュールと、そのモジュールが現在読み込まれているかどうかが表示されます。

  3. まだ読み込まれていなければ Sun Cluster を選択します。「了解」をクリックします。

    「モジュールの読み込み」ウィンドウに、選択したモジュールの現在のパラメータ情報が表示されます。

  4. 「了解」をクリックします。

    数分後、そのモジュールが読み込まれます。Sun Cluster アイコンが「詳細」ウィンドウに表示されます。

  5. 「詳細」ウィンドウの「オペレーティングシステム」カテゴリで、以下のいずれかの方法で Sun Cluster サブツリーを展開します。

    • ウィンドウ左側のツリー階層で、カーソルを Sun Cluster モジュールのアイコンに合わせ、マウスのセレクトボタンをクリックします。

    • ウィンドウ右側のトポロジ表示領域で、カーソルを Sun Cluster モジュールのアイコンに合わせ、マウスのセレクトボタンをダブルクリックします。

  6. Sun Cluster モジュール機能の使用方法については、Sun Cluster モジュールのオンラインヘルプを参照してください。

    • Sun Cluster モジュールの特定の項目のオンラインヘルプを参照するには、その項目にマウスを合わせます。マウスを右クリックして、ポップアップメニューメニューから「ヘルプ」を選択します。

    • Sun Cluster モジュールのオンラインヘルプのホームページにアクセスするには、「クラスタ情報」アイコンにカーソルを合わせます。マウスを右クリックして、ポップアップメニューメニューから「ヘルプ」を選択します。

    • Sun Cluster モジュールのオンラインヘルプのホームページに直接アクセスするには、Sun Management Center の「ヘルプ」ボタンをクリックして、ヘルプブラウザを起動します。次に、以下の URL にアクセスします。

      file:/opt/SUNWsymon/lib/locale/C/help/main.top.html


    注 –

    Sun Management Center ブラウザの「ヘルプ」ボタンをクリックすると、Sun Cluster モジュールに固有のトピックではなく、Sun Management Center オンラインヘルプにアクセスします。


    Sun Management Center の使用方法については、Sun Management Center のオンラインヘルプと Sun Management Center のマニュアルを参照してください。

  7. Sun 以外のアプリケーションをインストールし、リソースタイプを登録し、リソースグループを設定し、データサービスを構成します。

    アプリケーションソフトウェアに付属のマニュアルおよび『Sun Cluster データサービスの計画と管理 (Solaris OS 版)』を参照してください。

ソフトウェアの削除

この節では、Sun Cluster ソフトウェアを削除するための次の手順を説明します。

Sun Cluster ソフトウェアのアンインストールによるインストール問題を解決する

インストールしたノードがクラスタに参加できなかったり、構成情報を修正する場合、次の手順を実行します。たとえば、トランスポートアダプタやプライベートネットワークアドレスを再構成する場合に実行してください。


注 –

ノードがすでにクラスタに参加しており、インストールモード (「定足数構成とインストールモードを確認する」手順 2を参照) でない場合は、この手順を実行しないでください。代わりに、『 Sun Cluster のシステム管理 (Solaris OS 版)』の「クラスタノードの追加と削除」の「クラスタソフトウェア構成からノードを削除する」手順に進みます。


  1. ノードを再インストールします。

    インストールに失敗したノードは、当該ノード上で Sun Cluster ソフトウェアのインストールをやり直すと修正できる場合があります。ノードの再インストールを行なっても成功しなかった場合、手順 2 に進んで当該ノードから Sun Cluster ソフトウェアをアンインストールします。

  2. アンインストールを行なうノード以外のアクティブなクラスタメンバー上でスーパーユーザーになります。

  3. アクティブなクラスタメンバーから、アンインストールするノードをクラスタの認証ノードリストに追加します。

    単一ノードクラスタのアンインストール時には、この手順は飛ばしてください。


    # /usr/cluster/bin/scconf -a -T node=nodename
    
    -a

    ノードを追加します。

    -T

    認証オプションを指定します。

    node=nodename

    認証リストに追加するノードの名前を指定します。

    あるいは、scsetup(1M) ユーティリティも使用できます。手順については、『Sun Cluster のシステム管理 (Solaris OS 版)』の「ノードを認証ノードリストに追加する」を参照してください。

  4. アンインストールを行なうノード上でスーパーユーザーになります。

  5. アンインストールするノードをシャットダウンします。


    # shutdown -g0 -y -i0
    
  6. ノードを再起動して、非クラスタモードになります。

    • SPARC ベースのシステムでは、次の操作を実行します。


      ok boot -x
      

    • x86 ベースのシステムでは、次の操作を実行します。


                          <<< Current Boot Parameters >>>
      Boot path: /pci@0,0/pci-ide@7,1/ata@1/cmdk@0,0:b
      Boot args:
      
      Type   b [file-name] [boot-flags] <ENTER>  to boot with options
      or     i <ENTER>                           to enter boot interpreter
      or     <ENTER>                             to boot with defaults
      
                       <<< timeout in 5 seconds >>>
      Select (b)oot or (i)nterpreter: b -x
      

  7. Sun Clusterパッケージのファイルが何も含まれていない、root (/) ディレクトリなどのディレクトリへ移動します。


    # cd /
    

  8. そのノードから Sun Cluster ソフトウェアをアンインストールします。


    # /usr/cluster/bin/scinstall -r
    

    詳細については、scinstall(1M) のマニュアルページを参照してください。

  9. ノードに Sun Cluster ソフトウェアを再インストールし、再構成します。

    再インストールを実行するためのインストール作業のリストとその順序については、表 2–1 を参照してください。

SUNWscrdt パッケージを削除する

クラスタ内の各ノード上で次の手順を実行します。

  1. この手順を実行する前に、RSMRDT ドライバを使用しているアプリケーションがないことを確認します。

  2. SUNWscrdt パッケージを削除するノードでスーパーユーザーになります。

  3. SUNWscrdt パッケージを削除します。


    # pkgrm SUNWscrdt
    

RSMRDT ドライバを手動でアンロードする

SUNWscrdt パッケージを削除する」の手順を実行した後もまだドライバがメモリにロードされている場合は、次の手順を実行して、ドライバを手動でアンロードします。

  1. adb ユーティリティーを起動します。


    # adb -kw
    
  2. カーネル変数 clifrsmrdt_modunload_ok1 に設定します。


    physmem NNNN 
    clifrsmrdt_modunload_ok/W 1
    
  3. Control+D キーを押して、adb ユーティリティーを終了します。

  4. clif_rsmrdt およびモジュール ID を見つけます。


    # modinfo | grep rdt
    

  5. clif_rsmrdt モジュールをアンロードします。

    モジュールをアンロードする前に、clif_rsmrdt モジュールをアンロードする必要があります。


    # modunload -i clif_rsmrdt_id
    


    ヒント –

    modunload コマンドが失敗する場合は、おそらくアプリケーションがまだそのドライバを使用しています。modunload コマンドをもう一度実行する前にアプリケーションを終了してください。


    clif_rsmrdt_id

    アンロードする数値 ID を指定します。

  6. rsmrdt モジュールをアンロードします。


    # modunload -i rsmrdt_id
    

    rsmrdt_id

    アンロードする数値 ID を指定します。

  7. モジュールがアンロードされたことを確認します。


    # modinfo | grep rdt
    

例 — RSMRDT ドライバを削除する

次の例は、RSMRDT ドライバを手動で削除した後のコンソール出力を示しています。


# adb -kw
physmem fc54
clifrsmrdt_modunload_ok/W 1
clifrsmrdt_modunload_ok: 0x0 = 0x1
^D
# modinfo | grep rsm
 88 f064a5cb 974 - 1 rsmops (RSMOPS module 1.1)
 93 f08e07d4 b95 - 1 clif_rsmrdt (CLUSTER-RSMRDT Interface module)
 94 f0d3d000 13db0 194 1 rsmrdt (Reliable Datagram Transport dri)
# modunload -i 93
# modunload -i 94
# modinfo | grep rsm
 88 f064a5cb 974 - 1 rsmops (RSMOPS module 1.1)
#