Sun Cluster ソフトウェアのインストール (Solaris OS 版)

第 2 章 グローバルクラスタノードへのソフトウェアのインストール

この章では、グローバルクラスタの投票ノード、およびオプションで管理コンソール上で、ソフトウェアをインストールする手順について説明します。

この章の内容は、次のとおりです。

ソフトウェアをインストールします

この節では、クラスタノードにソフトウェアをインストールするための情報と手順を紹介します。

次の作業マップは、複数または単一ホストのグローバルクラスタにソフトウェアをインストールするときに実行する作業を示しています。ここに示す順に従って手順を実行します。

表 2–1 作業マップ: ソフトウェアのインストール

作業 

参照先 

クラスタ構成のレイアウトを計画、およびソフトウェアをインストールするための準備 

「クラスタソフトウェアのインストールの準備をする」

(省略可能) 定足数サーバーのインストールおよび構成

「定足数サーバーソフトウェアをインストールして構成する」

(省略可能) 管理コンソールへの Cluster Control Panel (CCP) ソフトウェアのインストール

「クラスタコントロールパネルソフトウェアを管理コンソールにインストールする」

すべてのノードに Solaris OS をインストール 

「Solaris ソフトウェアをインストールする」

(省略可能) 内部ディスクのミラー化の設定

「内部ディスクのミラー化を構成する」

(省略可能) Sun Logical Domains (LDoms) ソフトウェアのインストールおよびドメインの作成

「SPARC: Sun Logical Domains ソフトウェアをインストールしてドメインを作成する」

(省略可能) SPARC: Solaris I/O マルチパスソフトウェアのインストールおよび構成

「Solaris I/O マルチパスソフトウェアをインストールする」

(省略可能) SPARC: Veritas File System ソフトウェアのインストール

「Veritas File System ソフトウェアをインストールする」

Sun Cluster ソフトウェアおよび使用するデータサービスのインストール 

「Sun Cluster フレームワークおよびデータサービスソフトウェアパッケージをインストールする 」

(オプション) Sun QFS ソフトウェアのインストール

「Sun QFS Softwareのインストール方法」

ディレクトリパスの設定 

「root 環境を設定する」

(省略可能) Solaris IP Filter の構成

「Solaris IP Filter を構成する」

Procedureクラスタソフトウェアのインストールの準備をする

ソフトウェアのインストールを開始する前に、次の準備作業を行なってください。

  1. クラスタ構成に選択したハードウェアとソフトウェアが現在の Sun Cluster 構成でサポートされていることを確認します。

    サポートされるクラスタ構成の最新情報については、Sun の販売代理店にお問い合わせください。

  2. クラスタ構成の計画およびインストール方法を検討する上で参考となる情報を参照します。

  3. 関連文書 (Sun 以外の製品の文書も含む) をすべて用意します。

    クラスタのインストールを行う場合に参考となるドキュメントを持つ製品の一部を以下に示します。

    • Solaris OS

    • Solaris ボリュームマネージャー ソフトウェア

    • Sun QFS ソフトウェア

    • Veritas Volume Manager

    • その他のアプリケーション

  4. クラスタ構成の計画を立てます。


    Caution – Caution –

    クラスタのインストールを綿密に計画します。Solaris および Sun Cluster ソフトウェアのインストールを開始する前に、データサービスおよび他の製品すべてについて必要条件を認識しておく必要があります。計画に不備があった場合、インストールエラーが発生し、Solaris や Sun Cluster ソフトウェアを完全にインストールし直す必要が生じる可能性もあります。

    たとえば、Oracle Real Application Clusters の Oracle Real Application Clusters Guard オプションには、クラスタで使用するホスト名に関する特別な必要条件があります。このような特別な必要条件は Sun Cluster HA for SAP にもあります。Sun Cluster ソフトウェアをインストールした後にホスト名は変更できないため、このような必要条件は Sun Cluster ソフトウェアをインストールする前に調整しておく必要があります。


  5. クラスタ構成に必要なパッチをすべて入手します。

    パッチおよびインストール手順の場所については、Sun Cluster Release Notes の 「 「Patches and Required Firmware Levels」 」 を参照してください。

次の手順

管理コンソールからクラスタノードへの接続にクラスタコントロールパネルソフトウェアを使用する場合は、「クラスタコントロールパネルソフトウェアを管理コンソールにインストールする」に進みます。

それ以外の場合は、使用する Solaris のインストール手順を選択します。

Procedure定足数サーバーソフトウェアをインストールして構成する

この手順を実行して、ホストサーバーを定足数サーバーとして構成します。

始める前に

次の作業を実行します。

  1. 定足数サーバーソフトウェアをインストールするマシンでスーパーユーザーになります。

  2. (省略可能) GUI で installer プログラムを使用するには、インストール作業を行うホストサーバーの表示環境を、GUI を表示するように設定します。


    # xhost +
    # setenv DISPLAY nodename:0.0
    
  3. インストールメディアをドライブにロードします。

    ボリューム管理デーモン (vold(1M)) が実行中で、CD-ROM または DVD デバイスを管理するよう構成されている場合、このデーモンは自動的にメディアを /cdrom/cdrom0/ ディレクトリにマウントします。

  4. ディレクトリを、メディアのインストールウィザードのディレクトリに変更します。

    • SPARC プラットフォームにソフトウェアパッケージをインストールする場合は、次のコマンドを使用します。


      phys-schost# cd /cdrom/cdrom0/Solaris_sparc
      
    • x86 プラットフォームにソフトウェアパッケージをインストールする場合は、次のコマンドを使用します。


      phys-schost# cd /cdrom/cdrom0/Solaris_x86
      
  5. インストールウィザードを起動します。


    phys-schost# ./installer
    
  6. 画面の指示に従って、ホストサーバーに定足数サーバーソフトウェアをインストールします。

    「あとで設定」オプションを選択します。


    注 –

    インストーラで「あとで設定」オプションを選択できない場合、「今すぐ設定」を選択します。


    インストールが完了すると、インストールログを表示できます。Java Enterprise System installer プログラムの使用方法の詳細ついては、『Sun Java Enterprise System 2006Q4 Installation Guide for UNIX』を参照してください。

  7. すべての必要な定足数サーバーパッチを適用します。

  8. ドライブからインストールメディアを取り出します。

    1. インストールメディアが使用されないように、メディア上のディレクトリ以外に移動する必要があります。

    2. メディアを取り出します。


      phys-schost# eject cdrom
      
  9. 定足数サーバーソフトウェアをサポートするすべての必要なパッチを適用します。

    パッチおよびインストール手順の場所については、『Sun Cluster Release Notes』の「パッチと必須ファームウェアのレベル」を参照してください。

  10. (省略可能) 定足数サーバーのバイナリの場所を PATH 環境変数に追加します。


    quorumserver# PATH=$PATH:/usr/cluster/bin
    
  11. (省略可能) 定足数サーバーのマニュアルページの場所を PATH 環境変数に追加します。


    quorumserver# MANPATH=$MANPATH:/usr/cluster/man
    
  12. 定足数サーバーを構成します。

    次のエントリを /etc/scqsd/scqsd.conf ファイルに追加して、定足数サーバーに関する構成情報を指定します。

    インスタンス名またはポート番号の少なくとも一方を使用して、定足数サーバーを識別します。ポート番号は指定する必要がありますが、インスタンス名はオプションです。

    • インスタンス名を指定する場合、その名前は定足数サーバー間で一意にします。

    • インスタンス名を指定しない場合、常に、定足数サーバーが待機するポートによりこの定足数サーバーを参照します。


    /usr/cluster/lib/sc/scqsd [-d quorumdirectory] [-i instancename] -p port
    
    -d quorumdirectory

    定足数サーバーが定足数データを格納できるディレクトリへのパスです。

    クラスタ固有の定足数情報を格納するために、定足数サーバープロセスはこのディレクトリに 1 クラスタにつき 1 つのファイルを作成します。

    デフォルトでは、このオプションの値は /var/scqsd です。このディレクトリは、ユーザーが構成する各定足数サーバーに対して一意にします。

    -i instancename

    定足数サーバーインスタンスに対してユーザーが選択する一意の名前です。

    -p port

    定足数サーバーがクラスタからの要求を待機するポート番号です。

  13. (省略可能) 複数のクラスタにサービスを提供し、別のポート番号またはインスタンスを使用する場合は、必要な定足数サーバーの追加のインスタンスごとに追加エントリを構成します。

  14. /etc/scqsd/scqsd.conf ファイルを保存して終了します。

  15. 新しく構成した定足数サーバーを起動します。


    quorumserver# /usr/cluster/bin/clquorumserver start quorumserver
    
    quorumserver

    定足数サーバーを識別します。定足数サーバーが待機するポート番号を使用できます。構成ファイルでインスタンス名を指定した場合は、代わりにその名前を使用できます。

    • 1 台の定足数サーバーを起動するには、インスタンス名とポート番号のいずれかを指定します。

    • 複数の定足数サーバーを構成している場合、すべての定足数サーバーを起動するには、 + オペランドを使用します。

注意事項

インストーラは Sun Cluster 定足数サーバー パッケージの簡易 pkgadd インストールを実行し、必要なディレクトリを設定します。ソフトウェアは次のパッケージから構成されています。

これらのパッケージをインストールすると、/usr/cluster および /etc/scqsd ディレクトリにソフトウェアが追加されます。Sun Cluster 定足数サーバー ソフトウェアの場所を変更することはできません。

Sun Cluster 定足数サーバー ソフトウェアに関するインストールエラーメッセージが表示される場合は、パッケージが正しくインストールされているかどうかを確認します。

次の手順

管理コンソールを使用してクラスタノードと通信する場合は、「クラスタコントロールパネルソフトウェアを管理コンソールにインストールする」に進みます。

それ以外の場合は、「Solaris ソフトウェアをインストールする」に進みます。

Procedureクラスタコントロールパネルソフトウェアを管理コンソールにインストールする


注 –

管理コンソールの使用は必須ではありません。管理コンソールを使用しない場合は、クラスタ内の特定のノードから管理作業を行います。

このソフトウェアを使用して Sun Logical Domains (LDoms) のゲストドメインに接続することはできません。


この手順では、管理コンソールにクラスタコントロールパネル (CCP) ソフトウェアをインストールする方法を説明します。CCP は、cconsolecsshctelnet、および crlogin ツール。これらの各ツールは、共通ウィンドウや一連のノードとの多重ウィンドウ接続を提供します。共通ウィンドウを使用すると、すべてのノードに入力を一括送信できます。詳細は、ccp(1M) のマニュアルページを参照してください。

Sun Cluster 3.2 11/09 ソフトウェアがサポートする特定のバージョンの Solaris OS が動作する任意のデスクトップマシンを管理コンソールとして使用できます。Sun Cluster をSPARC ベースのシステムで使用している場合は、管理コンソールを Sun Management Center コンソールやサーバーとして使用することもできます。 Sun Management Center ソフトウェアをインストールする方法については、 Sun Management Center のマニュアルを参照してください。

始める前に

サポートされている Solaris OS 環境のバージョンと Solaris パッチが管理コンソールにインストールされていることを確認してください。すべてのプラットフォームで、少なくとも End User Solaris ソフトウェアグループが必要です。

  1. 管理コンソールでスーパーユーザーになります。

  2. DVD-ROM ドライブに Sun Java Availability Suite DVD-ROM を挿入します。

    ボリューム管理デーモン vold(1M) が実行中で、CD-ROM または DVD デバイスを管理するよう構成されている場合、このデーモンは自動的にメディアを /cdrom/cdrom0/ ディレクトリにマウントします。

  3. /cdrom/suncluster_3_0Packages/ ディレクトリ (ここで、archsparc または x86ver は Solaris 10 の場合 10


    adminconsole# cd /cdrom/cdrom0//cdrom/suncluster_3_0/Packages/
    
  4. SUNWccon パッケージをインストールします。


    adminconsole# pkgadd -d . SUNWccon
    
  5. (省略可能) Sun Cluster マニュアルページのパッケージをインストールします。


    adminconsole# pkgadd -d . pkgname
    

    パッケージ名 

    説明 

    SUNWscman

    Sun Cluster フレームワークのマニュアルページ 

    SUNWscdsman

    Sun Cluster データサービスのマニュアルページ 

    SUNWscqsman

    Sun Cluster 定足数サーバー のマニュアルページ 

    Sun Cluster マニュアルページパッケージを管理コンソールにインストールする場合、Sun Cluster ソフトウェアをクラスタノードまたは定足数サーバーにインストールする前に、それらのパッケージを管理コンソールから表示できます。

  6. DVD-ROM ドライブから Sun Java Availability Suite DVD-ROM を取り出します。

    1. DVD-ROM が使用されていないことを確認し、DVD-ROM 上にないディレクトリに移動します。

    2. DVD-ROM を取り出します。


      adminconsole# eject cdrom
      
  7. 管理コンソールに /etc/clusters ファイルを作成します。

    クラスタ名と、各クラスタノードの物理ノード名をファイルに追加します。


    adminconsole# vi /etc/clusters
    clustername node1 node2
    

    詳細については、/opt/SUNWcluster/bin/clusters(4)マニュアルページを参照してください。

  8. /etc/serialports ファイルを作成します。

    このファイルに、クラスタ内の各ノード用のエントリを追加します。物理ノード名、コンソールアクセスデバイスのホスト名、およびポート番号を指定します。コンソールアクセスデバイスの例として、端末集配信装置 (Terminal Concentrator、TC)、システムサービスプロセッサ (System Service Processor、SSP)、および Sun Fire システムコントローラがあります。


    adminconsole# vi /etc/serialports
    node1 ca-dev-hostname port
    node2 ca-dev-hostname port
    
    node1、 node2

    クラスタノードの物理名

    ca-dev-hostname

    コンソールアクセスデバイスのホスト名

    port

    Secure Shell 接続のためのシリアルポート番号、 または Secure Shell ポート番号。

    /etc/serialports ファイルを作成するためには、次の注意事項に従ってください。

    • Sun Fire 15000 システムコントローラでは、各エントリのシリアル番号に telnet(1)ポート番号 23 を使用します。

    • その他すべてのコンソールアクセスデバイスの場合、telnet 接続を使用してコンソールに接続するには、物理ポート番号ではなく、telnet シリアルポート番号を使用します。 telnet シリアルポート番号は、物理ポート番号に 5000 を加えた値です。たとえば、物理ポート番号が 6 の場合、telnet シリアルポート番号は 5006 になります。

    • Sun Enterprise 10000 サーバーの詳細と注意事項については、 /opt/SUNWcluster/bin/serialports(4) のマニュアルページを参照してください。

    • ノードコンソールへの Secure Shell 接続の場合は、各ノードで保護付きの接続に使用するコンソールアクセスデバイスの名前とポート番号を指定します。Secure Shell のデフォルトポート番号は 22 です。

    • 管理コンソールを直接クラスタノードに接続したり、管理ネットワーク経由で接続する場合は、ノードごとにそのノードが管理コンソールや管理ネットワークへの接続に使用するホスト名とポート番号を指定します。

  9. (省略可能) 便宜上、管理コンソール上のディレクトリパスを設定します。

    1. /opt/SUNWcluster/bin/ ディレクトリを PATH に追加します。

    2. /opt/SUNWcluster/man/ ディレクトリを MANPATH に追加します。

    3. SUNWscman パッケージをインストールした場合は、/usr/cluster/man/ ディレクトリも MANPATH に追加します。

  10. CCP ユーティリティーを起動します。


    adminconsole# /opt/SUNWcluster/bin/ccp &
    

    CCP ウィンドウで、cconsolecsshcrlogin、または ctelnet ボタンをクリックしてツールを起動します。これらのツールは直接起動することもできます。たとえば、ctelnet を起動するには、次のコマンドを入力します。


    adminconsole# /opt/SUNWcluster/bin/ctelnet &
    

    CCP ソフトウェアは、次の Secure Shell 接続に対応しています。

    • ノードコンソールへの保護付きの接続の場合、cconsole ツールを起動します。次にクラスタコンソールウィンドウの「オプション」メニューから「Use SSH」チェックボックスをオンにします。

    • クラスタノードへの保護付きの接続の場合、cssh ツールを使用します。

    CCP ユーティリティーを使用する方法については、『Sun Cluster のシステム管理 (Solaris OS 版)』「クラスタ管理の開始」の 「How to Remotely Log In to Sun Cluster」 を参照してください。詳細については、ccp(1M)マニュアルページも参照してください。

次の手順

Solaris OS がインストールされており、Sun Cluster ソフトウェアの必要条件を満たしているかどうかを確認します。Solaris OS に関する Sun Cluster のインストール要件については、「Solaris OS の計画」を参照してください。

ProcedureSolaris ソフトウェアをインストールする

ソフトウェアのインストールに scinstall カスタム JumpStart インストールメソッドを使用しない場合は、次の手順に従ってグローバルクラスタ内の各ノードに Solaris OS をインストールしてください。クラスタの JumpStart インストールの詳細については、「Solaris と Sun Cluster ソフトウェアをインストールする (JumpStart)」を参照してください。


ヒント –

Solaris OS は、各ノードに同時にインストールできるため、インストール時間を節約できます。


ノードに Solaris OS がすでにインストールされていても、Sun Cluster インストールの必要条件が満たされていない場合は、Solaris ソフトウェアを再インストールする必要があります。以下に示す手順に従って、Sun Cluster ソフトウェアを確実にインストールしてください。必要なルートディスクのパーティションの分割方法などの Sun Cluster インストール要件については、「Solaris OS の計画」を参照してください。

始める前に

次の作業を実行します。

  1. クラスタ管理コンソールを使用している場合、クラスタ内にある各ノードのコンソール画面を表示します。

    • クラスタコントロールパネル (CCP) ソフトウェアが管理コンソールにインストールされ、構成されている場合は、cconsole(1M) ユーティリティーを使用して、コンソール画面を個別に表示します。

      スーパーユーザーとして、次のコマンドを使用して、cconsole ユーティリティーを起動します。


      adminconsole# /opt/SUNWcluster/bin/cconsole clustername &
      

      また、cconsole ユーティリティーを使用してマスターウィンドウを開くことができます。ここでの入力を、個々のすべてのコンソールウィンドウに同時に送信できます。

    • cconsole ユーティリティーを使用しない場合は、各ノードのコンソールに個別に接続します。

  2. Solaris インストールマニュアルに指示されているとおりに Solaris OS をインストールします。


    注 –

    同一クラスタ内のノードはすべて、同じバージョンの Solaris OS である必要があります。


    Solaris ソフトウェアの通常のインストール方法を使用してインストールします。Solaris ソフトウェアのインストール時に、次の作業を行います。

    1. 少なくとも End User Solaris ソフトウェアグループをインストールします。


      ヒント –

      Solaris ソフトウェアパッケージを手動でインストールしなくてすむようにするには、Entire Solaris Software Group Plus OEM Support をインストールしてください。


      これ以外のSolaris ソフトウェアの要件については、「Solaris ソフトウェアグループについて」を参照してください。

    2. 「手動配置」を選択して、ファイルシステムを設定します。

      • スライス 7 には少なくとも 20 MB のサイズを指定します。

      • (省略可能) グローバルデバイスサブシステムを使用するための、少なくとも 512M バイトのファイルシステムを作成します。


        注 –

        または、この専用ファイルシステムを作成しないで、その代わり、lofi デバイスを使用します。クラスタを確立したら、lofi デバイスの使用を scinstall コマンドに指定します。


      • ほかにも必要なファイルシステムパーティションがある場合は、「システムディスクパーティション」の説明に従って作成します。

    3. 管理しやすくするために、すべてのノード上で同じ root パスワードを設定します。

  3. スーパーユーザーではなく、役割に基づくアクセス制御 (RBAC) を使用してクラスタノードにアクセスする場合は、すべての Sun Cluster コマンドに認証を提供する RBAC の役割を設定します。

    ユーザーがスーパーユーザーでない場合、この一連のインストール手順には、次の Sun Cluster RBAC 認証が必要です。

    • solaris.cluster.modify

    • solaris.cluster.admin

    • solaris.cluster.read

    RBAC の役割について詳しくは、『Solaris のシステム管理 (セキュリティサービス)』「役割によるアクセス制御 (概要)」 を参照してください。各 Sun Cluster サブコマンドで必要となる RBAC の承認については、Sun Cluster のマニュアルページを参照してください。

  4. 既存のクラスタにノードを追加する場合は、新しいノードにクラスタファイルシステム用のマウントポイントを追加します。

    1. アクティブなノードから、すべてのクラスタファイルシステムの名前を表示します。


      phys-schost-1# mount | grep global | egrep -v node@ | awk '{print $1}'
      
    2. 新しいノード上で、クラスタ内のクラスタファイルシステムごとにマウントポイントを作成します。


      phys-schost-new# mkdir -p mountpoint
      

      たとえば、mount コマンドで表示されるファイルシステム名が /global/dg-schost-1 の場合は、クラスタに追加する新しいノードで mkdir -p /global/dg-schost-1 を実行します。

  5. ノードの追加を行なっており、かつ、VxVM がクラスタの任意のノードにインストールされている場合は、次の作業を実行します。

    1. VxVM がインストールされているノード上で同じ vxio 番号が使用されていることを確認します。


      phys-schost# grep vxio /etc/name_to_major
      vxio NNN
      
    2. VxVM がインストールされていない各ノード上で vxio 番号が使用できることを確認してください。

    3. VxVM がインストールされていないノードで、vxio 番号がすでに使用されている場合は、/etc/name_to_major エントリを別の番号を使用するように変更します。

  6. エンドユーザー Solaris ソフトウェアグループをインストールし、次の Sun Cluster 機能のいずれかを使用する場合、別の Solaris ソフトウェアパッケージをインストールしてこれらの機能をサポートしてください。

    機能 

    必須の Solaris ソフトウェアパッケージ 

    RSMAPI、RSMRDT ドライバ、または SCI-PCI アダプタ (SPARC ベースのクラスタのみ) 

    SPARC: Solaris 9: SUNWrsm SUNWrsmx SUNWrsmo SUNWrsmox

    Solaris 10: SUNWrsm SUNWrsmo

    scsnapshot

    SUNWp15u SUNWp15v SUNWp15p

    Sun Cluster Manager

    SUNWapchr SUNWapchu

    • SPARC:Solaris 9 OS の場合は、次のコマンドを実行します。


      phys-schost# pkgadd -d . package
      
    • Solaris 10 OS の場合は、次のコマンドを実行します。


      phys-schost# pkgadd -G -d . package
      

      これらのパッケージは、大域ゾーンだけに追加する必要があります。-G オプションを使用すると、現在のゾーンだけにパッケージを追加します。このオプションは、既存の非大域ゾーン、またはあとで作成する非大域ゾーンにパッケージを伝播しないことも指定します。

  7. 必要な Solaris OS パッチ、ハードウェア関連のファームウェア、およびパッチをインストールします。

    ストレージアレイサポートにこれらのパッチを含めます。また、ハードウェアパッチに含まれている必要なファームウェアをダウンロードします。

    パッチおよびインストール手順の場所については、Sun Cluster Release Notes の 「 「Patches and Required Firmware Levels」 」 を参照してください。

  8. x86: デフォルトのブートファイルを設定します。

    この値を設定すると、ログインプロンプトにアクセスできないときにノードを再起動できます。

    • Solaris 9 OS では、デフォルトを kadb に設定します。


      phys-schost# eeprom boot-file=kadb
      
    • Solaris 10OS では、GRUB のブートパラメータメニューでデフォルトを kmdb に設定します。


      grub edit> kernel /platform/i86pc/multiboot kmdb
      
  9. クラスタで使用されているパブリック IP アドレスすべてを使用して各ノードで/etc/inet/hosts ファイルをアップデートします。

    この手順は、ネームサービスを使用しているかどうかに関わらず実行します。


    注 –

    新しいクラスタまたはクラスタノードの確立中に、scinstall ユーティリティーは自動的に構成中の各ノードのパブリック IP アドレスを /etc/inet/hosts ファイルに追加します。


  10. (省略可能) Sun Enterprise 10000 サーバー上で、/etc/system ファイルを動的構成を使用するように構成します。

    クラスタの各ノード上の /etc/system ファイルに次のエントリを追加します。


    set kernel_cage_enable=1

    このエントリは、次のシステム再起動後に有効になります。動的再構成の詳細については、サーバーのマニュアルを参照してください。

  11. (省略可能) IPMP グループでパブリックネットワークアダプタを構成します。

    scinstall ユーティリティーがクラスタの作成中に構成する多重アダプタ IPMP グループを使用しない場合は、スタンドアロンシステムでカスタム IPMP グループを構成します。詳細については、『Solaris のシステム管理 (IP サービス)』の第 31 章「IPMP の管理 (手順)」を参照してください。

    クラスタ作成中、scinstall ユーティリティーは、同じサブネットを使用するパブリックネットワークアダプタの各セットのうち、IPMP グループでまだ構成されていないものを、単一の多重アダプタIPMP グループに構成します。scinstall ユーティリティーは、既存の IPMP グループを無視します。

次の手順

サーバが内部ハードディスクドライブのミラー化に対応していて、内部ディスクのミラー化を設定する場合は、「内部ディスクのミラー化を構成する」に進みます。

それ以外の場合で、Solaris I/O マルチパスソフトウェアを使用する場合は、「Solaris I/O マルチパスソフトウェアをインストールする」に進みます。

それ以外の場合で、VxFS をインストールする場合は、「Veritas File System ソフトウェアをインストールする」に進みます。

それ以外の場合、Sun Cluster ソフトウェアパッケージをインストールします。「Sun Cluster フレームワークおよびデータサービスソフトウェアパッケージをインストールする 」に進みます。

参照

Sun Cluster 構成で、動的再構成の作業を実行するための手順については、『Sun Cluster のシステム管理 (Solaris OS 版)』 を参照してください。

Procedure内部ディスクのミラー化を構成する

グローバルクラスタの各ノードで、次の手順に従って、内部ハードウェア RAID ディスクのミラー化を設定し、システムディスクをミラー化します。この手順は省略可能です。


注 –

次のような状況ではこの手順を実行しないでください。


始める前に

Solaris オペレーティングシステムおよび必要なパッチがインストールされていることを確認します。

  1. スーパーユーザーになります。

  2. 内部ミラーを構成します。


    phys-schost# raidctl -c clt0d0 clt1d0 
    
    -c clt0d0 clt1d0

    ミラーディスクにプライマリディスクのミラーを作成します。プライマリディスクの名前を 1 番目の引数として入力します。ミラーディスクの名前を 2 番目の引数として入力します。

    サーバーの内部ディスクのミラー化の設定方法については、サーバーに付属のマニュアルおよびraidctl(1M)マニュアルページを参照してください。

次の手順

SPARC: Sun Logical Domains (LDoms) を作成する場合は、「SPARC: Sun Logical Domains ソフトウェアをインストールしてドメインを作成する」に進みます。

Solaris I/O マルチパスソフトウェアを使用する場合は、「Solaris I/O マルチパスソフトウェアをインストールする」に進みます。

それ以外の場合で、VxFS をインストールする場合は、「Veritas File System ソフトウェアをインストールする」に進みます。

それ以外の場合、Sun Cluster ソフトウェアパッケージをインストールします。「Sun Cluster フレームワークおよびデータサービスソフトウェアパッケージをインストールする 」に進みます。

ProcedureSPARC: Sun Logical Domains ソフトウェアをインストールしてドメインを作成する

次の手順に従って、物理的にクラスタ化されたマシン上に Sun Logical Domains (LDoms) ソフトウェアをインストールして、I/O およびゲストドメインを作成します。

始める前に

次の作業を実行します。

  1. マシン上のスーパーユーザーになります。

  2. Sun Logical Domains ソフトウェアをインストールしてドメインを構成します。

    • 『Logical Domains (LDoms) 1.0.3 Administration Guide』「ソフトウェアのインストールおよび有効化」に記載された手順に従います。

      ゲストドメインを作成する場合は、Sun Cluster の、クラスタ内にゲストドメインを作成するためのガイドラインに従ってください。

    • クラスタインターコネクトとして使用する仮想ネットワークデバイスに接続されるすべての仮想スイッチデバイスで、mode=sc オプションを使用します。

    • 共有ストレージの場合、ゲストドメインに全 SCSI ディスクをマップするだけです。

次の手順

サーバが内部ハードディスクドライブのミラー化に対応していて、内部ディスクのミラー化を設定する場合は、「内部ディスクのミラー化を構成する」に進みます。

それ以外の場合で、Solaris I/O マルチパスソフトウェアを使用する場合は、「Solaris I/O マルチパスソフトウェアをインストールする」に進みます。

それ以外の場合で、VxFS をインストールする場合は、「Veritas File System ソフトウェアをインストールする」に進みます。

それ以外の場合、Sun Cluster ソフトウェアパッケージをインストールします。「Sun Cluster フレームワークおよびデータサービスソフトウェアパッケージをインストールする 」に進みます。

ProcedureSolaris I/O マルチパスソフトウェアをインストールする

グローバルクラスタの各ノードで次の手順を実行して、ファイバチャネル (Fiber Channel、FC) ストレージ用の Solaris I/O マルチパスソフトウェア (MPxIO) をインストールして設定します。マルチパスソフトウェアは、共有クラスタストレージへの複数の入出力パスを管理します。この手順は省略可能です。

始める前に

次の作業を実行します。

  1. スーパーユーザーになります。


    注 –

    SPARC: Sun Logical Domains (LDoms) ソフトウェアをインストールした場合は、I/O ドメインで次の手順を実行し、I/O ドメインをゲストドメインにエクスポートします。ゲストドメインで直接 Solaris I/O マルチパスソフトウェアを有効にしないでください。


  2. SPARC: Solaris 9 OS の場合、各ノードに Sun StorEdge Traffic Manager ソフトウェアと必要なパッチをインストールします。

  3. マルチパス機能を有効化します。

    • SPARC: Solaris 9 OS の場合、mpxio-disable パラメータの値を no に変更します。

      各ノードの /kernel/drv/scsi_vhci.conf ファイルでこのエントリを変更します。


      set mpxio-disable=no
    • Solaris 10 OS の場合、各ノードで次のコマンドを実行します。


      注意 – 注意 –

      Sun Cluster ソフトウェアがすでに実行されている場合は、このコマンドを実行しないでください。アクティブなクラスタノードで stmsboot コマンドを実行すると、Solaris サービスがメンテナンス状態になる場合があります。代わりに、stmsboot(1M)マニュアルページにある Sun Cluster 環境での stmsboot コマンドの使い方の手順に従ってください。



      phys-schost# /usr/sbin/stmsboot -e
      
      -e

      Solaris I/O マルチパスを有効にします。

      詳細については、stmsboot(1M)マニュアルページを参照してください。

  4. SPARC: Solaris 9 OS の場合、実行中のバージョンの Sun StorEdge SAN Foundation ソフトウェアに使用するストレージアレイのサポートが組み込まれているかどうかを判定してください。

    ソフトウェアに使用するストレージアレイの組み込みサポートが含まれていない場合は、各ノードの /kernel/drv/scsi_vhci.conf ファイルを編集して、必要なエントリを含めます。詳細は、ストレージデバイスのリリースノートを参照してください。

  5. SPARC: Solaris 9 OS の場合、各ノードをシャットダウンして、再起動を実行します。

    再構成ブートにより、新しい Solaris デバイスファイルとリンクが作成されます。


    phys-schost# shutdown -y -g0 -i0
    ok boot -r
    
  6. すべてのノードで再構成リブートが終了したあと、ストレージアレイの構成を完了するために必要なその他の作業を実行します。

    ストレージアレイの導入手順の詳細については、「Sun Cluster Hardware Administration Collection」を参照してください。

注意事項

クラスタに Sun Cluster ソフトウェアをインストールしたあとで Solaris I/O マルチパスソフトウェアをインストールした場合、DID マッピングの更新が必要になる場合がありますクラスタの各ノードで、次のコマンドを実行して、DID 名前空間を再生成してください。

phys-schost# cldevice clearphys-schost# cldevice refresh(Solaris 9 のみ) phys-schost# cfgadm -c configure phys-schost# cldevice populate

詳細については、cfgadm(1m)およびcldevice(1CL)マニュアルページを参照してください。

次の手順

VxFS をインストールする場合は、「Veritas File System ソフトウェアをインストールする」に進みます。

それ以外の場合、Sun Cluster ソフトウェアパッケージをインストールします。「Sun Cluster フレームワークおよびデータサービスソフトウェアパッケージをインストールする 」に進みます。

ProcedureVeritas File System ソフトウェアをインストールする

クラスタで Veritas File System (VxFS) ソフトエアを使用するには、グローバルクラスタの各ノードで次の手順を実行します。

  1. VxFS のインストールマニュアルに従って、VxFS ソフトウェアをクラスタの各ノード上にインストールします。

  2. VxFS のサポートに必要なすべての Sun Cluster パッチをインストールします。

    パッチおよびインストール手順の場所については、Sun Cluster Release Notes の 「 「Patches and Required Firmware Levels」 」 を参照してください。

  3. 各ノードの /etc/system ファイルで、次の値を設定します。


    set rpcmod:svc_default_stksize=0x8000
    set lwp_default_stksize=0x6000

    これらの変更は、次にシステムを再起動したときに有効になります。

    • Sun Cluster ソフトウェアには、少なくとも 0x8000 に設定された rpcmod:svc_default_stksize が必要です。VxFS をインストールすると、rpcmod:svc_default_stksize 変数の値が 0x4000 に設定されるため、VxFS のインストールが終わったあと、値を手動で 0x8000 に設定する必要があります。

    • /etc/system ファイルの lwp_default_stksize 変数を設定して、VxFS デフォルト値の 0x4000 を無効にします。

次の手順

Sun Cluster ソフトウェアパッケージをインストールします。「Sun Cluster フレームワークおよびデータサービスソフトウェアパッケージをインストールする 」に進みます。

ProcedureSun Cluster フレームワークおよびデータサービスソフトウェアパッケージをインストールする


注 –

代わりに、Sun N1TM Service Provisioning System 用の Sun Cluster プラグインを配備して、Sun Cluster フレームワークおよびデータサービスソフトウェアをインストールすることもできます。プラグインに付属のマニュアルに記載された手順に従ってください。また、http://wikis.sun.com/display/SunCluster/Sun+Cluster+Framework+Plug-in の情報にアクセスすることもできます。


Sun JavaTM Enterprise System (Java ES) installer プログラムを使用して次のインストール作業の 1 つまたは複数を実行するには、この手順に従います。


注 –

この手順では、対話型の installer プログラムを使用します。インストールスクリプトの開発といった非対話型の installer プログラムを使用するには、『Sun Java Enterprise System 5 Update 1 Installation Guide for UNIX』 の 第 5 章、「Installing in Silent Mode」 を参照してください。


始める前に

次の作業を実行します。

  1. (Solaris 10 のみ) RPC 通信への外部アクセスを復元し、必要に応じて Sun Java Web コンソールへのアクセスを復元します。

    Solaris 10 OS のインストール中、遠隔クライアントのネットワークサービスを有効にしないように設定すると、特定のネットワークサービスへの外部アクセスを無効にする制限されたネットワークプロファイルが使用されます。この制限されたサービスには、クラスタ機能に影響を与える次のようなサービスがあります。

    • クラスタ通信に必要な RPC 通信サービス

    • Sun Cluster Manager の GUI を使用するために必要な Sun Java Web Console サービス

    次の手順によって、Sun Cluster フレームワークによって使用される Solaris 機能が復元されますが、制限されたネットワークプロファイルが使用されている場合は、復元されません。

    1. RPC 通信への外部アクセスを復元するには、次のコマンドを実行します。


      phys-schost# svccfg
      svc:> select network/rpc/bind
      svc:/network/rpc/bind> setprop config/local_only=false
      svc:/network/rpc/bind> quit
      phys-schost# svcadm refresh network/rpc/bind:default
      phys-schost# svcprop network/rpc/bind:default | grep local_only
      

      最後のコマンドの出力は、local_only プロパティーが現在 false に設定されていることを示しているはずです。

    2. (省略可能) Sun Java Web Console への外部アクセスを復元するには、次のコマンドを実行します。


      phys-schost# svccfg
      svc:> select system/webconsole
      svc:/system/webconsole> setprop options/tcp_listen=true
      svc:/system/webconsole> quit
      phys-schost# /usr/sbin/smcwebserver restart
      phys-schost# netstat -a | grep 6789
      

      最後のコマンドの出力は、Sun Java Web Console に接続するために使用されるポート番号である 6789 のエントリを返すはずです。

      制限ネットワークプロファイルが、ローカル接続に対して制限するサービスの詳細については、『Solaris 10 10/09 インストールガイド(インストールとアップグレードの計画)』「ネットワークセキュリティーの計画」を参照してください。

  2. (省略可能) GUI で installer プログラムを使用するには、インストール作業を行うクラスタノードの表示環境を、GUI を表示するように設定します。


    % xhost +
    % setenv DISPLAY nodename:0.0
    

    これらの設定を行わない場合、installer プログラムはテキストベースモードで実行されます。

  3. インストールするクラスタノードでスーパーユーザーになります。


    注 –

    物理的にクラスタ化されたマシンが Sun LDoms で構成されている場合、I/O ドメインまたはゲストドメインのみ Sun Cluster ソフトウェアをインストールしてください。


  4. DVD-ROM ドライブに Sun Java Availability Suite DVD-ROM を挿入します。

    ボリューム管理デーモン vold(1M) が実行中で、CD-ROM または DVD デバイスを管理するよう構成されている場合、このデーモンは自動的にメディアを /cdrom/cdrom0/ ディレクトリにマウントします。

  5. DVD-ROM の インストールウィザードディレクトリに移動します。

    • SPARC プラットフォームにソフトウェアパッケージをインストールする場合は、次のコマンドを使用します。


      phys-schost# cd /cdrom/cdrom0/Solaris_sparc
      
    • x86 プラットフォームにソフトウェアパッケージをインストールする場合は、次のコマンドを使用します。


      phys-schost# cd /cdrom/cdrom0/Solaris_x86
      
  6. インストールウィザードプログラムを開始します。


    phys-schost# ./installer
    

    Java ES installer プログラムの各種フォームや機能の使用の詳細については、『Sun Java Enterprise System 5 Update 1 Installation Guide for UNIX』 を参照してください。

  7. 画面の指示に従い、Sun Cluster フレームワークソフトウェアおよびデータサービスをノードにインストールします。

    • Sun Cluster Manager (旧 SunPlex Manager) をインストールしない場合は、これを選択解除します。


      注 –

      Sun Cluster Manager は、クラスタのすべてのノードにインストールするか、まったくインストールしないかのいずれかにする必要があります。


    • Sun Cluster Geographic Edition ソフトウェアをインストールする場合は、これを選択します。

      クラスタが確立されたら、『Sun Cluster Geographic Edition Installation Guide』 でその後のインストール手順を参照してください。

    • Sun Cluster フレームワークソフトウェアを構成するかどうかを尋ねるプロンプトが表示されたら、「あとで設定」を選択します。

    インストールが完了すると、インストールログを表示できます。

  8. 次の機能のいずれかを使用するには、追加のパッケージをインストールします。

    • Remote Shared Memory Application Programming Interface (RSMAPI)

    • インターコネクトトランスポート用の SCI-PCI アダプタ

    • RSMRDT ドライバ


    注 –

    RSMRDT ドライバを使用できるのは、Oracle9i リリース 2 SCI 構成を RSM を有効にして実行しているクラスタだけです。インストールと構成手順についての詳細は、Oracle9i リリース 2 のユーザーマニュアルを参照してください。


    1. インストールが必要なパッケージを決定します。

      各機能に必要な Sun Cluster 3.2 11/09 パッケージとパッケージの各グループのインストール順序を次の表に示します。Java ES のinstaller プログラムでは、これらのパッケージは自動的にはインストールされません。


      注 –

      次の表に示した順序でパッケージをインストールしてください。


      機能 

      インストールする追加の Sun Cluster 3.2 11/09 パッケージ 

      RSMAPI 

      SUNWscrif

      SCI-PCI アダプタ 

      • Solaris 9: SUNWsci SUNWscid SUNWscidx

      • Solaris 10: SUNWscir SUNWsci SUNWscidr SUNWscid

      RSMRDT ドライバ 

      SUNWscrdt

    2. /cdrom/suncluster_3_0Packages/ ディレクトリ (ここで、archsparc または x86ver は Solaris 10 の場合 10 に移動します。


      phys-schost# cd /cdrom/cdrom0//cdrom/suncluster_3_0Packages/
      
    3. 追加のパッケージをインストールします。

      • SPARC:Solaris 9 OS の場合は、次のコマンドを実行します。


        phys-schost# pkgadd -d . packages
        
      • Solaris 10 OS の場合は、次のコマンドを実行します。


        phys-schost# pkgadd -G -d . packages
        
  9. DVD-ROM ドライブから Sun Java Availability Suite DVD-ROM を取り出します。

    1. DVD-ROM が使用されていないことを確認し、DVD-ROM 上にないディレクトリに移動します。

    2. DVD-ROM を取り出します。


      phys-schost# eject cdrom
      
  10. Sun Cluster ソフトウェアをサポートするために必要なパッチを適用します。

    パッチおよびインストール手順の場所については、Sun Cluster Release Notes の 「 「Patches and Required Firmware Levels」 」 を参照してください。

  11. クラスタインターコネクトに次のアダプタのいずれかを使用する場合、各ノード上で /etc/system ファイルの関連エントリのコメントを解除します。

    アダプタ 

    エントリ 

    ce 

    set ce:ce_taskq_disable=1 

    ipge 

    set ipge:ipge_taskq_disable=1 

    ixge 

    set ixge:ixge_taskq_disable=1 

    このエントリは、次のシステム再起動後に有効になります。

次の手順

Sun QFS ファイルシステムソフトウェアをインストールする場合、初期インストールの手順を実行してください。「Sun QFS Softwareのインストール方法」を参照してください。

root ユーザー環境を設定する場合は、「root 環境を設定する」に進みます。

ProcedureSun QFS Softwareのインストール方法

グローバルクラスタ内の各ノード上で次の手順を実行します。

  1. Sun Cluster ソフトウェアがインストールされていることを確認します。

    「Sun Cluster フレームワークおよびデータサービスソフトウェアパッケージをインストールする 」を参照してください。

  2. クラスタノード上にインストールするクラスタノード上でスーパーユーザーになります。

  3. Sun QFS ファイルシステムソフトウェアをインストールします。

    Sun QFS のインストールの初期インストールの手順を実行してください。

次の手順

root ユーザー環境を設定します。 「root 環境を設定する」に進みます。.

Procedureroot 環境を設定する


注 –

Sun Cluster 構成では、各種シェルのユーザー初期化ファイルは、それらが対話式のシェルから実行されていることを確認する必要があります。確認は、端末への出力を試みる前に行なってください。この方法に従わないと、予期しない動作やデータサービス妨害が発生する可能性があります。詳細については、『「Solaris のシステム管理 (基本編)」』(Solaris 9 またはSolaris 10) の「『ユーザーの作業環境のカスタマイズ』」を参照してください。


グローバルクラスタ内の各ノード上で次の手順を実行します。

  1. クラスタノード上にインストールするクラスタノード上でスーパーユーザーになります。

  2. .cshrc または .profile ファイルの PATH および MANPATH エントリを変更します。

    1. PATH/usr/sbin/ および /usr/cluster/bin/ を追加します。

    2. MANPATH/usr/cluster/man/ を追加します。

    追加のファイルパスの設定については、Solaris OS のマニュアルおよびその他のアプリケーションのマニュアルを参照してください。

  3. (省略可能) 管理を行いやすくするため、各ノードに同じ root パスワードを設定します。

次の手順

Solaris IP Filter を使用する場合は、「Solaris IP Filter を構成する」に進みます。

使用しない場合は、クラスタノード上で Sun Cluster ソフトウェアを構成します。「新規グローバルクラスタまたは新規グローバルクラスタノードの確立」に進みます。

ProcedureSolaris IP Filter を構成する

グローバルクラスタ上で Solaris IP Filter を構成するには、次の手順を実行します。


注 –

Solaris IP Filter はフェイルオーバーデータサービスでのみ使用します。スケーラブルデータサービスでの Solaris IP Filter の使用はサポートされていません。


次のガイドラインに従います。

Solaris IP Filter 機能についての詳細については、『Solaris のシステム管理 (IP サービス)』のパート IV「IP セキュリティー」を参照してください。

  1. スーパーユーザーになります。

  2. 影響を受けたすべてのノード上の /etc/ipf/ipf.conf ファイルにフィルタルールを追加します。

    フィルタルールを Sun Cluster ノードに追加する場合、次のガイドラインと要件に従います。

    • (Solaris 10 のみ) 各ノード上の ipf.conf ファイルに、ルールを追加してクラスタ相互接続トラフィックがフィルタリングされずに明示的に渡されるようにします。 インタフェース固有でないルールは、クラスタ相互接続を含めたすべてのインタフェースに適用されます。これらのインタフェース上のトラフィックが誤ってブロックされていないことを確認します。

      たとえば、現在、次のルールが使用されていると仮定します。


      # Default block TCP/UDP unless some later rule overrides
      block return-rst in proto tcp/udp from any to any
      
      # Default block ping unless some later rule overrides
      block return-rst in proto icmp all

      クラスタ相互接続トラフィックのブロックを解除するには、次のルールを追加します。使用されているサブネットは、例示用にのみ使用しています。ifconfig interface コマンドを使用して、使用するサブネットを取得します。


      # Unblock cluster traffic on 172.16.0.128/25 subnet (physical interconnect)
      pass in quick proto tcp/udp from 172.16.0.128/25 to any
      pass out quick proto tcp/udp from 172.16.0.128/25 to any
      
      # Unblock cluster traffic on 172.16.1.0/25 subnet (physical interconnect)
      pass in quick proto tcp/udp from 172.16.1.0/25 to any
      pass out quick proto tcp/udp from 172.16.1.0/25 to any
      
      # Unblock cluster traffic on 172.16.4.0/23 (clprivnet0 subnet)
      pass in quick proto tcp/udp from 172.16.4.0/23 to any
      pass out quick proto tcp/udp from 172.16.4.0/23 to any
    • Sun Cluster ソフトウェアは、ノード間でネットワークアドレスをフェイルオーバーします。フェイルオーバー時に特別な手順やコードは不要です。

    • 論理ホスト名と共有アドレスリソースを参照するすべてのフィルタリングルールは、すべてのクラスタノードで一意になるようにします。

    • スタンバイノードのルールは存在しない IP アドレスを参照します。このルールはまだ IP フィルタの有効なルールセットの一部であり、フェイルオーバー後にノードがアドレスを受け取ると有効になります。

    • すべてのフィルタリングルールが同じ IPMP グループ内のすべての NIC で同じになるようにします。 つまり、ルールがインタフェース固有である場合、IPMP グループ内のほかのすべてのインタフェースにも同じルールが存在するようにします。

    Solaris IP Filter のルールについての詳細は、ipf(4) のマニュアルページを参照してください。

  3. ipfilter SMF サービスを有効にします。


    phys-schost# svcadm enable /network/ipfilter:default
    
次の手順

クラスタノード上で Sun Cluster ソフトウェアを構成します。「新規グローバルクラスタまたは新規グローバルクラスタノードの確立」に進みます。