Sun Cluster ソフトウェアのインストール (Solaris OS 版)

ソフトウェアのインストール

この節では、クラスタノードにソフトウェアをインストールするための情報と手順を紹介します。

次の作業マップは、複数または単一ノードのクラスタにソフトウェアをインストールするときに実行する作業を示しています。ここに示す順に従って手順を実行します。

表 2–1 作業マップ: ソフトウェアのインストール

作業 

参照先 

1. クラスタ構成のレイアウトを計画、およびソフトウェアをインストールするための準備 

「クラスタソフトウェアのインストールの準備をする」

2. (省略可能) 管理コンソールにクラスタコントロールパネル (CCP) ソフトウェアをインストール

「クラスタコントロールパネルソフトウェアを管理コンソールにインストールする」

3. 各ノードに Solaris OS をインストール 

「Solaris ソフトウェアをインストールする」

4. (省略可能) 内部ディスクのミラー化を設定 

「内部ディスクのミラー化を構成する」

5. (省略可能) SPARC: Sun マルチパスソフトウェアをインストールして構成 

「Sun マルチパスソフトウェアをインストールする」

6. (省略可能) SPARC: VERITAS File System ソフトウェアをインストール 

「SPARC: VERITAS File System ソフトウェアをインストールする」

7. Sun Cluster ソフトウェアおよび使用するデータサービスをインストール 

「Sun Cluster フレームワークとデータサービスソフトウェアパッケージをインストールする」

8. ディレクトリパスを設定 

「root 環境を設定する」

Procedureクラスタソフトウェアのインストールの準備をする

ソフトウェアのインストールを開始する前に、次の準備作業を行なってください。

  1. クラスタ構成に選択したハードウェアとソフトウェアが現在の Sun Cluster 構成でサポートされていることを確認します。

    サポートされるクラスタ構成の最新情報については、Sun の販売代理店にお問い合わせください。

  2. クラスタ構成の計画およびインストール方法を検討する上で参考となる情報を参照します。

  3. 関連文書 (Sun 以外の製品の文書も含む) をすべて用意します。

    クラスタのインストールを行う場合に参考となるドキュメントを持つ製品の一部を以下に示します。

    • Solaris OS

    • Solaris ボリュームマネージャー ソフトウェア

    • Sun StorEdge QFS ソフトウェア

    • VERITAS Volume Manager

    • その他のアプリケーション

  4. クラスタ構成の計画を立てます。


    注意 – 注意 –

    クラスタのインストールを綿密に計画します。Solaris および Sun Cluster ソフトウェアのインストールを開始する前に、データサービスおよび他の製品すべてについて必要条件を認識しておく必要があります。計画に不備があった場合、インストールエラーが発生し、Solaris や Sun Cluster ソフトウェアを完全にインストールし直す必要が生じる可能性もあります。

    たとえば、Oracle RAC の Oracle Real Application Clusters Guard オプションには、クラスタで使用するホスト名に関する特別な必要条件があります。このような特別な必要条件は Sun Cluster HA for SAP にもあります。Sun Cluster ソフトウェアをインストールした後にホスト名は変更できないため、このような必要条件は Sun Cluster ソフトウェアをインストールする前に調整しておく必要があります。


  5. クラスタ構成に必要なパッチをすべて入手します。

    パッチおよびインストール手順の場所については、『Sun Cluster 3.2 ご使用にあたって (Solaris OS 版)』「パッチと必須ファームウェアのレベル」を参照してください。

次の手順

管理コンソールからクラスタノードへの接続にクラスタコントロールパネルソフトウェアを使用する場合は、「クラスタコントロールパネルソフトウェアを管理コンソールにインストールする」に進みます。

それ以外の場合は、使用する Solaris のインストール手順を選択します。

Procedureクラスタコントロールパネルソフトウェアを管理コンソールにインストールする


注 –

管理コンソールの使用は必須ではありません。管理コンソールを使用しない場合は、クラスタ内の特定のノードから管理作業を行います。


この手順では、管理コンソールにクラスタコントロールパネル (CCP) ソフトウェアをインストールする方法を説明します。CCP が提供する単一のインタフェースにより起動されるのは、cconsolecsshctelnet、および crlogin ツールです。これらの各ツールは、共通ウィンドウや一連のノードとの多重ウィンドウ接続を提供します。共通ウィンドウを使用すると、すべてのノードに入力を一括送信できます。詳細は、ccp(1M) のマニュアルページを参照してください。

管理コンソールには、Sun Cluster 3.2 ソフトウェアがサポートする特定のバージョンの Solaris OS が動作する任意のデスクトップマシンを使用できます。Sun Cluster をSPARC ベースのシステムで使用している場合は、管理コンソールを Sun Management Center コンソールやサーバーとして使用することもできます。 Sun Management Center ソフトウェアをインストールする方法については、 Sun Management Center のマニュアルを参照してください。

始める前に

サポートされている Solaris OS 環境のバージョンと Solaris パッチが管理コンソールにインストールされていることを確認してください。すべてのプラットフォームで、少なくとも End User Solaris ソフトウェアグループが必要です。

  1. 管理コンソールでスーパーユーザーになります。

  2. DVD-ROM ドライブに Sun Java Availability Suite DVD-ROM を挿入します。

    ボリューム管理デーモン vold(1M) が実行され、CD-ROM または DVD デバイスを管理するように設定されている場合、このデーモンは自動的にメディアを /cdrom/cdrom0/ ディレクトリにマウントします。

  3. Solaris_arch/Product/sun_cluster/Solaris_ver/Packages/ ディレクトリ (ここで、archsparc または x86 (Solaris 10 のみ)、ver9 (Solaris 9) または 10 (Solaris 10)) に移動します。


    adminconsole# cd /cdrom/cdrom0/Solaris_arch/Product/sun_cluster/Solaris_ver/Packages/
    
  4. SUNWccon パッケージをインストールします。


    adminconsole# pkgadd -d . SUNWccon
    
  5. (省略可能) SUNWscman パッケージをインストールします。


    adminconsole# pkgadd -d . SUNWscman
    

    管理コンソールに SUNWscman パッケージをインストールすることで、クラスタノードに Sun Cluster ソフトウェアをインストールする前に、管理コンソールから Sun Cluster のマニュアルページを参照できるようになります。

  6. DVD-ROM ドライブから Sun Java Availability Suite DVD-ROM を取り出します。

    1. DVD-ROM が使用されていないことを確認し、DVD-ROM 上にないディレクトリに移動します。

    2. DVD-ROM を取り出します。


      adminconsole# eject cdrom
      
  7. 管理コンソールに /etc/clusters ファイルを作成します。

    クラスタ名と、各クラスタノードの物理ノード名をファイルに追加します。


    adminconsole# vi /etc/clusters
    clustername node1 node2
    

    詳細については、/opt/SUNWcluster/bin/clusters(4) のマニュアルページを参照してください。

  8. /etc/serialports ファイルを作成します。

    このファイルに、クラスタ内の各ノード用のエントリを追加します。物理ノード名、コンソールアクセスデバイスのホスト名、およびポート番号を指定します。コンソールアクセスデバイスの例として、端末集配信装置 (TC)、システムサービスプロセッサ (SSP)、および Sun Fire システムコントローラがあります。


    adminconsole# vi /etc/serialports
    node1 ca-dev-hostname port
    node2 ca-dev-hostname port
    
    node1、 node2

    クラスタノードの物理名

    ca-dev-hostname

    コンソールアクセスデバイスのホスト名

    port

    シリアルポート番号、またはセキュアシェル接続用のセキュアシェルポート番号

    /etc/serialports ファイルを作成するためには、次の注意事項に従ってください。

    • Sun Fire 15000 システムコントローラでは、各エントリのシリアル番号に telnet(1)ポート番号 23 を使用します。

    • その他のすべてのコンソールアクセスデバイスで、telnet 接続でコンソールに接続するには、物理ポート番号ではなく telnet シリアルポート番号を使用します。telnet シリアルポート番号は、物理ポート番号に 5000 を加えた値です。たとえば、物理ポート番号が 6 の場合、telnet シリアルポート番号は 5006 になります。

    • Sun Enterprise 10000 サーバーの詳細と注意事項については、/opt/SUNWcluster/bin/serialports(4) のマニュアルページを参照してください。

    • ノードコンソールへのセキュアシェル接続を行うには、各ノードについて、セキュリティー保護された接続に使用するコンソールアクセスデバイスの名前とポート番号を指定します。セキュアシェルのデフォルトのポート番号は 22 です。

    • 管理コンソールを直接クラスタノードに接続したり、管理ネットワーク経由で接続する場合は、ノードごとにそのノードが管理コンソールや管理ネットワークへの接続に使用するホスト名とポート番号を指定します。

  9. (省略可能) 便宜上、管理コンソール上のディレクトリパスを設定します。

    1. /opt/SUNWcluster/bin/ ディレクトリを PATH に追加します。

    2. /opt/SUNWcluster/man/ ディレクトリを MANPATH に追加します。

    3. SUNWscman パッケージをインストールした場合は、/usr/cluster/man ディレクトリも MANPATH に追加します。

  10. CCP ユーティリティーを起動します。


    adminconsole# /opt/SUNWcluster/bin/ccp &
    

    CCP ウィンドウで、cconsolecsshcrlogin、または ctelnet ボタンをクリックしてツールを起動します。これらのツールは直接起動することもできます。たとえば、ctelnet を起動するには、次のコマンドを入力します。


    adminconsole# /opt/SUNWcluster/bin/ctelnet &
    

    CCP ソフトウェアは、次のセキュアシェル接続をサポートしています。

    • ノードコンソールへのセキュリティー保護された接続を行うには、cconsole ツールを起動します。次に、「Cluster Console」ウィンドウの「Options」メニューから「Use SSH」チェックボックスを有効にします。

    • クラスタノードへのセキュリティー保護された接続を行うには、cssh ツールを使用します。

    CCP ユーティリティーを使用する方法については、『Sun Cluster のシステム管理 (Solaris OS 版)』「クラスタ管理の開始」の 「クラスタに遠隔ログインする 」を参照してください。詳細は、ccp(1M) のマニュアルページも参照してください。

次の手順

Solaris OS がインストールされており、Sun Cluster ソフトウェアの必要条件を満たしているかどうかを確認します。Solaris OS に関する Sun Cluster のインストール要件については、「Solaris OS の計画」を参照してください。

ProcedureSolaris ソフトウェアをインストールする

ソフトウェアのインストールに scinstall カスタム JumpStart インストールメソッドを使用しない場合は、以下の手順に従ってクラスタ内の各ノードに Solaris OS をインストールしてください。クラスタの JumpStart インストールの詳細は、「Solaris と Sun Cluster ソフトウェアをインストールする (JumpStart)」を参照してください。


ヒント –

Solaris OS は、各ノードに同時にインストールできるため、インストール時間を節約できます。


ノードに Solaris OS がすでにインストールされていても、Sun Cluster インストールの必要条件が満たされていない場合は、Solaris ソフトウェアを再インストールする必要があります。以下に示す手順に従って、Sun Cluster ソフトウェアを確実にインストールしてください。必要なルートディスクのパーティションの分割方法などの Sun Cluster インストール要件については、「Solaris OS の計画」を参照してください。

始める前に

次の作業を実行します。

  1. クラスタ管理コンソールを使用している場合、クラスタ内にある各ノードのコンソール画面を表示します。

    • クラスタコントロールパネル (CCP) ソフトウェアが管理コンソールにインストールされ、構成されている場合は、cconsole(1M) ユーティリティーを使用して、コンソール画面を個別に表示します。

      スーパーユーザーとして、次のコマンドを使用して、cconsole ユーティリティーを起動します。


      adminconsole# /opt/SUNWcluster/bin/cconsole clustername &
      

      また、cconsole ユーティリティーを使用してマスターウィンドウを開くことができます。ここでの入力を、個々のすべてのコンソールウィンドウに同時に送信できます。

    • cconsole ユーティリティーを使用しない場合は、各ノードのコンソールに個別に接続します。

  2. Solaris インストールマニュアルに指示されているとおりに Solaris OS をインストールします。


    注 –

    同一クラスタ内のノードはすべて、同じバージョンの Solaris OS である必要があります。


    Solaris ソフトウェアの通常のインストール方法を使用してインストールします。Solaris ソフトウェアのインストール時に、次の作業を行います。

    1. 少なくとも End User Solaris ソフトウェアグループをインストールします。


      ヒント –

      Solaris ソフトウェアパッケージを手動でインストールしなくてすむようにするには、Entire Solaris Software Group Plus OEM Support をインストールしてください。


      これ以外のSolaris ソフトウェアの要件については、「Solaris ソフトウェアグループについて」を参照してください。

    2. 「手動配置」を選択して、ファイルシステムを設定します。

      • グローバルデバイスサブシステムを使用するための、少なくとも512M バイトのファイルシステムを作成します。


        注 –

        Sun Cluster ソフトウェアのインストールを正常に行うためには、グローバルデバイスファイルシステムを用意する必要があります。


      • スライス 7 のサイズは 20M バイト以上に指定してください。

      • ほかにも必要なファイルシステムパーティションがある場合は、「システムディスクパーティション」の説明に従って作成します。

    3. 管理しやすくするために、すべてのノード上で同じ root パスワードを設定します。

  3. スーパーユーザーではなく、役割に基づくアクセス制御 (RBAC) を使用してクラスタノードにアクセスする場合は、すべての Sun Cluster コマンドに認証を提供する RBAC の役割を設定します。

    ユーザーがスーパーユーザーでない場合、この一連のインストール手順には、次の Sun Cluster RBAC 認証が必要です。

    • solaris.cluster.modify

    • solaris.cluster.admin

    • solaris.cluster.read

    RBAC の役割について詳しくは、『Solaris のシステム管理 (セキュリティサービス)』「役割によるアクセス制御 (概要)」 を参照してください。Sun Cluster サブコマンドで必要な RBAC 認証については、Sun Cluster のマニュアルページを参照してください。

  4. 既存のクラスタにノードを追加する場合は、新しいノードにクラスタファイルシステム用のマウントポイントを追加します。

    1. アクティブなノードから、すべてのクラスタファイルシステムの名前を表示します。


      phys-schost-1# mount | grep global | egrep -v node@ | awk '{print $1}'
      
    2. 新しいノード上で、クラスタ内のクラスタファイルシステムごとにマウントポイントを作成します。


      phys-schost-new# mkdir -p mountpoint
      

      たとえば、mount コマンドで表示されるファイルシステム名が /global/dg-schost-1 の場合は、クラスタに追加する新しいノードで mkdir -p /global/dg-schost-1 を実行します。

  5. ノードの追加を行なっており、かつ、VxVM がクラスタの任意のノードにインストールされている場合は、次の作業を実行します。

    1. VxVM がインストールされているノード上で同じ vxio 番号が使用されていることを確認します。


      phys-schost# grep vxio /etc/name_to_major
      vxio NNN
      
    2. VxVM がインストールされていない各ノード上で vxio 番号が使用できることを確認してください。

    3. VxVM がインストールされていないノードで vxio 番号がすでに使用されている場合は、別の番号を使用するように /etc/name_to_major エントリを変更します。

  6. End User Solaris Software Group をインストールしていて、次のいずれかの Sun Cluster 機能を使用しようとする場合は、これらの機能をサポートする追加の Solaris ソフトウェアパッケージをインストールしてください。

    • Remote Shared Memory Application Programming Interface (RSMAPI)

    • RSMRDT ドライバ

    • SPARC: SCI-PCI アダプタ

    • SPARC: Solaris 9 OS の場合は、次のコマンドを実行します。


      phys-schost# pkgadd -d . SUNWrsm SUNWrsmc SUNWrsmo SUNWrsmox
      
    • Solaris 10 OS の場合は、次のコマンドを実行します。


      phys-schost# pkgadd -G -d . SUNWrsm SUNWrsmo
      

      これらのパッケージは、大域ゾーンだけに追加する必要があります。-G オプションを使用すると、現在のゾーンだけにパッケージを追加します。このオプションは、既存の非大域ゾーン、またはあとで作成する非大域ゾーンにパッケージを伝播しないことも指定します。

  7. 必要な Solaris OS のパッチ、ハードウェア関連のファームウェア、およびそのパッチ (ストレージアレイのサポート用のパッチも含む) があればインストールします。また、ハードウェアパッチに含まれている必要なファームウェアをダウンロードします。

    パッチおよびインストール手順の場所については、『Sun Cluster 3.2 ご使用にあたって (Solaris OS 版)』「パッチと必須ファームウェアのレベル」を参照してください。

  8. x86: デフォルトのブートファイルを設定します。

    この値を設定すると、ログインプロンプトにアクセスできないときにノードを再起動できます。

    • Solaris 9 OS では、デフォルトを kadb に設定します。


      phys-schost# eeprom boot-file=kadb
      
    • Solaris 10OS では、GRUB ブートパラメータメニューでデフォルトを kmdb に設定します。


      grub edit> kernel /platform/i86pc/multiboot kmdb
      
  9. 各ノードの /etc/inet/hosts または /etc/inet/ipnodes ファイルを、クラスタで使用しているすべてのパブリック IP アドレスを使用して更新します。

    この手順は、ネームサービスを使用しているかどうかに関わらず実行します。ipnodes ファイルには、IPv4 と IPv6 の両方のアドレスを含めることができます。IP アドレスを追加する必要がある Sun Cluster コンポーネントについては、「パブリックネットワーク IP アドレス」を参照してください。


    注 –

    新しいクラスタまたはクラスタノードの確立中に、scinstall ユーティリティーは自動的に構成中の各ノードのパブリック IP アドレスを /etc/inet/hosts ファイルに追加します。これらの IP アドレスの /etc/inet/ipnodes ファイルへの追加は任意です。


  10. クラスタインターコネクトに ce アダプタを使用する場合、/etc/system ファイルに次のエントリを追加します。


    set ce:ce_taskq_disable=1

    このエントリは、次のシステム再起動後に有効になります。

  11. (省略可能) Sun Enterprise 10000 サーバーで、/etc/system ファイルを動的構成を使用するように構成します。

    クラスタの各ノード上の /etc/system ファイルに次のエントリを追加します。


    set kernel_cage_enable=1

    このエントリは、次のシステム再起動後に有効になります。動的再構成の詳細については、サーバーのマニュアルを参照してください。

  12. (省略可能) IPMP グループでパブリックネットワークアダプタを構成します。

    scinstall ユーティリティーがクラスタの作成中に構成する多重アダプタ IPMP グループを使用しない場合は、スタンドアロンシステムでカスタム IPMP グループを構成します。詳細は、『Solaris のシステム管理 (IP サービス)』のパート VI「IPMP」を参照してください。

    クラスタ作成中、scinstall ユーティリティーは、同じサブネットを使用するパブリックネットワークアダプタの各セットのうち、IPMP グループでまだ構成されていないものを、単一の多重アダプタIPMP グループに構成します。scinstall ユーティリティーは、既存の IPMP グループを無視します。

次の手順

サーバが内部ハードディスクドライブのミラー化に対応していて、内部ディスクのミラー化を設定する場合は、「内部ディスクのミラー化を構成する」に進みます。

それ以外の場合で、Sun マルチパスソフトウェアを使用する場合は、「Sun マルチパスソフトウェアをインストールする」に進みます。

それ以外の場合で、VxFS をインストールする場合は、「SPARC: VERITAS File System ソフトウェアをインストールする」に進みます。

それ以外の場合、Sun Cluster ソフトウェアパッケージをインストールします。「Sun Cluster フレームワークとデータサービスソフトウェアパッケージをインストールする」に進みます。

参照

Sun Cluster 構成で、動的再構成の作業を実行するための手順については、『Sun Cluster のシステム管理 (Solaris OS 版)』を参照してください。

Procedure内部ディスクのミラー化を構成する

クラスタの各ノードで、以下の手順に従って、内部ハードウェア RAID ディスクのミラー化を設定し、システムディスクをミラー化します。この手順は省略可能です。


注 –

次のような状況ではこの手順を実行しないでください。


始める前に

Solaris オペレーティングシステムおよび必要なパッチがインストールされていることを確認します。

  1. スーパーユーザーになります。

  2. 内部ミラーを構成します。


    phys-schost# raidctl -c clt0d0 clt1d0 
    
    -c clt0d0 clt1d0

    ミラーディスクにプライマリディスクのミラーを作成します。プライマリディスクの名前を 1 番目の引数として入力します。ミラーディスクの名前を 2 番目の引数として入力します。

    サーバーの内部ディスクのミラー化の設定方法については、サーバーに付属のマニュアルおよび raidctl(1M) のマニュアルページを参照してください。

次の手順

Sun マルチパスソフトウェアを使用する場合は、「Sun マルチパスソフトウェアをインストールする」に進みます。

それ以外の場合で、VxFS をインストールする場合は、「SPARC: VERITAS File System ソフトウェアをインストールする」に進みます。

それ以外の場合、Sun Cluster ソフトウェアパッケージをインストールします。「Sun Cluster フレームワークとデータサービスソフトウェアパッケージをインストールする」に進みます。

ProcedureSun マルチパスソフトウェアをインストールする

クラスタの各ノードで以下の手順を実行して、ファイバチャネル (FC)ストレージ用の Sun マルチパスソフトウェアを設定します。マルチパスソフトウェアは、共有クラスタストレージへの複数の入出力パスを管理します。この手順は省略可能です。

始める前に

次の作業を実行します。

  1. スーパーユーザーになります。

  2. SPARC: Solaris 9 OS の場合、各ノードに Sun StorEdge Traffic Manager ソフトウェアと必要なパッチをインストールします。

    • Sun StorEdge Traffic Manager ソフトウェアのインストール手順については、http://www.sun.com/products-n-solutions/hardware/docs/ にある「Sun StorEdge Traffic Manager Installation and Configuration Guide 」を参照してください。

    • Sun StorEdge Traffic Manager ソフトウェアに必要なパッチについては、http://www.sun.com/storage/san/ にある「Sun StorEdge Traffic Manager Software Release Notes 」を参照してください。

  3. マルチパス機能を有効にします。

    • Solaris 9 OS の場合、mpxio-disable パラメーターの値を no に変更します。

      各ノードの /kernel/drv/scsi_vhci.conf ファイルでこのエントリを変更します。


      set mpxio-disable=no
    • Solaris 10 OS の場合、各ノードで次のコマンドを実行します。


      注意 – 注意 –

      Sun Cluster ソフトウェアがすでに実行されている場合は、このコマンドを実行しないでください。アクティブなクラスタノードで stmsboot コマンドを実行すると、Solaris サービスがメンテナンス状態になる場合があります。このコマンドを実行する代わりに、stmsboot(1M) のマニュアルページにある Sun Cluster 環境での stmsboot コマンドの使い方の手順に従ってください。



      phys-schost# /usr/sbin/stmsboot -e
      
      -e

      Solaris I/O マルチパスを有効にします。

      詳細は、stmsboot(1M) のマニュアルページを参照してください。

  4. SPARC: Solaris 9 OS の場合、実行中のバージョンの Sun StorEdge SAN Foundation ソフトウェアに使用するストレージアレイのサポートが組み込まれているかどうかを調べてください。

    ソフトウェアに使用するストレージアレイの組み込みサポートが含まれていない場合は、各ノードの /kernel/drv/scsi_vhci.conf ファイルを編集して、必要なエントリを含めます。詳細は、ストレージデバイスのリリースノートを参照してください。

  5. SPARC: Solaris 9 OS の場合、各ノードをシャットダウンして、再構成ブートを実行します。

    再構成ブートにより、新しい Solaris デバイスファイルとリンクが作成されます。


    phys-schost# shutdown -y -g0 -i0
    ok boot -r
    
  6. すべてのノードで再構成リブートが終了したあと、ストレージアレイの構成を完了するために必要なその他の作業を実行します。

    ストレージアレイの導入手順の詳細は、「Sun Cluster Hardware Administration Collection」を参照してください。

注意事項

クラスタに Sun Cluster ソフトウェアをインストールしたあとで Sun マルチパスソフトウェアをインストールした場合、DID マッピングの更新が必要になる場合があります。クラスタの各ノードで、次のコマンドを実行して、DID 名前空間を再生成してください。

phys-schost# cldevice clearphys-schost# cldevice refresh(Solaris 9 only) phys-schost# cfgadm -c configurephys-schost# cldevice populate

詳細は、cfgadm(1M) および cldevice(1CL) のマニュアルページを参照してください。

次の手順

VxFS をインストールする場合は、「SPARC: VERITAS File System ソフトウェアをインストールする」に進みます。

それ以外の場合、Sun Cluster ソフトウェアパッケージをインストールします。「Sun Cluster フレームワークとデータサービスソフトウェアパッケージをインストールする」に進みます。

ProcedureSPARC: VERITAS File System ソフトウェアをインストールする

VERITAS File System (VxFS) ソフトウェアをクラスタで使用するには、クラスタの各ノードで以下の手順を実行します。

  1. VxFS のインストールマニュアルに従って、VxFS ソフトウェアをクラスタの各ノード上にインストールします。

  2. VxFS のサポートに必要なすべての Sun Cluster パッチをインストールします。

    パッチおよびインストール手順の場所については、『Sun Cluster 3.2 ご使用にあたって (Solaris OS 版)』「パッチと必須ファームウェアのレベル」を参照してください。

  3. 各ノードの /etc/system ファイルで、次の値を設定します。


    set rpcmod:svc_default_stksize=0x8000
    set lwp_default_stksize=0x6000

    これらの変更は、次にシステムを再起動したときに有効になります。

    • Sun Cluster ソフトウェアには、少なくとも 0x8000 に設定された rpcmod:svc_default_stksize が必要です。VxFS をインストールすると、rpcmod:svc_default_stksize 変数の値が 0x4000 に設定されるため、VxFS のインストールが終わったあと、値を手動で 0x8000 に設定する必要があります。

    • /etc/system ファイルの lwp_default_stksize 変数を設定して、VxFS デフォルト値の 0x4000 を無効にします。

次の手順

Sun Cluster ソフトウェアパッケージをインストールします。「Sun Cluster フレームワークとデータサービスソフトウェアパッケージをインストールする」に進みます。

ProcedureSun Cluster フレームワークとデータサービスソフトウェアパッケージをインストールする

Sun JavaTM Enterprise System (Java ES) installer プログラムを使用して次のインストール作業の 1 つまたは複数を実行するには、この手順に従います。


注 –

この手順では、対話型の installer プログラムを使用します。インストールスクリプトを作成する場合のように、非対話型の installer プログラムを使用する場合は、『Sun Java Enterprise System 5 Installation Guide for UNIX』の第 5 章「Installing in Silent Mode」を参照してください。


始める前に

次の作業を実行します。

  1. (省略可能) GUI で installer プログラムを使用するには、インストール作業を行うクラスタノードの表示環境を、GUI を表示するように設定します。


    % xhost +
    % setenv DISPLAY nodename:0.0
    

    これらの設定を行わない場合、installer プログラムはテキストベースモードで実行されます。

  2. インストールするクラスタノードでスーパーユーザーになります。

  3. DVD-ROM ドライブに Sun Java Availability Suite DVD-ROM を挿入します。

    ボリューム管理デーモン vold(1M) が実行され、CD-ROM または DVD デバイスを管理するように設定されている場合、このデーモンは自動的にメディアを /cdrom/cdrom0/ ディレクトリにマウントします。

  4. DVD-ROM の インストールウィザードディレクトリに移動します。

    • SPARC プラットフォームにソフトウェアパッケージをインストールする場合は、次のコマンドを使用します。


      phys-schost# cd /cdrom/cdrom0/Solaris_sparc
      
    • x86 プラットフォームにソフトウェアパッケージをインストールする場合は、次のコマンドを使用します。


      phys-schost# cd /cdrom/cdrom0/Solaris_x86
      
  5. インストールウィザードプログラムを開始します。


    phys-schost# ./installer
    

    Java ES installer プログラムのさまざまな形式や機能の使い方についての詳細は、『Sun Java Enterprise System 5 Installation Guide for UNIX』 を参照してください。

  6. 画面の指示に従い、Sun Cluster フレームワークソフトウェアおよびデータサービスをノードにインストールします。

    • Sun Cluster Manager (旧 SunPlex Manager) をインストールしない場合は、これを選択解除します。


      注 –

      Sun Cluster Manager は、クラスタのすべてのノードにインストールするか、まったくインストールしないかのいずれかにする必要があります。


    • Sun Cluster Geographic Edition ソフトウェアをインストールする場合は、これを選択します。

      クラスタが確立されたら、『Sun Cluster Geographic Edition のインストール』でその後の手順を参照します。

    • Sun Cluster フレームワークソフトウェアを構成するかどうかを尋ねるプロンプトが表示されたら、「あとで設定」を選択します。

    インストールが完了すると、インストールログを表示できます。

  7. 次のいずれかの機能を使用するために追加のパッケージをインストールします。

    • Remote Shared Memory Application Programming Interface (RSMAPI)

    • インターコネクトトランスポート用の SCI-PCI アダプタ

    • RSMRDT ドライバ


    注 –

    RSMRDT ドライバを使用できるのは、Oracle9i リリース 2 SCI 構成を RSM を有効にして実行しているクラスタだけです。インストールと構成手順についての詳細は、Oracle9i リリース 2 のユーザーマニュアルを参照してください。


    1. インストールが必要なパッケージを決定します。

      各機能に必要な Sun Cluster 3.2 パッケージとパッケージの各グループのインストール順序を次の表に示します。Java ES のinstaller プログラムでは、これらのパッケージは自動的にはインストールされません。


      注 –

      次の表に示した順序でパッケージをインストールしてください。


      機能 

      インストールする追加の Sun Cluster 3.2 パッケージ 

      RSMAPI 

      SUNWscrif

      SCI-PCI アダプタ 

      • Solaris 9: SUNWsci SUNWscid SUNWscidx

      • Solaris 10: SUNWscir SUNWsci SUNWscidr SUNWscid

      RSMRDT ドライバ 

      SUNWscrdt

    2. Solaris_arch/Product/sun_cluster/Solaris_ver/Packages/ ディレクトリ (ここで、archsparc または x86 (Solaris 10 のみ)、ver9 (Solaris 9) または 10 (Solaris 10)) に移動します。


      phys-schost# cd /cdrom/cdrom0/Solaris_arch/Product/sun_cluster/Solaris_ver/Packages/
      
    3. 追加のパッケージをインストールします。

      • SPARC: Solaris 9 OS の場合は、次のコマンドを実行します。


        phys-schost# pkgadd -d . packages
        
      • Solaris 10 OS の場合は、次のコマンドを実行します。


        phys-schost# pkgadd -G -d . packages
        
  8. DVD-ROM ドライブから Sun Java Availability Suite DVD-ROM を取り出します。

    1. DVD-ROM が使用されていないことを確認し、DVD-ROM 上にないディレクトリに移動します。

    2. DVD-ROM を取り出します。


      phys-schost# eject cdrom
      
  9. Sun Cluster ソフトウェアをサポートするために必要なパッチを適用します。

    パッチおよびインストール手順の場所については、『Sun Cluster 3.2 ご使用にあたって (Solaris OS 版)』「パッチと必須ファームウェアのレベル」を参照してください。

次の手順

Sun StorEdge QFS ファイルシステムをインストールする場合は、『Sun StorEdge QFS Installation and Upgrade Guide』 にある初期インストール手順に従ってください。

root ユーザー環境を設定する場合は、「root 環境を設定する」に進みます。

Procedureroot 環境を設定する


注 –

Sun Cluster 構成では、各種シェルのユーザー初期化ファイルは、それらが対話式のシェルから実行されていることを確認する必要があります。確認は、端末への出力を試みる前に行なってください。この方法に従わないと、予期しない動作やデータサービス妨害が発生する可能性があります。詳細は、『Solaris のシステム管理 (基本編)』 (Solaris 9またはSolaris 10) の「ユーザー作業環境のカスタマイズ」を参照してください。


クラスタ内の各ノード上で次の手順を実行します。

  1. クラスタノード上にインストールするクラスタノード上でスーパーユーザーになります。

  2. .cshrc または .profile ファイルの PATH および MANPATH エントリを変更します。

    1. PATH/usr/sbin/ および /usr/cluster/bin/ を追加します。

    2. MANPATH/usr/cluster/man/ を追加します。

    追加のファイルパスの設定については、Solaris OS のマニュアルおよびその他のアプリケーションのマニュアルを参照してください。

  3. (省略可能) 管理を行いやすくするため、各ノードに同じ root パスワードを設定します。

次の手順

クラスタノード上で Sun Cluster ソフトウェアを構成します。「新規クラスタまたは新規クラスタノードの確立」に進みます。