JavaScript is required to for searching.
ナビゲーションリンクをスキップ
印刷ビューの終了
Oracle Solaris Cluster ソフトウェアのインストール     Oracle Solaris Cluster (日本語)
search filter icon
search icon

ドキュメントの情報

はじめに

1.  Oracle Solaris Cluster 構成を計画する

2.  グローバルクラスタノードへのソフトウェアのインストール

ソフトウェアをインストールします

クラスタソフトウェアのインストールの準備をする

定足数サーバー ソフトウェアをインストールおよび構成する

クラスタコントロールパネルソフトウェアを管理コンソールにインストールする

Solaris ソフトウェアをインストールする

内部ディスクのミラー化を構成する

SPARC: Sun Logical Domains ソフトウェアをインストールし、ドメインを作成する

Veritas File System ソフトウェアをインストールする

Oracle Solaris Cluster フレームワークおよびデータサービスソフトウェアパッケージをインストールする

Sun QFS Softwareのインストール方法

root 環境を設定する

Solaris IP Filter を構成する

3.  グローバルクラスタの確立

4.  Solaris ボリュームマネージャー ソフトウェアの構成

5.  Veritas Volume Manager をインストールして構成する

6.  クラスタファイルシステムの作成

7.  非大域ゾーンおよびゾーンクラスタの作成

8.  Oracle Solaris Cluster モジュールの Sun Management Center へのインストール

9.  クラスタからのソフトウェアのアンインストール

A.  Oracle Solaris Cluster のインストールと構成のためのワークシート

索引

ソフトウェアをインストールします

この節では、クラスタノードにソフトウェアをインストールするための情報と手順を紹介します。

次の作業マップは、複数または単一ホストのグローバルクラスタにソフトウェアをインストールするときに実行する作業を示しています。ここに示す順に従って手順を実行します。

表 2-1 作業マップ: ソフトウェアのインストール

作業
参照先
クラスタ構成のレイアウトを計画、およびソフトウェアをインストールするための準備
(省略可能) 定足数サーバーのインストールおよび構成
(省略可能) 管理コンソールへの Cluster Control Panel (CCP) ソフトウェアのインストール
すべてのノードに Solaris OS をインストールオプションで、Solaris I/O マルチパスを有効にします。
(省略可能) 内部ディスクのミラー化の設定
(省略可能) Sun Logical Domains (LDoms) ソフトウェアをインストールし、ドメインを作成します。
(省略可能) SPARC: Veritas File System ソフトウェアのインストール
Oracle Solaris Cluster ソフトウェアおよび使用するデータサービスのインストール
(オプション) Sun QFS ソフトウェアのインストール
ディレクトリパスの設定
(省略可能) Solaris IP Filter の構成

クラスタソフトウェアのインストールの準備をする

ソフトウェアのインストールを開始する前に、次の準備作業を行なってください。

  1. クラスタ構成に選択したハードウェアとソフトウェアが現在の Oracle Solaris Cluster 構成でサポートされていることを確認します。

    サポートされるクラスタ構成の最新情報については、Oracle の販売代理店にお問い合わせください。

  2. クラスタ構成の計画およびインストール方法を検討する上で参考となる情報を参照します。
  3. 関連文書 (他社製の製品のドキュメントも含む) をすべて用意します。

    クラスタのインストールを行う場合に参考となるドキュメントを持つ製品の一部を以下に示します。

    • Solaris OS

    • Solaris ボリュームマネージャー ソフトウェア

    • Sun QFS ソフトウェア

    • Veritas Volume Manager

    • その他のアプリケーション

  4. クラスタ構成の計画を立てます。

    注意

    注意 - クラスタのインストールを綿密に計画します。Solaris および Oracle Solaris Cluster ソフトウェアのインストールを開始する前に、データサービスおよび他の製品すべてについて必要条件を認識しておく必要があります。計画に不備があった場合、インストールエラーが発生し、Solaris や Oracle Solaris Cluster ソフトウェアを完全にインストールし直す必要が生じる可能性もあります。Oracle Solaris Cluster ソフトウェアをインストールした後にホスト名は変更できないため、このような必要条件は Oracle Solaris Cluster ソフトウェアをインストールする前に調整しておく必要があります。


  5. クラスタ構成に必要なパッチをすべて入手します。

    パッチおよびインストール手順の場所については、『Oracle Solaris Cluster 3.3 5/11 リリースノート』の「パッチと必須ファームウェアのレベル」を参照してください。

次の手順

管理コンソールからクラスタノードへの接続にクラスタコントロールパネルソフトウェアを使用する場合は、「クラスタコントロールパネルソフトウェアを管理コンソールにインストールする」に進みます。

それ以外の場合は、使用する Solaris のインストール手順を選択します。

定足数サーバー ソフトウェアをインストールおよび構成する

この手順を実行して、ホストサーバーを定足数サーバーとして構成します。

始める前に

次の作業を実行します。

  1. 定足数サーバー ソフトウェアをインストールするマシンでスーパーユーザーになります。
  2. (省略可能) GUI が存在する installer プログラムを使用するには、インストールするホストサーバーのディスプレイ環境を GUI を表示するように設定します。
    # xhost +
    # setenv DISPLAY nodename:0.0
  3. インストールメディアをドライブにロードします。

    ボリューム管理デーモン (vold(1M)) が実行中で、CD-ROM または DVD デバイスを管理するよう構成されている場合、このデーモンは自動的にメディアを /cdrom/cdrom0 ディレクトリにマウントします。

  4. ディレクトリを、メディアのインストールウィザードのディレクトリに変更します。
    • SPARC プラットフォームにソフトウェアパッケージをインストールする場合は、次のコマンドを使用します。

      phys-schost# cd /cdrom/cdrom0Solaris_sparc
    • x86 プラットフォームにソフトウェアパッケージをインストールする場合は、次のコマンドを使用します。

      phys-schost# cd /cdrom/cdrom0Solaris_x86
  5. インストールウィザードを起動します。
    phys-schost# ./installer
  6. 画面の指示に従って、ホストサーバーに 定足数サーバー ソフトウェアをインストールします。

    「あとで設定」オプションを選択します。


    注 - インストーラで「あとで設定」オプションを選択できない場合、「今すぐ設定」を選択します。


    インストールが完了すると、インストールログを表示できます。installer プログラムの使い方に関するその他の情報については、『Sun Java Enterprise System 5 Update 1 Installation Guide for UNIX』を参照してください。

  7. 必要な 定足数サーバー パッチをすべて適用します。
  8. ドライブからインストールメディアを取り出します。
    1. インストールメディアが使用されないように、メディア上のディレクトリ以外に移動する必要があります。
    2. メディアを取り出します。
      phys-schost# eject cdrom
  9. 定足数サーバー ソフトウェアをサポートするために必要なパッチをすべて適用します。

    パッチおよびインストール手順の場所については、『Oracle Solaris Cluster 3.3 5/11 リリースノート』の「パッチと必須ファームウェアのレベル」を参照してください。

  10. (省略可能) 定足数サーバー のバイナリの場所を PATH 環境変数に追加します。
    quorumserver# PATH=$PATH:/usr/cluster/bin
  11. (省略可能) 定足数サーバー のマニュアルページの場所を MANPATH 環境変数に追加します。
    quorumserver# MANPATH=$MANPATH:/usr/cluster/man
  12. 定足数サーバーを構成します。

    次のエントリを /etc/scqsd/scqsd.conf ファイルに追加して、定足数サーバーに関する構成情報を指定します。

    インスタンス名またはポート番号の少なくとも一方を使用して、定足数サーバーを識別します。ポート番号は指定する必要がありますが、インスタンス名はオプションです。

    • インスタンス名を指定する場合、その名前は定足数サーバー間で一意にします。

    • インスタンス名を指定しない場合、常に、定足数サーバーが待機するポートによりこの定足数サーバーを参照します。

    /usr/cluster/lib/sc/scqsd [-d quorumdirectory] [-i instancename] -p port
    -d quorumdirectory

    定足数サーバーが定足数データを格納できるディレクトリへのパスです。

    クラスタ固有の定足数情報を格納するために、定足数サーバープロセスはこのディレクトリに 1 クラスタにつき 1 つのファイルを作成します。

    デフォルトでは、このオプションの値は /var/scqsd です。このディレクトリは、ユーザーが構成する各定足数サーバーに対して一意にします。

    -i instancename

    定足数サーバーインスタンスに対してユーザーが選択する一意の名前です。

    -p port

    定足数サーバーがクラスタからの要求を待機するポート番号です。

  13. (省略可能) 複数のクラスタにサービスを提供し、別のポート番号またはインスタンスを使用する場合は、必要な定足数サーバーの追加のインスタンスごとに追加エントリを構成します。
  14. /etc/scqsd/scqsd.conf ファイルを保存して終了します。
  15. 新しく構成した定足数サーバーを起動します。
    quorumserver# /usr/cluster/bin/clquorumserver start quorumserver
    quorumserver

    定足数サーバーを識別します。定足数サーバーが待機するポート番号を使用できます。構成ファイルでインスタンス名を指定した場合は、代わりにその名前を使用できます。

    • 1 台の定足数サーバーを起動するには、インスタンス名とポート番号のいずれかを指定します。

    • 複数の定足数サーバーを構成している場合、すべての定足数サーバーを起動するには、 + オペランドを使用します。

注意事項

インストーラは 定足数サーバー パッケージの簡易 pkgadd インストールを実行し、必要なディレクトリを設定します。ソフトウェアは次のパッケージから構成されています。

これらのパッケージをインストールすると、/usr/cluster および /etc/scqsd ディレクトリにソフトウェアが追加されます。定足数サーバー ソフトウェアの場所を変更することはできません。

定足数サーバー ソフトウェアに関するインストールエラーメッセージが表示される場合は、パッケージが正しくインストールされているかどうかを確認します。

次の手順

管理コンソールを使用してクラスタノードと通信する場合は、「クラスタコントロールパネルソフトウェアを管理コンソールにインストールする」に進みます。

それ以外の場合は、「Solaris ソフトウェアをインストールする」に進みます。

クラスタコントロールパネルソフトウェアを管理コンソールにインストールする


注 - 管理コンソールの使用は必須ではありません。管理コンソールを使用しない場合は、クラスタ内の特定のノードから管理作業を行います。

Sun Logical Domains (LDoms) ゲストドメインへの接続に、このソフトウェアは使用できません。


この手順では、管理コンソールにクラスタコントロールパネル (CCP) ソフトウェアをインストールする方法を説明します。CCP には、cconsolecsshctelnet、および crlogin ツールを起動するための単一のインターフェイスが用意されています。これらの各ツールは、共通ウィンドウや一連のノードとの多重ウィンドウ接続を提供します。共通ウィンドウを使用すると、すべてのノードに入力を一括送信できます。詳細は、ccp(1M) のマニュアルページを参照してください。

Oracle Solaris Cluster 3.3 5/11 ソフトウェアがサポートする特定のバージョンの Solaris OS が動作する任意のデスクトップマシンを管理コンソールとして使用できます。Oracle Solaris Cluster ソフトウェアを SPARC ベースのシステムで使用している場合は、管理コンソールを Sun Management Center コンソールやサーバーとして使用することもできます。 Sun Management Center ソフトウェアをインストールする方法については、 Sun Management Center のドキュメントを参照してください。

始める前に

サポートされている Solaris OS 環境のバージョンと Solaris パッチが管理コンソールにインストールされていることを確認してください。すべてのプラットフォームで、少なくとも End User Solaris ソフトウェアグループが必要です。

  1. 管理コンソールでスーパーユーザーになります。
  2. DVD-ROM ドライブに DVD-ROM を挿入します。

    ボリューム管理デーモン vold(1M) が実行中で、CD-ROM または DVD デバイスを管理するよう構成されている場合、このデーモンは自動的にメディアを /cdrom/cdrom0 ディレクトリにマウントします。

  3. Solaris_arch/Product/sun_cluster/Solaris_ver/Packages/ ディレクトリ (ここで、archsparc または x86ver は Solaris 10 の場合 10
    adminconsole# cd /cdrom/cdrom0/Solaris_arch/Product/sun_cluster/Solaris_ver/Packages/
  4. SUNWccon パッケージをインストールします。
    adminconsole# pkgadd -d . SUNWccon
  5. (省略可能) Oracle Solaris Cluster マニュアルページのパッケージをインストールします。
    adminconsole# pkgadd -d . pkgname

    パッケージ名
    説明
    SUNWscman
    Oracle Solaris Cluster フレームワークのマニュアルページ
    SUNWscdsman
    Oracle Solaris Cluster データサービスのマニュアルページ
    SUNWscqsman
    定足数サーバー のマニュアルページ

    Oracle Solaris Cluster マニュアルページパッケージを管理コンソールにインストールする場合、Oracle Solaris Cluster ソフトウェアをクラスタノードまたは定足数サーバーにインストールする前に、それらのパッケージを管理コンソールから表示できます。

  6. DVD-ROM ドライブから DVD-ROM を取り出します。
    1. DVD-ROM が使用されていないことを確認し、DVD-ROM 上にないディレクトリに移動します。
    2. DVD-ROM を取り出します。
      adminconsole# eject cdrom
  7. 管理コンソールに /etc/clusters ファイルを作成します。

    クラスタ名と、各クラスタノードの物理ノード名をファイルに追加します。

    adminconsole# vi /etc/clusters
    clustername node1 node2

    詳細については、/opt/SUNWcluster/bin/clusters(4)マニュアルページを参照してください。

  8. /etc/serialports ファイルを作成します。

    このファイルに、クラスタ内の各ノード用のエントリを追加します。物理ノード名、コンソールアクセスデバイスのホスト名、およびポート番号を指定します。コンソールアクセスデバイスの例として、端末集配信装置 (Terminal Concentrator、TC)、システムサービスプロセッサ (System Service Processor、SSP)、および Sun Fire システムコントローラがあります。

    adminconsole# vi /etc/serialports
    node1 ca-dev-hostname port
    node2 ca-dev-hostname port
    node1、 node2

    クラスタノードの物理名

    ca-dev-hostname

    コンソールアクセスデバイスのホスト名

    port

    シリアルポート番号、または Secure Shell 接続用の Secure Shell ポート番号

    /etc/serialports ファイルを作成するためには、次の注意事項に従ってください。

    • Sun Fire 15000 システムコントローラでは、各エントリのシリアル番号に telnet(1)ポート番号 23 を使用します。

    • その他すべてのコンソールアクセスデバイスの場合、telnet 接続を使用してコンソールに接続するには、物理ポート番号ではなく、telnet シリアルポート番号を使用します。 telnet シリアルポート番号は、物理ポート番号に 5000 を加えた値です。たとえば、物理ポート番号が 6 の場合、telnet シリアルポート番号は 5006 になります。

    • Sun Enterprise 10000 サーバーの詳細と注意事項については、 /opt/SUNWcluster/bin/serialports(4) のマニュアルページを参照してください。

    • ノードコンソールへの Secure Shell 接続の場合は、各ノードで保護付きの接続に使用するコンソールアクセスデバイスの名前とポート番号を指定します。Secure Shell のデフォルトポート番号は 22 です。

    • 管理コンソールを直接クラスタノードに接続したり、管理ネットワーク経由で接続する場合は、ノードごとにそのノードが管理コンソールや管理ネットワークへの接続に使用するホスト名とポート番号を指定します。

  9. (省略可能) 便宜上、管理コンソール上のディレクトリパスを設定します。
    1. /opt/SUNWcluster/bin/ ディレクトリを PATH に追加します。
    2. /opt/SUNWcluster/man/ ディレクトリを MANPATH に追加します。
    3. SUNWscman パッケージをインストールした場合は、/usr/cluster/man/ ディレクトリも MANPATH に追加します。
  10. CCP ユーティリティーを起動します。
    adminconsole# /opt/SUNWcluster/bin/ccp &

    CCP ウィンドウで、cconsolecsshcrlogin、または ctelnet ボタンをクリックしてツールを起動します。これらのツールは直接起動することもできます。たとえば、ctelnet を起動するには、次のコマンドを入力します。

    adminconsole# /opt/SUNWcluster/bin/ctelnet &

    CCP ソフトウェアは、次の Secure Shell 接続に対応しています。

    • ノードコンソールへの保護付きの接続の場合、cconsole ツールを起動します。次にクラスタコンソールウィンドウの「オプション」メニューから「Use SSH」チェックボックスをオンにします。

    • クラスタノードへの保護付きの接続の場合、cssh ツールを使用します。

    CCP ユーティリティーを使用する方法については、『Oracle Solaris Cluster システム管理』の「クラスタに遠隔ログインする」を参照してください。 詳細については、ccp(1M)マニュアルページも参照してください。

次の手順

Solaris OS がインストールされており、Oracle Solaris Cluster ソフトウェアの必要条件を満たしているかどうかを確認します。Solaris OS に関する Oracle Solaris Cluster のインストール要件については、「Oracle Solaris OS の計画」を参照してください。

Solaris ソフトウェアをインストールする

ソフトウェアのインストールに scinstall カスタム JumpStart インストールメソッドを使用しない場合は、次の手順に従ってグローバルクラスタ内の各ノードに Solaris OS をインストールしてください。クラスタの JumpStart インストールについては、「Solaris と Oracle Solaris Cluster ソフトウェアをインストールする (JumpStart)」を参照してください。


ヒント - Solaris OS は、各ノードに同時にインストールできるため、インストール時間を節約できます。


ノードに Solaris OS がすでにインストールされていても、Oracle Solaris Cluster インストールの必要条件が満たされていない場合は、Solaris ソフトウェアを再インストールする必要があります。以下に示す手順に従って、Oracle Solaris Cluster ソフトウェアを確実にインストールしてください。必要なルートディスクのパーティションの分割方法などの Oracle Solaris Cluster のインストール要件については、「Oracle Solaris OS の計画」を参照してください。

始める前に

次の作業を実行します。

  1. クラスタ管理コンソールを使用している場合、クラスタ内にある各ノードのコンソール画面を表示します。
    • クラスタコントロールパネル (CCP) ソフトウェアが管理コンソールにインストールされ、構成されている場合は、cconsole(1M) ユーティリティーを使用して、コンソール画面を個別に表示します。

      スーパーユーザーとして、次のコマンドを使用して、cconsole ユーティリティーを起動します。

      adminconsole# /opt/SUNWcluster/bin/cconsole clustername &

      また、cconsole ユーティリティーを使用してマスターウィンドウを開くことができます。ここでの入力を、個々のすべてのコンソールウィンドウに同時に送信できます。

    • cconsole ユーティリティーを使用しない場合は、各ノードのコンソールに個別に接続します。
  2. Solaris インストールドキュメントに指示されているとおりに Solaris OS をインストールします。

    注 - 同一クラスタ内のノードはすべて、同じバージョンの Solaris OS である必要があります。


    Solaris ソフトウェアの通常のインストール方法を使用してインストールします。Solaris ソフトウェアのインストール時に、次の作業を行います。

    1. 少なくとも End User Solaris ソフトウェアグループをインストールします。

      ヒント - Solaris ソフトウェアパッケージを手動でインストールしなくてすむようにするには、Entire Solaris Software Group Plus OEM Support をインストールしてください。


      これ以外の Solaris ソフトウェアの要件については、「Oracle Solaris ソフトウェアグループについて」を参照してください。

    2. 「手動配置」を選択して、ファイルシステムを設定します。
      • スライス 7 には少なくとも 20 MB のサイズを指定します。
      • (省略可能) グローバルデバイスサブシステムを使用するための、少なくとも 512M バイトのファイルシステムを作成します。

        注 - または、この専用ファイルシステムを作成しないで、その代わり、lofi デバイスを使用します。クラスタを確立したら、lofi デバイスの使用を scinstall コマンドに指定します。


      • ほかにも必要なファイルシステムパーティションがある場合は、「システムディスクパーティション」の説明に従って作成します。
    3. 管理しやすくするために、すべてのノード上で同じ root パスワードを設定します。
  3. スーパーユーザーではなく、役割に基づくアクセス制御 (RBAC) を使用してクラスタノードにアクセスする場合は、すべての Oracle Solaris Cluster コマンドに認証を提供する RBAC の役割を設定します。

    ユーザーがスーパーユーザーでない場合、この一連のインストール手順には、次の Oracle Solaris Cluster RBAC 認証が必要です。

    • solaris.cluster.modify

    • solaris.cluster.admin

    • solaris.cluster.read

    RBAC の役割について詳しくは、『Solaris のシステム管理 (セキュリティサービス)』の「役割によるアクセス制御 (概要)」 を参照してください。各 Oracle Solaris Cluster サブコマンドで必要となる RBAC の承認については、Oracle Solaris Cluster のマニュアルページを参照してください。

  4. 既存のクラスタにノードを追加する場合は、新しいノードにクラスタファイルシステム用のマウントポイントを追加します。
    1. アクティブなノードから、すべてのクラスタファイルシステムの名前を表示します。
      phys-schost-1# mount | grep global | egrep -v node@ | awk '{print $1}'
    2. 新しいノード上で、クラスタ内のクラスタファイルシステムごとにマウントポイントを作成します。
      phys-schost-new# mkdir -p mountpoint

      たとえば、mount コマンドで表示されるファイルシステム名が /global/dg-schost-1 の場合は、クラスタに追加する新しいノードで mkdir -p /global/dg-schost-1 を実行します。

  5. ノードの追加を行なっており、かつ、VxVM がクラスタの任意のノードにインストールされている場合は、次の作業を実行します。
    1. VxVM がインストールされているノード上で同じ vxio 番号が使用されていることを確認します。
      phys-schost# grep vxio /etc/name_to_major
      vxio NNN
    2. VxVM がインストールされていない各ノード上で vxio 番号が使用できることを確認してください。
    3. VxVM がインストールされていないノードで、vxio 番号がすでに使用されている場合は、/etc/name_to_major エントリを別の番号を使用するように変更します。
  6. エンドユーザー Solaris ソフトウェアグループをインストールし、次のいずれかの Oracle Solaris Cluster 機能を使用する場合、その機能をサポートする追加の Solaris ソフトウェアをインストールします。
    機能
    必須の Solaris ソフトウェアパッケージ
    scsnapshot
    SUNWp15u SUNWp15v SUNWp15p
    Oracle Solaris Cluster Manager
    SUNWapchr SUNWapchu
    phys-schost# pkgadd -G -d . package

    これらのパッケージは、大域ゾーンだけに追加する必要があります。-G オプションを使用すると、現在のゾーンだけにパッケージを追加します。このオプションは、既存の非大域ゾーン、またはあとで作成する非大域ゾーンにパッケージを伝播しないことも指定します。

  7. 必要な Solaris OS パッチ、ハードウェア関連のファームウェア、およびパッチをインストールします。

    ストレージアレイサポートにこれらのパッチを含めます。また、ハードウェアパッチに含まれている必要なファームウェアをダウンロードします。

    パッチおよびインストール手順の場所については、『Oracle Solaris Cluster 3.3 5/11 リリースノート』の「パッチと必須ファームウェアのレベル」を参照してください。

  8. x86: デフォルトのブートファイルを設定します。

    この値を設定すると、ログインプロンプトにアクセスできないときにノードを再起動できます。

    grub edit> kernel /platform/i86pc/multiboot kmdb
  9. クラスタで使用されているパブリック IP アドレスすべてを使用して各ノードで/etc/inet/hosts ファイルをアップデートします。

    この手順は、ネームサービスを使用しているかどうかに関わらず実行します。


    注 - 新しいクラスタまたはクラスタノードの確立中に、scinstall ユーティリティーは自動的に構成中の各ノードのパブリック IP アドレスを /etc/inet/hosts ファイルに追加します。


  10. (省略可能) Sun Enterprise 10000 サーバー上で、/etc/system ファイルを動的構成を使用するように構成します。

    クラスタの各ノード上の /etc/system ファイルに次のエントリを追加します。

    set kernel_cage_enable=1

    このエントリは、次のシステム再起動後に有効になります。動的再構成の詳細については、サーバーのドキュメントを参照してください。

  11. (省略可能) IPMP グループでパブリックネットワークアダプタを構成します。

    scinstall ユーティリティーがクラスタの作成中に構成する多重アダプタ IPMP グループを使用しない場合は、スタンドアロンシステムでカスタム IPMP グループを構成します。詳細については、『Solaris のシステム管理 (IP サービス)』の第 31 章「IPMP の管理 (手順)」を参照してください。

    クラスタ作成中、scinstall ユーティリティーは、同じサブネットを使用するパブリックネットワークアダプタの各セットのうち、IPMP グループでまだ構成されていないものを、単一の多重アダプタIPMP グループに構成します。scinstall ユーティリティーは、既存の IPMP グループを無視します。

  12. Solaris I/O マルチパスを使用する場合、各ノードでマルチパスを有効にします。

    注意

    注意 - Oracle Solaris Cluster ソフトウェアがすでに実行されている場合は、このコマンドを実行しないでください。アクティブなクラスタノードで stmsboot コマンドを実行すると、Solaris サービスがメンテナンス状態になる場合があります。代わりに、stmsboot(1M) マニュアルページにある Oracle Solaris Cluster 環境での stmsboot コマンドの使い方の手順に従ってください。


    phys-schost# /usr/sbin/stmsboot -e
    -e

    Solaris I/O マルチパスを有効にします。

    詳細については、stmsboot(1M)マニュアルページを参照してください。

次の手順

サーバが内部ハードディスクドライブのミラー化に対応していて、内部ディスクのミラー化を設定する場合は、「内部ディスクのミラー化を構成する」に進みます。

それ以外の場合で、VxFS をインストールする場合は、「Veritas File System ソフトウェアをインストールする」に進みます。

それ以外の場合、Oracle Solaris Cluster ソフトウェアパッケージをインストールします。「Oracle Solaris Cluster フレームワークおよびデータサービスソフトウェアパッケージをインストールする 」に進みます。

参照

Oracle Solaris Cluster 構成で、動的再構成の作業を実行するための手順については、『Oracle Solaris Cluster システム管理』を参照してください。

内部ディスクのミラー化を構成する

グローバルクラスタの各ノードで、次の手順に従って、内部ハードウェア RAID ディスクのミラー化を設定し、システムディスクをミラー化します。この手順は省略可能です。


注 - 次のような状況ではこの手順を実行しないでください。


始める前に

Solaris オペレーティングシステムおよび必要なパッチがインストールされていることを確認します。

  1. スーパーユーザーになります。
  2. 内部ミラーを構成します。
    phys-schost# raidctl -c clt0d0 clt1d0 
    -c clt0d0 clt1d0

    ミラーディスクにプライマリディスクのミラーを作成します。プライマリディスクの名前を 1 番目の引数として入力します。ミラーディスクの名前を 2 番目の引数として入力します。

    サーバーの内部ディスクのミラー化の設定方法については、サーバーに付属のドキュメントおよびraidctl(1M)マニュアルページを参照してください。

次の手順

SPARC: Sun Logical Domains (LDoms) を作成する場合は、「SPARC: Sun Logical Domains ソフトウェアをインストールし、ドメインを作成する」に進みます。

それ以外の場合で、VxFS をインストールする場合は、「Veritas File System ソフトウェアをインストールする」に進みます。

それ以外の場合、Oracle Solaris Cluster ソフトウェアパッケージをインストールします。「Oracle Solaris Cluster フレームワークおよびデータサービスソフトウェアパッケージをインストールする 」に進みます。

SPARC: Sun Logical Domains ソフトウェアをインストールし、ドメインを作成する

次の手順に従って、物理的にクラスタ化されたマシン上に Sun Logical Domains (LDoms) ソフトウェアをインストールして、I/O およびゲストドメインを作成します。

始める前に

次の作業を実行します。

  1. マシン上のスーパーユーザーになります。
  2. LDoms ソフトウェアをインストールし、ドメインを構成します。
    • 『Logical Domains (LDoms) 1.0.3 Administration Guide』に記載された手順に従います。

      ゲストドメインを作成する場合は、Oracle Solaris Cluster の、クラスタ内にゲストドメインを作成するためのガイドラインに従ってください。

    • クラスタインターコネクトとして使用する仮想ネットワークデバイスに接続されるすべての仮想スイッチデバイスで、mode=sc オプションを使用します。
    • 共有ストレージの場合、ゲストドメインに全 SCSI ディスクをマップするだけです。

次の手順

サーバが内部ハードディスクドライブのミラー化に対応していて、内部ディスクのミラー化を設定する場合は、「内部ディスクのミラー化を構成する」に進みます。

それ以外の場合で、VxFS をインストールする場合は、「Veritas File System ソフトウェアをインストールする」に進みます。

それ以外の場合、Oracle Solaris Cluster ソフトウェアパッケージをインストールします。「Oracle Solaris Cluster フレームワークおよびデータサービスソフトウェアパッケージをインストールする 」に進みます。

Veritas File System ソフトウェアをインストールする

クラスタで Veritas File System (VxFS) ソフトエアを使用するには、グローバルクラスタの各ノードで次の手順を実行します。

  1. VxFS のインストールドキュメントに従って、VxFS ソフトウェアをクラスタの各ノード上にインストールします。
  2. VxFS のサポートに必要なすべての Oracle Solaris Cluster パッチをインストールします。

    パッチおよびインストール手順の場所については、『Oracle Solaris Cluster 3.3 5/11 リリースノート』の「パッチと必須ファームウェアのレベル」を参照してください。

  3. 各ノードの /etc/system ファイルで、次の値を設定します。
    set rpcmod:svc_default_stksize=0x8000
    set lwp_default_stksize=0x6000

    これらの変更は、次にシステムを再起動したときに有効になります。

    • Oracle Solaris Cluster ソフトウェアには、少なくとも 0x8000 に設定された rpcmod:svc_default_stksize が必要です。VxFS をインストールすると、rpcmod:svc_default_stksize 変数の値が 0x4000 に設定されるため、VxFS のインストールが終わったあと、値を手動で 0x8000 に設定する必要があります。

    • /etc/system ファイルの lwp_default_stksize 変数を設定して、VxFS デフォルト値の 0x4000 を無効にします。

次の手順

Oracle Solaris Cluster ソフトウェアパッケージをインストールします。「Oracle Solaris Cluster フレームワークおよびデータサービスソフトウェアパッケージをインストールする 」に進みます。

Oracle Solaris Cluster フレームワークおよびデータサービスソフトウェアパッケージをインストールする

installer プログラムを使用して次のインストール作業の 1 つまたは複数を実行するには、この手順に従います。


注 - この手順では、対話型の installer プログラムを使用します。インストールスクリプトの開発といった非対話型の installer プログラムを使用するには、『Sun Java Enterprise System 5 Update 1 Installation Guide for UNIX』の第 5 章「Installing in Silent Mode」を参照してください。


始める前に

次の作業を実行します。

  1. RPC 通信および Oracle Java Web Console (省略可能) への外部アクセスを復元します。

    Solaris OS のインストール中は、特定のネットワークサービスに対する外部アクセスを無効にする、制限されたネットワークプロファイルが使用されます。 この制限されたサービスには、クラスタ機能に影響を与える次のようなサービスがあります。

    • クラスタ通信に必要な RPC 通信サービス

    • Oracle Solaris Cluster Manager の GUI を使用するために必要な Oracle Java Web Console サービス

    次の手順によって、Oracle Solaris Cluster フレームワークによって使用される Solaris 機能が復元されますが、制限されたネットワークプロファイルが使用されている場合は、復元されません。

    1. RPC 通信への外部アクセスを復元するには、次のコマンドを実行します。
      phys-schost# svccfg
      svc:> select network/rpc/bind
      svc:/network/rpc/bind> setprop config/local_only=false
      svc:/network/rpc/bind> quit
      phys-schost# svcadm refresh network/rpc/bind:default
      phys-schost# svcprop network/rpc/bind:default | grep local_only

      最後のコマンドの出力は、local_only プロパティーが現在 false に設定されていることを示しているはずです。

    2. (省略可能) Oracle Java Web Console への外部アクセスを復元するには、次のコマンドを実行します。
      phys-schost# svccfg
      svc:> select system/webconsole
      svc:/system/webconsole> setprop options/tcp_listen=true
      svc:/system/webconsole> quit
      phys-schost# /usr/sbin/smcwebserver restart
      phys-schost# netstat -a | grep 6789

      最後のコマンドの出力は、Oracle Java Web Console に接続するために使用されるポート番号である 6789 のエントリを返すはずです。

      制限ネットワークプロファイルが、ローカル接続に対して制限するサービスの詳細については、『Solaris 10 10/09 インストールガイド(インストールとアップグレードの計画)』の「ネットワークセキュリティーの計画」を参照してください。

  2. (省略可能) GUI で installer プログラムを使用するには、インストール作業を行うクラスタノードの表示環境を、GUI を表示するように設定します。
    % xhost +
    % setenv DISPLAY nodename:0.0

    これらの設定を行わない場合、installer プログラムはテキストベースモードで実行されます。

  3. インストールするクラスタノードでスーパーユーザーになります。

    注 - 物理的にクラスタ化されたマシンが LDoms で構成されている場合、I/O ドメインまたはゲストドメインにのみ Oracle Solaris Cluster ソフトウェアをインストールしてください。


  4. DVD-ROM ドライブに DVD-ROM を挿入します。

    ボリューム管理デーモン vold(1M) が実行中で、CD-ROM または DVD デバイスを管理するよう構成されている場合、このデーモンは自動的にメディアを /cdrom/cdrom0 ディレクトリにマウントします。

  5. DVD-ROM の インストールウィザードディレクトリに移動します。
    • SPARC プラットフォームにソフトウェアパッケージをインストールする場合は、次のコマンドを使用します。

      phys-schost# cd /cdrom/cdrom0/Solaris_sparc
    • x86 プラットフォームにソフトウェアパッケージをインストールする場合は、次のコマンドを使用します。

      phys-schost# cd /cdrom/cdrom0/Solaris_x86
  6. インストールウィザードプログラムを開始します。
    phys-schost# ./installer

    installer プログラムの各種フォームや機能の使用の詳細については、『Sun Java Enterprise System 5 Update 1 Installation Guide for UNIX』 を参照してください。

  7. 画面の指示に従い、Oracle Solaris Cluster フレームワークソフトウェアおよびデータサービスをノードにインストールします。
    • Oracle Solaris Cluster Manager (旧 SunPlex Manager) をインストールしない場合は、それを選択解除します。


      注 - Oracle Solaris Cluster Manager は、クラスタのすべてのノードにインストールするか、まったくインストールしないかのいずれかにする必要があります。


    • Oracle Solaris Cluster Geographic Edition ソフトウェアをインストールする場合は、それを選択します。

      クラスタが確立されたら、『Oracle Solaris Cluster Geographic Edition Installation Guide』でその後の手順を参照します。

    • Oracle Solaris Cluster フレームワークソフトウェアを構成するかどうかを尋ねるプロンプトが表示されたら、「あとで設定」を選択します。

    インストールが完了すると、インストールログを表示できます。

  8. DVD-ROM ドライブから DVD-ROM を取り出します。
    1. DVD-ROM が使用されていないことを確認し、DVD-ROM 上にないディレクトリに移動します。
    2. DVD-ROM を取り出します。
      phys-schost# eject cdrom
  9. Oracle Solaris Cluster ソフトウェアをサポートするために必要なパッチを適用します。

    パッチおよびインストール手順の場所については、『Oracle Solaris Cluster 3.3 5/11 リリースノート』の「パッチと必須ファームウェアのレベル」を参照してください。

  10. クラスタインターコネクトに次のアダプタのいずれかを使用する場合、各ノード上で /etc/system ファイルの関連エントリのコメントを解除します。
    アダプタ
    エントリ
    ipge
    set ipge:ipge_taskq_disable=1
    ixge
    set ixge:ixge_taskq_disable=1

    このエントリは、次のシステム再起動後に有効になります。

次の手順

Sun QFS ファイルシステムソフトウェアをインストールする場合、初期インストールの手順を実行してください。「Sun QFS Softwareのインストール方法」を参照してください。

root ユーザー環境を設定する場合は、「root 環境を設定する」に進みます。

Sun QFS Softwareのインストール方法

グローバルクラスタ内の各ノード上で次の手順を実行します。

  1. Oracle Solaris Cluster ソフトウェアがインストールされていることを確認します。

    「Oracle Solaris Cluster フレームワークおよびデータサービスソフトウェアパッケージをインストールする 」を参照してください。

  2. クラスタノード上にインストールするクラスタノード上でスーパーユーザーになります。
  3. Sun QFS ファイルシステムソフトウェアをインストールします。

    Sun QFS のインストールの初期インストールの手順を実行してください。

次の手順

root ユーザー環境を設定します。 「root 環境を設定する」に進みます。

root 環境を設定する


注 - Oracle Solaris Cluster 構成では、各種シェルのユーザー初期化ファイルは、それらが対話式のシェルから実行されていることを確認する必要があります。 確認は、端末への出力を試みる前に行なってください。この方法に従わないと、予期しない動作やデータサービス妨害が発生する可能性があります。詳細については、『Solaris のシステム管理 (基本編)』の「ユーザーの作業環境のカスタマイズ」 を参照してください。


グローバルクラスタ内の各ノード上で次の手順を実行します。

  1. クラスタノード上にインストールするクラスタノード上でスーパーユーザーになります。
  2. .cshrc または .profile ファイルの PATH および MANPATH エントリを変更します。
    1. PATH/usr/sbin/ および /usr/cluster/bin/ を追加します。
    2. MANPATH/usr/cluster/man/ を追加します。

    追加のファイルパスの設定については、Solaris OS のドキュメントおよびその他のアプリケーションのドキュメントを参照してください。

  3. (省略可能) 管理を行いやすくするため、各ノードに同じ root パスワードを設定します。

次の手順

Solaris IP Filter を使用する場合は、「Solaris IP Filter を構成する」に進みます。

使用しない場合は、クラスタノード上で Oracle Solaris Cluster ソフトウェアを構成します。「新規グローバルクラスタまたは新規グローバルクラスタノードの確立」に進みます。

Solaris IP Filter を構成する

グローバルクラスタ上で Solaris IP Filter を構成するには、次の手順を実行します。


注 - Solaris IP Filter はフェイルオーバーデータサービスでのみ使用します。スケーラブルデータサービスでの Solaris IP Filter の使用はサポートされていません。


Solaris IP Filter 機能についての詳細については、『Solaris のシステム管理 (IP サービス)』のパート IV「IP セキュリティー」を参照してください。

始める前に

クラスタで Solaris IP Filter を構成するときに従うガイドラインと制限事項を確認します。 「Oracle Solaris OS の機能制限」の「IP Filter」の箇条書き項目を参照してください。

  1. スーパーユーザーになります。
  2. 影響を受けたすべてのノード上の /etc/ipf/ipf.conf ファイルにフィルタルールを追加します。

    フィルタルールを Oracle Solaris Cluster ノードに追加する場合、次のガイドラインと要件に従います。

    • 各ノードの ipf.conf ファイルで、クラスタ相互接続トラフィックにフィルタなしでの通過を明示的に許可するルールを追加します。 インタフェース固有でないルールは、クラスタ相互接続を含めたすべてのインタフェースに適用されます。これらのインタフェース上のトラフィックが誤ってブロックされていないことを確認します。相互接続トラフィックがブロックされている場合、IP Filter 構成はクラスタのハンドシェーク処理やインフラストラクチャー処理に干渉します。

      たとえば、現在、次のルールが使用されていると仮定します。

      # Default block TCP/UDP unless some later rule overrides
      block return-rst in proto tcp/udp from any to any
      
      # Default block ping unless some later rule overrides
      block return-rst in proto icmp all

      クラスタ相互接続トラフィックのブロックを解除するには、次のルールを追加します。使用されているサブネットは、例示用にのみ使用しています。ifconfig interface コマンドを使用して、使用するサブネットを取得します。

      # Unblock cluster traffic on 172.16.0.128/25 subnet (physical interconnect)
      pass in quick proto tcp/udp from 172.16.0.128/25 to any
      pass out quick proto tcp/udp from 172.16.0.128/25 to any
      
      # Unblock cluster traffic on 172.16.1.0/25 subnet (physical interconnect)
      pass in quick proto tcp/udp from 172.16.1.0/25 to any
      pass out quick proto tcp/udp from 172.16.1.0/25 to any
      
      # Unblock cluster traffic on 172.16.4.0/23 (clprivnet0 subnet)
      pass in quick proto tcp/udp from 172.16.4.0/23 to any
      pass out quick proto tcp/udp from 172.16.4.0/23 to any
    • クラスタのプライベートネットワークのアダプタ名または IP アドレスのいずれかを指定します。 たとえば、次のルールは、アダプタ名によってクラスタのプライベートネットワークを指定します。

      # Allow all traffic on cluster private networks.
      pass in quick on e1000g1 all
      …
    • Oracle Solaris Cluster ソフトウェアは、ノード間でネットワークアドレスをフェイルオーバーします。フェイルオーバー時に特別な手順やコードは不要です。

    • 論理ホスト名と共有アドレスリソースを参照するすべてのフィルタリングルールは、すべてのクラスタノードで一意になるようにします。

    • スタンバイノードのルールは存在しない IP アドレスを参照します。このルールはまだ IP フィルタの有効なルールセットの一部であり、フェイルオーバー後にノードがアドレスを受け取ると有効になります。

    • すべてのフィルタリングルールが同じ IPMP グループ内のすべての NIC で同じになるようにします。 つまり、ルールがインタフェース固有である場合、IPMP グループ内のほかのすべてのインタフェースにも同じルールが存在するようにします。

    Solaris IP Filter のルールについての詳細は、ipf(4) のマニュアルページを参照してください。

  3. ipfilter SMF サービスを有効にします。
    phys-schost# svcadm enable /network/ipfilter:default

次の手順

クラスタノード上で Oracle Solaris Cluster ソフトウェアを構成します。「新規グローバルクラスタまたは新規グローバルクラスタノードの確立」に進みます。