JavaScript is required to for searching.
ナビゲーションリンクをスキップ
印刷ビューの終了
Oracle Solaris Cluster ソフトウェアのインストール     Oracle Solaris Cluster 3.3 3/13 (日本語)
search filter icon
search icon

ドキュメントの情報

はじめに

1.  Oracle Solaris Cluster 構成の計画

2.  グローバルクラスタノードへのソフトウェアのインストール

ソフトウェアのインストール

クラスタソフトウェアのインストールの準備をする方法

Quorum Server ソフトウェアをインストールおよび構成する方法

管理コンソールに Cluster Control Panel ソフトウェアをインストールする方法

Oracle Solaris ソフトウェアをインストールする方法

内部ディスクのミラー化を構成する方法

SPARC: Oracle VM Server for SPARC ソフトウェアをインストールし、ドメインを作成する方法

Oracle Solaris Cluster フレームワークおよびデータサービスソフトウェアパッケージをインストールする方法

Sun QFS ソフトウェアをインストールする方法

ルート環境を設定する方法

IP Filter を構成する方法

3.  グローバルクラスタの確立

4.   Solaris Volume Manager ソフトウェアの構成

5.  クラスタファイルシステムの作成

6.  非大域ゾーンとゾーンクラスタの作成

7.  クラスタからのソフトウェアのアンインストール

索引

ソフトウェアのインストール

このセクションでは、クラスタノードにソフトウェアをインストールするための情報と手順を紹介します。

次のタスクマップは、複数または単一ホストのグローバルクラスタにソフトウェアをインストールするときに実行するタスクを示しています。ここに示す順に従って手順を実行します。

表 2-1 タスクマップ: ソフトウェアのインストール

タスク
手順
クラスタ構成のレイアウトを計画、およびソフトウェアをインストールするための準備
(オプション) 定足数サーバーのインストールおよび構成
(オプション) Cluster Control Panel (CCP) ソフトウェアの管理コンソールへのインストール
すべてのノードへの Oracle Solaris OS のインストールオプションで、Oracle Solaris I/O マルチパスを有効にします。
(オプション) 内部ディスクのミラー化の構成
(オプション) Oracle VM Server for SPARC ソフトウェアのインストールとドメインの作成
Oracle Solaris Cluster ソフトウェアおよび使用するデータサービスのインストール
(オプション) Sun QFS ソフトウェアのインストール
ディレクトリパスの設定
(オプション) Oracle Solaris の IP Filter 機能を構成します。

クラスタソフトウェアのインストールの準備をする方法

ソフトウェアのインストールを始める前に、次の準備を行なってください。

  1. クラスタ構成に選択したハードウェアとソフトウェアが現在の Oracle Solaris Cluster 構成でサポートされていることを確認します。
    • クラスタノードとしてサポートされる物理マシンおよび仮想マシンについては、『Oracle Solaris Cluster Concepts Guide』の「Cluster Nodes」を参照してください。

    • サポートされるクラスタ構成の最新情報については、Oracle の販売代理店にお問い合わせください。

  2. クラスタ構成の計画およびインストール方法を検討する上で参考となる情報を参照します。
  3. 関連文書 (サードパーティー製品の文書も含む) をすべて用意します。

    クラスタのインストールを行う場合に参考となるドキュメントを持つ製品の一部を以下に示します。

    • Oracle Solaris OS

    • Solaris Volume Manager ソフトウェア

    • Sun QFS ソフトウェア

    • 他社製のアプリケーション

  4. クラスタ構成の計画を立てます。

    第 1 章Oracle Solaris Cluster 構成の計画 and in the 『Oracle Solaris Cluster Data Services Planning and Administration Guide 』に記載された計画のガイドラインを使用して、クラスタをインストールして構成する方法を決定します。


    注意

    Caution - クラスタのインストールを綿密に計画します。Oracle Solaris および Oracle Solaris Cluster ソフトウェアのインストールを開始する前に、データサービスおよび他社製の製品すべてについて必要条件を認識してください。そうしないと、Oracle Solaris や Oracle Solaris Cluster ソフトウェアを完全にインストールし直す必要があるインストールエラーが発生する可能性があります。Oracle Solaris Cluster ソフトウェアのインストール後にホスト名を変更することはできないので、Oracle Solaris Cluster をインストールする前に、次の要件に対応する必要があります。


  5. クラスタ構成に必要なパッチをすべて入手します。

    パッチの場所とインストール方法については、『Oracle Solaris Cluster 3.3 3/13 リリースノート』の「パッチと必須ファームウェアのレベル」を参照してください。

次の手順

クラスタ内で定足数デバイスとして使用するために、定足数サーバーとしてマシンをインストールする場合は、次に 「Quorum Server ソフトウェアをインストールおよび構成する方法」に進みます。

それ以外で、Cluster Control Panel ソフトウェアを使用して管理コンソールからクラスタノードに接続する場合は、「管理コンソールに Cluster Control Panel ソフトウェアをインストールする方法」に進みます。

それ以外の場合は、使用する Oracle Solaris のインストール手順を選択します。

Quorum Server ソフトウェアをインストールおよび構成する方法

この手順を実行して、ホストサーバーを定足数サーバーとして構成します。

始める前に

次のタスクを実行します。

  1. インストールするマシンでスーパーユーザーになります。

    installer プログラムで GUI を表示できるようにするには、次のコマンドを使用します。

    # ssh -X [-l root] quorumserver
  2. ドライブにインストールメディアを挿入します。

    ボリューム管理デーモン (vold(1M)) が実行中で、CD-ROM または DVD デバイスを管理するように構成されている場合、このデーモンが自動的にメディアを /cdrom/cdrom0 ディレクトリにマウントします。

  3. メディアのインストールウィザードディレクトリに変更します。
    • SPARC プラットフォームにソフトウェアパッケージをインストールする場合は、次のコマンドを入力します。

      phys-schost# cd /cdrom/cdrom0/Solaris_sparc
    • x86 プラットフォームにソフトウェアパッケージをインストールする場合は、次のコマンドを入力します。

      phys-schost# cd /cdrom/cdrom0/Solaris_x86
  4. インストールウィザードを起動します。
    phys-schost# ./installer
  5. 画面の指示に従って、Quorum Server ソフトウェアをホストサーバーにインストールします。

    「あとで構成」オプションを選択します。


    注 - インストーラで「あとで構成」オプションを選択できない場合は、「今すぐ構成」を選択します。


    インストールが完了したあとは、使用可能なインストールログをすべて表示できます。installer プログラムの使用の詳細については、『Sun Java Enterprise System 7 Installation and Upgrade Guide 』を参照してください。

  6. すべての必須 Quorum Server パッチを適用します。
  7. ドライブからインストールメディアを取り出します。
    1. インストールメディアが使用されないようにするために、メディア上にないディレクトリに変更します。
    2. メディアを取り出します。
      phys-schost# eject cdrom
  8. Quorum Server ソフトウェアをサポートするために必要なパッチをすべて適用します。

    パッチの場所とインストール方法については、『Oracle Solaris Cluster 3.3 3/13 リリースノート』の「パッチと必須ファームウェアのレベル」を参照してください。

  9. (省略可能) Quorum Server のバイナリの場所を PATH 環境変数に追加します。
    quorumserver# PATH=$PATH:/usr/cluster/bin
  10. (省略可能) Quorum Server のマニュアルページの場所を MANPATH 環境変数に追加します。
    quorumserver# MANPATH=$MANPATH:/usr/cluster/man
  11. 定足数サーバーを構成します。

    定足数サーバーに関する構成情報を指定するために、次のエントリを /etc/scqsd/scqsd.conf ファイルに追加します。

    インスタンス名またはポート番号の少なくとも 1 つを使用して、定足数サーバーを特定します。ポート番号を指定する必要がありますが、インスタンス名はオプションです。

    • インスタンス名を指定する場合、その名前は定足数サーバー間で一意にします。

    • インスタンス名を指定しない場合、常に、定足数サーバーが待機するポートによりこの定足数サーバーを参照します。

    /usr/cluster/lib/sc/scqsd [-d quorumdirectory] [-i instancename] -p port
    -d quorumdirectory

    定足数サーバーが定足数データを格納できるディレクトリへのパスです。

    クラスタ固有の定足数情報を格納するために、定足数サーバープロセスはこのディレクトリに 1 クラスタにつき 1 つのファイルを作成します。

    デフォルトでは、このオプションの値は /var/scqsd です。このディレクトリは、ユーザーが構成する各定足数サーバーに対して一意にします。

    -i instancename

    定足数サーバーインスタンスに対してユーザーが選択する一意の名前です。

    -p port

    定足数サーバーがクラスタからの要求を待機するポート番号です。

  12. (省略可能) 複数のクラスタにサービスを提供し、別のポート番号またはインスタンスを使用する場合は、必要な定足数サーバーの追加のインスタンスごとに追加エントリを構成します。
  13. /etc/scqsd/scqsd.conf ファイルを保存して終了します。
  14. 新しく構成した定足数サーバーを起動します。
    quorumserver# /usr/cluster/bin/clquorumserver start quorumserver
    quorumserver

    定足数サーバーを識別します。定足数サーバーが待機するポート番号を使用できます。構成ファイルでインスタンス名を指定した場合は、代わりにその名前を使用できます。

    • 1 台の定足数サーバーを起動するには、インスタンス名とポート番号のいずれかを指定します。

    • 複数の定足数サーバーを構成している場合、すべての定足数サーバーを起動するには、 + オペランドを使用します。

注意事項

インストーラは Quorum Server パッケージの単純な pkgadd インストールを実行し、必要なディレクトリを設定します。ソフトウェアは次のパッケージから構成されています。

これらのパッケージのインストールにより、/usr/cluster および /etc/scqsd ディレクトリにソフトウェアが追加されます。Quorum Server ソフトウェアの場所を変更することはできません。

Quorum Server ソフトウェアに関するインストールエラーメッセージが表示される場合は、パッケージが正しくインストールされているかどうかを確認します。

次の手順

管理コンソールを使用してクラスタノードと通信する場合は、「管理コンソールに Cluster Control Panel ソフトウェアをインストールする方法」に進みます。

それ以外の場合は、「Oracle Solaris ソフトウェアをインストールする方法」に進みます。

管理コンソールに Cluster Control Panel ソフトウェアをインストールする方法


注 - 管理コンソールの使用は必須ではありません。管理コンソールを使用しない場合は、クラスタ内の特定のノードから管理タスクを行います。

このソフトウェアを使用して、Oracle VM Server for SPARC ゲストドメインに接続することはできません。


この手順では、Cluster Control Panel (CCP) ソフトウェアを管理コンソールにインストールする方法について説明します。CCP には、cconsole csshctelnet、および crlogin ツールを起動するための単一のインタフェースが用意されています。これらの各ツールには、一連のノードとの多重ウィンドウ接続のほかに共通ウィンドウが備わっています。共通ウィンドウを使用して、一度にすべてのノードに入力を送信できます。詳細については、ccp(1M) のマニュアルページを参照してください。

Oracle Solaris Cluster 3.3 3/13 ソフトウェアがサポートする特定のバージョンの Oracle Solaris OS が動作する任意のデスクトップマシンを管理コンソールとして使用できます。

始める前に

サポートされているバージョンの Oracle Solaris OS と Oracle Solaris パッチが管理コンソールにインストールされていることを確認してください。すべてのプラットフォームには、少なくとも End User Oracle Solaris ソフトウェアグループが必要です。

  1. 管理コンソールでスーパーユーザーになります。
  2. DVD-ROM ドライブに DVD-ROM を挿入します。

    ボリューム管理デーモン vold(1M) が実行中で、CD-ROM または DVD デバイスを管理するよう構成されている場合、このデーモンは自動的にメディアを /cdrom/cdrom0 ディレクトリにマウントします。

  3. Solaris_arch/Product/sun_cluster/Solaris_ver/Packages/ ディレクトリ (ここで、archsparc または x86ver は Oracle Solaris 10 の場合 10) に変更します。
    adminconsole# cd /cdrom/cdrom0/Solaris_arch/Product/sun_cluster/Solaris_ver/Packages/
  4. SUNWccon パッケージをインストールします。
    adminconsole# pkgadd -d . SUNWccon
  5. (省略可能) Oracle Solaris Cluster のマニュアルページパッケージをインストールします。
    adminconsole# pkgadd -d . pkgname

    パッケージ名
    説明
    SUNWscman
    Oracle Solaris Cluster フレームワークのマニュアルページ
    SUNWscdsman
    Oracle Solaris Cluster データサービスのマニュアルページ
    SUNWscqsman
    Quorum Server のマニュアルページ

    Oracle Solaris Cluster マニュアルページパッケージを管理コンソールにインストールする場合、Oracle Solaris Cluster ソフトウェアをクラスタノードまたは定足数サーバーにインストールする前に、それらを管理コンソールから表示できます。

  6. DVD-ROM ドライブから DVD-ROM を取り出します。
    1. DVD-ROM が使用されていないことを確認し、DVD-ROM 上にないディレクトリに移動します。
    2. DVD-ROM を取り出します。
      adminconsole# eject cdrom
  7. 管理コンソールで /etc/clusters ファイルを作成します。

    クラスタ名と各クラスタノードの物理ノード名をファイルに追加します。

    adminconsole# vi /etc/clusters
    clustername node1 node2

    詳細については、/opt/SUNWcluster/bin/clusters(4) のマニュアルページを参照してください。

  8. /etc/serialports ファイルを作成します。

    クラスタ内の各ノードのエントリをファイルに追加します。物理ノード名、コンソールアクセスデバイスのホスト名、およびポート番号を指定します。コンソールアクセスデバイスには、たとえば端末集配信装置 (TC) や Sun Fire システムコントローラがあります。

    adminconsole# vi /etc/serialports
    node1 ca-dev-hostname port
    node2 ca-dev-hostname port
    node1、node2

    クラスタノードの物理名。

    ca-dev-hostname

    コンソールアクセスデバイスのホスト名。

    port

    シリアルポート番号、または Secure Shell 接続の Secure Shell ポート番号。

    次の注意事項に従って、/etc/serialports ファイルを作成します。

    • Sun Fire 15000 システムコントローラの場合は、各エントリのシリアルポート番号として telnet(1) ポート番号 23 を使用してください。

    • ほかのすべてのコンソールアクセスデバイスについては、telnet 接続でコンソールに接続するには、物理ポート番号ではなく telnet シリアルポート番号を使用します。telnet シリアルポート番号を求めるには、5000 を物理ポート番号に足します。たとえば物理ポート番号が 6 の場合、telnet シリアルポート番号は 5006 です。

    • ノードコンソールへの Secure Shell 接続の場合、コンソールアクセスデバイスの名前と、セキュア接続に使用するポート番号をノードごとに指定します。Secure Shell のデフォルトのポート番号は 22 です。

    • 管理コンソールをクラスタノードに直接または管理ネットワークを通じて接続するには、そのホスト名と、管理コンソールまたは管理ネットワークへの接続にノードで使用されるポート番号をノードごとに指定します。

  9. (省略可能) 利便性を得るために、管理コンソールでディレクトリパスを設定します。
    1. /opt/SUNWcluster/bin/ ディレクトリを PATH に追加します。
    2. /opt/SUNWcluster/man/ ディレクトリを MANPATH に追加します。
    3. SUNWscman パッケージをインストールした場合は、/usr/cluster/man/ ディレクトリも MANPATH に追加します。
  10. CCP ユーティリティーを起動します。
    adminconsole# /opt/SUNWcluster/bin/ccp &

    CCP ウィンドウの cconsolecsshcrlogin、または ctelnet ボタンをクリックして、このツールを起動します。あるいはこれらのツールを直接起動することもできます。たとえば ctelnet を起動するには、次のコマンドを入力します。

    adminconsole# /opt/SUNWcluster/bin/ctelnet &

    CCP ソフトウェアでは、次の Secure Shell 接続がサポートされています。

    • ノードコンソールへのセキュア接続の場合は、cconsole ツールを起動します。続いて、クラスタコンソールウィンドウの「オプション」メニューから、「SSH の使用」チェックボックスにチェックマークを付けます。

    • クラスタノードへのセキュア接続の場合は、 cssh ツールを使用します。

    CCP ユーティリティーの使用方法の詳細については、『Oracle Solaris Cluster システム管理』の「クラスタにリモートでログインする方法」の手順を参照してください。ccp(1M) のマニュアルページも参照してください。

次の手順

Oracle Solaris OS がすでにインストールされ、Oracle Solaris Cluster ソフトウェア要件が満たされているかどうかを調べます。Oracle Solaris OS での Oracle Solaris Cluster のインストール要件については、「Oracle Solaris OS の計画」を参照してください。

Oracle Solaris ソフトウェアをインストールする方法

カスタム JumpStart インストール方法である scinstall を使用せずにソフトウェアをインストールする場合は、グローバルクラスタ内の各ノードで次の手順を実行して Oracle Solaris OS をインストールします。JumpStart によるクラスタのインストールの詳細については、「Oracle Solaris および Oracle Solaris Cluster ソフトウェアをインストールする方法 (JumpStart)」を参照してください。


ヒント - インストール速度を高めるために、各ノードで同時に Oracle Solaris OS をインストールできます。


ノードに Oracle Solaris OS がすでにインストールされていても、Oracle Solaris Cluster インストールの必要条件が満たされていない場合は、Oracle Solaris ソフトウェアの再インストールが必要になる場合があります。この方法の手順に従って、このあと Oracle Solaris Cluster ソフトウェアを確実にインストールしてください。必要なルートディスクのパーティションの分割方法などの Oracle Solaris Cluster のインストール要件については、「Oracle Solaris OS の計画」を参照してください。

始める前に

次のタスクを実行します。

  1. クラスタ管理コンソールを使用している場合、クラスタ内にある各ノードのコンソール画面を表示します。
    • Cluster Control Panel (CCP) ソフトウェアが管理コンソールにインストールされ構成されている場合は、cconsole(1M) ユーティリティーを使用して個々のコンソール画面を表示してください。

      スーパーユーザーとして、次のコマンドを使用して、cconsole ユーティリティーを起動します。

      adminconsole# /opt/SUNWcluster/bin/cconsole clustername &

      また、cconsole ユーティリティーを使用してマスターウィンドウを開き、ここでの入力を個々のすべてのコンソールウィンドウに同時に送信できます。

    • cconsole ユーティリティーを使用しない場合は、各ノードのコンソールに個別に接続します。
  2. Oracle Solaris インストールドキュメントの指示に従って、Oracle Solaris OS をインストールします。

    注 - クラスタ内のすべてのノードに、同じバージョンの Oracle Solaris OS をインストールする必要があります。


    Oracle Solaris ソフトウェアのインストールに通常使用される方法を使用できます。Oracle Solaris ソフトウェアのインストール時に、次の手順を実行します。

    1. 少なくとも End User Oracle Solaris ソフトウェアグループをインストールします。

      ヒント - Oracle Solaris ソフトウェアのパッケージを手動でインストールしないで済むようにするには、Entire Oracle Solaris Software Group Plus OEM Support をインストールします。


      Oracle Solaris ソフトウェアの追加要件については、「Oracle Solaris ソフトウェアグループの考慮事項」を参照してください。

    2. 「手動配置」を選択して、ファイルシステムを設定します。
      • スライス 7 のサイズが少なくとも 20M バイトあることを指定します。
      • (省略可能) グローバルデバイスサブシステムで使用するために少なくとも 512M バイトのファイルシステムを作成します。

        注 - デフォルトである lofi デバイスを使用する予定の場合は、このファイルシステムは作成しないでください。クラスタを確立するときに、lofi デバイスを使用することを scinstall コマンドに対して指定します。


      • ほかにも必要なファイルシステムパーティションがある場合は、「システムディスクパーティション」の説明に従って作成します。
    3. 管理しやすくするために、各ノードに同じ root パスワードを設定します。
  3. スーパーユーザーではなく、役割に基づくアクセス制御 (RBAC) を使用してクラスタノードにアクセスする場合は、すべての Oracle Solaris Cluster コマンドに承認を提供する RBAC の役割を設定します。

    ユーザーがスーパーユーザーでない場合、この一連のインストール手順には、次の Oracle Solaris Cluster RBAC 認証が必要です。

    • solaris.cluster.modify

    • solaris.cluster.admin

    • solaris.cluster.read

    RBAC の役割の使用に関する詳細は、『Solaris のシステム管理: セキュリティーサービス』の「役割に基づくアクセス制御 (概要)」を参照してください。各 Oracle Solaris Cluster サブコマンドで必要となる RBAC の承認については、Oracle Solaris Cluster のマニュアルページを参照してください。

  4. 既存のクラスタにノードを追加する場合、新しいノードにクラスタファイルシステムのマウントポイントを追加します。
    1. アクティブなノードから、すべてのクラスタファイルシステムの名前を表示します。
      phys-schost-1# mount | grep global | egrep -v node@ | awk '{print $1}'
    2. 新しいノード上で、クラスタ内のクラスタファイルシステムごとにマウントポイントを作成します。
      phys-schost-new# mkdir -p mountpoint

      たとえば、mount コマンドで返されるファイルシステム名が /global/dg-schost-1 である場合、クラスタに追加される新しいノードで mkdir -p /global/dg-schost-1 を実行します。

  5. End User Oracle Solaris ソフトウェアグループをインストールしており、次のいずれかの Oracle Solaris Cluster 機能を使用する場合は、これらの機能をサポートするために追加の Oracle Solaris ソフトウェアパッケージをインストールします。
    機能
    必須の Oracle Solaris ソフトウェアパッケージ
    scsnapshot
    SUNWp15u SUNWp15v SUNWp15p
    Oracle Solaris Cluster Manager
    SUNWapchr SUNWapchu
    phys-schost# pkgadd -G -d . package

    これらのパッケージは、大域ゾーンだけに追加する必要があります。-G オプションを使用すると、現在のゾーンだけにパッケージを追加します。このオプションは、既存の非大域ゾーン、またはあとで作成する非大域ゾーンにパッケージを伝播しないことも指定します。

  6. 必要な Oracle Solaris OS のパッチと、ハードウェア関連のファームウェアおよびパッチをすべてインストールします。

    ストレージアレイをサポートするためにこれらのパッチを含めます。また、ハードウェアパッチに含まれている必要なファームウェアをダウンロードします。

    パッチの場所とインストール方法については、『Oracle Solaris Cluster 3.3 3/13 リリースノート』の「パッチと必須ファームウェアのレベル」を参照してください。

  7. x86: デフォルトのブートファイルを設定します。

    この値を設定すると、ログインプロンプトにアクセスできないときにノードをリブートできます。

    grub edit> kernel /platform/i86pc/multiboot kmdb
  8. クラスタで使用されているパブリック IP アドレスすべてを使用して各ノードで /etc/inet/hosts ファイルを更新します。

    この手順は、ネームサービスを使用しているかどうかに関わらず実行します。


    注 - 新しいクラスタまたはクラスタノードの確立中に、scinstall ユーティリティーは自動的に構成中の各ノードのパブリック IP アドレスを /etc/inet/hosts ファイルに追加します。


  9. (省略可能) IPMP グループでパブリックネットワークアダプタを構成します。

    scinstall ユーティリティーがクラスタの作成中に構成する多重アダプタ IPMP グループを使用しない場合は、スタンドアロンシステムでカスタム IPMP グループを構成します。詳細については、『Oracle Solaris の管理: IP サービス』の第 28 章「IPMP の管理 (タスク)」を参照してください。

    クラスタ作成中、scinstall ユーティリティーは、同じサブネットを使用するパブリックネットワークアダプタの各セットのうち、IPMP グループでまだ構成されていないものを、単一の多重アダプタIPMP グループに構成します。scinstall ユーティリティーは、既存の IPMP グループを無視します。

  10. Oracle Solaris I/O マルチパスを使用する場合は、各ノードでマルチパスを有効にします。

    注意

    注意 - Oracle Solaris Cluster ソフトウェアがすでにインストールされている場合は、このコマンドを発行しないでください。アクティブなクラスタノードで stmsboot コマンドを実行すると、Oracle Solaris サービスがメンテナンス状態になる場合があります。代わりに、stmsboot(1M) マニュアルページにある Oracle Solaris Cluster 環境でのstmsboot コマンドの使い方の手順に従ってください。


    phys-schost# /usr/sbin/stmsboot -e
    -e

    Oracle Solaris I/O マルチパスを有効にします。

    詳細については、stmsboot(1M) のマニュアルページを参照してください。

次の手順

サーバーが内部ハードディスクドライブのミラー化に対応していて、内部ディスクのミラー化を構成する場合は、「内部ディスクのミラー化を構成する方法」に進みます。

それ以外の場合、Oracle Solaris Cluster ソフトウェアパッケージをインストールします。「Oracle Solaris Cluster フレームワークおよびデータサービスソフトウェアパッケージをインストールする方法」に進みます。

参照

Oracle Solaris Cluster 構成で、動的再構成のタスクを実行するための手順については、『Oracle Solaris Cluster システム管理』を参照してください。

内部ディスクのミラー化を構成する方法

グローバルクラスタの各ノードで、次の手順に従って、内部ハードウェア RAID ディスクのミラー化を構成し、システムディスクをミラー化します。この手順はオプションです。


注 - 次のような状況ではこの手順を実行しないでください。


始める前に

Oracle Solaris オペレーティングシステムおよび必要なパッチがインストールされていることを確認します。

  1. スーパーユーザーになります。
  2. 内部ミラーを構成します。
    phys-schost# raidctl -c clt0d0 clt1d0 
    -c clt0d0 clt1d0

    ミラーディスクにプライマリディスクのミラーを作成します。最初の引数としてプライマリディスクの名前を入力します。2 番目の引数としてミラーディスクの名前を入力します。

    サーバーの内部ディスクのミラー化を構成する方法については、サーバーに付属のドキュメントおよびraidctl(1M)マニュアルページを参照してください。

次の手順

SPARC: Oracle VM Server for SPARC を作成するには、「SPARC: Oracle VM Server for SPARC ソフトウェアをインストールし、ドメインを作成する方法」に進みます。

それ以外の場合、Oracle Solaris Cluster ソフトウェアパッケージをインストールします。「Oracle Solaris Cluster フレームワークおよびデータサービスソフトウェアパッケージをインストールする方法」に進みます。

SPARC: Oracle VM Server for SPARC ソフトウェアをインストールし、ドメインを作成する方法

物理的にクラスタ化されたマシン上に Oracle VM Server for SPARC ソフトウェアをインストールして、I/O およびゲストドメインを作成するには、この手順を実行します。

始める前に

次のタスクを実行します。

  1. マシン上のスーパーユーザーになります。
  2. Oracle VM Server for SPARC ソフトウェアをインストールして、ドメインを構成します。
    • 『Logical Domains (LDoms) 1.0.3 Administration Guide 』の「ソフトウェアのインストールと有効化」の手順に従います。

      ゲストドメインを作成する場合は、Oracle Solaris Cluster の、クラスタ内にゲストドメインを作成するためのガイドラインに従ってください。

    • クラスタインターコネクトとして使用する仮想ネットワークデバイスに接続されるすべての仮想スイッチデバイスで、mode=sc オプションを使用します。
    • 共有ストレージの場合、ゲストドメインに全 SCSI ディスクをマップするだけです。

次の手順

サーバーが内部ハードディスクドライブのミラー化に対応していて、内部ディスクのミラー化を構成する場合は、「内部ディスクのミラー化を構成する方法」に進みます。

それ以外の場合、Oracle Solaris Cluster ソフトウェアパッケージをインストールします。「Oracle Solaris Cluster フレームワークおよびデータサービスソフトウェアパッケージをインストールする方法」に進みます。

Oracle Solaris Cluster フレームワークおよびデータサービスソフトウェアパッケージをインストールする方法

installer プログラムを使用して、次のインストールタスクの 1 つ以上を実行するには、この手順に従います。


注 - この手順では、対話型の installer プログラムを使用します。インストールスクリプトを開発するときなど、非対話型の installer プログラムを使用するには、『Sun Java Enterprise System 5 Update 1 Installation Guide for UNIX』の第 5 章「Installing in Silent Mode」を参照してください。


始める前に

次のタスクを実行します。

  1. RPC 通信およびオプションで Oracle Java Web Console への外部アクセスを復元します。

    Oracle Solaris OS のインストール中は、特定のネットワークサービスに対する外部アクセスを無効にする、制限されたネットワークプロファイルが使用されます。制限されたサービスには、クラスタ機能に影響する次のサービスが含まれます。

    • RPC 通信サービス (クラスタ通信に必要です)

    • Oracle Java Web Console サービス (Oracle Solaris Cluster Manager GUI を使用するために必要です)

    次の手順は、Oracle Solaris Cluster フレームワークで使用されるが、制限されたネットワークプロファイルの使用時には阻止される Oracle Solaris 機能を復元します。

    1. RPC 通信への外部アクセスを復元するには、次のコマンドを実行します。
      phys-schost# svccfg
      svc:> select network/rpc/bind
      svc:/network/rpc/bind> setprop config/local_only=false
      svc:/network/rpc/bind> quit
      phys-schost# svcadm refresh network/rpc/bind:default
      phys-schost# svcprop network/rpc/bind:default | grep local_only

      最後のコマンドの出力は、local_only プロパティーが現在 false に設定されていることを示しているはずです。

    2. (オプション) Oracle Java Web Console への外部アクセスを復元するには、次のコマンドを実行します。
      phys-schost# svccfg
      svc:> select system/webconsole
      svc:/system/webconsole> setprop options/tcp_listen=true
      svc:/system/webconsole> quit
      phys-schost# /usr/sbin/smcwebserver restart
      phys-schost# netstat -a | grep 6789

      最後のコマンドの出力には 6789 のエントリが返されているはずですが、これは Oracle Java Web Console への接続に使用されるポート番号を示します。

      制限されたネットワークプロファイルによってローカル接続に制限されているサービスの詳細については、『Oracle Solaris 10 1/13 インストールガイド: インストールとアップグレードの計画』の「ネットワークセキュリティーの計画」を参照してください。

  2. インストールするマシンでスーパーユーザーになります。

    installer プログラムで GUI を表示できるようにするには、次のコマンドを使用します。

    # ssh -X [-l root] nodename
  3. DVD-ROM ドライブに DVD-ROM を挿入します。

    ボリューム管理デーモン vold(1M) が実行中で、CD-ROM または DVD デバイスを管理するよう構成されている場合、このデーモンは自動的にメディアを /cdrom/cdrom0 ディレクトリにマウントします。

  4. DVD-ROM の インストールウィザード ディレクトリに変更します。
    • SPARC プラットフォームにソフトウェアパッケージをインストールする場合は、次のコマンドを入力します。

      phys-schost# cd /cdrom/cdrom0/Solaris_sparc
    • x86 プラットフォームにソフトウェアパッケージをインストールする場合は、次のコマンドを入力します。

      phys-schost# cd /cdrom/cdrom0/Solaris_x86
  5. インストールウィザード プログラムを起動します。
    phys-schost# ./installer

    installer プログラムのさまざまな形式および機能の使用に関する詳細については、『Sun Java Enterprise System 7 Installation and Upgrade Guide 』を参照してください。

  6. 画面に指示に従って、Oracle Solaris Cluster フレームワークおよびデータサービスをノードにインストールします。
    • Oracle Solaris Cluster Manager (以前の SunPlex Manager) をインストールしない場合は、これを選択解除します。


      注 - Oracle Solaris Cluster Manager は、クラスタのすべてのノードにインストールするか、どのノードにもインストールしないかのどちらかにする必要があります。


    • Oracle Solaris Cluster Geographic Edition ソフトウェアをインストールする場合は、これを選択してください。

      クラスタを確立したら、以降のインストール手順については、『Oracle Solaris Cluster Geographic Edition Installation Guide 』を参照してください。

    • Oracle Solaris Cluster フレームワークソフトウェアを構成するかどうかを尋ねるプロンプトが表示されたら、「あとで設定」を選択します。

    インストールが完了したあとは、使用可能なインストールログをすべて表示できます。

  7. DVD-ROM ドライブから DVD-ROM を取り出します。
    1. DVD-ROM が使用されていないことを確認し、DVD-ROM 上にないディレクトリに移動します。
    2. DVD-ROM を取り出します。
      phys-schost# eject cdrom
  8. Oracle Solaris Cluster ソフトウェアをサポートするために必要なパッチをすべて適用します。

    パッチの場所とインストール方法については、『Oracle Solaris Cluster 3.3 3/13 リリースノート』の「パッチと必須ファームウェアのレベル」を参照してください。

  9. クラスタインターコネクトに次のアダプタのいずれかを使用する場合、各ノード上で /etc/system ファイルの関連エントリのコメントを解除します。
    アダプタ
    エントリ
    ipge
    set ipge:ipge_taskq_disable=1
    ixge
    set ixge:ixge_taskq_disable=1

    このエントリは、次のシステムリブート後に有効になります。

次の手順

Sun QFS ファイルシステムソフトウェアをインストールする場合、初期インストールの手順に従ってください。「Sun QFS ソフトウェアをインストールする方法」を参照してください。

root ユーザー環境を設定する場合は、「ルート環境を設定する方法」に進みます。

Sun QFS ソフトウェアをインストールする方法

グローバルクラスタ内の各ノード上で次の手順を実行します。

  1. Oracle Solaris Cluster ソフトウェアがインストールされていることを確認します。

    「Oracle Solaris Cluster フレームワークおよびデータサービスソフトウェアパッケージをインストールする方法」を参照してください。

  2. クラスタノード上でスーパーユーザーになります。
  3. Sun QFS ファイルシステムソフトウェアをインストールします。

    Sun QFS のドキュメントにある初期インストールの手順に従います。

次の手順

root ユーザー環境を設定します。 「ルート環境を設定する方法」に進みます。

ルート環境を設定する方法


注 - Oracle Solaris Cluster 構成では、各種シェルのユーザー初期化ファイルは、それらが対話式のシェルから実行されていることを確認する必要があります。確認は、端末への出力を試みる前に行なってください。この方法に従わないと、予期しない動作やデータサービス妨害が発生する可能性があります。詳細については、『Oracle Solaris の管理: 基本管理』の「ユーザーの作業環境のカスタマイズ」を参照してください。


グローバルクラスタ内の各ノード上で次の手順を実行します。

  1. クラスタノード上でスーパーユーザーになります。
  2. .cshrc または .profile ファイルで PATH および MANPATH エントリを変更します。
    1. /usr/sbin/ および /usr/cluster/bin/PATH に追加します。
    2. /usr/cluster/man/MANPATH に追加します。

    追加のファイルパスの設定については、Oracle Solaris OS のドキュメント、ボリュームマネージャーのドキュメント、およびその他のアプリケーションのドキュメントを参照してください。

  3. (省略可能) 管理を行いやすくするため、各ノードに同じ root パスワードを設定します。

次の手順

Oracle Solaris の IP Filter 機能を使用する場合は、「IP Filter を構成する方法」に進みます。

使用しない場合は、クラスタノード上で Oracle Solaris Cluster ソフトウェアを構成します。「新規グローバルクラスタまたは新規グローバルクラスタノードの確立」に進みます。

IP Filter を構成する方法

この手順を実行して、グローバルクラスタで Oracle Solaris の IP Filter 機能を構成します。


注 - IP Filter はフェイルオーバーデータサービスでのみ使用します。スケーラブルデータサービスでの IP Filter の使用はサポートされていません。


IP Filter 機能の詳細については、『Oracle Solaris の管理: IP サービス』のパート IV「IP セキュリティー」を参照してください。

始める前に

クラスタで IP Filter を構成するときに従うガイドラインと制限事項を確認します。「Oracle Solaris OS の機能制限」の「IP Filter」の箇条書き項目を参照してください。

  1. スーパーユーザーになります。
  2. 影響を受けたすべてのノード上の /etc/ipf/ipf.conf ファイルにフィルタルールを追加します。

    フィルタルールを Oracle Solaris Cluster ノードに追加する場合、次のガイドラインと要件に従います。

    • 各ノードの ipf.conf ファイルで、クラスタインターコネクトトラフィックにフィルタなしでの通過を明示的に許可するルールを追加します。 インタフェース固有でないルールは、クラスタインターコネクトを含めたすべてのインタフェースに適用されます。これらのインタフェース上のトラフィックが誤ってブロックされていないことを確認します。インターコネクトトラフィックがブロックされている場合、IP Filter 構成はクラスタのハンドシェーク処理やインフラストラクチャー処理に干渉します。

      たとえば、現在、次のルールが使用されていると仮定します。

      # Default block TCP/UDP unless some later rule overrides
      block return-rst in proto tcp/udp from any to any
      
      # Default block ping unless some later rule overrides
      block return-rst in proto icmp all

      クラスタインターコネクトトラフィックのブロックを解除するには、次のルールを追加します。使用されているサブネットは、例示用にのみ使用しています。ifconfig interface コマンドを使用して、使用するサブネットを取得します。

      # Unblock cluster traffic on 172.16.0.128/25 subnet (physical interconnect)
      pass in quick proto tcp/udp from 172.16.0.128/25 to any
      pass out quick proto tcp/udp from 172.16.0.128/25 to any
      
      # Unblock cluster traffic on 172.16.1.0/25 subnet (physical interconnect)
      pass in quick proto tcp/udp from 172.16.1.0/25 to any
      pass out quick proto tcp/udp from 172.16.1.0/25 to any
      
      # Unblock cluster traffic on 172.16.4.0/23 (clprivnet0 subnet)
      pass in quick proto tcp/udp from 172.16.4.0/23 to any
      pass out quick proto tcp/udp from 172.16.4.0/23 to any
    • クラスタのプライベートネットワークのアダプタ名または IP アドレスのいずれかを指定します。 たとえば、次のルールは、アダプタ名によってクラスタのプライベートネットワークを指定します。

      # Allow all traffic on cluster private networks.
      pass in quick on e1000g1 all
      …
    • Oracle Solaris Cluster ソフトウェアは、ノード間でネットワークアドレスをフェイルオーバーします。フェイルオーバー時に特別な手順やコードは不要です。

    • 論理ホスト名と共有アドレスリソースを参照するすべてのフィルタリングルールは、すべてのクラスタノードで一意になるようにします。

    • スタンバイノードのルールは存在しない IP アドレスを参照します。このルールはまだ IP フィルタの有効なルールセットの一部であり、フェイルオーバー後にノードがアドレスを受け取ると有効になります。

    • すべてのフィルタリングルールが同じ IPMP グループ内のすべての NIC で同じになるようにします。 つまり、ルールがインタフェース固有である場合、IPMP グループ内のほかのすべてのインタフェースにも同じルールが存在するようにします。

    IP Filter のルールについての詳細は、ipf(4) のマニュアルページを参照してください。

  3. ipfilter SMF サービスを有効にします。
    phys-schost# svcadm enable /network/ipfilter:default

次の手順

クラスタノード上で Oracle Solaris Cluster ソフトウェアを構成します。「新規グローバルクラスタまたは新規グローバルクラスタノードの確立」に進みます。