JavaScript is required to for searching.
ナビゲーションリンクをスキップ
印刷ビューの終了
Oracle Solaris Cluster ソフトウェアのインストール     Oracle Solaris Cluster 4.1 (日本語)
search filter icon
search icon

ドキュメントの情報

はじめに

1.  Oracle Solaris Cluster 構成の計画

2.  グローバルクラスタノードへのソフトウェアのインストール

ソフトウェアのインストールの概要

ソフトウェアのインストール

クラスタソフトウェアのインストールの準備をする方法

Oracle Solaris ソフトウェアをインストールする方法

pconsole ソフトウェアを管理コンソールにインストールする方法

Oracle Solaris Cluster Quorum Server ソフトウェアをインストールおよび構成する方法

内部ディスクのミラー化を構成する方法

SPARC: Oracle VM Server for SPARC ソフトウェアをインストールし、ドメインを作成する方法

Oracle Solaris Cluster フレームワークおよびデータサービスソフトウェアパッケージをインストールする方法

Oracle Solaris 11 の Availability Suite 機能をインストールする方法

root 環境を設定する方法

IP Filter を構成する方法

3.  グローバルクラスタの確立

4.  Solaris ボリュームマネージャー ソフトウェアの構成

5.  クラスタファイルシステムの作成

6.  ゾーンクラスタの作成

7.  クラスタからのソフトウェアのアンインストール

索引

ソフトウェアのインストール

このセクションでは、クラスタノードにソフトウェアをインストールするための情報と手順を紹介します。

クラスタソフトウェアのインストールの準備をする方法

  1. クラスタ構成に選択したハードウェアとソフトウェアが現在の Oracle Solaris Cluster 構成でサポートされていることを確認します。
  2. クラスタ構成の計画およびインストール方法を検討する上で参考となる情報を参照します。
  3. 関連文書 (サードパーティー製品の文書も含む) をすべて用意します。

    クラスタのインストールを行う場合に参考となるドキュメントを持つ製品の一部を以下に示します。

    • Oracle Solaris OS

    • Solaris ボリュームマネージャー ソフトウェア

    • 他社製のアプリケーション

  4. クラスタ構成の計画を立てます。

    第 1 章Oracle Solaris Cluster 構成の計画 and in the 『Oracle Solaris Cluster Data Services Planning and Administration Guide 』に記載された計画のガイドラインを使用して、クラスタをインストールして構成する方法を決定します。


    注意

    Caution - クラスタのインストールを綿密に計画します。Oracle Solaris および Oracle Solaris Cluster ソフトウェアのインストールを開始する前に、データサービスおよび他社製の製品すべてについて必要条件を認識してください。そうしないと、インストールエラーが発生し、Oracle Solaris や Oracle Solaris Cluster ソフトウェアを完全にインストールし直す必要が生じる可能性があります。


  5. クラスタ構成に必要なアップデートをすべて入手します。

    インストールの手順については、『Oracle Solaris Cluster システム管理』の第 11 章「ソフトウェアの更新」を参照してください。

次の手順

Oracle Solaris ソフトウェアをインストールする方法

この手順は、ユーザーのクラスタ構成に該当する次のシステムに Oracle Solaris OS をインストールする場合に使用します。

始める前に

次のタスクを実行します。

  1. 各ノードのコンソールに接続します。
  2. Oracle Solaris OS をインストールします。

    『Oracle Solaris 11.1 システムのインストール』のインストール手順に従います。


    注 - クラスタ内のすべてのノードに、同じバージョンの Oracle Solaris OS をインストールする必要があります。


    Oracle Solaris ソフトウェアのインストールに通常使用される方法を使用できます。Oracle Solaris ソフトウェアのインストール時に、次の手順を実行します。

    1. (クラスタノード) 「手動配置」を選択して、ファイルシステムを設定します。
      • 少なくとも 20M バイトのサイズを持つスライスを指定します。
      • ほかにも必要なファイルシステムパーティションがある場合は、「システムディスクパーティション」の説明に従って作成します。
    2. (クラスタノード) 管理が容易になるように、各ノードに同じ root パスワードを設定します。
  3. solaris 発行元が有効であることを確認します。
    # pkg publisher
    PUBLISHER                           TYPE     STATUS   URI
    solaris                             origin   online   solaris-repository

    solaris 発行元の設定方法については、『Oracle Solaris 11.1 ソフトウェアパッケージの追加および更新』を参照してください。

  4. (クラスタノード) root 役割ではなく、役割に基づくアクセス制御 (RBAC) を使用してクラスタノードにアクセスする場合は、すべての Oracle Solaris Cluster コマンドに承認を提供する RBAC の役割を設定します。

    ユーザーが root 役割でない場合、この一連のインストール手順には、次の Oracle Solaris Cluster RBAC 認証が必要です。

    • solaris.cluster.modify

    • solaris.cluster.admin

    • solaris.cluster.read

    RBAC の役割の使用について詳しくは、『Oracle Solaris 11.1 の管理: セキュリティーサービス』の「役割に基づくアクセス制御 (概要)」を参照してください。各 Oracle Solaris Cluster サブコマンドで必要となる RBAC の承認については、Oracle Solaris Cluster のマニュアルページを参照してください。

  5. (クラスタノード) 既存のクラスタにノードを追加する場合は、新しいノードにクラスタファイルシステム用のマウントポイントを追加します。
    1. アクティブなノードから、すべてのクラスタファイルシステムの名前を表示します。
      phys-schost-1# mount | grep global | egrep -v node@ | awk '{print $1}'
    2. 新しいノード上で、クラスタ内のクラスタファイルシステムごとにマウントポイントを作成します。
      phys-schost-new# mkdir -p mountpoint

      たとえば、mount コマンドで返されるファイルシステム名が /global/dg-schost-1 の場合は、クラスタに追加する新しいノードで mkdir -p /global/dg-schost-1 を実行します。

  6. 必要な Oracle Solaris OS ソフトウェアのアップデート、およびハードウェア関連のファームウェアとアップデートをすべてインストールします。

    ストレージアレイサポート用のアップデートを含めます。また、ハードウェアアップデートに含まれている必要なファームウェアをダウンロードします。

    インストールの手順については、『Oracle Solaris Cluster システム管理』の第 11 章「ソフトウェアの更新」を参照してください。

  7. x86: (クラスタノード) デフォルトのブートファイルを設定します。

    この値を設定すると、ログインプロンプトにアクセスできないときにノードをリブートできます。

    grub edit> kernel /platform/i86pc/kernel/amd64/unix -B $ZFS-BOOTFS -k

    詳細は、『x86 プラットフォーム上の Oracle Solaris のブートおよびシャットダウン』の「カーネルデバッガ (kmdb) を有効にした状態でシステムをブートする方法」を参照してください。

  8. (クラスタノード) クラスタで使用されているパブリック IP アドレスすべてを使用して各ノードで /etc/inet/hosts ファイルを更新します。

    この手順は、ネームサービスを使用しているかどうかに関わらず実行します。


    注 - 新しいクラスタまたはクラスタノードの確立中に、scinstall ユーティリティーは自動的に構成中の各ノードのパブリック IP アドレスを /etc/inet/hosts ファイルに追加します。


  9. (省略可能) (クラスタノード) IPMP グループでパブリックネットワークアダプタを構成します。

    scinstall ユーティリティーがクラスタの作成中に構成する多重アダプタ IPMP グループを使用しない場合は、スタンドアロンシステムでカスタム IPMP グループを構成します。詳細については、『Oracle Solaris 11.1 ネットワークパフォーマンスの管理』の第 6 章「IPMP の管理 (タスク)」を参照してください。

    クラスタ作成中、scinstall ユーティリティーは、同じサブネットを使用するパブリックネットワークアダプタの各セットのうち、IPMP グループでまだ構成されていないものを、単一の多重アダプタIPMP グループに構成します。scinstall ユーティリティーは、既存の IPMP グループを無視します。

  10. (省略可能) (クラスタノード) Oracle Solaris Cluster ソフトウェアがまだインストールされていない場合、Oracle Solaris I/O マルチパスを使用するには、各ノード上でマルチパスを有効にします。

    注意

    注意 - Oracle Solaris Cluster ソフトウェアがすでにインストールされている場合は、このコマンドを発行しないでください。アクティブなクラスタノードで stmsboot コマンドを実行すると、Oracle Solaris サービスがメンテナンス状態になる場合があります。代わりに、stmsboot(1M) マニュアルページにある Oracle Solaris Cluster 環境でのstmsboot コマンドの使い方の手順に従ってください。


    phys-schost# /usr/sbin/stmsboot -e
    -e

    Oracle Solaris I/O マルチパスを有効にします。

    詳細については、『Oracle Solaris 11.1 の管理: SAN 構成およびマルチパス化』の「マルチパス化を有効にする方法」および stmsboot(1M) のマニュアルページを参照してください。

次の手順

pconsole ユーティリティーを使用する場合は、pconsole ソフトウェアを管理コンソールにインストールする方法」に進みます。

定足数サーバーを使用する場合は、「Oracle Solaris Cluster Quorum Server ソフトウェアをインストールおよび構成する方法」に進みます。

クラスタノードが内部ハードディスクドライブのミラー化に対応していて、内部ディスクのミラー化を構成する場合は、「内部ディスクのミラー化を構成する方法」に進みます。

SPARC: Oracle VM Server for SPARC をインストールする場合は、「SPARC: Oracle VM Server for SPARC ソフトウェアをインストールし、ドメインを作成する方法」に進みます。

それ以外の場合は、クラスタノードに Oracle Solaris Cluster ソフトウェアをインストールします。

参照

Oracle Solaris Cluster 構成で、動的再構成のタスクを実行するための手順については、『Oracle Solaris Cluster システム管理』を参照してください。

pconsole ソフトウェアを管理コンソールにインストールする方法


注 - 管理コンソールの使用は必須ではありません。管理コンソールを使用しない場合は、クラスタ内の特定のノードから管理タスクを行います。

このソフトウェアを使用して Oracle VM Server for SPARC のゲストドメインに接続することはできません。


この手順では、パラレルコンソールアクセス (pconsole) ソフトウェアを管理コンソールにインストールする方法について説明します。pconsole ユーティリティーは、Oracle Solaris 11 の terminal/pconsole パッケージの一部です。

pconsole ユーティリティーは、コマンド行で指定した各リモートホストに対して 1 つのホスト端末ウィンドウを作成します。このユーティリティーはさらに、入力をすべてのノードに一度に送信するために使用可能な、中央の、あるいはマスターの、コンソールウィンドウも開きます。詳細は、terminal/pconsole パッケージと一緒にインストールされる、pconsole(1) のマニュアルページを参照してください。

Oracle Solaris Cluster 4.1 ソフトウェアがサポートする特定のバージョンの Oracle Solaris OS が動作する任意のデスクトップマシンを管理コンソールとして使用できます。

始める前に

サポートされているバージョンの Oracle Solaris OS と Oracle Solaris ソフトウェアアップデートが管理コンソールにインストールされていることを確認してください。

  1. 管理コンソールで root 役割になります。
  2. solaris および ha-cluster 発行元が有効であることを確認します。
    # pkg publisher
    PUBLISHER                           TYPE     STATUS   URI
    solaris                             origin   online   solaris-repository
    ha-cluster                          origin   online   ha-cluster-repository

    solaris 発行元の設定については、『Oracle Solaris 11.1 パッケージリポジトリのコピーおよび作成』の「ファイルリポジトリ URI への発行元の起点の設定」を参照してください。

  3. terminal/pconsole パッケージをインストールします。
    adminconsole# pkg install terminal/pconsole
  4. (省略可能) Oracle Solaris Cluster マニュアルページのパッケージをインストールします。
    adminconsole# pkg install pkgname

    パッケージ名
    説明
    ha-cluster/system/manual
    Oracle Solaris Cluster フレームワークのマニュアルページ
    ha-cluster/system/manual/data-services
    Oracle Solaris Cluster データサービスのマニュアルページ
    ha-cluster/service/quorum-server/manual
    Oracle Solaris Cluster Quorum Server のマニュアルページ
    ha-cluster/geo/manual
    Oracle Solaris Cluster Geographic Edition のマニュアルページ

    Oracle Solaris Cluster マニュアルページパッケージを管理コンソールにインストールする場合、Oracle Solaris Cluster ソフトウェアをクラスタノードまたは定足数サーバーにインストールする前に、それらを管理コンソールから表示できます。

  5. (省略可能) 便宜上、管理コンソール上でディレクトリのパスを設定します。
    1. ha-cluster/system/manual/data-services パッケージをインストールした場合は、/opt/SUNWcluster/bin/ ディレクトリが PATH に含まれていることを確認します。
    2. その他の任意のマニュアルページのパッケージをインストールした場合は、/usr/cluster/bin/ ディレクトリが PATH に含まれていることを確認します。
  6. pconsole ユーティリティーを起動します。

    接続先となる各ノードをコマンドに指定します。

    adminconsole# pconsole host[:port] […] &

    『Oracle Solaris Cluster システム管理』の「リモートからクラスタにログインする」Oracle Solaris Cluster System Administration Guide 『Oracle Solaris Cluster システム管理』の「クラスタコンソールに安全に接続する方法」Oracle Solaris Cluster System Administration Guide の手順を参照してください。また、Oracle Solaris 11 の terminal/pconsole パッケージの一部としてインストールされる、pconsole(1) のマニュアルページも参照してください。

次の手順

定足数サーバーを使用する場合は、「Oracle Solaris Cluster Quorum Server ソフトウェアをインストールおよび構成する方法」に進みます。

クラスタノードが内部ハードディスクドライブのミラー化に対応していて、内部ディスクのミラー化を構成する場合は、「内部ディスクのミラー化を構成する方法」に進みます。

SPARC: Oracle VM Server for SPARC をインストールする場合は、「SPARC: Oracle VM Server for SPARC ソフトウェアをインストールし、ドメインを作成する方法」に進みます。

それ以外の場合は、クラスタノードに Oracle Solaris Cluster ソフトウェアをインストールします。

Oracle Solaris Cluster Quorum Server ソフトウェアをインストールおよび構成する方法

この手順を実行して、ホストサーバーを定足数サーバーとして構成します。

始める前に

次のタスクを実行します。

  1. Oracle Solaris Cluster Quorum Server ソフトウェアをインストールするマシンで root 役割になります。
  2. solaris および ha-cluster 発行元が有効であることを確認します。
    # pkg publisher
    PUBLISHER                           TYPE     STATUS   URI
    solaris                             origin   online   solaris-repository
    ha-cluster                          origin   online   ha-cluster-repository

    solaris 発行元の設定については、『Oracle Solaris 11.1 パッケージリポジトリのコピーおよび作成』の「ファイルリポジトリ URI への発行元の起点の設定」を参照してください。

  3. Quorum Server グループパッケージをインストールします。
    quorumserver# pkg install ha-cluster-quorum-server-full
  4. (省略可能) Oracle Solaris Cluster Quorum Server のバイナリの場所を PATH 環境変数に追加します。
    quorumserver# PATH=$PATH:/usr/cluster/bin
  5. 定足数サーバーを構成するために、定足数サーバーに関する構成情報を指定する次のエントリを、/etc/scqsd/scqsd.conf ファイルに追加します。

    ポート番号と必要に応じてインスタンス名を指定することで、定足数サーバーを特定します。

    • インスタンス名を指定する場合、その名前は定足数サーバー間で一意にします。

    • インスタンス名を指定しない場合、常に、定足数サーバーが待機するポートによりこの定足数サーバーを参照します。

    エントリの形式は次のとおりです。

    /usr/cluster/lib/sc/scqsd [-d quorum-directory] [-i instance-name] -p port
    -d quorum-directory

    定足数サーバーが定足数データを格納できるディレクトリへのパスです。

    クラスタ固有の定足数情報を格納するために、定足数サーバープロセスはこのディレクトリに 1 クラスタにつき 1 つのファイルを作成します。

    デフォルトでは、このオプションの値は /var/scqsd です。このディレクトリは、ユーザーが構成する各定足数サーバーに対して一意にします。

    -i instance-name

    定足数サーバーインスタンスに対してユーザーが選択する一意の名前です。

    -p port

    定足数サーバーがクラスタからの要求を待機するポート番号です。

  6. (省略可能) 複数のクラスタにサービスを提供し、別のポート番号またはインスタンスを使用する場合は、必要な定足数サーバーの追加のインスタンスごとに追加エントリを構成します。
  7. /etc/scqsd/scqsd.conf ファイルを保存して終了します。
  8. 新しく構成した定足数サーバーを起動します。
    quorumserver# /usr/cluster/bin/clquorumserver start quorum-server
    quorum-server

    定足数サーバーを識別します。定足数サーバーが待機するポート番号を使用できます。構成ファイルでインスタンス名を指定した場合は、代わりにその名前を使用できます。

    • 1 台の定足数サーバーを起動するには、インスタンス名とポート番号のいずれかを指定します。

    • 複数の定足数サーバーを構成している場合、すべての定足数サーバーを起動するには、 + オペランドを使用します。

注意事項

Oracle Solaris Cluster Quorum Server ソフトウェアは、次のパッケージで構成されます。

これらのパッケージは ha-cluster/group-package/ha-cluster-quorum-server-full および ha-cluster/group-package/ha-cluster-quorum-server-l10n グループパッケージに格納されています。

これらのパッケージをインストールすると、/usr/cluster ディレクトリと /etc/scqsd ディレクトリにソフトウェアが追加されます。Oracle Solaris Cluster Quorum Server ソフトウェアの場所を変更することはできません。

Oracle Solaris Cluster Quorum Server ソフトウェアに関するインストールエラーメッセージが表示される場合は、パッケージが正しくインストールされているかどうかを確認します。

次の手順

クラスタノードが内部ハードディスクドライブのミラー化に対応していて、内部ディスクのミラー化を構成する場合は、「内部ディスクのミラー化を構成する方法」に進みます。

SPARC: Oracle VM Server for SPARC をインストールする場合は、「SPARC: Oracle VM Server for SPARC ソフトウェアをインストールし、ドメインを作成する方法」に進みます。

それ以外の場合は、クラスタノードに Oracle Solaris Cluster ソフトウェアをインストールします。

内部ディスクのミラー化を構成する方法

グローバルクラスタの各ノードで、次の手順に従って、内部ハードウェア RAID ディスクのミラー化を構成し、システムディスクをミラー化します。この手順はオプションです。


注 - 次のような状況ではこの手順を実行しないでください。

代わりに、『Oracle Solaris Cluster 4.1 Hardware Administration Manual』の「Mirroring Internal Disks on Servers that Use Internal Hardware Disk Mirroring or Integrated Mirroring」を実行してください。


始める前に

Oracle Solaris オペレーティングシステムおよび必要なアップデートがインストールされていることを確認します。

  1. root 役割になります。
  2. 内部ミラーを構成します。
    phys-schost# raidctl -c clt0d0 clt1d0 
    -c clt0d0 clt1d0

    ミラーディスクにプライマリディスクのミラーを作成します。プライマリディスクの名前を第 1 引数として、ミラーディスクの名前を第 2 引数として、それぞれ指定します。

    サーバーの内部ディスクのミラー化を構成する方法については、サーバーに付属のドキュメントおよびraidctl(1M)マニュアルページを参照してください。

次の手順

SPARC: Oracle VM Server for SPARC をインストールする場合は、「SPARC: Oracle VM Server for SPARC ソフトウェアをインストールし、ドメインを作成する方法」に進みます。

それ以外の場合は、クラスタノードに Oracle Solaris Cluster ソフトウェアをインストールします。

SPARC: Oracle VM Server for SPARC ソフトウェアをインストールし、ドメインを作成する方法

次の手順に従って、物理的にクラスタ化されたマシン上に Oracle VM Server for SPARC ソフトウェアをインストールして、I/O およびゲストドメインを作成します。

始める前に

次のタスクを実行します。

  1. マシンで root 役割になります。
  2. 『Oracle VM Server for SPARC 2.1 管理ガイド』の第 2 章「ソフトウェアのインストールおよび有効化」の手順に従って Oracle VM Server for SPARC ソフトウェアをインストールし、ドメインを構成します。

    次の注意事項を守ってください。

    • ゲストドメインを作成する場合は、Oracle Solaris Cluster の、クラスタ内にゲストドメインを作成するためのガイドラインに従ってください。

    • クラスタインターコネクトとして使用する仮想ネットワークデバイスに接続されるすべての仮想スイッチデバイスで、mode=sc オプションを使用します。

    • 共有ストレージの場合、ゲストドメインに全 SCSI ディスクをマップするだけです。

次の手順

サーバーが内部ハードディスクドライブのミラー化に対応していて、内部ディスクのミラー化を構成する場合は、「内部ディスクのミラー化を構成する方法」に進みます。

それ以外の場合、Oracle Solaris Cluster ソフトウェアパッケージをインストールします。「Oracle Solaris Cluster フレームワークおよびデータサービスソフトウェアパッケージをインストールする方法」に進みます。

Oracle Solaris Cluster フレームワークおよびデータサービスソフトウェアパッケージをインストールする方法

次のインストールタスクの 1 つ以上を実行する場合に、この手順に従います。


注 - 完全な再インストールまたはアンインストールを行わないかぎり、ha-cluster-minimal グループパッケージの一部となっている個々のパッケージを追加または削除することはできません。クラスタのフレームワークパッケージを削除する手順については、「インストールの問題を修正する方法ために Oracle Solaris Cluster ソフトウェアを構成解除する方法」『Oracle Solaris Cluster システム管理』の「クラスタノードから Oracle Solaris Cluster ソフトウェアをアンインストールする」を参照してください。

ただし、その他のオプションのパッケージの追加や削除は、ha-cluster-minimal グループパッケージを削除しなくても行えます。


始める前に

次のタスクを実行します。

  1. クラスタ管理コンソールを使用している場合、クラスタ内にある各ノードのコンソール画面を表示します。
    • 管理コンソール上で pconsole ソフトウェアがインストールおよび構成されている場合は、pconsole ユーティリティーを使用して個々のコンソール画面を表示します。

      root 役割として、次のコマンドを使用して、pconsole ユーティリティーを起動します。

      adminconsole# pconsole host[:port] […]  &

      また、pconsole ユーティリティーを使用してマスターウィンドウを開くことができます。ここでの入力を、個々のすべてのコンソールウィンドウに同時に送信できます。

    • pconsole ユーティリティーを使用しない場合は、各ノードのコンソールに個別に接続します。
  2. リモート手続き呼び出し (RPC) 通信への外部アクセスを復元します。

    Oracle Solaris OS のインストール中は、特定のネットワークサービスに対する外部アクセスを無効にする、制限されたネットワークプロファイルが使用されます。制限されるサービスには RPC 通信サービスも含まれますが、このサービスはクラスタの通信に必要です。

    RPC 通信への外部アクセスを復元するには、次のコマンドを実行します。

    # svccfg
    svc:> select network/rpc/bind
    svc:/network/rpc/bind> setprop config/local_only=false
    svc:/network/rpc/bind> quit
    # svcadm refresh network/rpc/bind:default
    # svcprop network/rpc/bind:default | grep local_only

    最後のコマンドの出力は、local_only プロパティーが現在 false に設定されていることを示しているはずです。

  3. インストールするクラスタノードで root 役割になります。

    あるいは、ユーザーアカウントに System Administrator プロファイルが割り当てられている場合、プロファイルシェル経由で非 root としてコマンドを発行するか、コマンドの先頭に pfexec コマンドを付加します。

  4. Network Auto-Magic (NWAM) を無効にします。

    NWAM は単一のネットワークインタフェースをアクティブにし、その他をすべて無効にします。このため、NWAM は Oracle Solaris Cluster ソフトウェアと共存できず、クラスタを構成または実行する前に NWAM を無効にする必要があります。NWAM を無効にするには、defaultfixed プロファイルを有効にします。

    # netadm enable -p ncp defaultfixed
    # netadm list -p ncp defaultfixed
  5. Oracle Solaris Cluster ソフトウェアパッケージのリポジトリを設定します。
    • クラスタノードでインターネットへの直接アクセスまたは Web プロキシアクセスが可能な場合は、次の手順を実行します。
      1. http://pkg-register.oracle.com にアクセスします。
      2. Oracle Solaris Cluster software を選択します。
      3. ライセンスを受け入れます。
      4. Oracle Solaris Cluster software を選択して要求を送信することで、新しい証明書を要求します。

        鍵と証明書に対するダウンロードボタンを含む認証ページが表示されます。

      5. 鍵と証明書のファイルをダウンロードし、返された認証ページの説明に従ってそれらをインストールします。
      6. ダウンロードされた SSL 鍵を使用して ha-cluster 発行元を構成し、Oracle Solaris Cluster 4.1 リポジトリの場所を設定します。

        次の例ではリポジトリ名が https://pkg.oracle.com/repository-location/ になっています。

        # pkg set-publisher \
        -k /var/pkg/ssl/Oracle_Solaris_Cluster_4.0.key.pem \
        -c /var/pkg/ssl/Oracle_Solaris_Cluster_4.0.certificate.pem \
        -O https://pkg.oracle.com/repository-location/ ha-cluster
        -k /var/pkg/ssl/Oracle_Solaris_Cluster_4.0.key.pem
        ダウンロードされた SSL 鍵ファイルへのフルパスを指定します。
        -c /var/pkg/ssl/Oracle_Solaris_Cluster_4.0.certificate.pem

        ダウンロードされた SSL 証明書ファイルへのフルパスを指定します。

        -O https://pkg.oracle.com/repository-location/

        Oracle Solaris Cluster 4.1 パッケージリポジトリへの URL を指定します。

        詳細は、pkg(1) のマニュアルページを参照してください。

    • このソフトウェアの ISO イメージを使用する場合は、次の手順を実行します。
      1. Oracle Software Delivery Cloud (http://edelivery.oracle.com/) から Oracle Solaris Cluster 4.1 の ISO イメージをダウンロードします。

        注 - Oracle Software Delivery Cloud にアクセスするには、有効な Oracle ライセンスが必要です。


        Oracle Solaris Cluster ソフトウェアは Oracle Solaris Product Pack の一部です。オンライン手順に従ってメディアパックの選択を完了し、ソフトウェアをダウンロードします。

      2. Oracle Solaris Cluster 4.1 の ISO イメージを使用可能にします。
        # lofiadm -a path-to-iso-image 
        /dev/lofi/N
        # mount -F hsfs /dev/lofi/N /mnt
        -a path-to-iso-image

        ISO イメージのフルパスとファイル名を指定します。

      3. Oracle Solaris Cluster 4.1 パッケージリポジトリの場所を設定します。
        # pkg set-publisher -g file:///mnt/repo ha-cluster
  6. solaris および ha-cluster 発行元が有効であることを確認します。
    # pkg publisher
    PUBLISHER                           TYPE     STATUS   URI
    solaris                             origin   online   solaris-repository
    ha-cluster                          origin   online   ha-cluster-repository

    solaris 発行元の設定については、『Oracle Solaris 11.1 パッケージリポジトリのコピーおよび作成』の「ファイルリポジトリ URI への発行元の起点の設定」を参照してください。

  7. Oracle Solaris Cluster 4.1 ソフトウェアをインストールします。
    # /usr/bin/pkg install package
  8. パッケージが正常にインストールされたことを確認します。
    $ pkg info -r package

    状態が Installed であれば、パッケージのインストールは成功しています。

  9. Oracle Solaris Cluster ソフトウェアに対する必要なアップデートをすべて実行します。

    インストールの手順については、『Oracle Solaris Cluster システム管理』の第 11 章「ソフトウェアの更新」を参照してください。

次の手順

Oracle Solaris ソフトウェアの Availability Suite の機能を使用する場合は、Availability Suite ソフトウェアをインストールします。「Oracle Solaris 11 の Availability Suite 機能をインストールする方法」に移動します。

root ユーザー環境を設定する場合は、「root 環境を設定する方法」に進みます。

Oracle Solaris 11 の Availability Suite 機能をインストールする方法

始める前に

少なくとも Oracle Solaris 11 SRU 1 がインストールされていることを確認します。

  1. root 役割になります。
  2. solaris 発行元が有効であることを確認します。
    # pkg publisher
    PUBLISHER                           TYPE     STATUS   URI
    solaris                             origin   online   solaris-repository

    solaris 発行元の設定については、『Oracle Solaris 11.1 パッケージリポジトリのコピーおよび作成』の「ファイルリポジトリ URI への発行元の起点の設定」を参照してください。

  3. Oracle Solaris 11 ソフトウェアの Availability Suite 機能の IPSパッケージをインストールします。
    # /usr/bin/pkg install storage/avs
  4. Availability Suite 機能を構成します。

    詳細については、『Sun StorageTek Availability Suite 4.0 Software Installation and Configuration Guide』の「Initial Configuration Settings」を参照してください。

次の手順

root ユーザー環境を設定する場合は、「root 環境を設定する方法」に進みます。

root 環境を設定する方法


注 - Oracle Solaris Cluster 構成では、各種シェルのユーザー初期化ファイルは、それらが対話式のシェルから実行されていることを確認する必要があります。確認は、端末への出力を試みる前に行なってください。この方法に従わないと、予期しない動作やデータサービス妨害が発生する可能性があります。詳細については、『Oracle Solaris 11.1 のユーザーアカウントとユーザー環境の管理』の「ユーザーの作業環境のカスタマイズ」を参照してください。


グローバルクラスタ内の各ノード上で次の手順を実行します。

  1. クラスタノードで、root 役割になります。
  2. /usr/cluster/bin//usr/sbin/PATH に追加します。

    注 - /usr/cluster/bin を常に、PATH 内の先頭のエントリにしてください。この配置により、Oracle Solaris Cluster のコマンドが同名のほかのどのバイナリよりも必ず優先されるようになるため、予期しない動作を回避できます。


    追加のファイルパスの設定については、Oracle Solaris OS のドキュメント、ボリュームマネージャーのドキュメント、およびその他のアプリケーションのドキュメントを参照してください。

  3. (省略可能) 管理を行いやすくするため、各ノードに同じ root パスワードを設定します。

次の手順

Oracle Solaris の IP Filter 機能を使用する場合は、「IP Filter を構成する方法」に進みます。

使用しない場合は、クラスタノード上で Oracle Solaris Cluster ソフトウェアを構成します。「新規グローバルクラスタまたは新規グローバルクラスタノードの確立」に進みます。

IP Filter を構成する方法

この手順を実行して、グローバルクラスタで Oracle Solaris ソフトウェアの IP Filter 機能を構成します。


注 - IP Filter はフェイルオーバーデータサービスでのみを使用してください。スケーラブルデータサービスでの IP Filter の使用はサポートされていません。


IP Filter 機能の詳細については、『Oracle Solaris 11.1 でのネットワークのセキュリティー保護』の第 4 章「Oracle Solaris の IP フィルタ (概要)」を参照してください。

始める前に

クラスタで IP Filter を構成するときに従うガイドラインと制限事項を確認します。「Oracle Solaris OS の機能制限」の「IP Filter」の箇条書き項目を参照してください。

  1. root 役割になります。
  2. 影響を受けたすべてのノード上の /etc/ipf/ipf.conf ファイルにフィルタルールを追加します。

    フィルタルールを Oracle Solaris Cluster ノードに追加する場合、次のガイドラインと要件に従います。

    • 各ノードの ipf.conf ファイルで、クラスタ相互接続トラフィックにフィルタなしでの通過を明示的に許可するルールを追加します。 インタフェース固有でないルールは、クラスタ相互接続を含めたすべてのインタフェースに適用されます。これらのインタフェース上のトラフィックが誤ってブロックされていないことを確認します。相互接続トラフィックがブロックされている場合、IP Filter 構成はクラスタのハンドシェーク処理やインフラストラクチャー処理に干渉します。

      たとえば、現在、次のルールが使用されていると仮定します。

      # Default block TCP/UDP unless some later rule overrides
      block return-rst in proto tcp/udp from any to any
      
      # Default block ping unless some later rule overrides
      block return-rst in proto icmp all

      クラスタ相互接続トラフィックのブロックを解除するには、次のルールを追加します。使用されているサブネットは、例示用にのみ使用しています。ifconfig show-addr | grep interface コマンドを使用して、使用するサブネットを取得します。

      # Unblock cluster traffic on 172.16.0.128/25 subnet (physical interconnect)
      pass in quick proto tcp/udp from 172.16.0.128/25 to any
      pass out quick proto tcp/udp from 172.16.0.128/25 to any
      
      # Unblock cluster traffic on 172.16.1.0/25 subnet (physical interconnect)
      pass in quick proto tcp/udp from 172.16.1.0/25 to any
      pass out quick proto tcp/udp from 172.16.1.0/25 to any
      
      # Unblock cluster traffic on 172.16.4.0/23 (clprivnet0 subnet)
      pass in quick proto tcp/udp from 172.16.4.0/23 to any
      pass out quick proto tcp/udp from 172.16.4.0/23 to any
    • クラスタのプライベートネットワークのアダプタ名または IP アドレスのいずれかを指定します。 たとえば、次のルールは、アダプタ名によってクラスタのプライベートネットワークを指定します。

      # Allow all traffic on cluster private networks.
      pass in quick on net1 all
      …
    • Oracle Solaris Cluster ソフトウェアは、ノード間でネットワークアドレスをフェイルオーバーします。フェイルオーバー時に特別な手順やコードは不要です。

    • 論理ホスト名と共有アドレスリソースを参照するすべてのフィルタリングルールは、すべてのクラスタノードで一意になるようにします。

    • スタンバイノードのルールは存在しない IP アドレスを参照します。このルールはまだ IP フィルタの有効なルールセットの一部であり、フェイルオーバー後にノードがアドレスを受け取ると有効になります。

    • すべてのフィルタリングルールが同じ IPMP グループ内のすべての NIC で同じになるようにします。 つまり、ルールがインタフェース固有である場合、IPMP グループ内のほかのすべてのインタフェースにも同じルールが存在するようにします。

    IP Filter のルールについての詳細は、ipf(4) のマニュアルページを参照してください。

  3. ipfilter SMF サービスを有効にします。
    phys-schost# svcadm enable /network/ipfilter:default

次の手順

クラスタノード上で Oracle Solaris Cluster ソフトウェアを構成します。「新規グローバルクラスタまたは新規グローバルクラスタノードの確立」に進みます。