この章では、クラスタノードおよび管理コンソールにソフトウェアをインストールする手順を説明しています。
この節では、クラスタノードにソフトウェアをインストールするための情報と手順を紹介します。
次の作業マップは、複数または単一ノードのクラスタにソフトウェアをインストールするときに実行する作業を示しています。ここに示す順に従って手順を実行します。
表 2–1 作業マップ: ソフトウェアのインストール
作業 |
参照先 |
---|---|
1. クラスタ構成のレイアウトを計画、およびソフトウェアをインストールするための準備 | |
2. (省略可能) 定足数サーバーのインストールおよび構成 | |
3. (省略可能) 管理コンソールにクラスタコントロールパネル (CCP) ソフトウェアをインストール | |
4. すべてのノードに Solaris OS をインストール | |
5. (省略可能) 内部ディスクのミラー化を設定 | |
6. (省略可能) SPARC: Sun マルチパスソフトウェアをインストールして構成 | |
7. (省略可能) SPARC:VERITAS File System ソフトウェアをインストール | |
8. Sun Cluster ソフトウェアおよび使用するデータサービスをインストール | |
9. ディレクトリパスを設定 | |
10.(省略可能) Solaris IP Filter を構成 |
ソフトウェアのインストールを開始する前に、次の準備作業を行なってください。
クラスタ構成に選択したハードウェアとソフトウェアが現在の Sun Cluster 構成でサポートされていることを確認します。
サポートされるクラスタ構成の最新情報については、Sun の販売代理店にお問い合わせください。
クラスタ構成の計画およびインストール方法を検討する上で参考となる情報を参照します。
『Sun Cluster 3.2 2/08 Release Notes for Solaris OS』 - 制限事項やバグ対策などの最新情報
『Sun Cluster の概要 (Solaris OS 版)』および 『Sun Cluster の概念 (Solaris OS 版)』 - Sun Cluster 製品の概要
『Sun Cluster ソフトウェアのインストール (Solaris OS 版)』 (このマニュアル) - Solaris、Sun Cluster、ボリューム管理ソフトウェアのインストールと構成を行うためのガイドラインと作業手順
『Sun Cluster データサービスの計画と管理 (Solaris OS 版)』 - データサービスの計画ガイドラインとインストールおよび構成手順
関連文書 (Sun 以外の製品の文書も含む) をすべて用意します。
クラスタのインストールを行う場合に参考となるドキュメントを持つ製品の一部を以下に示します。
Solaris OS
Solaris Volume Manager ソフトウェア
Sun StorEdge QFS ソフトウェア
VERITAS Volume Manager
その他のアプリケーション
クラスタ構成の計画を立てます。
クラスタのインストールを綿密に計画します。Solaris および Sun Cluster ソフトウェアのインストールを開始する前に、データサービスおよび他の製品すべてについて必要条件を認識しておく必要があります。計画に不備があった場合、インストールエラーが発生し、Solaris や Sun Cluster ソフトウェアを完全にインストールし直す必要が生じる可能性もあります。
たとえば、Oracle RAC の Oracle Real Application Clusters Guard オプションには、クラスタで使用するホスト名に関する特別な必要条件があります。このような特別な必要条件は Sun Cluster HA for SAP にもあります。Sun Cluster ソフトウェアをインストールした後にホスト名は変更できないため、このような必要条件は Sun Cluster ソフトウェアをインストールする前に調整しておく必要があります。
第 1 章「Sun Cluster 構成の計画」と『Sun Cluster データサービスの計画と管理 (Solaris OS 版)』 に示されている計画のガイドラインを利用して、クラスタのインストールと構成の方法を決定してください。
計画ガイドラインで参照されるクラスタフレームワークおよびデータサービス構成のワークシートに必要事項を記入してください。完成したワークシートは、インストールと構成の作業を行う際に参考情報として利用します。
クラスタ構成に必要なパッチをすべて入手します。
パッチおよびインストール手順の場所については、『Sun Cluster 3.2 2/08 Release Notes for Solaris OS』の「Patches and Required Firmware Levels」を参照してください。
管理コンソールからクラスタノードへの接続にクラスタコントロールパネルソフトウェアを使用する場合は、「クラスタコントロールパネルソフトウェアを管理コンソールにインストールする」に進みます。
それ以外の場合は、使用する Solaris のインストール手順を選択します。
scinstall(1M) ユーティリティを使用して Sun Cluster ソフトウェアを構成する場合は、 「Solaris ソフトウェアをインストールする」に進んで、最初に Solaris ソフトウェアをインストールします。
Solaris と Sun Cluster ソフトウェアを同時にインストールして構成する (JumpStart を使用する方法) 場合は、「Solaris と Sun Cluster ソフトウェアをインストールする (JumpStart)」に進みます。
この手順を実行して、ホストサーバーを定足数サーバーとして構成します。
次の作業を実行します。
定足数サーバーに選択するマシンに、定足数サーバーソフトウェアのインストールに使用できるディスク容量が 1 M バイト以上あることを確認します。
定足数サーバーマシンがクラスタノードにアクセスできるパブリックネットワークに接続されていることを確認します。
定足数サーバーが動作するクラスタのパブリックネットワークに接続されたポートの Ethernet スイッチのスパニングツリーアルゴリズムを無効にします。
定足数サーバーソフトウェアをインストールするマシンでスーパーユーザーになります。
(省略可能) GUI で installer プログラムを使用するには、インストール作業を行うホストサーバーの表示環境を、GUI を表示するように設定します。
# xhost + # setenv DISPLAY nodename:0.0 |
インストールメディアをドライブにロードします。
ボリューム管理デーモン (vold(1M)) が実行中で、CD-ROM または DVD デバイスを管理するよう構成されている場合、このデーモンは自動的にメディアを /cdrom/cdrom0/ ディレクトリにマウントします。
ディレクトリを、メディアのインストールウィザードのディレクトリに変更します。
SPARC プラットフォームにソフトウェアパッケージをインストールする場合は、次のコマンドを使用します。
phys-schost# cd /cdrom/cdrom0/Solaris_sparc |
x86 プラットフォームにソフトウェアパッケージをインストールする場合は、次のコマンドを使用します。
phys-schost# cd /cdrom/cdrom0/Solaris_x86 |
インストールウィザードを起動します。
phys-schost# ./installer |
画面の指示に従って、ホストサーバーに定足数サーバーソフトウェアをインストールします。
「あとで設定」オプションを選択します。
インストーラで「あとで設定」オプションを選択できない場合、「今すぐ設定」を選択します。
インストールが完了すると、インストールログを表示できます。Java Enterprise System の installer プログラムの使い方に関するその他の情報については、『Sun Java Enterprise System 2006Q4 Installation Guide for UNIX』を参照してください。
ドライブからインストールメディアを取り出します。
定足数サーバーソフトウェアをサポートするすべての必要なパッチを適用します。
パッチおよびインストール手順については、「Patches and Required Firmware Levels」 in 『Sun Cluster 3.2 12/07 Release Notes for Solaris OS』を参照してください。
(省略可能) 定足数サーバーのバイナリの場所を PATH 環境変数に追加します。
# PATH=$PATH:/usr/cluster/bin |
(省略可能) 定足数サーバーのマニュアルページの場所を PATH 環境変数に追加します。
# MANPATH=$MANPATH:/usr/cluster/man |
次のエントリを /etc/scqsd/scqsd.conf ファイルに追加して、定足数サーバーに関する構成情報を指定します。
インスタンス名またはポート番号の少なくとも一方を使用して、定足数サーバーを識別します。ポート番号は指定する必要がありますが、インスタンス名はオプションです。インスタンス名を指定する場合、その名前は定足数サーバー間で一意にします。名前を指定しない場合、常に、定足数サーバーが待機するポートによりこの定足数サーバーを参照します。
/usr/cluster/lib/sc/scqsd [-d /var/scqsd] [-i instancename] -p port |
定足数サーバーが定足数データを格納できるディレクトリへのパスです。
クラスタ固有の定足数情報を格納するために、定足数サーバープロセスはこのディレクトリに 1 クラスタにつき 1 つのファイルを作成します。
デフォルトでは、このオプションの値は /var/scqsd です。このディレクトリは、ユーザーが構成する各定足数サーバーに対して一意にします。
定足数サーバーインスタンスに対してユーザーが選択する一意の名前です。
定足数サーバーがクラスタからの要求を待機するポート番号です。
(省略可能) 複数のクラスタにサービスを提供し、別のポート番号またはインスタンスを使用する場合は、必要な定足数サーバーの追加のインスタンスごとに追加エントリを構成します。
# /usr/cluster/bin/clquorumserver start quorumserver |
インストーラは Sun Cluster 定足数サーバー パッケージの簡易 pkgadd インストールを実行し、必要なディレクトリを設定します。ソフトウェアは次のパッケージから構成されています。
SUNWscqsr
SUNWscqsu
SUNWscqsman
これらのパッケージをインストールすると、/usr/cluster および /etc/scqsd ディレクトリにソフトウェアが追加されます。Sun Cluster 定足数サーバー ソフトウェアの場所を変更することはできません。
Sun Cluster 定足数サーバー ソフトウェアに関するインストールエラーメッセージが表示される場合は、パッケージが正しくインストールされているかどうかを確認します。
管理コンソールを使用してクラスタノードと通信する場合は、「クラスタコントロールパネルソフトウェアを管理コンソールにインストールする」に進みます。
それ以外の場合は、「Solaris ソフトウェアをインストールする」に進みます。
管理コンソールの使用は必須ではありません。管理コンソールを使用しない場合は、クラスタ内の特定のノードから管理作業を行います。
この手順では、管理コンソールにクラスタコントロールパネル (CCP) ソフトウェアをインストールする方法を説明します。CCP は、cconsole、cssh、ctelnet、および crlogin ツールを起動する単一のインタフェースを提供します。これらの各ツールは、共通ウィンドウや一連のノードとの多重ウィンドウ接続を提供します。共通ウィンドウを使用すると、すべてのノードに入力を一括送信できます。詳細は、ccp(1M) のマニュアルページを参照してください。
管理コンソールには、Sun Cluster 3.2 2/08 ソフトウェアがサポートする特定のバージョンの Solaris OS が動作する任意のデスクトップマシンを使用できます。Sun Cluster をSPARC ベースのシステムで使用している場合は、管理コンソールを Sun Management Center コンソールやサーバーとして使用することもできます。 Sun Management Center ソフトウェアをインストールする方法については、 Sun Management Center のマニュアルを参照してください。
サポートされている Solaris OS 環境のバージョンと Solaris パッチが管理コンソールにインストールされていることを確認してください。すべてのプラットフォームで、少なくとも End User Solaris ソフトウェアグループが必要です。
管理コンソールでスーパーユーザーになります。
DVD-ROM ドライブに Sun Java Availability Suite DVD-ROM を挿入します。
ボリューム管理デーモン vold(1M) が実行され、CD-ROM または DVD デバイスを管理するように設定されている場合、このデーモンは自動的にメディアを /cdrom/cdrom0/ ディレクトリにマウントします。
Solaris_arch/Product/sun_cluster/Solaris_ver/Packages/ ディレクトリ (arch は sparc または x86 (Solaris 10 のみ)、ver は Solaris 9 の場合 9 または Solaris 10 の場合 10)
adminconsole# cd /cdrom/cdrom0/Solaris_arch/Product/sun_cluster/Solaris_ver/Packages/ |
SUNWccon パッケージをインストールします。
adminconsole# pkgadd -d . SUNWccon |
(省略可能) Sun Cluster マニュアルページパッケージをインストールします。
adminconsole# pkgadd -d . pkgname … |
パッケージ名 |
説明 |
---|---|
SUNWscman |
Sun Cluster フレームワークのマニュアルページ |
SUNWscdsman |
Sun Cluster データサービスのマニュアルページ |
SUNWscqsman |
Sun Cluster 定足数サーバー のマニュアルページ |
Sun Cluster マニュアルページパッケージを管理コンソールにインストールする場合、Sun Cluster ソフトウェアをクラスタノードまたは定足数サーバーにインストールする前に、それらのパッケージを管理コンソールから表示できます。
DVD-ROM ドライブから Sun Java Availability Suite DVD-ROM を取り出します。
管理コンソールに /etc/clusters ファイルを作成します。
クラスタ名と、各クラスタノードの物理ノード名をファイルに追加します。
adminconsole# vi /etc/clusters clustername node1 node2 |
詳細については、/opt/SUNWcluster/bin/clusters(4) のマニュアルページを参照してください。
このファイルに、クラスタ内の各ノード用のエントリを追加します。物理ノード名、コンソールアクセスデバイスのホスト名、およびポート番号を指定します。コンソールアクセスデバイスの例として、端末集配信装置 (TC)、システムサービスプロセッサ (SSP)、および Sun Fire システムコントローラがあります。
adminconsole# vi /etc/serialports node1 ca-dev-hostname port node2 ca-dev-hostname port |
クラスタノードの物理名
コンソールアクセスデバイスのホスト名
Secure Shell 接続のためのシリアルポート番号、または Secure Shell ポート番号
/etc/serialports ファイルを作成するためには、次の注意事項に従ってください。
Sun Fire 15000 システムコントローラでは、各エントリのシリアル番号に telnet(1)ポート番号 23 を使用します。
その他すべてのコンソールアクセスデバイスの場合、telnet 接続を使用してコンソールに接続するには、物理ポート番号ではなく、telnet シリアルポート番号を使用します。telnet シリアルポート番号は、物理ポート番号に 5000 を加えた値です。たとえば、物理ポート番号が 6 の場合、telnet シリアルポート番号は 5006 になります。
Sun Enterprise 10000 サーバーの詳細と注意事項については、 /opt/SUNWcluster/bin/serialports(4) のマニュアルページを参照してください。
ノードコンソールへの Secure Shell 接続の場合は、各ノードで保護付きの接続に使用するコンソールアクセスデバイスの名前とポート番号を指定します。Secure Shell のデフォルトポート番号は 22 です。
管理コンソールを直接クラスタノードに接続したり、管理ネットワーク経由で接続する場合は、ノードごとにそのノードが管理コンソールや管理ネットワークへの接続に使用するホスト名とポート番号を指定します。
adminconsole# /opt/SUNWcluster/bin/ccp & |
CCP ウィンドウで、cconsole、cssh、crlogin、または ctelnet ボタンをクリックしてツールを起動します。これらのツールは直接起動することもできます。たとえば、ctelnet を起動するには、次のコマンドを入力します。
adminconsole# /opt/SUNWcluster/bin/ctelnet & |
CCP ソフトウェアは、次の Secure Shell 接続に対応しています。
ノードコンソールへの保護付きの接続の場合、cconsole ツールを起動します。次にクラスタコンソールウィンドウの「オプション」メニューから「Use SSH」チェックボックスをオンにします。
クラスタノードへの保護付きの接続の場合、cssh ツールを使用します。
CCP ユーティリティーを使用する方法については、『Sun Cluster のシステム管理 (Solaris OS 版)』の「クラスタ管理の開始」の 「How to Remotely Log In to Sun Cluster 」を参照してください。詳細は、ccp(1M) のマニュアルページも参照してください。
Solaris OS がインストールされており、Sun Cluster ソフトウェアの必要条件を満たしているかどうかを確認します。Solaris OS に関する Sun Cluster のインストール要件については、「Solaris OS の計画」を参照してください。
Solaris OS が Sun Cluster の要件を満たしている場合は、「Sun Cluster フレームワークおよびデータサービスソフトウェアパッケージをインストールする」に進みます。
必要条件を満たしていない場合は、必要に応じて Solaris OS をインストール、再構成または再インストールします。
Solaris OS だけをインストールする場合は、「Solaris ソフトウェアをインストールする」に進みます。
scinstall カスタム JumpStart メソッドを使用して Solaris OS と Sun Cluster ソフトウェアをインストールする場合は、「Solaris と Sun Cluster ソフトウェアをインストールする (JumpStart)」に進みます。
ソフトウェアのインストールに scinstall カスタム JumpStart インストールメソッドを使用しない場合は、以下の手順に従ってクラスタ内の各ノードに Solaris OS をインストールしてください。クラスタの JumpStart インストールの詳細については、「Solaris と Sun Cluster ソフトウェアをインストールする (JumpStart)」を参照してください。
Solaris OS は、各ノードに同時にインストールできるため、インストール時間を節約できます。
ノードに Solaris OS がすでにインストールされていても、Sun Cluster インストールの必要条件が満たされていない場合は、Solaris ソフトウェアを再インストールする必要があります。以下に示す手順に従って、Sun Cluster ソフトウェアを確実にインストールしてください。必要なルートディスクのパーティションの分割方法などの Sun Cluster インストール要件については、「Solaris OS の計画」を参照してください。
次の作業を実行します。
Solaris ソフトウェアをインストールする前に、ハードウェアの設定が完了していることと、接続が完全であることを確認します。詳細については、『Sun Cluster Hardware Administration Collection』およびサーバーと記憶装置のマニュアルを参照してください。
クラスタ構成の計画が完了していることを確認します。要件とガイドラインについては、「クラスタソフトウェアのインストールの準備をする」を参照してください。
「ローカルファイルシステム配置のワークシート」に必要事項を記入します。
ネームサービスを使用している場合、すべての公開ホスト名と論理アドレス間のアドレスと名前の対応付けを、クライアントがクラスタサービスにアクセスするために使用する任意のネームサービスに追加します。計画のガイドラインについては、「パブリックネットワーク IP アドレス」を参照してください。Solaris ネームサービスの使用については、Solaris システム管理者用のマニュアルを参照してください。
クラスタ管理コンソールを使用している場合、クラスタ内にある各ノードのコンソール画面を表示します。
クラスタコントロールパネル (CCP) ソフトウェアが管理コンソールにインストールされ、構成されている場合は、cconsole(1M) ユーティリティーを使用して、コンソール画面を個別に表示します。
スーパーユーザーとして、次のコマンドを使用して、cconsole ユーティリティーを起動します。
adminconsole# /opt/SUNWcluster/bin/cconsole clustername & |
また、cconsole ユーティリティーを使用してマスターウィンドウを開くことができます。ここでの入力を、個々のすべてのコンソールウィンドウに同時に送信できます。
cconsole ユーティリティーを使用しない場合は、各ノードのコンソールに個別に接続します。
Solaris インストールマニュアルに指示されているとおりに Solaris OS をインストールします。
同一クラスタ内のノードはすべて、同じバージョンの Solaris OS である必要があります。
Solaris ソフトウェアの通常のインストール方法を使用してインストールします。Solaris ソフトウェアのインストール時に、次の作業を行います。
少なくとも End User Solaris ソフトウェアグループをインストールします。
Solaris ソフトウェアパッケージを手動でインストールしなくてすむようにするには、Entire Solaris Software Group Plus OEM Support をインストールしてください。
これ以外のSolaris ソフトウェアの要件については、「Solaris ソフトウェアグループについて」を参照してください。
「手動配置」を選択して、ファイルシステムを設定します。
グローバルデバイスサブシステムを使用するための、少なくとも 512M バイトのファイルシステムを作成します。
Sun Cluster ソフトウェアのインストールを正常に行うためには、グローバルデバイスファイルシステムを用意する必要があります。
スライス 7 にはすくなくとも 20 M バイトのサイズを指定します。
ほかにも必要なファイルシステムパーティションがある場合は、「システムディスクパーティション」の説明に従って作成します。
管理しやすくするために、すべてのノード上で同じ root パスワードを設定します。
スーパーユーザーではなく、役割に基づくアクセス制御 (RBAC) を使用してクラスタノードにアクセスする場合は、すべての Sun Cluster コマンドに認証を提供する RBAC の役割を設定します。
ユーザーがスーパーユーザーでない場合、この一連のインストール手順には、次の Sun Cluster RBAC 認証が必要です。
solaris.cluster.modify
solaris.cluster.admin
solaris.cluster.read
RBAC の役割について詳しくは、『System Administration Guide: Security Services』の「Role-Based Access Control (Overview)」 を参照してください。Sun Cluster サブコマンドで必要な RBAC 認証については、Sun Cluster のマニュアルページを参照してください。
既存のクラスタにノードを追加する場合は、新しいノードにクラスタファイルシステム用のマウントポイントを追加します。
アクティブなノードから、すべてのクラスタファイルシステムの名前を表示します。
phys-schost-1# mount | grep global | egrep -v node@ | awk '{print $1}' |
新しいノード上で、クラスタ内のクラスタファイルシステムごとにマウントポイントを作成します。
phys-schost-new# mkdir -p mountpoint |
たとえば、mount コマンドで表示されるファイルシステム名が /global/dg-schost-1 の場合は、クラスタに追加する新しいノードで mkdir -p /global/dg-schost-1 を実行します。
ノードの追加を行なっており、かつ、VxVM がクラスタの任意のノードにインストールされている場合は、次の作業を実行します。
End User Solaris Software Group をインストールしてあり、次のいずれか Sun Cluster 機能を使用する場合は、これらの機能をサポートする追加の Solaris ソフトウェアパッケージをインストールします。
Remote Shared Memory Application Programming Interface (RSMAPI)
RSMRDT ドライバ
SPARC:SCI-PCI アダプタ
SPARC:Solaris 9 OS の場合は、次のコマンドを実行します。
phys-schost# pkgadd -d . SUNWrsm SUNWrsmc SUNWrsmo SUNWrsmox |
Solaris 10 OS の場合は、次のコマンドを実行します。
phys-schost# pkgadd -G -d . SUNWrsm SUNWrsmo |
これらのパッケージは、大域ゾーンだけに追加する必要があります。-G オプションを使用すると、現在のゾーンだけにパッケージを追加します。このオプションは、既存の非大域ゾーン、またはあとで作成する非大域ゾーンにパッケージを伝播しないことも指定します。
必要な Solaris OS のパッチ、ハードウェア関連のファームウェア、およびそのパッチ (ストレージアレイのサポート用のパッチも含む) があればインストールします。また、ハードウェアパッチに含まれている必要なファームウェアをダウンロードします。
パッチおよびインストール手順の場所については、『Sun Cluster 3.2 2/08 Release Notes for Solaris OS』の「Patches and Required Firmware Levels」を参照してください。
x86: デフォルトのブートファイルを設定します。
この値を設定すると、ログインプロンプトにアクセスできないときにノードを再起動できます。
各ノードで /etc/inet/hosts または /etc/inet/ipnodes ファイルをクラスタで使用されているすべてのパブリック IP アドレスで更新します。
この手順は、ネームサービスを使用しているかどうかに関わらず実行します。ipnodes ファイルには、IPv4 と IPv6 の両方のアドレスを含めることができます。IP アドレスを追加する必要がある Sun Cluster コンポーネントについては、「パブリックネットワーク IP アドレス」を参照してください。
新しいクラスタまたはクラスタノードの確立中に、scinstall ユーティリティーは自動的に構成中の各ノードのパブリック IP アドレスを /etc/inet/hosts ファイルに追加します。これらの IP アドレスの /etc/inet/ipnodes ファイルへの追加は任意です。
クラスタインターコネクトに ce アダプタを使用する場合、/etc/system ファイルに次のエントリを追加します。
set ce:ce_taskq_disable=1 |
このエントリは、次のシステム再起動後に有効になります。
(省略可能) Sun Enterprise 10000 サーバー上で、/etc/system ファイルを動的構成を使用するように構成します。
クラスタの各ノード上の /etc/system ファイルに次のエントリを追加します。
set kernel_cage_enable=1 |
このエントリは、次のシステム再起動後に有効になります。動的再構成の詳細については、サーバーのマニュアルを参照してください。
(省略可能) IPMP グループでパブリックネットワークアダプタを構成します。
scinstall ユーティリティーがクラスタの作成中に構成する多重アダプタ IPMP グループを使用しない場合は、スタンドアロンシステムでカスタム IPMP グループを構成します。詳細は、『System Administration Guide: Network Interfaces and Network Virtualization』の第 8 章「Administering IPMP」を参照してください。
クラスタ作成中、scinstall ユーティリティーは、同じサブネットを使用するパブリックネットワークアダプタの各セットのうち、IPMP グループでまだ構成されていないものを、単一の多重アダプタIPMP グループに構成します。scinstall ユーティリティーは、既存の IPMP グループを無視します。
サーバが内部ハードディスクドライブのミラー化に対応していて、内部ディスクのミラー化を設定する場合は、「内部ディスクのミラー化を構成する」に進みます。
それ以外の場合で、Sun マルチパスソフトウェアを使用する場合は、「Sun マルチパスソフトウェアをインストールする」に進みます。
それ以外の場合で、VxFS をインストールする場合は、「SPARC: VERITAS File System ソフトウェアをインストールする」に進みます。
それ以外の場合、Sun Cluster ソフトウェアパッケージをインストールします。「Sun Cluster フレームワークおよびデータサービスソフトウェアパッケージをインストールする」に進みます。
Sun Cluster 構成で、動的再構成の作業を実行するための手順については、『Sun Cluster のシステム管理 (Solaris OS 版)』 を参照してください。
クラスタの各ノードで、以下の手順に従って、内部ハードウェア RAID ディスクのミラー化を設定し、システムディスクをミラー化します。この手順は省略可能です。
次のような状況ではこの手順を実行しないでください。
サーバーが内部ハードディスクドライブのミラー化に対応していない。
すでにクラスタを確立している。この場合は、代わりに『Sun Cluster 3.1 - 3.2 Hardware Administration Manual for Solaris OS』の「Mirroring Internal Disks on Servers that Use Internal Hardware Disk Mirroring or Integrated Mirroring」を実行してください。
Solaris オペレーティングシステムおよび必要なパッチがインストールされていることを確認します。
スーパーユーザーになります。
内部ミラーを構成します。
phys-schost# raidctl -c clt0d0 clt1d0 |
ミラーディスクにプライマリディスクのミラーを作成します。プライマリディスクの名前を 1 番目の引数として入力します。ミラーディスクの名前を 2 番目の引数として入力します。
サーバーの内部ディスクのミラー化の設定方法については、サーバーに付属のマニュアルおよび raidctl(1M) のマニュアルページを参照してください。
Sun マルチパスソフトウェアを使用する場合は、「Sun マルチパスソフトウェアをインストールする」に進みます。
それ以外の場合で、VxFS をインストールする場合は、「SPARC: VERITAS File System ソフトウェアをインストールする」に進みます。
それ以外の場合、Sun Cluster ソフトウェアパッケージをインストールします。「Sun Cluster フレームワークおよびデータサービスソフトウェアパッケージをインストールする」に進みます。
クラスタの各ノードで以下の手順を実行して、ファイバチャネル (FC)ストレージ用の Sun マルチパスソフトウェアを設定します。マルチパスソフトウェアは、共有クラスタストレージへの複数の入出力パスを管理します。この手順は省略可能です。
SPARC:Solaris 9 OS の場合、Sun StorEdge Traffic Manager ソフトウェアをインストールして設定します。
Solaris 10 OS の場合は、Solaris 10 ソフトウェアの一部としてデフォルトでインストールされる Solaris マルチパス機能を有効にします。
次の作業を実行します。
Sun Cluster ソフトウェアをサポートするように Solaris OS がインストールされているか確認します。
Solaris ソフトウェアがすでにノード上にインストールされている場合は、Solaris のインストールが Sun Cluster ソフトウェアの必要条件、およびそのクラスタにインストールする予定の他のソフトウェアの必要条件を満たしていることを確認してください。Solaris ソフトウェアをインストールして、Sun Cluster ソフトウェアの必要条件を満たす方法の詳細については、「Solaris ソフトウェアをインストールする」を参照してください。
SPARC: Solaris 9 OS の場合、Sun StorEdge Traffic Manager ソフトウェアと Sun StorEdge SAN Foundation ソフトウェア用のソフトウェアパッケージ、パッチ、およびマニュアルを用意します。マニュアルへのリンクについては、http://www.sun.com/products-n-solutions/hardware/docs/ を参照してください。
Solaris 10 OS の場合、Solaris Fibre Channel Storage Configuration and Multipathing Administration Guide を用意します。
スーパーユーザーになります。
SPARC:Solaris 9 OS の場合、各ノードに Sun StorEdge Traffic Manager ソフトウェアと必要なパッチをインストールします。
Sun StorEdge Traffic Manager ソフトウェアのインストール手順については、http://www.sun.com/products-n-solutions/hardware/docs/ にある「『Sun StorEdge Traffic Manager Installation and Configuration Guide』 」を参照してください。
Sun StorEdge Traffic Manager ソフトウェアに必要なパッチについては、http://www.sun.com/storage/san/ にある「『Sun StorEdge Traffic Manager Software Release Notes』 」を参照してください。
SPARC:Solaris 9 OS の場合、mpxio-disable パラメーターの値を no に変更します。
各ノードの /kernel/drv/scsi_vhci.conf ファイルでこのエントリを変更します。
set mpxio-disable=no |
Solaris 10 OS の場合、各ノードで次のコマンドを実行します。
Sun Cluster ソフトウェアがすでに実行されている場合は、このコマンドを実行しないでください。アクティブなクラスタノードで stmsboot コマンドを実行すると、Solaris サービスがメンテナンス状態になる場合があります。このコマンドを実行する代わりに、stmsboot(1M) のマニュアルページにある Sun Cluster 環境での stmsboot コマンドの使い方の手順に従ってください。
phys-schost# /usr/sbin/stmsboot -e |
Solaris I/O マルチパスを有効にします。
詳細は、stmsboot(1M) のマニュアルページを参照してください。
SPARC:Solaris 9 OS の場合、実行中のバージョンの Sun StorEdge SAN Foundation ソフトウェアに使用するストレージアレイのサポートが組み込まれているかどうかを調べてください。
ソフトウェアに使用するストレージアレイの組み込みサポートが含まれていない場合は、各ノードの /kernel/drv/scsi_vhci.conf ファイルを編集して、必要なエントリを含めます。詳細は、ストレージデバイスのリリースノートを参照してください。
SPARC:Solaris 9 OS の場合、各ノードをシャットダウンして、再構成ブートを実行します。
再構成ブートにより、新しい Solaris デバイスファイルとリンクが作成されます。
phys-schost# shutdown -y -g0 -i0 ok boot -r |
すべてのノードで再構成リブートが終了したあと、ストレージアレイの構成を完了するために必要なその他の作業を実行します。
ストレージアレイの導入手順の詳細については、「Sun Cluster Hardware Administration Collection」を参照してください。
クラスタに Sun Cluster ソフトウェアをインストールしたあとで Sun マルチパスソフトウェアをインストールした場合、DID マッピングの更新が必要になる場合があります。クラスタの各ノードで、次のコマンドを実行して、DID 名前空間を再生成してください。
phys-schost# cldevice clearphys-schost# cldevice refresh(Solaris 9 only) phys-schost# cfgadm -c configurephys-schost# cldevice populate
詳細は、cfgadm(1M) および cldevice(1CL) のマニュアルページを参照してください。
VxFS をインストールする場合は、「SPARC: VERITAS File System ソフトウェアをインストールする」に進みます。
それ以外の場合、Sun Cluster ソフトウェアパッケージをインストールします。「Sun Cluster フレームワークおよびデータサービスソフトウェアパッケージをインストールする」に進みます。
VERITAS File System (VxFS) ソフトウェアをクラスタで使用するには、クラスタの各ノードで以下の手順を実行します。
VxFS のインストールマニュアルに従って、VxFS ソフトウェアをクラスタの各ノード上にインストールします。
VxFS のサポートに必要なすべての Sun Cluster パッチをインストールします。
パッチおよびインストール手順の場所については、『Sun Cluster 3.2 2/08 Release Notes for Solaris OS』の「Patches and Required Firmware Levels」を参照してください。
各ノードの /etc/system ファイルで、次の値を設定します。
set rpcmod:svc_default_stksize=0x8000 set lwp_default_stksize=0x6000 |
これらの変更は、次にシステムを再起動したときに有効になります。
Sun Cluster ソフトウェアには、少なくとも 0x8000 に設定された rpcmod:svc_default_stksize が必要です。VxFS をインストールすると、rpcmod:svc_default_stksize 変数の値が 0x4000 に設定されるため、VxFS のインストールが終わったあと、値を手動で 0x8000 に設定する必要があります。
/etc/system ファイルの lwp_default_stksize 変数を設定して、VxFS デフォルト値の 0x4000 を無効にします。
Sun Cluster ソフトウェアパッケージをインストールします。「Sun Cluster フレームワークおよびデータサービスソフトウェアパッケージをインストールする」に進みます。
代わりに、Sun N1TM Service Provisioning System 用の Sun Cluster プラグインを配備して、Sun Cluster フレームワークおよびデータサービスソフトウェアをインストールすることもできます。プラグインに付属のマニュアルに記載された手順に従ってください。 でも、この情報を参照できます。
Sun JavaTM Enterprise System (Java ES) installer プログラムを使用して次のインストール作業の 1 つまたは複数を実行するには、この手順に従います。
Sun Cluster フレームワークソフトウェアパッケージの、クラスタの各ノードへのインストール。
JumpStart インストール用のアーカイブをフラッシュするマスターノードへの、Sun Cluster フレームワークソフトウェアのインストール。クラスタの JumpStart インストールの詳細については、「Solaris と Sun Cluster ソフトウェアをインストールする (JumpStart)」を参照してください。
データサービスのインストール。
Solaris 10 OS の場合、この手順によりデータサービスが大域ゾーンにだけインストールされます。特定の非大域ゾーンからだけデータサービスが表示されるようにする場合は、「クラスタノードに非大域ゾーンを作成する」を参照してください。
この手順では、対話型の installer プログラムを使用します。インストールスクリプトを作成する場合のように、非対話型の installer プログラムを使用する場合は、『Sun Java Enterprise System 5 インストールガイド (UNIX 版)』の第 5 章「サイレントモードでのインストール」を参照してください。
次の作業を実行します。
Sun Cluster ソフトウェアをサポートするように Solaris OS がインストールされているか確認します。
Solaris ソフトウェアがすでにノード上にインストールされている場合は、Solaris のインストールが Sun Cluster ソフトウェアの必要条件、およびそのクラスタにインストールする予定の他のソフトウェアの必要条件を満たしていることを確認してください。Solaris ソフトウェアをインストールして、Sun Cluster ソフトウェアの必要条件を満たす方法の詳細については、「Solaris ソフトウェアをインストールする」を参照してください。
Sun Java Availability Suite DVD-ROM を用意します。
(Solaris 10 11/06 および Solaris 10 8/07 のみ) RPC 通信への外部アクセスを復元し、必要に応じて Sun Java Web コンソールへのアクセスを復元します。
Solaris 10 11/06 または Solaris 10 8/07 OS のインストール中、リモートクライアントのネットワークサービスを有効にしないように設定すると、特定のネットワークサービスへの外部アクセスを無効にする制限されたネットワークプロファイルが使用されます。この制限されたサービスには、クラスタ機能に影響を与える次のようなサービスがあります。
クラスタ通信に必要な RPC 通信サービス
Sun Cluster Manager の GUI を使用するために必要な Sun Java Web Console サービス
次の手順によって、Sun Cluster フレームワークによって使用される Solaris 機能が復元されますが、制限されたネットワークプロファイルが使用されている場合は、復元されません。
RPC 通信への外部アクセスを復元するには、次のコマンドを使用します。
phys-schost# svccfg svc:> select network/rpc/bind svc:/network/rpc/bind> setprop config/local_only=false svc:/network/rpc/bind> quit phys-schost# svcadm refresh network/rpc/bind:default phys-schost# svcprop network/rpc/bind:default | grep local_only |
最後のコマンドの出力は、local_only プロパティーが現在 false に設定されていることを示しているはずです。
(省略可能) 次のコマンドを実行して、Sun Java Web Console への外部アクセスを復元します。
phys-schost# svccfg svc:> select system/webconsole svc:/system/webconsole> setprop options/tcp_listen=true svc:/system/webconsole> quit phys-schost# /usr/sbin/smcwebserver restart phys-schost# netstat -a | grep 6789 |
最後のコマンドの出力は、Sun Java Web Console に接続するために使用されるポート番号である 6789 のエントリを返すはずです。
制限されたネットワークプロファイルがローカル接続に制限するサービスについての詳細は、『Solaris 10 11/06 Installation Guide: Planning for Installation and Upgrade』の「Planning Network Security」を参照してください。
(省略可能) GUI で installer プログラムを使用するには、インストール作業を行うクラスタノードの表示環境を、GUI を表示するように設定します。
% xhost + % setenv DISPLAY nodename:0.0 |
これらの設定を行わない場合、installer プログラムはテキストベースモードで実行されます。
インストールするクラスタノードでスーパーユーザーになります。
DVD-ROM ドライブに Sun Java Availability Suite DVD-ROM を挿入します。
ボリューム管理デーモン vold(1M) が実行され、CD-ROM または DVD デバイスを管理するように設定されている場合、このデーモンは自動的にメディアを /cdrom/cdrom0/ ディレクトリにマウントします。
DVD-ROM の インストールウィザードディレクトリに移動します。
SPARC プラットフォームにソフトウェアパッケージをインストールする場合は、次のコマンドを使用します。
phys-schost# cd /cdrom/cdrom0/Solaris_sparc |
x86 プラットフォームにソフトウェアパッケージをインストールする場合は、次のコマンドを使用します。
phys-schost# cd /cdrom/cdrom0/Solaris_x86 |
インストールウィザードプログラムを開始します。
phys-schost# ./installer |
Java ES installer プログラムのさまざまな形式や機能の使い方の詳細については、『Sun Java Enterprise System 5 インストールガイド (UNIX 版)』 を参照してください。
画面の指示に従い、Sun Cluster フレームワークソフトウェアおよびデータサービスをノードにインストールします。
Sun Cluster Manager (旧 SunPlex Manager) をインストールしない場合は、これを選択解除します。
Sun Cluster Manager は、クラスタのすべてのノードにインストールするか、まったくインストールしないかのいずれかにする必要があります。
Sun Cluster Geographic Edition ソフトウェアをインストールする場合は、これを選択します。
クラスタが確立されたら、『Sun Cluster Geographic Edition Installation Guide』 でその後の手順を参照します。
Sun Cluster フレームワークソフトウェアを構成するかどうかを尋ねるプロンプトが表示されたら、「あとで設定」を選択します。
インストールが完了すると、インストールログを表示できます。
次の機能のいずれかを使用するには、追加のパッケージをインストールします。
Remote Shared Memory Application Programming Interface (RSMAPI)
インターコネクトトランスポート用の SCI-PCI アダプタ
RSMRDT ドライバ
RSMRDT ドライバを使用できるのは、Oracle9i リリース 2 SCI 構成を RSM を有効にして実行しているクラスタだけです。インストールと構成手順についての詳細は、Oracle9i リリース 2 のユーザーマニュアルを参照してください。
インストールが必要なパッケージを決定します。
各機能に必要な Sun Cluster 3.2 2/08 パッケージとパッケージの各グループのインストール順序を次の表に示します。Java ES のinstaller プログラムでは、これらのパッケージは自動的にはインストールされません。
次の表に示した順序でパッケージをインストールしてください。
機能 |
インストールする追加の Sun Cluster 3.2 2/08 パッケージ |
---|---|
RSMAPI |
SUNWscrif |
SCI-PCI アダプタ |
|
RSMRDT ドライバ |
SUNWscrdt |
Solaris_arch/Product/sun_cluster/Solaris_ver/Packages/ ディレクトリ (arch は sparc または x86 (Solaris 10 のみ)、ver は Solaris 9 の場合 9 または Solaris 10 の場合 10) に移動します。
phys-schost# cd /cdrom/cdrom0/Solaris_arch/Product/sun_cluster/Solaris_ver/Packages/ |
追加のパッケージをインストールします。
DVD-ROM ドライブから Sun Java Availability Suite DVD-ROM を取り出します。
Sun Cluster ソフトウェアをサポートするために必要なパッチを適用します。
パッチおよびインストール手順の場所については、『Sun Cluster 3.2 2/08 Release Notes for Solaris OS』の「Patches and Required Firmware Levels」を参照してください。
Sun StorEdge QFS ファイルシステムをインストールする場合は、『Sun StorEdge QFS Installation and Upgrade Guide』 にある初期インストール手順に従ってください。
root ユーザー環境を設定する場合は、「root 環境を設定する」に進みます。
Sun Cluster 構成では、各種シェルのユーザー初期化ファイルは、それらが対話式のシェルから実行されていることを確認する必要があります。確認は、端末への出力を試みる前に行なってください。この方法に従わないと、予期しない動作やデータサービス妨害が発生する可能性があります。詳細は、「Customizing a User's Work Environment」 in 『System Administration Guide: Basic Administration』 (Solaris 9またはSolaris 10) を参照してください。
クラスタ内の各ノード上で次の手順を実行します。
クラスタノード上にインストールするクラスタノード上でスーパーユーザーになります。
.cshrc または .profile ファイルの PATH および MANPATH エントリを変更します。
追加のファイルパスの設定については、Solaris OS のマニュアルおよびその他のアプリケーションのマニュアルを参照してください。
(省略可能) 管理を行いやすくするため、各ノードに同じ root パスワードを設定します。
Solaris IP Filter を使用する場合は、「Solaris IP Filter を構成する」に進みます。
使用しない場合は、クラスタノード上で Sun Cluster ソフトウェアを構成します。「新規クラスタまたは新規クラスタノードの確立」に進みます。
クラスタ上で Solaris IP Filter を構成するには、この手順を実行します。
Solaris IP Filter はフェイルオーバーデータサービスでのみ使用します。スケーラブルデータサービスでの Solaris IP Filter の使用はサポートされていません。
NAT ルーティングはサポートされません。
ローカルアドレスを変換するための NAT の使用はサポートされません。NAT 変換は回線上でパケットを再書き込みするため、クラスタソフトウェアには影響がありません。
ステートレスフィルタリングのみサポートされます。
Solaris IP Filter 機能についての詳細は、『System Administration Guide: IP Services』のパート IV「IP Security」を参照してください。
(Solaris 10 11/06 のみ)IP フィルタが非クラスタモードで機能するように、/etc/iu.ap ファイルのエントリを変更します。
clhbsndr pfil をモジュールリストとして表示するように、パブリック NIC エントリを変更します。
pfil がリストの最後のモジュールになるようにします。
プライベートネットワークとパブリックネットワークに同じ種類のアダプタがある場合は、pfil をプライベートネットワークストリームにプッシュするように /etc/iu.ap ファイルを編集します。ただし、クラスタ転送モジュールは、ストリーム作成時に不要なモジュールをすべて自動的に削除するため、pfil はプライベートネットワークストリームから削除されます。
/etc/ipf/pfil.ap ファイルにパブリックネットワークインタフェースを追加します。
詳細は、『System Administration Guide: IP Services』の第 26 章「Solaris IP Filter (Tasks)」を参照してください。
影響を受けたすべてのノードを再起動します。
ローリング形式でノードを起動できます。
影響を受けたすべてのノード上の /etc/ipf/ipf.conf ファイルにフィルタルールを追加します。
フィルタルールを Sun Cluster ノードに追加する場合、次のガイドラインと要件に従います。
(Solaris 10 8/07 のみ) 各ノードの ipf.conf ファイルで、クラスタ相互接続トラフィックにフィルタなしでの通過を明示的に許可するルールを追加します。インタフェース固有でないルールは、クラスタ相互接続を含めたすべてのインタフェースに適用されます。これらのインタフェース上のトラフィックが誤ってブロックされていないことを確認します。たとえば、現在、次のルールが使用されていると仮定します。
# Default block TCP/UDP unless some later rule overrides block return-rst in proto tcp/udp from any to any # Default block ping unless some later rule overrides block return-rst in proto icmp all |
クラスタ相互接続トラフィックのブロックを解除するには、次のルールを追加します。使用されているサブネットは、例示用にのみ使用しています。ifconfig interface コマンドを使用して、使用するサブネットを取得します。
# Unblock cluster traffic on 172.16.0.128/25 subnet (physical interconnect) pass in quick proto tcp/udp from 172.16.0.128/25 to any pass out quick proto tcp/udp from 172.16.0.128/25 to any # Unblock cluster traffic on 172.16.1.0/25 subnet (physical interconnect) pass in quick proto tcp/udp from 172.16.1.0/25 to any pass out quick proto tcp/udp from 172.16.1.0/25 to any # Unblock cluster traffic on 172.16.4.0/23 (clprivnet0 subnet) pass in quick proto tcp/udp from 172.16.4.0/23 to any pass out quick proto tcp/udp from 172.16.4.0/23 to any |
Sun Cluster ソフトウェアは、ノード間でネットワークアドレスをフェイルオーバーします。フェイルオーバー時に特別な手順やコードは不要です。
論理ホスト名と共有アドレスリソースを参照するすべてのフィルタリングルールは、すべてのクラスタノードで一意になるようにします。
スタンバイノードのルールは存在しない IP アドレスを参照します。このルールはまだ IP フィルタの有効なルールセットの一部であり、フェイルオーバー後にノードがアドレスを受け取ると有効になります。
すべてのフィルタリングルールが同じ IPMP グループ内のすべての NIC で同じになるようにします。 つまり、ルールがインタフェース固有である場合、IPMP グループ内のほかのすべてのインタフェースにも同じルールが存在するようにします。
Solaris IP Filter のルールについての詳細は、ipf(4) のマニュアルページを参照してください。
ipfilter SMF サービスを有効にします。
phys-schost# svcadm enable /network/ipfilter:default |
クラスタノード上で Sun Cluster ソフトウェアを構成します。「新規クラスタまたは新規クラスタノードの確立」に進みます。