この章では、Sun Cluster をインストールする際の計画情報とガイドラインについて説明します。
この章の内容は、次のとおりです。
次の表は、Sun Cluster ソフトウェアのインストール作業手順の参照箇所です。
表 1–1 Sun Cluster ソフトウェアのインストール作業の参照箇所
作業 |
参照先 |
---|---|
クラスタハードウェアの設定 |
『Sun Cluster 3.0-3.1 Hardware Administration Manual for Solaris OS』 サーバーや記憶装置に付属しているマニュアル |
クラスタソフトウェアのインストールの計画 | |
ソフトウェアパッケージのインストール。(任意) Sun StorEdge QFSSunStorEdgeQFS ソフトウェアのインストールと構成 |
『Sun StorEdge QFS and Sun StorEdge SAM-FS Software Installation and Configuration Guide』 |
新しいクラスタまたは新しいクラスタノードの確立 | |
Solstice DiskSuiteTM または Solaris ボリュームマネージャー ソフトウェアのインストールと構成 |
「Solstice DiskSuite または Solaris Volume Manager ソフトウェアのインストールと構成」 Solstice DiskSuite または Solaris Volume Manager のマニュアル |
SPARC: VERITAS Volume Manager (VxVM) ソフトウェアのインストールと構成 |
「SPARC: VxVM ソフトウェアのインストールと構成」 VxVM のマニュアル |
クラスタファイルシステムとその他のクラスタコンポーネントの構成 | |
(任意) SPARC:Sun Cluster モジュールの Sun Management Center へのインストールと構成 |
「SPARC: Sun Management Center 用の Sun Cluster モジュールのインストール」 Sun Management Center のマニュアル |
リソースグループとデータサービスの計画、インストール、構成 | |
カスタムデータサービスの開発 | |
Sun Cluster 3.1 8/05 ソフトウェアにアップグレードします。 |
第 5 章「Sun Cluster ソフトウェアのアップグレード」 「Solstice DiskSuite または Solaris Volume Manager ソフトウェアのインストールと構成」または「SPARC: VxVM ソフトウェアのインストールと構成」 ボリューム管理ソフトウェアのマニュアル |
この節では、クラスタ環境への Solaris ソフトウェアのインストールを計画するうえでのガイドラインを説明します。Solaris ソフトウェアの詳細については、Solaris のインストールマニュアルを参照してください。
Solaris ソフトウェアは、ローカルの CD-ROM から、あるいはJumpStartTM によるインストール方法でネットワークインストールサーバーからインストールできます。また Sun Cluster では、JumpStart インストール方法を使用して、Solaris OS と Sun Cluster ソフトウェアを同時にインストールするカスタマイズ方法もあります。複数のクラスタノードをインストールする場合は、ネットワークインストールを検討してください。
scinstall JumpStart インストール方法の詳細については、「Solaris と Sun Cluster ソフトウェアをインストールする (JumpStart)」を参照してください。Solaris の標準的なインストール方法の詳細については、Solaris のインストールマニュアルを参照してください。
Solaris OS の以下の機能は、Sun Cluster 構成ではサポートされません。
Sun Cluster 3.1 8/05 ソフトウェアは非大域ゾーンをサポートしません。Sun Cluster ソフトウェアとクラスタが管理するソフトウェアはすべて、ノードの大域ゾーンだけにインストールする必要があります。クラスタ関連のソフトウェアを非大域ゾーンにインストールしないでください。さらに、すべてのクラスタ関連のソフトウェアは、あとでクラスタノードに作成する非大域ゾーンに伝達しないようにインストールする必要があります。詳細は、『Solaris のシステム管理 (Solaris コンテナ : 資源管理と Solaris ゾーン)』の「パッケージを大域ゾーンだけに追加する」を参照してください。
Solaris インタフェースグループ機能は、Sun Cluster 構成ではサポートされません。Solaris のインタフェースグループ機能は、Solaris ソフトウェアのインストール中にデフォルトで無効に設定されます。Solaris インタフェースグループ機能は有効にしないでください。Solaris インタフェースグループの詳細については、 ifconfig(1M)のマニュアルページを参照してください。
省電力のための自動シャットダウンは、Sun Cluster 構成ではサポートされないため、有効にしないでください。詳細については、pmconfig(1M) と power.conf(4) のマニュアルページを参照してください。
Sun Cluster ソフトウェアは、Extensible Firmware Interface (EFI) ディスクラベルをサポートしません。
Sun Cluster ソフトウェアは、Solaris IP Filter によるフィルタリングをサポートしません。Solaris IP Filter による STREAMS autopush(1M) 機構の使用は、Sun Cluster ソフトウェアによるこの機構の使用と衝突します。
Sun Cluster 3.1 8/05 ソフトウェアには少なくとも End User Solaris ソフトウェアグループが必要です。ただし、クラスタ構成の他のコンポーネントによっては、独自の Solaris ソフトウェアが必要となる場合があります。どの Solaris ソフトウェアグループをインストールするかを決定する際には、次の点を考慮してください。
使用するサーバーのマニュアルを参照し、Solaris ソフトウェアの必要条件を確認してください。たとえば、Sun EnterpriseTM 10000 サーバーには、Entire Solaris Software Group Plus OEM Support が必要です。
SPARC ベースのクラスタでのみ使用可能な SCI-PCI アダプタまたは Remote Shared Memory Application Programming Interface (RSMAPI) を使用する予定の場合は、RSMAPI ソフトウェアパッケージ (SUNWrsm と SUNWrsmo、さらに、Solaris 8 または Solaris 9 OS の場合は、SUNWrsmx と SUNWrsmox) をインストールしてください。RSMAPI ソフトウェアパッケージは、一部の Solaris ソフトウェアグループのみに含まれます。たとえば、Developer Solaris ソフトウェアグループは、RSMAPI ソフトウェアパッケージを含みますが、End User Solaris ソフトウェアグループは、このパッケージを含みません。
インストールするソフトウェアグループが、RSMAPI ソフトウェアパッケージを含まない場合は、RSMAPI ソフトウェアパッケージを手動でインストールしてから、Sun Cluster ソフトウェアをインストールしてください。手動でソフトウェアパッケージをインストールするには pkgadd(1M) コマンドを使用します。RSMAPI の使用方法については、Solaris 8 セクション (3RSM) のマニュアルページを参照してください。
End User Solaris ソフトウェアグループに含まれていないほかの Solaris ソフトウェアパッケージのインストールが必要になる場合があります。Apache HTTP サーバパッケージがその例です。ORACLE® などの Sun 以外のソフトウェアの場合も、追加の Solaris ソフトウェアパッケージが必要になる場合があります。Solaris ソフトウェアの必要条件については、各製品のマニュアルを参照してください。
Solaris ソフトウェアパッケージを手動でインストールしなくてすむように Entire Solaris Software Group Plus OEM Support をインストールしてください。
適切な 「ローカルファイルシステム配置のワークシート」に、次の情報を追加してください。
Solaris OS をインストールするときは、必要な Sun Cluster パーティションを作成し、すべてのパーティションが各領域の最小必要条件を満たすようにします。
スワップ –swap 空間は、Solaris と Sun Cluster ソフトウェアを合わせて必ず 750M バイト以上を割り当てます。最適な結果を得るには、Solaris OS に必要とされるスワップに少なくとも 512M バイトを Sun Cluster ソフトウェア用に追加します。さらに、クラスタノード上で実行されるアプリケーションが必要とする追加の swap を割り当てます。
追加の swap ファイルを作成する予定の場合は、広域デバイス上に swap ファイルを作成しないでください。ローカルディスクだけをノードの swap デバイスとして使用します。
/globaldevices –scinstall(1M) ユーティリティーが広域デバイスのために使用する 512M バイトのファイルシステムを作成します。
ボリュームマネージャー – ボリュームマネージャーが使用できるように、ディスクの終端のスライス (スライス 7) に 20M バイトのパーティションを作成します。クラスタで VERITAS Volume Manager (VxVM) を使用しており、ルートディスクをカプセル化する予定の場合は、VxVM で使用できるように、2 つの未使用スライスを用意します。
Solaris OS を対話的にインストールする場合は、上記の必要条件を満たすためにパーティションをカスタマイズする必要があります。
追加のパーティションを計画する際の情報については、次のガイドラインを参照してください。
Solaris OS を実行するほかのシステムと同様、ルート (/)、/var、/usr、/opt の各ディレクトリは、別個のファイルシステムとして構成できます。または、ルート (/) ファイルシステムにすべてのディレクトリを含めることもできます。次に、Sun Cluster 構成でのルート (/), /var, /usr、/opt の各ディレクトリのソフトウェアの内容を示します。パーティション分割案を計画するときは、次の情報を検討してください。
ルート (/) – Sun Cluster ソフトウェア自体が、ルート (/) ファイルシステム上に占有する領域は、40M バイト未満です。Solstice DiskSuite または Solaris Volume Manager ソフトウェアが必要とする領域は 5M バイト未満、VxVM ソフトウェアは 15M バイト未満です。十分な追加領域と i ノード容量を構成するには、一般的にルート (/) ファイルシステムに割り当てる容量に、100M バイト以上を追加します。この領域は、ブロック特殊デバイスと文字特殊デバイスの両方を作成するために、ボリューム管理ソフトウェアによって使用されます。クラスタ内に多数の共有ディスクがある場合は、特に、十分な領域を割り当てる必要があります。
/var – Sun Cluster ソフトウェアは、インストール時には /var ファイルシステム領域をわずかしか占有しません。ただし、ログファイル用に十分な領域を別途用意しておく必要があります。また、クラスタ化されたノードでは、標準的なスタンドアロンサーバーよりも、ログに記録されるメッセージが増えることがあります。したがって、/var ファイルシステムには最低でも 100M バイトの余裕を設けてください。
/usr – Sun Cluster ソフトウェアは、/usr ファイルシステムの 25M バイト未満の領域を占有します。Solstice DiskSuite または Solaris Volume Manager および VxVM ソフトウェアが必要とする領域は、それぞれ 15M バイト未満です。
/opt – Sun Cluster フレームワークソフトウェアは、/opt ファイルシステムの 2M バイト未満の領域を使用します。ただし、各 Sun Cluster データサービスで 1M バイトから 5M バイトが使用されることがあります。Solstice DiskSuite または Solaris Volume Manager ソフトウェアは /opt ファイルシステムの領域をまったく使用しません。VxVM ソフトウェアは、そのパッケージとツールをすべてインストールした場合、40M バイト以上を使用することがあります。
また、ほとんどのデータベースおよびアプリケーションソフトウェアは、/opt ファイルシステムにインストールされます。
SPARC:Sun Management Center ソフトウェアを使用してクラスタを監視する場合、Sun Management Center エージェントと Sun Cluster モジュールパッケージをサポートするために、ノードごとに 25M バイトの追加の空間が必要です。
Sun Cluster ソフトウェアでは、広域デバイスの管理に使用するローカルディスクのいずれかに、特殊なファイルシステムを別途用意しておく必要があります。このファイルシステムは、後にクラスタファイルシステムとしてマウントされます。このファイルシステムには、scinstall(1M) コマンドで認識されるデフォルトの名前 /globaldevices を付けます。
scinstall コマンドは、あとでファイルシステム /global/.devices/node@nodeid の名前を変更します。 ここで、nodeid は、クラスタメンバーになったときにノードに割り当てられる番号を表します。元の /globaldevices マウントポイントは、削除されます。
/globaldevices ファイルシステムには、ブロック特殊デバイスと文字特殊デバイスの両方を作成するための十分な領域と十分な i ノード容量が必要です。このガイドラインは、クラスタ内に多数のディスクがある場合に、特に重要です。通常のクラスタ構成の場合、ファイルシステムのサイズは 512M バイトで十分です。
Solstice DiskSuite または Solaris Volume Manager ソフトウェアを使用する場合、状態データベースの複製の作成に使用できるように、ルートディスク上にスライスを別途用意しておく必要があります。つまり、各ローカルディスク上に、複製のためのスライスを別に用意します。ただし 1 つのノードにローカルディスクが 1 つしかない場合は、Solstice DiskSuite または Solaris Volume Manager ソフトウェアが正しく動作するように、同じスライス内に 3 つの状態データベースの複製を作成する必要が生じることがあります。詳細については、Solstice DiskSuite または Solaris Volume Manager のマニュアルを参照してください。
SPARC: VxVM (VxVM) を使用しており、ルートディスクをカプセル化する予定の場合は、VxVM で使用できるように、2 つの未使用スライスを用意します。さらに、ディスクの始点または終点に若干の割り当てられていない空き領域が必要になります。ルートディスクのカプセル化については、VxVM のマニュアルを参照してください。
表 1–2 に、750M バイト未満の物理メモリーを持つクラスタノードのパーティション分割案を示します。この案では、End User Solaris ソフトウェアグループ、Sun Cluster ソフトウェア、および Sun Cluster HA for NFS データサービスをインストールします。ディスク上の最後のスライスであるスライス 7 には、ボリューム管理ソフトウェア用に若干の量を割り当てます。
この配置は、Solstice DiskSuite または Solaris Volume Manager ソフトウェアまたは VxVM ソフトウェアの使用を意図したものです。Solstice DiskSuite または Solaris Volume Manager ソフトウェアを使用する場合は、状態データーベースの複製用にスライス 7 を使用します。VxVM を使用する場合は、スライスに 0 の長さを割り当てることで、後でスライス 7 を解放できます。この配置によって 必要な 2 つの空きスライス 4 と 7 が確保され、ディスクの終端に未使用領域が確保されます。
表 1–2 ファイルシステム割り当ての例
スライス |
内容 |
割り当てサイズ |
説明 |
---|---|---|---|
0 |
/ |
6.75GB |
スライス 1 から 7 にディスク容量を割り当てた後の、残りの空き容量。Solaris OS、Sun Cluster ソフトウェア、データサービスソフトウェア、ボリューム管理ソフトウェア、Sun Management Center エージェントおよび Sun Cluster モジュールエージェントパッケージ、ルートファイルシステム、データーベースおよびアプリケーションソフトウェアに使用します。 |
1 |
swap |
1GB |
512M バイト - Solaris OS 用 512M バイト - Sun Cluster ソフトウェア用 |
2 |
オーバーラップ |
8.43GB |
ディスク全体 |
3 |
/globaldevices |
512MB |
このスライスは、Sun Cluster ソフトウェアによって後で別のマウントポイントに割り当てられ、クラスタファイルシステムとしてマウントします。 |
4 |
未使用 |
- |
VxVM でルートディスクをカプセル化するための空きスライスとして確保します。 |
5 |
未使用 |
- |
- |
6 |
未使用 |
- |
- |
7 |
ボリューム管理ソフトウェア |
20MB |
Solstice DiskSuite または Solaris Volume Manager ソフトウェアにより状態データベースの複製用に使用するか、VxVM によりスライス解放後のインストールに使用します。 |
この節では、Sun Cluster ソフトウェアのインストールと構成の計画と、以下のコンポーネントの準備について説明します。
Sun Cluster コンポーネントの詳細については、『Sun Cluster の概要 (Solaris OS 版)』と『Sun Cluster の概念 (Solaris OS 版)』を参照してください。
ソフトウェアのインストールを開始する前に、必要なすべてのライセンス証明書を用意しておきます。Sun Cluster ソフトウェアにはライセンス証明書は必要ありませんが、Sun Cluster ソフトウェアがインストールされる各ノードが、Sun Cluster ソフトウェア使用許諾契約書に準拠している必要があります。
ボリューム管理ソフトウェアやアプリケーションソフトウェアのライセンス必要条件については、該当する製品のインストールマニュアルを参照してください。
各ソフトウェア製品をインストールした後に、必要なパッチもインストールする必要があります。
必須パッチの最新リストについては、『Sun Cluster 3.1 8/05 ご使用にあたって (Solaris OS 版)』の「パッチと必須ファームウェアのレベル」を参照するか、ご購入先にお問い合わせください。
パッチを適用するうえでの一般的なガイドラインと手順については、『Sun Cluster のシステム管理 (Solaris OS 版)』の第 8 章「Sun Cluster ソフトウェアとファームウェアのパッチ」を参照してください。
クラスタ構成によっては、Sun Cluster のさまざまなコンポーネントに多数の IP アドレスを設定する必要があります。クラスタ構成内の各ノードには、サブネットの同じセットのパブリックネットワーク接続が少なくとも 1 つ必要です。
次の表に、IP アドレスの割り当てが必要なコンポーネントの一覧を示します。これらの IP アドレスを次の場所に追加してください。
使用する任意のネームサービス
各クラスタノードのローカル /etc/inet/hosts ファイル (Solaris ソフトウェアをインストールしたあと)
Solaris 10 の場合、各クラスタノードのローカル /etc/inet/iphosts ファイル (Solaris ソフトウェアをインストールしたあと)
IP アドレスの計画の詳細については、『Solaris のシステム管理 (第 3 巻)』(Solaris 8) または『Solaris のシステム管理 (IP サービス)』 (Solaris 9 または Solaris 10) を参照してください。
IP ネットワークマルチパス をサポートするテスト IP アドレスの詳細については、『IP ネットワークマルチパスの管理』を参照してください。
すべてのクラスタノードにはコンソールアクセスが必要です。クラスタコントロールパネル (CCP) ソフトウェアを管理コンソールにインストールする場合、クラスタノードと通信するために使用されるコンソールアクセスデバイスのホスト名を提供する必要があります。
管理コンソールとクラスタノードコンソール間の通信には、端末集配信装置 (コンセントレータ) を使用します。
Sun Enterprise 10000 サーバーは、端末集配信装置の代わりにシステムサービスプロセッサ (SSP) を使用します。
Sun FireTM サーバは、端末集配信装置の代わりにシステムコントローラを使用します。
コンソールアクセスの詳細については、『Sun Cluster の概念 (Solaris OS 版)』を参照してください。
論理アドレスを計画する際は、次の点を考慮してください。
論理アドレスを使用する各データサービスリソースグループには、論理アドレスへのアクセス元となる各パブリックネットワークに指定されているホスト名を設定する必要があります。
IP アドレスは、論理アドレスをホストしている IP ネットワークマルチパス グループが使用するテスト IP アドレスと同じサブネット上にある必要があります。
詳細については、『Sun Cluster データサービスの計画と管理 (Solaris OS 版)』を参照してください。データサービスとリソースの詳細については、『Sun Cluster の概要 (Solaris OS 版)』と『Sun Cluster の概念 (Solaris OS 版)』も参照してください。
パブリックネットワークはクラスタの外部と通信します。パブリックネットワーク構成を計画する際は、次のことを考慮してください。
パブリックネットワークとプライベートネットワーク (クラスタインターコネクト) には、別のアダプタを使用するか、または、タグ付き VLAN 可能なアダプタと VLAN 可能なスイッチにタグ付き VLAN を構成して、プライベートインターコネクトとパブリックネットワークの両方で同じアダプタを使用できるようにする必要があります。
すべてのクラスタノードに接続されているパブリックネットワークが少なくとも 1 つ存在する必要があります。
Sun Cluster ソフトウェアは、パブリックネットワーク上の IPv4 アドレスをサポートします。
Sun Cluster ソフトウェアは、パブリックネットワーク上の IPv6 アドレスをサポートします (ただし、次の条件または制限があります)。
プライベートインターコネクトが SCI アダプタを使用する場合、Sun Cluster ソフトウェアは、パブリックネットワーク上の IPv6 アドレスをサポートしません。
Solaris 9 OS と Solaris 10 OS の場合、Sun Cluster ソフトウェアはフェイルオーバーとスケーラブルの両方のデータサービスで IPv6 アドレスをサポートします。
Solaris 8 OS の場合、Sun Cluster ソフトウェアはフェイルオーバーデータサービスだけで IPv6 アドレスをサポートします。
各パブリックネットワークアダプタは IP ネットワークマルチパス (IP ネットワークマルチパス) グループに属する必要があります。詳細なガイドラインについては、「IP ネットワークマルチパスグループ」を参照してください。
すべてのパブリックネットワークアダプタは、ローカル MAC アドレス割り当てをサポートするネットワークインタフェースカード (NIC) を使用する必要があります。ローカル MAC アドレス割り当ては、IP ネットワークマルチパス の要件です。
local-mac-address? 変数は、イーサネットアダプタのデフォルト値 true を使用する必要があります。Sun Cluster ソフトウェアは、イーサネットアダプタの local-mac-address? の値として false をサポートしません。この必要条件は、local-mac-address? の値として false を必要とした Sun Cluster 3.0 から変更されています。
Sun Cluster の Solaris 9 または Solaris 10 OS へのインストールの際、scinstall ユーティリティーは、各パブリックネットワークアダプタに対して単一アダプタ IP ネットワークマルチパス グループを自動的に構成します。これらのバックアップグループをインストール後に修正するには、『Solaris のシステム管理 (IP サービス)』(Solaris9 または Solaris 10) の「IPMP の管理 (手順)」で説明されている手順を実行します。
Sun Cluster 構成は、Solaris IP Filter によるフィルタリングをサポートしません。
パブリックネットワークアダプタのバックアップグループの計画のガイドラインについては、「IP ネットワークマルチパスグループ」を参照してください。パブリックネットワークインタフェースの詳細については、『Sun Cluster の概念 (Solaris OS 版)』を参照してください。
「パブリックネットワークのワークシート」に次の計画情報を追加してください。
ネットワークアダプタフェイルオーバー (NAFO) グループに代わるインターネットプロトコル (IP) ネットワークマルチパスグループは、パブリックネットワークアダプタの監視とフェイルオーバーを提供し、 ネットワークアドレスリソースの基盤構造です。マルチパスグループは、 2 つ以上のアダプタで構成されている場合に、高い可用性を提供します。1 つのアダプタで障害が発生しても、障害のあるアダプタ上のすべてのアドレスが、マルチパスグループ内の別のアダプタにフェイルオーバーされるからです。このようにして、マルチパスグループのアダプタは、マルチパスグループ内のアダプタが接続するサブネットへのパブリックネットワーク接続を維持します。
次のような状況では、Sun Cluster ソフトウェアをインストールする際に、IP ネットワークマルチパス グループを手作業で構成する必要があります。
Sun Cluster ソフトウェアを Solaris 8 OS にインストールする場合は、IP ネットワークマルチパス グループ内のすべてのパブリックネットワークアダプタを、テスト IP アドレスを使用して、手作業で構成する必要があります。
SunPlex Installer を使用して Sun Cluster ソフトウェアを Solaris 9 または Solaris 10 OS にインストールする場合、いくつか (すべてではない) のパブリックネットワークアダプタを手作業で IP ネットワークマルチパス グループに構成する必要があります。
Sun Cluster ソフトウェアを Solaris 9 または Solaris 10 OS にインストールする場合、SunPlex Installer を使用する場合を除いて、scinstall ユーティリティーはすべてのパブリックネットワークアダプタを自動的に、単一アダプタ IP ネットワークマルチパス グループとして構成します。
マルチパスグループを計画する際は、次の点を考慮してください。
各パブリックネットワークアダプタは、マルチパスグループに属している必要があります。
次の種類のマルチパスグループでは、グループ内の各アダプタにテスト IP アドレスを設定する必要があります。
Solaris 8 OS では、すべてのマルチパスグループで、各アダプタにテスト IP アドレスを設定する必要があります。
Solaris 9 または Solaris 10 OS では、複数のアダプタがあるマルチパスグループでは、(各アダプタに) テスト IP アドレスを設定する必要があります。マルチパスグループにアダプタが 1 つしかない場合は、テスト IP アドレスを設定する必要はありません。
同一マルチパスグループ内のすべてのアダプタ用のテスト IP アドレスは、単一の IP サブネットに属する必要があります。
テスト IP アドレスは高可用性ではないため、通常のアプリケーションでは使用しないようにします。
/etc/default/mpathd ファイルで、TRACK_INTERFACES_ONLY_WITH_GROUPS の値は yes でなければなりません。
マルチパスグループの名前に、必要条件はありません。
IP ネットワークマルチパス 用の Solaris ドキュメントに示されている手続き、ガイドライン、および制限事項のほとんどは、クラスタ環境と非クラスタ環境のどちらであるかにかかわらず同じです。したがって、IP ネットワークマルチパス については、適切な Solaris ドキュメントを参照してください。
Solaris 8 OS の場合は、『IP ネットワークマルチパスの管理』の「ネットワークマルチパスの管理」を参照してください。
Solaris 9 OS の場合は、『Solaris のシステム管理 (IP サービス)』の第 28 章「IP ネットワークマルチパスの管理 (手順)」を参照してください。
Solaris 10 OS の場合は、『Solaris のシステム管理 (IP サービス)』の第 30 章「IPMP の管理 (手順)」を参照してください。
また、『Sun Cluster の概要 (Solaris OS 版)』の「IP ネットワークマルチパスグループ」と『Sun Cluster の概念 (Solaris OS 版)』も参照してください。
Sun Cluster 構成で NFS (Network File System) を使用する場合は、次の点に注意してください。
Sun Cluster ノードは、同じクラスタ内のノード上でマスターされて Sun Cluster HA for NFS でエクスポートされるファイルシステムの NFS クライアントになることはできません。このような Sun Cluster HA for NFS のクロスマウントは禁止されています。クラスタノード間でファイルを共有するときは、クラスタファイルシステムを使用してください。
クラスタ上でローカルに動作しているアプリケーションは、NFS 経由でエクスポートされているファイルシステム上にあるファイルをロックしてはいけません。このようなファイルをロックすると、ローカルのブロック (たとえば、flock(3UCB) や fcntl(2)) によって、ロックマネージャー (lockd(1M)) が再起動できなくなる可能性があります。再起動中、リモートクライアントの再要求によって、ブロックされているローカルのプロセスがロックされる可能性があります。これにより、予期せぬ動作が発生する可能性があります。
Sun Cluster ソフトウェアは、share_nfs(1M) コマンドの次のオプションをサポートしません。
secure
sec=dh
しかし、Sun Cluster ソフトウェアは、NFS の次のセキュリティー機能をサポートします。
NFS のセキュアポートの使用。 NFS のセキュアポートを有効にするには、クラスタノード上の /etc/system ファイルにエントリ nfssrv:nfs_portmon=1 を追加します。
NFS による Kerberos の使用。詳細については、『Sun Cluster Data Service for Network File System (NFS) ガイド (Solaris OS 版)』の「Kerberos V5 を使用した Sun Cluster HA for NFS の保護」を参照してください。
Sun Cluster 構成の以下のサービスの制限を守ってください。
クラスタノードをルーター(ゲートウェイ)として構成しないでください。システムがダウンした際にクライアントが代替ルーターを探すことができず、回復できません。
クラスタノードを NIS または NIS+ サーバとして構成しないでください。NIS または NIS+ 用に使用できるデータサービスはありません。ただしクラスタノードを NIS や NIS+ のクライアントにすることは可能です。
Sun Cluster を高可用性起動の提供や、クライアントシステムへのサービスのインストールを行うように構成しないでください。
RPC サービスをクラスタ上にインストールする場合、このサービスでは以下のプログラム番号を使用しないでください。
100141
100142
100248
これらの番号は、Sun Cluster デーモン rgmd_receptionist 、fed、および pmfd 用に予約されています。
これらのプログラム番号を使用する RPC サービスをインストールした場合は、別のプログラム番号を使用するように変更する必要があります。
Sun Cluster ソフトウェアは、クラスタノード上でクラスをスケジューリングする優先度の高いプロセスの実行をサポートしません。クラスタノード上で以下のいずれかの種類のプロセスを実行しないでください。
優先度の高いタイムシェアリングスケジューリングクラスで実行されるプロセス
リアルタイムスケジューリングクラスで実行されるプロセス
Sun Cluster 3.1 8/05 ソフトウェアでは、リアルタイムスケジューリングクラスを必要としないカーネルスレッドが使用されます。通常以上の優先度で動作するタイムシェアリングプロセスや、リアルタイムプロセスがあると、Sun Cluster カーネルスレッドが必要とする CPU サイクルがそれらのプロセスによって奪われることがあります。
この節では、構成する Sun Cluster コンポーネントのガイドラインについて説明します。
適切な構成計画ワークシートに、次の情報を追加してください。
クラスタ名は、Sun Cluster の構成の際に指定します。クラスタ名は、インストール環境全体で一意にする必要があります。
ノード名とは、Solaris OS のインストール中にマシンに割り当てる名前のことです。Sun Cluster の構成中に、クラスタとしてインストールするすべてのノード名を指定します。単一ノードのクラスタインストールでは、デフォルトのクラスタ名はノード名になります。
単一ノードのクラスタの場合、プライベートネットワークを構成する必要はありません。
Sun Cluster ソフトウェアは、ノード間の内部通信にプライベートネットワークを使用します。Sun Cluster 構成では、プライベートネットワーク上のクラスタインターコネクトへの接続が少なくとも 2 つ必要です。クラスタの最初のノードに Sun Cluster ソフトウェアを構成するときに、プライベートネットワークアドレスとネットマスクを指定します。デフォルトのプライベートネットワークアドレス (172.16.0.0) とネットマスク (255.255.0.0) をそのまま使用しても、別のプライベートネットワークアドレスとネットマスクを入力してもかまいません。
インストールユーティリティー (scinstall、SunPlex Installer または JumpStart) が処理を完了し、クラスタを確立した後で、プライベートネットワークアドレスとネットマスクを変更することはできません。別のプライベートネットワークアドレスとネットマスクを使用するには、クラスタソフトウェアをいったんアンインストール後、再インストールしてください。
デフォルト以外のプライベートネットワークアドレスを指定する場合は、アドレスは次の条件を満たす必要があります。
デフォルトのアドレス 172.16.0.0 と同じように、アドレスの最後の 2 つのオクテットに 0 を使用する必要があります。Sun Cluster ソフトウェアは、最後にソフトウェア自身が使用する 16 ビットのアドレス空間が必要です。
アドレスは、RFC 1918 がプライベートネットワークで使用するために予約しているアドレスのブロックに含まれる必要があります。InterNIC に問い合わせて RFC のコピーを入手するか、http://www.rfcs.org でオンラインで RFC を表示できます。
複数のクラスタ上で同じプライベートネットワークアドレスを使用できます。プライベート IP ネットワークアドレスは、クラスタ外からはアクセスできません。
Sun Cluster ソフトウェアは、プライベートインターコネクト用の IPv6 アドレスをサポートしません。IPv6 アドレスを使用するスケーラブルサービスをサポートするために、システムはプライベートネットワークアダプタ上で IPv6 アドレスを構成します。しかし、これらの IPv6 アドレスは、プライベートネットワークでのノード間通信では使用されません。
プライベートネットワークの詳細については、『Solaris のシステム管理 (第 3 巻)』(Solaris 8) の「TCP/IP ネットワークの計画」または『Solaris のシステム管理 (IP サービス)』(Solaris 9 または Solaris 10) の「TCP/IP ネットワークの計画 (手順)」を参照してください。
プライベートホスト名とは、プライベートネットワークインタフェースを介したノード間の通信に使用される名前のことです。プライベートホスト名は、Sun Cluster の構成中に自動的に作成されます。これらのプライベートホスト名は、clusternodenodeid -priv という命名規則に従います (nodeid は、内部ノード ID の数値です)。ノード ID 番号は、Sun Cluster の構成中に各ノードがクラスタメンバーとなる際に、自動的に各ノードに割り当てられます。クラスタの構成後に、scsetup(1M) ユーティリティーを使用してプライベートホスト名を変更できます。
単一ノードのクラスタの場合、クラスタインターコネクトを構成する必要はありません。ただし、単一ノードのクラスタ構成に後でノードを追加する可能性がある場合は、将来の使用のためにクラスタインターコネクトを構成することもできます。
クラスタインターコネクトは、クラスタノード間のプライベートネットワーク通信にハードウェアパスを提供します。各インターコネクトは、次のいずれかの方法で接続されるケーブルで構成されます。
2 つのトランスポートアダプタの間
トランスポートアダプタとトランスポート接続点の間
2 つのトランスポート接続点の間
Sun Cluster の構成中に、2 つのクラスタインターコネクトに対して以下の構成情報を指定します。クラスタの確立後に、scsetup(1M) ユーティリティーを使用して、追加のプライベートネットワーク接続を構成できます。
クラスタインターコネクトハードウェアのガイドラインについては、『Sun Cluster 3.0-3.1 Hardware Administration Manual for Solaris OS』の「Interconnect Requirements and Restrictions」を参照してください。クラスタインターコネクトの一般的な情報については、『Sun Cluster の概要 (Solaris OS 版)』の「クラスタインターコネクト」と『Sun Cluster の概念 (Solaris OS 版)』を参照してください。
ネットワークインタフェースのポートなどのトランスポートアダプタ用に、トランスポートアダプタ名とトランスポートの種類を指定します。構成が 2 ノードクラスタの場合は、インターコネクトを直接接続 (アダプタからアダプタ) するか、トランスポート接続点を使用するかも指定します。
以下のガイドラインと制限を考慮してください。
IPv6 - Sun Cluster ソフトウェアは、プライベートインターコネクト経由の IPv6 通信をサポートしません。
ローカル MAC アドレスの割り当て - すべてのプライベートネットワークアダプタは、ローカル MAC アドレスの割り当てをサポートするネットワークインタフェースカード (NIC) を使用する必要があります。リンクローカル IPv6 アドレスは IPv6 パブリックネットワークアドレスをサポートするためにプライベートネットワークアダプタに必要なものですが、このアドレスはローカル MAC アドレスから導き出されます。
タグ付き VLAN アダプタ – Sun Cluster ソフトウェアは、プライベートインターコネクトとパブリックネットワーク間で 1 つのアダプタを共有するために、タグ付き VLAN (Virtual Local Area Network) をサポートします。プライベートインターコネクト用にタグ付き VLAN アダプタを構成するには、次のうちの 1 つの方法を使用して、アダプタ名とその VLAN ID (VID) を指定します。
通常のアダプタ名 (デバイス名 + インスタンス番号または物理接続点 (PPA) を指定します。たとえば、Cassini Gigabit Ethernet アダプタのインスタンス 2 の名前は ce2 になります。scinstall ユーティリティーで「このアダプタが共有仮想 LAN の一部であるかどうか」をたずねられた場合は、yes と答えて、そのアダプタの VID 番号を指定します。
アダプタの VLAN 仮想デバイス名を指定します。この名前は、アダプタ名 + VLAN インスタンス番号です。VLAN インスタンス番号は、公式 (1000*V)+N から導き出されます (V は VID 番号、N は PPA です)。
たとえば、アダプタ ce2 上の VID 73 の場合、VLAN インスタンス番号は (1000*73)+2 として計算されます。したがって、このアダプタ名を ce73002 と指定して、共有仮想 LAN の一部であることを示します。
VLAN の詳細については、『Solaris 9 9/04 Sun Hardware Platform Guide』の「Configuring VLANs」を参照してください。
SBus SCI アダプタ – SBus Scalable Coherent Interface (SCI) は、クラスタインターコネクトとしてはサポートされていません。ただし、SCI–PCI インタフェースはサポートされています。
論理ネットワークインタフェース - 論理ネットワークインタフェースは、Sun Cluster ソフトウェアで使用するために予約されています。
特定のトランスポートアダプタに関する詳細については、scconf_trans_adap_*(1M) のマニュアルページを参照してください。
ネットワークスイッチなどのトランスポート接続点を使用する場合は、各インターコネクトのトランスポート接続点名を指定します。デフォルト名の switchN (N は、構成中に自動的に割り当てられた数) を使用するか、他の名前を作成します。例外は Sun Fire Link アダプタで、このアダプタでは、接続点名 sw-rsm N を使用する必要があります。Sun Fire Link アダプタを指定したあと、scinstall ユーティリティーは自動的に、この接続点名を使用します (wrsmN)。
また、接続点のポート名を指定するか、デフォルト名をそのまま使用します。デフォルトのポート名は、ケーブルのアダプタ側が接続されているノードの内部ノード ID 番号と同じです。ただし、SCI-PCI などの特定の種類のアダプタではデフォルトのポート名は使用できません。
3 つ以上のノードを持つクラスタでは、必ずトランスポート接続点を使用してください。クラスタノード間の直接接続は、2 ノードクラスタの場合だけサポートされています。
2 ノードクラスタが直接接続されている場合でも、インターコネクトのトランスポート接続点を指定できます。
トランスポート接続点を指定すると、その後クラスタに別のノードを追加しやすくなります。
Sun Cluster 構成では、定足数 (quorum) デバイスを使用して、データとリソースの整合性を保持します。クラスタがノードとの接続を一時的に失っても、定足数デバイスによって、クラスタノードがクラスタに再結合しようとしたときの amnesia や split-brain といった問題を防止できます。2 ノードクラスタの Sun Cluster インストール中、scinstall ユーティリティーは自動的に定足数デバイスを構成します。定足数デバイスは利用可能な共有ストレージディスクから選択されます。scinstall ユーティリティーは、利用可能なすべての共有記憶ディスクについて、定足数デバイスとしてサポートされていると仮定します。インストール後は、 scsetup(1M) ユーティリティーを使用して、定足数デバイスを追加で構成することもできます。
単一ノードのクラスタの場合、定足数 (quorum) を構成する必要はありません。
クラスタ構成に Sun 以外の共有記憶装置が含まれており、その記憶装置の定足数デバイスとしての使用がサポートされていない場合、scsetup ユーティリティーを使用して、定足数を手作業で構成する必要があります。
定足数デバイスを計画する際は、次の点を考慮してください。
最小数 – 2 ノードクラスタは、少なくとも 1 つの定足数デバイスを持つ必要があり、この定足数デバイスは、共有ディスクでも Network Appliance NAS デバイスでもかまいません。その他のトポロジの場合は、定足数デバイスはオプションです。
奇数の規則 – 複数の定足数デバイスが、2 ノードクラスタ (つまり、定足数デバイスに直接接続されているノードのペア) で構成されている場合、奇数個の定足数デバイスを構成します。このように構成することで、定足数デバイスが完全に独立した障害パスを持つようになります。
接続 – 定足数デバイスは 2 つ以上のノードに接続する必要があります。
定足数デバイスの詳細については、『Sun Cluster の概念 (Solaris OS 版)』の「定足数と定足数デバイス」と『Sun Cluster の概要 (Solaris OS 版)』の「定足数デバイス」を参照してください。
この節では、広域デバイスとクラスタファイルシステムを計画するうえでのガイドラインについて説明します。
広域デバイスとクラスタファイルシステムの詳細については、『Sun Cluster の概要 (Solaris OS 版)』と『Sun Cluster の概念 (Solaris OS 版)』を参照してください。
Sun Cluster ソフトウェアは、特定のディスクレイアウトやファイルシステムサイズを必要としません。広域デバイスとクラスタファイルシステムを計画する際は、次の点を考慮してください。
ミラー化 – 広域デバイスの高可用性を実現するには、すべての広域デバイスをミラー化する必要があります。ストレージデバイスがハードウェア RAID とディスクへの冗長パスを提供する場合は、ソフトウェアミラー化を使用する必要はありません。
ディスク – ミラー化するときは、複数のディスクアレイにまたがってミラー化されるようにファイルシステムを配置してください。
可用性 – 広域デバイスの高可用性を実現するには、広域デバイスがクラスタ内の複数のノードに物理的に接続されている必要があります。複数の物理的な接続を持つ広域デバイスは、単一のノードでの障害に対応できます。物理的な接続を 1 つしか持たない広域デバイスもサポートされていますが、そのノードがダウンした場合、ほかのノードからはその広域デバイスにアクセスできなくなります。
スワップデバイス - 広域デバイス上には swap ファイルは作成しないでください。
クラスタファイルシステムを計画する際は、次の点を考慮してください。
ループバックファイルシステム (LOFS) - 次の条件が両方とも適合する場合、ループバックファイルシステム (LOFS) を使用しないでください。
Sun Cluster HA for NFS が高可用性ローカルファイルシステムに構成されている場合。
automountd デーモンが動作している場合。
これらの条件が両方とも適合する場合、LOFS を無効にして、スイッチオーバーの問題やその他の障害が発生しないようにする必要があります。これらの条件のどちらか一方だけが適合する場合、LOFS を有効にしても安全です。
LOFS と automountd デーモンの両方を有効にする必要がある場合、Sun Cluster HA for NFS がエクスポートする高可用性ローカルファイルシステムの一部であるすべてのファイルを、オートマウンタマップから削除します。
プロセスアカウンティングログファイル - プロセスアカウンティングログファイルは、クラスタファイルシステムまたは高可用性ローカルファイルシステムに置かないでください。ログファイルへの書き込みによってスイッチオーバーがブロックされ、ノードがハングします。プロセスアカウンティングログファイルを置くのは、ローカルファイルシステムだけにしてください。
通信エンドポイント - クラスタファイルシステムは、通信エンドポイントをファイルシステムの名前空間に指定する Solaris ソフトウェアのファイルシステム機能をサポートしません。
名前がクラスタファイルシステムへのパス名である UNIX ドメインソケットは作成できますが、ノードにフェイルオーバーが発生したとき、このソケットは生き残ることができません。
クラスタファイルシステム上で作成する FIFO または指定したパイプは広域でアクセスすることはできません。
したがって、ローカルノード以外のノードからfattach コマンドを使用しないでください。
「ディスクデバイスグループ構成のワークシート」に次の計画情報を追加してください。
すべてのボリューム管理ソフトウェアディスクグループを Sun Cluster ディスクデバイスグループとして構成する必要があります。このように構成することで、主ノードに障害が発生した場合でも、2 つ目のノードで多重ホストディスクをホストできるようになります。ディスクデバイスグループを計画する際は、次の点を考慮してください。
フェイルオーバー – 多重ホストディスクと、適切に構成したボリューム管理ソフトウェアデバイスをフェイルオーバーデバイスとして構成できます。ボリューム管理ソフトウェアデバイスの適切な構成には、多重ホストディスクや、ボリューム管理ソフトウェア自体の正しい設定が含まれます。この構成により、複数のポートがエクスポートしたデバイスをホストできるようになります。テープドライブ、CD-ROM、単一ポートのデバイスは、フェイルオーバーデバイスとして構成できません。
ミラー化 – ディスクをミラー化して、ディスクの障害からデータを保護する必要があります。詳細なガイドラインについては、「ミラー化に関するガイドライン」を参照してください。ミラー化の手順については、「Solstice DiskSuite または Solaris Volume Manager ソフトウェアのインストールと構成」または「SPARC: VxVM ソフトウェアのインストールと構成」、およびボリューム管理ソフトウェアのマニュアルを参照してください。
ディスクデバイスグループの詳細については、『Sun Cluster の概要 (Solaris OS 版)』の「デバイス」と『Sun Cluster の概念 (Solaris OS 版)』を参照してください。
クラスタファイルシステムのマウントポイントを計画する際は、次の点を考慮してください。
マウントポイントの場所 – 別のソフトウェア製品によって禁止されていない限り、マウントポイントは /global ディレクトリに作成します。/global ディレクトリを使用することで、広域的に使用できるクラスタファイルシステムと、ローカルファイルシステムを簡単に区別できるようになります。
SPARC:VxFS マウントの要件 – VERITAS File System (VxFS) を使用する場合、VxFS ファイルシステムは主ノードから広域的にマウントおよびマウント解除します。主ノードとは、VxFS ファイルシステムが存在するディスクをマスターするノードです。この方法では、マウントまたはマウント解除の操作が確実に成功します。二次ノードから行なった VxFS ファイルシステムのマウントやマウント解除の操作は正常に動作しないことがあります。
次の VxFS 機能は Sun Cluster 3.1 クラスタファイルシステムではサポートされません。ただし、ローカルのファイルシステムではサポートされます。
クイック入出力
スナップショット
記憶装置チェックポイント
VxFS に固有なマウントオプション
convosync (Convert O_SYNC)
mincache
qlog、delaylog、tmplog
VERITAS クラスタファイルシステム (VxVM クラスタ機能 & VERITAS クラスタサーバーが必要)
キャッシュアドバイザリは使用可能、効果が認められるのは特定のノードのみ
これ以外でも、クラスタファイルシステムでサポートされる VxFS 機能とオプションはすべて、Sun Cluster 3.1 ソフトウェアでもサポートされます。VxFS オプションがクラスタ構成でサポートされるかどうかの詳細については、VxFS のマニュアルを参照してください。
マウントポイントを入れ子にする – 通常は、クラスタファイルシステムのマウントポイントは入れ子にしないでください。たとえば、あるファイルシステムを /global/a にマウントし、別のファイルをシステムは /global/a/b にマウントするような設定は避けてください。この規則を無視すると、可用性とノードの起動順序に問題が発生することがあります。このような問題は、システムがファイルシステムの子をマウントしようとして、親マウントポイントが存在しない場合に発生します。この規則の唯一の例外は、2 つのファイルシステムのデバイスが同じ物理ノード接続を使用している場合です。同じディスク上の異なるスライスがこれに該当します。
forcedirectio - Sun Cluster ソフトウェアは、forcedirectio マウントオプションを使用してマウントされるクラスタファイルシステムからバイナリの実行をサポートしていません。
「ディスクデバイスグループ構成のワークシート」と「ボリューム管理ソフトウェア構成のワークシート」に次の計画情報を追加してください。Solstice DiskSuite または Solaris Volume Manager の場合は、「メタデバイスのワークシート (Solstice DiskSuite または Solaris Volume Manager)」にもこの計画情報を追加してください。
この節では、クラスタ構成のボリューム管理を計画する上でのガイドラインについて説明します。
Sun Cluster は、ボリューム管理ソフトウェアを使用して、ディスクをディスクデバイスグループにまとめ、1 つの単位で管理できるようにします。Sun Cluster ソフトウェアは、次の方法でインストールまたは使用する Solstice DiskSuite または Solaris Volume Manager ソフトウェアと VERITAS Volume Manager (VxVM) ソフトウェアをサポートします。
表 1–4 Sun Cluster ソフトウェアで使用がサポートされているボリューム管理ソフトウェア
ボリューム管理ソフトウェア |
要件 |
---|---|
Solstice DiskSuite または Solaris Volume Manager |
一部のノードで VxVM を使用してディスクを管理する場合でも、クラスタのすべてのノードに Solstice DiskSuite または Solaris Volume Manager ソフトウェアをインストールする必要があります。 |
クラスタのすべてのノード上に、クラスタ機能を持つ VxVM をインストールして、それらにライセンスを付与する必要があります。 |
|
クラスタ機能を持たない SPARC: VxVM |
VxVM は、VxVM が管理する記憶装置に接続されているノードにのみインストールして、それらにライセンスを付与します。 |
SPARC: Solstice DiskSuite または Solaris Volume Manager と VxVM の両方 |
これらのボリューム管理ソフトウェアを同じノードにインストールする場合は、Solstice DiskSuite または Solaris Volume Manager ソフトウェアを使用して、各ノードにローカルに接続されているディスクを管理します。ルートディスクもローカルディスクに含まれます。VxVM を使用して、すべての共有ディスクを管理します。 |
ボリューム管理ソフトウェアをインストールして構成する手順については、ボリューム管理ソフトウェアのマニュアルと、「Solstice DiskSuite または Solaris Volume Manager ソフトウェアのインストールと構成」または「SPARC: VxVM ソフトウェアのインストールと構成」を参照してください。クラスタ構成でのボリューム管理の詳細については、『Sun Cluster の概念 (Solaris OS 版)』を参照してください。
ボリューム管理ソフトウェアでディスクを構成する際は、次の一般的なガイドラインを考慮してください。
ミラー化多重ホストディスク – すべての多重ホストディスクは、複数のディスク拡張装置にまたがるようにミラー化する必要があります。多重ホストディスクのミラー化のガイドラインについては、「多重ホストディスクのミラー化」を参照してください。ストレージデバイスがハードウェア RAID とデバイスへの冗長パスを提供する場合は、ソフトウェアミラー化を使用する必要はありません。
ミラー化ルート – ルートディスクをミラー化することにより高可用性を保証できますが、このようなミラー化は必須ではありません。ルートディスクをミラー化するかどうかを判断する際のガイドラインについては、「ミラー化に関するガイドライン」を参照してください。
一意の命名 – /global/.devices/node@nodeid ファイルシステムがマウントされるデバイスとして使用されている、ローカル Solstice DiskSuite メタデバイス、ローカル Solaris ボリュームマネージャー ボリューム、または VxVM ボリュームがある可能性があります。この場合、/global/.devices/node@nodeid ファイルシステムがマウントされるローカルメタデバイスまたはローカルボリュームの名前はそれぞれ、クラスタ全体で一意である必要があります。
ノードリスト – ディスクデバイスグループの高可用性を実現するには、これらの潜在マスターのノードリストとフェイルバックポリシーを、関連付けられているリソースグループと同一にします。または、スケーラブルなリソースグループで、それと関連付けられているディスクデバイスグループ以上のノードが使用されている場合、スケーラブルなリソースグループのノードリストをディスクデバイスグループのノードリストのスーパーセットにします。ノードリストについては、『Sun Cluster データサービスの計画と管理 (Solaris OS 版)』のリソースグループ計画情報を参照してください。
多重ホストディスク – デバイスグループを構成するために使用されるすべてのデバイスを、そのデバイスグループのノードリストに構成されているすべてのノードに接続 (つまり、ポート) する必要があります。Solstice DiskSuite または Solaris Volume Manager ソフトウェアは、ディスクセットにデバイスを追加したときに、この接続を自動的に確認します。しかし、構成した VxVM ディスクグループは、ノードの特定のセットには関連を持ちません。
ホットスペアディスク – ホットスペアディスクを使用すると可用性を高めることができますが、ホットスペアディスクは必須ではありません。
ディスクの配置の推奨事項とその他の制限については、ボリューム管理ソフトウェアのマニュアルを参照してください。
Solstice DiskSuite または Solaris Volume Manager の構成を計画する際は、次の点を考慮してください。
ローカルメタデバイス名またはボリューム名 – 広域デバイスファイルシステム (/global/.devices/node@nodeid) がマウントされるローカル Solstice DiskSuite メタデバイスまたは Solaris ボリュームマネージャーボリュームの名前はそれぞれ、クラスタ全体で一意である必要があります。また、その名前はどのデバイス ID (DID) 名とも同じであってはなりません。
二重列メディエータ – 2 つの列だけで構成されていて、2 つのノードだけでマスターされている各ディスクセットでは、そのディスクセット用に Solstice DiskSuite または Solaris Volume Manager メディエータを構成する必要があります。列は、ディスク格納装置、その物理ディスク、格納装置からノードへのケーブル、インタフェースアダプタカードで構成されます。二重列メディエータの構成には、次の規則に従ってください。
各ディスクセットは、メディエータホストとして機能する 2 つのノードで構成します。
メディエータを必要とするすべてのディスクセットに対して、2 つの同じノードを使用する必要があります。これら 2 つのノードがディスクセットをマスターする必要があります。
メディエータは、列およびホストが 2 つずつという要件を満たしていないディスクセットに対しては構成できません。
詳細は、mediator(7D) のマニュアルページを参照してください。
/kernel/drv/md.conf 設定 – それぞれのディスクセットが使用するすべての Solstice DiskSuite メタデバイスまたは Solaris 9 Solaris ボリュームマネージャー ボリュームは、再構成時にあらかじめ作成されます。再構成は、/kernel/drv/md.conf ファイルに含まれる構成パラメータに基づいています。
Solaris 10 リリースで、Solaris ボリュームマネージャーはボリュームを動的に構成するように拡張されました。/kernel/drv/md.conf ファイルの nmd パラメータと md_nsets パラメータを編集する必要はありません。新しいボリュームは必要に応じて作成されます。
nmd フィールドと md_nsets フィールドは次のように変更して、Solaris 8 または Solaris 9 OS で Sun Cluster 構成をサポートする必要があります。
すべてのクラスタノードの /kernel/drv/md.conf ファイルの内容は、それぞれのノードがサービスを提供するディスクセット数に関係なく、同一である必要があります。このガイドラインに従わないと、重大な Solstice DiskSuite または Solaris Volume Manager エラーが発生し、データが失われることがあります。
md_nsets – md_nsets フィールドは、クラスタ全体のニーズを満たすために、システムに作成できるディスクセットの合計数を定義します。md_nsets の値は、クラスタ内で予想されるディスクセットの数に 1 を加えた値に設定します。Solstice DiskSuite または Solaris Volume Manager ソフトウェアは、追加のディスクセットを使用して、ローカルホスト上のプライベートディスクを管理します。
1 つのクラスタで使用できるディスクセットの最大数は 32 です。32 のうち、31 ディスクセットは一般的な使用のためで、1 ディスクセットは、プライベート ディスクの管理用に使われます。md_nsets のデフォルト値は 4 です。
nmd – nmd フィールドは、クラスタに存在すると予想されるメタデバイスまたはボリューム名の最大数を定義します。たとえば、あるクラスタの 15 番目までのディスクセットで使用されるメタデバイスまたはボリューム名の最大数が 10 であるが、16 番目のディスクセットで使用されるメタデバイスまたはボリューム名の最大数が 1000 である場合、nmd の値は 1000 以上に設定します。また、nmd の値は、各デバイス ID 名に十分な数を保証する大きさである必要があります。この値は、各ローカルメタデバイス名またはローカルボリューム名がクラスタ全体で一意になるように十分に大きな値を設定してください。
1 つのディスクセットで使用できるメタデバイス名またはボリューム名の最大数は 8192 です。nmd のデフォルト値は 128 です。
インストール時、これら 2 つのフィールドに、将来予想されるクラスタの拡張を考慮した値を設定してください。クラスタの使用を開始した後で、これらのフィールド値を増やそうとすると、時間がかかります。値を変更すると、すべてのノードで再構成再起動が必要になるからです。また、後でこれらの値を増やす場合、要求されたデバイスを作成するには、ルート (/) ファイルシステムに確保された領域では不十分である可能性が高まります。
同時に、nmd フィールドおよび md_nsets フィールドには、できる限り小さい値を使用してください。デバイスを作成していなくても nmd および md_nsets によって指定された値に基づいて、可能性のあるすべてのデバイス分をメモリー構造上に確保します。最適なパフォーマンスを得るには、nmd と md_nsets の値を、使用するメタデバイスまたはボリュームの数よりもわずかに高く維持します。
md.conf ファイルの詳細については、『Solstice DiskSuite 4.2.1 Reference Guide』(Solaris 8) の「System and Startup Files」または『Solaris ボリュームマネージャの管理』(Solaris 9 または Solaris 10) を参照してください。
VERITAS Volume Manager (VxVM) の構成を計画する際は、次の点を考慮してください。
筐体ベースのネーミング – デバイスの筐体ベースのネーミングを使用する場合、必ず、同じストレージを共有するすべてのクラスタノードで整合性のあるデバイス名を使用してください。VxVM はこのような名前を調節しないため、VxVM が各ノードから同じデバイスに同じ名前を割り当てているかどうかは、管理者が確認する必要があります。整合性のある名前を割り当てなくても、クラスタの動作に悪影響はありません。ただし、整合性のない名前だと、クラスタの管理が極端に複雑になり、構成エラーが発生し、データが失われる可能性が高くなります。
ルートディスクグループ – VxVM 4.0 で、ルートディスクグループの作成は任意です。
ルートディスクグループは次のディスク上に作成できます。
ルートディスク (カプセル化されている必要がある)
ルート以外の 1 つまたは複数のローカルディスク (カプセル化または初期化できるもの)
ルートディスクとルート以外のローカルディスクの組み合わせ
ルートディスクグループは、ノードに対してローカルである必要があります。
簡易ルートディスクグループ – 簡易ルートディスクグループ (ルートディスクの 1 つのスライスに作成される rootdg) は、Sun Cluster ソフトウェア上の VxVM ではディスクタイプとしてサポートされません。これは、VxVM ソフトウェアの一般的な制限です。
ボリューム数 – ディスクデバイスグループを作成するときに任意のディスクデバイスグループが使用できるボリュームの最大数を確認します。
ボリューム数が 1000 未満の場合は、デフォルトのミラー数を使用できます。
ボリューム数が 1000 以上の場合は、ディスクデバイスグループボリュームへのマイナー番号の割り当て方を慎重に計画する必要があります。2 つのディスクデバイスグループに、オーバーラップするマイナー番号を割り当てることはできません。
ダーティーリージョンログ – ダーティーリージョンロギング (DRL) を使用すると、ノードに障害が発生した後に、ボリュームの回復時間を短縮できます。また、DRL を使用することで入出力のスループットを低減できることがあります。
Dynamic Multipathing (DMP) – DMP だけでノードごとに共有記憶装置への複数の入出力パスを管理することはサポートされません。DMP を使用できるのは、次の構成だけです。
ノードからクラスタの共有ストレージまでの I/O パスが 1 つ。
ノードから共有クラスタストレージまでの I/O パスを 2 つ以上管理できる、サポート対象のマルチパスソリューション (Sun Traffic Manager、EMC PowerPath、Hiatchi HDLM)。
詳細については、 VxVM のインストールマニュアルを参照してください。
UFS と VxFS のクラスタファイルシステムにはロギングが必要です。この要件は、QFS 共有ファイルシステムには適用されません。Sun Cluster ソフトウェアでは、次のロギングファイルシステムがサポートされています。
Solstice DiskSuite トランスメタデバイスロギング または Solaris ボリュームマネージャートランザクションボリュームロギング – 詳細は、『Solstice DiskSuite 4.2.1 ユーザーズガイド』の第 2 章「DiskSuite オブジェクトの作成」またはSolaris ボリュームマネージャの管理の「トランザクションボリューム (概要)」を参照してください。Solaris 10 のリリースの Solaris ボリュームマネージャーでは、トランザクションボリュームは有効ではなくなりました。
SPARC:VERITAS File System (VxFS) ロギング – 詳細は、VxFS ソフトウェア付属の mount_vxfs のマニュアルページを参照してください。
次の表に、各ボリューム管理ソフトウェアでサポートされているロギングファイルシステムを示します。
表 1–5 サポートされているファイルシステムのロギング
UFS クラスタファイルシステム用に Solaris UFS ロギング と Solstice DiskSuite トランスメタデバイスロギングを使用するか、あるいは、Solaris ボリュームマネージャートランザクションボリュームロギングを使用するかを選択するときには、次の点を考慮してください。
Solaris ボリュームマネージャートランザクションボリュームロギング (旧 Solstice DiskSuite トランスメタデバイスロギング) は、将来の Solaris リリースで、Solaris OS から削除される予定です。Solaris UFS ロギング は、より低い管理条件とオーバーヘッドで、同様の機能を高いパフォーマンスで提供します。
Solaris UFS ログサイズ – Solaris UFS ロギングは、常に UFS ファイルシステム上の空き領域を使用し、ファイルシステムのサイズに応じてログを確保します。
1G バイト未満のファイルシステムの場合、ログのサイズは 1M バイトになります。
1G バイト以上のファイルシステムの場合は、ログのサイズはファイルシステム 1G バイトあたり 1M バイトになり、最大 64M バイトです。
ログメタデバイス/トランザクショナルボリューム – Solstice DiskSuiteトランスメタデバイスまたは Solaris ボリュームマネージャートランザクショナルボリュームは、UFS ロギングを管理します。トランスメタデバイスまたはトランザクショナルボリュームのロギングデバイスコンポーネントは、ミラー化とストライプ化が可能なメタデバイスまたはボリュームです。最大 1G バイトのログを作成できますが、ほとんどのファイルシステムでは 64M バイトで十分です。最小のログサイズは 1M バイトです。
この節では、クラスタ構成のミラー化を計画する際のガイドラインについて説明します。
Sun Cluster 構成内のすべての多重ホストディスクをミラー化することにより、この構成で単一デバイスの障害を許容できるようになります。Sun Cluster ソフトウェアでは、すべての多重ホストディスクは、複数の拡張装置にまたがるようにミラー化する必要があります。ストレージデバイスがハードウェア RAID とデバイスへの冗長パスを提供する場合は、ソフトウェアミラー化を使用する必要はありません。
多重ホストディスクをミラー化する際は、次のことを考慮してください。
独立したディスク拡張装置 – ミラーまたはプレックスのサブミラーはそれぞれ、異なる多重ホスト拡張装置に分散するべきです。
ディスク領域 – ミラー化すると、2 倍のディスク領域が必要になります。
3 方向のミラー化 – Solstice DiskSuite または Solaris Volume Manager ソフトウェアと VERITAS Volume Manager (VxVM) ソフトウェアは、3 方向のミラー化をサポートしています。ただし、Sun Cluster ソフトウェアが必要とするのは、2 方向のミラー化だけです。
異なるデバイスサイズ – 異なるサイズのデバイスにミラーを作成した場合、ミラーの容量は、最小のサブミラーまたはプレックスのサイズに制限されます。
多重ホストディスクの詳細については、『Sun Cluster の概要 (Solaris OS 版)』の「多重ホストディスク記憶装置」と『Sun Cluster の概念 (Solaris OS 版)』を参照してください。
「ローカルファイルシステム配置のワークシート」に次の計画情報を追加してください。
最高の可用性を得るには、ローカルディスク上のルート (/)、/usr、/var、/opt、swap をミラー化してください。VxVM では、ルートディスクをカプセル化し、生成されたサブディスクをミラー化します。ただし、Sun Cluster ソフトウェアでは、ルートディスクのミラー化を要求しません。
ルートディスクをミラー化するかどうかを決定する前に、危険性、複雑さ、コスト、保守時間の面から、ルートディスクに関するさまざまな方法を検討してください。どの構成でも有効に機能するというような汎用的なミラー化はありません。ルートをミラー化するかどうかを決定する際は、ご購入先に相談してください。
ルートディスクをミラー化する手順については、ボリューム管理ソフトウェアのマニュアルと、「Solstice DiskSuite または Solaris Volume Manager ソフトウェアのインストールと構成」または「SPARC: VxVM ソフトウェアのインストールと構成」を参照してください。
ルートディスクをミラー化するかどうかを決定する際は、次のことを考慮してください。
起動ディスク – 起動可能ルートディスクをミラーとして設定できます。主起動ディスクに障害が発生した場合に、ミラーから起動できます。
複雑さ – ルートディスクをミラー化すると、システム管理の複雑さが増します。また、シングルユーザーモードでの起動も複雑になります。
バックアップ – ルートディスクをミラー化するかどうかに関係なく、ルートは定期的にバックアップしてください。ミラー化だけで、管理上の誤りが防げるわけではありません。誤って変更あるいは削除したファイルは、バックアップによってのみ復元できます。
定足数 (Quorum) デバイス – 定足数デバイスとして構成されたディスクは、ルートディスクのミラー化に使用しないでください。
定足数 (Quorum) – Solstice DiskSuite または Solaris Volume Manager ソフトウェアの構成で、状態データベースの定足数が失われるという障害が発生した場合は、保守を行わない限り、システムを再起動できなくなります。状態データベースと状態データベースの複製の詳細については、Solstice DiskSuite または Solaris Volume Manager のマニュアルを参照してください。
独立したコントローラ – 独立したコントローラにルートディスクをミラー化するという方法は、最高の可用性を得る手段の 1 つです。
二次ルートディスク – ミラー化したルートディスクを使用すると、主ルートディスクに障害が発生しても、二次 (ミラー) ルートディスクで動作を継続できます。その後、主ルートディスクは、電源を入れ直すか、一時的な入出力エラーの後に、正常に戻ることがあります。これ以降の起動は、eeprom(1M) boot-device パラメータに指定された主ルートディスクを使用して行われます。このような場合、手作業による修復作業は発生しませんが、起動に問題がないようにドライブは動作を開始します。Solstice DiskSuite または Solaris Volume Manager ソフトウェアでは、再同期が行われます。再同期をするには、ドライブが正常に戻ったときに手作業が必要になります。
二次 (ミラー) ルートディスク上のファイルが変更された場合、起動中に、その変更が主ルートディスクに反映されることはありません。これにより古いサブミラーが生じます。たとえば、/etc/system ファイルに対する変更が失われることがあります。Solstice DiskSuite または Solaris Volume Manager ソフトウェアでは、主ルートディスクが休止している間に、一部の管理コマンドによって /etc/system ファイルが変更されることがあります。
起動プログラムは、システムがミラーまたは元の物理デバイスのどちらから起動されているのかを確認しません。起動プロセスの途中(メタデバイスまたはボリュームが読み込まれた後) でミラー化はアクティブになります。これより前の時点で、古いサブミラー問題が発生しやすくなります。