この章では、Sun Cluster をインストールする際の計画情報とガイドラインについて説明します。
この章の内容は次のとおりです。
次の表は、Sun Cluster ソフトウェアのインストール作業手順の参照箇所です。
表 1–1 Sun Cluster ソフトウェアのインストール作業の参照箇所
作業 |
参照先 |
---|---|
クラスタハードウェアの設定 |
『Sun Cluster 3.1 - 3.2 Hardware Administration Manual for Solaris OS』 サーバーや記憶装置に付属しているマニュアル |
クラスタソフトウェアのインストールの計画 | |
ソフトウェアパッケージのインストール。(任意) Sun StorEdgeTM QFS ソフトウェアのインストールと構成 | |
新規クラスタまたは新規クラスタノードの確立 | |
Solaris Volume Manager ソフトウェアの構成 |
「Solaris Volume Manager ソフトウェアの構成」 Solaris Volume Manager のマニュアル |
VERITAS Volume Manager (VxVM) ソフトウェアのインストールと構成 |
VxVM のマニュアル |
クラスタファイルシステムの構成 (使用する場合) | |
(任意) Solaris 10 OS での非大域ゾーンの作成 | |
(任意) SPARC: Sun Cluster モジュールの Sun Management Center へのインストールと構成 |
「SPARC: Sun Cluster モジュールを Sun Management Center 用にインストールする」 Sun Management Center のマニュアル |
リソースグループとデータサービスの計画、インストール、構成。可用性の高いローカルファイルシステムの作成 (使用する場合) | |
カスタムデータサービスの開発 |
この節では、クラスタ環境への Solaris ソフトウェアのインストールを計画するうえでの、次のガイドラインを説明します。
Solaris ソフトウェアの詳細については、Solaris のインストールマニュアルを参照してください。
Solaris ソフトウェアは、ローカルの DVD-ROM から、あるいは JumpStartTM によるインストール方法でネットワークインストールサーバーからインストールできます。また Sun Cluster では、JumpStart インストール方法を使用して、Solaris OS と Sun Cluster ソフトウェアを同時にインストールするカスタマイズ方法もあります。複数のクラスタノードをインストールする場合は、ネットワークインストールを検討してください。
scinstall JumpStart インストール方法の詳細については、「Solaris と Sun Cluster ソフトウェアをインストールする (JumpStart)」を参照してください。Solaris の標準的なインストール方法の詳細については、Solaris のインストールマニュアルを参照してください。
Sun Cluster 構成で Solaris OS を使用する場合は、次の点に注意してください。
Solaris 10 ゾーン - Sun Cluster フレームワークソフトウェアは、大域ゾーンにのみインストールします。
Sun Cluster データサービスを非大域ゾーンに直接インストールできるかどうかについては、データサービスのマニュアルを参照してください。
クラスタノードで非大域ゾーンを構成する場合、ループバックファイルシステム (LOFS) を有効にする必要があります。その他の注意事項については、LOFS の情報を参照してください。
ループバックファイルシステム (LOFS) - Solaris 9 バージョンの Sun Cluster ソフトウェアによるクラスタ作成中、LOFS 機能はデフォルトで無効になります。Solaris 10 バージョンの Sun Cluster ソフトウェアでクラスタを作成中、LOFS 機能はデフォルトでは有効になっています。
クラスタが次の条件の両方を満たす場合、スイッチオーバーの問題やその他の障害を防ぐために、LOFS を無効にする必要があります。
Sun Cluster HA for NFS が高可用ローカルファイルシステムに構成されている。
automountd デーモンが稼働している。
クラスタがこれらの条件の 1 つだけしか満たさない場合、LOFS を有効にしても安全です。
LOFS と automountd デーモンの両方を有効にする必要がある場合は、Sun Cluster HA for NFS によってエクスポートされる高可用ローカルファイルシステムに含まれるファイルをすべて自動マウンタマップから除外してください。
インタフェースグループ - Solaris インタフェースグループ機能は、Sun Cluster 構成ではサポートされません。Solaris のインタフェースグループ機能は、Solaris ソフトウェアのインストール中にデフォルトで無効に設定されます。Solaris インタフェースグループ機能は有効にしないでください。Solaris インタフェースグループについての詳細は、ifconfig(1M) のマニュアルページを参照してください。
省電力シャットダウン - 省電力のための自動シャットダウンは、Sun Cluster 構成ではサポートされないため、有効にしないでください。詳細は、pmconfig(1M) および power.conf(4) のマニュアルページを参照してください。
IP フィルタ - Sun Cluster ソフトウェアは、スケーラブルサービスでは Solaris IP Filter 機能をサポートしませんが、フェイルオーバーサービスでは Solaris IP Filter をサポートします。
fssnap - Sun Cluster ソフトウェアは、UFS の機能である fssnap コマンドをサポートしません。ただし、Sun Cluster ソフトウェアによって制御されないローカルシステム上で fssnap コマンドを使用できます。fssnap サポートには、次の制限が適用されます。
fssnap コマンドは、Sun Cluster ソフトウェアによって管理されていないローカルファイルシステム上でサポートされています。
fssnap コマンドは、クラスタファイルシステムではサポートされていません。
fssnap コマンドは、HAStoragePlus によって制御されるローカルファイルシステムではサポートされていません。
Sun Cluster 3.2 2/08 ソフトウェアには少なくとも End User Solaris ソフトウェアグループが必要です。ただし、クラスタ構成の他のコンポーネントによっては、独自の Solaris ソフトウェアが必要となる場合があります。どの Solaris ソフトウェアグループをインストールするかを決定する際には、次の点を考慮してください。
サーバー - 使用するサーバーのマニュアルを参照し、Solaris ソフトウェアの必要条件を確認してください。たとえば、Sun EnterpriseTM 10000 サーバーには、Entire Solaris Software Group Plus OEM Support が必要です。
SCI-PCI アダプタ - SPARC ベースのクラスタでのみ使用可能な SCI-PCI アダプタ、または Remote Shared Memory Application Programming Interface (RSMAPI) を使用する場合は、必ず RSMAPI ソフトウェアパッケージ (SUNWrsm と SUNWrsmo。SPARC ベースプラットフォームで Solaris 9 OS を使用する場合は、さらに SUNWrsmx と SUNWrsmox) をインストールしてください。RSMAPI ソフトウェアパッケージは、一部の Solaris ソフトウェアグループのみに含まれます。たとえば、Developer Solaris ソフトウェアグループは、RSMAPI ソフトウェアパッケージを含みますが、End User Solaris ソフトウェアグループは、このパッケージを含みません。
インストールするソフトウェアグループが、RSMAPI ソフトウェアパッケージを含まない場合は、RSMAPI ソフトウェアパッケージを手動でインストールしてから、Sun Cluster ソフトウェアをインストールしてください。手動でソフトウェアパッケージをインストールするには、pkgadd(1M) コマンドを使用します。RSMAPI の使用方法についてはセクション (3RSM) のマニュアルページを参照してください。
追加の Solaris パッケージ - End User Solaris ソフトウェアグループに含まれていないほかの Solaris ソフトウェアパッケージのインストールが必要になる場合があります。Apache HTTP サーバパッケージがその例です。ORACLE® などの Sun 以外のソフトウェアの場合も、追加の Solaris ソフトウェアパッケージが必要になる場合があります。Solaris ソフトウェアの必要条件については、各製品のマニュアルを参照してください。
Solaris ソフトウェアパッケージを手動でインストールしなくてすむようにするには、Entire Solaris Software Group Plus OEM Support をインストールしてください。
適切な 「ローカルファイルシステム配置のワークシート」に、次の情報を追加してください。
Solaris OS をインストールするときは、必要な Sun Cluster パーティションを作成し、すべてのパーティションが各領域の最小必要条件を満たすようにします。
スワップ –Solaris と Sun Cluster ソフトウェアを合わせて 750M バイト以上を割り当てます。最適な結果を得るには、Solaris OS に必要とされるスワップに少なくとも 512M バイトを Sun Cluster ソフトウェア用に追加します。さらに、クラスタノード上で実行されるアプリケーションが必要とする追加の swap を割り当てます。
追加の swap ファイルを作成する場合は、グローバルデバイス上に swap ファイルを作成しないでください。ローカルディスクだけをノードの swap デバイスとして使用します。
/globaldevices – scinstall(1M)ユーティリティーがグローバルデバイスのために使用する少なくとも 512 M バイトのファイルシステムを作成します。
ボリュームマネージャー – ボリュームマネージャーで使用するために、スライス 7 に 20 M バイトのパーティションを作成します。クラスタで VERITAS Volume Manager (VxVM) を使用しており、ルートディスクをカプセル化する予定の場合は、VxVM で使用できるように、2 つの未使用スライスを用意します。
Solaris OS を対話的にインストールする場合は、上記の必要条件を満たすためにパーティションをカスタマイズする必要があります。
追加のパーティションを計画する際の情報については、次のガイドラインを参照してください。
Solaris OS を実行するほかのシステムと同様、ルート (/)、/var、/usr、/opt の各ディレクトリは、別個のファイルシステムとして構成できます。または、ルート (/) ファイルシステムにすべてのディレクトリを含めることもできます。次に、Sun Cluster 構成でのルート (/), /var, /usr、/opt の各ディレクトリのソフトウェアの内容を示します。パーティション分割案を計画するときは、次の情報を検討してください。
ルート (/) – Sun Cluster ソフトウェア自体は、ルート (/) ファイルシステムの領域を 40M バイト未満しか占有しません。Solaris Volume Manager ソフトウェアが必要とする領域は 5M バイト未満、VxVM ソフトウェアは 15M バイト未満です。十分な追加領域と i ノード容量を構成するには、一般的にルート (/) ファイルシステムに割り当てる容量に、100M バイト以上を追加します。この領域は、ブロック特殊デバイスと文字特殊デバイスの両方を作成するために、ボリューム管理ソフトウェアによって使用されます。クラスタ内に多数の共有ディスクがある場合は、特に、十分な領域を割り当てる必要があります。
/var – Sun Cluster ソフトウェアは、インストール時には /var ファイルシステム領域をわずかしか占有しません。ただし、ログファイル用に十分な領域を別途用意しておく必要があります。また、クラスタ化されたノードでは、標準的なスタンドアロンサーバーよりも、ログに記録されるメッセージが増えることがあります。したがって、/var ファイルシステムには最低でも 100M バイトの余裕を設けてください。
/usr – Sun Cluster ソフトウェアは、/usr ファイルシステムの領域を 25M バイト未満占有します。Solaris Volume Manager および VxVM ソフトウェアが必要とする領域は、それぞれ 15M バイト未満です。
/opt – Sun Cluster フレームワークソフトウェアは、/opt ファイルシステムの領域を 2M バイト未満使用します。ただし、各 Sun Cluster データサービスで 1M から 5M バイトが使用されることがあります。Solaris Volume Manager ソフトウェアは /opt ファイルシステムの領域をまったく使用しません。VxVM ソフトウェアは、そのパッケージとツールをすべてインストールした場合、40M バイト以上を使用することがあります。
また、ほとんどのデータベースおよびアプリケーションソフトウェアは、/opt ファイルシステムにインストールされます。
SPARC: Sun Management Center ソフトウェアを使用してクラスタを監視する場合、Sun Management Center エージェントと Sun Cluster モジュールパッケージをサポートするために、ノードごとに 25M バイトの追加の空間が必要です。
Sun Cluster ソフトウェアでは、グローバルデバイスの管理に使用するローカルディスクのいずれかに、専用のファイルシステムを別途用意しておく必要があります。このファイルシステムは、通常ルートディスクに置かれます。ただし、論理ボリュームマネージャーのボリュームなどのように、グローバルデバイスのファイルシステムを置く別のストレージを使用する場合は、このファイルシステムを Solaris Volume Manager 共有ディスクセットの一部やルートのディスクグループ以外の VxVM ディスクグループの一部にしてはいけません。このファイルシステムは、後にクラスタファイルシステムとしてマウントされます。このファイルシステムには、scinstall(1M) コマンドで認識されるデフォルトの名前 /globaldevices を付けます。
scinstall コマンドは、あとでファイルシステム /global/.devices/node@nodeid の名前を変更します。 ここで、nodeid は、クラスタメンバーになったときにノードに割り当てられる番号を表します。元の /globaldevices マウントポイントは、削除されます。
/globaldevices ファイルシステムには、ブロック特殊デバイスと文字特殊デバイスの両方を作成するための十分な領域と十分な i ノード容量が必要です。このガイドラインは、クラスタ内に多数のディスクがある場合に、特に重要です。通常のクラスタ構成の場合、ファイルシステムのサイズは 512M バイトで十分です。
Solaris Volume Manager ソフトウェアを使用する場合、状態データベースの複製の作成に使用できるように、ルートディスク上にスライスを別途用意しておく必要があります。つまり、各ローカルディスク上に、複製のためのスライスを別に用意します。ただし 1 つのノードにローカルディスクが 1 つしかない場合は、Solaris Volume Manager ソフトウェアが正しく動作するように、同じスライス内に 3 つの状態データベースの複製を作成する必要が生じることがあります。詳細については、Solaris Volume Manager のマニュアルを参照してください。
VxVM (VERITAS Volume Manager) を使用しており、ルートディスクをカプセル化する予定の場合は、VxVM で使用できるように、2 つの未使用スライスを用意します。さらに、ディスクの始点または終点に若干の割り当てられていない空き領域が必要になります。ルートディスクのカプセル化については、VxVM のマニュアルを参照してください。
表 1–2 に、750 M バイト未満の物理メモリーを持つクラスタノードのパーティション分割案を示します。この案では、End User Solaris ソフトウェアグループ、Sun Cluster ソフトウェア、および Sun Cluster HA for NFS データサービスをインストールします。ディスク上の最後のスライスであるスライス 7 には、ボリューム管理ソフトウェア用に若干の量を割り当てます。
この配置は、Solaris Volume Manager ソフトウェアまたは VxVM ソフトウェアの使用を意図したものです。Solaris Volume Manager ソフトウェアを使用する場合は、状態データベースの複製用にスライス 7 を使用します。VxVM を使用する場合は、スライスに 0 の長さを割り当てることで、後でスライス 7 を解放できます。この配置によって 必要な 2 つの空きスライス 4 と 7 が確保され、ディスクの終端に未使用領域が確保されます。
表 1–2 ファイルシステム割り当ての例
スライス |
内容 |
割り当てサイズ |
説明 |
---|---|---|---|
0 |
/ |
6.75GB |
スライス 1 から 7 にディスク容量を割り当てた後の、残りの空き容量。Solaris OS、Sun Cluster ソフトウェア、データサービスソフトウェア、ボリューム管理ソフトウェア、Sun Management Center エージェントおよび Sun Cluster モジュールエージェントパッケージ、ルートファイルシステム、データベースおよびアプリケーションソフトウェアに使用します。 |
1 |
swap |
1GB |
512M バイト - Solaris OS 用 512M バイト - Sun Cluster ソフトウェア用 |
2 |
オーバーラップ |
8.43GB |
ディスク全体 |
3 |
/globaldevices |
512MB |
このスライスは、Sun Cluster ソフトウェアによって後で別のマウントポイントに割り当てられ、クラスタファイルシステムとしてマウントします。 |
4 |
未使用 |
- |
VxVM でルートディスクをカプセル化するための空きスライスとして確保します。 |
5 |
未使用 |
- |
- |
6 |
未使用 |
- |
- |
7 |
ボリューム管理ソフトウェア |
20MB |
Solaris Volume Manager ソフトウェアにより状態データベースの複製用に使用するか、スライス解放後に VxVM によってインストールの際に使用します。 |
クラスタ内の Solaris 10 ゾーンの目的と機能についての詳細は、『Sun Cluster の概念 (Solaris OS 版)』の「Sun Cluster ノードでの Solaris ゾーンのサポート」を参照してください。
クラスタノードで、 Solaris 10 非大域ゾーン (あるいは単に「ゾーン」と呼ぶ) を作成する場合、次の点に注意してください。
一意のゾーン名 - ゾーン名はノード内で一意である必要があります。同一ノード上で複数のゾーンに同じ名前を指定しないでください。
複数のノードでのゾーン名の再使用 - クラスタ管理を簡単にするために、対象となるリソー スグループに含まれるゾーンに対して、ノード間で同じ名前を使用することができます。
プライベート IP アドレス - クラスタで使用できるよりも多くのプライベート IP アドレスを使用しようとしないでください。
マウント - グローバルマウントをゾーンに含めないでください。ループバックマウントだけを含めてください。
フェイルオーバーサービス - 複数ノードのクラスタでは、Sun Cluster ソフトウェアはフェイルオーバーリソースグループのノードリストに、同じノードの異なるゾーンを指定できますが、これが便利なのはテスト中だけです。単一ノードでノードリスト内のすべてのゾーンをホストする場合、ノードはそのリソースグループの単一障害点になります。可用性を最大にするために、フェイルオーバーリソースグループのノードリストのゾーンは、別のノードに置く必要があります。
単一ノードのクラスタでは、フェイルオーバーリソースグループのノードリストで複数のゾーンを指定しても機能的なリスクはありません。
スケーラブルサービス - 同じノードの同じスケーラブルサービスで使用する非大域ゾーンを作成しないでください。スケーラブルサービスの各インスタンスは、別々のクラスタノードで実行する必要があります。
LOFS - Solaris ゾーンでは、ループバックファイルシステム (LOFS) を有効にする必要があります。ただし、Sun Cluster HA for NFS データサービスでは、スイッチオーバーの問題やその他の障害を避けるために、LOFS を無効にする必要があります。クラスタで非大域ゾーンと Sun Cluster HA for NFS の両方を構成する場合、データサービスの問題の発生を防ぐために次のいずれかの手順を実行してください。
automountd デーモンを無効にします。
Sun Cluster HA for NFS からエクスポートされた高可用ローカルファイルシステムに含まれるすべてのファイルをオートマウンタマップから除外します。
この節では、Sun Cluster ソフトウェアのインストールと構成の計画と、次のコンポーネントの準備について説明します。
Sun Cluster コンポーネントの詳細は、『Sun Cluster の概要 (Solaris OS 版)』および『Sun Cluster の概念 (Solaris OS 版)』を参照してください。
ソフトウェアのインストールを開始する前に、必要なすべてのライセンス証明書を用意しておきます。Sun Cluster ソフトウェアにはライセンス証明書は必要ありませんが、Sun Cluster ソフトウェアがインストールされる各ノードが、Sun Cluster ソフトウェア使用許諾契約書に準拠している必要があります。
ボリューム管理ソフトウェアやアプリケーションソフトウェアのライセンス必要条件については、該当する製品のインストールマニュアルを参照してください。
各ソフトウェア製品をインストールした後に、必要なパッチもインストールする必要があります。
必要なパッチの最新情報については、「Patches and Required Firmware Levels」 in 『Sun Cluster 3.2 2/08 Release Notes for Solaris OS』を参照するか、Sun サービスプロバイダまでお問い合わせください。
パッチを適用するうえでの一般的なガイドラインと手順については、『Sun Cluster のシステム管理 (Solaris OS 版)』の第 10 章「Sun Cluster ソフトウェアとファームウェアのパッチ」 を参照してください。
クラスタによるパブリックネットワークの使用については、『Sun Cluster の概念 (Solaris OS 版)』の「パブリックネットワークアダプタと IP ネットワークマルチパス」を参照してください。
クラスタ構成によっては、Sun Cluster のさまざまなコンポーネントに多数のパブリックネットワーク IP アドレスを設定する必要があります。クラスタ構成内の各ノードには、サブネットの同じセットのパブリックネットワーク接続が少なくとも 1 つ必要です。
次の表に、パブリックネットワーク IP アドレスの割り当てが必要なコンポーネントの一覧を示します。これらの IP アドレスを、次の場所に追加してください。
使用するすべてのネーミングサービス
各クラスタノードにあるローカルの /etc/inet/hosts ファイル (Solaris ソフトウェアをインストールしたあとで追加すること)
Solaris 10 の場合、各クラスタノードにあるローカルの /etc/inet/ipnodes ファイル (Solaris ソフトウェアをインストールしたあと)
コンポーネント |
必要な IP アドレス |
---|---|
サブネットごとに 1 つ |
|
クラスタノード |
サブネットごとのノードあたり 1 つ |
ドメインごとに 1 つ |
|
(任意) 非大域ゾーン |
サブネットごとに 1 つ |
1 つ |
|
論理アドレス |
サブネットごとの論理ホストリソースあたり 1 つ |
定足数サーバー |
1 つ |
IP アドレスの計画についての詳細は、『System Administration Guide: IP Services』の第 3 章「Planning Your TCP/IP Network (Task)」 (Solaris 9) または『System Administration Guide: IP Services』の第 2 章「Planning Your TCP/IP Network (Tasks)」 (Solaris 10) を参照してください。
すべてのクラスタノードにはコンソールアクセスが必要です。クラスタコントロールパネル (CCP) ソフトウェアを管理コンソールにインストールする場合、クラスタノードと通信するために使用されるコンソールアクセスデバイスのホスト名とポート番号を提供する必要があります。
管理コンソールとクラスタノードコンソール間の通信には、端末集配信装置 (コンセントレータ) を使用します。
Sun Enterprise 10000 サーバーは、端末集配信装置の代わりにシステムサービスプロセッサ (SSP) を使用します。
Sun Fire サーバは、端末集配信装置の代わりにシステムコントローラを使用します。
コンソールアクセスについての詳細は、『Sun Cluster の概念 (Solaris OS 版)』を参照してください。
または、管理コンソールを直接クラスタノードに接続しているか、管理ネットワーク経由で接続している場合、管理コンソールまたは管理ネットワークへの接続に使われる各クラスタノードのホスト名およびシリアルポート番号を提供してください。
論理アドレスを使用する各データサービスリソースグループには、論理アドレスへのアクセス元となる各パブリックネットワークに指定されているホスト名を設定する必要があります。
詳細は、『Sun Cluster データサービスの計画と管理 (Solaris OS 版)』を参照してください。データサービスとリソースについての詳細は、『Sun Cluster の概要 (Solaris OS 版)』および『Sun Cluster の概念 (Solaris OS 版)』を参照してください。
パブリックネットワークはクラスタの外部と通信します。パブリックネットワーク構成を計画する際は、次のことを考慮してください。
パブリックネットワークとプライベートネットワークの分離 - パブリックネットワークとプライベートネットワーク(クラスタインターコネクト) には、別のアダプタを使用するか、またはタグ付きVLAN 対応のアダプタとVLAN 対応のスイッチでタグ付きVLAN を構成し、プライベートインターコネクトとパブリックネットワークの両方で同じアダプタを使用できるようにする必要があります。
最小 - すべてのクラスタノードは、少なくとも 1 つのパブリックネットワークに接続されている必要があります。パブリックネットワークの接続では、さまざまなノードにさまざまなサブネットを使用できます。
スケーラブルサービス - スケーラブルサービスを実行するすべてのノードが、同じサブネットまたはサブネットのセットを使用するか、サブネット間でルーティング可能な異なるサブネットを使用する必要があります。
IPv4 - Sun Cluster ソフトウェアは、パブリックネットワーク上の IPv4 アドレスをサポートします。
IPv6 - Sun Cluster ソフトウェアは、パブリックネットワーク上の IPv6 アドレスをサポートします(ただし、次の条件または制限があります)。
プライベートインターコネクトがSCI アダプタを使用する場合、Sun Cluster ソフトウェアは、パブリックネットワーク上の IPv6 アドレスをサポートしません。
Sun Cluster ソフトウェアはフェイルオーバーおよびスケーラブルデータサービスの両方で IPv6 アドレスをサポートしています。
IPMP グループ - データサービストラフィックに使用される各パブリックネットワークアダプタは、IP ネットワークマルチパス (IPMP) グループに属する必要があります。パブリックネットワークアダプタがデータサービストラフィックに使用されていない場合、IPMP グループに構成する必要はありません。
Sun Cluster 3.2 2/08 リリースでは、scinstall ユーティリティーは、 Sun Cluster 作成中に未設定の各パブリックネットワークアダプタで単一アダプタの IPMP グループを構成しなくなりました。その代わりに、scinstall ユーティリティーは、同じサブネットを使用するクラスタ内のパブリックネットワークアダプタの各セットで、複数アダプタの IPMP グループを自動的に構成します。Solaris 10 OS では、これらのグループはプローブベースです。ただし、scinstall ユーティリティーは IPMP グループですでに構成されているアダプタを無視します。scinstall ユーティリティーで構成される IPMP グループ内のアダプタがデータサービストラフィックに使用されない場合、そのアダプタをグループから削除できます。
IPMP グループを構成するためのガイドラインと手順については、『System Administration Guide: Network Interfaces and Network Virtualization』のパート II「Administering Interface Groups」の手順に従ってください。クラスタをインストールしたあとに IPMP グループを変更するには、『Sun Cluster のシステム管理 (Solaris OS 版)』の「クラスタで IP ネットワークマルチパスグループを管理する」 のガイドラインおよび『System Administration Guide: IP Services』の第 28 章「Administering Network Multipathing (Task)」 (Solaris 9) または『System Administration Guide: Network Interfaces and Network Virtualization』の第 8 章「Administering IPMP」(Solaris 10) の手順に従います。
ローカル MAC アドレスサポート - すべてのパブリックネットワークアダプタは、ローカルMAC アドレス割り当てをサポートするネットワークインタフェースカード(NIC) を使用する必要があります。ローカルMAC アドレス割り当ては、IPMP の要件です。
local-mac-address 設定 - local-mac-address? 変数では、Ethernet アダプタにデフォルト値の true を使用する必要があります。Sun Cluster ソフトウェアは、イーサネットアダプタの local-mac-address? の値として false をサポートしません。この必要条件は、local-mac-address? の値として false を必要とした Sun Cluster 3.0 から変更されています。
パブリックネットワークについての詳細は、『Sun Cluster の概念 (Solaris OS 版)』を参照してください。
Sun Cluster 定足数サーバーソフトウェアを使用してマシンを定足数サーバーとして構成し、続いて定足数サーバーをクラスタの定足数デバイスとして構成することができます。SCSI ディスクおよび NAS ファイラの代わりとして、またはそれらに加えて定足数サーバーを使用できます。
Sun Cluster 構成で定足数サーバーを使用する場合は、次の点に注意してください。
ネットワーク接続 - 定足数サーバーコンピュータは、パブリックネットワーク経由でクラスタに接続します。
サポートされるハードウェア - 定足数サーバーでサポートされるハードウェアは、クラスタノードでサポートされるハードウェアと同じです。
オペレーティングシステム - Sun Cluster 用の Solaris ソフトウェアの必要条件は、定足数サーバーソフトウェアにも適用されます。
複数クラスタへのサービス - 定足数サーバーを複数クラスタへの定足数デバイスとして構成できます。
ハードウェアとソフトウェアの混合 - 定足数サーバーが定足数を提供する 1 つまたは複数のクラスタと同じハードウェアおよびソフトウェアプラットフォーム上に、定足数サーバーを構成する必要はありません。たとえば、Solaris 9 OS を実行する x86 マシンは、Solaris 10 OS を実行する SPARC クラスタの定足数サーバーとして構成できます。
クラスタノードの定足数サーバーとしての使用 - クラスタノード上の定足数サーバーを、ノードが属するクラスタ以外のクラスタに定足数を提供するように構成できます。ただし、クラスタノードで構成される定足数サーバーは高可用性ではありません。
Sun Cluster 構成で NFS (Network File System) を使用する場合は、次の点に注意してください。
NFS クライアント - Sun Cluster ノードは、同じクラスタ内のノード上でマスターされた Sun Cluster HA for NFS でエクスポートされているファイルシステムの NFS クライアントになることはできません。このような Sun Cluster HA for NFS のクロスマウントは禁止されています。クラスタノード間でファイルを共有するときは、クラスタファイルシステムを使用してください。
NFSv3 プロトコル - NAS ファイラなどの外部 NFS サーバーからのクラスタノード上にファイルシステムをマウントし、NFSv3 プロトコルを使用している場合、同じクラスタノードで NFS クライアントマウントおよび Sun Cluster HA for NFS データサービスを実行することはできません。これを実行した場合、一部の Sun Cluster HA for NFS データサービス動作によりNFS デーモンが停止して再起動し、NFS サービスが中断される場合があります。ただし、NFSv4 プロトコルを使用して、外部 NFS ファイルシステムをクラスタノードにマウントする場合は、Sun Cluster HA for NFS データサービスを安全に実行できます。
ロック - クラスタ上でローカルに動作しているアプリケーションは、NFS 経由でエクスポートされているファイルシステム上にあるファイルをロックしてはなりません。このようなファイルをロックすると、ローカルのブロック (flock(3UCB) や fcntl(2) など) によって、ロックマネージャ (lockd(1M))) が再起動できなくなる可能性があります。再起動中、リモートクライアントの再要求によって、ブロックされているローカルのプロセスがロックされる可能性があります。これにより、予期せぬ動作が発生する可能性があります。
NFS セキュリティ機能 - Sun Cluster ソフトウェアは、share_nfs(1M) コマンドの次のオプションをサポートしません。
secure
sec=dh
ただし、Sun Cluster ソフトウェアは NFS の次のセキュリティ機能をサポートします。
NFS のセキュアポートの使用。NFS のセキュアポートを有効にするには、クラスタノード上の /etc/system ファイルにエントリセット nfssrv:nfs_portmon=1 を追加します。
NFS での Kerberos の使用。詳細は、『Sun Cluster Data Service for NFS Guide for Solaris OS』の「Securing Sun Cluster HA for NFS With Kerberos V5」を参照してください。
Sun Cluster 構成の次のサービスの制限を守ってください。
ルーター - クラスタノードをルーター (ゲートウェイ) として構成しないでください。システムがダウンした際にクライアントが代替ルーターを探すことができず、回復できません。
NIS+ サーバー - クラスタノードをNIS またはNIS+ サーバとして構成しないでください。NIS または NIS+ 用に使用できるデータサービスはありません。ただしクラスタノードを NIS や NIS+ のクライアントにすることは可能です。
起動およびインストールサーバー - 高可用性にした起動方法の提供や、クライアントシステ ムへのサービスのインストールを行うために Sun Cluster 構成を使用しないでください。
RPC プログラム番号 - RPC サービスをクラスタ上にインストールする場合、このサービスでは次のプログラム番号を使用しないでください。
100141
100142
100248
これらの番号は、Sun Cluster デーモン rgmd_receptionist 、fed、および pmfd 用に予約されています。
これらのプログラム番号を使用する RPC サービスをインストールした場合は、別のプログラム番号を使用するように変更する必要があります。
スケジューリングクラス - Sun Cluster ソフトウェアは、クラスタノード上でクラスをスケジューリングする優先度の高いプロセスの実行をサポートしません。クラスタノード上で次のいずれかの種類のプロセスを実行しないでください。
優先度の高いタイムシェアリングスケジューリングクラスで実行されるプロセス
リアルタイムスケジューリングクラスで実行されるプロセス
Sun Cluster 3.2 2/08 ソフトウェアでは、リアルタイムスケジューリングクラスを必要としないカーネルスレッドが使用されます。通常以上の優先度で動作するタイムシェアリングプロセスや、リアルタイムプロセスがあると、Sun Cluster カーネルスレッドが必要とする CPU サイクルがそれらのプロセスによって奪われることがあります。
この節では、構成する Sun Cluster コンポーネントのガイドラインについて説明します。
適当な構成計画ワークシートに、次の情報を追加してください。
クラスタ名は、Sun Cluster の構成の際に指定します。クラスタ名は、インストール環境全体で一意にする必要があります。
クラスタノード名は、Solaris OS のインストール中にマシンに割り当てる名前と同じ名前です。命名の要件の詳細については、hosts(4) のマニュアルページを参照してください。
単一ノードのクラスタインストールでは、デフォルトのクラスタ名がノード名になります。
Sun Cluster の構成中に、クラスタでインストールするすべてのノード名を指定します。
Solaris 10 OS では、nodename:zonename という命名規則を使用して、Sun Cluster コマンドに非大域ゾーンを指定します。
nodename はクラスタノードの名前です。
zonename は、ノード上にゾーンを作成するときに非大域ゾーンに割り当てる名前です。ゾーン名は、ノード上で一意でなければなりません。ただし、同じゾーン名を別々のノードで使用することはできます。nodename:zonename の形でノード名が異なれば、クラスタ内で完全な非大域ゾーン名を一意に指定できるからです。
大域ゾーンを指定する場合、ノード名を指定するだけで済みます。
単一ノードのクラスタの場合、プライベートネットワークを構成する必要はありません。scinstall ユーティリティーは、クラスタでプライベートネットワークが使用されていなくても、自動的にデフォルトのプライベートネットワークアドレスとネットマスクを割り当てます。
Sun Cluster ソフトウェアは、Sun Cluster ソフトウェアで管理されるノード間および非大域ゾーン間の内部通信にプライベートネットワークを使用します。Sun Cluster 構成では、プライベートネットワーク上のクラスタインターコネクトへの接続が少なくとも 2 つ必要です。クラスタの最初のノードに Sun Cluster ソフトウェアを構成するときに、次のいずれかの方法でプライベートネットワークアドレスとネットマスクを指定します。
デフォルトのプライベートネットワークアドレス (172.16.0.0) とネットマスク (255.255.248.0) をそのまま使用します。この IP アドレス範囲は、最大 64 のノードと非大域ゾーンおよび最大 10 のプライベートネットワークをサポートしています。
IP アドレス範囲でサポートできる最大ノード数は、ハードウェア構成でサポートできる最大ノード数を反映していません。
デフォルト以外の許容可能なプライベートネットワークアドレスを指定して、デフォルトのネットマスクをそのまま使用します。
デフォルトのプライベートネットワークアドレスをそのまま使用して、デフォルト以外のネットマスクを指定します。
デフォルト以外のプライベートネットワークアドレスとデフォルト以外のネットマスクを指定します。
デフォルト以外のネットマスクを使用することを選択すると、scinstall ユーティリティーから、IP アドレス範囲でサポートするノードの数とプライベートネットワークの数を指定するように求められます。指定するノードの数には、プライベートネットワークを使用する、予測される非大域ゾーンの数も含めるようにしてください。
このユーティリティーは、指定したノードとプライベートネットワークの数に対応する最小 IP アドレス範囲のネットマスクを計算します。計算されたネットマスクは、指定したノード (非大域ゾーンを含む) およびプライベートネットワークの数よりも多くの数をサポートする場合があります。scinstall ユーティリティーはさらに、2 倍の数のノードとプライベートネットワークをサポートするための最低限のネットマスクとなる 2 番目のネットマスクも計算します。この 2 番目のネットマスクにより、クラスタは IP アドレス範囲を再構成する必要なしに、将来のノードとプライベートネットワークの数の増加に対応できます。
ユーティリティーから、どちらのネットマスクを選択するかを聞かれます。計算されたネットマスクのいずれかを選択するか、それ以外のネットマスクを指定することができます。指定するネットマスクは、最低でもユーティリティーに指定したノードとプライベートネットワークの数をサポートする必要があります。
クラスタを確立したあとに、プライベートネットワークアドレスとネットマスクを変更する場合は、『Sun Cluster のシステム管理 (Solaris OS 版)』の「既存のクラスタのプライベートネットワークアドレスまたはアドレス範囲を変更する」 を参照してください。これらの変更を行うには、クラスタを停止させる必要があります。
ノード、非大域ゾーン、またはプライベートネットワークの追加に対応するには、クラスタのプライベート IP アドレス範囲の変更が必要になる場合があります。
デフォルト以外のプライベートネットワークアドレスを指定する場合は、アドレスは次の条件を満たす必要があります。
アドレスおよびネットマスクのサイズ - プライベートネットワークアドレスは、ネットマスクよりも小さくすることはできません。たとえば、ネットマスク255.255.255.0でプライベートネットワークアドレス172.16.10.0を使用できますが、ネットマスク 255.255.0.0 では、プライベートネットワークアドレス172.16.10.0 を使用できません。
許容アドレス - アドレスは、プライベートネットワークでの使用のために RFC 1918 で予約されているアドレスのブロックに含まれる必要があります。InterNIC に問い合わせて RFC のコピーを入手するか、http://www.rfcs.org でオンラインで RFC を表示できます。
複数クラスタでの使用 - 複数のクラスタで同じプライベートネットワークアドレスを使用できます。プライベート IP ネットワークアドレスは、クラスタ外からはアクセスできません。
IPv6 - Sun Cluster ソフトウェアは、プライベート内部接続で IPv6 アドレスをサポートしません。IPv6 アドレスを使用するスケーラブルサービスをサポートするために、システムはプライベートネットワークアダプタ上で IPv6 アドレスを構成します。しかし、これらの IPv6 アドレスは、プライベートネットワークでのノード間通信では使用されません。
プライベートネットワークについての詳細は、「Planning Your TCP/IP Network (Tasks),」 in 『System Administration Guide: IP Services』 (Solaris 9またはSolaris 10) を参照してください。
プライベートホスト名とは、プライベートネットワークインタフェースを介したノード間の通信に使用される名前のことです。プライベートホスト名は、Sun Cluster の構成中に自動的に作成されます。これらのプライベートホスト名は、clusternodenodeid -priv という命名規則に従います (nodeid は、内部ノード ID の数値です)。ノード ID 番号は、Sun Cluster の構成中に各ノードがクラスタメンバーとなる際に、自動的に各ノードに割り当てられます。クラスタの構成後に、clsetup(1CL) ユーティリティーを使用してプライベートホスト名を変更できます。
Solaris 10 OS の場合、非大域ゾーンのプライベートホスト名の作成は任意です。非大域ゾーンのプライベートホスト名の作成には、命名規則はありません。
クラスタインターコネクトは、クラスタノード間のプライベートネットワーク通信にハードウェアパスを提供します。各インターコネクトは、次のいずれかの方法で接続されるケーブルで構成されます。
2 つのトランスポートアダプタの間
トランスポートアダプタとトランスポートスイッチの間
クラスタインターコネクトの目的と機能についての詳細は、『Sun Cluster の概念 (Solaris OS 版)』の「クラスタインターコネクト」 を参照してください。
単一ノードのクラスタの場合、クラスタインターコネクトを構成する必要はありません。ただし、単一ノードのクラスタ構成に後でノードを追加する可能性がある場合は、将来の使用のためにクラスタインターコネクトを構成することもできます。
Sun Cluster の構成中に、1 つまたは 2 つのクラスタインターコネクトに対して構成情報を指定します。
2 つのクラスタインターコネクトを使用すると、1 つのインターコネクトよりも可用性が高くなります。使用できるアダプタポートの数が制限されている場合、タグ付きの VLAN を使用して、同じアダプタをプライベートネットワークとパブリックネットワークの両方で共有できます。詳細は、「トランスポートアダプタ」 のタグ付き VLAN アダプタのガイドラインを参照してください。
1 つのクラスタインターコネクトを使用すると、プライベートネットワークで使用されるアダプタポートの数が減りますが、可用性が低下します。さらに、単一のプライベートインターコネクトに障害が発生した場合に、クラスタの自動回復にかかる時間が長くなります。
クラスタの確立後に、clsetup(1CL) ユーティリティーを使用して、追加のクラスタインターコネクトを構成できます。
クラスタインターコネクトハードウェアのガイドラインについては、『Sun Cluster 3.1 - 3.2 Hardware Administration Manual for Solaris OS』の「Interconnect Requirements and Restrictions」を参照してください。クラスタインターコネクトの一般的な情報については、『Sun Cluster の概要 (Solaris OS 版)』の「クラスタインターコネクトコンポーネント」と『Sun Cluster の概念 (Solaris OS 版)』 を参照してください。
ネットワークインタフェースのポートなどのトランスポートアダプタ用に、トランスポートアダプタ名とトランスポートの種類を指定します。構成が 2 ノードクラスタの場合は、インターコネクトをポイントツーポイント接続 (アダプタからアダプタ) するか、トランスポートスイッチを使用するかも指定します。
次のガイドラインと制限を考慮してください。
IPv6 - Sun Cluster ソフトウェアは、プライベートインターコネクト経由の IPv6 通信をサポートしません。
ローカル MAC アドレスの割り当て - すべてのプライベートネットワークアダプタは、ローカル MAC アドレスの割り当てをサポートするネットワークインタフェースカード (NIC) を使用する必要があります。リンクローカル IPv6 アドレスは IPv6 パブリックネットワークアドレスをサポートするためにプライベートネットワークアダプタに必要なものですが、このアドレスはローカル MAC アドレスから導き出されます。
タグ付き VLAN アダプタ – Sun Cluster ソフトウェアは、プライベートクラスタインターコネクトとパブリックネットワーク間で1 つのアダプタを共有するために、タグ付きVLAN (Virtual Local Area Network) をサポートします。クラスタインターコネクト用にタグ付き VLAN アダプタを構成するには、次のいずれかの方法を使用して、アダプタ名とその VLAN ID (VID) を指定します。
通常のアダプタ名、つまりデバイス名 + インスタンス番号または物理接続点 (PPA) を指定します。たとえば、Cassini Gigabit Ethernet アダプタのインスタンス 2 の名前は ce2 になります。scinstall ユーティリティーで「このアダプタが共有仮想LAN の一部であるかどうか」をたずねられた場合は、yes と答えて、そのアダプタの VID 番号を指定します。
アダプタの VLAN 仮想デバイス名を指定します。この名前は、アダプタ名 + VLAN インスタンス番号です。VLAN インスタンス番号は、公式 (1000*V)+N から導き出されます (V は VID 番号、N は PPA です)。
たとえば、アダプタce2 上の VID 73 の場合、VLAN インスタンス番号は (1000*73)+2 として計算されます。したがって、このアダプタ名を ce73002 と指定して、共有仮想LAN の一部であることを示します。
クラスタでの VLAN の構成についての詳細は、『Sun Cluster 3.1 - 3.2 Hardware Administration Manual for Solaris OS』の「Configuring VLANs as Private Interconnect Networks」 を参照してください。VLAN に関する一般情報については、『System Administration Guide: IP Services』の「Administering Virtual Local Area Networks」を参照してください。
SBus SCI アダプタ – SBus SCI (Scalable Coherent Interface) はクラスタインターコネクトとしてサポートされていません。ただし、SCI-PCI インタフェースはサポートされています。
論理ネットワークインタフェース - 論理ネットワークインタフェースは、Sun Cluster ソフトウェアで使用するために予約されています。
特定のトランスポートアダプタに関する詳細については、scconf_trans_adap_*(1M) のマニュアルページを参照してください。
ネットワークスイッチなどのトランスポートスイッチを使用する場合、各インターコネクトのトランスポートスイッチを指定します。デフォルト名の switchN (N は、構成中に自動的に割り当てられた数)を使用するか、別の名前を作成できます。
また、スイッチのポート名を指定するか、デフォルト名をそのまま使用します。デフォルトのポート名は、ケーブルのアダプタ側が接続されているノードの内部ノード ID 番号と同じです。ただし、SCI-PCI などの特定の種類のアダプタではデフォルトのポート名は使用できません。
3 つ以上のノードを持つクラスタでは、必ずトランスポートスイッチを使用してください。クラスタノード間の直接接続は、2 ノードクラスタの場合だけサポートされています。
2 ノードクラスタが直接接続されている場合でも、インターコネクトのトランスポートスイッチを指定できます。
トランスポートスイッチを指定すると、その後クラスタに別のノードを追加しやすくなります。
Sun Cluster 構成では、定足数 (quorum) デバイスを使用して、データとリソースの整合性を保持します。クラスタがノードとの接続を一時的に失っても、定足数デバイスによって、クラスタノードがクラスタに再結合しようとしたときの amnesia や split-brain といった問題を防止できます。定足数デバイスの目的と機能についての詳細は、『Sun Cluster の概念 (Solaris OS 版)』の「定足数と定足数デバイス」 を参照してください。
2 ノードクラスタの Sun Cluster インストール中に、 SCSI 定足数デバイスまたは Sun NAS デバイスを自動的に構成するように scinstall ユーティリティーを設定できます。定足数デバイスは、使用可能な共有 SCSI ストレージディスクおよび Sun NAS デバイスから選択されます。scinstall ユーティリティーは、使用可能なすべての共有 SCSI ストレージディスクが定足数デバイスとして利用できるものと見なします。
定足数サーバーまたは Network Appliance NAS デバイスを定足数デバイスとして使用する場合は、scinstall 処理が完了したあとに定足数デバイスを構成します。
インストール後は、clsetup(1CL) ユーティリティーを使用して、定足数デバイスを追加で構成することもできます。
単一ノードのクラスタの場合、定足数 (quorum) を構成する必要はありません。
クラスタ構成にSun 以外の共有ストレージデバイスが含まれており、そのストレージデバイスの定足数デバイスとしての使用がサポートされていない場合、clsetup ユーティリティーを使用して、定足数を手作業で構成する必要があります。
定足数デバイスを計画する際は、次の点を考慮してください。
最小数 – 2 ノードクラスタは、少なくとも1 つの定足数デバイスを持つ必要があり、この定足数デバイスは、共有ディスクでも NAS デバイスでもかまいません。その他のトポロジの場合は、定足数デバイスはオプションです。
奇数の規則 – 複数の定足数デバイスが、2 ノードクラスタまたは定足数デバイスに直接接続されているノードペアで構成されている場合、奇数個の定足数デバイスを構成します。このように構成することで、定足数デバイスが完全に独立した障害パスを持つようになります。
定足数投票の割り当て - クラスタの可用性を最高にするために、定足数デバイスで割り当てられる合計投票数は必ずノードで割り当てられる投票数よりも少なくなるようにします。少なくなければ、すべてのノードが機能していても、すべての定足数デバイスを使用できない場合、そのノードはクラスタを形成できません。
接続 – 定足数デバイスは 2 つ以上のノードに接続する必要があります。
SCSI フェンスプロトコル – SCSI 定足数デバイスが構成されている場合、そのデバイスの SCSI プロトコルは 2 ノードクラスタの場合は SCSI-2、3 ノード以上のクラスタの場合は SCSI-3 に自動的に設定されます。定足数デバイスとして構成したあとに、デバイスの SCSI プロトコルを変更することはできません。
ZFS ストレージプール - 構成済みの定足数デバイスを ZFS ストレージプールに追加しないでください。定足数デバイスが ZFS ストレージプールに追加されると、ディスクのラベルが EFI ディスクに変更されて、定足数構成情報が失われます。このディスクは、クラスタに定足数投票を提供できなくなります。
ディスクがストレージプールにある場合、そのディスクを定足数デバイスとして構成できます。または、定足数デバイスの構成を解除して、ストレージプールに追加し、そのあとでディスクを定足数デバイスとして再構成します。
定足数デバイスについての詳細は、『Sun Cluster の概念 (Solaris OS 版)』の「定足数と定足数デバイス」および『Sun Cluster の概要 (Solaris OS 版)』の「定足数デバイス」を参照してください。
この節では、グローバルデバイスとクラスタファイルシステムを計画するうえでのガイドラインについて説明します。
グローバルデバイスの目的と機能についての詳細は、『Sun Cluster の概要 (Solaris OS 版)』の「グローバルデバイス、ローカルデバイス、およびデバイスグループ」および『Sun Cluster の概念 (Solaris OS 版)』の「グローバルデバイス」を参照してください。
Sun Cluster ソフトウェアは、特定のディスクレイアウトやファイルシステムサイズを必要としません。グローバルデバイスのレイアウトを計画する場合、次の点に注意してください。
ミラー化 – グローバルデバイスの高可用性を実現するには、すべてのグローバルデバイスをミラー化する必要があります。ストレージデバイスがハードウェア RAID とディスクへの冗長パスを提供する場合は、ソフトウェアミラー化を使用する必要はありません。
ディスク – ミラー化するときは、複数のディスクアレイにまたがってミラー化されるようにファイルシステムを配置してください。
可用性 – グローバルデバイスの高可用性を実現するには、グローバルデバイスがクラスタ内の複数のノードに物理的に接続されている必要があります。複数の物理的な接続を持つグローバルデバイスは、単一のノードでの障害に対応できます。物理的な接続を 1 つしか持たないグローバルデバイスもサポートされていますが、そのノードがダウンした場合、ほかのノードからはそのグローバルデバイスにアクセスできなくなります。
スワップデバイス - グローバルデバイス上には swap ファイルは作成しないでください。
非大域ゾーン - グローバルデバイスは、非大域ゾーンから直接アクセスできません。非大域ゾーンからアクセスできるのは、クラスタファイルシステムのデータだけです。
グローバルデバイスの目的と機能についての詳細は、『Sun Cluster の概要 (Solaris OS 版)』の「グローバルデバイス、ローカルデバイス、およびデバイスグループ」および『Sun Cluster の概念 (Solaris OS 版)』の「グローバルデバイス」を参照してください。
「デバイスグループ構成のワークシート」に計画情報を追加してください。
デバイスグループを計画する際は、次の点を考慮してください。
フェイルオーバー – 多重ホストディスクと、適切に構成したボリューム管理ソフトウェアデバイスをフェイルオーバーデバイスとして構成できます。ボリューム管理ソフトウェアデバイスの適切な構成には、多重ホストディスクや、ボリューム管理ソフトウェア自体の正しい設定が含まれます。この構成により、複数のポートがエクスポートしたデバイスをホストできるようになります。テープドライブ、CD-ROM、DVD-ROM、単一ポートのデバイスは、フェイルオーバーデバイスとして構成できません。
ミラー化 – ディスクをミラー化して、ディスクの障害からデータを保護する必要があります。詳細なガイドラインについては、「ミラー化に関するガイドライン」を参照してください。ミラー化の手順については、「Solaris Volume Manager ソフトウェアの構成」または 「VxVM ソフトウェアのインストールと構成」 およびボリュームマネージャーのマニュアルを参照してください。
ストレージベースの複製 - デバイスグループのディスクは、すべて複製であるか、どれも複製でないかのいずれかにする必要があります。1 つのデバイスグループで、複製ディスクと複製でないディスクを混合して使用することはできません。
クラスタファイルシステムの目的と機能についての詳細は、『Sun Cluster の概要 (Solaris OS 版)』の「クラスタファイルシステム」および『Sun Cluster の概念 (Solaris OS 版)』の「クラスタファイルシステム」を参照してください。
クラスタファイルシステムを使用する代わりに、高可用ローカルファイルシステムの構成を選択することもできます。これにより、パフォーマンスの高い I/O でデータサービスサポートのパフォーマンスを向上させたり、クラスタファイルシステムでサポートされていない特定の機能を使用することができます。詳細は、『Sun Cluster データサービスの計画と管理 (Solaris OS 版)』の「高可用性ローカルファイルシステムの有効化」 を参照してください。
クラスタファイルシステムを計画する際は、次の点を考慮してください。
割り当て - 割り当てはクラスタファイルシステムでサポートされていません。ただし、高可用ローカルファイルシステムでは、割り当てがサポートされています。
非大域ゾーン - 非大域ゾーンからクラスタファイルシステムにアクセスする場合、最初にクラスタファイルシステムを大域ゾーンにマウントする必要があります。クラスタファイルシステムは、次にループバックマウントを使用して非大域ゾーンにマウントされます。したがって、非大域ゾーンを含むクラスタでループバックファイルシステム (LOFS) を有効にする必要があります。
ループバックファイルシステム (LOFS) - Solaris 9 バージョンの Sun Cluster ソフトウェアによるクラスタの作成中、LOFS はデフォルトでは無効になっています。Solaris 10 バージョンの Sun Cluster ソフトウェアでクラスタを作成中、LOFS はデフォルトでは有効になっています。
クラスタが次の両方の条件に当てはまる場合、各クラスタノードで LOFS を手動で無効にする必要があります。
Sun Cluster HA for NFS が高可用ローカルファイルシステムに構成されている。
automountd デーモンが稼働している。
クラスタがこれらの条件の両方に当てはまる場合、スイッチオーバーの問題やその他の障害を防ぐために、LOFS を無効にする必要があります。クラスタがこれらの条件の 1 つだけしか満たさない場合、LOFS を有効にしても安全です。
LOFS と automountd デーモンの両方を有効にする必要がある場合は、Sun Cluster HA for NFS によってエクスポートされる高可用ローカルファイルシステムに含まれるファイルをすべて自動マウンタマップから除外してください。
プロセスアカウンティングログファイル - プロセスアカウンティングログファイルは、クラスタファイルシステムまたは高可用性ローカルファイルシステムに置かないでください。ログファイルへの書き込みによってスイッチオーバーがブロックされ、ノードがハングします。プロセスアカウンティングログファイルを置くのは、ローカルファイルシステムだけにしてください。
通信エンドポイント - クラスタファイルシステムは、通信エンドポイントをファイルシステムの名前空間に指定するSolaris ソフトウェアのファイルシステム機能をサポートしません。
名前がクラスタファイルシステムへのパス名である UNIX ドメインソケットは作成できますが、ノードにフェイルオーバーが発生したとき、このソケットは生き残ることができません。
クラスタファイルシステム上で作成する FIFO または指定したパイプはグローバルにアクセスすることはできません。
したがって、ローカルノード以外のノードからfattach コマンドを使用しないでください。
デバイス特殊ファイル - クラスタファイルシステムでは、文字型特殊ファイルもブロック型特殊ファイルもサポートされていません。クラスタファイルシステム内のデバイスノードへのパス名を指定するには、/dev ディレクトリ内のデバイス名へのシンボリックリンクを作成します。mknod コマンドをこの目的で使用しないでください。
atime - クラスタファイルシステムは、atimeを維持しません。
ctime - クラスタファイルシステム上のファイルにアクセスするときに、このファイルの ctime の更新が遅延する場合があります。
アプリケーションのインストール - 高可用アプリケーションのバイナリをクラスタファイルシステムに置く場合、クラスタファイルシステムが構成されるまで待ってからアプリケーションをインストールしてください。また、Sun Java システムの installer プログラムを使用してアプリケーションをインストールしてあり、アプリケーションが共有コンポーネントのどれかに依存する場合、アプリケーションでインストールされないクラスタのすべてのノードにこれらの共有コンポーネントをインストールしてください。
この節では、次の種類のクラスタファイルシステムの要件と制限について説明します。
これらの種類およびその他の種類のファイルシステムを高可用ローカルファイルシステムとして構成することもできます。詳細は、『Sun Cluster データサービスの計画と管理 (Solaris OS 版)』の「高可用性ローカルファイルシステムの有効化」 を参照してください。
次のガイドラインに従って、クラスタファイルシステムを作成するときに使用するマウントオプションを決めてください。
UFS マウントポイントの詳細については、mount_ufs(1M) のマニュアルページを参照してください。
マウントオプション |
使用 |
説明 |
---|---|---|
global |
必要 |
このオプションを選択すると、クラスタ内のすべてのノードでファイルシステムが表示されます。 |
log |
必要 |
このオプションを選択すると、ロギングが有効になります。 |
VxFS のマウントオプションについての詳細は、VxFS mount_vxfs のマニュアルページおよび 『Sun Cluster のシステム管理 (Solaris OS 版)』の「クラスタファイルシステムの管理の概要」 を参照してください。
クラスタファイルシステムのマウントポイントを計画する際は、次の点を考慮してください。
マウントポイントの場所 – 別のソフトウェア製品によって禁止されていない限り、/global ディレクトリに作成します。/global ディレクトリを使用することで、広域的に使用できるクラスタファイルシステムと、ローカルファイルシステムを簡単に区別できるようになります。
SPARC:VxFS マウントの要件 – VERITAS File System (VxFS) を使用する場合、VxFS ファイルシステムは主ノードからグローバルにマウントおよびマウント解除します。主ノードとは、VxFS ファイルシステムが存在するディスクをマスターするノードです。この方法では、マウントまたはマウント解除の操作が確実に成功します。二次ノードから行った VxFS ファイルシステムのマウントやマウント解除の操作は正常に動作しないことがあります。
SPARC:VxFS 機能の制限 -
次の VxFS 機能は、Sun Cluster 3.2 クラスタファイルシステムではサポートされていません。ただし、ローカルのファイルシステムではサポートされます。
クイック入出力
スナップショット
記憶装置チェックポイント
VxFS 固有のマウントオプション:
convosync (Convert O_SYNC)
mincache
qlog、delaylog、tmplog
VERITAS クラスタファイルシステム (VxVM クラスタ機能 & VERITAS クラスタサーバーが必要)
キャッシュアドバイザリは使用可能、効果が認められるのは特定のノードのみ
クラスタファイルシステムでサポートされる VxFS のそのほかの機能とオプションは、すべて Sun Cluster 3.2 ソフトウェアでサポートされます。クラスタ構成でサポートされる VxFS オプションの詳細については、VxFS マニュアルを参照してください。
マウントポイントを入れ子にする – 通常は、クラスタファイルシステムのマウントポイントは入れ子にしないでください。たとえば、あるファイルシステムを /global/a にマウントし、別のファイルをシステムは /global/a/b にマウントするような設定は避けてください。この規則を無視すると、可用性とノードの起動順序に問題が発生することがあります。このような問題は、システムがファイルシステムの子をマウントしようとして、親マウントポイントが存在しない場合に発生します。この規則の唯一の例外は、2 つのファイルシステムのデバイスが同じ物理ノード接続を使用している場合です。同じディスク上の異なるスライスがこれに該当します。
forcedirectio - Sun Cluster ソフトウェアは、forcedirectio マウントオプションを使用してマウントされるクラスタファイルシステムからのバイナリの実行をサポートしていません。
「デバイスグループ構成のワークシート」と 「ボリューム管理ソフトウェア構成のワークシート」に次の計画情報を追加してください。Solaris Volume Manager の場合は 「Volumes Worksheet (Solaris Volume Manager)」にもこの情報を追加してください。
この節では、クラスタ構成のボリューム管理を計画する上でのガイドラインについて説明します。
Sun Cluster は、ボリューム管理ソフトウェアを使用して、ディスクをデバイスグループにまとめ、1 つの単位で管理できるようにします。Sun Cluster ソフトウェアは、次の方法でインストールまたは使用する Solaris Volume Manager ソフトウェアと VERITAS Volume Manager (VxVM) ソフトウェアをサポートします。
表 1–4 サポートされているボリューム管理ソフトウェアと Sun Cluster ソフトウェアの使用
ボリューム管理ソフトウェア |
要件 |
---|---|
Solaris Volume Manager |
一部のノードで VxVM を使用してディスクを管理する場合でも、クラスタのすべてのノードに Solaris Volume Manager ソフトウェアをインストールする必要があります。 |
クラスタのすべてのノード上に、クラスタ機能を持つ VxVM をインストールして、それらにライセンスを付与する必要があります。 |
|
クラスタ機能を持たない VxVM |
VxVM は、VxVM が管理する記憶装置に接続されているノードにのみインストールして、それらにライセンスを付与します。 |
これらのボリューム管理ソフトウェアを同じノードにインストールする場合は、Solaris Volume Manager ソフトウェアを使用して、各ノードにローカルに接続されているディスクを管理します。ルートディスクもローカルディスクに含まれます。VxVM を使用して、すべての共有ディスクを管理します。 |
ボリュームマネージャーソフトウェアのインストールと構成の方法については、ボリュームマネージャーのマニュアルおよび 「Solaris Volume Manager ソフトウェアの構成」または 「VxVM ソフトウェアのインストールと構成」を参照してください。クラスタ構成でのボリューム管理の使用についての詳細は、『Sun Cluster の概念 (Solaris OS 版)』の「多重ホストデバイス」および『Sun Cluster の概念 (Solaris OS 版)』の「デバイスグループ」を参照してください。
ボリューム管理ソフトウェアでディスクを構成する際は、次の一般的なガイドラインを考慮してください。
ミラー化多重ホストディスク – すべての多重ホストディスクは、複数のディスク拡張装置にまたがるようにミラー化する必要があります。ミラー化多重ホストディスクのガイドラインについては、「多重ホストディスクのミラー化」を参照してください。ストレージデバイスがハードウェア RAID とデバイスへの冗長パスを提供する場合は、ソフトウェアミラー化を使用する必要はありません。
ミラー化ルート – ルートディスクをミラー化することにより高可用性を保証できますが、このようなミラー化は必要ありません。ルートディスクをミラー化するかどうかを判断する際のガイドラインについては、「ミラー化に関するガイドライン」を参照してください。
一意の命名 – /global/.devices/node@nodeid ファイルシステムがマウントされるデバイスとして使用される、 ローカル Solaris Volume Manager または VxVM ボリュームがある可能性があります。この場合、/global/.devices/node@nodeid ファイルシステムがマウントされるローカルボリュームのそれぞれは、クラスタ全体で一意である必要があります。
ノードリスト – デバイスグループの高可用性を実現するには、これらの潜在マスターのノードリストとフェイルバックポリシーを、関連付けられているリソースグループと同一にします。または、スケーラブルなリソースグループで、それと関連付けられているデバイスグループ以上のノードまたはゾーンが使用されている場合、スケーラブルなリソースグループのノードリストをデバイスグループのノードリストのスーパーセットにします。ノードリストの詳細は、『Sun Cluster データサービスの計画と管理 (Solaris OS 版)』のリソースグループの計画情報を参照してください。
多重ホストディスク – デバイスグループを構成するために使用されるすべてのデバイスを、そのデバイスグループのノードリストに構成されているすべてのノードに接続、つまりポートする必要があります。Solaris Volume Manager ソフトウェアは、ディスクセットにデバイスを追加したときに、この接続を自動的に確認します。しかし、構成した VxVM ディスクグループは、ノードの特定のセットには関連を持ちません。
ディスクの配置の推奨事項とその他の制限については、ボリューム管理ソフトウェアのマニュアルを参照してください。
Solaris Volume Manager の構成を計画する際は、次の点を考慮してください。
ローカル ボリューム名 – グローバルデバイスファイルシステム、/global/.devices/node@nodeid がマウントされるそれぞれのローカル Solaris Volume Manager ボリュームの名前は、クラスタ全体で一意になるようにします。また、その名前はどのデバイス ID (DID) 名とも同じであってはなりません。
二重列メディエータ – 2 つの列だけで構成されていて、2 つのノードでマスターされている各ディスクセットでは、そのディスクセット用に構成されている Solaris Volume Manager メディエータを使用する必要があります。列は、ディスク格納装置、その物理ディスク、格納装置から 1 つまたは複数のノードへのケーブル、インタフェースアダプタカードで構成されます。二重列メディエータの構成には、次の規則に従ってください。
各ディスクセットは、メディエータホストとして機能する 2 つのノードで構成します。
メディエータを必要とするすべてのディスクセットに対して、2 つの同じノードを使用する必要があります。これら 2 つのノードがディスクセットをマスターする必要があります。
メディエータは、列およびホストが 2 つずつという要件を満たしていないディスクセットに対しては構成できません。
詳細は、mediator(7D) のマニュアルページを参照してください。
/kernel/drv/md.conf 設定 – SPARC:Solaris 9 OS では、それぞれのディスクセットが使用する Solaris Volume Manager ボリュームは、再構成起動時にあらかじめ作成されます。再構成は、/kernel/drv/md.conf ファイルに含まれる構成パラメータに基づいています。
Solaris 10 リリースで、Solaris Volume Manager はボリュームを動的に構成するように拡張されました。/kernel/drv/md.conf ファイルの nmd パラメータと md_nsets パラメータを編集しなくてすみます。新しいボリュームは必要に応じて作成されます。
Solaris 9 OS で Sun Cluster 構成をサポートするには、nmd フィールドと md_nsets フィールドを次のように変更します。
すべてのクラスタノードの /kernel/drv/md.conf ファイルの内容は、それぞれのノードがサービスを提供するディスクセット数に関係なく、同一である必要があります。このガイドラインに従わないと、重大な Solaris Volume Manager エラーが発生し、データが失われることがあります。
md_nsets – md_nsets フィールドは、システムでクラスタ全体のニーズを満たすために作成できるディスクセットの合計数を定義できます。md_nsets の値は、クラスタ内で予想されるディスクセットの数に 1 を加えた値に設定します。Solaris Volume Manager ソフトウェアは、追加のディスクセットを使用して、ローカルホスト上のプライベートディスクを管理します。
1 つのクラスタで使用できるディスクセットの最大数は 32 です。32 のうち、31 ディスクセットは一般的な使用のためで、1 ディスクセットは、プライベート ディスクの管理用に使われます。md_nsets のデフォルト値は 4 です。
nmd – nmd フィールドは、クラスタに存在するすべてのボリューム名のうち、予想される最大値を定義します。たとえば、あるクラスタの 15 番目までのディスクセットで使用されるボリューム名の最大数が 10 であるが、16 番目のディスクセットで使用されるボリュームの最大数が 1000 である場合、nmd の値を 1000 以上に設定します。また、nmd の値は各デバイス ID 名に十分な数を保証する大きさである必要があります。この値は、各ローカルボリューム名がクラスタ全体で一意になるように十分に大きな値を設定してください。
1 つのディスクセットで使用できるボリューム名の最大数は 8192 です。nmd のデフォルト値は 128 です。
インストール時、これら 2 つのフィールドに、将来予想されるクラスタの拡張を考慮した値を設定してください。クラスタの使用を開始した後で、これらのフィールド値を増やそうとすると、時間がかかります。値を変更すると、すべてのノードで再構成再起動が必要になるからです。また、後でこれらの値を増やす場合、要求されたデバイスを作成するには、ルート (/) ファイルシステムに確保された領域では不十分という可能性が高まります。
同時に、nmd フィールドおよび md_nsets フィールドには、できる限り小さい値を使用してください。デバイスを作成していなくても nmd および md_nsets によって指定された値に基づいて、可能性のあるすべてのデバイス分をメモリー構造上に確保します。最適なパフォーマンスを得るには、nmd と md_nsets の値を、使用するボリュームの数よりもわずかに高く維持します。
md.conf ファイルについての詳細は、「System Files and Startup Files」 in 『Solaris Volume Manager Administration Guide』 (Solaris 9または Solaris 10) を参照してください。
VERITAS Volume Manager (VxVM) の構成を計画する際は、次の点を考慮してください。
ノードへのアクセシビリティー - すべてのボリュームマネージャーディスクグループを、Sun Cluster デバイスグループまたはローカルのみのディスクグループとして構成する必要があります。これらの方法のいずれかでディスクグループを構成しない場合、クラスタ内のどのノードからもディスクグループ内のデバイスにアクセスできなくなります。
デバイスグループは、主ノードに障害が発生した場合、2 つ目のノードで多重ホストディスクをホストできます。
ローカルのみのディスクグループは、Sun Cluster ソフトウェアの制御外で機能し、1 度に 1 ノードからのみアクセスできます。
筐体ベースのネーミング –デバイスの筐体ベースのネーミング (Enclosure-Based Naming) を使用する場合、必ず、同じストレージを共有するすべてのクラスタノードにおいて整合性のあるデバイス名を使用してください。VxVM はこのような名前を調節しないため、VxVM が各ノードから同じデバイスに同じ名前を割り当てているかどうかは、管理者が確認する必要があります。整合性のある名前を割り当てなくても、クラスタの動作に悪影響はありません。ただし、整合性のない名前だと、クラスタの管理が極端に複雑になり、構成エラーが発生し、データが失われる可能性が高くなります。
ルートディスクグループ – ルートディスクグループの作成は任意です。
ルートディスクグループは次のディスク上に作成できます。
ルートディスク (カプセル化されている必要がある)
ルート以外の 1 つまたは複数のローカルディスク (カプセル化または初期化できるもの)
ルートディスクとルート以外のローカルディスクの組み合わせ
ルートディスクグループは、ノードに対してローカルである必要があります。
簡易ルートディスクグループ – ルートディスクの 1 つのスライスに作成される簡易ルートディスクグループは、Sun Cluster ソフトウェア上で VxVM によるディスクタイプとしてサポートされません。これは、VxVM ソフトウェアの一般的な制限です。
ボリューム数 – ディスクデバイスグループを作成するときに任意のディスクデバイスグループが使用できるボリュームの最大数を確認します。
ボリューム数が 1000 未満の場合は、デフォルトのミラー数を使用できます。
ボリューム数が 1000 以上の場合は、デバイスグループボリュームへのマイナー番号の割り当て方を慎重に計画する必要があります。2 つのデバイスグループに、オーバーラップするマイナー番号を割り当てることはできません。
ダーティリージョンログ – ダーティリージョンロギング (DRL) を使用すると、ノードに障害が発生した後に、ボリュームの回復時間を短縮できます。また、DRL を使用することで入出力のスループットを低減できることがあります。
Dynamic Multipathing (DMP) – DMP だけを使用して、ノードごとに共有記憶装置への複数の I/O パスを管理することはサポートされていません。DMP を使用できるのは、次の構成だけです。
ノードからクラスタの共有ストレージまでの I/O パスが 1 つ。
ノードから共有クラスタストレージまでの I/O パスを 2 つ以上管理できる、サポート対象のマルチパスソリューション (Sun Traffic Manager、EMC PowerPath、Hiatchi HDLM)。
詳細については、 VxVM のインストールマニュアルを参照してください。
UFS および VxFS クラスタファイルシステムには、ロギングが必要です。Sun Cluster ソフトウェアでは、ファイルシステムのロギングの方法として、次がサポートされています。
Solaris UFS ロギング – についての詳細は、mount_ufs(1M) のマニュアルページを参照してください。
SPARC:VERITAS File System (VxFS) ロギング – 詳細は、VxFS ソフトウェアに付属の mount_vxfs のマニュアルページを参照してください。
Solaris Volume Manager と VERITAS Volume Manager は、どちらも両方の種類のファイルシステムのロギングをサポートしています。
この節では、クラスタ構成のミラー化を計画する際のガイドラインについて説明します。
Sun Cluster 構成内のすべての多重ホストディスクをミラー化することにより、この構成で単一デバイスの障害を許容できるようになります。Sun Cluster ソフトウェアでは、すべての多重ホストディスクは、複数の拡張装置にまたがるようにミラー化する必要があります。ストレージデバイスがハードウェア RAID とデバイスへの冗長パスを提供する場合は、ソフトウェアミラー化を使用する必要はありません。
多重ホストディスクをミラー化する際は、次の点を考慮してください。
独立したディスク拡張装置 – ミラーまたはプレックスのサブミラーは、それぞれ異なる多重ホスト拡張装置に分散してください。
ディスク領域 – ミラー化すると、2 倍のディスク領域が必要になります。
3 方向のミラー化 – Solaris Volume Manager ソフトウェアと VERITAS Volume Manager (VxVM) は、3 方向のミラー化をサポートしています。ただし、Sun Cluster ソフトウェアが必要とするのは、2 方向のミラー化だけです。
異なるデバイスサイズ – 異なるサイズのデバイスにミラーを作成した場合、ミラーの容量は、最小のサブミラーまたはプレックスのサイズに制限されます。
多重ホストディスクについての詳細は、『Sun Cluster の概要 (Solaris OS 版)』の「多重ホストディスク記憶装置」および『Sun Cluster の概念 (Solaris OS 版)』を参照してください。
「ローカルファイルシステム配置のワークシート」に、次の計画情報を追加してください。
最高の可用性を得るには、ローカルディスク上のルート (/)、/usr、/var、/opt、swap をミラー化してください。VxVM では、ルートディスクをカプセル化し、生成されたサブディスクをミラー化します。ただし、Sun Cluster ソフトウェアでは、ルートディスクのミラー化を要求しません。
ルートディスクをミラー化するかどうかを決定する前に、危険性、複雑さ、コスト、保守時間の面から、ルートディスクに関するさまざまな方法を検討してください。どの構成でも有効に機能するというような汎用的なミラー化はありません。ルートをミラー化するかどうかを決定する際は、ご購入先に相談してください。
ルートディスクのミラー化の手順については、ボリュームマネージャーのマニュアルおよび 「Solaris Volume Manager ソフトウェアの構成」または 「VxVM ソフトウェアのインストールと構成」を参照してください。
ルートディスクをミラー化するかどうかを決定する際は、次のことを考慮してください。
起動ディスク – 起動可能ルートディスクをミラーとして設定できます。主起動ディスクに障害が発生した場合に、ミラーから起動できます。
複雑さ – ルートディスクをミラー化すると、システム管理の複雑さが増します。また、シングルユーザーモードでの起動も複雑になります。
バックアップ – ルートディスクをミラー化するかどうかに関係なく、ルートは定期的にバックアップしてください。ミラー化だけで、管理上の誤りが防げるわけではありません。誤って変更あるいは削除したファイルは、バックアップによってのみ復元できます。
定足数 (Quorum) デバイス – 定足数デバイスとして構成されたディスクは、ルートディスクのミラー化に使用しないでください。
定足数 (Quorum) – Solaris Volume Manager ソフトウェアの構成で、状態データベースの定足数が失われるという障害が発生した場合は、保守を行わない限り、システムを再起動できなくなります。状態データベースと状態データベースの複製の詳細については、Solaris Volume Manager のマニュアルを参照してください。
独立したコントローラ – 独立したコントローラにルートディスクをミラー化するという方法は、最高の可用性を得る手段の 1 つです。
二次ルートディスク – ミラー化したルートディスクを使用すると、主ルートディスクに障害が発生しても、二次 (ミラー) ルートディスクで動作を継続できます。その後、主ルートディスクは、電源を入れ直すか、一時的な入出力エラーの後に、正常に戻ることがあります。以降の起動は、eeprom(1M) boot-device パラメータに指定された主ルートディスクを使用して行われます。このような場合、手作業による修復作業は発生しませんが、起動に問題がないようにドライブは動作を開始します。Solaris Volume Manager ソフトウェアでは、再同期が行われます。再同期をするには、ドライブが正常に戻ったときに手作業が必要になります。
二次 (ミラー) ルートディスク上のファイルが変更された場合、起動中に、その変更が主ルートディスクに反映されることはありません。これにより古いサブミラーが生じます。たとえば、/etc/system ファイルに対する変更が失われることがあります。Solaris Volume Manager ソフトウェアでは、主ルートディスクが休止している間に、一部の管理コマンドによって /etc/system ファイルが変更されることがあります。
起動プログラムは、システムがミラーまたは元の物理デバイスのどちらから起動されているのかを確認しません。起動プロセスの途中(ボリュームが読み込まれたあと) でミラー化はアクティブになります。これより前の時点で、古いサブミラー問題が発生しやすくなります。