この節では、クラスタ環境への Solaris ソフトウェアのインストールを計画するうえでの、次のガイドラインを説明します。
Solaris ソフトウェアの詳細については、Solaris のインストールマニュアルを参照してください。
Solaris ソフトウェアは、ローカルの DVD-ROM から、あるいは JumpStartTM によるインストール方法でネットワークインストールサーバーからインストールできます。また Sun Cluster では、JumpStart インストール方法を使用して、Solaris OS と Sun Cluster ソフトウェアを同時にインストールするカスタマイズ方法もあります。複数のクラスタノードをインストールする場合は、ネットワークインストールを検討してください。
scinstall JumpStart インストール方法の詳細については、「Solaris と Sun Cluster ソフトウェアをインストールする (JumpStart)」を参照してください。Solaris の標準的なインストール方法の詳細については、Solaris のインストールマニュアルを参照してください。
Sun Cluster 構成で Solaris OS を使用する場合は、次の点に注意してください。
Solaris 10 ゾーン - Sun Cluster フレームワークソフトウェアは、大域ゾーンにのみインストールします。
Sun Cluster データサービスを非大域ゾーンに直接インストールできるかどうかについては、データサービスのマニュアルを参照してください。
グローバルクラスタノードで非大域ゾーンを構成する場合、ループバックファイルシステム (Loopback File System、LOFS) を有効にする必要があります。その他の注意事項については、LOFS の情報を参照してください。
ループバックファイルシステム (Loopback File System、LOFS) – Solaris 9 バージョンの Sun Cluster ソフトウェアによるクラスタ作成中、LOFS 機能はデフォルトで無効になります。Solaris 10 バージョンの Sun Cluster ソフトウェアでクラスタを作成中、LOFS 機能はデフォルトでは有効になっています。
クラスタが次の条件の両方を満たす場合、スイッチオーバーの問題やその他の障害を防ぐために、LOFS を無効にする必要があります。
クラスタがこれらの条件の 1 つだけしか満たさない場合、LOFS を有効にしても安全です。
LOFS と automountd デーモンの両方を有効にする必要がある場合は、Sun Cluster HA for NFS によってエクスポートされる高可用ローカルファイルシステムに含まれるファイルをすべて自動マウンタマップから除外してください。
省電力シャットダウン – 省電力のための自動シャットダウンは、Sun Cluster 構成ではサポートされないため、有効にしないでください。詳細は、pmconfig(1M)およびpower.conf(4)のマニュアルページを参照してください。
IP フィルタ – Sun Cluster ソフトウェアは、スケーラブルサービスでは Solaris IP Filter 機能をサポートしませんが、フェイルオーバーサービスでは Solaris IP Filter をサポートします。
fssnap - Sun Cluster ソフトウェアは、UFS の機能である fssnap コマンドをサポートしません。ただし、Sun Cluster ソフトウェアによって制御されないローカルシステム上で fssnap コマンドを使用できます。fssnap サポートには、次の制限が適用されます。
fssnap コマンドは、Sun Cluster ソフトウェアによって管理されていないローカルファイルシステム上でサポートされています。
fssnap コマンドは、クラスタファイルシステムではサポートされていません。
fssnap コマンドは、HAStoragePlus によって制御されるローカルファイルシステムではサポートされていません。
Sun Cluster 3.2 11/09 ソフトウェアには少なくともエンドユーザー Solaris ソフトウェアグループが必要です (SUNWCuser)。ただし、クラスタ構成の他のコンポーネントによっては、独自の Solaris ソフトウェアが必要となる場合があります。どの Solaris ソフトウェアグループをインストールするかを決定する際には、次の点を考慮してください。
サーバー - 使用するサーバーのマニュアルを参照し、Solaris ソフトウェアの必要条件を確認してください。たとえば、Sun EnterpriseTM 10000 サーバーには、Entire Solaris Software Group Plus OEM Support が必要です。
SCI-PCI アダプタ – TSPARC ベースのクラスタでのみ使用可能な SCI-PCI アダプタ、または Remote Shared Memory Application Programming Interface (RSMAPI) を使用する場合は、必ず RSMAPI ソフトウェアパッケージ (SUNWrsm と SUNWrsmo) をインストールしてください。SPARC ベースのプラットフォームで Solaris 9 OS を使用する場合は、さらに SUNWrsmx と SUNWrsmox をインストールしてください。RSMAPI ソフトウェアパッケージは、一部の Solaris ソフトウェアグループのみに含まれます。たとえば、Developer Solaris ソフトウェアグループは、RSMAPI ソフトウェアパッケージを含みますが、End User Solaris ソフトウェアグループは、このパッケージを含みません。
インストールするソフトウェアグループが、RSMAPI ソフトウェアパッケージを含まない場合は、RSMAPI ソフトウェアパッケージを手動でインストールしてから、Sun Cluster ソフトウェアをインストールしてください。手動でソフトウェアパッケージをインストールするには、pkgadd(1M) コマンドを使用します。RSMAPI の使用方法についてはセクション (3RSM) のマニュアルページを参照してください。
追加の Solaris パッケージ - エンドユーザー Solaris ソフトウェアグループに含まれていないほかの Solaris ソフトウェアパッケージのインストールが必要になる場合があります。Apache HTTP サーバパッケージがその例です。ORACLE® などの Sun 以外のソフトウェアの場合も、追加の Solaris ソフトウェアパッケージが必要になる場合があります。Solaris ソフトウェアの必要条件については、各製品のマニュアルを参照してください。
Solaris ソフトウェアパッケージを手動でインストールしなくてすむようにするには、Entire Solaris Software Group Plus OEM Support をインストールしてください。
適切な 「ローカルファイルシステム配置のワークシート」に、次の情報を追加してください。
Solaris OS をインストールするときは、必要な Sun Cluster パーティションを作成し、すべてのパーティションが各領域の最小必要条件を満たすようにします。
swap – swap 領域には、Solaris と Sun Cluster ソフトウェアを合わせて 750 MB 以上を割り当てます。最適な結果を得るには、Solaris OS に必要とされるスワップに少なくとも 512 MB を Sun Cluster ソフトウェア用に追加します。さらに、Solaris ホスト上で実行されるアプリケーションが必要とする追加の swap を割り当てます。
別の swap ファイルを作成する場合、グローバルデバイス上に swap ファイルを作成しないでください。 ローカルディスクだけをホストの swap デバイスとして使用します。
(オプション) /globaldevices – グローバルデバイスの scinstall(1M) ユーティリティで使用される、少なくとも 512 Mbytes の規模でファイルシステムを作成してください。 Solaris 10 OS 上で、 その代わり、lofi デバイスを使用する場合、このファイルシステムを作成する必要はありません。 いずれのオプションも機能面では同じです。
ボリュームマネージャー – ボリュームマネージャーで使用するために、スライス 7 に 20 M バイトのパーティションを作成します。クラスタで Veritas Volume Manager (VxVM) を使用しており、ルートディスクをカプセル化する予定の場合は、VxVM で使用できるように、2 つの未使用スライスを用意します。
Solaris OS を対話的にインストールする場合は、上記の必要条件を満たすためにパーティションをカスタマイズする必要があります。
追加のパーティションを計画する際の情報については、次のガイドラインを参照してください。
Solaris OS を実行するほかのシステムと同様、ルート (/)、/var、/usr、/opt の各ディレクトリは、別個のファイルシステムとして構成できます。または、ルート (/) ファイルシステムにすべてのディレクトリを含めることもできます。
次に、Sun Cluster 構成でのルート (/), /var, /usr、/opt の各ディレクトリのソフトウェアの内容を示します。パーティション分割案を計画するときは、次の情報を検討してください。
ルート (/) – Sun Cluster ソフトウェア自体は、ルート (/) ファイルシステムの領域を 40 MB 未満しか占有しません。Solaris ボリュームマネージャー ソフトウェアが必要とする領域は 5 MB 未満、VxVM ソフトウェアは 15 MB 未満です。十分な追加領域と i ノード容量を構成するには、一般的にルート (/) ファイルシステムに割り当てる容量に、100 MB 以上を追加します。この領域は、ブロック特殊デバイスと文字特殊デバイスの両方を作成するために、ボリューム管理ソフトウェアによって使用されます。クラスタ内に多数の共有ディスクがある場合は、特に、十分な領域を割り当てる必要があります。
Solaris 10 OS 上で、グローバルデバイスの名前空間に lofi デバイスを使用するには、100 MBytes の自由空間を設定してください。
/var – Sun Cluster ソフトウェアは、インストール時には /var ファイルシステム領域をわずかしか占有しません。ただし、ログファイル用に十分な領域を別途用意しておく必要があります。また、クラスタ化されたノードでは、標準的なスタンドアロンサーバーよりも、ログに記録されるメッセージが増えることがあります。したがって、/var ファイルシステムには最低でも 100 MB の余裕を設けてください。
/usr – Sun Cluster ソフトウェアは、/usr ファイルシステムの領域を 25 MB 未満占有します。Solaris ボリュームマネージャー および VxVM ソフトウェアが必要とする領域は、それぞれ 15 MB 未満です。
/opt – Sun Cluster フレームワークソフトウェアは、/opt ファイルシステムの領域を 2 MB 未満使用します。ただし、各 Sun Cluster データサービスで 1M から 5 MB が使用されることがあります。Solaris ボリュームマネージャー ソフトウェアは /opt ファイルシステムの領域をまったく使用しません。VxVM ソフトウェアは、そのパッケージとツールをすべてインストールした場合、40 MB 以上を使用することがあります。
また、ほとんどのデータベースおよびアプリケーションソフトウェアは、/opt ファイルシステムにインストールされます。
SPARC: Sun Management Center ソフトウェアを使用してクラスタを監視する場合、Sun Management Center エージェントと Sun Cluster モジュールパッケージをサポートするために、Solaris ホストごとに 25 MB の追加の空間が必要です。
Sun Cluster ソフトウェアはグローバルデバイスの名前空間をホストするためのロケーションを 2 つオプションで提供します。
lofi デバイス (Solaris 10 のみ)
いずれかのローカルディスク上の専用ファイルシステム (Solaris 9 または 10)
この節では、専用パーティションの使用のガイドラインについて説明します。 その代わり、 lofi上にグローバルデバイスの名前空間をホストする場合、この情報は適用されません。
/globaldevices ファイルシステムは通常使用中の root ディスク上にあります。 ただし、論理ボリュームマネージャーのボリュームなどのように、グローバルデバイスのファイルシステムを置く別のストレージを使用する場合は、このファイルシステムを Solaris ボリュームマネージャー 共有ディスクセットの一部やルートのディスクグループ以外の VxVM ディスクグループの一部にしてはいけません。このファイルシステムは、あとで UFS クラスタファイルシステムとしてマウントされます。このファイルシステムには、scinstall(1M) コマンドで認識されるデフォルトの名前 /globaldevices を付けます。
グローバルデバイスファイルシステムに有効なファイルシステムの種類は、UFS のみです。グローバルデバイスファイルシステムを作成したあとで、ファイルシステムの種類を変更しないでください。
ただし、UFS グローバルデバイスファイルシステムは、ZFS を使用する他の root ファイルシステムを持つノード上に共存できます。
scinstall コマンドは、あとでファイルシステム /global/.devices/node@nodeid の名前を変更します。ここで、nodeid は、グローバルクラスタメンバーになったときに Solaris ホストに割り当てられる番号を表します。元の /globaldevices マウントポイントは、削除されます。
/globaldevices ファイルシステムには、ブロック特殊デバイスと文字特殊デバイスの両方を作成するための十分な領域と十分な i ノード容量が必要です。このガイドラインは、クラスタ内に多数のディスクがある場合に、特に重要です。通常のクラスタ構成の場合、ファイルシステムのサイズは 512 MB で十分です。
Solaris ボリュームマネージャー ソフトウェアを使用する場合、状態データベースの複製の作成に使用できるように、ルートディスク上にスライスを別途用意しておく必要があります。つまり、各ローカルディスク上に、複製のためのスライスを別に用意します。ただし 1 つの Solaris ホストにローカルディスクが 1 つしかない場合は、Solaris ボリュームマネージャー ソフトウェアが正しく動作するように、同じスライス内に 3 つの状態データベースの複製を作成する必要が生じることがあります。詳細については、Solaris ボリュームマネージャー のマニュアルを参照してください。
VxVM (Veritas Volume Manager) を使用しており、ルートディスクをカプセル化する予定の場合は、VxVM で使用できるように、2 つの未使用スライスを用意します。さらに、ディスクの始点または終点に若干の割り当てられていない空き領域が必要になります。ルートディスクのカプセル化については、VxVM のマニュアルを参照してください。
表 1–2に、750 MB 未満の物理メモリーを持つ Solaris ホストのパーティション分割案を示します。この案では、End User Solaris ソフトウェアグループ、Sun Cluster ソフトウェア、および Sun Cluster HA for NFS データサービスをインストールします。ディスク上の最後のスライスであるスライス 7 には、ボリューム管理ソフトウェア用に若干の量を割り当てます。
この配置は、Solaris ボリュームマネージャー ソフトウェアまたは VxVM ソフトウェアの使用を意図したものです。Solaris ボリュームマネージャー ソフトウェアを使用する場合は、状態データベースの複製用にスライス 7 を使用します。VxVM を使用する場合は、スライスに 0 の長さを割り当てることで、あとでスライス 7 を解放できます。この配置によって 必要な 2 つの空きスライス 4 と 7 が確保され、ディスクの終端に未使用領域が確保されます。
表 1–2 ファイルシステム割り当ての例
スライス |
内容 |
割り当てサイズ |
説明 |
---|---|---|---|
0 |
/ |
6.75GB |
スライス 1 潤オ 7 に領域が割り当てられたあとに、ディスク上に残っている空き領域。Solaris OS、Sun Cluster ソフトウェア、データサービスソフトウェア、ボリュームマネージャーソフトウェア、Sun Management Center エージェントおよび Sun Cluster モジュールエージェントのパッケージ、ルートファイルシステム、データベースおよびアプリケーションソフトウェア用に使用されます。 |
1 |
swap |
1GB |
512 MB - Solaris OS 用 512 MB - Sun Cluster ソフトウェア用 |
2 |
オーバーラップ |
8.43GB |
ディスク全体 |
3 |
/globaldevices |
512MB |
このスライスは、Sun Cluster ソフトウェアによって後で別のマウントポイントに割り当てられ、クラスタファイルシステムとしてマウントします。Solaris 10 OS 上で、専用パーティションではなく、lofi デバイスを選択する場合、スライス 3 を未使用のままにします。. |
4 |
未使用 |
- |
VxVM でルートディスクをカプセル化するための空きスライスとして確保します。 |
5 |
未使用 |
- |
- |
6 |
未使用 |
- |
- |
7 |
ボリューム管理ソフトウェア |
20MB |
Solaris ボリュームマネージャー ソフトウェアにより状態データベースの複製用に使用するか、スライス解放後に VxVM によってインストールの際に使用します。 |
クラスタ内の Solaris 10 ゾーンの目的と機能の詳細は、『Sun Cluster Concepts Guide for Solaris OS』の「Support for Solaris Zones」を参照してください。
非大域ゾーンのクラスタ構成のガイドラインについては、「ゾーンクラスタ」を参照してください。
グローバルクラスタノードで、Solaris 10 非大域ゾーン (あるいは単に「ゾーン」と呼ぶ) を作成する場合、次の点に注意してください。
複数のノードでのゾーン名の再使用 - クラスタ管理を簡単にするために、対象となるリソースグループに含まれるゾーンに対して、ノード間で同じ名前を使用することができます。
プライベート IP アドレス - クラスタで使用できるよりも多くのプライベート IP アドレスを使用しようとしないでください。
マウント - グローバルマウントをゾーンに含めないでください。ループバックマウントだけを含めてください。
フェイルオーバーサービス - 複数ホストのクラスタでは、Sun Cluster ソフトウェアはフェイルオーバーリソースグループのノードリストに、同じ Solaris ホストの異なるゾーンを指定できますが、これが便利なのはテスト中だけです。単一ホストにノードリスト内のすべてのゾーンが含まれる場合、ノードはそのリソースグループの単一障害点になります。可用性を最大にするために、フェイルオーバーリソースグループのノードリストのゾーンは、別のホストに置く必要があります。
単一ホストのクラスタでは、フェイルオーバーリソースグループのノードリストで複数のゾーンを指定しても機能的なリスクはありません。
スケーラブルサービス - 同じ Solaris ホストの同じスケーラブルサービスで使用する非大域ゾーンを作成しないでください。スケーラブルサービスの各インスタンスは、別々のホストで実行する必要があります。
クラスタファイルシステム - UFS または VxFS を使用するクラスタファイルシステムの場合、zonecfs コマンドを使用して、クラスタファイルシステムをグローバル以外のゾーンに直接追加しないでください。 代わりに、HAStoragePlus リソースを構成してください。これは、グローバル以外のゾーンでクラスタファイルシステムのマウントを管理し、グローバル以外のゾーンでクラスタファイルシステムのループバックマウントを実行します。
LOFS - Solaris ゾーンでは、ループバックファイルシステム (Loopback File System、LOFS) を有効にする必要があります。ただし、Sun Cluster HA for NFS データサービスでは、スイッチオーバーの問題やその他の障害を避けるために、LOFS を無効にする必要があります。クラスタで非大域ゾーンと Sun Cluster HA for NFS の両方を構成する場合、データサービスの問題の発生を防ぐために次のいずれかの手順を実行してください。
automountd デーモンを無効にします。
Sun Cluster HA for NFS からエクスポートされた高可用ローカルファイルシステムに含まれるすべてのファイルをオートマウンタマップから除外します。
排他的 IP ゾーン - 排他的 IP の非大域ゾーンには、特に次のガイドラインが適用されます。
論理ホスト名リソースグループ - LogicalHostname リソースが含まれるリソースグループでは、ip-type プロパティーが exclusive に設定された非大域ゾーンがノードリストに含まれる場合、そのノードリスト内のすべてのゾーンのこのプロパティーが exclusive に設定されている必要があります。大域ゾーンの ip-type プロパティーは常に shared に設定されているため、ip-type=exclusive のゾーンが含まれるノードリストで共存できない点に注意してください。この制限は、Solaris ゾーンの ip-type プロパティーを使用する Solaris OS のバージョンにのみ適用されます。
IPMP グループ - 非大域ゾーンのデータサービストラフィックに使用されるすべてのパブリックネットワークアダプタについては、ゾーン上のすべての /etc/hostname.adapter ファイルで IPMP グループを手動で設定する必要があります。この情報は、大域ゾーンから継承されません。IPMP グループの設定のガイドラインと手順については、『Solaris のシステム管理 (IP サービス)』のパート VI「IPMP」 を参照してください。
プライベートホスト名の依存性 - 排他的 IP ゾーンは、クラスタのプライベートホスト名とプライベートアドレスに依存できません。
共有アドレスリソース - 共有アドレスリソースは、排他的 IP ゾーンを使用できません。
SPARC ハイパーバイザ対応の物理的にクラスタ化されたマシン上で、Sun Logical Domains (LDoms) I/O ドメインまたはゲストドメインを作成する場合、次の点に注意してください。
SCSI LUN の必要条件 - Sun LDoms ゲストドメインの仮想共有ストレージデバイス、または仮想ディスクバックエンドは、I/O ドメイン内の完全な SCSI LUN である必要があります。任意の仮想デバイスは使用できません。
フェンシング - デバイスのフェンシングも無効にしない限り、同じ物理マシン上の複数のゲストドメインにストレージ LUN をエクスポートしないでください。そうしないと、あるデバイスから同じマシン上の 2 つのゲストドメインの両方が見える状態にある場合に、ゲストドメインの 1 つに障害が発生すると、そのデバイスがフェンシングされます。デバイスがフェンシングされると、そのあとでデバイスへのアクセスを試みるほかのゲストドメインでパニックが発生する可能性があります。
ネットワークの分離 - 同じ物理マシン上にあるが、異なるクラスタに構成されているゲストドメインは、互いに別のネットワークにある必要があります。次のいずれかの方法を使用します。
プライベートネットワークの I/O ドメイン内で異なるネットワークインタフェースを使用するように、クラスタを構成する。
クラスタごとに異なるネットワークアドレスを使用する。
ゲストドメイン内のネットワーク - ゲストドメイン間で送受信するネットワークパケットは、仮想スイッチを介してネットワークドライバに到達するためにサービスドメインをトラバースします。仮想スイッチでは、システムの優先順位に従って実行されるカーネルスレッドを使用します。仮想スイッチスレッドは、ハートビート、メンバーシップ、チェックポイントなど、重要なクラスタ操作を実行するために必要な CPU リソースを取得します。mode=sc 設定で仮想スイッチを構成すると、クラスタのハートビートパケットを迅速に処理できます。ただし、次のワークロードの下では CPU リソースをサービスドメインに追加して、重要なほかのクラスタ操作の信頼性を向上させることができます。
ネットワークまたはディスク I/O が原因で生じる高い割り込み負荷。過度の負荷の下では、仮想スイッチにより仮想スイッチスレッドなどのシステムスレッドが長時間実行されることがないようにできます。
CPU リソースを保持することに過度に積極的なリアルタイムスレッド。リアルタイムスレッドは、仮想スイッチスレッドよりも高い優先順位で実行されるため、長時間仮想スイッチスレッドを使用する場合の CPU リソースを制限できます。
非共有ストレージ - Solaris 10 OS 上では、 LDoms ゲストドメイン OS イメージといった非共有ストレージの場合、任意の種類の仮想デバイスを使用できます。 I/O ドメインにファイルやボリュームを実装すれば、そうした仮想デバイスを強化できます。. ただし、同じクラスタの別のゲストドメインにマッピングする目的で、ファイルまたは複製ボリュームを I/O ドメインにコピーしないでください 。. 作成される仮想デバイスの別のゲストドメインに同じデバイスが確認されるため、そのようなコピーまたは複製は問題を発生させる場合があります。 I/O ドメインには常に新しいファイルまたはデバイスを作成してください。一意のデバイスを割り当てて、その新しいファイルまたはデバイスを別のゲストドメインにマッピングしてください。
I/O ドメインからのストレージのエクスポート - Sun Logical Domains I/O ドメインで構成されるクラスタを構成する場合、Sun Cluster ソフトウェアを実行しているほかのゲストドメインにストレージデバイスをエクスポートしないでください。
Solaris I/O マルチパス – ゲストドメインから Solaris I/O マルチパスソフトウェア (MPxIO) を実行しないでください。その代わりに、I/O ドメインで Solaris I/O マルチパスソフトウェアを実行し、その結果をゲストドメインにエクスポートしてください。
プライベートインターコネクトの IP アドレスの範囲 - プライベートネットワークは、同じ物理マシン上で作成されたすべてのゲストドメインで共有され、これらのすべてのドメインに表示されます。ゲストドメインクラスタで使用するための scinstall ユーティリティーに対してプライベートネットワークの IP アドレスの範囲を指定する前に、同じ物理マシン上の別のゲストドメインがそのアドレスの範囲を使用していないことを必ず確認してください。
Sun Logical Domains の詳細は、『Logical Domains (LDoms) 1.0.3 Administration Guide』を参照してください。