Sun Cluster は、特定のディスク配置あるいはファイルシステムサイズを必要としません。ファイルシステム階層に求められる条件は、使用するボリューム管理ソフトウェアに依存します。
Sun Cluster は、ボリューム管理ソフトウェアに関係なく、1 つのディスクグループに、HA 管理ファイルシステムの役割を果たすファイルシステムを少なくとも 1 つ必要とします。 一般に、この管理ファイルシステムは、/logicalhost (logicalhost は、実際に使用している論理ホスト名) にマウントされ、最低でも 10M バイトの大きさである必要があります。管理ファイルシステムは、データサービスの構成情報を含むプライベートディレクトリの格納に使用されます。
Solstice DiskSuite を使用するクラスタの場合は、HA 管理ファイルシステムを含むメタデバイスを作成する必要があります。HA 管理ファイルシステムは、他の多重ホストファイルシステムと同じ構成にしてください。つまり、ミラー化して、トランスデバイスとして構成してください。
SSVM または CVM を使用するクラスタの場合は、Sun Cluster によって、dg-stat (dg は、ボリュームが作成されるディスクグループ名) というボリュームに HA 管理ファイルシステムが作成されます。通常、dg は、論理ホストを定義するときに指定するディスクグループリストの先頭のディスクグループ名です。
ファイルシステムサイズとディスク配置を計画するときは、次のことを考慮してください。
ミラー化するときは、複数のコントローラにまたがってミラー化されるようにディスクを配置してください。
類似ディスクのパーティション分割方法を統一すると、管理作業が簡単になります。
Solstice DiskSuite ソフトウェアは、多重ホストディスクに、他のボリュームマネージャでは必要とされない領域を必要とし、いくつか使用制限があります。たとえば、Solstice DiskSuite で UNIX ファイルシステム (UFS) ロギングを使用する場合は、各多重ホストディスクの 1 〜 2% をメタデバイス状態データベースの複製と UFS ロギング用に予約する必要があります。具体的なガイドラインと制限事項については、付録 B 「Solstice DiskSuite の構成」 と Solstice DiskSuite のマニュアルを参照してください。
それぞれの共有ディスクセットが使用するすべてのメタデバイスは前もって (すなわち、md.conf ファイルに含まれる設定に基づいて再構成起動時に) 作成されます。md.conf ファイル内の各フィールドについては、Solstice DiskSuite のマニュアルに説明があります。Sun Cluster 構成で使用するフィールドは 2 つあり、md_nsets と nmd です。md_nsets フィールドはディスクセット数を定義し、mnd フィールドは各ディスクセット用に作成するメタデバイス数を定義します。インストール時、これら 2 つのフィールドに、将来のクラスタのあらゆる拡張を考慮した値を設定してください。
クラスタを実際に使用し始めた後で Solstice DiskSuite の構成を拡張しようとすると、すべてのノードについて再構成再起動が必要になるため、作業は時間のかかるものになります。また、要求されたあらゆるデバイスを作成するには、ルート (/) ファイルシステムに確保された領域では不十分という危険性も伴います。
md_nsets フィールドには、クラスタ内の予想される論理ホスト数に 1 を加えた値を設定して、Solstice DiskSuite が論理ホストの全プライベートディスク (すなわち、ローカルディスクセットに含まれないメタデバイス) を管理できるようにしてください。
nmd フィールドには、クラスタ内の任意の 1 つのディスクセットが使用するメタデバイスの予想最高数を設定する必要があります。 たとえば、最初の 15 のディスクセットは 10 個のメタデバイスを使用するが、16 番目のディスクセットは 1000 個のメタデバイスを使用するという場合は、nmd は最低でも 1000 に設定する必要があります。
あらゆるクラスタノード (クラスタペアトポロジの場合はクラスタペア) の md.conf ファイルの内容は、それぞれのノードがサービスを提供する論理ホスト数に関係なく、同一である必要があります。このガイドラインに従っていない場合は、重大な Solstice DiskSuite エラーが発生し、データが失われることがあります。
Solstice DiskSuite ファイルシステムの配置を計画するにあたっては、次のことを考慮してください。
アプリケーションによって、ファイルシステムの階層と命名規則が左右されることがあります。データサービスを必要とするディレクトリと名前が衝突しない限り、そうしたクラスタでファイルシステムの命名に制限が課されることはありません。
大部分のドライブについては、表 2-3 に示すパーティション分割方式を使用してください。
スライス |
説明 |
---|---|
7 |
2M バイト (Solstice DiskSuite 用に予約) |
6 |
UFS ログ |
0 |
ディスクの残り領域 |
2 |
スライス 6 と 0 のオーバーラップ部分 |
一般に、UFS ログを作成した場合は、スライス 6 のデフォルトのサイズは、システム上の最大多重ホストディスクサイズの 1% です。
スライス 2 によるスライス 6 と 0 のオーバーラップ部分は、UFS ログが存在しない raw デバイスに使用されます。
どのディスクセットについても、最初の 2 つのコントローラの先頭ドライブは、表 2-4 に示すようにパーティション分割します。
表 2-4 最初の 2 つのコントローラの先頭ドライブの多重ホストディスクのパーティション分割
スライス |
説明 |
---|---|
7 |
2M バイト (Solstice DiskSuite 用に予約) |
5 |
2M バイト (HA 管理ファイルシステム用の UFS ログ) |
4 |
9M バイト (HA 管理ファイルシステム用の UFS マスター) |
6 |
UFS ログ |
0 |
ディスクの残り領域 |
2 |
スライス 6 と 0 のオーバーラップ部分 |
ディスクグループには、必ず HA 管理ファイルシステムが関連付けられます。この HA 管理ファイルシステムが NFS で共有されることはありません。HA 管理ファイルシステムは、データサービスに固有の状態あるいは構成情報用に使用されます。
各多重ホストディスクの先頭または最後の 2M バイトは、パーティション 7 として Solstice DiskSuite 用に予約されます。
論理ホストのディスクグループに、UNIX File System (UFS) または Veritas File System (VxFS) ファイルシステムを作成できます。クラスタノードで論理ホストをマスターすると、マスターする側のノードの指定マウント先に、その論理ホストのディスクグループに関連付けられているファイルシステムがマウントされます。
論理ホストを再構成すると、Sun Cluster は、その論理ホストをマウントする前に fsck コマンドを実行することによってファイルシステムを検査します。fsck コマンドは UFS ファイルシステムに対して非対話型の並列モードでファイルシステム検査を行いますが、この検査には多少時間がかかり、再構成プロセスに影響します。VxFS は、このファイルシステム検査時間データサービスを大幅に短縮し、これは、データサービスに大きなファイルシステム (500M バイト超) が使用されている場合に特に顕著です。
ミラー化ボリュームの構成では、必ずダーティリージョンログ (DRL) を追加して、システムがクラッシュした場合のボリューム回復時間の短縮を図ってください。クラスタでミラー化ボリュームを使用する場合、500M バイトを超えるボリュームには DRL を割り当てる必要があります。
SSVM や CVM では、ディスクグループを作成するときに任意のディスクグループが使用する最高ボリューム数を予想することが重要な作業になります。このボリューム数が 1000 未満の場合は、デフォルトのマイナー番号付けを利用できます。ボリューム数が 1000 以上の場合は、ディスクグループのボリュームにマイナー番号を割り当てる方法を綿密に計画する必要があります。同じノードが共有するディスクグループの間でマイナー番号を重複して割り当てないでください。
デフォルトの番号付けを利用でき、すべてのディスクグループがインポートされている場合は、ディスクグループを作成するときに vxdg init コマンドで minor オプションを使用する必要はありません。それ以外の場合は、minor オプションを使用して、ボリュームのマイナー番号が重複して割り当てられないようにする必要があります。マイナー番号は後で変更できますが、その場合には、ディスクグループの再起動と再インポートが必要になります。詳細は、vxdg(1M) のマニュアルページを参照してください。
/etc/vfstab ファイルには、ローカルデバイスに置かれているファイルシステムのマウント先の情報が含まれています。多重ホストファイルシステムが論理ホストに使用される場合、潜在的に論理ホストをマスターできるノードはすべてこのマウント情報を持つようにします。
論理ホストのファイルシステムに対するマウント情報は、それぞれのノード上の、/etc/opt/SUNWcluster/conf/hanfs/vfstab.logicalhost という名前の独立したファイルに保持されます。このファイルの形式は、管理しやすいよう、/etc/vfstab ファイルと同じになっています。ただし、その中のすべてのフィールドが使用されるわけではありません。
クラスタを構成するすべてのノードの間で vfstab.loghostname ファイルに矛盾がないようにする必要があります。rcp コマンドまたはファイル転送プロトコル (FTP) を使用して、クラスタの他のすべてのノードにファイルをコピーしてください。あるいは、crlogin または ctelnet を使用して、ファイルを同時に編集してください。
ファイルシステムをマウントできるのは、ノードによって対応するディスクグループがインポートされている場合のみのため、複数のノードが同じファイルシステムを同時にマウントすることはできません。クラスタフレームワークの論理ホスト再構成シーケンスでは、ディスクグループのインポートと論理ホストのマスター権の整合性および一意性が適用されます。
Sun Cluster は、SPARCstorage Array (SSA) 内のプライベートディスクあるいは共有ディスクからの起動に対応しています。
SSA から起動ディスクを使用するにあたっては、次のことを考慮してください。
クラスタノードの起動ディスクはそれぞれに異なる SSA に存在する必要があります。ノードの起動ディスクが同じ SSA に存在していると、1 つのコントローラが失われた場合に、すべてのノードが停止します。
SSVM あるいは CVM 構成の場合は、同じトレイに起動ディスクと定足数デバイスを設定しないでください。2 ノードのクラスタの場合は、特にこのことが当てはまります。同じトレイに両方を配置すると、トレイを取り外したときに、クラスタから定足数デバイスばかりでなく、ノードの 1 つも失われます。どのような理由であれ、この間に残りのノードで再構成が行われると、クラスタそのものが失われます。起動ディスクと定足数デバイスを含むコントローラが故障した場合、必然的に、定足数デバイスを利用することはできなくなるため、その不良コントローラが存在するノードは停止するかクラッシュし、もう一方のノードは再構成されて異常終了します (これは、起動ディスクがあり、ルートディスクのミラー化が行われていない SSA 2 つの最小構成で発生する可能性があります)。
起動可能な SSA 構成では、起動ディスクをミラー化することを推奨します。ただし、この構成にすると、ソフトウェアのアップグレードが影響を受けます。起動ディスクがミラー化されている間は、Solaris とボリューム管理ソフトウェアのどちらもアップグレードすることはできません。こうした構成では、ルートファイルシステムが壊れないよう注意しながら、アップグレードを行う必要があります。ルートファイルシステムのミラー化についての詳細は、「ルート (/) のミラー化」を参照してください。