この章では、Sun Cluster をインストールする際の計画情報とガイドラインについて説明します。
この章の内容は次のとおりです。
次の表は、Sun Cluster ソフトウェアのインストール作業手順の参照箇所です。
表 1–1 Sun Cluster ソフトウェアのインストール作業の参照箇所
作業 |
参照先 |
---|---|
クラスタハードウェアの設定 |
『Sun Cluster 3.1 - 3.2 Hardware Administration Manual for Solaris OS 』 サーバーや記憶装置に付属しているマニュアル |
グローバルクラスタソフトウェアのインストールの計画 | |
ソフトウェアパッケージのインストール。必要に応じて、Sun StorageTekTM QFS ソフトウェアをインストールおよび構成します。 |
『Sun StorageTek QFS Installation and Upgrade Guide, Version 4, Update 6 』 |
新規グローバルクラスタまたは新規グローバルクラスタノードの確立 | |
Solaris ボリュームマネージャー ソフトウェアの構成 |
「Solaris ボリュームマネージャー ソフトウェアの構成」 Solaris ボリュームマネージャー のマニュアル |
VERITAS Volume Manager (VxVM) ソフトウェアのインストールと構成 |
VxVM のマニュアル |
クラスタファイルシステムの構成 (使用する場合) | |
(省略可能) Solaris 10 OS での非大域ゾーンの作成 | |
(省略可能) Solaris 10 OS でのゾーンクラスタの作成 | |
(省略可能) SPARC: Sun Cluster モジュールの Sun Management Center へのインストールと構成 |
「SPARC: Sun Cluster モジュールを Sun Management Center 用にインストールする」 Sun Management Center のマニュアル |
リソースグループとデータサービスの計画、インストール、構成。可用性の高いローカルファイルシステムの作成 (使用する場合) |
『Sun Cluster Data Services Planning and Administration Guide for Solaris OS 』 |
カスタムデータサービスの開発 |
『Sun Cluster Data Services Developer’s Guide for Solaris OS 』 |
この節では、クラスタ環境への Solaris ソフトウェアのインストールを計画するうえでの、次のガイドラインを説明します。
Solaris ソフトウェアの詳細については、Solaris のインストールマニュアルを参照してください。
Solaris ソフトウェアは、ローカルの DVD-ROM から、あるいは JumpStartTM によるインストール方法でネットワークインストールサーバーからインストールできます。また Sun Cluster では、JumpStart インストール方法を使用して、Solaris OS と Sun Cluster ソフトウェアを同時にインストールするカスタマイズ方法もあります。複数のクラスタノードをインストールする場合は、ネットワークインストールを検討してください。
scinstall JumpStart インストール方法の詳細については、「Solaris と Sun Cluster ソフトウェアをインストールする (JumpStart)」を参照してください。Solaris の標準的なインストール方法の詳細については、Solaris のインストールマニュアルを参照してください。
Sun Cluster 構成で Solaris OS を使用する場合は、次の点に注意してください。
Solaris 10 ゾーン - Sun Cluster フレームワークソフトウェアは、大域ゾーンにのみインストールします。
Sun Cluster データサービスを非大域ゾーンに直接インストールできるかどうかについては、データサービスのマニュアルを参照してください。
グローバルクラスタノードで非大域ゾーンを構成する場合、ループバックファイルシステム (Loopback File System、LOFS) を有効にする必要があります。その他の注意事項については、LOFS の情報を参照してください。
ループバックファイルシステム (Loopback File System、LOFS) – Solaris 9 バージョンの Sun Cluster ソフトウェアによるクラスタ作成中、LOFS 機能はデフォルトで無効になります。Solaris 10 バージョンの Sun Cluster ソフトウェアでクラスタを作成中、LOFS 機能はデフォルトでは有効になっています。
クラスタが次の条件の両方を満たす場合、スイッチオーバーの問題やその他の障害を防ぐために、LOFS を無効にする必要があります。
クラスタがこれらの条件の 1 つだけしか満たさない場合、LOFS を有効にしても安全です。
LOFS と automountd デーモンの両方を有効にする必要がある場合は、Sun Cluster HA for NFS によってエクスポートされる高可用ローカルファイルシステムに含まれるファイルをすべて自動マウンタマップから除外してください。
インタフェースグループ – Solaris インタフェースグループ機能は、Sun Cluster 構成ではサポートされません。 Solaris のインタフェースグループ機能は、Solaris ソフトウェアのインストール中にデフォルトで無効に設定されます。Solaris インタフェースグループ機能は有効にしないでください。Solaris インタフェースグループについての詳細は、ifconfig(1M) のマニュアルページを参照してください。
省電力シャットダウン – 省電力のための自動シャットダウンは、Sun Cluster 構成ではサポートされないため、有効にしないでください。詳細は、pmconfig(1M)およびpower.conf(4)のマニュアルページを参照してください。
IP フィルタ – Sun Cluster ソフトウェアは、スケーラブルサービスでは Solaris IP Filter 機能をサポートしませんが、フェイルオーバーサービスでは Solaris IP Filter をサポートします。
fssnap - Sun Cluster ソフトウェアは、UFS の機能である fssnap コマンドをサポートしません。ただし、Sun Cluster ソフトウェアによって制御されないローカルシステム上で fssnap コマンドを使用できます。fssnap サポートには、次の制限が適用されます。
fssnap コマンドは、Sun Cluster ソフトウェアによって管理されていないローカルファイルシステム上でサポートされています。
fssnap コマンドは、クラスタファイルシステムではサポートされていません。
fssnap コマンドは、HAStoragePlus によって制御されるローカルファイルシステムではサポートされていません。
Sun Cluster 3.2 1/09 ソフトウェアには少なくともエンドユーザー Solaris ソフトウェアグループが必要です (SUNWCuser)。ただし、クラスタ構成の他のコンポーネントによっては、独自の Solaris ソフトウェアが必要となる場合があります。どの Solaris ソフトウェアグループをインストールするかを決定する際には、次の点を考慮してください。
サーバー - 使用するサーバーのマニュアルを参照し、Solaris ソフトウェアの必要条件を確認してください。たとえば、Sun EnterpriseTM 10000 サーバーには、Entire Solaris Software Group Plus OEM Support が必要です。
SCI-PCI アダプタ – TSPARC ベースのクラスタでのみ使用可能な SCI-PCI アダプタ、または リモート共用メモリーアプリケーションプログラミングインターフェース (RSMAPI) を使用する場合は、必ず RSMAPI ソフトウェアパッケージ (SUNWrsm と SUNWrsmo) をインストールしてください。SPARC ベースのプラットフォームで Solaris 9 OS を使用する場合は、さらに SUNWrsmx と SUNWrsmox をインストールしてください。RSMAPI ソフトウェアパッケージは、一部の Solaris ソフトウェアグループのみに含まれます。たとえば、開発者 Solaris ソフトウェアグループは、RSMAPI ソフトウェアパッケージを含みますが、エンドユーザー Solaris ソフトウェアグループは、このパッケージを含みません。
インストールするソフトウェアグループが、RSMAPI ソフトウェアパッケージを含まない場合は、RSMAPI ソフトウェアパッケージを手動でインストールしてから、Sun Cluster ソフトウェアをインストールしてください。手動でソフトウェアパッケージをインストールするには、pkgadd(1M) コマンドを使用します。RSMAPI の使用方法についてはセクション (3RSM) のマニュアルページを参照してください。
追加の Solaris パッケージ - エンドユーザー Solaris ソフトウェアグループに含まれていないほかの Solaris ソフトウェアパッケージのインストールが必要になる場合があります。Apache HTTP サーバパッケージがその例です。ORACLE® などの Sun 以外のソフトウェアの場合も、追加の Solaris ソフトウェアパッケージが必要になる場合があります。Solaris ソフトウェアの必要条件については、各製品のマニュアルを参照してください。
Solaris ソフトウェアパッケージを手動でインストールしなくてすむようにするには、Entire Solaris Software Group Plus OEM Support をインストールしてください。
適切な「ローカルファイルシステム配置のワークシート」に、次の情報を追加してください。
Solaris OS をインストールするときは、必要な Sun Cluster パーティションを作成し、すべてのパーティションが各領域の最小必要条件を満たすようにします。
swap – swap 領域には、Solaris と Sun Cluster ソフトウェアを合わせて 750 MB 以上を割り当てます。最適な結果を得るには、Solaris OS に必要とされるスワップに少なくとも 512 MB を Sun Cluster ソフトウェア用に追加します。さらに、Solaris ホスト上で実行されるアプリケーションが必要とする追加の swap を割り当てます。
追加の swap ファイルを作成する場合は、グローバルデバイス上に swap ファイルを作成しないでください。ローカルディスクだけをホストの swap デバイスとして使用します。
/globaldevices – scinstall(1M)ユーティリティーがグローバルデバイスのために使用する少なくとも 512 MB のファイルシステムを作成します。
ボリュームマネージャー – ボリュームマネージャーで使用するために、スライス 7 に 20 MB のパーティションを作成します。クラスタで Veritas Volume Manager (VxVM) を使用しており、ルートディスクをカプセル化する予定の場合は、VxVM で使用できるように、2 つの未使用スライスを用意します。
Solaris OS を対話的にインストールする場合は、上記の必要条件を満たすためにパーティションをカスタマイズする必要があります。
追加のパーティションを計画する際の情報については、次のガイドラインを参照してください。
Solaris OS を実行するほかのシステムと同様、ルート (/)、/var、/usr、/opt の各ディレクトリは、別個のファイルシステムとして構成できます。または、ルート (/) ファイルシステムにすべてのディレクトリを含めることもできます。
ルート (/) ファイルシステムに有効なファイルシステムの種類は、UFS のみです。ルート (/) ファイルシステムを作成したあとで、ファイルシステムの種類を変更しないでください。
次に、Sun Cluster 構成でのルート (/), /var, /usr、/opt の各ディレクトリのソフトウェアの内容を示します。パーティション分割案を計画するときは、次の情報を検討してください。
ルート (/) – Sun Cluster ソフトウェア自体は、ルート (/) ファイルシステムの領域を 40 MB 未満しか占有しません。Solaris ボリュームマネージャー ソフトウェアが必要とする領域は 5 MB 未満、VxVM ソフトウェアは 15 MB 未満です。十分な追加領域と i ノード容量を構成するには、一般的にルート (/) ファイルシステムに割り当てる容量に、100 MB 以上を追加します。この領域は、ブロック特殊デバイスと文字特殊デバイスの両方を作成するために、ボリューム管理ソフトウェアによって使用されます。クラスタ内に多数の共有ディスクがある場合は、特に、十分な領域を割り当てる必要があります。
/var – Sun Cluster ソフトウェアは、インストール時には /var ファイルシステム領域をわずかしか占有しません。ただし、ログファイル用に十分な領域を別途用意しておく必要があります。また、クラスタ化されたノードでは、標準的なスタンドアロンサーバーよりも、ログに記録されるメッセージが増えることがあります。したがって、/var ファイルシステムには最低でも 100 MB の余裕を設けてください。
/usr – Sun Cluster ソフトウェアは、/usr ファイルシステムの領域を 25 MB 未満占有します。Solaris ボリュームマネージャー および VxVM ソフトウェアが必要とする領域は、それぞれ 15 MB 未満です。
/opt – Sun Cluster フレームワークソフトウェアは、/opt ファイルシステムの領域を 2 MB 未満使用します。ただし、各 Sun Cluster データサービスで 1M から 5 MB が使用されることがあります。Solaris ボリュームマネージャー ソフトウェアは /opt ファイルシステムの領域をまったく使用しません。VxVM ソフトウェアは、そのパッケージとツールをすべてインストールした場合、40 MB 以上を使用することがあります。
また、ほとんどのデータベースおよびアプリケーションソフトウェアは、/opt ファイルシステムにインストールされます。
SPARC: Sun Management Center ソフトウェアを使用してクラスタを監視する場合、Sun Management Center エージェントと Sun Cluster モジュールパッケージをサポートするために、Solaris ホストごとに 25 MB の追加の空間が必要です。
Sun Cluster ソフトウェアでは、グローバルデバイスの管理に使用するローカルディスクのいずれかに、専用のファイルシステムを別途用意しておく必要があります。このファイルシステムは、通常ルートディスクに置かれます。ただし、論理ボリュームマネージャーのボリュームなどのように、グローバルデバイスのファイルシステムを置く別のストレージを使用する場合は、このファイルシステムを Solaris ボリュームマネージャー 共有ディスクセットの一部やルートのディスクグループ以外の VxVM ディスクグループの一部にしてはいけません。このファイルシステムは、あとで UFS クラスタファイルシステムとしてマウントされます。このファイルシステムには、scinstall(1M) コマンドで認識されるデフォルトの名前 /globaldevices を付けます。
グローバルデバイスファイルシステムに有効なファイルシステムの種類は、UFS のみです。グローバルデバイスファイルシステムを作成したあとで、ファイルシステムの種類を変更しないでください。
scinstall コマンドは、あとでファイルシステム /global/.devices/node@nodeid の名前を変更します。ここで、nodeid は、グローバルクラスタメンバーになったときに Solaris ホストに割り当てられる番号を表します。元の /globaldevices マウントポイントは、削除されます。
/globaldevices ファイルシステムには、ブロック特殊デバイスと文字特殊デバイスの両方を作成するための十分な領域と十分な i ノード容量が必要です。このガイドラインは、クラスタ内に多数のディスクがある場合に、特に重要です。通常のクラスタ構成の場合、ファイルシステムのサイズは 512 MB で十分です。
Solaris ボリュームマネージャー ソフトウェアを使用する場合、状態データベースの複製の作成に使用できるように、ルートディスク上にスライスを別途用意しておく必要があります。つまり、各ローカルディスク上に、複製のためのスライスを別に用意します。ただし 1 つの Solaris ホストにローカルディスクが 1 つしかない場合は、Solaris ボリュームマネージャー ソフトウェアが正しく動作するように、同じスライス内に 3 つの状態データベースの複製を作成する必要が生じることがあります。詳細については、Solaris ボリュームマネージャー のマニュアルを参照してください。
VxVM (Veritas Volume Manager) を使用しており、ルートディスクをカプセル化する予定の場合は、VxVM で使用できるように、2 つの未使用スライスを用意します。さらに、ディスクの始点または終点に若干の割り当てられていない空き領域が必要になります。ルートディスクのカプセル化については、VxVM のマニュアルを参照してください。
表 1–2に、750 MB 未満の物理メモリーを持つ Solaris ホストのパーティション分割案を示します。この案では、エンドユーザー Solaris ソフトウェアグループ、Sun Cluster ソフトウェア、および Sun Cluster HA for NFS データサービスをインストールします。ディスク上の最後のスライスであるスライス 7 には、ボリューム管理ソフトウェア用に若干の量を割り当てます。
この配置は、Solaris ボリュームマネージャー ソフトウェアまたは VxVM ソフトウェアの使用を意図したものです。Solaris ボリュームマネージャー ソフトウェアを使用する場合は、状態データベースの複製用にスライス 7 を使用します。VxVM を使用する場合は、スライスに 0 の長さを割り当てることで、あとでスライス 7 を解放できます。この配置によって 必要な 2 つの空きスライス 4 と 7 が確保され、ディスクの終端に未使用領域が確保されます。
表 1–2 ファイルシステム割り当ての例
スライス |
内容 |
割り当てサイズ |
説明 |
---|---|---|---|
0 |
/ |
6.75 GB |
スライス 1 ~ 7 に領域が割り当てられたあとに、ディスク上に残っている空き領域。Solaris OS、Sun Cluster ソフトウェア、データサービスソフトウェア、ボリュームマネージャーソフトウェア、Sun Management Center エージェントおよび Sun Cluster モジュールエージェントのパッケージ、ルートファイルシステム、データベースおよびアプリケーションソフトウェア用に使用されます。 |
1 |
swap |
1 GB |
512 MB - Solaris OS 用 512 MB - Sun Cluster ソフトウェア用 |
2 |
オーバーラップ |
8.43 GB |
ディスク全体 |
3 |
/globaldevices |
512 MB |
このスライスは、Sun Cluster ソフトウェアによって後で別のマウントポイントに割り当てられ、クラスタファイルシステムとしてマウントします。 |
4 |
未使用 |
- |
VxVM でルートディスクをカプセル化するための空きスライスとして確保します。 |
5 |
未使用 |
- |
- |
6 |
未使用 |
- |
- |
7 |
ボリューム管理ソフトウェア |
20 MB |
Solaris ボリュームマネージャー ソフトウェアにより状態データベースの複製用に使用するか、スライス解放後に VxVM によってインストールの際に使用します。 |
クラスタ内の Solaris 10 ゾーンの目的と機能の詳細は、『Sun Cluster Concepts Guide for Solaris OS』の「Support for Solaris Zones」を参照してください。
非大域ゾーンのクラスタ構成のガイドラインについては、「ゾーンクラスタ」を参照してください。
グローバルクラスタノードで、Solaris 10 非大域ゾーン (あるいは単に「ゾーン」と呼ぶ) を作成する場合、次の点に注意してください。
複数のノードでのゾーン名の再使用 - クラスタ管理を簡単にするために、対象となるリソースグループに含まれるゾーンに対して、ノード間で同じ名前を使用することができます。
プライベート IP アドレス - クラスタで使用できるよりも多くのプライベート IP アドレスを使用しようとしないでください。
マウント - グローバルマウントをゾーンに含めないでください。ループバックマウントだけを含めてください。
フェイルオーバーサービス - 複数ホストのクラスタでは、Sun Cluster ソフトウェアはフェイルオーバーリソースグループのノードリストに、同じ Solaris ホストの異なるゾーンを指定できますが、これが便利なのはテスト中だけです。単一ホストにノードリスト内のすべてのゾーンが含まれる場合、ノードはそのリソースグループの単一障害点になります。可用性を最大にするために、フェイルオーバーリソースグループのノードリストのゾーンは、別のホストに置く必要があります。
単一ホストのクラスタでは、フェイルオーバーリソースグループのノードリストで複数のゾーンを指定しても機能的なリスクはありません。
スケーラブルサービス - 同じ Solaris ホストの同じスケーラブルサービスで使用する非大域ゾーンを作成しないでください。スケーラブルサービスの各インスタンスは、別々のホストで実行する必要があります。
クラスタファイルシステム - クラスタファイルシステムを大域ゾーンから非大域ゾーンに直接追加しないでください。 代わりに、クラスタファイルシステムのループバックマウントを大域ゾーンから非大域ゾーンに追加してください。この制限は、QFS 共有ファイルシステムには適用されません。
LOFS - Solaris ゾーンでは、ループバックファイルシステム (Loopback File System、LOFS) を有効にする必要があります。ただし、Sun Cluster HA for NFS データサービスでは、スイッチオーバーの問題やその他の障害を避けるために、LOFS を無効にする必要があります。クラスタで非大域ゾーンと Sun Cluster HA for NFS の両方を構成する場合、データサービスの問題の発生を防ぐために次のいずれかの手順を実行してください。
automountd デーモンを無効にします。
Sun Cluster HA for NFS からエクスポートされた高可用ローカルファイルシステムに含まれるすべてのファイルをオートマウンタマップから除外します。
排他的 IP ゾーン - 排他的 IP の非大域ゾーンには、特に次のガイドラインが適用されます。
論理ホスト名リソースグループ - LogicalHostname リソースが含まれるリソースグループでは、ip-type プロパティーが exclusive に設定された非大域ゾーンがノードリストに含まれる場合、そのノードリスト内のすべてのゾーンのこのプロパティーが exclusive に設定されている必要があります。大域ゾーンの ip-type プロパティーは常に shared に設定されているため、ip-type=exclusive のゾーンが含まれるノードリストで共存できない点に注意してください。この制限は、Solaris ゾーンの ip-type プロパティーを使用する Solaris OS のバージョンにのみ適用されます。
IPMP グループ - 非大域ゾーンのデータサービストラフィックに使用されるすべてのパブリックネットワークアダプタについては、ゾーン上のすべての /etc/hostname.adapter ファイルで IPMP グループを手動で設定する必要があります。この情報は、大域ゾーンから継承されません。IPMP グループの設定のガイドラインと手順については、『Solaris のシステム管理 (IP サービス)』のパート VI「IPMP」を参照してください。
プライベートホスト名の依存性 - 排他的 IP ゾーンは、クラスタのプライベートホスト名とプライベートアドレスに依存できません。
共有アドレスリソース - 共有アドレスリソースは、排他的 IP ゾーンを使用できません。
SPARC ハイパーバイザ対応の物理的にクラスタ化されたマシン上で、Sun Logical Domains (LDoms) I/O ドメインまたはゲストドメインを作成する場合、次の点に注意してください。
SCSI LUN の必要条件 - Sun LDoms ゲストドメインの仮想共有ストレージデバイス、または仮想ディスクバックエンドは、I/O ドメイン内の完全な SCSI LUN である必要があります。任意の仮想デバイスは使用できません。
フェンシング - デバイスのフェンシングも無効にしない限り、同じ物理マシン上の複数のゲストドメインにストレージ LUN をエクスポートしないでください。そうしないと、あるデバイスから同じマシン上の 2 つのゲストドメインの両方が見える状態にある場合に、ゲストドメインの 1 つに障害が発生すると、そのデバイスがフェンシングされます。デバイスがフェンシングされると、そのあとでデバイスへのアクセスを試みるほかのゲストドメインでパニックが発生する可能性があります。
ネットワークの分離 - 同じ物理マシン上にあるが、異なるクラスタに構成されているゲストドメインは、互いに別のネットワークにある必要があります。次のいずれかの方法を使用します。
プライベートネットワークの I/O ドメイン内で異なるネットワークインタフェースを使用するように、クラスタを構成する。
クラスタごとに異なるネットワークアドレスを使用する。
ゲストドメイン内のネットワーク - ゲストドメイン間で送受信するネットワークパケットは、仮想スイッチを介してネットワークドライバに到達するためにサービスドメインをトラバースします。仮想スイッチでは、システムの優先順位に従って実行されるカーネルスレッドを使用します。仮想スイッチスレッドは、ハートビート、メンバーシップ、チェックポイントなど、重要なクラスタ操作を実行するために必要な CPU リソースを取得します。mode=sc 設定で仮想スイッチを構成すると、クラスタのハートビートパケットを迅速に処理できます。ただし、次のワークロードの下では CPU リソースをサービスドメインに追加して、重要なほかのクラスタ操作の信頼性を向上させることができます。
ネットワークまたはディスク I/O が原因で生じる高い割り込み負荷。過度の負荷の下では、仮想スイッチにより仮想スイッチスレッドなどのシステムスレッドが長時間実行されることがないようにできます。
CPU リソースを保持することに過度に積極的なリアルタイムスレッド。リアルタイムスレッドは、仮想スイッチスレッドよりも高い優先順位で実行されるため、長時間仮想スイッチスレッドを使用する場合の CPU リソースを制限できます。
I/O ドメインからのストレージのエクスポート - Sun Logical Domains I/O ドメインで構成されるクラスタを構成する場合、Sun Cluster ソフトウェアを実行しているほかのゲストドメインにストレージデバイスをエクスポートしないでください。
Solaris I/O マルチパス – ゲストドメインから Solaris I/O マルチパスソフトウェア (MPxIO) を実行しないでください。その代わりに、I/O ドメインで Solaris I/O マルチパスソフトウェアを実行し、その結果をゲストドメインにエクスポートしてください。
プライベートインターコネクトの IP アドレスの範囲 - プライベートネットワークは、同じ物理マシン上で作成されたすべてのゲストドメインで共有され、これらのすべてのドメインに表示されます。ゲストドメインクラスタで使用するための scinstall ユーティリティーに対してプライベートネットワークの IP アドレスの範囲を指定する前に、同じ物理マシン上の別のゲストドメインがそのアドレスの範囲を使用していないことを必ず確認してください。
Sun Logical Domains の詳細は、『Logical Domains (LDoms) 1.0.3 Administration Guide』を参照してください。
この節では、Sun Cluster ソフトウェアのインストールと構成の計画と、次のコンポーネントの準備について説明します。
Sun Cluster コンポーネントの詳細は、『Sun Cluster Overview for Solaris OS 』および『Sun Cluster Concepts Guide for Solaris OS 』を参照してください。
ソフトウェアのインストールを開始する前に、必要なすべてのライセンス証明書を用意しておきます。Sun Cluster ソフトウェアにはライセンス証明書は必要ありませんが、Sun Cluster ソフトウェアがインストールされる各ノードが、Sun Cluster ソフトウェア使用許諾契約書に準拠している必要があります。
ボリューム管理ソフトウェアやアプリケーションソフトウェアのライセンス必要条件については、該当する製品のインストールマニュアルを参照してください。
各ソフトウェア製品をインストールした後に、必要なパッチもインストールする必要があります。クラスタが適切に動作するためには、必ずすべてのクラスタノードが同じパッチレベルになるようにしてください。
必要なパッチの最新情報については、『Sun Cluster のリリースノート』の「パッチと必須ファームウェアのレベル」を参照するか、Sun サービスプロバイダまでお問い合わせください。
パッチを適用する上での一般的なガイドラインと手順については、『Sun Cluster System Administration Guide for Solaris OS』の第 10 章「Patching Sun Cluster Software and Firmware」を参照してください。
クラスタによるパブリックネットワークの使用については、『Sun Cluster Concepts Guide for Solaris OS』の「Public Network Adapters and IP network multipathing」を参照してください。
クラスタ構成によっては、Sun Cluster のさまざまなコンポーネントに多数のパブリックネットワーク IP アドレスを設定します。クラスタ構成内の各 Solaris ホストには、サブネットの同じセットのパブリックネットワーク接続が少なくとも 1 つ必要です。
次の表に、パブリックネットワーク IP アドレスの割り当てが必要なコンポーネントの一覧を示します。これらの IP アドレスを、次の場所に追加してください。
使用するすべてのネーミングサービス
各グローバルクラスタノードにあるローカルの /etc/inet/hosts ファイル (Solaris ソフトウェアをインストールしたあとで追加してください)
Solaris 9 OS の IPv6 IP アドレスの場合は、Solaris ソフトウェアをインストールしたあとの各グローバルクラスタノードにあるローカルの /etc/inet/ipnodes ファイル
排他的な IP 非大域ゾーンにあるローカルの /etc/inet/hosts ファイル
コンポーネント |
必要な IP アドレス |
---|---|
サブネットごとに 1 つ |
|
サブネットごとのノードあたり 1 つ |
|
サブネットごとのノードあたり 1 つ |
|
ドメインごとに 1 つ |
|
(省略可能) 非大域ゾーン |
サブネットごとに 1 つ |
1 つ |
|
論理アドレス |
サブネットごとの論理ホストリソースあたり 1 つ |
定足数サーバー |
1 つ |
IP アドレスの計画についての詳細は、 『System Administration Guide: IP Services』の第 3 章「Planning Your TCP/IP Network (Task)」(Solaris 9) または『System Administration Guide: IP Services 』の第 2 章「Planning Your TCP/IP Network (Tasks)」(Solaris 10) を参照してください。
すべてのクラスタノードにはコンソールアクセスが必要です。Cluster Control Panel (CCP) ソフトウェアを管理コンソールにインストールする場合、クラスタノードと通信するために使用されるコンソールアクセスデバイスのホスト名とポート番号を提供する必要があります。
管理コンソールとグローバルクラスタノードコンソール間の通信には、端末集配信装置 (コンセントレータ) を使用します。
Sun Enterprise 10000 サーバーは、端末集配信装置の代わりにシステムサービスプロセッサ (System Service Processor、SSP) を使用します。
Sun Fire サーバは、端末集配信装置の代わりにシステムコントローラを使用します。
コンソールアクセスについての詳細は、『Sun Cluster の概念 (Solaris OS 版)』を参照してください。
または、管理コンソールを直接クラスタノードに接続しているか、管理ネットワーク経由で接続している場合、管理コンソールまたは管理ネットワークへの接続に使用される各グローバルクラスタノードのホスト名およびシリアルポート番号を提供してください。
論理アドレスを使用する各データサービスリソースグループには、論理アドレスへのアクセス元となる各パブリックネットワークに指定されているホスト名を設定する必要があります。
詳細は、『Sun Cluster Data Services Planning and Administration Guide for Solaris OS 』を参照してください。データサービスおよびリソースの詳細は、『Sun Cluster Overview for Solaris OS 』および『Sun Cluster Concepts Guide for Solaris OS 』を参照してください。
パブリックネットワークはクラスタの外部と通信します。パブリックネットワーク構成を計画する際は、次のことを考慮してください。
パブリックネットワークとプライベートネットワークの分離 – パブリックネットワークとプライベートネットワーク (クラスタインターコネクト) には、別のアダプタを使用するか、またはタグ付き VLAN 対応のアダプタとVLAN 対応のスイッチでタグ付き VLAN を構成し、プライベートインターコネクトとパブリックネットワークの両方で同じアダプタを使用できるようにします。
最小 – すべてのクラスタノードは、少なくとも 1 つのパブリックネットワークに接続されている必要があります。パブリックネットワークの接続では、さまざまなノードにさまざまなサブネットを使用できます。
スケーラブルサービス - スケーラブルサービスを実行するすべてのノードが、同じサブネットまたはサブネットのセットを使用するか、サブネット間でルーティング可能な異なるサブネットを使用します。
IPv4 - Sun Cluster ソフトウェアは、パブリックネットワーク上の IPv4 アドレスをサポートします。
IPv6 - Sun Cluster ソフトウェアは、パブリックネットワーク上の IPv6 アドレスをサポートします (ただし、次の条件または制限があります)。
プライベートインターコネクトがSCI アダプタを使用する場合、Sun Cluster ソフトウェアは、パブリックネットワーク上の IPv6 アドレスをサポートしません。
Sun Cluster ソフトウェアは、フェイルオーバーおよびスケーラブルデータの両方で IPv6 アドレスをサポートしています。
IPMP グループ – 各パブリックネットワークアダプタ データサービストラフィックに使用される各パブリックネットワークアダプタは、IP ネットワークマルチパス (IPMP) グループに属する必要があります。パブリックネットワークアダプタがデータサービストラフィックに使用されていない場合、IPMP グループに構成する必要はありません。
Sun Cluster 3.2 1/09 リリースでは、scinstall ユーティリティーは、 Sun Cluster 作成中に未設定の各パブリックネットワークアダプタで単一アダプタの IPMP グループを構成しなくなりました。その代わりに、scinstall ユーティリティーは、同じサブネットを使用するクラスタ内のパブリックネットワークアダプタの各セットで、複数アダプタの IPMP グループを自動的に構成します。Solaris 10 OS では、これらのグループはプローブベースです。
scinstall ユーティリティーは、IPMP グループですでに構成されているアダプタを無視します。クラスタでは、プローブベースの IPMP グループ、またはリンクベースの IPMP グループを使用できます。ただし、ターゲットの IP アドレスをテストするプローブベースの IPMP グループでは優れた保護が提供されますが、可用性が損なわれる場合もあります。
scinstall ユーティリティーで構成される IPMP グループ内のアダプタがデータサービストラフィックに使用されない場合、そのアダプタをグループから削除できます。
IPMP グループを設定するためのガイドラインと手順については、『System Administration Guide: IP Services』のパート VI「IPMP」を参照してください。クラスタをインストールしたあとに IPMP グループを変更するには、『Sun Cluster System Administration Guide for Solaris OS 』の「How to Administer IP Network Multipathing Groups in a Cluster」のガイドライン、および『System Administration Guide: IP Services』の第 28 章「Administering Network Multipathing (Task)」(Solaris 9) または『System Administration Guide: IP Services 』の第 31 章「Administering IPMP (Tasks)」(Solaris 10) の手順に従います。
ローカル MAC アドレスのサポート – すべてのプライベートネットワークアダプタは、ローカル MAC アドレスの割り当てをサポートするネットワークインタフェースカード (Network Interface Card、NIC) を使用します。ローカルMAC アドレス割り当ては、IPMP の要件です。
local-mac-address 設定 – local-mac-address? 変数では、Ethernet アダプタに対してデフォルト値 true を使用します。Sun Cluster ソフトウェアは、イーサネットアダプタの local-mac-address? の値として false をサポートしません。この必要条件は、local-mac-address? の値として false を必要とした Sun Cluster 3.0 から変更されています。
パブリックネットワークインタフェースの詳細は、『Sun Cluster Concepts Guide for Solaris OS 』を参照してください。
Sun Cluster 定足数サーバーソフトウェアを使用してマシンを定足数サーバーとして構成し、続いて定足数サーバーをクラスタの定足数デバイスとして構成することができます。共有ディスクおよび NAS ファイラの代わりとして、またはそれらに加えて定足数サーバーを使用できます。
Sun Cluster 構成で定足数サーバーを使用する場合は、次の点に注意してください。
ネットワーク接続 - 定足数サーバーコンピュータは、パブリックネットワーク経由でクラスタに接続します。
サポートされるハードウェア - 定足数サーバーでサポートされるハードウェアプラットフォームは、グローバルクラスタノードでサポートされるものと同じです。
オペレーティングシステム - Sun Cluster 用の Solaris ソフトウェアの必要条件は、定足数サーバーソフトウェアにも適用されます。
複数クラスタへのサービス - 定足数サーバーを複数クラスタへの定足数デバイスとして構成できます。
ハードウェアとソフトウェアの混合 - 定足数サーバーが定足数を提供する 1 つまたは複数のクラスタと同じハードウェアおよびソフトウェアプラットフォーム上に、定足数サーバーを構成する必要はありません。たとえば、Solaris 9 OS を実行する x86 マシンは、Solaris 10 OS を実行する SPARC クラスタの定足数サーバーとして構成できます。
クラスタノードの定足数サーバーとしての使用 - クラスタノード上の定足数サーバーを、ノードが属するクラスタ以外のクラスタに定足数を提供するように構成できます。ただし、クラスタノードで構成される定足数サーバーは高可用性ではありません。
Sun Cluster 構成でネットワークファイルシステム (Network File System、NFS) を使用する場合は、次の点に注意してください。
NFS クライアント - Sun Cluster ノードは、同じクラスタ内のノード上でマスターされた Sun Cluster HA for NFS でエクスポートされているファイルシステムの NFS クライアントになることはできません。このような Sun Cluster HA for NFS のクロスマウントは禁止されています。グローバルクラスタノード間でファイルを共有するときは、クラスタファイルシステムを使用してください。
NFSv3 プロトコル - NAS ファイラなどの外部 NFS サーバーからのクラスタノード上にファイルシステムをマウントし、NFSv3 プロトコルを使用している場合、同じクラスタノードで NFS クライアントマウントおよび Sun Cluster HA for NFS データサービスを実行することはできません。これを実行した場合、一部の Sun Cluster HA for NFS データサービス動作によりNFS デーモンが停止して再起動し、NFS サービスが中断される場合があります。ただし、NFSv4 プロトコルを使用して、外部 NFS ファイルシステムをクラスタノードにマウントする場合は、Sun Cluster HA for NFS データサービスを安全に実行できます。
ロック - クラスタ上でローカルに動作しているアプリケーションは、NFS 経由でエクスポートされているファイルシステム上にあるファイルをロックしてはいけません。このようなファイルをロックすると、ローカルのブロック (flock(3UCB) や fcntl(2) など) によって、ロックマネージャ (lockd(1M))) が再起動できなくなる可能性があります。再起動中、リモートクライアントの再要求によって、ブロックされているローカルのプロセスがロックされる可能性があります。これにより、予期せぬ動作が発生する可能性があります。
NFS セキュリティー機能 - Sun Cluster ソフトウェアは、share_nfs(1M) コマンドの次のオプションをサポートしません。
secure
sec=dh
ただし、Sun Cluster ソフトウェアは NFS の次のセキュリティ機能をサポートします。
NFS のセキュアポートの使用。NFS のセキュアポートを有効にするには、クラスタノード上の /etc/system ファイルにエントリセット nfssrv:nfs_portmon=1 を追加します。
NFS での Kerberos の使用。詳細は、『Sun Cluster Data Service for NFS Guide for Solaris OS』の「Securing Sun Cluster HA for NFS With Kerberos V5」を参照してください。
非大域ゾーンの NAS デバイスに対する保護サポートは提供されない – Sun Cluster ソフトウェアでは、NAS デバイスからの NFS エクスポートファイルシステムが非大域ゾーン (ゾーンクラスタのノードなど) で使用されている場合、それらの NFS エクスポートファイルシステムに対する保護サポートは提供されません。保護サポートは、大域ゾーン内の NFS エクスポートファイルシステムに対してのみ提供されます。
Sun Cluster 構成の次のサービスの制限を守ってください。
ルーター – クラスタノードをルーター (ゲートウェイ) として構成しないでください。システムがダウンした際にクライアントが代替ルーターを探すことができず、回復できません。
NIS+ サーバー – クラスタノードを NIS または NIS+ サーバーとして構成しないでください。NIS または NIS+ 用に使用できるデータサービスはありません。ただしクラスタノードを NIS や NIS+ のクライアントにすることは可能です。
起動およびインストールサーバー - 高可用性にした起動方法の提供や、クライアントシステムへのサービスのインストールを行うために Sun Cluster 構成を使用しないでください。
RPC プログラム番号 – RPC サービスをクラスタ上にインストールする場合、このサービスでは次のプログラム番号を使用しないでください。
100141
100142
100248
これらの番号は、Sun Cluster デーモン rgmd_receptionist 、fed、および pmfd 用に予約されています。
これらのプログラム番号を使用する RPC サービスをインストールした場合は、別のプログラム番号を使用するように変更する必要があります。
スケジューリングクラス – Sun Cluster ソフトウェアは、クラスタノード上でクラスをスケジューリングする優先度の高いプロセスの実行をサポートしません。クラスタノード上で次のいずれかの種類のプロセスを実行しないでください。
優先度の高いタイムシェアリングスケジューリングクラスで実行されるプロセス
リアルタイムスケジューリングクラスで実行されるプロセス
Sun Cluster 3.2 1/09 ソフトウェアでは、リアルタイムスケジューリングクラスを必要としないカーネルスレッドが使用されます。通常以上の優先度で動作するタイムシェアリングプロセスや、リアルタイムプロセスがあると、Sun Cluster カーネルスレッドが必要とする CPU サイクルがそれらのプロセスによって奪われることがあります。
この節では、構成する Sun Cluster コンポーネントのガイドラインについて説明します。
適当な構成計画ワークシートに、次の情報を追加してください。
グローバルクラスタ名は、Sun Cluster の構成時に指定します。グローバルクラスタ名は、企業内でグローバルに一意である必要があります。
ゾーンクラスタの命名方法については、「ゾーンクラスタ」を参照してください。
グローバルクラスタ内の投票ノードの名前は、Solaris OS でインストールしたときに物理ホストまたは仮想ホストに割り当てた名前と同じです。命名の要件の詳細については、hosts(4)のマニュアルページを参照してください。
単一ホストクラスタのインストールでは、デフォルトのクラスタ名は投票ノードの名前になります。
Sun Cluster の構成中に、グローバルクラスタでインストールするすべての投票ノード名を指定します。
ゾーンクラスタ内のノード名については、「ゾーンクラスタ」を参照してください。
Solaris ブランドをサポートしているバージョンの Solaris 10 OS では、ブランド native の非大域ゾーンはリソースグループノードリストの有効な潜在ノードです。nodename:zonename という命名規則を使用して、Sun Cluster コマンドに非大域ゾーンを指定します。
nodename は Solaris ホストの名前です。
zonename は、投票ノード上にゾーンを作成するときに非大域ゾーンに割り当てる名前です。ゾーン名は、ノード上で一意でなければなりません。ただし、異なる投票ノードで同じゾーン名を使用できます。nodename の異なるノード名: zonename によって非大域ゾーンの名前はクラスタ内で一意になります。
大域ゾーンを指定する場合、投票ノード名を指定するだけで済みます。
非大域ゾーンのクラスタについては、「ゾーンクラスタ」を参照してください。
単一ホストのグローバルクラスタの場合、プライベートネットワークを構成する必要はありません。scinstall ユーティリティーは、クラスタでプライベートネットワークが使用されていなくても、自動的にデフォルトのプライベートネットワークアドレスとネットマスクを割り当てます。
Sun Cluster ソフトウェアは、Sun Cluster ソフトウェアで管理されるノード間および非大域ゾーン間の内部通信にプライベートネットワークを使用します。Sun Cluster 構成では、プライベートネットワーク上のクラスタインターコネクトへの接続が少なくとも 2 つ必要です。クラスタの最初のノードに Sun Cluster ソフトウェアを構成するときに、次のいずれかの方法でプライベートネットワークアドレスとネットマスクを指定します。
デフォルトのプライベートネットワークアドレス (172.16.0.0) とデフォルトのネットマスクを使用します。
Solaris 10 OS では、デフォルトのネットマスクは 255.255.240.0 です。この IP アドレス範囲は、最大 64 の投票ノードと非大域ゾーン、最大 12 のゾーンクラスタおよび最大 10 のプライベートネットワークをサポートしています。
Solaris 9 OS では、デフォルトのネットマスクは 255.255.248.0 です。この IP アドレス範囲は、最大 64 のノードと最大 10 のプライベートネットワークをサポートしています。
IP アドレス範囲でサポートできる最大投票ノード数は、ハードウェアまたはソフトウェアの構成で現在サポートできる最大投票ノード数を反映していません。
デフォルト以外の許容可能なプライベートネットワークアドレスを指定して、デフォルトのネットマスクをそのまま使用します。
デフォルトのプライベートネットワークアドレスをそのまま使用して、デフォルト以外のネットマスクを指定します。
デフォルト以外のプライベートネットワークアドレスとデフォルト以外のネットマスクを指定します。
デフォルト以外のネットマスクを使用することを選択すると、scinstall ユーティリティーから、IP アドレス範囲でサポートするノードの数とプライベートネットワークの数を指定するように求められます。Solaris 10 OS でも、このユーティリティーから、サポートするゾーンクラスタの数を指定するように求められます。指定するグローバルノードの数には、プライベートネットワークを使用する、クラスタ化されていない非大域ゾーンの予測される数も含めるようにしてください。
このユーティリティーは、指定したノード、ゾーンクラスタおよびプライベートネットワークの数に対応する最小 IP アドレス範囲のネットマスクを計算します。計算されたネットマスクは、指定したノード (非大域ゾーンを含む)、ゾーンクラスタおよびプライベートネットワークの数よりも多くの数をサポートする場合があります。scinstall ユーティリティーはさらに、2 倍の数のノード、ゾーンクラスタおよびプライベートネットワークをサポートするための最低限のネットマスクとなる 2 番目のネットマスクも計算します。この 2 番目のネットマスクにより、クラスタは IP アドレス範囲を再構成する必要なしに、将来のノードとプライベートネットワークの数の増加に対応できます。
ユーティリティーから、どちらのネットマスクを選択するかを聞かれます。計算されたネットマスクのいずれかを選択するか、それ以外のネットマスクを指定することができます。指定するネットマスクは、最低でもユーティリティーに指定したノードとプライベートネットワークの数をサポートする必要があります。
投票ノード、非大域ゾーン、ゾーンクラスタ、プライベートネットワークなどの追加に対応するには、クラスタのプライベート IP アドレス範囲の変更が必要になる場合があります。
クラスタの確立後にプライベートネットワークアドレスとネットマスクを変更する方法については、『Sun Cluster System Administration Guide for Solaris OS 』の「How to Change the Private Network Address or Address Range of an Existing Cluster」を参照してください。これらの変更を行うには、クラスタを停止させる必要があります。
ただし、Solaris 10 OS では、cluster set-netprops コマンドを使用してネットマスクだけを変更すると、クラスタがクラスタモードのままになります。クラスタですでに構成されているゾーンクラスタの場合は、そのゾーンに割り当てられているプライベート IP サブネットとプライベート IP アドレスも更新されます。
デフォルト以外のプライベートネットワークアドレスを指定する場合は、アドレスは次の条件を満たす必要があります。
アドレスおよびネットマスクのサイズ - プライベートネットワークアドレスは、ネットマスクよりも小さくすることはできません。たとえば、ネットマスク255.255.255.0でプライベートネットワークアドレス172.16.10.0を使用できますが、ネットマスク 255.255.0.0 では、プライベートネットワークアドレス172.16.10.0 を使用できません。
許容アドレス - アドレスは、プライベートネットワークでの使用のために RFC 1918 で予約されているアドレスのブロックに含まれるようにしてください。InterNIC に問い合わせて RFC のコピーを入手するか、http://www.rfcs.org でオンラインで RFC を表示できます。
複数クラスタでの使用 - クラスタが異なるプライベートネットワーク上にある場合は、複数のクラスタで同じプライベートネットワークアドレスを使用できます。プライベート IP ネットワークアドレスは、物理クラスタ外からはアクセスできません。
同じ物理マシン上に作成され、同じ仮想マシンに接続されている Sun Logical Domains (LDoms) ゲストドメインはプライベートネットワークを共有し、これらのすべてのドメインにプライベートネットワークが表示されます。ゲストドメインのクラスタで使用する場合は、プライベートネットワーク IP アドレスの範囲を scinstall ユーティリティーに指定する前に注意が必要です。同じ物理ドメイン上に存在し、その仮想ネットワークを共有している別のゲストドメインがそのアドレス範囲を使用していないことを確認してください。
IPv6 – Sun Cluster ソフトウェアは、プライベートインターコネクトで IPv6 アドレスをサポートしません。IPv6 アドレスを使用するスケーラブルサービスをサポートするために、システムはプライベートネットワークアダプタ上で IPv6 アドレスを構成します。しかし、これらの IPv6 アドレスは、プライベートネットワークでのノード間通信では使用されません。
プライベートネットワークについての詳細は、『System Administration Guide: IP Services』の「Planning Your TCP/IP Network (Tasks)」(Solaris 9 または Solaris 10) を参照してください。
プライベートホスト名とは、プライベートネットワークインタフェースを介したノード間の通信に使用される名前のことです。プライベートホスト名は、グローバルクラスタまたはゾーンクラスタの Sun Cluster の構成中に自動的に作成されます。これらのプライベートホスト名は、clusternodenodeid -priv という命名規則に従います (nodeid は、内部ノード ID の数値です)。ノード ID 番号は、Sun Cluster の構成中に各投票ノードがクラスタメンバーとなる際に、自動的に各ノードに割り当てられます。グローバルクラスタの投票ノードとゾーンクラスタのノードは、どちらも同じプライベートホスト名を持ちますが、ホスト名はそれぞれ異なるプライベートネットワーク IP アドレスに解決されます。
グローバルクラスタの構成後に、clsetup(1CL)ユーティリティーを使用してプライベートホスト名を変更できます。この時点では、ゾーンクラスタノードのプライベートホスト名は変更できません。
Solaris 10 OS の場合、非大域ゾーンのプライベートホスト名の作成はオプションです。非大域ゾーンのプライベートホスト名の作成には、命名規則はありません。
クラスタインターコネクトは、クラスタノード間のプライベートネットワーク通信にハードウェアパスを提供します。各インターコネクトは、次のいずれかの方法で接続されるケーブルで構成されます。
2 つのトランスポートアダプタの間
トランスポートアダプタとトランスポートスイッチの間
クラスタインターコネクトの目的と機能の詳細は、『Sun Cluster Concepts Guide for Solaris OS 』の「Cluster Interconnect」を参照してください。
単一ホストのクラスタの場合、クラスタインターコネクトを構成する必要はありません。ただし、単一ホストのクラスタ構成にあとから投票ノードを追加する可能性がある場合は、将来の使用のためにクラスタインターコネクトを構成することもできます。
Sun Cluster の構成中に、 1 つまたは 2 つのクラスタインターコネクトに対して構成情報を指定します。
使用できるアダプタポートの数が制限されている場合、タグ付きの VLAN を使用して、同じアダプタをプライベートネットワークとパブリックネットワークの両方で共有できます。詳細は、「トランスポートアダプタ」 のタグ付き VLAN アダプタのガイドラインを参照してください。
1 つのクラスタでは、1 つから 6 つまでのクラスタインターコネクトを設定できます。クラスタインターコネクトを 1 つだけ使用すると、プライベートインターコネクトに使用されるアダプタポートの数が減り、同時に冗長性がなくなり、可用性が低くなります。1 度インターコネクトに障害が発生すると、クラスタで自動復旧の実行が必要になるリスクが高まります。できれば 2 つ以上のクラスタインターコネクトをインストールしてください。その結果、冗長性とスケーラビリティーが提供されるので、シングルポイント障害が回避されて可用性も高くなります。
クラスタインターコネクトの確立後に、clsetup(1CL)ユーティリティーを使用して、追加のインターコネクトを合計 6 つまで構成できます。
クラスタインターコネクトハードウェアのガイドラインについては、『Sun Cluster 3.1 - 3.2 Hardware Administration Manual for Solaris OS』の「Interconnect Requirements and Restrictions」を参照してください。クラスタインターコネクトの一般的な情報については、『Sun Cluster Overview for Solaris OS 』の「Cluster-Interconnect Components」および『Sun Cluster Concepts Guide for Solaris OS 』を参照してください。
ネットワークインタフェースのポートなどのトランスポートアダプタ用に、トランスポートアダプタ名とトランスポートの種類を指定します。構成が 2 ホストクラスタの場合は、インターコネクトをポイントツーポイント接続 (アダプタからアダプタ) するか、トランスポートスイッチを使用するかも指定します。
次のガイドラインと制限を考慮してください。
IPv6 – Sun Cluster ソフトウェアは、プライベートインターコネクト経由の IPv6 通信をサポートしません。
ローカル MAC アドレスの割り当て - すべてのプライベートネットワークアダプタは、ローカル MAC アドレスの割り当てをサポートするネットワークインタフェースカード (Network Interface Card、NIC) を使用します。リンクローカル IPv6 アドレスは IPv6 パブリックネットワークアドレスをサポートするためにプライベートネットワークアダプタに必要なもので、ローカル MAC アドレスから派生します。
タグ付き VLAN アダプタ – Sun Cluster ソフトウェアは、プライベートクラスタインターコネクトとパブリックネットワーク間で1 つのアダプタを共有するために、タグ付き VLAN (Virtual Local Area Network) をサポートします。クラスタインターコネクト用にタグ付き VLAN アダプタを構成するには、次のいずれかの方法を使用して、アダプタ名とその VLAN ID (VID) を指定します。
通常のアダプタ名、つまりデバイス名 + インスタンス番号または物理接続点 (Physical Point of Attachment、PPA) を指定します。たとえば、Cassini Gigabit Ethernet アダプタのインスタンス 2 の名前は ce2 になります。scinstall ユーティリティーで「このアダプタが共有仮想LAN の一部であるかどうか」をたずねられた場合は、yes と答えて、そのアダプタの VID 番号を指定します。
アダプタの VLAN 仮想デバイス名を指定します。この名前は、アダプタ名 + VLAN インスタンス番号です。VLAN インスタンス番号は、公式 (1000*V)+N から導き出されます (ここで、V は VID 番号、N は PPA です)。
たとえば、アダプタce2 上の VID 73 の場合、VLAN インスタンス番号は (1000*73)+2 として計算されます。したがって、このアダプタ名を ce73002 と指定して、共有仮想LAN の一部であることを示します。
クラスタでの VLAN の構成については、『Sun Cluster 3.1 - 3.2 Hardware Administration Manual for Solaris OS 』の「Configuring VLANs as Private Interconnect Networks」を参照してください。VLAN に関する一般情報については、『System Administration Guide: IP Services』の「Administering Virtual Local Area Networks」を参照してください。
SPARC: Sun LDoms ゲストドメイン – 仮想名 vnetN でアダプタ名を指定します (vnet0 および vnet1 など)。仮想アダプタ名は、/etc/path_to_inst ファイルに記録されます。
SBus SCI アダプタ – SBus SCI (Scalable Coherent Interface) はクラスタインターコネクトとしてサポートされていません。ただし、SCI-PCI インタフェースはサポートされています。
論理ネットワークインタフェース – 論理ネットワークインタフェースは、Sun Cluster ソフトウェアで使用するために予約されています。
特定のトランスポートアダプタに関する詳細については、scconf_trans_adap_*(1M) のマニュアルページを参照してください。
ネットワークスイッチなどのトランスポートスイッチを使用する場合は、インターコネクトごとにトランスポートスイッチの名前を指定します。デフォルト名の switchN (ここで、N は、構成中に自動的に割り当てられた数) を使用するか、別の名前を作成できます。
また、スイッチのポート名を指定するか、デフォルト名をそのまま使用します。デフォルトのポート名は、ケーブルのアダプタ側が接続されている Solaris ホストの内部ノード ID 番号と同じです。ただし、SCI-PCI などの特定の種類のアダプタではデフォルトのポート名は使用できません。
3 つ以上の投票ノードを持つクラスタでは、必ずトランスポートスイッチを使用してください。投票クラスタノード間の直接接続は、2 ホストクラスタの場合だけサポートされています。
2 ホストクラスタが直接接続されている場合でも、インターコネクトのトランスポートスイッチを指定できます。
トランスポートスイッチを指定すると、あとでクラスタに別の投票ノードを追加しやすくなります。
フェンシングは、スプリットブレーン状態のクラスタが共有ディスクのデータ完全性の保護のために使用する機構です。デフォルトでは、標準モードの scinstall ユーティリティーでグローバルフェンシングが有効になっており、構成内の各共有ディスクでデフォルトのグローバルフェンシング設定 pathcount が使用されます。pathcount 設定では、各共有ディスクのフェンシングプロトコルは、ディスクに接続されている DID パスの数に基づいて選択されます。
カスタムモードの場合は、scinstall ユーティリティーからグローバルフェンシングを無効にするかどうかを尋ねられます。通常は、No と入力してグローバルフェンシングを有効にしておきます。ただし、次のような場合は、グローバルフェンシングを無効にすることができます。
次の場合以外でグローバルフェンシングを無効にすると、アプリケーションのフェイルオーバー時にデータ破壊が生じる可能性があります。フェンシングの無効化を検討する場合には、データ破損の可能性を十分に調査してください。
共有ストレージが SCSI 予約をサポートしていない。
共有ディスクのフェンシングを無効にして定足数デバイスとして構成すると、デバイスではソフトウェアの定足数プロトコルが使用されます。これは、このディスクが SCSI-2 または SCSI-3 プロトコルをサポートしているかどうかに関係なく行われます。ソフトウェアの定足数は、SCSI Persistent Group Reservations (PGR) のフォームをエミュレートする、Sun Cluster ソフトウェアのプロトコルです。
クラスタ外のシステムが、クラスタに接続されているストレージへのアクセス権を付与できるようにする。
クラスタ構成時にグローバルフェンシングを無効にすると、クラスタ内のすべての共有ディスクのフェンシングが無効になります。クラスタを構成したあとで、グローバルフェンシングプロトコルを変更したり、個々の共有ディスクのフェンシングプロトコルを置き換えたりできます。ただし、定足数デバイスのフェンシングプロトコルを変更するには、最初に定数数デバイスの構成を解除します。次に、ディスクの新しいフェンシングプロトコルを設定し、それを定足数デバイスとして再構成します。
フェンシングの動作の詳細は、『Sun Cluster Concepts Guide for Solaris OS』 の「Failfast Mechanism」を参照してください。個々の共有ディスクのフェンシングプロトコルの設定については、cldevice(1CL)のマニュアルページを参照してください。グローバルフェンシングの設定については、cluster(1CL)のマニュアルページを参照してください。
Sun Cluster 構成では、定足数 (quorum) デバイスを使用して、データとリソースの整合性を保持します。クラスタが投票ノードとの接続を一時的に失っても、定足数デバイスによって、投票クラスタノードがクラスタに再結合しようとしたときの amnesia や split-brain といった問題を防止できます。定足数デバイスの目的と機能については、『Sun Cluster Concepts Guide for Solaris OS 』の「Quorum and Quorum Devices」を参照してください。
Sun Cluster の 2 ホストクラスタのインストール時に、scinstall ユーティリティーを使用して、構成内で使用可能な共有ディスクを定足数デバイスとして自動構成することもできます。 共有ディスクには、共有ディスクとして使用するために構成された Sun NAS デバイスが含まれます。scinstall ユーティリティーは、使用可能なすべての共有ディスクが定足数デバイスとして利用できるものと見なします。
定足数サーバーまたは Network Appliance NAS デバイスを定足数デバイスとして使用する場合は、scinstall 処理が完了したあとに定足数デバイスを構成します。
インストール後は、clsetup(1CL) ユーティリティーを使用して、定足数デバイスを追加で構成することもできます。
単一ホストのクラスタの場合、定足数デバイスを構成する必要はありません。
クラスタ構成にSun 以外の共有ストレージデバイスが含まれており、そのストレージデバイスの定足数デバイスとしての使用がサポートされていない場合、clsetup ユーティリティーを使用して、定足数を手作業で構成する必要があります。
定足数デバイスを計画する際は、次の点を考慮してください。
最小数 – 2 ホストクラスタは、少なくとも 1 つの定足数デバイスを持つ必要があり、この定足数デバイスは、共有ディスクでも定足数サーバーでも NAS デバイスでもかまいません。その他のトポロジの場合は、定足数デバイスはオプションです。
奇数の規則 – 複数の定足数デバイスが、2 ホストクラスタまたは定足数デバイスに直接接続されているホストペアで構成されている場合、奇数個の定足数デバイスを構成します。このように構成することで、定足数デバイスが完全に独立した障害パスを持つようになります。
定足数投票の割り当て - クラスタの可用性を最高にするために、定足数デバイスで割り当てられる合計投票数は必ず投票ノードで割り当てられる投票数よりも少なくなるようにしてください。少なくなければ、すべてのノードが機能していても、すべての定足数デバイスを使用できない場合、そのノードはクラスタを形成できません。
接続 – 定足数デバイスは 2 つ以上の投票ノードに接続する必要があります。
SCSI フェンシングプロトコル – SCSI 共有ディスク定足数デバイスが構成されている場合、そのフェンシングプロトコルは 2 ホストクラスタでは SCSI-2、3 以上の投票ノードを持つクラスタでは SCSI-3 が自動的に設定されます。
定足数デバイスのフェンシングプロトコルの変更 - 定足数デバイスとして構成された SCSI ディスクの場合、SCSI フェンシングプロトコルを有効または無効にするには、定足数デバイスの構成を解除します。
ソフトウェア定足数プロトコル – SATA ディスクなど、SCSI プロトコルに対応していないサポート対象の共有ディスクを定足数デバイスとして構成できます。これらのディスクのフェンシングを無効にする必要があります。ディスクでは、SCSI PGR をエミュレートするソフトウェア定足数プロトコルが使用されるようになります。
これらのディスクのフェンシングが無効になると、SCSI 共有ディスクもソフトウェア定足数プロトコルを使用するようになります。
ZFS ストレージプール - 構成済みの定足数デバイスを ZFS ストレージプールに追加しないでください。定足数デバイスが ZFS ストレージプールに追加されると、ディスクのラベルが EFI ディスクに変更されて、定足数構成情報が失われます。このディスクは、クラスタに定足数投票を提供できなくなります。
ディスクがストレージプールにある場合、そのディスクを定足数デバイスとして構成できます。または、定足数デバイスの構成を解除して、ストレージプールに追加し、そのあとでディスクを定足数デバイスとして再構成します。
定足数デバイスの詳細は、『Sun Cluster Concepts Guide for Solaris OS 』の「Quorum and Quorum Devices」および『Sun Cluster Overview for Solaris OS 』の「Quorum Devices」を参照してください。
Solaris 10 OS では、ゾーンクラスタは非大域ゾーンのクラスタです。ゾーンクラスタのノードは、すべて cluster ブランドの非大域ゾーンとして構成されます。ゾーンクラスタでは、その他のブランドタイプは許可されていません。Solaris ゾーンで提供される分離を含めて、グローバルクラスタと同様にゾーンクラスタでサポートされるサービスを実行できます。
ゾーンクラスタの作成を計画する場合、次の点に注意してください。
グローバルクラスタ - ゾーンクラスタは、Sun Cluster のグローバル構成にします。ゾーンクラスタは、基盤となるグローバルクラスタがないと構成できません。
Solaris OS の最低バージョン - グローバルクラスタは Solaris 10 5/08 OS 以上を実行します。
クラスタモード - ゾーンクラスタを作成または変更するグローバルクラスタ投票ノードは、クラスタモードにします。ゾーンクラスタを管理するときにその他の投票ノードが非クラスタモードになっていると、変更した内容が、これらの投票ノードがクラスタモードに戻ったときにその投票ノードに伝播します。
十分な数のプライベート IP アドレス – グローバルクラスタのプライベート IP アドレスには、新しいゾーンクラスタで使用できる十分な数の空き IP アドレスサブネットが必要です。使用可能なサブネット数が足りない場合、ゾーンクラスタの作成は失敗します。
プライベート IP アドレスの範囲の変更 – ゾーンクラスタで使用可能な IP サブネットと対応するプライベート IP アドレスは、グローバルクラスタのプライベート IP アドレスの範囲が変更されると自動的に更新されます。ソーンクラスタが削除されると、そのゾーンクラスタが使用していたプライベート IP アドレスがクラスタインフラストラクチャーによって解放されます。解放されたアドレスはグローバルクラスタ内のほかの目的に使用したり、グローバルクラスタに依存するほかのゾーンクラスタが使用したりできるようになります。
サポート対象のデバイス - Solaris ゾーンでサポートされるデバイスはゾーンクラスタにエクスポートできます。これらのデバイスは、次のとおりです。
Solaris ディスクデバイス (cNtXdYsZ)
DID デバイス (/dev/did/*dsk/dN)
Solaris ボリュームマネージャー および Solaris Volume Manager for Sun Cluster マルチオーナーディスクセット (/dev/md/setname/*dsk/dN)
ノードの配置 - グローバルクラスタが同じノード上で、同じゾーンクラスタの複数のノードをホストすることはできません。グローバルクラスタノードは、それぞれが異なるゾーンクラスタのメンバーである場合に限り、複数のゾーンクラスタノードをホストできます。
ノード作成 - ゾーンクラスタの作成時には、少なくとも 1 つのゾーンクラスタノードを作成します。ノード名は、ゾーンクラスタ内で一意になるようにしてください。ゾーンクラスタをホストする各グローバルクラスタノード上に、基盤となる非大域ゾーンがインフラストラクチャーによって自動的に作成されます。各非大域ゾーンには、同じゾーン名が付けられます。この名前は、クラスタの作成時にゾーンクラスタに割り当てた名前に由来するものです。たとえば、zc1 という名前のゾーンクラスタを作成した場合、そのゾーンクラスタをホストする各グローバルクラスタノード上の対応する非大域ゾーン名も zc1 となります。
クラスタ名 – ゾーンクラスタの名前は、グローバルクラスタ内において一意になるようにしてください。この名前は、グローバルクラスタ内の非大域ゾーンでは使用できません。また、グローバルクラスタノードと同じ名前は使用できません。「all」または「global」は予約名であるため、ゾーンクラスタ名として使用することはできません。
パブリックネットワーク IP アドレス - 各ゾーンクラスタノードに特定のパブリックネットワーク IP アドレスを割り当てます。
プライベートホスト名 – ゾーンクラスタの作成時に、グローバルクラスタでホスト名が作成されるのと同じ方法で、ゾーンクラスタのノードごとにプライベートホスト名が自動的に作成されます。この時点では、ゾーンクラスタノードのプライベートホスト名は変更できません。プライベートホスト名の詳細は、「プライベートホスト名」を参照してください。
Solaris ゾーンブランド – ゾーンクラスタのすべてのノードは、cluster ブランドの非大域ゾーンとして構成されます。ゾーンクラスタでは、その他のブランドタイプは許可されていません。
ゾーンクラスタノードへの変換 - ゾーンクラスタに既存の非大域ゾーンを追加することはできません。
ファイルシステム - clzonecluster コマンドを使用して、ファイルシステムを追加できます。ゾーンクラスタが使用するのは、次の種類のファイルシステムのみです。
高可用性ローカルファイルシステム
Oracle Real Application Clusters での使用のためにサポートされている共有 QFS ファイルシステム
大域ゾーンからゾーンクラスタノードにクラスタファイルシステムを直接追加しないでください。代わりに、クラスタファイルシステムのループバックマウントを大域ゾーンから非大域ゾーンに追加してください。
ローカルファイルシステムをゾーンクラスタに追加するには、通常、スタンドアロンシステムで使用する zonecfg コマンドを代わりに使用してください。
非大域ゾーンの NAS デバイスに対する保護サポートは提供されない – Sun Cluster ソフトウェアでは、NAS デバイスからの NFS エクスポートファイルシステムが非大域ゾーン (ゾーンクラスタのノードなど) で使用されている場合、それらの NFS エクスポートファイルシステムに対する保護サポートは提供されません。保護サポートは、大域ゾーン内の NFS エクスポートファイルシステムに対してのみ提供されます。
この節では、グローバルデバイスとクラスタファイルシステムを計画するうえでのガイドラインについて説明します。
グローバルデバイスの目的と機能については、『Sun Cluster Overview for Solaris OS』の「Global Devices, Local Devices, and Device Groups」および『Sun Cluster Concepts Guide for Solaris OS 』の「Global Devices」を参照してください。
Sun Cluster ソフトウェアは、特定のディスクレイアウトやファイルシステムサイズを必要としません。グローバルデバイスのレイアウトを計画する場合、次の点に注意してください。
ミラー化 – グローバルデバイスの高可用性を実現するには、すべてのグローバルデバイスをミラー化する必要があります。ストレージデバイスがハードウェア RAID とディスクへの冗長パスを提供する場合は、ソフトウェアミラー化を使用する必要はありません。
ディスク – ミラー化するときは、複数のディスクアレイにまたがってミラー化されるようにファイルシステムを配置してください。
可用性 – グローバルデバイスの高可用性を実現するには、グローバルデバイスがクラスタ内の複数の投票ノードに物理的に接続されている必要があります。複数の物理的な接続を持つグローバルデバイスは、単一のノードでの障害に対応できます。物理的な接続を 1 つしか持たないグローバルデバイスもサポートされていますが、そのノードがダウンした場合、ほかの投票ノードからはそのグローバルデバイスにアクセスできなくなります。
スワップデバイス - グローバルデバイス上には swap ファイルは作成しないでください。
非大域ゾーン - グローバルデバイスは、非大域ゾーンから直接アクセスできません。非大域ゾーンからアクセスできるのは、クラスタファイルシステムのデータだけです。
デバイスグループの目的と機能については、『Sun Cluster Overview for Solaris OS 』の「Global Devices, Local Devices, and Device Groups」および『Sun Cluster Concepts Guide for Solaris OS 』の「Device Groups」を参照してください。
「デバイスグループ構成のワークシート」に計画情報を追加してください。
デバイスグループを計画する際は、次の点を考慮してください。
フェイルオーバー – 多重ホストディスクと、適切に構成したボリューム管理ソフトウェアデバイスをフェイルオーバーデバイスとして構成できます。ボリューム管理ソフトウェアデバイスの適切な構成には、多重ホストディスクや、ボリューム管理ソフトウェア自体の正しい設定が含まれます。この構成により、複数の投票ノードが、エクスポートしたデバイスをホストできるようになります。テープドライブ、CD-ROM、DVD-ROM、単一ポートのデバイスは、フェイルオーバーデバイスとして構成できません。
ミラー化 – ディスクをミラー化して、ディスクの障害からデータを保護します。詳細なガイドラインについては、「ミラー化に関するガイドライン」を参照してください。ミラー化の手順については、「Solaris ボリュームマネージャー ソフトウェアの構成」または 「VxVM ソフトウェアのインストールと構成」 およびボリュームマネージャーのマニュアルを参照してください。
ストレージベースの複製 – デバイスグループのディスクは、すべて複製であるか、どれも複製でないかのいずれかにします。1 つのデバイスグループで、複製ディスクと複製でないディスクを混合して使用することはできません。
クラスタファイルシステムの目的と機能については、『Sun Cluster Overview for Solaris OS 』の「Cluster File Systems」および『Sun Cluster Concepts Guide for Solaris OS 』の「Cluster File Systems」を参照してください。
高可用性ローカルファイルシステムを構成することもできます。これにより、パフォーマンスの高い I/O でデータサービスサポートのパフォーマンスを向上させたり、クラスタファイルシステムでサポートされていない特定の機能を使用することができます。詳細は、『Sun Cluster Data Services Planning and Administration Guide for Solaris OS』の「Enabling Highly Available Local File Systems」を参照してください。
クラスタファイルシステムを計画する際は、次の点を考慮してください。
割り当て – 割り当てはクラスタファイルシステムでサポートされていません。ただし、高可用ローカルファイルシステムでは、割り当てがサポートされています。
非大域ゾーン - 非大域ゾーンからクラスタファイルシステムにアクセスする場合、最初にクラスタファイルシステムを大域ゾーンにマウントします。クラスタファイルシステムは、次にループバックマウントを使用して非大域ゾーンにマウントされます。したがって、非大域ゾーンを含むクラスタでループバックファイルシステム (LOFS) を有効にする必要があります。
ゾーンクラスタ – ゾーンクラスタで使用するクラスタファイルシステムを構成できません。代わりに、高可用性ローカルファイルシステムを使用してください。Oracle Real Application Clusters (RAC) でゾーンクラスタが構成されている場合は、そのゾーンクラスタで Oracle RAC をサポートするために共有 QFS を使用できます。
ループバックファイルシステム (Loopback File System、LOFS) – Solaris 9 バージョンの Sun Cluster ソフトウェアによるクラスタの作成中、LOFS はデフォルトでは無効になっています。Solaris 10 バージョンの Sun Cluster ソフトウェアでクラスタを作成中、LOFS はデフォルトでは有効になっています。
クラスタが次の両方の条件に当てはまる場合、各投票クラスタノードで LOFS を手動で無効にしてください。
Sun Cluster HA for NFS が高可用ローカルファイルシステムに構成されている。
automountd デーモンが稼働している。
クラスタがこれらの条件の両方に当てはまる場合、スイッチオーバーの問題やその他の障害を防ぐために、LOFS を無効にする必要があります。クラスタがこれらの条件の 1 つだけしか満たさない場合、LOFS を有効にしても安全です。
LOFS と automountd デーモンの両方を有効にする必要がある場合は、Sun Cluster HA for NFS によってエクスポートされる高可用ローカルファイルシステムに含まれるファイルをすべて自動マウンタマップから除外してください。
プロセスアカウンティングログファイル - プロセスアカウンティングログファイルは、クラスタファイルシステムまたは高可用性ローカルファイルシステムに置かないでください。ログファイルへの書き込みによってスイッチオーバーがブロックされ、ノードがハングします。プロセスアカウンティングログファイルを置くのは、ローカルファイルシステムだけにしてください。
通信エンドポイント – クラスタファイルシステムは、通信エンドポイントをファイルシステムの名前空間に指定する Solaris ソフトウェアのファイルシステム機能をサポートしません。
名前がクラスタファイルシステムへのパス名である UNIX ドメインソケットは作成できますが、ノードにフェイルオーバーが発生したとき、このソケットは生き残ることができません。
クラスタファイルシステム上で作成する FIFO または指定したパイプはグローバルにアクセスすることはできません。
したがって、ローカルノード以外のノードからfattach コマンドを使用しないでください。
デバイス特殊ファイル - クラスタファイルシステムでは、文字型特殊ファイルもブロック型特殊ファイルもサポートされていません。クラスタファイルシステム内のデバイスノードへのパス名を指定するには、/dev ディレクトリ内のデバイス名へのシンボリックリンクを作成します。mknod コマンドをこの目的で使用しないでください。
atime - クラスタファイルシステムは、atime を維持しません。
ctime - クラスタファイルシステム上のファイルにアクセスするときに、このファイルの ctime の更新が遅延する場合があります。
アプリケーションのインストール - 高可用アプリケーションのバイナリをクラスタファイルシステムに置く場合、クラスタファイルシステムが構成されるまで待ってからアプリケーションをインストールしてください。また、Sun Java システムの installer プログラムを使用してアプリケーションをインストールしてあり、アプリケーションが共有コンポーネントのどれかに依存する場合、アプリケーションでインストールされないクラスタのすべてのノードにこれらの共有コンポーネントをインストールしてください。
この節では、次の種類のクラスタファイルシステムの要件と制限について説明します。
これらの種類およびその他の種類のファイルシステムを高可用ローカルファイルシステムとして構成することもできます。詳細は、『Sun Cluster Data Services Planning and Administration Guide for Solaris OS 』の「Enabling Highly Available Local File Systems」を参照してください。
次のガイドラインに従って、クラスタファイルシステムを作成するときに使用するマウントオプションを決めてください。
UFS マウントのオプションの詳細については、mount_ufs(1M)のマニュアルページを参照してください。
マウントオプション |
使用 |
説明 |
---|---|---|
global |
必要 |
このオプションを選択すると、クラスタ内のすべてのノードでファイルシステムが表示されます。 |
log |
必要 |
このオプションを選択すると、ロギングが有効になります。 |
VxFS のマウントオプションの詳細は、VxFS mount_vxfs のマニュアルページおよび『Sun Cluster System Administration Guide for Solaris OS 』の「Overview of Administering Cluster File Systems」を参照してください。
クラスタファイルシステムのマウントポイントを計画する際は、次の点を考慮してください。
マウントポイントの場所 – 別のソフトウェア製品によって禁止されていない限り、/global ディレクトリに作成します。/global ディレクトリを使用することで、広域的に使用できるクラスタファイルシステムと、ローカルファイルシステムを簡単に区別できるようになります。
SPARC:VxFS マウントの要件 – Veritas File System (VxFS) を使用する場合、VxFS ファイルシステムは主ノードからグローバルにマウントおよびマウント解除します。主ノードとは、VxFS ファイルシステムが存在するディスクをマスターする Solaris ホストです。この方法では、マウントまたはマウント解除の操作が確実に成功します。二次ノードから行った VxFS ファイルシステムのマウントやマウント解除の操作は正常に動作しないことがあります。
SPARC: VxFS 機能の制限 –
次の VxFS 機能は、Sun Cluster 3.2 クラスタファイルシステムではサポートされていません。ただし、ローカルのファイルシステムではサポートされます。
クイック入出力
スナップショット
記憶装置チェックポイント
VxFS 固有のマウントオプション:
convosync (Convert O_SYNC)
mincache
qlog、delaylog、tmplog
Veritas クラスタファイルシステム (VxVM クラスタ機能および VERITAS クラスタサーバーが必要)
キャッシュアドバイザリは使用可能、効果が認められるのは特定のノードのみ
クラスタファイルシステムでサポートされる VxFS のそのほかの機能とオプションは、すべて Sun Cluster 3.2 ソフトウェアでサポートされます。クラスタ構成でサポートされる VxFS オプションの詳細については、VxFS マニュアルを参照してください。
マウントポイントを入れ子にする – 通常は、クラスタファイルシステムのマウントポイントは入れ子にしないでください。たとえば、あるファイルシステムを /global/a にマウントし、別のファイルをシステムは /global/a/b にマウントするような設定は避けてください。この規則を無視すると、可用性とノードの起動順序に問題が発生することがあります。このような問題は、システムがファイルシステムの子をマウントしようとして、親マウントポイントが存在しない場合に発生します。この規則の唯一の例外は、2 つのファイルシステムのデバイスが同じ物理ホスト接続を使用している場合です。同じディスク上の異なるスライスがこれに該当します。
forcedirectio – Sun Cluster ソフトウェアは、forcedirectio マウントオプションを使用してマウントされるクラスタファイルシステムからのバイナリの実行をサポートしていません。
「デバイスグループ構成のワークシート」と 「ボリューム管理ソフトウェア構成のワークシート」に次の計画情報を追加してください。Solaris ボリュームマネージャー の場合は 「ボリュームのワークシート (Solaris ボリュームマネージャー)」にもこの情報を追加してください。
この節では、クラスタ構成のボリューム管理を計画する上でのガイドラインについて説明します。
Sun Cluster は、ボリューム管理ソフトウェアを使用して、ディスクをデバイスグループにまとめ、1 つの単位で管理できるようにします。Sun Cluster ソフトウェアは、次の方法でインストールまたは使用する Solaris ボリュームマネージャー ソフトウェアと Veritas Volume Manager (VxVM) ソフトウェアをサポートします。
表 1–4 サポートされているボリューム管理ソフトウェアと Sun Cluster ソフトウェアの使用
ボリューム管理ソフトウェア |
要件 |
---|---|
Solaris ボリュームマネージャー |
一部のノードで VxVM を使用してディスクを管理する場合でも、クラスタのすべての投票ノードに Solaris ボリュームマネージャー ソフトウェアをインストールする必要があります。 |
クラスタのすべての投票ノード上に、クラスタ機能を持つ VxVM をインストールして、それらにライセンスを付与する必要があります。 |
|
クラスタ機能を持たない VxVM |
VxVM は、VxVM が管理する記憶装置に接続されている投票ノードにのみインストールして、それらにライセンスを付与します。 |
これらのボリューム管理ソフトウェアを同じ投票ノードにインストールする場合は、Solaris ボリュームマネージャー ソフトウェアを使用して、各ノードにローカルに接続されているディスクを管理します。ルートディスクもローカルディスクに含まれます。VxVM を使用して、すべての共有ディスクを管理します。 |
ボリュームマネージャーソフトウェアのインストールと構成の方法については、ボリュームマネージャーのマニュアルおよび 「Solaris ボリュームマネージャー ソフトウェアの構成」または 「VxVM ソフトウェアのインストールと構成」を参照してください。クラスタ構成でのボリューム管理の使用の詳細は、『Sun Cluster Concepts Guide for Solaris OS 』の「Multihost Devices」および『Sun Cluster Concepts Guide for Solaris OS 』の「Device Groups」を参照してください。
ボリューム管理ソフトウェアでディスクを構成する際は、次の一般的なガイドラインを考慮してください。
ソフトウェア RAID – Sun Cluster ソフトウェアは、ソフトウェア RAID 5 をサポートしていません。
ミラー化多重ホストディスク – すべての多重ホストディスクは、複数のディスク拡張装置にまたがるようにミラー化する必要があります。ミラー化多重ホストディスクのガイドラインについては、「多重ホストディスクのミラー化」を参照してください。ストレージデバイスがハードウェア RAID とデバイスへの冗長パスを提供する場合は、ソフトウェアミラー化を使用する必要はありません。
ミラー化ルート – ルートディスクをミラー化することにより高可用性を保証できますが、このようなミラー化は必要ありません。ルートディスクをミラー化するかどうかを判断する際のガイドラインについては、「ミラー化に関するガイドライン」を参照してください。
一意の命名 – /global/.devices/node@nodeid ファイルシステムがマウントされるデバイスとして使用されるローカル Solaris ボリュームマネージャー または VxVM ボリュームがある可能性があります。この場合、/global/.devices/node@nodeid ファイルシステムがマウントされる各ローカルボリュームの名前は、クラスタ全体で一意になるようにしてください。
ノードリスト – デバイスグループの高可用性を実現するには、これらの潜在マスターのノードリストとフェイルバックポリシーを、関連付けられているリソースグループと同一にします。または、スケーラブルなリソースグループで、それと関連付けられているデバイスグループ以上のノードが使用されている場合、スケーラブルなリソースグループのノードリストをデバイスグループのノードリストのスーパーセットにします。ノードリストについては、『Sun Cluster Data Services Planning and Administration Guide for Solaris OS 』のリソースグループ計画情報を参照してください。
多重ホストディスク – デバイスグループを構成するために使用されるすべてのデバイスを、そのデバイスグループのノードリストに構成されているすべてのノードに接続、つまりポートする必要があります。Solaris ボリュームマネージャー ソフトウェアは、ディスクセットにデバイスを追加したときに、この接続を自動的に確認します。しかし、構成した VxVM ディスクグループは、ノードの特定のセットには関連を持ちません。
ディスクの配置の推奨事項とその他の制限については、ボリューム管理ソフトウェアのマニュアルを参照してください。
Solaris ボリュームマネージャー の構成を計画する際は、次の点を考慮してください。
ローカルボリューム名 – グローバルデバイスファイルシステム /global/.devices/node@ nodeid がマウントされる各ローカル Solaris ボリュームマネージャー ボリュームの名前は、クラスタ全体で一意になるようにします。また、その名前はどのデバイス ID (Device ID、DID) 名とも同じであってはなりません。
二重列メディエータ – 2 つの列だけで構成されていて、2 つの Solaris ホストでマスターされている各ディスクセットでは、そのディスクセット用に構成されている Solaris ボリュームマネージャー メディエータを使用する必要があります。ディスク列は、ディスク格納装置、その物理ディスク、格納装置から 1 つまたは複数のホストへのケーブル、インタフェースアダプタカードで構成されます。二重列メディエータの構成には、次の規則に従ってください。
各ディスクセットは、メディエータホストとして機能する 2 つのホストで構成します。
メディエータを必要とするすべてのディスクセットに対して、2 つの同じホストを使用します。これら 2 つのホストがディスクセットをマスターする必要があります。
メディエータは、列およびホストが 2 つずつという要件を満たしていないディスクセットに対しては構成できません。
詳細は、mediator(7D)のマニュアルページを参照してください。
/kernel/drv/md.conf 設定 – SPARC: Solaris 9 OS では、それぞれのディスクセットが使用する Solaris ボリュームマネージャー ボリュームは、再構成起動時にあらかじめ作成されます。 再構成は、/kernel/drv/md.conf ファイルに含まれる構成パラメータに基づいています。
Solaris 10 リリースで、Solaris ボリュームマネージャー はボリュームを動的に構成するように拡張されました。/kernel/drv/md.conf ファイルの nmd パラメータと md_nsets パラメータを編集しなくてすみます。新しいボリュームは必要に応じて作成されます。
Solaris 9 OS で Sun Cluster 構成をサポートするには、nmd フィールドと md_nsets フィールドを次のように変更します。
すべての投票クラスタノードの /kernel/drv/md.conf ファイルの内容は、それぞれのノードがサービスを提供するディスクセット数に関係なく、同一である必要があります。このガイドラインに従わないと、重大な Solaris ボリュームマネージャー エラーが発生し、データが失われることがあります。
md_nsets – md_nsets フィールドは、システムでクラスタ全体のニーズを満たすために作成できるディスクセットの合計数を定義できます。md_nsets の値は、クラスタ内で予想されるディスクセットの数に 1 を加えた値に設定します。Solaris ボリュームマネージャー ソフトウェアは、追加のディスクセットを使用して、ローカルホスト上のプライベートディスクを管理します。
1 つのクラスタで使用できるディスクセットの最大数は 32 です。一般的な使用のために 31 個 と、プライベートディスク管理のために 1 個です。md_nsets のデフォルト値は 4 です。
nmd – nmd フィールドは、クラスタに存在するすべてのボリューム名のうち、予想される最大値を定義します。たとえば、あるクラスタの 15 個目までのディスクセットで使用されるボリューム名の最大値が 10 であるが、16 個目のディスクセットのボリュームの最大値が 1000 である場合、nmd の値を 1000 以上に設定します。また、デバイス ID 名ごとに十分な数のボリューム名が存在するように、nmd の値を十分大きくする必要があります。この値は、各ローカルボリューム名がクラスタ全体で一意になるように十分に大きな値に設定してください。
1 つのディスクセットで使用できるボリューム名の最大数は 8192 です。nmd のデフォルト値は 128 です。
インストール時、これら 2 つのフィールドに、将来予想されるクラスタの拡張を考慮した値を設定してください。クラスタの使用を開始した後で、これらのフィールド値を増やそうとすると、時間がかかります。値を変更すると、すべての投票ノードで再構成再起動が必要になるからです。また、後でこれらの値を増やす場合、要求されたデバイスを作成するには、ルート (/) ファイルシステムに確保された領域では不十分という可能性が高まります。
同時に、nmd フィールドおよび md_nsets フィールドには、できる限り小さい値を使用してください。デバイスを作成していなくても nmd および md_nsets によって指定された値に基づいて、可能性のあるすべてのデバイス分をメモリー構造上に確保します。最適なパフォーマンスを得るには、nmd と md_nsets の値を、使用するボリュームの数よりもわずかに高く維持します。
md.conf ファイルの詳細は、『Solaris Volume Manager Administration Guide』の「System Files and Startup Files」(Solaris 9 または Solaris 10) を参照してください。
Veritas Volume Manager (VxVM) の構成を計画する際は、次の点を考慮してください。
ノードへのアクセシビリティー - すべてのボリュームマネージャーディスクグループを、Sun Cluster デバイスグループまたはローカルのみのディスクグループとして構成します。これらの方法のいずれかでディスクグループを構成しない場合、クラスタ内のどのノードからもディスクグループ内のデバイスにアクセスできなくなります。
デバイスグループは、主ノードに障害が発生した場合、2 つ目のノードで多重ホストディスクをホストできます。
ローカルのみのディスクグループは、Sun Cluster ソフトウェアの制御外で機能し、1 度に 1 ノードからのみアクセスできます。
筐体ベースのネーミング –デバイスの筐体ベースのネーミングを使用する場合、必ず、同じストレージを共有するすべてのクラスタノードにおいて整合性のあるデバイス名を使用してください。VxVM はこのような名前を調節しないため、VxVM が各ノードから同じデバイスに同じ名前を割り当てているかどうかは、管理者が確認する必要があります。整合性のある名前を割り当てなくても、クラスタの動作に悪影響はありません。ただし、整合性のない名前だと、クラスタの管理が極端に複雑になり、構成エラーが発生し、データが失われる可能性が高くなります。
ルートディスクグループ – ルートディスクグループの作成はオプションです。
ルートディスクグループは次のディスク上に作成できます。
ルートディスク (カプセル化されている必要がある)
ルート以外の 1 つまたは複数のローカルディスク (カプセル化または初期化できるもの)
ルートディスクとルート以外のローカルディスクの組み合わせ
ルートディスクグループは、Solaris ホストに対してローカルである必要があります。
簡易ルートディスクグループ – ルートディスクの 1 つのスライスに作成される簡易ルートディスクグループは、Sun Cluster ソフトウェア上で VxVM によるディスクタイプとしてサポートされません。これは、VxVM ソフトウェアの一般的な制限です。
ボリューム数 – ディスクデバイスグループを作成するときに任意のディスクデバイスグループが使用できるボリュームの最大数を確認します。
ボリューム数が 1000 未満の場合は、デフォルトのミラー数を使用できます。
ボリューム数が 1000 以上の場合は、デバイスグループボリュームへのマイナー番号の割り当て方を慎重に計画する必要があります。2 つのデバイスグループに、オーバーラップするマイナー番号を割り当てることはできません。
ダーティリージョンログ – ダーティリージョンロギング (Dirty Region Logging、DRL) を使用すると、ノードに障害が発生した後に、ボリュームの回復時間を短縮できます。また、DRL を使用することで入出力のスループットを低減できることがあります。
Dynamic Multipathing (DMP) – DMP だけを使用して、Solaris ホストごとに共有記憶装置への複数の I/O パスを管理することはサポートされていません。DMP を使用できるのは、次の構成だけです。
クラスタの共有ストレージに対してホストごとに I/O パスが 1 つだけ構成されている。
共有クラスタストレージに対してホストごとに複数の I/O パスを管理する、サポート対象のマルチパスソリューション (Solaris I/O マルチパス ソフトウェア (MPxIO)、EMC PowerPath、Hitachi HDLM など) が使用されている。
詳細については、VxVM のインストールマニュアルを参照してください。
UFS および VxFS クラスタファイルシステムには、ロギングが必要です。Sun Cluster ソフトウェアでは、ファイルシステムのロギングの方法として、次がサポートされています。
Solaris UFS ロギング – 詳細は、mount_ufs(1M)のマニュアルページを参照してください。
SPARC: Veritas File System (VxFS) ロギング – 詳細は、VxFS ソフトウェアに付属の mount_vxfs のマニュアルページを参照してください。
Solaris ボリュームマネージャー と Veritas Volume Manager は、どちらも両方の種類のファイルシステムのロギングをサポートしています。
この節では、クラスタ構成のミラー化を計画する際のガイドラインについて説明します。
Sun Cluster 構成内のすべての多重ホストディスクをミラー化することにより、この構成で単一デバイスの障害を許容できるようになります。Sun Cluster ソフトウェアでは、すべての多重ホストディスクは、複数の拡張装置にまたがるようにミラー化する必要があります。ストレージデバイスがハードウェア RAID とデバイスへの冗長パスを提供する場合は、ソフトウェアミラー化を使用する必要はありません。
多重ホストディスクをミラー化する際は、次の点を考慮してください。
独立したディスク拡張装置 – ミラーまたはプレックスのサブミラーは、それぞれ異なる多重ホスト拡張装置に分散してください。
ディスク領域 – ミラー化すると、2 倍のディスク領域が必要になります。
3 方向のミラー化 – Solaris ボリュームマネージャー ソフトウェアと Veritas Volume Manager (VxVM) は、3 方向のミラー化をサポートしています。ただし、Sun Cluster ソフトウェアが必要とするのは、2 方向のミラー化だけです。
異なるデバイスサイズ – 異なるサイズのデバイスにミラーを作成した場合、ミラーの容量は、最小のサブミラーまたはプレックスのサイズに制限されます。
多重ホストディスクの詳細は、『Sun Cluster Overview for Solaris OS 』の「Multihost Disk Storage」および『Sun Cluster Concepts Guide for Solaris OS 』を参照してください。
「ローカルファイルシステム配置のワークシート」に、次の計画情報を追加してください。
最高の可用性を得るには、ローカルディスク上のルート (/)、/usr、/var、/opt、swap をミラー化してください。VxVM では、ルートディスクをカプセル化し、生成されたサブディスクをミラー化します。ただし、Sun Cluster ソフトウェアでは、ルートディスクのミラー化を要求しません。
ルートディスクをミラー化するかどうかを決定する前に、危険性、複雑さ、コスト、保守時間の面から、ルートディスクに関するさまざまな方法を検討してください。どの構成でも有効に機能するというような汎用的なミラー化はありません。ルートをミラー化するかどうかを決定する際は、ご購入先に相談してください。
ルートディスクのミラー化の手順については、ボリュームマネージャーのマニュアルおよび 「Solaris ボリュームマネージャー ソフトウェアの構成」または 「VxVM ソフトウェアのインストールと構成」を参照してください。
ルートディスクをミラー化するかどうかを決定する際は、次のことを考慮してください。
起動ディスク – 起動可能ルートディスクをミラーとして設定できます。主起動ディスクに障害が発生した場合に、ミラーから起動できます。
複雑さ – ルートディスクをミラー化すると、システム管理の複雑さが増します。また、シングルユーザーモードでの起動も複雑になります。
バックアップ – ルートディスクをミラー化するかどうかに関係なく、ルートは定期的にバックアップしてください。ミラー化だけで、管理上の誤りが防げるわけではありません。誤って変更あるいは削除したファイルは、バックアップによってのみ復元できます。
定足数 (Quorum) デバイス – 定足数デバイスとして構成されたディスクは、ルートディスクのミラー化に使用しないでください。
定足数 (Quorum) – Solaris ボリュームマネージャー ソフトウェアの構成で、状態データベースの定足数が失われるという障害が発生した場合は、保守を行わない限り、システムを再起動できなくなります。状態データベースと状態データベースの複製の詳細については、Solaris ボリュームマネージャー のマニュアルを参照してください。
独立したコントローラ – 独立したコントローラにルートディスクをミラー化するという方法は、最高の可用性を得る手段の 1 つです。
二次ルートディスク – ミラー化したルートディスクを使用すると、主ルートディスクに障害が発生しても、二次 (ミラー) ルートディスクで動作を継続できます。その後、主ルートディスクは、電源を入れ直すか、一時的な入出力エラーの後に、正常に戻ることがあります。以降の起動は、eeprom(1M) boot-device パラメータに指定された主ルートディスクを使用して行われます。このような場合、手作業による修復作業は発生しませんが、起動に問題がないようにドライブは動作を開始します。Solaris ボリュームマネージャー ソフトウェアでは、再同期が行われます。再同期をするには、ドライブが正常に戻ったときに手作業が必要になります。
二次 (ミラー) ルートディスク上のファイルが変更された場合、起動中に、その変更が主ルートディスクに反映されることはありません。これにより古いサブミラーが生じます。たとえば、/etc/system ファイルに対する変更が失われることがあります。Solaris ボリュームマネージャー ソフトウェアでは、主ルートディスクが休止している間に、一部の管理コマンドによって /etc/system ファイルが変更されることがあります。
起動プログラムは、システムがミラーまたは元の物理デバイスのどちらから起動されているのかを確認しません。起動プロセスの途中 (ボリュームが読み込まれたあと) でミラー化はアクティブになります。これより前の時点で、古いサブミラー問題が発生しやすくなります。