この章では、SunPlex システム構成のハードウェアコンポーネントに関連する重要な概念について説明します。次のトピックについて述べます。
ここで示す情報は、主にハードウェアサービスプロバイダを対象としています。これらの概念は、サービスプロバイダが、クラスタハードウェアの設置、構成、またはサービスを提供する前に、ハードウェアコンポーネント間の関係を理解するのに役立ちます。またこれらの情報は、クラスタシステムの管理者にとっても、クラスタソフトウェアをインストール、構成、管理するための予備知識として役立ちます。
クラスタは、次のようなハードウェアコンポーネントで構成されます。
ローカルディスクを備えたクラスタノード (非共有)
多重ホスト記憶装置 (ノード間で共有されるディスク)
リムーバブルメディア (テープ、CD-ROM)
クラスタインターコネクト
パブリックネットワークインタフェース
クライアントシステム
管理コンソール
コンソールアクセスデバイス
SunPlex システムを使用すると、「Sun Cluster トポロジの例」で説明するように、これらのコンポーネントを各種の構成に組み合わせることができます。
次の図は、クラスタの構成例を示しています。
クラスタノードとは、Solaris オペレーティング環境と Sun Cluster ソフトウェアの両方を実行するマシンのことで、クラスタの現在のメンバー (クラスタメンバー) または潜在的なメンバーのどちらかです。Sun Cluster ソフトウェアを使用すると、1 つのクラスタに 2 〜 8 台のノードを設定できます。サポートされるノード構成については、「Sun Cluster トポロジの例」を参照してください。
一般的にクラスタノードは、1 つまたは複数の多重ホストディスクに接続されます。多重ホストディスクに接続されていないノードは、クラスタファイルシステムを使用して多重ホストディスクにアクセスします。たとえば、スケーラブルサービスを 1 つ構成することで、ノードが多重ホストディスクに直接接続されていなくてもサービスを提供することができます。
さらに、パラレルデータベース構成では、複数のノードがすべてのディスクへの同時アクセスを共有します。パラレルデータベース構成については、「多重ホストディスク」と第 3 章「重要な概念 - 管理とアプリケーション開発」を参照してください。
クラスタ内のノードはすべて、共通の名前 (クラスタ名) によってグループ化されます。この名前は、クラスタのアクセスと管理に使用されます。
パブリックネットワークアダプタは、ノードとパブリックネットワークを接続して、クラスタへのクライアントアクセスを可能にします。
クラスタメンバーは、1 つまたは複数の物理的に独立したネットワークを介して、クラスタ内の他のノードとやりとりします。物理的に独立したネットワークの集合は、クラスタインターコネクトと呼ばれます。
クラスタ内のすべてのノードが、別のノードがいつクラスタに結合されたか、またはクラスタから切り離されたかを認識します。さらに、クラスタ内のすべてのノードは、他のクラスタノードで実行されているリソースだけでなく、ローカルに実行されているリソースも認識します。
同じクラスタ内の各ノードの処理、メモリー、および入出力機能が同等のもので、パフォーマンスを著しく低下させることなく処理を継続できることを確認してください。フェイルオーバーの可能性があるため、すべてのノードに、バックアップまたは二次ノードとしてすべてのノードの作業負荷を引き受けるのに十分な予備容量が必要です。
各ノードは、独自のルート (/) ファイルシステムを起動します。
クラスタメンバーとして機能するには、次のソフトウェアがインストールされていなければなりません。
Solaris オペレーティング環境
Sun Cluster ソフトウェア
データサービスアプリケーション
ボリューム管理ソフトウェア (Solstice DiskSuiteTM または VERITAS Volume Manager)
例外として、複数のディスクの冗長配列 (RAID) を使用する Oracle Parallel Sever(OPS) 構成があります。この構成には、Oracle データを管理するために Solstice DiskSuite や VERITAS Volume Manager などのボリューム管理ソフトウェアは必要ありません。
Solaris オペレーティング環境、Sun Cluster、およびボリューム管理ソフトウェアをインストールする方法については、『Sun Cluster 3.0 12/01 ソフトウェアのインストール』を参照してください。
データサービスをインストールして構成する方法については、『Sun Cluster 3.0 12/01 データサービスのインストールと構成』を参照してください。
前述のソフトウェアコンポーネントの概念については、第 3 章「重要な概念 - 管理とアプリケーション開発」を参照してください。
次の図は、Sun Cluster ソフトウェア環境を構成するソフトウェアコンポーネントとその関係を示しています。
クラスタメンバーについては、第 4 章「頻繁に寄せられる質問 (FAQ)」を参照してください。
Sun Cluster には、一度に複数のノードに接続可能なディスクである、多重ホストディスク記憶装置が必要です。Sun Cluster 環境では、多重ホスト記憶装置によってディスクデバイスの可用性を強化できます。
多重ホストディスクには、次の特徴があります。
多重ホストディスクは、単一ノードの障害に耐えられる。
多重ホストディスクはアプリケーションデータを保存するだけでなく、アプリケーションバイナリと構成ファイルも保存できる。
多重ホストディスクはノード障害を防止する。クライアント要求があるノードを介してデータにアクセスしていて失敗した場合、これらの要求は、同じディスクへの直接接続を持つ別のノードを使用するようにスイッチオーバーされます。
多重ホストディスクは、ディスクのマスターとなる主ノードによって広域的にアクセスされるか、ローカルパスによって同時に直接アクセスされる。現在、直接同時アクセスを使用するアプリケーションは OPS だけです。
ボリューム管理ソフトウェアは、多重ホストディスクのデータ冗長性に対して、ミラー化された構成または RAID-5 構成を提供します。現在、Sun Cluster は、ボリューム管理ソフトウェアとして Solstice DiskSuiteTM と VERITAS Volume Manager をサポートしています。さらに、Sun StorEdgeTM A3x00 ストレージユニットの RDAC RAID-5 ハードウェアコントローラをサポートしています。
多重ホストディスクをミラー化およびストライプ化したディスクと組み合わせると、ノードの障害および個々のディスクの障害の両方に対する防御策となります。
多重ホスト記憶装置については、第 4 章「頻繁に寄せられる質問 (FAQ)」を参照してください。
この項は、多重ホストディスクに使用されるファイバチャネル記憶装置ではなく、SCSI 記憶装置にのみ適用されます。
スタンドアロンサーバーでは、サーバーノードが、このサーバーを特定の SCSI バスに接続する SCSI ホストアダプタ回路によって、SCSI バスのアクティビティを制御します。この SCSI ホストアダプタ回路は、SCSI イニシエータと呼ばれます。この回路は、この SCSI バスに対するすべてのバスアクティビティを開始します。Sun システムの SCSI ホストアダプタのデフォルト SCSI アドレスは 7 です。
クラスタ構成では、多重ホストディスクを使用し、複数のサーバーノード間で記憶装置を共有します。クラスタ記憶装置が SCSI デバイスまたは Differential SCSI デバイスからなる場合、この構成は多重イニシエータ SCSI と呼ばれます。この用語が示すように、複数の SCSI イニシエータが SCSI バスに存在します。
SCSI 仕様では、SCSI バスの各デバイスに一意の SCSI アドレスが必要です。(ホストアダプタも、SCSI バス上のデバイスの 1 つです。) 多重イニシエータ環境でデフォルトのハードウェア構成を行うと、すべての SCSI ホストアダプタがデフォルトで 7 に設定されるため衝突が生じます。
この衝突を解決するには、各 SCSI バスで、SCSI アドレスが 7 の SCSI ホストアダプタを 1 つ残し、他のホストアダプタには、未使用の SCSI アドレスを設定します。これらの未使用の SCSI アドレスには、現在未使用のアドレスと最終的に未使用となるアドレスの両方を含めるべきです。将来未使用となるアドレスの例としては、新しいドライブを空のドライブスロットに設置することによる記憶装置の追加があります。ほとんどの構成では、二次ホストアダプタに使用できる SCSI アドレスは 6 です。
これらのホストアダプタに指定された SCSI アドレスは、scsi-initiator-id Open Boot PROM (OBP) プロパティを設定することにより変更できます。このプロパティは 1 つのノードに対して、またはホストアダプタごとに広域的に設定できます。一意の scsi-initiator-id を各 SCSI ホストアダプタに設定するための手順は、『Sun Cluster 3.0 12/01 Hardware Guide』の各ディスク格納装置に関する章に記載されています。
ローカルディスクとは、単一ノードにのみ接続されたディスクをいいます。したがって、これらはノードの障害に対して保護されていません (可用性が高くありません)。ただし、ローカルディスクを含むすべてのディスクが広域的名前空間に含まれ、広域デバイスとして構成されています。したがって、ディスク自体をすべてのクラスタノードから参照できます。
ローカルディスク上のファイルシステムは、広域マウントポイントに置くことによって、他のノードで使用できるようにすることができます。これらの広域ファイルシステムのいずれかがマウントされているノードに障害が生じると、すべてのノードがそのファイルシステムにアクセスできなくなります。ボリューム管理ソフトウェアを使用すると、これらのディスクがミラー化されるため、障害が発生してもこれらのファイルシステムがアクセス不能になることはありません。ただし、ノード障害をボリューム管理ソフトウェアで保護することはできません。
広域デバイスについては、「広域デバイス」を参照してください。
クラスタでは、テープドライブや CD-ROM ドライブなどのリムーバブルメディアがサポートされています。通常、これらのデバイスは、非クラスタ化環境と同じ方法で設置して構成することで使用できます。これらのデバイスは、Sun Cluster で広域デバイスとして構成されるため、クラスタ内の任意のノードから各デバイスにアクセスできます。リムーバブルメディアの設置方法と構成については、『Sun Cluster 3.0 12/01 Hardware Guide』を参照してください。
広域デバイスについては、「広域デバイス」を参照してください。
クラスタインターコネクトとは、クラスタプライベート通信とデータサービス通信をクラスタノード間で転送するために使用される、デバイスの物理構成のことです。インターコネクトは、クラスタプライベート通信で拡張使用されるため、パフォーマンスが制限される可能性があります。
クラスタノードだけがプライベートインターコネクトに接続できます。Sun Cluster セキュリティモデルは、クラスタノードだけがプライベートインターコネクトに物理的にアクセスできるものと想定しています。
少なくとも 2 つの冗長な物理的に独立したネットワーク、またはパスを使用して、すべてのノードをクラスタインターコネクトによって接続し、単一地点による障害を回避する必要があります。任意の 2 つのノード間で、複数の物理的に独立したネットワーク (2 〜 6) を設定できます。クラスタインターコネクトは、アダプタ、接続点、およびケーブルの 3 つのハードウェアコンポーネントからなります。
次に、これらの各ハードウェアコンポーネントを説明します。
アダプタ - 個々のクラスタノードに存在するネットワークアダプタカード。この名前は、デバイス名と物理ユニット番号から構成されています (qfe2 など)。一部のアダプタには物理ネットワーク接続が 1 つしかありませんが、qfe カードのように複数の物理接続を持つものもあります。ネットワークインタフェースと記憶装置インタフェースの両方を持つものもあります。
複数のインタフェースを持つネットワークカードは、カード全体に障害が生じると、単一地点による障害の原因となる可能性があります。可用性を最適にするには、2 つのノード間の唯一のパスが、単一のネットワークカードに依存しないように、クラスタを設定してください。
接続点 - クラスタノードの外部に常駐するスイッチ。これらは、パススルーおよび切り換え機能を実行して、3 つ以上のノードに同時に接続できるようにします。2 ノードクラスタでは、各ノードの冗長アダプタに接続された冗長物理ケーブルによって、ノードを相互に直接接続できるため、接続点は必要ありません。3 ノード以上の構成では、通常は接続点が必要です。
ケーブル - 2 つのネットワークアダプタまたはアダプタと接続点の間をつなぐ物理接続。
クラスタインターコネクトについては、第 4 章「頻繁に寄せられる質問 (FAQ)」を参照してください。
クライアントは、パブリックネットワークインタフェースを介してクラスタに接続します。各ネットワークアダプタカードは、カードに複数のハードウェアインタフェースがあるかどうかによって、1 つまたは複数のパブリックネットワークに接続できます。ノードは、複数のパブリックネットワークインタフェースカードを構成して、1 つのカードがアクティブで、もう 1 つのカードがバックアップとして動作するように設定できます。Sun Cluster ソフトウェアのサブシステムであるパブリックネットワーク管理 (PNM)は、アクティブインタフェースを監視します。アクティブアダプタに障害が生じると、ネットワークアダプタフェイルオーバー (NAFO) ソフトウェアが呼び出されて、バックアップアダプタの 1 つにインタフェースの処理を継続します。
パブリックネットワークインタフェースのクラスタ化に関連する特殊なハードウェアの考慮事項はありません。
パブリックネットワークについては、第 4 章「頻繁に寄せられる質問 (FAQ)」を参照してください。
クライアントシステムには、パブリックネットワークによってクラスタにアクセスするワークステーションや他のサーバーが含まれます。クライアント側プログラムは、クライアントで実行されるサーバー側アプリケーションによって提供されるデータやサービスを使用します。
クライアントシステムの可用性は高くありません。クラスタ上のデータとアプリケーションは、高い可用性を備えています。
クラスタシステムについては、第 4 章「頻繁に寄せられる質問 (FAQ)」を参照してください。
すべてのクラスタノードへのコンソールアクセスが必要です。コンソールアクセスを行うには、クラスタハードウェアとともに購入した端末集配信装置か、 Sun Enterprise E10000 サーバーのシステムサービスプロセッサ (SSP)、Sun FireTM サーバーのシステムコントローラ、または各ノードの ttya にアクセスできるその他のデバイスが必要です。
サポートされている唯一の端末集配信装置は、Sun から提供されています。サポートされている Sun の端末集配信装置の使用はオプションです。端末集配信装置を使用すると、TCP/IP ネットワークを使用して、各ノードの /dev/console にアクセスできます。この結果、ネットワークの任意の場所にあるリモートワークステーションから、各ノードにコンソールレベルでアクセスできます。
システムサービスプロセッサ (SSP) は、Sun Enterprise E10000 サーバーへのコンソールアクセスを提供します。SSP は、Ethernet ネットワーク上のマシンであり、Sun Enterprise E10000 サーバーをサポートするように構成されています。SSP は、Sun Enterprise E10000 サーバーの管理コンソールです。Sun Enterprise E10000 サーバーのネットワークコンソール機能を使用すると、ネットワーク上のすべてのワークステーションがホストコンソールセッションを開くことができます。
これ以外のコンソールアクセス方式には、他の端末集配信装置、別ノードおよびダンプ端末からの tip(1) シリアルポートアクセスが含まれます。SunTM キーボードとモニター、または他のシリアルポートデバイスも使用できます。
管理コンソールと呼ばれる専用の SPARCstationTM システムを使用し、アクティブクラスタを管理できます。通常、Cluster Control Panel (CCP) や、Sun Management Center 用の Sun Cluster モジュールなどの管理ツールソフトウェアを管理コンソールにインストールして実行します。CCP で cconsole を使用すると、一度に複数のノードコンソールに接続できます。CCP の使用法の詳細については、『Sun Cluster 3.0 12/01 のシステム管理』を参照してください。
管理コンソールはクラスタノードではありません。管理コンソールは、パブリックネットワークを介して、または任意でネットワークベースの端末集配信装置 (コンセントレータ) を介して、クラスタノードへの遠隔アクセス用に使用します。クラスタが Sun Enterprise E10000 プラットフォームによって構成されている場合は、管理コンソールからシステムサービスプロセッサ (SSP) にログインし、netcon(1M) コマンドを使用して接続できなければなりません。
通常、ノードはモニターなしで構成します。ノードのコンソールには、端末集配信装置に接続され、さらにその端末集配装置からノードのシリアルポートに接続された管理コンソールから telnet セッションによってアクセスします。Sun Enterprise E10000 サーバーの場合は、システムサービスプロセッサ (SSP) から接続します。詳細は、「コンソールアクセスデバイス」を参照してください。
Sun Cluster には、専用の管理コンソールは必要ありませんが、専用コンソールを使用すると、次の利点が得られます。
コンソールと管理ツールを同じマシンにまとめることで、クラスタ管理を一元化できる。
ハードウェアサービスプロバイダによる問題解決が迅速に行われる
管理コンソールについては、第 4 章「頻繁に寄せられる質問 (FAQ)」を参照してください。
トポロジとは、クラスタノードと、クラスタで使用される記憶装置プラットフォームを接続する接続スキーマをいいます。
Sun Cluster は、次のトポロジをサポートしています。
クラスタペア
ペア +M
N+1 (星型)
次の各項では、それぞれのトポロジを表す図を示しています。
クラスタペアトポロジとは、単一のクラスタ管理フレームワークのもとで動作する複数のノードペアをいいます。この構成では、ペアの間でのみフェイルオーバーが発生します。ただし、すべてのノードがクラスタインターコネクトによって接続されていて、Sun Cluster ソフトウェア制御のもとで動作します。このトポロジを使用して、1 つのペアでパラレルデータベースアプリケーションを実行し、別のペアでフェイルオーバーまたはスケーラブルなアプリケーションを実行できます。
クラスタファイルシステムを使用すると、すべてのノードがアプリケーションデータを保存するディスクに直接接続されていない場合でも、複数のノードがスケーラブルサービス、またはパラレルデータベースを実行する 2 ペア構成を設定できます。
次の図は、クラスタペア構成を示しています。
ペア +M トポロジには、共有記憶装置に直接接続されたノードのペアと、クラスタインターコネクトを使用して共有記憶装置にアクセスするノードの追加セットが含まれます。これらのノードはそれぞれ直接には接続されていません。
次の図は、4 つのノードのうち 2 つ (ノード 3 とノード 4) がクラスタインターコネクトを使用して記憶装置にアクセスする、1 つのペア +M トポロジを示しています。この構成を拡張し、共有記憶装置には直接アクセスしない追加ノードを含めることができます。
N+1 トポロジには、いくつかの主ノードと 1 つの二次ノードが含まれます。主ノードと二次ノードを同等に構成する必要はありません。主ノードは、アプリケーションサービスをアクティブに提供します。二次ノードは、主ノードに障害が生じるのを待機する間、アイドル状態である必要はありません。
二次ノードは、この構成ですべての多重ホスト記憶装置に物理的に接続されている唯一のノードです。
主ノードで障害が発生すると、Sun Cluster はそのリソースの処理を二次ノードで続行し、リソースは自動または手動で主ノードに切り換えられるまで二次ノードで機能します。
二次ノードには、主ノードの 1 つに障害が発生した場合に負荷を処理できるだけの十分な予備の CPU 容量が常に必要です。
次の図は、N+1 構成を示しています。