Sun Cluster 3.0 12/01 の概念

第 2 章 重要な概念 - ハードウェアコンポーネント

この章では、SunPlex システム構成のハードウェアコンポーネントに関連する重要な概念について説明します。次のトピックについて述べます。

SunPlex システムハードウェアコンポーネント

ここで示す情報は、主にハードウェアサービスプロバイダを対象としています。これらの概念は、サービスプロバイダが、クラスタハードウェアの設置、構成、またはサービスを提供する前に、ハードウェアコンポーネント間の関係を理解するのに役立ちます。またこれらの情報は、クラスタシステムの管理者にとっても、クラスタソフトウェアをインストール、構成、管理するための予備知識として役立ちます。

クラスタは、次のようなハードウェアコンポーネントで構成されます。

SunPlex システムを使用すると、「Sun Cluster トポロジの例」で説明するように、これらのコンポーネントを各種の構成に組み合わせることができます。

次の図は、クラスタの構成例を示しています。

図 2-1 2 ノードクラスタ構成の例

Graphic

クラスタノード

クラスタノードとは、Solaris オペレーティング環境と Sun Cluster ソフトウェアの両方を実行するマシンのことで、クラスタの現在のメンバー (クラスタメンバー) または潜在的なメンバーのどちらかです。Sun Cluster ソフトウェアを使用すると、1 つのクラスタに 2 〜 8 台のノードを設定できます。サポートされるノード構成については、「Sun Cluster トポロジの例」を参照してください。

一般的にクラスタノードは、1 つまたは複数の多重ホストディスクに接続されます。多重ホストディスクに接続されていないノードは、クラスタファイルシステムを使用して多重ホストディスクにアクセスします。たとえば、スケーラブルサービスを 1 つ構成することで、ノードが多重ホストディスクに直接接続されていなくてもサービスを提供することができます。

さらに、パラレルデータベース構成では、複数のノードがすべてのディスクへの同時アクセスを共有します。パラレルデータベース構成については、「多重ホストディスク」第 3 章「重要な概念 - 管理とアプリケーション開発」を参照してください。

クラスタ内のノードはすべて、共通の名前 (クラスタ名) によってグループ化されます。この名前は、クラスタのアクセスと管理に使用されます。

パブリックネットワークアダプタは、ノードとパブリックネットワークを接続して、クラスタへのクライアントアクセスを可能にします。

クラスタメンバーは、1 つまたは複数の物理的に独立したネットワークを介して、クラスタ内の他のノードとやりとりします。物理的に独立したネットワークの集合は、クラスタインターコネクトと呼ばれます。

クラスタ内のすべてのノードが、別のノードがいつクラスタに結合されたか、またはクラスタから切り離されたかを認識します。さらに、クラスタ内のすべてのノードは、他のクラスタノードで実行されているリソースだけでなく、ローカルに実行されているリソースも認識します。

同じクラスタ内の各ノードの処理、メモリー、および入出力機能が同等のもので、パフォーマンスを著しく低下させることなく処理を継続できることを確認してください。フェイルオーバーの可能性があるため、すべてのノードに、バックアップまたは二次ノードとしてすべてのノードの作業負荷を引き受けるのに十分な予備容量が必要です。

各ノードは、独自のルート (/) ファイルシステムを起動します。

クラスタハードウェアメンバー用のソフトウェアコンポーネント

クラスタメンバーとして機能するには、次のソフトウェアがインストールされていなければなりません。

Solaris オペレーティング環境、Sun Cluster、およびボリューム管理ソフトウェアをインストールする方法については、『Sun Cluster 3.0 12/01 ソフトウェアのインストール』を参照してください。

データサービスをインストールして構成する方法については、『Sun Cluster 3.0 12/01 データサービスのインストールと構成』を参照してください。

前述のソフトウェアコンポーネントの概念については、第 3 章「重要な概念 - 管理とアプリケーション開発」を参照してください。

次の図は、Sun Cluster ソフトウェア環境を構成するソフトウェアコンポーネントとその関係を示しています。

図 2-2 Sun Cluster ソフトウェアコンポーネントの相互の関係

Graphic

クラスタメンバーについては、第 4 章「頻繁に寄せられる質問 (FAQ)」を参照してください。

多重ホストディスク

Sun Cluster には、一度に複数のノードに接続可能なディスクである、多重ホストディスク記憶装置が必要です。Sun Cluster 環境では、多重ホスト記憶装置によってディスクデバイスの可用性を強化できます。

多重ホストディスクには、次の特徴があります。

ボリューム管理ソフトウェアは、多重ホストディスクのデータ冗長性に対して、ミラー化された構成または RAID-5 構成を提供します。現在、Sun Cluster は、ボリューム管理ソフトウェアとして Solstice DiskSuiteTM と VERITAS Volume Manager をサポートしています。さらに、Sun StorEdgeTM A3x00 ストレージユニットの RDAC RAID-5 ハードウェアコントローラをサポートしています。

多重ホストディスクをミラー化およびストライプ化したディスクと組み合わせると、ノードの障害および個々のディスクの障害の両方に対する防御策となります。

多重ホスト記憶装置については、第 4 章「頻繁に寄せられる質問 (FAQ)」を参照してください。

多重イニシエータ SCSI

この項は、多重ホストディスクに使用されるファイバチャネル記憶装置ではなく、SCSI 記憶装置にのみ適用されます。

スタンドアロンサーバーでは、サーバーノードが、このサーバーを特定の SCSI バスに接続する SCSI ホストアダプタ回路によって、SCSI バスのアクティビティを制御します。この SCSI ホストアダプタ回路は、SCSI イニシエータと呼ばれます。この回路は、この SCSI バスに対するすべてのバスアクティビティを開始します。Sun システムの SCSI ホストアダプタのデフォルト SCSI アドレスは 7 です。

クラスタ構成では、多重ホストディスクを使用し、複数のサーバーノード間で記憶装置を共有します。クラスタ記憶装置が SCSI デバイスまたは Differential SCSI デバイスからなる場合、この構成は多重イニシエータ SCSI と呼ばれます。この用語が示すように、複数の SCSI イニシエータが SCSI バスに存在します。

SCSI 仕様では、SCSI バスの各デバイスに一意の SCSI アドレスが必要です。(ホストアダプタも、SCSI バス上のデバイスの 1 つです。) 多重イニシエータ環境でデフォルトのハードウェア構成を行うと、すべての SCSI ホストアダプタがデフォルトで 7 に設定されるため衝突が生じます。

この衝突を解決するには、各 SCSI バスで、SCSI アドレスが 7 の SCSI ホストアダプタを 1 つ残し、他のホストアダプタには、未使用の SCSI アドレスを設定します。これらの未使用の SCSI アドレスには、現在未使用のアドレスと最終的に未使用となるアドレスの両方を含めるべきです。将来未使用となるアドレスの例としては、新しいドライブを空のドライブスロットに設置することによる記憶装置の追加があります。ほとんどの構成では、二次ホストアダプタに使用できる SCSI アドレスは 6 です。

これらのホストアダプタに指定された SCSI アドレスは、scsi-initiator-id Open Boot PROM (OBP) プロパティを設定することにより変更できます。このプロパティは 1 つのノードに対して、またはホストアダプタごとに広域的に設定できます。一意の scsi-initiator-id を各 SCSI ホストアダプタに設定するための手順は、『Sun Cluster 3.0 12/01 Hardware Guide』の各ディスク格納装置に関する章に記載されています。

ローカルディスク

ローカルディスクとは、単一ノードにのみ接続されたディスクをいいます。したがって、これらはノードの障害に対して保護されていません (可用性が高くありません)。ただし、ローカルディスクを含むすべてのディスクが広域的名前空間に含まれ、広域デバイスとして構成されています。したがって、ディスク自体をすべてのクラスタノードから参照できます。

ローカルディスク上のファイルシステムは、広域マウントポイントに置くことによって、他のノードで使用できるようにすることができます。これらの広域ファイルシステムのいずれかがマウントされているノードに障害が生じると、すべてのノードがそのファイルシステムにアクセスできなくなります。ボリューム管理ソフトウェアを使用すると、これらのディスクがミラー化されるため、障害が発生してもこれらのファイルシステムがアクセス不能になることはありません。ただし、ノード障害をボリューム管理ソフトウェアで保護することはできません。

広域デバイスについては、「広域デバイス」を参照してください。

リムーバブルメディア

クラスタでは、テープドライブや CD-ROM ドライブなどのリムーバブルメディアがサポートされています。通常、これらのデバイスは、非クラスタ化環境と同じ方法で設置して構成することで使用できます。これらのデバイスは、Sun Cluster で広域デバイスとして構成されるため、クラスタ内の任意のノードから各デバイスにアクセスできます。リムーバブルメディアの設置方法と構成については、『Sun Cluster 3.0 12/01 Hardware Guide』を参照してください。

広域デバイスについては、「広域デバイス」を参照してください。

クラスタインターコネクト

クラスタインターコネクトとは、クラスタプライベート通信とデータサービス通信をクラスタノード間で転送するために使用される、デバイスの物理構成のことです。インターコネクトは、クラスタプライベート通信で拡張使用されるため、パフォーマンスが制限される可能性があります。

クラスタノードだけがプライベートインターコネクトに接続できます。Sun Cluster セキュリティモデルは、クラスタノードだけがプライベートインターコネクトに物理的にアクセスできるものと想定しています。

少なくとも 2 つの冗長な物理的に独立したネットワーク、またはパスを使用して、すべてのノードをクラスタインターコネクトによって接続し、単一地点による障害を回避する必要があります。任意の 2 つのノード間で、複数の物理的に独立したネットワーク (2 〜 6) を設定できます。クラスタインターコネクトは、アダプタ、接続点、およびケーブルの 3 つのハードウェアコンポーネントからなります。

次に、これらの各ハードウェアコンポーネントを説明します。

クラスタインターコネクトについては、第 4 章「頻繁に寄せられる質問 (FAQ)」を参照してください。

パブリックネットワークインタフェース

クライアントは、パブリックネットワークインタフェースを介してクラスタに接続します。各ネットワークアダプタカードは、カードに複数のハードウェアインタフェースがあるかどうかによって、1 つまたは複数のパブリックネットワークに接続できます。ノードは、複数のパブリックネットワークインタフェースカードを構成して、1 つのカードがアクティブで、もう 1 つのカードがバックアップとして動作するように設定できます。Sun Cluster ソフトウェアのサブシステムであるパブリックネットワーク管理 (PNM)は、アクティブインタフェースを監視します。アクティブアダプタに障害が生じると、ネットワークアダプタフェイルオーバー (NAFO) ソフトウェアが呼び出されて、バックアップアダプタの 1 つにインタフェースの処理を継続します。

パブリックネットワークインタフェースのクラスタ化に関連する特殊なハードウェアの考慮事項はありません。

パブリックネットワークについては、第 4 章「頻繁に寄せられる質問 (FAQ)」を参照してください。

クライアントシステム

クライアントシステムには、パブリックネットワークによってクラスタにアクセスするワークステーションや他のサーバーが含まれます。クライアント側プログラムは、クライアントで実行されるサーバー側アプリケーションによって提供されるデータやサービスを使用します。

クライアントシステムの可用性は高くありません。クラスタ上のデータとアプリケーションは、高い可用性を備えています。

クラスタシステムについては、第 4 章「頻繁に寄せられる質問 (FAQ)」を参照してください。

コンソールアクセスデバイス

すべてのクラスタノードへのコンソールアクセスが必要です。コンソールアクセスを行うには、クラスタハードウェアとともに購入した端末集配信装置か、 Sun Enterprise E10000 サーバーのシステムサービスプロセッサ (SSP)、Sun FireTM サーバーのシステムコントローラ、または各ノードの ttya にアクセスできるその他のデバイスが必要です。

サポートされている唯一の端末集配信装置は、Sun から提供されています。サポートされている Sun の端末集配信装置の使用はオプションです。端末集配信装置を使用すると、TCP/IP ネットワークを使用して、各ノードの /dev/console にアクセスできます。この結果、ネットワークの任意の場所にあるリモートワークステーションから、各ノードにコンソールレベルでアクセスできます。

システムサービスプロセッサ (SSP) は、Sun Enterprise E10000 サーバーへのコンソールアクセスを提供します。SSP は、Ethernet ネットワーク上のマシンであり、Sun Enterprise E10000 サーバーをサポートするように構成されています。SSP は、Sun Enterprise E10000 サーバーの管理コンソールです。Sun Enterprise E10000 サーバーのネットワークコンソール機能を使用すると、ネットワーク上のすべてのワークステーションがホストコンソールセッションを開くことができます。

これ以外のコンソールアクセス方式には、他の端末集配信装置、別ノードおよびダンプ端末からの tip(1) シリアルポートアクセスが含まれます。SunTM キーボードとモニター、または他のシリアルポートデバイスも使用できます。

管理コンソール

管理コンソールと呼ばれる専用の SPARCstationTM システムを使用し、アクティブクラスタを管理できます。通常、Cluster Control Panel (CCP) や、Sun Management Center 用の Sun Cluster モジュールなどの管理ツールソフトウェアを管理コンソールにインストールして実行します。CCP で cconsole を使用すると、一度に複数のノードコンソールに接続できます。CCP の使用法の詳細については、『Sun Cluster 3.0 12/01 のシステム管理』を参照してください。

管理コンソールはクラスタノードではありません。管理コンソールは、パブリックネットワークを介して、または任意でネットワークベースの端末集配信装置 (コンセントレータ) を介して、クラスタノードへの遠隔アクセス用に使用します。クラスタが Sun Enterprise E10000 プラットフォームによって構成されている場合は、管理コンソールからシステムサービスプロセッサ (SSP) にログインし、netcon(1M) コマンドを使用して接続できなければなりません。

通常、ノードはモニターなしで構成します。ノードのコンソールには、端末集配信装置に接続され、さらにその端末集配装置からノードのシリアルポートに接続された管理コンソールから telnet セッションによってアクセスします。Sun Enterprise E10000 サーバーの場合は、システムサービスプロセッサ (SSP) から接続します。詳細は、「コンソールアクセスデバイス」を参照してください。

Sun Cluster には、専用の管理コンソールは必要ありませんが、専用コンソールを使用すると、次の利点が得られます。

管理コンソールについては、第 4 章「頻繁に寄せられる質問 (FAQ)」を参照してください。

Sun Cluster トポロジの例

トポロジとは、クラスタノードと、クラスタで使用される記憶装置プラットフォームを接続する接続スキーマをいいます。

Sun Cluster は、次のトポロジをサポートしています。

次の各項では、それぞれのトポロジを表す図を示しています。

クラスタペアトポロジ

クラスタペアトポロジとは、単一のクラスタ管理フレームワークのもとで動作する複数のノードペアをいいます。この構成では、ペアの間でのみフェイルオーバーが発生します。ただし、すべてのノードがクラスタインターコネクトによって接続されていて、Sun Cluster ソフトウェア制御のもとで動作します。このトポロジを使用して、1 つのペアでパラレルデータベースアプリケーションを実行し、別のペアでフェイルオーバーまたはスケーラブルなアプリケーションを実行できます。

クラスタファイルシステムを使用すると、すべてのノードがアプリケーションデータを保存するディスクに直接接続されていない場合でも、複数のノードがスケーラブルサービス、またはパラレルデータベースを実行する 2 ペア構成を設定できます。

次の図は、クラスタペア構成を示しています。

図 2-3 クラスタペアトポロジ

Graphic

ペア +M トポロジ

ペア +M トポロジには、共有記憶装置に直接接続されたノードのペアと、クラスタインターコネクトを使用して共有記憶装置にアクセスするノードの追加セットが含まれます。これらのノードはそれぞれ直接には接続されていません。

次の図は、4 つのノードのうち 2 つ (ノード 3 とノード 4) がクラスタインターコネクトを使用して記憶装置にアクセスする、1 つのペア +M トポロジを示しています。この構成を拡張し、共有記憶装置には直接アクセスしない追加ノードを含めることができます。

図 2-4 ペア +M トポロジ

Graphic

N+1 (星型) トポロジ

N+1 トポロジには、いくつかの主ノードと 1 つの二次ノードが含まれます。主ノードと二次ノードを同等に構成する必要はありません。主ノードは、アプリケーションサービスをアクティブに提供します。二次ノードは、主ノードに障害が生じるのを待機する間、アイドル状態である必要はありません。

二次ノードは、この構成ですべての多重ホスト記憶装置に物理的に接続されている唯一のノードです。

主ノードで障害が発生すると、Sun Cluster はそのリソースの処理を二次ノードで続行し、リソースは自動または手動で主ノードに切り換えられるまで二次ノードで機能します。

二次ノードには、主ノードの 1 つに障害が発生した場合に負荷を処理できるだけの十分な予備の CPU 容量が常に必要です。

次の図は、N+1 構成を示しています。

図 2-5 N+1 トポロジ

Graphic