ここで示す情報は、主にハードウェアサービスプロバイダを対象としています。これらの概念は、サービスプロバイダが、クラスタハードウェアの設置、構成、またはサービスを提供する前に、ハードウェアコンポーネント間の関係を理解するのに役立ちます。またこれらの情報は、クラスタシステムの管理者にとっても、クラスタソフトウェアをインストール、構成、管理するための予備知識として役立ちます。
クラスタは、次のようなハードウェアコンポーネントで構成されます。
ローカルディスク (非共有) を備えたクラスタノード
多重ホスト記憶装置 (ノード間で共有されるディスク)
リムーバブルメディア (テープ、CD-ROM)
クラスタインターコネクト
パブリックネットワークインタフェース
クライアントシステム
管理コンソール
コンソールアクセスデバイス
SunPlex システムを使用すると、Sun Cluster トポロジの例で説明しているように、これらのコンポーネントを各種の構成に組み合わせることができます。
次の図は、クラスタの構成例です。
クラスタノードとは、Solaris オペレーティング環境と Sun Cluster ソフトウェアの両方を実行するマシンのことで、クラスタの現在のメンバー (クラスタメンバー) または潜在的なメンバーのどちらかです。Sun Cluster ソフトウェアを使用すると、1 つのクラスタに 2 から 8 台のノードを設定できます。サポートされるノード構成については、Sun Cluster トポロジの例を参照してください。
一般的にクラスタノードは、1 つまたは複数の多重ホストディスクに接続されます。多重ホストディスクに接続されていないノードは、クラスタファイルシステムを使用して多重ホストディスクにアクセスします。たとえば、スケーラブルサービスを 1 つ構成することで、ノードが多重ホストディスクに直接接続されていなくてもサービスを提供することができます。
さらに、パラレルデータベース構成では、複数のノードがすべてのディスクへの同時アクセスを共有します。パラレルデータベース構成については、多重ホストディスクと第 3 章「重要な概念 – 管理とアプリケーション開発」を参照してください。
クラスタ内のノードはすべて、共通の名前 (クラスタ名) によってグループ化されます。この名前は、クラスタのアクセスと管理に使用されます。
パブリックネットワークアダプタは、ノードとパブリックネットワークを接続して、クラスタへのクライアントアクセスを可能にします。
クラスタメンバーは、1 つまたは複数の物理的に独立したネットワークを介して、クラスタ内の他のノードとの通信を行います。物理的に独立したネットワークの集合は、クラスタインターコネクトと呼ばれます。
クラスタ内のすべてのノードは、別のノードがいつクラスタに結合されたか、またはクラスタから切り離されたかを認識します。さらに、クラスタ内のすべてのノードは、他のクラスタノードで実行されているリソースだけでなく、ローカルに実行されているリソースも認識します。
同じクラスタ内の各ノードの処理、メモリー、および入出力機能が同等で、パフォーマンスを著しく低下させることなく処理を継続できることを確認してください。フェイルオーバーの可能性があるため、すべてのノードに、バックアップまたは二次ノードとしてすべてのノードの作業負荷を引き受けるのに十分な予備容量が必要です。
各ノードは、独自のルート (/) ファイルシステムを起動します。
クラスタメンバーとして機能するには、次のソフトウェアがインストールされていなければなりません。
Solaris オペレーティング環境
Sun Cluster ソフトウェア
データサービスアプリケーション
ボリューム管理ソフトウェア (Solaris Volume ManagerTM または VERITAS Volume Manager)
例外として、独立した複数のディスクのハードウェアによる冗長配列 (RAID) を使用する構成があります。この構成には、通常、Solaris Volume Manager や VERITAS Volume Manager などのボリューム管理ソフトウェアは必要ありません。
Solaris オペレーティング環境、Sun Cluster、およびボリューム管理ソフトウェアをインストールする方法については、『Sun Cluster 3.1 ソフトウェアのインストール』を参照してください。
データサービスをインストールして構成する方法については、『Sun Cluster 3.1 データサービスのインストールと構成』を参照してください。
前述のソフトウェアコンポーネントの概念については、第 3 章「重要な概念 – 管理とアプリケーション開発」を参照してください。
次の図は、Sun Cluster ソフトウェア環境を構成するソフトウェアコンポーネントとその関係を示しています。
クラスタメンバーに関して頻繁に寄せられる質問については、第 4 章「頻繁に寄せられる質問 (FAQ)」を参照してください。
多重ホストディスクとは、一度に複数のノードに接続できるディスクのことです。Sun Cluster 環境では、多重ホスト記憶装置によってディスクデバイスの可用性を強化できます。2 ノードクラスタでは、Sun Cluster は定足数を確立するために多重ホストストレージを必要とします。3 ノードより大きなクラスタでは、Sun Cluster は多重ホストストレージを必要としません。
多重ホストディスクには、次の特徴があります。
多重ホストディスクは、単一ノードの障害に耐えられます。
多重ホストディスクはアプリケーションデータだけでなく、アプリケーションバイナリと構成ファイルも保存できます。
多重ホストディスクはノード障害を防止します。クライアント要求があるノードを介してデータにアクセスしていて失敗した場合、これらの要求は、同じディスクへの直接接続を持つ別のノードを使用するようにスイッチオーバーされます。
多重ホストディスクは、ディスクのマスターとなる主ノードを介して広域的にアクセスされるか、複数のローカルパスによって同時に直接アクセスされます。現在、直接同時アクセスを使用するアプリケーションは Oracle Parallel Server だけです。
ボリューム管理ソフトウェアは、多重ホストディスクのデータ冗長性に対して、ミラー化された構成または RAID-5 構成を提供します。現在、Sun Cluster は、ボリューム管理ソフトウェアとして Solaris Volume ManagerTM と VERITAS Volume Manager をサポートしています。さらに、いくつかのハードウェア RAID プラットフォームで RDAC RAID-5 ハードウェアコントローラをサポートしています。
多重ホストディスクをミラー化およびストライプ化したディスクと組み合わせると、ノードの障害および個々のディスクの障害の両方に対する防御策となります。
多重ホスト記憶装置については、第 4 章「頻繁に寄せられる質問 (FAQ)」を参照してください。
この項は、多重ホストディスクに使用されるファイバチャネル記憶装置ではなく、SCSI 記憶装置にのみ適用されます。
スタンドアロンサーバーでは、サーバーノードが、このサーバーを特定の SCSI バスに接続する SCSI ホストアダプタ回路によって、SCSI バスのアクティビティを制御します。この SCSI ホストアダプタ回路は、SCSI イニシエータと呼ばれます。この回路は、この SCSI バスに対するすべてのバスアクティビティを開始します。Sun システムの SCSI ホストアダプタのデフォルト SCSI アドレスは 7 です。
クラスタ構成では、多重ホストディスクを使用し、複数のサーバーノード間で記憶装置を共有します。クラスタ記憶装置が SCSI デバイスまたは Differential SCSI デバイスからなる場合、この構成は多重イニシエータ SCSI と呼ばれます。この用語が示すように、複数の SCSI イニシエータが SCSI バスに存在します。
SCSI 仕様では、SCSI バスの各デバイスに一意の SCSI アドレスが必要 (ホストアダプタも、SCSI バス上のデバイスの 1 つ) です。多重イニシエータ環境でデフォルトのハードウェア構成を行うと、すべての SCSI ホストアダプタがデフォルトで 7 に設定されるため衝突が生じます。
この衝突を解決するには、各 SCSI バスで、SCSI アドレスが 7 の SCSI ホストアダプタを 1 つ残し、他のホストアダプタには、未使用の SCSI アドレスを設定します。これらの未使用の SCSI アドレスには、現在未使用のアドレスと最終的に未使用となるアドレスの両方を含めるべきです。将来未使用となるアドレスの例としては、新しいドライブを空のドライブスロットに設置することによる記憶装置の追加があります。ほとんどの構成では、二次ホストアダプタに使用できる SCSI アドレスは 6 です。
これらのホストアダプタに指定された SCSI アドレスは、Open Boot PROM (OBP) の scsi-initiator-id プロパティを設定することにより変更できます。このプロパティは 1 つのノードに対して、広域的にまたはホストアダプタごとに設定できます。一意の scsi-initiator-id を各 SCSI ホストアダプタに設定するための手順は、『Sun Cluster 3.1 Hardware Collection』の各ディスク格納装置に関する章に記載されています。
ローカルディスクとは、単一ノードにのみ接続されたディスクを表します。したがって、これらはノードの障害に対して保護されていません (可用性が低い)。ただし、ローカルディスクを含むすべてのディスクは広域的名前空間に含まれ、広域デバイスとして構成されています。したがって、ディスク自体はすべてのクラスタノードから参照できます。
ローカルディスク上のファイルシステムは、広域マウントポイントに置くことによって、他のノードから使用できるようになります。これらの広域ファイルシステムのいずれかがマウントされているノードに障害が生じると、すべてのノードがそのファイルシステムにアクセスできなくなります。ボリューム管理ソフトウェアを使用すると、これらのディスクがミラー化されるため、これらのファイルシステムに障害が発生してもアクセス不能になることはありません。ただし、ノード障害をボリューム管理ソフトウェアで保護することはできません。
広域デバイスについては、広域デバイスを参照してください。
クラスタでは、テープドライブや CD-ROM ドライブなどのリムーバブルメディアがサポートされています。通常、これらのデバイスは、非クラスタ化環境と同じ方法で設置および構成して使用できます。これらのデバイスは、Sun Cluster では広域デバイスとして構成されるため、クラスタ内の任意のノードから各デバイスにアクセスできます。リムーバブルメディアの設置方法と構成については、『Sun Cluster 3.1 Hardware Collection』を参照してください。
広域デバイスについては、広域デバイスを参照してください。
クラスタインターコネクトとは、クラスタプライベート通信とデータサービス通信をクラスタノード間で転送するために使用される、デバイスの物理構成のことです。インターコネクトは、クラスタプライベート通信で拡張使用されるため、パフォーマンスが制限される可能性があります。
クラスタノードだけがプライベートインターコネクトに接続できます。Sun Cluster セキュリティモデルは、クラスタノードだけがプライベートインターコネクトに物理的にアクセスできるものと想定しています。
少なくとも2 つの冗長な物理的に独立したネットワーク、またはパスを使用して、すべてのノードをクラスタインターコネクトによって接続し、単一地点による障害を回避する必要があります。任意の 2 つのノード間で、複数の物理的に独立したネットワーク (2 から 6) を設定できます。クラスタインターコネクトは、アダプタ、接続点、およびケーブルの 3 つのハードウェアコンポーネントで構成されます。
次に、これらの各ハードウェアコンポーネントについて説明します。
アダプタ – 個々のクラスタノードに存在するネットワークインタフェースカード。アダプタの名前は、デバイス名と物理ユニット番号で構成されます (qfe2 など)。一部のアダプタには物理ネットワーク接続が 1 つしかありませんが、qfe カードのように複数の物理接続を持つものもあります。ネットワークインタフェースと記憶装置インタフェースの両方を持つものもあります。
複数のインタフェースを持つネットワークアダプタは、アダプタ全体に障害が生じると、単一地点による障害の原因となる可能性があります。可用性を最適にするには、2 つのノード間の唯一のパスが単一のネットワークアダプタに依存しないように、クラスタを設定してください。
接続点 – クラスタノードの外部に常駐するスイッチ。これらは、パススルーおよび切り換え機能を実行して、3 つ以上のノードに同時に接続できるようにします。2 ノードクラスタでは、各ノードの冗長アダプタに接続された冗長物理ケーブルによって、ノードを相互に直接接続できるため、接続点は必要ありません。3 ノード以上の構成では、通常は接続点が必要です。
クラスタインターコネクトについては、第 4 章「頻繁に寄せられる質問 (FAQ)」を参照してください。
クライアントは、パブリックネットワークインタフェースを介してクラスタに接続します。各ネットワークアダプタカードは、カードに複数のハードウェアインタフェースがあるかどうかによって、1 つまたは複数のパブリックネットワークに接続できます。複数のパブリックネットワークインタフェースカードをもつノードを設定することによって、複数のカードをアクティブにし、それぞれを相互のフェイルオーバーバックアップとすることできます。いずれかのアダプタに障害が発生すると IP ネットワークマルチパスソフトウェアが呼び出され、障害のあるインタフェースが同じグループの別のアダプタにフェイルオーバーされます。
パブリックネットワークインタフェースのクラスタ化に関連する特殊なハードウェアについての特記事項はありません。
パブリックネットワークについては、第 4 章「頻繁に寄せられる質問 (FAQ)」を参照してください。
クライアントシステムには、パブリックネットワークによってクラスタにアクセスするワークステーションや他のサーバーが含まれます。クライアント側プログラムは、クラスタ上で実行されるサーバー側アプリケーションが提供するデータやサービスを使用します。
クライアントシステムの可用性は高くありません。クラスタ上のデータとアプリケーションは、高い可用性を備えています。
クライアントシステムについては、第 4 章「頻繁に寄せられる質問 (FAQ)」を参照してください。
すべてのクラスタノードにはコンソールアクセスが必要です。コンソールアクセスを行うには、クラスタハードウェアとともに購入した端末集配信装置か、Sun Enterprise E10000TM サーバーのシステムサービスプロセッサ (SSP)、Sun FireTM サーバーのシステムコントローラ、または各ノードの ttya にアクセスできるその他のデバイスが必要です。
サポートされている唯一の端末集配信装置は、Sun から提供されています。サポートされている Sun の端末集配信装置の使用は任意です。端末集配信装置を使用すると、TCP/IP ネットワークを使用して、各ノードの /dev/console にアクセスできます。この結果、ネットワークの任意の場所にあるリモートワークステーションから、各ノードにコンソールレベルでアクセスできます。
システムサービスプロセッサ (SSP) は、Sun Enterprise E10000 サーバーへのコンソールアクセスを提供します。SSP は、Ethernet ネットワーク上のマシンであり、Sun Enterprise E10000 サーバーをサポートするように構成されています。SSP は、Sun Enterprise E10000 サーバーの管理コンソールです。Sun Enterprise E10000 サーバーのネットワークコンソール機能を使用すると、ネットワーク上のすべてのワークステーションからホストコンソールセッションを開くことができます。
これ以外のコンソールアクセス方式には、他の端末集配信装置、別ノードおよびダム端末からの tip(1) シリアルポートアクセスが含まれます。SunTM キーボードとモニター、または他のシリアルポートデバイスも使用できます。
管理コンソールと呼ばれる専用の UltraSPARCTM ワークステーションを使用し、アクティブクラスタを管理できます。通常、Cluster Control Panel (CCP) や、Sun Management CenterTM 用の Sun Cluster モジュールなどの管理ツールソフトウェアを管理コンソールにインストールして実行します。CCP で cconsole を使用すると、一度に複数のノードコンソールに接続できます。CCP の使用法の詳細については、『Sun Cluster 3.1 のシステム管理』を参照してください。
管理コンソールはクラスタノードではありません。管理コンソールは、パブリックネットワークを介して、または任意でネットワークベースの端末集配信装置 (コンセントレータ) を介して、クラスタノードへの遠隔アクセスを行うために使用します。クラスタが Sun Enterprise E10000 プラットフォームによって構成されている場合は、管理コンソールからシステムサービスプロセッサ (SSP) にログインし、netcon(1M) コマンドを使用して接続を行う技術が必要となります。
通常、ノードはモニターなしで構成します。ノードのコンソールにアクセスするには、端末集配信装置を経由してそこからノードのシリアルポートに接続された管理コンソールから telnet セッションを行ってアクセスします (Sun Enterprise E10000 サーバーの場合は、システムサービスプロセッサから接続)。 詳細は、コンソールアクセスデバイスを参照してください。
Sun Cluster では専用の管理コンソールは必要ありませんが、専用の管理コンソールを使用すると、次のような利点があります。
コンソールと管理ツールを同じマシンにまとめることで、クラスタ管理を一元化できます。
ハードウェアサービスプロバイダによる問題解決が迅速に行われます。
管理コンソールについては、第 4 章「頻繁に寄せられる質問 (FAQ)」を参照してください。