ここで示す情報は、主にハードウェアサービスプロバイダを対象としています。これらの概念は、サービスプロバイダが、クラスタハードウェアの設置、構成、またはサービスを提供する前に、ハードウェアコンポーネント間の関係を理解するのに役立ちます。またこれらの情報は、クラスタシステムの管理者にとっても、クラスタソフトウェアをインストール、構成、管理するための予備知識として役立ちます。
クラスタは、次のようなハードウェアコンポーネントで構成されます。
ローカルディスク (非共有) を備えたクラスタノード
多重ホスト記憶装置 (ノード間で共有されるディスク)
リムーバブルメディア (テープ、CD-ROM)
クラスタインターコネクト
パブリックネットワークインタフェース
クライアントシステム
管理コンソール
コンソールアクセスデバイス
Sun Cluster ソフトウェアを使用すると、これらのコンポーネントを各種の構成に組み合わせることができます。これらの構成については、次の節で説明します。
2 ノードクラスタの構成例については、『Sun Cluster の概要 (Solaris OS 版)』の「Sun Cluster のハードウェア環境」を参照してください。
クラスタノードとは、Solaris オペレーティングシステムと Sun Cluster ソフトウェアの両方を実行しているマシンのことです。クラスタノードは、クラスタの現在のメンバー (「クラスタメンバー」) または潜在的なメンバーのどちらかです。
SPARC: Sun Cluster ソフトウェアは、1 つのクラスタで 1 つから 16 までのノードをサポートします。ハードウェア構成によっては、SPARC ベースのシステムから成るクラスタで構成できるノードの最大数に制限が追加されます。サポートされるノード構成については、「SPARC: Sun Cluster トポロジ」を参照してください。
x86: クラスタが Oracle Real Application Clusters (RAC) を実行している場合、Sun Cluster ソフトウェアはそのクラスタで 1 つから 8 つまでのノードをサポートします。クラスタが Oracle RAC を実行していない場合、Sun Cluster ソフトウェアはそのクラスタで 1 つから 4 つまでのノードをサポートします。サポートされるノード構成については、「x86: Sun Cluster トポロジ」を参照してください。
一般的にクラスタノードは、1 つまたは複数の多重ホストデバイスに接続されます。多重ホストデバイスに接続されていないノードは、クラスタファイルシステムを使用して多重ホストデバイスにアクセスします。たとえば、スケーラブルサービスを 1 つ構成することで、ノードが多重ホストデバイスに直接接続されていなくてもサービスを提供することができます。
さらに、パラレルデータベース構成では、複数のノードがすべてのディスクへの同時アクセスを共有します。
ディスクへの同時アクセスについては、「多重ホストデバイス」を参照してください。
パラレルデータベース構成についての詳細は、「SPARC: クラスタペアトポロジ」と「x86: クラスタペアトポロジ」を参照してください。
クラスタ内のノードはすべて、共通の名前 (クラスタ名) によってグループ化されます。この名前は、クラスタのアクセスと管理に使用されます。
パブリックネットワークアダプタは、ノードとパブリックネットワークを接続して、クラスタへのクライアントアクセスを可能にします。
クラスタメンバーは、1 つまたは複数の物理的に独立したネットワークを介して、クラスタ内のほかのノードと通信します。物理的に独立したネットワークの集合は、クラスタインターコネクトと呼ばれます。
クラスタ内のすべてのノードは、別のノードがいつクラスタに結合されたか、またはクラスタから切り離されたかを認識します。さらに、クラスタ内のすべてのノードは、ほかのクラスタノードで実行されているリソースだけでなく、ローカルに実行されているリソースも認識します。
同じクラスタ内の各ノードの処理、メモリー、および入出力機能が同等で、パフォーマンスを著しく低下させることなく処理を継続できることを確認してください。フェイルオーバーの可能性があるため、すべてのノードには、バックアップまたは二次ノードとしてすべてのノードの作業負荷を引き受けるのに十分な予備容量が必要です。
各ノードは、独自のルート (/) ファイルシステムを起動します。
ノードがクラスタメンバーとして動作するためには、ノードに次のソフトウェアがインストールされていなければなりません。
Solaris オペレーティングシステム
Sun Cluster ソフトウェア
データサービスアプリケーション
ボリューム管理 (Solaris Volume ManagerTM または VERITAS Volume Manager)
例外として、複数のディスクの冗長配列 (RAID) を使用する構成があります。この構成には、通常、Solaris Volume Manager や VERITAS Volume Manager などのボリュームマネージャーは必要ありません。
Solaris オペレーティングシステム、Sun Cluster、およびボリュームマネージャーのインストール方法については、『Sun Cluster ソフトウェアのインストール (Solaris OS 版)』を参照してください。
データサービスのインストールおよび構成については、『Sun Cluster データサービスの計画と管理 (Solaris OS 版)』を参照してください。
前述のソフトウェアコンポーネントの概念については、第 3 章「重要な概念 - システム管理者とアプリケーション開発者」を参照してください。
次の図は、Sun Cluster 環境を構成するソフトウェアコンポーネントとその関係の概要を示しています。
クラスタメンバーの FAQ については、第 4 章「よくある質問」を参照してください。
多重ホストデバイスとは、一度に複数のノードに接続できるディスクのことです。Sun Cluster 環境では、多重ホスト記憶装置によってディスクの可用性を強化できます。2 ノードクラスタでは、Sun Cluster ソフトウェアは定足数を確立するために多重ホスト記憶装置を必要とします。3 ノードより大きなクラスタでは、定足数デバイスを必要としません。定足数についての詳細は、「定足数と定足数デバイス」を参照してください。
多重ホストデバイスには、次の特徴があります。
単一ノード障害への耐性 (トレランス)。
アプリケーションデータ、アプリケーションバイナリ、および構成ファイルを格納する機能。
ノード障害からの保護。クライアントがあるノードを介するデータを要求して、そのノードに障害が発生した場合、これらの要求は、同じディスクに直接接続されている別のノードを使用するようにスイッチオーバーされます。
ディスクを「マスター」する主ノードを介する広域的なアクセス、またはローカルパスを介する直接同時アクセス。現在、直接同時アクセスを使用するアプリケーションは Oracle Real Application Clusters Guard だけです。
ボリュームマネージャーは、ミラー化された構成または RAID-5 構成を提供することによって、多重ホストデバイスのデータ冗長性を実現します。現在、Sun Cluster はボリュームマネージャーとして Solaris Volume Managerおよび VERITAS Volume Manager をサポートし、また、いくつかのハードウェア RAID プラットフォームでは RDAC RAID-5 ハードウェアコントローラをサポートします。
多重ホストデバイスをミラー化したディスクやストライプ化したディスクと組み合わせると、ノードの障害や個々のディスクの障害から保護できます。
多重ホスト記憶装置の FAQ については、第 4 章「よくある質問」を参照してください。
この項は、多重ホストデバイスに使用されるファイバチャネル記憶装置ではなく、SCSI 記憶装置にのみ適用されます。
スタンドアロンサーバーでは、サーバーノードが、このサーバーを特定の SCSI バスに接続する SCSI ホストアダプタ回路によって、SCSI バスのアクティビティーを制御します。この SCSI ホストアダプタ回路は、SCSI イニシエータと呼ばれます。この回路は、この SCSI バスに対するすべてのバスアクティビティーを開始します。Sun システムの SCSI ホストアダプタのデフォルト SCSI アドレスは 7 です。
クラスタ構成では、多重ホストデバイスを使用し、複数のサーバーノード間で記憶装置を共有します。クラスタ記憶装置が SCSI デバイスまたは Differential SCSI デバイスで構成される場合、その構成のことを「多重イニシエータ SCSI」と呼びます。この用語が示すように、複数の SCSI イニシエータが SCSI バスに存在します。
SCSI 仕様では、SCSI バス上のデバイスごとに一意の SCSI アドレスが必要 (ホストアダプタも SCSI バス上のデバイス) です。多重イニシエータ環境では、デフォルトのハードウェア構成は、すべての SCSI ホストアダプタがデフォルトの 7 になっているので、衝突が生じます。
この衝突を解決するには、各 SCSI バスで、SCSI アドレスが 7 の SCSI ホストアダプタを 1 つ残し、ほかのホストアダプタには、未使用の SCSI アドレスを設定します。これらの未使用の SCSI アドレスには、現在未使用のアドレスと最終的に未使用となるアドレスの両方を含めるべきです。将来未使用となるアドレスの例としては、新しいドライブを空のドライブスロットに設置することによる記憶装置の追加があります。
ほとんどの構成では、二次ホストアダプタに使用できる SCSI アドレスは 6 です。
これらのホストアダプタ用に選択された SCSI アドレスを変更するには、次のツールのいずれかを使用して、scsi-initiator-id プロパティーを設定します。
eeprom(1M)
SPARC ベースシステム上の OpenBoot PROM
x86 ベースのシステムで BIOS のブート後に任意で実行する SCSI ユーティリティー
このプロパティーは 1 つのノードに対して、広域的にまたはホストアダプタごとに設定できます。SCSI ホストアダプタごとに一意の scsi-initiator-id を設定する手順は、『Sun Cluster 3.1 - 3.2 With SCSI JBOD Storage Device Manual for Solaris OS』に記載されています。
ローカルディスクとは、単一ノードにのみ接続されたディスクを表します。したがって、ローカルディスクはノードの障害から保護されません。つまり、可用性が低いということです。ただし、ローカルディスクを含むすべてのディスクは広域的名前空間に含まれ、広域デバイスとして構成されています。したがって、ディスク自体はすべてのクラスタノードから参照できます。
ローカルディスク上のファイルシステムをほかのノードから使用できるようにするには、それらのファイルシステムを広域マウントポイントに置きます。これらの広域ファイルシステムのいずれかがマウントされているノードに障害が生じると、すべてのノードがそのファイルシステムにアクセスできなくなります。ボリュームマネージャーを使用すると、これらのディスクがミラー化されるため、これらのファイルシステムに障害が発生してもアクセス不能になることはありません。ただし、ノード障害をボリュームマネージャーで保護することはできません。
広域デバイスについての詳細は、「グローバルデバイス」を参照してください。
クラスタでは、テープドライブや CD-ROM ドライブなどのリムーバブルメディアがサポートされています。通常、これらのデバイスは、クラスタ化していない環境と同じ方法でインストール、構成し、サービスを提供できます。これらのデバイスは、Sun Cluster で広域デバイスとして構成されるため、クラスタ内の任意のノードから各デバイスにアクセスできます。リムーバブルメディアのインストールと構成については、『Sun Cluster 3.1 - 3.2 Hardware Administration Manual for Solaris OS』を参照してください。
広域デバイスについての詳細は、「グローバルデバイス」を参照してください。
クラスタインターコネクトは、クラスタノード間のクラスタプライベート通信とデータサービス通信の転送に使用される物理的な装置構成です。インターコネクトは、クラスタプライベート通信で拡張使用されるため、パフォーマンスが制限される可能性があります。
クラスタノードだけがプライベートインターコネクトに接続できます。Sun Cluster セキュリティーモデルは、クラスタノードだけがプライベートインターコネクトに物理的にアクセスできるものと想定しています。
1 つのクラスタでは、1 つから 6 つまでのクラスタインターコネクトを設定できます。クラスタインターコネクトを 1 つだけ使用すると、プライベートインターコネクトに使用されるアダプタポートの数が減り、同時に冗長性がなくなり、可用性が低くなります。また、その 1 つのインターコネクトに障害が発生すると、クラスタが自動回復を実行するのによけいに時間がかかります。クラスタインターコネクトが 2 つ以上になると冗長性とスケーラビリティーが提供されるので、シングルポイント障害が回避されて可用性も高くなります。
クラスタインターコネクトは、アダプタ、接続点、およびケーブルの 3 つのハードウェアコンポーネントで構成されます。次に、これらの各ハードウェアコンポーネントについて説明します。
アダプタ – 個々のクラスタノードに存在するネットワークインタフェースカード。アダプタの名前は、デバイス名と物理ユニット番号で構成されます (qfe2 など)。一部のアダプタには物理ネットワーク接続が 1 つしかありませんが、qfe カードのように複数の物理接続を持つものもあります。また、ネットワークインタフェースと記憶装置インタフェースの両方を持つものもあります。
複数のインタフェースを持つネットワークアダプタは、アダプタ全体に障害が生じると、単一地点による障害の原因となる可能性があります。可用性を最適にするには、2 つのノード間の唯一のパスが単一のネットワークアダプタに依存しないように、クラスタを設定してください。
接続点 – クラスタノードの外部に存在するスイッチ。接続点は、パススルーおよび切り換え機能を実行して、3 つ以上のノードに接続できるようにします。2 ノードクラスタでは、各ノードの冗長アダプタに接続された冗長物理ケーブルによって、ノードを相互に直接接続できるため、接続点は必要ありません。3 ノード以上の構成では、通常は接続点が必要です。
クラスタインターコネクトの FAQ については、第 4 章「よくある質問」を参照してください。
クライアントは、パブリックネットワークインタフェースを介してクラスタに接続します。各ネットワークアダプタカードは、カードに複数のハードウェアインタフェースがあるかどうかによって、1 つまたは複数のパブリックネットワークに接続できます。
複数のパブリックネットワークインタフェースカードを持つノードを設定することによって、次の機能を実行できます。
複数のカードをアクティブにするよう構成する。
相互のフェイルオーバーバックアップとする。
いずれかのアダプタに障害が発生すると、IP ネットワークマルチパス ソフトウェアが呼び出され、障害のあるインタフェースが同じグループの別のアダプタにフェイルオーバーされます。
パブリックネットワークインタフェースのクラスタ化に関連する特殊なハードウェアについての特記事項はありません。
パブリックネットワークの FAQ については、第 4 章「よくある質問」を参照してください。
クライアントシステムには、パブリックネットワークによってクラスタにアクセスするワークステーションやほかのサーバーが含まれます。クライアント側プログラムは、クラスタ上で動作しているサーバー側アプリケーションが提供するデータやサービスを使用します。
クライアントシステムの可用性は高くありません。クラスタ上のデータとアプリケーションは、高い可用性を備えています。
クライアントシステムの FAQ については、第 4 章「よくある質問」を参照してください。
すべてのクラスタノードにはコンソールアクセスが必要です。
コンソールアクセスを取得するには、次のうちの 1 つのデバイスを使用します。
クラスタハードウェアとともに購入した端末集配信装置
Sun Enterprise E10000 サーバーのシステムサービスプロセッサ (SSP) (SPARC ベースクラスタの場合)
Sun FireTM サーバーのシステムコントローラ (同じく SPARC ベースクラスタの場合)
各ノードの ttya にアクセスできる別のデバイス
サポートされている唯一の端末集配信装置は、Sun から提供されています。サポートされている Sun の端末集配信装置の使用は任意です。端末集配信装置を使用すると、TCP/IP ネットワークを使用して、各ノードの /dev/console にアクセスできます。この結果、ネットワークの任意の場所にあるリモートワークステーションから、各ノードにコンソールレベルでアクセスできます。
システムサービスプロセッサ (SSP) は、Sun Enterprise E10000 サーバーへのコンソールアクセスを提供します。SSP とは、Sun Enterprise E10000 サーバーをサポートするように構成された Ethernet ネットワーク上のマシンのことです。SSP は、Sun Enterprise E10000 サーバーの管理コンソールです。Sun Enterprise E10000 サーバーのネットワークコンソール機能を使用すると、ネットワーク上のすべてのワークステーションからホストコンソールセッションを開くことができます。
これ以外のコンソールアクセス方式には、ほかの端末集配信装置、別ノードおよびダム端末からの tip シリアルポートアクセスが含まれます。Sun キーボードとモニター、またはほかのシリアルポートデバイスも使用できます。
管理コンソールと呼ばれる専用のワークステーションを使用して動作中のクラスタを管理できます。通常は、Cluster Control Panel (CCP) や Sun Management Center 製品の Sun Cluster モジュール (SPARC ベースクラスタのみ) などの管理ツールソフトウェアを管理コンソールにインストールして実行します。CCP で cconsole を使用すると、一度に複数のノードコンソールに接続できます。CCP の使用法についての詳細は、『Sun Cluster のシステム管理 (Solaris OS 版)』の第 1 章「Sun Cluster の管理の概要」を参照してください。
管理コンソールはクラスタノードではありません。管理コンソールは、パブリックネットワークを介して、または任意でネットワークベースの端末集配信装置を経由して、クラスタノードへのリモートアクセスに使用します。
クラスタが Sun Enterprise E10000 プラットフォームで構成されている場合は、次の作業を行います。
管理コンソールから SSP にログインする。
netcon コマンドを使用して接続する。
通常、ノードはモニターなしで構成します。そして、管理コンソールから telnet セッションを使用して、ノードのコンソールにアクセスします。管理コンソールは端末集配信装置に接続され、端末集配信装置から当該ノードのシリアルポートに接続されます。Sun Enterprise E1000 サーバーの場合は、システムサービスプロセッサから接続します。詳細は、「コンソールアクセスデバイス」を参照してください。
Sun Cluster では専用の管理コンソールは必要ありませんが、専用の管理コンソールを使用すると、次のような利点があります。
コンソールと管理ツールを同じマシンにまとめることで、クラスタ管理を一元化できます。
ハードウェアサービスプロバイダによる問題解決が迅速に行われます。
管理コンソールの FAQ については、第 4 章「よくある質問」を参照してください。