ここで示す情報は、主にハードウェアサービスプロバイダを対象としています。これらの概念は、サービスプロバイダが、クラスタハードウェアの設置、構成、またはサービスを提供する前に、ハードウェアコンポーネント間の関係を理解するのに役立ちます。またこれらの情報は、クラスタシステムの管理者にとっても、クラスタソフトウェアをインストール、構成、管理するための予備知識として役立ちます。
クラスタは、次のようなハードウェアコンポーネントで構成されます。
ローカルディスク (非共有) を備えた Solaris ホスト
多重ホスト記憶装置 (Solaris ホスト間で共有されるディスク)
リムーバブルメディア (テープ、CD-ROM)
クラスタインターコネクト
パブリックネットワークインタフェース
クライアントシステム
管理コンソール
コンソールアクセスデバイス
Sun Cluster ソフトウェアを使用すると、これらのコンポーネントを各種の構成に組み合わせることができます。これらの構成については、次の節で説明します。
2 ホストクラスタの構成例については、『Sun Cluster の概要 (Solaris OS 版)』の「Sun Cluster のハードウェア環境」を参照してください。
Solaris 10 OS より前にリリースされた Solaris OS 上で動作するクラスタの場合、ノードはクラスタメンバーシップに参加する「物理的なマシン」であり、定足数デバイスではありません。Solaris 10 OS 上で動作するクラスタでは、ノードの概念が変更されました。この環境でのノードは、クラスタに関連付けられている Solaris ゾーンです。また、「Solaris ホスト」(単純に「ホスト」とも呼ばれます) は、Solaris OS および個別のプロセスが実行される、次のハードウェア構成またはソフトウェア構成のいずれかです。
仮想マシンで構成されていない、またはハードウェアドメインとして構成されていない「ベアメタル」物理マシン
Sun Logical Domains (LDoms) のゲストドメイン
Sun Logical Domains (LDoms) の I/O ドメイン
ハードウェアドメイン
プラットフォームに応じて、Sun Cluster ソフトウェアは次の構成をサポートします。
SPARC: Sun Cluster ソフトウェアは、1 つのクラスタで 1 つから 16 までの Solaris ホストをサポートします。ハードウェア構成によっては、SPARC ベースのシステムから成るクラスタで構成できるホストの最大数に制限が追加されます。サポートされる構成については、「SPARC: Sun Cluster トポロジ」を参照してください。
x86: Sun Cluster ソフトウェアは、1 つのクラスタで 1 つから 8 つまでの Solaris ホストをサポートします。ハードウェア構成によっては、x86 ベースのシステムから成るクラスタで構成できるホストの最大数に制限が追加されます。サポートされる構成については、「x86: Sun Cluster トポロジ」を参照してください。
一般的に Solaris ホストは、1 つまたは複数の多重ホストデバイスに接続されます。多重ホストデバイスに接続されていないホストは、クラスタファイルシステムを使用して多重ホストデバイスにアクセスします。たとえば、スケーラブルサービスを 1 つ構成することで、ホストが多重ホストデバイスに直接接続されていなくてもサービスを提供することができます。
さらに、パラレルデータベース構成では、複数のホストがすべてのディスクへの同時アクセスを共有します。
ディスクへの同時アクセスについては、「多重ホストデバイス」を参照してください。
パラレルデータベース構成についての詳細は、「SPARC: クラスタペアトポロジ」と「x86: クラスタペアトポロジ」を参照してください。
クラスタ内のノードはすべて、共通の名前 (クラスタ名) によってグループ化されます。この名前は、クラスタのアクセスと管理に使用されます。
パブリックネットワークアダプタは、ホストとパブリックネットワークを接続して、クラスタへのクライアントアクセスを可能にします。
クラスタメンバーは、1 つまたは複数の物理的に独立したネットワークを介して、クラスタ内のほかのホストと通信します。物理的に独立したネットワークの集合は、クラスタインターコネクトと呼ばれます。
クラスタ内のすべてのノードは、別のノードがいつクラスタに結合されたか、またはクラスタから切り離されたかを認識します。さらに、クラスタ内のすべてのノードは、ほかのクラスタノードで実行されているリソースだけでなく、ローカルに実行されているリソースも認識します。
同じクラスタ内の各ホストの処理、メモリー、および入出力機能が同等で、パフォーマンスを著しく低下させることなく処理を継続できることを確認してください。フェイルオーバーの可能性があるため、すべてのホストには、バックアップまたは二次ホストとしてすべてのホストの作業負荷を引き受けるのに十分な予備容量が必要です。
各ホストは、独自のルート (/) ファイルシステムを起動します。
Solaris ホストがクラスタメンバーとして動作するためには、ホストに次のソフトウェアがインストールされていなければなりません。
Solaris オペレーティングシステム
Sun Cluster ソフトウェア
データサービスアプリケーション
ボリューム管理 (Solaris Volume ManagerTM または Veritas Volume Manager)
例外として、複数のディスクの冗長配列 (RAID) を使用する構成があります。この構成には、通常、Solaris Volume Manager や Veritas Volume Manager などのボリュームマネージャーは必要ありません。
Solaris オペレーティングシステム、Sun Cluster、およびボリュームマネージャーのインストール方法については、『Sun Cluster ソフトウェアのインストール (Solaris OS 版)』を参照してください。
データサービスのインストールおよび構成については、『Sun Cluster データサービスの計画と管理 (Solaris OS 版)』を参照してください。
前述のソフトウェアコンポーネントの概念については、第 3 章重要な概念 - システム管理者とアプリケーション開発者を参照してください。
次の図は、Sun Cluster 環境を構成するソフトウェアコンポーネントとその関係の概要を示しています。
クラスタメンバーの FAQ については、第 4 章よくある質問を参照してください。
多重ホストデバイスとは、一度に複数の Solaris ホストに接続できるディスクのことです。Sun Cluster 環境では、多重ホスト記憶装置によってディスクの可用性を強化できます。2 ホストクラスタでは、Sun Cluster ソフトウェアは定足数を確立するために多重ホスト記憶装置を必要とします。3 ホストより大きなクラスタでは、定足数デバイスを必要としません。定足数についての詳細は、「定足数と定足数デバイス」を参照してください。
多重ホストデバイスには、次の特徴があります。
単一ホスト障害への耐性。
アプリケーションデータ、アプリケーションバイナリ、および構成ファイルを格納する機能。
ホスト障害からの保護。クライアントがあるホストを介するデータを要求して、そのホストに障害が発生した場合、これらの要求は、同じディスクに直接接続されている別のホストを使用するようにスイッチオーバーされます。
ディスクを「マスター」する主ホストを介する広域的なアクセス、またはローカルパスを介する直接同時アクセス。現在、直接同時アクセスを使用するアプリケーションは Oracle Real Application Clusters Guard だけです。
ボリュームマネージャーは、ミラー化された構成または RAID-5 構成を提供することによって、多重ホストデバイスのデータ冗長性を実現します。現在、Sun Cluster はボリュームマネージャーとして Solaris Volume Managerおよび Veritas Volume Manager をサポートし、また、いくつかのハードウェア RAID プラットフォームでは RDAC RAID-5 ハードウェアコントローラをサポートします。
多重ホストデバイスをミラー化したディスクやストライプ化したディスクと組み合わせると、ホストの障害や個々のディスクの障害から保護できます。
多重ホスト記憶装置の FAQ については、第 4 章よくある質問を参照してください。
この項は、多重ホストデバイスに使用されるファイバチャネル記憶装置ではなく、SCSI 記憶装置にのみ適用されます。
クラスタ化されていないスタンドアロンホストでは、ホストが、このホストを特定の SCSI バスに接続する SCSI ホストアダプタ回路によって、SCSI バスのアクティビティーを制御します。この SCSI ホストアダプタ回路は、SCSI イニシエータと呼ばれます。この回路は、この SCSI バスに対するすべてのバスアクティビティーを開始します。Sun システムの SCSI ホストアダプタのデフォルト SCSI アドレスは 7 です。
クラスタ構成では、多重ホストデバイスを使用し、複数のホスト間で記憶装置を共有します。クラスタ記憶装置が SCSI デバイスまたは Differential SCSI デバイスで構成される場合、その構成のことを「多重イニシエータ SCSI」と呼びます。この用語が示すように、複数の SCSI イニシエータが SCSI バスに存在します。
SCSI 仕様では、SCSI バス上のデバイスごとに一意の SCSI アドレスが必要 (ホストアダプタも SCSI バス上のデバイス) です。多重イニシエータ環境では、デフォルトのハードウェア構成は、すべての SCSI ホストアダプタがデフォルトの 7 になっているので、衝突が生じます。
この衝突を解決するには、各 SCSI バスで、SCSI アドレスが 7 の SCSI ホストアダプタを 1 つ残し、ほかのホストアダプタには、未使用の SCSI アドレスを設定します。これらの未使用の SCSI アドレスには、現在未使用のアドレスと最終的に未使用となるアドレスの両方を含めるべきです。将来未使用となるアドレスの例としては、新しいドライブを空のドライブスロットに設置することによる記憶装置の追加があります。
ほとんどの構成では、二次ホストアダプタに使用できる SCSI アドレスは 6 です。
これらのホストアダプタ用に選択された SCSI アドレスを変更するには、次のツールのいずれかを使用して、scsi-initiator-id プロパティーを設定します。
SPARC ベースシステム上の OpenBootTM PROM
x86 ベースのシステムで BIOS のブート後に任意で実行する SCSI ユーティリティー
このプロパティーは 1 つのホストに対して、広域的にまたはホストアダプタごとに設定できます。SCSI ホストアダプタごとに一意の scsi-initiator-id を設定する手順は、『Sun Cluster 3.1 - 3.2 With SCSI JBOD Storage Device Manual for Solaris OS』に記載されています。
ローカルディスクとは、単一の Solaris ホストにのみ接続されたディスクを表します。したがって、ローカルディスクはホストの障害から保護されません。つまり、可用性が低いということです。ただし、ローカルディスクを含むすべてのディスクは広域的名前空間に含まれ、広域デバイスとして構成されています。したがって、ディスク自体はすべてのクラスタホストから参照できます。
ローカルディスク上のファイルシステムをほかのホストから使用できるようにするには、それらのファイルシステムを広域マウントポイントに置きます。これらの広域ファイルシステムのいずれかがマウントされているホストに障害が生じると、すべてのホストがそのファイルシステムにアクセスできなくなります。ボリュームマネージャーを使用すると、これらのディスクがミラー化されるため、これらのファイルシステムに障害が発生してもアクセス不能になることはありません。ただし、ホスト障害をボリュームマネージャーで保護することはできません。
広域デバイスについての詳細は、「グローバルデバイス」を参照してください。
クラスタでは、テープドライブや CD-ROM ドライブなどのリムーバブルメディアがサポートされています。通常、これらのデバイスは、クラスタ化していない環境と同じ方法でインストール、構成し、サービスを提供できます。これらのデバイスは、Sun Cluster で広域デバイスとして構成されるため、クラスタ内の任意のノードから各デバイスにアクセスできます。リムーバブルメディアのインストールと構成については、『Sun Cluster 3.1 - 3.2 Hardware Administration Manual for Solaris OS』を参照してください。
広域デバイスについての詳細は、「グローバルデバイス」を参照してください。
「クラスタインターコネクト」は、クラスタ内の Solaris ホスト間のクラスタプライベート通信とデータサービス通信の転送に使用される物理的な装置構成です。インターコネクトは、クラスタプライベート通信で拡張使用されるため、パフォーマンスが制限される可能性があります。
クラスタ内のホストだけがクラスタインターコネクトに接続できます。Sun Cluster セキュリティーモデルは、クラスタホストだけがクラスタインターコネクトに物理的にアクセスできるものと想定しています。
1 つのクラスタでは、1 つから 6 つまでのクラスタインターコネクトを設定できます。クラスタインターコネクトを 1 つだけ使用すると、プライベートインターコネクトに使用されるアダプタポートの数が減り、同時に冗長性がなくなり、可用性が低くなります。また、1 つのインターコネクトに障害が発生すると、クラスタについて自動回復を実行しなければならないリスクが高くなります。可能な限り、クラスタインターコネクトは 2 つ以上インストールしてください。冗長性とスケーラビリティーが提供されるので、シングルポイント障害が回避されて可用性も高くなります。
クラスタインターコネクトは、アダプタ、接続点、およびケーブルの 3 つのハードウェアコンポーネントで構成されます 。次に、これらの各ハードウェアコンポーネントについて説明します。
アダプタ – 個々のクラスタホストに存在するネットワークインタフェースカード。アダプタの名前は、デバイス名と物理ユニット番号で構成されます (qfe2 など)。一部のアダプタには物理ネットワーク接続が 1 つしかありませんが、qfe カードのように複数の物理接続を持つものもあります。また、ネットワークインタフェースと記憶装置インタフェースの両方を持つものもあります。
複数のインタフェースを持つネットワークアダプタは、アダプタ全体に障害が生じると、単一地点による障害の原因となる可能性があります。可用性を最適にするには、2 つのホスト間の唯一のパスが単一のネットワークアダプタに依存しないように、クラスタを設定してください。
接続点 – クラスタホストの外部に存在するスイッチ。接続点は、パススルーおよび切り換え機能を実行して、3 つ以上のホストに接続できるようにします。2 ホストクラスタでは、各ホストの冗長アダプタに接続された冗長物理ケーブルによって、ホストを相互に直接接続できるため、接続点は必要ありません。3 ホスト以上の構成では、通常は接続点が必要です。
クラスタインターコネクトの FAQ については、第 4 章よくある質問を参照してください。
クライアントは、パブリックネットワークインタフェースを介してクラスタに接続します。各ネットワークアダプタカードは、カードに複数のハードウェアインタフェースがあるかどうかによって、1 つまたは複数のパブリックネットワークに接続できます。
複数のパブリックネットワークインタフェースカードを持つ Solaris ホストをクラスタに設定することによって、次の機能を実行できます。
複数のカードをアクティブにするよう構成する。
相互のフェイルオーバーバックアップとする。
いずれかのアダプタに障害が発生すると、IP ネットワークマルチパス ソフトウェアが呼び出され、障害のあるインタフェースが同じグループの別のアダプタにフェイルオーバーされます。
パブリックネットワークインタフェースのクラスタ化に関連する特殊なハードウェアについての特記事項はありません。
パブリックネットワークの FAQ については、第 4 章よくある質問を参照してください。
クライアントシステムには、パブリックネットワークによってクラスタにアクセスするマシンやほかのホストが含まれます。クライアント側プログラムは、クラスタ上で動作しているサーバー側アプリケーションが提供するデータやサービスを使用します。
クライアントシステムの可用性は高くありません。クラスタ上のデータとアプリケーションは、高い可用性を備えています。
クライアントシステムの FAQ については、第 4 章よくある質問を参照してください。
クラスタ内のすべての Solaris ホストにはコンソールアクセスが必要です。
コンソールアクセスを取得するには、次のうちの 1 つのデバイスを使用します。
クラスタハードウェアとともに購入した端末集配信装置
Sun Enterprise E10000 サーバーのシステムサービスプロセッサ (System Service Processor、SSP) (SPARC ベースクラスタの場合)
Sun FireTM サーバーのシステムコントローラ (同じく SPARC ベースクラスタの場合)
各ホストの ttya にアクセスできる別のデバイス
サポートされている唯一の端末集配信装置は、Sun から提供されています。サポートされている Sun の端末集配信装置の使用は任意です。端末集配信装置を使用すると、TCP/IP ネットワークを使用して、各ホストの /dev/console にアクセスできます。この結果、ネットワークの任意の場所にあるリモートマシンから、各ホストにコンソールレベルでアクセスできます。
システムサービスプロセッサ (System Service Processor、SSP) は、Sun Enterprise E10000 サーバーへのコンソールアクセスを提供します。SSP とは、Sun Enterprise E10000 サーバーをサポートするように構成された Ethernet ネットワーク上のマシンのプロセッサカードのことです。SSP は、Sun Enterprise E10000 サーバーの管理コンソールです。Sun Enterprise E10000 サーバーのネットワークコンソール機能を使用すると、ネットワーク上のすべてのマシンからホストコンソールセッションを開くことができます。
これ以外のコンソールアクセス方式には、ほかの端末集配信装置、別ホストおよびダム端末からの tip シリアルポートアクセスがあります。
基本サーバープラットフォームでキーボードまたはモニターがサポートされている場合、クラスタホストにキーボードまたはモニターを接続できます。ただし、このキーボードまたはモニターはコンソールデバイスとして使用できません。コンソールはシリアルポートにリダイレクトする必要があります。マシンによっては、適切な OpenBoot PROM パラメータを設定して、システムサービスプロセッサ (System Service Processor、SSP) およびリモートシステム制御 (Remote System Control、RSC) にコンソールをリダイレクトする必要があります。
管理コンソールと呼ばれる専用のマシンを使用して動作中のクラスタを管理できます。通常は、Cluster Control Panel (CCP) や Sun Management Center 製品の Sun Cluster モジュール (SPARC ベースクラスタのみ) などの管理ツールソフトウェアを管理コンソールにインストールして実行します。CCP で cconsole を使用すると、一度に複数のホストコンソールに接続できます。CCP の使用法についての詳細は、『Sun Cluster のシステム管理 (Solaris OS 版)』の第 1 章「Sun Cluster の管理の概要」を参照してください。
管理コンソールはクラスタホストではありません。管理コンソールは、パブリックネットワークを介して、または任意でネットワークベースの端末集配信装置を経由して、クラスタホストへのリモートアクセスに使用します。
クラスタが Sun Enterprise E10000 プラットフォームで構成されている場合は、次の作業を行います。
管理コンソールから SSP にログインする。
netcon コマンドを使用して接続する。
通常、ホストはモニターなしで構成します。そして、管理コンソールから telnet セッションを使用して、ホストのコンソールにアクセスします。管理コンソールは端末集配信装置に接続され、端末集配信装置から当該ホストのシリアルポートに接続されます。Sun Enterprise E1000 サーバーの場合は、システムサービスプロセッサから接続します。詳細は、「コンソールアクセスデバイス」を参照してください。
Sun Cluster では専用の管理コンソールは必要ありませんが、専用の管理コンソールを使用すると、次のような利点があります。
コンソールと管理ツールを同じマシンにまとめることで、クラスタ管理を一元化できます。
ハードウェアサービスプロバイダによる問題解決が迅速に行われます。
管理コンソールの FAQ については、第 4 章よくある質問を参照してください。