Sun Cluster の概念 (Solaris OS 版)

Sun Cluster システムのハードウェアおよびソフトウェアコンポーネント

ここで示す情報は、主にハードウェアサービスプロバイダを対象としています。これらの概念は、サービスプロバイダが、クラスタハードウェアの設置、構成、またはサービスを提供する前に、ハードウェアコンポーネント間の関係を理解するのに役立ちます。またこれらの情報は、クラスタシステムの管理者にとっても、クラスタソフトウェアをインストール、構成、管理するための予備知識として役立ちます。

クラスタは、次のようなハードウェアコンポーネントで構成されます。

Sun Cluster ソフトウェアを使用すると、これらのコンポーネントを各種の構成に組み合わせることができます。これらの構成については、次の節で説明します。

2 ノードクラスタの構成例については、『Sun Cluster の概要 (Solaris OS 版)』「Sun Cluster のハードウェア環境」を参照してください。

クラスタノード

クラスタノードとは、Solaris オペレーティングシステムと Sun Cluster ソフトウェアの両方を実行しているマシンのことです。クラスタノードは、クラスタの現在のメンバー (「クラスタメンバー」) または潜在的なメンバーのどちらかです。

一般的にクラスタノードは、1 つまたは複数の多重ホストデバイスに接続されます。多重ホストデバイスに接続されていないノードは、クラスタファイルシステムを使用して多重ホストデバイスにアクセスします。たとえば、スケーラブルサービスを 1 つ構成することで、ノードが多重ホストデバイスに直接接続されていなくてもサービスを提供することができます。

さらに、パラレルデータベース構成では、複数のノードがすべてのディスクへの同時アクセスを共有します。

クラスタ内のノードはすべて、共通の名前 (クラスタ名) によってグループ化されます。この名前は、クラスタのアクセスと管理に使用されます。

パブリックネットワークアダプタは、ノードとパブリックネットワークを接続して、クラスタへのクライアントアクセスを可能にします。

クラスタメンバーは、1 つまたは複数の物理的に独立したネットワークを介して、クラスタ内のほかのノードと通信します。物理的に独立したネットワークの集合は、クラスタインターコネクトと呼ばれます。

クラスタ内のすべてのノードは、別のノードがいつクラスタに結合されたか、またはクラスタから切り離されたかを認識します。さらに、クラスタ内のすべてのノードは、他のクラスタノードで実行されているリソースだけでなく、ローカルに実行されているリソースも認識します。

同じクラスタ内の各ノードの処理、メモリー、および入出力機能が同等で、パフォーマンスを著しく低下させることなく処理を継続できることを確認してください。フェイルオーバーの可能性があるため、すべてのノードには、バックアップまたは二次ノードとしてすべてのノードの作業負荷を引き受けるのに十分な予備容量が必要です。

各ノードは、独自のルート (/) ファイルシステムを起動します。

クラスタハードウェアメンバー用のソフトウェアコンポーネント

ノードがクラスタメンバーとして動作するためには、ノードに次のソフトウェアがインストールされていなければなりません。

次の図は、Sun Cluster 環境を構成するソフトウェアコンポーネントとその関係の概要を示しています。

図 2–1 Sun Cluster ソフトウェアコンポーネントとその関係の概要

図 : この図については、前の本文中で説明しています。

クラスタメンバーの FAQ については、第 4 章「よくある質問」を参照してください。

多重ホストデバイス

多重ホストデバイスとは、一度に複数のノードに接続できるディスクのことです。Sun Cluster 環境では、多重ホスト記憶装置によってディスクの可用性を強化できます。2 ノードクラスタでは、Sun Cluster ソフトウェアは定足数を確立するために多重ホスト記憶装置を必要とします。3 ノードより大きなクラスタでは、定足数デバイスを必要としません。定足数についての詳細は、「定足数と定足数デバイス」を参照してください。

多重ホストデバイスには、次の特徴があります。

ボリュームマネージャーは、ミラー化された構成または RAID-5 構成を提供することによって、多重ホストデバイスのデータ冗長性を実現します。現在、Sun Cluster はボリュームマネージャーとして Solaris ボリュームマネージャーおよび VERITAS Volume Manager をサポートし、また、いくつかのハードウェア RAID プラットフォームでは RDAC RAID-5 ハードウェアコントローラをサポートします。

多重ホストデバイスをミラー化したディスクやストライプ化したディスクと組み合わせると、ノードの障害や個々のディスクの障害から保護できます。

多重ホスト記憶装置の FAQ については、第 4 章「よくある質問」を参照してください。

多重イニシエータ SCSI

この項は、多重ホストデバイスに使用されるファイバチャネル記憶装置ではなく、SCSI 記憶装置にのみ適用されます。

スタンドアロンサーバーでは、サーバーノードが、このサーバーを特定の SCSI バスに接続する SCSI ホストアダプタ回路によって、SCSI バスのアクティビティーを制御します。この SCSI ホストアダプタ回路は、SCSI イニシエータと呼ばれます。この回路は、この SCSI バスに対するすべてのバスアクティビティーを開始します。Sun システムの SCSI ホストアダプタのデフォルト SCSI アドレスは 7 です。

クラスタ構成では、多重ホストデバイスを使用し、複数のサーバーノード間で記憶装置を共有します。クラスタ記憶装置が SCSI デバイスまたは Differential SCSI デバイスで構成される場合、その構成のことを「多重イニシエータ SCSI」と呼びます。この用語が示すように、複数の SCSI イニシエータが SCSI バスに存在します。

SCSI 仕様では、SCSI バス上のデバイスごとに一意の SCSI アドレスが必要 (ホストアダプタも SCSI バス上のデバイス) です。多重イニシエータ環境では、デフォルトのハードウェア構成は、すべての SCSI ホストアダプタがデフォルトの 7 になっているので、衝突が生じます。

この衝突を解決するには、各 SCSI バスで、SCSI アドレスが 7 の SCSI ホストアダプタを 1 つ残し、他のホストアダプタには、未使用の SCSI アドレスを設定します。これらの未使用の SCSI アドレスには、現在未使用のアドレスと最終的に未使用となるアドレスの両方を含めるべきです。将来未使用となるアドレスの例としては、新しいドライブを空のドライブスロットに設置することによる記憶装置の追加があります。

ほとんどの構成では、二次ホストアダプタに使用できる SCSI アドレスは 6 です。

これらのホストアダプタ用に選択された SCSI アドレスを変更するには、次のツールのいずれかを使用して、scsi-initiator-id プロパティーを設定します。

このプロパティーは 1 つのノードに対して、広域的にまたはホストアダプタごとに設定できます。SCSI ホストアダプタごとに一意の scsi-initiator-id を設定する手順は、『Sun Cluster 3.1 - 3.2 With SCSI JBOD Storage Device Manual for Solaris OS』に記載されています。

ローカルディスク

ローカルディスクとは、単一ノードにのみ接続されたディスクを表します。したがって、ローカルディスクはノードの障害から保護されません。つまり、可用性が低いということです。ただし、ローカルディスクを含むすべてのディスクは広域的な名前空間に含まれ、広域デバイスとして構成されます。したがって、ディスク自体はすべてのクラスタノードから参照できます。

ローカルディスク上のファイルシステムをほかのノードから使用できるようにするには、それらのファイルシステムを広域マウントポイントに置きます。これらの広域ファイルシステムのいずれかがマウントされているノードに障害が生じると、すべてのノードがそのファイルシステムにアクセスできなくなります。ボリュームマネージャーを使用すると、これらのディスクがミラー化されるため、これらのファイルシステムに障害が発生してもアクセス不能になることはありません。ただし、ノード障害をボリュームマネージャーで保護することはできません。

広域デバイスについての詳細は、「広域デバイス」を参照してください。

リムーバブルメディア

クラスタでは、テープドライブや CD-ROM ドライブなどのリムーバブルメディアがサポートされています。通常、これらのデバイスは、クラスタ化していない環境と同じ方法でインストール、構成し、サービスを提供できます。これらのデバイスは、Sun Cluster で広域デバイスとして構成されるため、クラスタ内の任意のノードから各デバイスにアクセスできます。リムーバブルメディアのインストールと構成については、『Sun Cluster 3.1 - 3.2 Hardware Administration Manual for Solaris OS』を参照してください。

広域デバイスについての詳細は、「広域デバイス」を参照してください。

クラスタインターコネクト

クラスタインターコネクトは、クラスタノード間のクラスタプライベート通信とデータサービス通信の転送に使用される物理的な装置構成です。インターコネクトは、クラスタプライベート通信で拡張使用されるため、パフォーマンスが制限される可能性があります。

クラスタノードだけがプライベートインターコネクトに接続できます。Sun Cluster セキュリティーモデルは、クラスタノードだけがプライベートインターコネクトに物理的にアクセスできるものと想定しています。

シングルポイント障害を回避するには、少なくとも 2 つの物理的に独立したネットワーク (つまり、パス) を使用して、すべてのノードをクラスタインターコネクトによって接続する必要があります。任意の 2 つのノード間で、複数の物理的に独立したネットワーク (2 から 6) を設定できます。

クラスタインターコネクトは、アダプタ、接続点、およびケーブルの 3 つのハードウェアコンポーネントで構成されます。次に、これらの各ハードウェアコンポーネントについて説明します。

クラスタインターコネクトの FAQ については、第 4 章「よくある質問」を参照してください。

パブリックネットワークインタフェース

クライアントは、パブリックネットワークインタフェースを介してクラスタに接続します。各ネットワークアダプタカードは、カードに複数のハードウェアインタフェースがあるかどうかによって、1 つまたは複数のパブリックネットワークに接続できます。

複数のパブリックネットワークインタフェースカードを持つノードを設定することによって、次の機能を実行できます。

いずれかのアダプタに障害が発生すると、IP ネットワークマルチパス ソフトウェアが呼び出され、障害のあるインタフェースが同じグループの別のアダプタにフェイルオーバーされます。

パブリックネットワークインタフェースのクラスタ化に関連する特殊なハードウェアについての特記事項はありません。

パブリックネットワークの FAQ については、第 4 章「よくある質問」を参照してください。

クライアントシステム

クライアントシステムには、パブリックネットワークによってクラスタにアクセスするワークステーションや他のサーバーが含まれます。クライアント側プログラムは、クラスタ上で動作しているサーバー側アプリケーションが提供するデータやサービスを使用します。

クライアントシステムの可用性は高くありません。クラスタ上のデータとアプリケーションは、高い可用性を備えています。

クライアントシステムの FAQ については、第 4 章「よくある質問」を参照してください。

コンソールアクセスデバイス

すべてのクラスタノードにはコンソールアクセスが必要です。

コンソールアクセスを取得するには、次のうちの 1 つのデバイスを使用します。

サポートされている唯一の端末集配信装置は、Sun から提供されています。サポートされている Sun の端末集配信装置の使用は任意です。端末集配信装置を使用すると、TCP/IP ネットワークを使用して、各ノードの /dev/console にアクセスできます。この結果、ネットワークの任意の場所にあるリモートワークステーションから、各ノードにコンソールレベルでアクセスできます。

システムサービスプロセッサ (SSP) は、Sun Enterprise E10000 サーバーへのコンソールアクセスを提供します。SSP とは、Sun Enterprise E10000 サーバーをサポートするように構成された Ethernet ネットワーク上のマシンのことです。SSP は、Sun Enterprise E10000 サーバーの管理コンソールです。Sun Enterprise E10000 サーバーのネットワークコンソール機能を使用すると、ネットワーク上のすべてのワークステーションからホストコンソールセッションを開くことができます。

これ以外のコンソールアクセス方式には、他の端末集配信装置、別ノードおよびダム端末からの tip シリアルポートアクセスが含まれます。Sun キーボードとモニター、または他のシリアルポートデバイスも使用できます。

管理コンソール

管理コンソールと呼ばれる専用のワークステーションを使用して動作中のクラスタを管理できます。通常は、Cluster Control Panel (CCP) や Sun Management Center 製品の Sun Cluster モジュール (SPARC ベースクラスタのみ) などの管理ツールソフトウェアを管理コンソールにインストールして実行します。CCP で cconsole を使用すると、一度に複数のノードコンソールに接続できます。CCP の使用法についての詳細は、『Sun Cluster のシステム管理 (Solaris OS 版)』の第 1 章「Sun Cluster の管理の概要」を参照してください。

管理コンソールはクラスタノードではありません。管理コンソールは、パブリックネットワークを介して、または任意でネットワークベースの端末集配信装置を経由して、クラスタノードへのリモートアクセスに使用します。

クラスタが Sun Enterprise E10000 プラットフォームで構成されている場合は、次の作業を行います。

通常、ノードはモニターなしで構成します。そして、管理コンソールから telnet セッションを使用して、ノードのコンソールにアクセスします。管理コンソールは端末集配信装置に接続され、端末集配信装置から当該ノードのシリアルポートに接続されます。Sun Enterprise E1000 サーバーの場合は、システムサービスプロセッサから接続します。詳細は、「コンソールアクセスデバイス」を参照してください。

Sun Cluster では専用の管理コンソールは必要ありませんが、専用の管理コンソールを使用すると、次のような利点があります。

管理コンソールの FAQ については、第 4 章「よくある質問」を参照してください。