HA および並列データベース構成は、類似のハードウェアとソフトウェアコンポーネントで構成されます。ハードウェアコンポーネントとしては、以下があります。
クラスタノード
プライベートインターコネクト
パブリックネットワーク
ローカルディスク
多重ホストディスク
端末集配信装置またはシステムサービスプロセッサ (SSP)
管理ワークステーション
この後の節では、これらのコンポーネントについて詳しく説明します。
クラスタノードは、データサービスと並列データベースアプリケーションを実行する Sun EnterpriseTM サーバーです。Sun Cluster は、2 つから 4 つのノードのクラスタをサポートします。
クラスタインターコネクトは、重要なロック情報とハートビート情報に使用される信頼性の高いノード間通信チャネルを提供します。インターコネクトは、クラスタの高可用性や同期、完全性の管理に使用されます。クラスタインターコネクトは、2 つのプライベートリンクで構成されます。これらのリンクは冗長な構成であり、クラスタの動作に必要なのは 1 つだけです。すべてのノードが動作していて、1 つのプライベートインターコネクトが失われても、クラスタ動作は継続します。ただし、ノードがクラスタを結合する場合、結合が正しく行われるには、両方のプライベートインターコネクトが動作可能である必要があります。
このマニュアルでは、ネットワークアダプタインタフェースの hme1 と hme2 をクラスタインターコネクトとしています。実際には、このインタフェースは、ハードウェアプラットフォームとプライベートネットワーク構成によって異なることがあります。前提として求められるのは、2 つのプライベートインターコネクトが同じコントローラを共有しないことです。そうすることによって、シングルポイント障害が原因でインターコネクトが動作をが中断することがなくなります。
クラスタは、プライベートインターコネクト媒体として SCI (Scalable Coherent Interface) または Fast Ethernet のいずれかを使用できます。ただし、これらの媒体を混在させる、つまり、同じクラスタ内で SCI と Ethernet プライベートインターコネクトの両方を使用することはできません。
スイッチ管理エージェント (SMA) は、プライベートインターコネクト上の通信チャネルを保守するクラスタモジュールです。SMA エージェントはプライベートインターコネクトを監視し、障害を検出した場合は、残っているプライベートネットワークに対して論理アダプタのフェイルオーバーを行います。複数の障害を検出した場合は、クラスタメンバーシップを変更するために必要な作業を行うクラスタメンバーシップモニターにそのことを通知します。
クラスタ化された環境に求められる通信条件は、その環境でサポートするデータサービスの種類によって異なります。HA データサービスだけ提供するクラスタは、プライベートインターコネクト上でハートビートと最低限のクラスタ構成トラフィックを必要とするだけであり、そうした構成では、Fast Ethernet で十分です。並列データベースサービスを提供するクラスタは、プライベートインターコネクト上で大量のトラフィックを送信します。このため、そうしたアプリケーションでは、スループットの大きい SCI の方に利点があります。
SCI (Scalable Coherent Interface) は、クラスタノード間のメモリー共有を可能にする、メモリーを使用した高速のインターコネクトです。SCI プライベートインターコネクトは、SCI に基づく伝送制御プロトコル/インターネットプロトコル (TCP/IP) ネットワークインタフェースで構成されます。
スイッチまたはハブによって、どのような規模のクラスタでも相互接続できます。ただし、ポイントツーポイント接続できるのは 2 ノードのクラスタだけです。SCI リンクとスイッチに対するセッションは、システム管理エージェント (SMA) ソフトウェアコンポーネントによって管理されます。
Sun Cluster では、基本的な SCI トポロジとして、次の 3 つをサポートしています (図 1-1 と 図 1-2 を参照)。
2 つの SCI スイッチを必要とする、3 ノードまたは 4 ノードのクラスタ
ポイントツーポイント接続された 2 ノードのクラスタ
2 ノードの交換方式のクラスタ (最低限の運用中断で将来のクラスタノードの拡張を可能にする、4 ノードのクラスタの縮小構成)
スイッチまたはハブによって、どのような規模のクラスタでも相互接続できます。ただし、ポイントツーポイント接続できるのは 2 ノードのクラスタだけです。Ethernet スイッチまたはハブ上の通信は、システム管理エージェント (SMA) ソフトウェアコンポーネントによって管理されます。
Sun Cluster では、基本的な Ethernet トポロジとして、次の 3 つをサポートしています (図 1-3 と 図 1-4 を参照)。
2 つの Ethernet スイッチまたはハブを必要とする、3 ノードまたは 4 ノードのクラスタ
ポイントツーポイント接続の 2 ノードのクラスタ
Ethernet スイッチまたはハブを使った 2 ノードのクラスタ (最低限の運用中断で将来のクラスタノードの拡張を可能にする、4 ノードのクラスタの縮退構成)
/etc/nsswitch.conf ファイルを編集して、「サービス」、「グループ」、「ホスト」が常に /etc 内のファイルで検索されるようにする必要があります。この編集作業は、第 3 章「Sun Cluster ソフトウェアのインストールと構成」で説明する Sun Cluster のインストール作業の一環として行われます。
次は、ネームサービスとして NIS+ を使用する /etc/nsswitch.conf ファイルの例です。
services: files nisplus |
このエントリは、別のサービスのエントリより前に置く必要があります。詳細は、nsswitch.conf(4) のマニュアルページを参照してください。
/etc/nsswitch.conf ファイルの編集は、テキストエディタを使用し手作業で行う必要があります。クラスタコンソールを使用して、一度にすべてのノードを更新できます。クラスタコンソールについての詳細は、『Sun Cluster 2.2 のシステム管理』の Sun Cluster の管理ツールの説明を参照してください。
Sun Cluster へのクラスタからのアクセスは、クラスタのノードをパブリックネットワークに接続することによって実現されます。クラスタのノードには、パブリックネットワークをいくつでも接続できますが、クラスタのトポロジに関係なく、それらパブリックネットワークはクラスタ内のすべてのノードに接続する必要があります。図 1-5 は、ノード 4 つを 1 つのパブリックネットワーク (192.9.200) に接続した構成です。パブリックネットワーク上の各物理ホストは、IP アドレスを持ちます。
パブリックネットワークの 1 つは主パブリックネットワークと定義され、残りのパブリックネットワークは二次パブリックネットワークと定義されます。各ネットワークはまた、サブネットワークあるいはサブネットともいいます。図 1-5 には、物理ネットワークアダプタ (hme0) も示されています。このマニュアルでは、hme0 を主パブリックネットワークのインタフェースとしています。実際には、このインタフェースは、ハードウェアプラットフォームとパブリックネットワーク構成によって異なることがあります。
図 1-6 は、上図と同じノード構成ですが、2 つ目のパブリックネットワーク (192.9.201) が追加されています。パブリックネットワークを追加するごとに、すべての Sun Cluster サーバーに対して物理ホスト名と IP アドレスを割り当てる必要があります。
主物理ホスト名は、主パブリックネットワーク上で物理ホストが識別される名前です。二次物理ホスト名は、二次パブリックネットワーク上で物理ホストが識別される名前です。図 1-6 では、主物理ホスト名は phys-hahost1〜4、二次物理ホスト名は phys-hahost1〜4-201 です。接尾辞の -201 は、二次パブリックネットワークを表します。物理ホストの命名規則については、第 2 章「構成の計画」で詳しく説明します。
図 1-6 では、ネットワークアダプタの hme3 が、二次パブリックネットワークへのインタフェースとしてすべてのノードに使用されるようになっています。このアダプタは、インタフェースとして適切なものであれば、どのようなものでもかまいません。hme3 は一つの例にすぎません。
Sun Cluster サーバーにはそれぞれ、そのサーバーからのみアクセス可能なディスクが存在します。そうしたディスクをローカルディスクと呼びます。ローカルディスクには、Sun Cluster ソフトウェア環境と Solaris オペレーティング環境が含まれます。
Sun Cluster は多重ホストの SPARCstorageTM Array (SSA) 内のディスクからの起動に対応しており、専用の起動ディスクを必要としません。Sun Cluster ソフトウェアは、ローカル (専用) ディスクと共有ディスクの両方を持つ SSA をサポートしています。
図 1-7 は、ローカルディスクを持つ 2 ノードのクラスタ構成を示しています。
ローカルディスクはミラー化できますが、必ずしもミラー化する必要はありません。ローカルディスクのミラー化についての詳細は、第 2 章「構成の計画」を参照してください。
どのような Sun Cluster 構成でも、少なくとも 2 つのノードには、1 組の共有ディスク (または多重ホストディスク) が物理接続されます。共有ディスクは、複数のディスク拡張装置にまたがってグループを構成します。ディスク拡張装置は、物理的なディスク格納装置です。Sun Cluster は、Sun StorEdgeTM MultiPack、Sun StorEdge A3000、Sun StorEdge A5000 などの、さまざまなディスク拡張装置をサポートしています。図 1-7 は、それぞれに 1 組のディスク拡張装置が物理接続されている 2 つのホストを示しています。クラスタのすべてのノードをすべてのディスク拡張装置に物理接続する必要はありません。
HA 構成では、多重ホストディスクに HA データサービス用のデータが格納されます。サーバーは、多重ホストディスクをマスターしているときに、そのディスク上のデータを利用できます。Sun Cluster サーバーの 1 つに障害が発生した場合、データサービスは同じクラスタ内の別のサーバーにフェイルオーバーします。すなわち、フェイルオーバー時、故障したノード上で動作していたデータサービスは、ユーザーの介入なしに、わずかなサービスの中断があるだけで別のノードから起動されます。システム管理者は、手動でいつでも別の Sun Cluster サーバーにデータサービスを切り替える (スイッチオーバー) ことができます。フェイルオーバーとスイッチオーバーについての詳細は、「システムフェイルオーバーとスイッチオーバー」を参照してください。
並列データベース構成では、多重ホストディスクに、リレーショナルデータベースアプリケーションの使用するデータが格納されます。この多重ホストディスクには、複数のサーバーが同時にアクセスします。Oracle UNIX DLM (Dynamic Lock Manager) によって、ユーザープロセスによる共有データの破壊が防止されます。多重ホストディスクに接続されたサーバーで問題が発生した場合、クラスタソフトウェアはその障害を検出し、残りのサーバーの 1 つを経由して、ユーザーからの照会を配信します。
Sun StorEdge A3000 (RAID5 機能を持つ) を除き、多重ホストディスクは必ずミラー化する必要があります。図 1-7 は、多重ホストディスク構成を表しています。
端末集配信装置は、クラスタノードのすべてのコンソール用シリアルポートを 1 つのワークステーションに接続するために使用される装置です。端末集配信装置は、クラスタノード上のコンソール用シリアルポートを telnet でアクセス可能なデバイスに変えます。端末集配信装置のアドレスに telnet 接続して、boot-PROM-prompt 対応のコンソールウィンドウを表示することができます。
システムサービスプロセッサ (SSP) は、Sun Enterprise 10000 サーバーにコンソールアクセス機能を提供します。SSP は、Sun Enterprise 10000 のサポート用として特に設定された、Ethernet ネットワーク上の Solaris ワークステーションです。SSP は、Sun Enterprise 10000 を使用した Sun Cluster 構成用の管理ワークステーションとして使用されます。 Sun Enterprise 10000 のネットワークコンソール機能を使用することにより、ネットワーク上のどのワークステーションからでも、ホストコンソールセッションを開くことができます。
クラスタコンソールは SSP に telnet(1M) 接続するため、SSP にログインして、netcon セッションを開始し、ドメインを制御できます。SSP についての詳細は、Sun Enterprise 10000 のマニュアルを参照してください。
端末集配信装置とシステムサービスプロセッサは、障害防護プロセスの一環として、いくつかの障害発生状況でノードを停止するために使用されます。詳細は、「障害防護 (SSVM と CVM)」を参照してください。
管理ワークステーションは、クラスタを構成するあらゆるノードからコンソールインタフェースを提供するために使用されます。管理ワークステーションは、クラスタコンソールセッションを実行する能力を持つワークステーションであれば、どのようなものでもかまいません。
コンソールインタフェースについての詳細は、『Sun Cluster 2.2 のシステム管理』と端末集配信装置のマニュアルを参照してください。