Sun Java ロゴ     前へ      目次      索引      次へ     

Sun ロゴ
Sun Java™ System Directory Server 5 2004Q2 配備計画ガイド 

第 9 章
参考のアーキテクチャとトポロジ

ディレクトリの配備を計画するときは、いくつかの事項を考慮する必要があります。最も重要な事項には、データの物理的な配置場所、このデータをどこに、また、どのようにレプリケートするか、障害を最小化するにはどうすればよいか、障害が発生した場合にどのように対応するか、などが含まれます。この章で説明するアーキテクチャ戦略は、これらの事項について考える上でのガイドラインとなります。

この章は、次の節から構成されています。


障害と復元について

障害発生時にサービスの中断を最小限にとどめるための戦略を準備しておくことが重要です。ここでいう障害とは、必要とされる最小限のサービスを Directory Server が提供できなくなる原因として定義されます。ここでは、配備で発生する障害の原因を特定し、障害に迅速に対応できるように、障害のさまざまな発生原因について説明します。

障害は、主に次の 2 つに分けられます。

システムが使用できなくなることには、次のような原因があります。

システムが信頼できなくなることには、次のような原因があります。

書き込み可能なサーバーが利用できなくなった場合に、ディレクトリ内のデータを追加、変更する機能を維持するには、書き込み操作が代替サーバーを経由する必要があります。書き込み操作のルーティングにはさまざまな方法があり、Sun Java System Directory Proxy Server の使用もそれに含まれます。

ディレクトリ内のデータを読み取る機能を維持するには、適切なロードバランス戦略を導入する必要があります。読み取りの負荷を複数のコンシューマレプリカに分散するには、ソフトウェアとハードウェアの両方のロードバランスソリューションを利用できます。それぞれのソリューションには、各レプリカの状態を特定し、ロードバランストポロジの中でどのような役割を果たすべきかを管理する機能 (完全性と精度はそれぞれ異なる) があります。

ディレクトリの内容をレプリケートすると、Directory Server の可用性が向上します。信頼できるレプリケーショントポロジを構築することで、障害が発生した場合でも、データセンターにアクセスするすべてのクライアントは最新のデータに確実にアクセスできます。

次に、読み取り操作と書き込み操作のための障害戦略について説明します。これは、レプリケーショントポロジにも関連します。


バックアップ戦略の策定

データの破損や喪失をともなう障害では、データの最新のバックアップが不可欠になります。最新のバックアップが得られない場合、障害が発生したマスターを別のマスターから初期化し直す必要があります。データをバックアップするための包括的な手順については、『Directory Server 管理ガイド』の「データのバックアップ」を参照してください。

ここでは、バックアップと復元の戦略を計画する上で考慮すべき事項について簡単に説明します。

バックアップ方法の選択

Directory Server では、バイナリバックアップ (db2bak) と、LDIF ファイルへのバックアップ (db2ldif) という 2 つの方法でデータをバックアップできます。これらのコマンドは、両方とも directoryserver コマンドのサブコマンドです。詳細は、『Directory Server Administration Reference』の第 1 章にある「directoryserver」を参照してください。どちらの方法にも利点と制限があるため、効果的なバックアップ戦略を計画するには、それぞれの方法について理解することが役立ちます。

バイナリバックアップ (db2bak)

バイナリバックアップは、ファイルシステムレベルで行われます。バイナリバックアップの出力は、すべてのエントリ、インデックス、更新履歴ログ、トランザクションログを含むバイナリファイルのセットです。


バイナリバックアップでは、dse.ldif 設定ファイルはバックアップされません。失われた設定情報を復元するには、このファイルを手動でバックアップする必要があります。


バイナリバックアップには、次のような利点があります。

バイナリバックアップには、次のような制約があります。

互いに連携するマシンの各セット (上で定義した同じ設定を持つマシン) で、少なくとも定期的にバイナリバックアップを行う必要があります。


ローカルバックアップからの復元のほうが簡単なので、各サーバーでバイナリバックアップを行なってください。


この章に示される図で使用される略語の意味は次のとおりです。

図 9-1 は、M1 と M2 が同じ設定を持ち、H1 と H2 が同じ設定を持つことを前提としています。この例では、M1 と H1 でバイナリバックアップが行われます。障害が発生した場合、いずれかのマスターを M1 (db1) のバイナリバックアップから復元し、いずれかのハブを H1 (db2) のバイナリバックアップから復元することができます。H1 のバイナリバックアップからマスターを復元したり、M1 のバイナリバックアップからハブを復元することはできません。

図 9-1 バイナリバックアップ

LDIF (db2ldif) へのバックアップ

LDIF へのバックアップはサフィックスレベルで行われます。db2ldif の出力は、フォーマットされた LDIF ファイルです。このため、このプロセスはバイナリバックアップと比較して時間がかかります。


db2ldif の実行時に -r オプションを指定しない限り、レプリケーション情報はバックアップされません。

LDIF へのバックアップでは、dse.ldif 設定ファイルはバックアップされません。失われた設定情報を復元するには、このファイルを手動でバックアップする必要があります。


LDIF へのバックアップには、次のような利点があります。

LDIF へのバックアップには、次のような制約があります。

トポロジの単一マスターで、レプリケートされた各サフィックスを LDIF に定期的にバックアップしてください。

次の図では、M1 だけ、または M1 と H1 のレプリケートされた各サフィックスに対して db2ldif -r を実行しています。

図 9-2 db2ldif -r によるバックアップ

同じマスターから個別のサフィックスへのバックアップを示す db2ldif -r によるバックアップ


警告

パージ遅延より頻繁にバックアップを行うことが重要です。nsDS5ReplicaPurgeDelay 属性によって指定されるパージ遅延は、更新履歴ログに対して内部パージ操作を開始するまでの期間 (秒単位) です。デフォルトのパージ遅延は 604800 秒 (1 週間) です。更新履歴ログは、レプリケートが完了している、またはレプリケートが完了していない更新の記録を保持しています。

更新の頻度がパージ遅延より低い場合、バックアップを行う前に更新履歴ログの内容がクリアされてしまう可能性があります。この場合、バックアップからデータを復元しようとしても、変更は失われています。


復元方法の選択

Directory Server では、バイナリ復元 (bak2db) と、LDIF ファイルからの復元 (ldif2db) という 2 つの方法でデータを復元できます。すでに説明したバックアップ方法と同様に、どちらの方法にも利点と制限があります。

バイナリ復元 (bak2db)

バイナリ復元では、データベースレベルでデータがコピーされます。このため、バイナリ復元によるデータの復元には、次のような利点があります。

バイナリ復元によるデータの復元には、次のような制約があります。

マシンの設定が同一であり、実行時間に特に考慮が必要な場合、推奨される復元方法はバイナリ復元になります。

図 9-3 は、M1 と M2 が同じ設定を持ち、H1 と H2 が同じ設定を持つことを前提としています。この例では、いずれかのマスターを M1 (db1) のバイナリバックアップから復元し、いずれかのハブを H1 (db2) のバイナリバックアップから復元することができます。

図 9-3 バイナリ復元

1 つのデータベースからいずれかのマスターを復元し、別のデータベースからいずれかのハブを復元するバイナリ復元

LDIF からの復元 (ldif2db)

LDIF ファイルからの復元は、サフィックスレベルで行われます。このため、このプロセスはバイナリ復元と比較して時間がかかります。LDIF ファイルからの復元には、次のような利点があります。

LDIF ファイルからの復元には、次のような制限があります。

次の図では、M1 だけ、または M1 と H1 のレプリケートされた各サフィックスに対して ldif2db を実行しています。

図 9-4 ldif2db による復元

2 つのサフィックスからマスター M1 が復元される ldif2db によるデータの復元


レプリケーショントポロジの例

レプリケーショントポロジは、企業の規模と、データセンターの物理的な場所によって決定されます。このため、ここで紹介するレプリケーショントポロジの例は、企業がディレクトリを維持するデータセンター (サイト) の数によって分けられています。

ディレクトリを最初に配備するときは、エントリの現在の数と、ディレクトリへの読み取りおよび書き込み操作の現在のボリュームに基づいて配備を行います。エントリ数が増えると、読み取りパフォーマンス向上のためにディレクトリのスケーリングが必要になる場合があります。それぞれの企業に合わせたスケーラビリティが提案されます。

これらのトポロジは、1 つのコンポーネントで障害が発生した場合にも、迅速な人的対応なしでサービスを提供し続けることを目的としています。1 つまたは 2 つのデータセンターで、読み取りと書き込みのフェイルオーバーもローカルに行われます。

1 つのデータセンター

1 つのデータセンターのトポロジには、ディレクトリの想定パフォーマンス要件が大きく影響します。提案される基本的なトポロジでは、読み取りと書き込みの操作を処理するために、少なくとも 2 つのサーバーの動作が保証される配備が想定されています。2 つのマスターによって、高可用性ソリューションも提供されます。

1 つのデータセンターの基本トポロジ

図 9-5 に示されるトポロジは、読み取りと書き込みのパフォーマンスのために 2 つのマスターを持つ 1 つのデータセンターを示しています。この基本例では、クライアントはいずれかのマスターに書き込みを行い、いずれかのマスターから読み取りを行います。

図 9-5 1 つのデータセンター : 基本トポロジ

2 つのマスターのみを持つ 1 つのデータセンター

読み取りパフォーマンスのための 1 つのデータセンターのスケーリング

図 9-6 に示されるように、ハブとコンシューマを追加することで、読み取りパフォーマンスが向上します。第 3 レベルのコンシューマを簡単に追加できるように、まず、マスターの下にハブを追加します。第 2 レベルのサーバーをハブとして設定することで、マシンを再設定する必要なく、その下にコンシューマを追加できます。

図 9-6 読み取りパフォーマンスのための 1 つのデータセンターのスケーリング

2 つのマスター、2 つのハブ、2 つの読み取り専用コンシューマを持つ 1 つのデータセンターのレプリケーショントポロジの例

1 つのデータセンターの障害マトリックス

図 9-6 の例では、「障害と復元について」に示されるいずれかの原因により、さまざまなコンポーネントが使用不可能になる可能性があります。表 9-1 は、これらの障害と、それに対応する復元処理を示しています。

表 9-1 1 つのデータセンター : 障害マトリックス

障害が発生したコンポーネント

対策

M1

Directory Proxy Server、クライアントサーバーリスト、ハードウェアまたはソフトウェアのロードバランサにより、ローカル書き込みは M2 にルーティングされる。M2 は、H1、H2 へのレプリケーションを継続する

M2

Directory Proxy Server、クライアントサーバーリスト、ハードウェアまたはソフトウェアのロードバランサにより、ローカル書き込みは M1 にルーティングされる。M1 は、H1、H2 へのレプリケーションを継続する

RA1 をサポートする LAN リンク

どちらのマスターのローカル書き込みも受け付ける。コンシューマに同じデータが含まれるように、競合の解決はハブレベルで行われる

H1 または H2

どちらのマスターのローカル書き込みも受け付ける。コンシューマに同じデータが含まれるように、競合はマスターレベルで解決され、正常に稼動するほうのハブを通じてすべてのコンシューマにレプリケートされる

RA2 をサポートする LAN リンク

どちらのマスターのローカル書き込みも受け付ける。H1 へのレプリケーションは M2 から行われ、ハブからコンシューマへのレプリケーショントラフィックは正常に機能し続ける

1 つのデータセンターの復元手順 (1 つのコンポーネント)

2 つのマスターを持つ 1 つのデータセンターでは、1 つのマスターで障害が発生しても読み取りと書き込みの機能は維持されます。ここでは、障害が発生したコンポーネントの復元に適用できる復元戦略の例について説明します。

図 9-7 のフローチャートとその後の手順は、1 つのマスター (M1) で障害が発生したことを前提としています。

図 9-7 1 つのデータセンターの復元手順を示すフローチャート (1 つのコンポーネント)

1 つのデータセンターの復元手順の例 (1 つのコンポーネント)

  1. M1 を停止します (すでに停止していない場合)。
  2. 障害の原因を特定します。たとえばネットワークケーブルの交換などによって簡単に修復できる場合は、修復します。
  3. 問題がより重大で修復に時間がかかる場合は、M1 にアクセスするアプリケーションが、Sun Java System Directory Proxy Server、クライアントサービスリスト、ハードウェアまたはソフトウェアのロードバランサを通じて M2 にリダイレクトされることを確認します。
  4. 最新のバックアップがあれば、バックアップから M1 を初期化し直します。
  5. 最新のバックアップを利用できない場合は、M1 を再起動し、M2 から M1 への完全初期化を行います。詳細な手順については、『Directory Server 管理ガイド』の第 8 章にある「オンラインでのレプリカ初期化の実行」を参照してください。
  6. 最新のバックアップを利用できず、完全初期化を行う時間もない場合は、H1 または H2 からオンラインエクスポートを行い、M1 に ldif2db でインポートします。
  7. M1 を起動します (すでに起動していない場合)。
  8. M1 のモードが読み取り専用モードであれば、読み書き有効モードに設定します。
  9. insync コマンドを使用して、レプリケーションが正常に機能していることを確認します。詳細については、『Directory Server Administration Reference』の第 1 章にある「Insync」を参照してください。

  10. オンラインエクスポートの実行はサーバーのパフォーマンスに影響します。このため、エクスポートにはマスター (M2) ではなく、その時点で書き込み操作を実行できる唯一のサーバーであるハブを使用してください。


1 つのデータセンターの復元手順 (2 つのコンポーネント)

この例で 2 つのマスターに障害が発生した場合、書き込み機能は失われます。障害が重大で修復に時間がかかる場合は、できるだけ早急に書き込み機能を提供するための戦略を実装する必要があります。

次の手順は、M1 と M2 の両方に障害が発生し、すぐには復元できない状況を前提としています。最も迅速で、できるだけ簡単な復元方法を考える必要があります。この手順では、最も簡単な方法の例として、サーバーの昇格を紹介します。

  1. H1 を書き込み可能なマスターに昇格させます。具体的な手順については、『Directory Server 管理ガイド』の第 8 章にある「レプリカの昇格と降格」を参照してください。
  2. M1 または M2 にアクセスしていたアプリケーションが新しいマスターにリダイレクトされることを確認します。
  3. 変更がコンシューマにレプリケートされ続けるように、新しいマスターと H2 の間に新しいレプリケーションアグリーメントを追加します。

2 つのデータセンター

複数のサイトでデータが共有される場合は、パフォーマンスとフェイルオーバーの両方の面で効果的なレプリケーショントポロジが欠かせません。

2 つのデータセンターの基本トポロジ

図 9-8 に示されるトポロジは、最適な読み取り、書き込みパフォーマンスのために、各データセンターが 2 つのマスターと 2 つのハブを持つことを前提としています。第 2 レベルのサーバーをハブとして設定することで、マシンを再設定する必要なく、その下にコンシューマを追加できます。

この例では、レプリケーションアグリーメント RA1 と RA2 を異なるネットワーク経由で設定しています。この設定であれば、いずれかのネットワークリンクが使用不可能になったり、信頼できなくなった場合でも、データセンター間のレプリケーションを行えます。

図 9-8 2 つのデータセンターの基本トポロジ

それぞれが 2 つのマスターと 2 つのハブを持つ 2 つのデータセンター (ニューヨークとロンドン) のレプリケーショントポロジの例

読み取りパフォーマンスのための 2 つのデータセンターのスケーリング

図 9-6 に示される 1 つのデータセンターの例のように、ハブとコンシューマを追加することで読み取りパフォーマンスを向上させることができます。

この例では、レプリケーションアグリーメント RA1 と RA2 を異なるネットワーク経由で設定しています。この設定であれば、いずれかのネットワークリンクが使用不可能になったり、信頼できなくなった場合でも、データセンター間のレプリケーションを行えます。

図 9-9 読み取りパフォーマンスのための 2 つのデータセンターのスケーリング

それぞれが 2 つのマスター、2 つのハブ、4 つのコンシューマを持つ 2 つのデータセンター

2 つのデータセンターの復元例

図 9-9 に示される配備では、1 つのマスターで障害が発生した場合に、1 つのデータセンターに適用した復元戦略をそのまま適用できます。いずれかのデータセンターの 1 つのデータセンターが使用不可能な状態になった場合でも、M1 と M4 の間、および M2 と M3 の間のレプリケーションアグリーメントにより、どちらのデータセンターもレプリケートされた更新を受け取り続けることができます。

しかし、複数のマスターで障害が発生した場合は、高度な復元戦略が必要となります。これには、復元アプリケーションアグリーメントの作成が関連します。このアグリーメントは、デフォルトでは無効化されていますが、障害が発生した場合には迅速に有効化できます。

図 9-10 は、この復元戦略を示しています。

図 9-10 2 つのデータセンターの復元レプリケーションアグリーメント

2 つのサイトのマスター間の復元アプリケーションアグリーメントと、ハブ間の復元アグリーメントによる 2 つのデータセンターの復元手順

適用される復元戦略は、どのような組み合わせでコンポーネントに障害が発生するかによって異なります。しかし、複数の障害に対する基本的な戦略を準備しておけば、その他のコンポーネントに障害が発生した場合にもそれを適用できます。

図 9-10 のトポロジ例は、ニューヨークデータセンターの両方のマスターに障害が発生したことを前提としています。この場合の復元戦略は、次のようになります。

  1. M3 と H2 の間の復元レプリケーションアグリーメントを有効化します。
  2. これにより、ロンドンサイトへのリモート書き込みが、引き続きニューヨークサイトにレプリケートされます。

  3. H2 を書き込み可能なマスターに昇格させます。具体的な手順については、『Directory Server 管理ガイド』の第 8 章にある「レプリカの昇格と降格」を参照してください。
  4. これにより、ニューヨークサイトでの書き込み機能が維持されます。

  5. 新たに昇格したマスター (それまでの H2) と M3 の間にレプリケーションアグリーメントを作成します。
  6. これにより、ニューヨークサイトへのリモート書き込みが、引き続きロンドンサイトにレプリケートされます。

  7. H2 と H1 の間の復元レプリケーションアグリーメントを有効化します (1 方向のみ)。
  8. これにより、H1 は、引き続きレプリケーショントポロジ全体からの更新を受け取ることができます。

3 つのデータセンター

Directory Server 5.2 は、4 方向のマルチマスターレプリケーションをサポートしています。地理的に離れた 3 つの拠点にまたがる企業では、それぞれの地域で 2 つのマスターを持つ 1 つのデータセンターが必要になる可能性があります。このディレクトリの機能をどのように分割するかは、各データセンターで行われる読み取りおよび書き込み操作の相対的なトラフィックボリューム (など) によって異なります。

3 つのデータセンターの基本トポロジ

図 9-11 に示されるトポロジは、ニューヨークのデータセンターに対する読み取り、書き込み要求の数が最大で、3 つのデータセンターのそれぞれでローカルな読み取り、書き込み要求が可能であることを前提としています。

図 9-11 3 つのデータセンターの基本トポロジ

ロンドンと東京がそれぞれ 1 つのマスターを持ち、ニューヨークが 2 つのマスターを持つ 3 つのデータセンターの基本的なレプリケーショントポロジ

読み取りパフォーマンスのための 3 つのデータセンターのスケーリング

これまでの例のように、ハブとコンシューマを追加することで読み取りパフォーマンスを向上させることができます。ただし、それぞれのデータセンターでの想定パフォーマンス要件を考慮する必要があります。図 9-12 は、このトポロジを示しています。

図 9-12 読み取りパフォーマンスのための 3 つのデータセンターのスケーリング

読み取りパフォーマンス向上のためにハブとコンシューマを追加したロンドン、東京、ニューヨークの 3 つのデータセンター

3 つのデータセンターの復元例

2 つのデータセンターの場合と同様に、複数のマスターに障害が発生した場合の復元戦略には、復元レプリケーションアグリーメントの作成が必要となります。図 9-13 に示されるように、これらのアグリーメントは、デフォルトでは無効化されていますが、障害が発生した場合には迅速に有効化できます。

図 9-13 3 つのデータセンターの復元レプリケーションアグリーメント

3 つのデータセンターの復元レプリケーションアグリーメント

3 つのデータセンターの復元手順 (1 つのコンポーネント)

図 9-13 の例で、ロンドンまたは東京のマスターに障害が発生し、ローカル書き込み機能が失われたと仮定します。次の手順は、M3 (ロンドン) で障害が発生したことを前提としています。

  1. H4 を書き込み可能なマスターに昇格させます。具体的な手順については、『Directory Server 管理ガイド』の第 8 章にある「レプリカの昇格と降格」を参照してください。
  2. H4 から H3 への復元レプリケーションアグリーメントを有効化し、ローカル書き込みがすべてのコンシューマにレプリケートされるようにします。
  3. M1 と H4 の間の復元レプリケーションアグリーメントを有効化し、ローカル書き込みがリモートデータセンターにレプリケートされ、リモート書き込みがローカルコンシューマにレプリケートされるようにします。
  4. M3 にアクセスしていたアプリケーションが新しいマスターにリダイレクトされることを確認します。


この手順は、M3 の修復中に、直接的なローカルの読み取りおよび書き込み機能を提供するための中間ソリューションです。


5 つのデータセンター

Directory Server 5.2 は、4 方向のマルチマスターレプリケーションをサポートしています。地理的に離れた 5 つの拠点にまたがる企業では、どの地域のローカル更新パフォーマンス要件が最小であるかを考慮する必要があります。この地域にはマスターサーバーを置かず、書き込みをいずれかの地域のマスターにリダイレクトします。

5 つのデータセンターの基本トポロジ

図 9-14 に示されるトポロジは、シドニーデータセンターが最も少ない書き込み要求を受け取ることを前提としています。ローカル読み取り要求は、5 つのそれぞれのデータセンターで可能です。

図 9-14 5 つのデータセンターの基本トポロジ

ニューヨーク、東京、フランクフルト、ロンドンにマスターサーバーがあり、シドニーにハブがある 5 つのデータセンターの基本的なレプリケーショントポロジ

読み取りパフォーマンスのための 5 つのデータセンターのスケーリング

これまでの例のように、ハブとコンシューマを追加することで読み取りパフォーマンスを向上させることができます。ただし、それぞれのデータセンターでの想定パフォーマンス要件を考慮する必要があります。

5 つのデータセンターの復元例

2 つのデータセンターの場合と同様に、複数のマスターに障害が発生した場合の復元戦略には、復元レプリケーションアグリーメントの作成が必要となります。図 9-15 に示されるように、これらのアグリーメントは、デフォルトでは無効化されていますが、障害が発生した場合には迅速に有効化できます。

5 つのデータセンターの復元手順 (1 つのコンポーネント)

図 9-15 の例で、いずれかのマスターに障害が発生し、ローカル書き込み機能が失われたと仮定します。次の手順は、M1 (ニューヨーク) で障害が発生したことを前提としています。

  1. H1 を書き込み可能なマスターに昇格させます。具体的な手順については、『Directory Server 管理ガイド』の第 8 章にある「レプリカの昇格と降格」を参照してください。
  2. M2 から H1 への復元レプリケーションアグリーメントを有効化し、ローカル書き込みがリモートデータセンターにレプリケートされ、リモート書き込みがローカルコンシューマにレプリケートされるようにします。
  3. M1 にアクセスしていたアプリケーションが新しいマスターにリダイレクトされることを確認します。


この手順は、M1 の修復中に、直接的なローカルの読み取りおよび書き込み機能を提供するための中間ソリューションです。


図 9-15 5 つのデータセンターの復元レプリケーションアグリーメント

5 つのデータセンターの復元レプリケーションアグリーメント

旧バージョン形式の更新履歴ログプラグインを使用する 1 つのデータセンター

すでに説明した 1 つのデータセンターのトポロジは、旧バージョン形式の更新履歴プラグインの使用を考慮していませんでした。旧バージョン形式の更新履歴に依存するほとんどのアプリケーションは、更新が順序よくリストされていることを前提としており、マルチマスターレプリケーションモデルの旧バージョン形式の更新履歴で一貫性が失われることによって失敗してしまいます。一般に、配備するアプリケーションが旧バージョン形式の更新履歴を必要とする場合は、その配備ではマルチマスターレプリケーショントポロジを採用するべきではありません。詳細は、「レプリケーションと旧バージョン形式の更新履歴ログプラグイン」、および『Directory Server 管理ガイド』の第 8 章にある「旧バージョン形式の更新履歴ログプラグインの使用」を参照してください。

旧バージョン形式の更新履歴ログプラグインの基本トポロジ

マルチマスターレプリケーションを配備できない場合は、図 9-16 に示される基本トポロジが推奨されます。

図 9-16 旧バージョン形式の更新履歴ログプラグインを使用する 1 つのデータセンター

1 つのマスターと 1 つのハブを持つ、旧バージョン形式の更新履歴ログプラグインを使用する 1 つのデータセンター

読み取りパフォーマンスのための旧バージョン形式の更新履歴ログプラグインのスケーリング

1 つのデータセンターのトポロジと同様に、図 9-17 に示されるように、ハブとコンシューマを追加することで読み取りパフォーマンスを向上させることができます。

図 9-17 旧バージョン形式の更新履歴ログプラグインを使用する 1 つのデータセンター (スケーリング)

1 つのマスター、2 つのハブ、2 つのコンシューマを持つ、旧バージョン形式の更新履歴ログプラグインを使用する 1 つのデータセンター

旧バージョン形式の更新履歴ログプラグインの復元手順

図 9-17 に示される配備では、マスターサーバーに障害が発生した場合に次の戦略を適用できます。

  1. M1 を停止します (すでに停止していない場合)。
  2. H1 または H2 をマスターサーバーに昇格させます。具体的な手順については、『Directory Server 管理ガイド』の第 8 章にある「レプリカの昇格と降格」を参照してください。
  3. 新しいマスター (M2) で旧バージョン形式の更新履歴ログプラグインを有効化します。
  4. 旧バージョン形式の更新履歴ログのバックアップを M2 に復元します。
  5. サーバーを再起動する
  6. 変更がハブにレプリケートされ続けるように、M2 と残りのハブの間に新しいレプリケーションアグリーメントを追加します。
  7. 図 9-18 は、この復元戦略を示しています。

    図 9-18 旧バージョン形式の更新履歴ログプラグインを使用する 1 つのデータセンター (復元)
    無効になったマスターとマスターに昇格したハブを持つ、旧バージョン形式の更新履歴ログプラグインを使用する 1 つのデータセンター



前へ      目次      索引      次へ     


Copyright 2004 Sun Microsystems, Inc. All rights reserved.