プライマリ・コンテンツに移動
Oracle® Fusion Middleware Oracle DatabaseのためのOracle GoldenGateのインストールおよび構成
12c (12.2.0.1)
E70107-04
目次へ移動
目次

前
次

B.2 ダウンストリーム・デプロイ用のソース・データベースの準備

B.2.1 ソース・ユーザー・アカウントの作成

ソース・データベースにExtractユーザーが必要です。Extractではこのユーザーの資格証明を使用してメタデータ問合せを行い、必要に応じてソース・データベースから列値をフェッチします。ソース・ユーザーはUSERIDALIASパラメータによって指定されます。

必要な権限を割り当てるには、「Oracle GoldenGate資格証明の確立」の手順に従います

B.2.2 ソースからダウンストリーム・マイニング・データベースへのREDO転送の構成

次の手順を実行して、ソース・データベースからダウンストリーム・マイニング・データベースへのREDOログ・ファイルの転送を設定し、ダウンストリーム・マイニング・データベースでこれらのREDOログ・ファイルを受け入れる準備をします。

注意:

ソース・データベースから送られたアーカイブ・ログは、外部アーカイブ・ログと呼ばれます。外部アーカイブ・ログの格納にダウンストリーム・マイニング・データベースのリカバリ領域を使用することはできません。そのような構成は、統合キャプチャでサポートされません。

これらの手順では、必要に応じて複数のソースからREDOを転送するための要件が考慮されています。ソースごとにExtractプロセスを構成します。複数のソースから1つのダウンストリーム・マイニング・データベースへのREDOの送信をサポートするためのルールを次に要約します。

  • オンラインREDOログをダウンストリーム・マイニング・データベースのスタンバイREDOログに送信するよう構成できるのは、1つのソース・データベースのみです。このソース・データベースのlog_archive_dest_n設定にTEMPLATE句を含めることはできません

  • オンラインREDOログをダウンストリーム・マイニング・データベースのスタンバイREDOログに送信しないソース・データベースには、log_archive_dest_nパラメータにTEMPLATE句を指定する必要があります

  • REDOをダウンストリーム・マイニング・データベースに送信する各ソース・データベースは一意のDBIDを持つ必要があります。これらのソース・データベースのv$databaseビューからDBID列を選択し、DBIDが一意であることを確認します。

REDO転送を構成する手順

  1. 各ソース・データベースがマイニング・データベースと通信できるようOracle Netを構成します。手順は、次を参照してください。
  2. REDOデータの転送をサポートするよう、各ソース・データベースとダウンストリーム・マイニング・データベースで認証を構成します。REDO転送セッションは、Secure Sockets Layer(SSL)プロトコルまたはリモート・ログイン・パスワード・ファイルを使用して認証されます。ソース・データベースにリモート・ログイン・パスワード・ファイルがある場合、マイニング・データベース・システムの適切なディレクトリにコピーします。パスワード・ファイルは、すべてのソース・データベースとマイニング・データベースで同じである必要があります。REDO転送の認証要件の詳細は、スタンバイ・データベースを作成するためのプライマリ・データベースの準備に関する項を参照してください。
  3. 各ソース・データベースで、REDOデータをダウンストリーム・マイニング・データベースに転送するためにLOG_ARCHIVE_DEST_n初期化パラメータを1つ構成します。リアルタイム・キャプチャ・モードを使用するか、アーカイブログのみキャプチャ・モードを使用するかに応じて、次の例のいずれかのようにこのパラメータの属性を設定します。
    • ソース・データベースがオンラインREDOログをダウンストリーム・データベースに送信する場合のダウンストリーム・マイニング・サーバーでのリアルタイム・キャプチャの例:

      ALTER SYSTEM 
      SET LOG_ARCHIVE_DEST_2='SERVICE=DBMSCAP.EXAMPLE.COM ASYNC NOREGISTER
      VALID_FOR=(ONLINE_LOGFILES,PRIMARY_ROLE)DB_UNIQUE_NAME=dbmscap'
      
    • ダウンストリーム・ログマイニング・サーバーでのアーカイブログのみキャプチャの例:

      ALTER SYSTEM SET
      LOG_ARCHIVE_DEST_2='SERVICE=DMBSCAP.EXAMPLE.COM ASYNC NOREGISTER
      VALID_FOR=(ONLINE_LOGFILES,PRIMARY_ROLE)
      TEMPLATE=/usr/oracle/log_for_dbms1/dbms1_arch_%t_%s_%r.log
      DB_UNIQUE_NAME=dbmscap'

    注意:

    アーカイブ・ログのみのダウンストリーム・マイニング・データベースを使用する場合、TEMPLATE属性の値を指定する必要があります。ソース・データベースでTEMPLATE句を使用して、すべてのリモート・ソース・データベースのログ・ファイルが、ローカル・データベース・ログ・ファイルと分けて保管され、ログ・ファイル同士が分けて保管されるようにすることをお薦めします。

  4. ソース・データベースで、次の例に示すように、ダウンストリーム・マイニング・データベースの宛先に相当するLOG_ARCHIVE_DEST_nパラメータに対応するLOG_ARCHIVE_DEST_STATE_n初期化パラメータに値ENABLEを設定します。
    ALTER SYSTEM SET LOG_ARCHIVE_DEST_STATE_2=ENABLE
    
  5. ソース・データベースとダウンストリーム・マイニング・データベースで、次の例に示すように、ソース・データベースとダウンストリーム・データベースのDB_UNIQUE_NAMEを含むようLOG_ARCHIVE_CONFIG初期化パラメータのDG_CONFIG属性を設定します。
    ALTER SYSTEM SET LOG_ARCHIVE_CONFIG='DG_CONFIG=(dbms1,dbmscap)'