7 ダウンストリーム・マイニング・データベースの構成

ExtractをサポートするようにダウンストリームOracleマイニング・データベースを準備する方法について、詳細を学習します。

ダウンストリーム・マイニング構成の例は、次を参照してください。

例1: リアルタイム・モードでの1つのソース・データベースからのキャプチャ

例2: アーカイブログのみモードでの複数のソースからのキャプチャ

例3: リアルタイム・モードとアーカイブログのみモードが混在する複数ソースからのキャプチャ

内容は次のとおりです。

ダウンストリーム・デプロイ用のキャプチャ・オプションの評価

ダウンストリーム・デプロイによってソース・データベースの負荷を軽減できます。

ダウンストリーム・マイニング・データベースでは、アーカイブ・ログとオンラインREDOログの両方をソース・データベースから受け入れることができます。

複数のソース・データベースのREDOデータを1つのダウンストリーム・データベースに送信できます。ただし、ダウンストリーム・マイニング・データベースは、それらのソース・データベースの1つからのみオンラインREDOログを受け入れることができます。残りのソース・データベースはアーカイブ・ログを送る必要があります。

オンライン・ログがダウンストリーム・データベースに送られると、Extractによるリアルタイム・キャプチャが可能です。Extractでソース・ログからの読取りと同様に変更がキャプチャされます。オンラインREDOログをソース・データベースから受け入れるには、ダウンストリーム・マイニング・データベースにスタンバイREDOログが構成されている必要があります。

ダウンストリーム・マイニング構成を使用する場合、ソース・データベースとマイニング・データベースは、エンディアンとビット・サイズ(64ビット)が同じであることが必要です。たとえば、ソース・データベースがLinux 64ビットだとすると、マイニング・データベースを64ビットWindowsで実行できます(これらのエンディアンとビット・サイズが同じため)。

ダウンストリーム・デプロイ用のソース・データベースの準備

ソース・データベースはREDOログをダウンストリーム・データベースに送り、Extractはダウンストリーム・データベースでログマイニング・サーバーを使用してREDOログをマイニングします。

この項では、次のプロセスについて説明します。

ソース・ユーザー・アカウントの作成

ソース・データベースにExtractユーザーが必要です。Extractではこのユーザーの資格証明を使用してメタデータ問合せを行い、必要に応じてソース・データベースから列値をフェッチします。

ソース・ユーザーはUSERIDALIASパラメータによって指定されます。

必要な権限を割り当てるには、「Oracle GoldenGate資格証明の確立」の手順に従います

ソースからダウンストリーム・マイニング・データベースへのREDO転送の構成

ソース・データベースからダウンストリーム・マイニング・データベースへのREDOログ・ファイルの転送を設定し、ダウンストリーム・マイニング・データベースでこれらのREDOログ・ファイルを受け入れる準備をするには、このトピックで説明したステップを実行します。

複数のソースから1つのダウンストリーム・マイニング・データベースへのREDOの送信をサポートするためのルールを次に要約します。

  • オンラインREDOログをダウンストリーム・マイニング・データベースのスタンバイREDOログに送信するよう構成できるのは、1つのソース・データベースのみです。このソース・データベースのlog_archive_dest_n設定にTEMPLATE句を含めることはできません

  • オンラインREDOログをダウンストリーム・マイニング・データベースのスタンバイREDOログに送信しないソース・データベースには、log_archive_dest_nパラメータにTEMPLATE句を指定する必要があります

  • ダウンストリーム・マイニング・データベースに送信する各ソース・データベースは一意のDBIDを持つ必要があります。これらのソース・データベースのv$databaseビューからDBID列を選択し、DBIDが一意であることを確認します。

  • ダウンストリーム・マイニング・データベースに対して、FAL_SERVER値を設定する必要があります。FAL_SERVERは、スタンバイ・データベースのフェッチ・アーカイブ・ログ(FAL)サーバーを指定します。値はOracle Netサービス名のリストで、スタンバイ・データベース・システムで、目的のFALサーバーをポイントするように正しく構成されていることを前提とします。リストには、ダウンストリーム・データベースにREDOを送信する可能性のある任意のデータベースのNetサービス名が含まれます。

  • REDO転送を使用する場合、ネットワーク待機時間のためREDOの処理に遅延が生じる可能性があります。Extractでは、この待機時間はソース・データベースから受信したLCR間の遅延を測定し、その遅延を報告することでモニタリングされます。待機時間がしきい値を超える場合、レポート・ファイル内に警告メッセージが表示され、ラグが標準的な値まで減少すると後続の情報メッセージが表示されます。しきい値のデフォルト値は10秒です。

ノート:

ソース・データベースから送られたアーカイブ・ログは、外部アーカイブ・ログと呼ばれます。外部アーカイブ・ログの格納にダウンストリーム・マイニング・データベースのリカバリ領域を使用することはできません。そのような構成は、Extractではサポートされません。フラッシュ・リカバリ領域(FRA)に格納された外部アーカイブ・ログは、RMANジョブによって自動的に削除されることはありません。そうしたアーカイブ・ログは手動でパージする必要があります。

これらの手順では、必要に応じて複数のソースからREDOを転送するための要件が考慮されています。これらのソースのそれぞれについてExtractプロセスを構成する必要があります。

REDO転送を構成する手順

  1. 各ソース・データベースがマイニング・データベースと通信できるようOracle Netを構成します。手順は、『Oracle Database Net Services管理者ガイド』を参照してください。
  2. REDOデータの転送をサポートするよう、各ソース・データベースとダウンストリーム・マイニング・データベースで認証を構成します。REDO転送セッションは、Secure Sockets Layer(SSL)プロトコルまたはリモート・ログイン・パスワード・ファイルを使用して認証されます。ソース・データベースにリモート・ログイン・パスワード・ファイルがある場合、マイニング・データベース・システムの適切なディレクトリにコピーします。パスワード・ファイルは、すべてのソース・データベースとマイニング・データベースで同じである必要があります。REDO転送の認証要件については、『Oracle Data Guard概要および管理』スタンバイ・データベースを作成するためのプライマリ・データベースの準備に関する項を参照してください。
  3. 各ソース・データベースで、REDOデータをダウンストリーム・マイニング・データベースに転送するためにLOG_ARCHIVE_DEST_n初期化パラメータを1つ構成します。リアルタイム・キャプチャ・モードを使用するか、アーカイブログのみキャプチャ・モードを使用するかに応じて、次の例のいずれかのようにこのパラメータの属性を設定します。
    • ソース・データベースがオンラインREDOログをダウンストリーム・データベースに送信する場合のダウンストリーム・マイニング・サーバーでのリアルタイム・キャプチャの例:

      ALTER SYSTEM 
      SET LOG_ARCHIVE_DEST_2='SERVICE=DBMSCAP.EXAMPLE.COM ASYNC NOREGISTER
      VALID_FOR=(ONLINE_LOGFILES,PRIMARY_ROLE)DB_UNIQUE_NAME=dbmscap'
      
    • ダウンストリーム・ログマイニング・サーバーでのアーカイブログのみキャプチャの例:

      ALTER SYSTEM SET
      LOG_ARCHIVE_DEST_2='SERVICE=DMBSCAP.EXAMPLE.COM ASYNC NOREGISTER
      VALID_FOR=(ONLINE_LOGFILES,PRIMARY_ROLE)
      TEMPLATE=/usr/oracle/log_for_dbms1/dbms1_arch_%t_%s_%r.log
      DB_UNIQUE_NAME=dbmscap'

    ノート:

    アーカイブ・ログのみのダウンストリーム・マイニング・データベースを使用する場合、TEMPLATE属性の値を指定する必要があります。ソース・データベースでTEMPLATE句を使用して、すべてのリモート・ソース・データベースのログ・ファイルが、ローカル・データベース・ログ・ファイルと分けて保管され、ログ・ファイル同士が分けて保管されるようにすることをお薦めします。

  4. ソース・データベースで、次の例に示すように、ダウンストリーム・マイニング・データベースの宛先に相当するLOG_ARCHIVE_DEST_nパラメータに対応するLOG_ARCHIVE_DEST_STATE_n初期化パラメータに値ENABLEを設定します。
    ALTER SYSTEM SET LOG_ARCHIVE_DEST_STATE_2=ENABLE
    
  5. ソース・データベースとダウンストリーム・マイニング・データベースで、次の例に示すように、ソース・データベースとダウンストリーム・データベースのDB_UNIQUE_NAMEを含むようLOG_ARCHIVE_CONFIG初期化パラメータのDG_CONFIG属性を設定します。
    ALTER SYSTEM SET LOG_ARCHIVE_CONFIG='DG_CONFIG=(dbms1,dbmscap)'

ダウンストリーム・マイニング・データベースの準備

ダウンストリーム・マイニング・データベースでは、アーカイブ・ログとオンラインREDOログの両方をソース・データベースから受け入れることができます。

次の項で、ダウンストリーム・マイニング・データベースを準備する方法について説明します。

ダウンストリーム・マイニング・ユーザー・アカウントの作成

ダウンストリーム・マイニング構成を使用する場合、ダウンストリーム・データベースにExtractマイニング・ユーザーが必要です。マイニングExtractプロセスはこのユーザーの資格証明を使用して、ダウンストリーム・ログマイニング・サーバーと対話します。ダウンストリーム・マイニング・ユーザーは、MININGUSERALIASオプションを使用したTRANLOGOPTIONSパラメータで指定します。ご使用のデータベース・バージョン用の正しい資格証明を割り当てるには、「Oracle GoldenGate資格証明の確立」を参照してください。

Extractのマイニング・データベースでの登録

ダウンストリーム・データベースの使用時にREDOデータをキャプチャするには、データベース・ログマイニング・サーバーを作成する必要があります。

ログマイニング・サーバーの作成によって、ソース・データベースのスナップショットがソース・データベースのREDOストリームにキャプチャされます。ソース・マルチテナント・コンテナ・データベースで、Extractに含める各プラガブル・データベースにExtractを登録します。

警告:

Extractが処理を開始するログ・ストリームの最初のSCNを確認してください。Extractの開始SCN値を、REGISTER EXTRACTコマンドで基礎となるデータベース・キャプチャ・プロセスが作成されたときに指定された最初のSCNより小さい値にすることはできません。SCNオプションを使用できます。

  1. マイニング・データベースにログインし、環境に適切なコマンドを使用します。DBLOGINを使用すると、常にソース・データベースを参照します。

    ソース・データベースのデプロイ用のコマンド:

    DBLOGIN USERIDALIAS ggeast
    

    ダウンストリーム・マイニング・データベースのデプロイ用のコマンド:

    DBLOGIN USERIDALIAS ggwest
    MININGDBLOGIN USERIDALIAS dbnorth
    

    aliasでは、Extractに割り当てられているデータベース・ログイン資格証明のエイリアスを指定します。この資格証明は、Oracle GoldenGate資格証明ストアに存在する必要があります。詳細は、「Oracle GoldenGate資格証明の確立」を参照してください。DBLOGINおよびMININGDBLOGINの詳細は、『Oracle GoldenGateリファレンス』を参照してください。

  2. Extractプロセスをマイニング・データベースに登録します。
    REGISTER EXTRACT group DATABASE [CONTAINER (container[, ...])] [SCN system_change_number]
    

    説明:

    • groupは、Extractグループの名前です。

    • CONTAINER (container[, ...])では、マルチテナント・コンテナ・データベース内のプラガブル・データベース(PDB)またはカンマで区切られたPDBのリストを指定します。REGISTERコマンドを実行する前に、指定されたPDBが存在している必要があります。Extractは、このコマンドでリストされるPDBからのみキャプチャします。たとえば、次のコマンドにより、PDB mypdb1およびmypdb4が登録されます。Oracle GoldenGateでは、マルチテナント・コンテナ・データベース内の他のPDBからの変更は無視されます。

      REGISTER EXTRACT exte DATABASE CONTAINER (pdbeast, pdbwest, dbnorth)
      

      Extractを停止し、DBLOGINコマンドを発行した後に、DATABASE{ADD | DROP} CONTAINERオプションを指定してREGISTER EXTRACTを発行することで、プラガブル・データベースを後から追加または削除できます。

      ノート:

      既存のExtractの特定のSCNでCONTAINERを追加することはサポートされていません。

    • Extractを登録して、過去の特定のSCNでキャプチャを開始します。このオプションを指定しないと、キャプチャはREGISTER EXTRACTが発行された時点から開始します。指定したSCNは、ログ・ファイルのディクショナリ作成操作の開始SCNに対応している必要があります。次の問合せを発行して、すべての有効なSCN値を検索できます。

      SELECT first_change#
         FROM v$archived_log 
         WHERE dictionary_begin = 'YES' AND 
            STANDBY_DEST = 'NO' AND
            NAME IS NOT NULL AND 
            STATUS = 'A';
      
  3. 追加のExtractを同じソース・データベースのダウンストリーム・データベースに登録するには、このREGISTERコマンドを発行します。

    ソース・データベースごとに複数のExtractが必要な場合は、REGISTER EXTRACTを指定してSHAREを使用することで、パフォーマンスとメタデータの管理を向上できます。指定したSCNは、アーカイブ・ログでマイニングが開始されるSCNに対応している必要があります。

    REGISTER EXTRACT group DATABASE [CONTAINER (container[, ...])] 
    [SCN system_change_number] SHARE

ノート:

REGISTERコマンドがすぐに復帰した場合でも、プロセスの登録は、完了に数分かかる場合があります。

ローカルREDOログ・ファイルをアーカイブするためのマイニング・データベースの構成

この手順では、REDOデータをオンラインREDOログにアーカイブするようダウンストリーム・マイニング・データベースを構成します。これらは、ダウンストリーム・マイニング・データベースで生成されるREDOログです。

Extractをリアルタイム統合キャプチャ・モードで実行する場合、ダウンストリーム・マイニング・データベースでアーカイブを有効にする必要がありますが、これはアーカイブ・ログのみキャプチャの場合も推奨されます。統合キャプチャ・モードのExtractはデータベースの状態情報を書き込みます。ダウンストリーム・マイニング・データベースでディスクの障害や破損があった場合、アーカイブと通常のバックアップによって、この状態情報をリカバリできます。

ローカルREDOログ・ファイルをアーカイブする手順

  1. ダウンストリーム・マイニング・データベースをアーカイブ・ログ・モードに変更します。これは、次のDDLコマンドを発行して行います。
    STARTUP MOUNT;
    ALTER DATABASE ARCHIVELOG;
    ALTER DATABASE OPEN;
    
  2. ダウンストリーム・マイニング・データベースで、次の例に示すように、1つ目のアーカイブ・ログの宛先をLOG_ARCHIVE_DEST_n初期化パラメータに設定します。
    ALTER SYSTEM SET
    LOG_ARCHIVE_DEST_1='LOCATION=/home/arc_dest/local
    VALID_FOR=(ONLINE_LOGFILE,PRIMARY_ROLE)'
    

    あるいは、次の例のようなコマンドを使用します。

    ALTER SYSTEM SET
    LOG_ARCHIVE_DEST_1='LOCATION='USE_DB_RECOVERY_FILE_DEST' valid_for=(ONLINE_LOGFILE,PRIMARY_ROLE)'
    

    ノート:

    ダウンストリーム・マイニング・データベースによって生成されるオンラインREDOログはリカバリ領域にアーカイブできます。ただし、外部アーカイブ・ログのステージングやスタンバイREDOログのアーカイブにダウンストリーム・マイニング・データベースのリカバリ領域は使用できません。高速リカバリ領域の構成の詳細は、Oracle Databaseバックアップおよびリカバリ・ユーザーズ・ガイドを参照してください。

  3. ローカル・アーカイブの宛先を有効にします。
    ALTER SYSTEM SET LOG_ARCHIVE_DEST_STATE_1=ENABLE

これらの初期化パラメータの詳細は、Oracle Data Guard概要および管理ガイドのプライマリ・データベース初期化パラメータの設定を参照してください。

ダウンストリーム・マイニング・データベースのウォレットの構成

ソース・データベースおよびダウンストリーム・データベースでTDEが有効になっている場合は、ダウンストリーム・マイニング・データベースとソース・データベースでソース・ウォレットまたはキーが同じである必要があります。

次のステップに従って、ソース・データベースからダウンストリーム・マイニング・データベースにウォレット・ディレクトリをコピーします。
  1. shutdown immediateコマンドを使用してダウンストリーム・データベースを停止します。

  2. ダウンストリーム・データベース・ビューでウォレット・ディレクトリを削除します。
    rm $T_WORK/wallet/*
  3. $T_WORK/wallet/*をソース・データベース・ビューからダウンストリーム・データベース・ビューにコピーします。

  4. ダウンストリーム・データベースを再起動します。

  5. ソース・データベース・ビューおよびダウンストリーム・データベース・ビューでチェックサムを実行して、一致を確認します。

    cksum $T_WORK/wallet/*

リアルタイム・キャプチャ用のダウンストリーム・マイニング・データベースの準備

この手順は、ダウンストリーム・マイニング・データベースでリアルタイム・キャプチャを使用する場合にのみ必要です。アーカイブ・ログのみキャプチャ・モードを使用する場合は必要ありません。リアルタイム・キャプチャを使用する場合、「ローカルREDOログ・ファイルをアーカイブするためのマイニング・データベースの構成」に示すようにローカルREDOデータをアーカイブするようダウンストリーム・データベースがすでに構成されているものとします。

スタンバイREDOログ・ファイルの作成

次のステップでは、スタンバイREDOログ・ファイルをダウンストリーム・マイニング・データベースに追加する手順を概説します。スタンバイREDOログの作成ルールを次に要約します。

  • 各スタンバイREDOログ・ファイルのサイズは、少なくともREDOソース・データベースの最大REDOログ・ファイルと同程度である必要があります。管理を簡単にするために、ソース・データベースのすべてのREDOログ・ファイルとダウンストリーム・マイニング・データベースのスタンバイREDOログ・ファイルを同じサイズにすることをお薦めします。

  • スタンバイREDOログは、ソース・データベースのREDOスレッドごとにソース・データベースのREDOログより1つ以上多い数のREDOログ・グループを持つ必要があります。

スタンバイREDOログ・ファイルの追加に必要な特定のステップやSQL文は、環境によって異なります。スタンバイREDOログ・ファイルのデータベースへの追加の詳細は、『Oracle Data Guard概要および管理11gリリース2 (11.2)』を参照してください。

ノート:

1つのダウンストリーム・マイニング・データベースにREDOを送信するソース・データベースが複数ある場合、それらのソースのうち1つのみがマイニング・データベースのスタンバイREDOログにREDOを送信できます。このソース・データベースからのREDOをマイニングするExtractプロセスはリアルタイム・モードで実行できます。他のソース・データベースはすべてアーカイブ・ログのみをダウンストリーム・マイニング・データベースに送信し、このデータを読み取るExtractはアーカイブ・ログのみモードで実行されるよう構成される必要があります。

スタンバイREDOログ・ファイルを作成する手順

  1. SQL*Plusで、管理ユーザーとしてソース・データベースに接続します。
  2. ソース・ログ・ファイルのサイズを確認します。結果をノートにとっておきます。
    SELECT BYTES FROM V$LOG;
    
  3. ソース・データベースに構成されているオンライン・ログ・ファイル・グループの数を確認します。結果をノートにとっておきます。
    SELECT COUNT(GROUP#) FROM V$LOG;
    
  4. 管理ユーザーとしてダウンストリーム・マイニング・データベースに接続します。
  5. スタンバイ・ログ・ファイル・グループをマイニング・データベースに追加します。スタンバイ・ログ・ファイルのサイズは、ソース・ログ・ファイルのサイズ以上である必要があります。スタンバイ・ログ・ファイル・グループの数は、ソース・オンライン・ログ・ファイル・グループの数より1つ以上多い数である必要があります。これは、RACインストールの各インスタンス(スレッド)に適用されます。ソース・データベースに"n"個のスレッドがあり、それぞれ"m"個のREDOログ・グループがある場合、n*(m+1)個のREDOログ・グループをダウンストリーム・マイニング・データベースで構成する必要があります。

    次の例は、3つのスタンバイ・ログ・グループを示しています。

    ALTER DATABASE ADD STANDBY LOGFILE GROUP 3
    ('/oracle/dbs/slog3a.rdo', '/oracle/dbs/slog3b.rdo') SIZE 500M;
    ALTER DATABASE ADD STANDBY LOGFILE GROUP 4
    ('/oracle/dbs/slog4.rdo', '/oracle/dbs/slog4b.rdo') SIZE 500M;
    ALTER DATABASE ADD STANDBY LOGFILE GROUP 5
    ('/oracle/dbs/slog5.rdo', '/oracle/dbs/slog5b.rdo') SIZE 500M;
    
  6. スタンバイ・ログ・ファイル・グループが正常に追加されたことを確認します。
    SELECT GROUP#, THREAD#, SEQUENCE#, ARCHIVED, STATUS
    FROM V$STANDBY_LOG;
    

    結果は次のようになります。

    GROUP#     THREAD#    SEQUENCE#  ARC STATUS
    ---------- ---------- ---------- --- ----------
             3          0          0 YES UNASSIGNED
             4          0          0 YES UNASSIGNED
             5          0          0 YES UNASSIGNED
    
  7. ソース・データベースのログ・ファイルが、設定したローカルのLOG_ARCHIVE_DEST_nLOCATION属性で指定した場所にあることを確認します。ディレクトリ内のファイルを確認するために、ソース・データベースでログ・ファイルの切り替えが必要な場合があります。
スタンバイREDOログ・ファイルをローカルにアーカイブするためのデータベースの構成

この手順では、ソース・データベースのオンラインREDOログからREDOデータを受信するスタンバイREDOログをアーカイブするようダウンストリーム・マイニング・データベースを構成します。外部アーカイブ・ログは、ダウンストリーム・マイニング・データベースのリカバリ領域にアーカイブできないことに注意してください。

スタンバイREDOログをローカルでアーカイブする手順

  1. ダウンストリーム・マイニング・データベースで、次の例に示すように、2つ目のアーカイブ・ログの宛先をLOG_ARCHIVE_DEST_n初期化パラメータに設定します。
    ALTER SYSTEM SET
    LOG_ARCHIVE_DEST_2='LOCATION=/home/arc_dest/srl_dbms1
    VALID_FOR=(STANDBY_LOGFILE,PRIMARY_ROLE)'
    

    外部アーカイブ・ログ(リモート・ソース・データベースからのログ)はローカル・マイニング・データベース・ログ・ファイルと分けて保管し、ログ・ファイル同士も分けて保管することをお薦めします。外部アーカイブ・ログのステージングにダウンストリーム・マイニング・データベースのリカバリ領域を使用することはできません。

  2. 前のステップで設定したLOG_ARCHIVE_DEST_2パラメータを次の例に示すように有効にします。
    ALTER SYSTEM SET LOG_ARCHIVE_DEST_STATE_2=ENABLE 
    

ダウンストリーム構成でのADGリダイレクションを使用したダウンストリームExtract登録の有効化

Oracle GoldenGateは、ダウンストリーム・マイニング・データベース構成でADGリダイレクションを使用したダウンストリームExtract登録をサポートしています。

この方法では、カスケード・モードで構成されたアクティブ・データガード(ADG)を使用して、ダウンストリーム・マイニング・データベースにREDOログを転送し、ダウンストリームExtractとともに使用します。これにより、ソース・データベースのオーバーヘッドが削減されます。

Extractは、ソースレス・オプションを使用して起動する必要があります。そうすることで、非ネイティブのデータ型をフェッチする必要があるときには、ソース・データベースに接続するかわりに、FETCHUSERIDまたはFETCHUSERIDALIASを使用してADGに接続するようにします。

登録時に、Oracle GoldenGateは、REDOが発生したデータベースではなく、ソース・データベースとしてADGに接続します。ADGリダイレクションは、管理クライアントおよびGGSCIで次のコマンドおよびパラメータでサポートされています。

ノート:

SCHEMATRANDATAおよびTRANDATAは、コマンドがスタンバイで実行された場合でも、実際のDML操作が行われるプライマリ・データベースで実際のログ・グループが作成および管理されます。
  • SCHEMATRANDATA

  • TRANDATA

  • FLUSH SEQUENCE

  • TRACETABLE

  • HEARTBEATTABLE

  • REGISTER EXTRACT

この機能はCDBでサポートされ、ワイルドカード登録をサポートします。これは、Oracle Database 21c以降を使用している場合にのみサポートされます。

ADGリダイレクションを使用したダウンストリームExtract登録を有効にする方法

次に、ダウンストリーム統合ExtractがADGスタンバイと連携できるようにするステップを示します。
  1. 次の例に示すように、ADGスタンバイにLOG_ARCHIVE_DESTINATION_N (LAD)を追加します。
    alter system set log_archive_dest_3='service=service name mining db ASYNC NOREGISTER VALID_FOR(STANDBY_LOGFILES,STANDBY_ROLES) DB_UNIQUE_NAME=db unique name of 3rd db' scope=both

    このステップにより、ADGスタンバイのstandby_logfilesが転送および生成されます。

  2. 次の例に示すように、ログをマイニング・データベースに送るようにADGスタンバイのLOG_ARCHIVE_CONFIGを設定します。
    ALTER SYSTEM SET LOG_ARCHIVE_CONFIG=‘dg_config(db unique name of 1st db,db unique name of 2nd db,db unique name of 3rd db)’ scope=both;
  3. マイニング・データベースで、受信するstandby_logfilesをマイニング・データベースに格納する場所を設定します。
    alter system set log_archive_dest_2='location=USE_DB_RECOVERY_FILE_DEST VALID_FOR=(STANDBY_LOGFILE,ALL_ROLES)' scope=both
    
  4. 次の例に示すように、マイニング・データベースでLOG_ARCHIVE_CONFIGを実行して、Extractプロセスがマイニング・データベースでそれらを読み取れるようにします。
    ALTER SYSTEM SET LOG_ARCHIVE_CONFIG=‘dg_config(db unique name of 1st db, db unique name of 2nd db, db unique name of 3rd db)’ scope=both
  5. ダウンストリームExtractの場合、データベース接続がGGSCIおよび管理クライアント用に適切に構成されるようにする必要があります。Extractを登録するとき、読取り専用アクティビティ用に開いているADGスタンバイへのDBLOGIN接続が行われていることを確認する必要があります。Extractを追加して登録するには、次のコマンドを使用します。
    dblogin userid ggadmin@inst2, password ggadmin (inst2 is the ADG not primary)
            miningdblogin userid ggadmin@inst3, password ggadmin (inst3 is the mining database)
    
  6. 次に、NOUSERIDパラメータを使用するExtractを登録します。
    add extract ext1, integrated tranlog, begin now register extract ext1 database
  7. Extractの登録後、このExtractを使用してデータをマイニングし、正常にExtractを開始できます。

例1: リアルタイム・モードでの1つのソース・データベースからのキャプチャ

この例では、ダウンストリーム・マイニング・データベースDBMSCAPにExtractをデプロイして、ソース・データベースDBMS1から変更をキャプチャします。

ノート:

例では、必要なスタンバイREDOログ・ファイルを「ダウンストリーム・マイニング・データベースの構成」に記載されているように作成してあるものとします。

次のユーザーが存在するものとします。

  • DBMS1にユーザーGGADM1。Extractはこの資格証明を使用して、DBMS1からデータとメタデータをフェッチします。このユーザーはOracle GoldenGate資格証明ストアにggadm1のエイリアスを持っており、ggadm1@dbms1としてログインします。DBMS_GOLDENGATE_AUTH.GRANT_ADMIN_PRIVILEGE()プロシージャをコールして、ソース・データベースで適切な権限がこのユーザーに付与されているものとします。

  • DBMSCAPにユーザーGGADMCAP。Extractはこの資格証明を使用して、論理変更レコードをダウンストリーム・マイニング・データベースDBMSCAPのログマイニング・サーバーから取得します。このユーザーはOracle GoldenGate資格証明ストアにggadmcapのエイリアスを持っており、ggadmcap@dbmscapとしてログインします。DBMS_GOLDENGATE_AUTH.GRANT_ADMIN_PRIVILEGE()プロシージャをコールして、マイニング・データベースで適切な権限がこのユーザーに付与されているものとします。

ローカルREDOをアーカイブするためのマイニング・データベースの準備

ローカルREDOをアーカイブするためにマイニング・データベースを準備する手順:

  1. ダウンストリーム・マイニング・データベースはアーカイブ・ログ・モードである必要があります。これは、次のDDLコマンドを発行して行います。
    	STARTUP MOUNT;
    	ALTER DATABASE ARCHIVELOG;
    	ALTER DATABASE OPEN;
    
  2. ダウンストリーム・マイニング・データベースでlog_archive_dest_1をアーカイブ・ローカルREDOに設定します。
    ALTER SYSTEM SET
    LOG_ARCHIVE_DEST_1='LOCATION=/home/arc_dest/local
    VALID_FOR=(ONLINE_LOGFILE, PRIMARY_ROLE)'
    
  3. log_archive_dest_1を有効にします。
    ALTER SYSTEM SET LOG_ARCHIVE_DEST_STATE_1=ENABLE 

ソース・データベースから受信したREDOをスタンバイREDOログにアーカイブするためのマイニング・データベースの準備

ソース・データベースから受信したREDOをスタンバイREDOログにアーカイブするためにマイニング・データベースを準備する手順:

  1. ダウンストリーム・マイニング・データベースで、次の例に示すようにlog_archive_dest_2を設定します。
    ALTER SYSTEM SET
    LOG_ARCHIVE_DEST_2='LOCATION=/home/arc_dest/srl_dbms1
    VALID_FOR=(STANDBY_LOGFILE,PRIMARY_ROLE)'
    
  2. 次の例に示すようにlog_archive_dest_2を有効にします。
    ALTER SYSTEM SET LOG_ARCHIVE_DEST_STATE_2=ENABLE
    
  3. ダウンストリーム・マイニング・データベースでDG_CONFIGを設定します。
    ALTER SYSTEM SET LOG_ARCHIVE_CONFIG='DG_CONFIG=(dbms1,dbmscap)'

REDOをマイニング・データベースに送信するためのソース・データベースの準備

REDOをマイニング・データベースに送信するためのソース・データベースを準備する手順:

  1. ソース・データベースが、必要とされる互換性で稼働していることを確認します。
    select name, value from v$parameter where name = 'compatible';
    
    NAME            VALUE
    ---------       ---------------------
    compatible      11.1.0.7.0
    

    統合キャプチャに必要な最低限の互換性設定は、11.1.0.0.0です。

  2. ソース・データベースでDG_CONFIGを設定します。
    ALTER SYSTEM SET LOG_ARCHIVE_CONFIG='DG_CONFIG=(dbms1,dbmscap)';
    
  3. ソース・データベースでREDO転送を設定します。
    ALTER SYSTEM
    SET LOG_ARCHIVE_DEST_2='SERVICE=DBMSCAP.EXAMPLE.COM ASYNC OPTIONAL NOREGISTER 
    VALID_FOR=(ONLINE_LOGFILES,PRIMARY_ROLE)DB_UNIQUE_NAME=dbmscap';
    
  4. ダウンストリームの宛先を有効にします。
    ALTER SYSTEM SET LOG_ARCHIVE_DEST_STATE_2=ENABLE;

DBMSCAPでのExtract (ext1)の設定

DBMSCAPにExtract (ext1)を設定するには:

  1. Extractをダウンストリーム・マイニング・データベースに登録します。資格証明ストアでは、ggadm1のエイリアス名はggadm1@dbms1のユーザー接続文字列にリンクされています。ggadmcapのエイリアス名はggadmcap@dbmscapのユーザー接続文字列にリンクされています。
    GGSCI> DBLOGIN USERIDALIAS ggadm1
    GGSCI> MININGDBLOGIN USERIDALIAS ggadmcap
    GGSCI> REGISTER EXTRACT ext1 DATABASE
    
  2. Extractをダウンストリーム・マイニング・データベースで作成します。
    GGSCI> ADD EXTRACT ext1 INTEGRATED TRANLOG BEGIN NOW
    
  3. Extractパラメータ・ファイルext1.prmを編集します。リアルタイム・キャプチャを使用するには、次の行が必要です。資格証明ストアでは、ggadm1のエイリアス名はggadm1@dbms1のユーザー接続文字列にリンクされています。ggadmcapのエイリアス名はggadmcap@dbmscapのユーザー接続文字列にリンクされています。
    USERIDALIAS ggadm1
    TRANLOGOPTIONS MININGUSERALIAS ggadmcap
    TRANLOGOPTIONS INTEGRATEDPARAMS (downstream_real_time_mine Y)
    
  4. Extractを起動します。
    GGSCI> START EXTRACT ext1

ノート:

同一のソース・データベースからデータをキャプチャする(前述の例でデータベースDBMS1の変更をキャプチャするなど)かぎり、ダウンストリーム・マイニング・データベースにリアルタイムExtractモードで実行するExtractを複数作成できます。

例2: アーカイブログのみモードでの複数のソースからのキャプチャ

次の例では、ダウンストリーム・マイニング・データベースDBMSCAPにExtractをデプロイして、データベースDBMS1およびDBMS2から変更をキャプチャします。

次のユーザーが存在するものとします。

  • DBMS1にユーザーGGADM1。Extractはこの資格証明を使用して、DBMS1からデータとメタデータをフェッチします。DBMS_GOLDENGATE_AUTH.GRANT_ADMIN_PRIVILEGE()プロシージャをコールして、DBMS1で適切な権限がこのユーザーに付与されているものとします。

  • DBMS2にユーザーGGADM2。Extractはこの資格証明を使用して、DBMS2からデータとメタデータをフェッチします。DBMS_GOLDENGATE_AUTH.GRANT_ADMIN_PRIVILEGE()プロシージャをコールして、DBMS2で適切な権限がこのユーザーに付与されているものとします。

  • DBMSCAPにユーザーGGADMCAP。Extractはこの資格証明を使用して、論理変更レコードをダウンストリーム・マイニング・データベースのログマイニング・サーバーから取得します。DBMS_GOLDENGATE_AUTH.GRANT_ADMIN_PRIVILEGE()プロシージャをコールして、ダウンストリーム・マイニング・データベースDBMSCAPで適切な権限がこのユーザーに付与されているものとします。

この手順では、ダウンストリーム・マイニング・データベースがアーカイブ・ログ・モードで構成されていることも前提とします。

ローカルREDOをアーカイブするためのマイニング・データベースの準備

ローカルREDOをアーカイブするためにマイニング・データベースを準備する手順:

  1. ダウンストリーム・マイニング・データベースはアーカイブ・ログ・モードである必要があります。これは、次のDDLコマンドを発行して行います。
    	STARTUP MOUNT;
    	ALTER DATABASE ARCHIVELOG;
    	ALTER DATABASE OPEN;
    
  2. ダウンストリーム・マイニング・データベースでlog_archive_dest_1をアーカイブ・ローカルREDOに設定します。
    ALTER SYSTEM SET
    LOG_ARCHIVE_DEST_1='LOCATION=/home/arc_dest/local
    VALID_FOR=(ONLINE_LOGFILE, PRIMARY_ROLE)'
    
  3. log_archive_dest_1を有効にします。
    ALTER SYSTEM SET LOG_ARCHIVE_DEST_STATE_1=ENABLE 

ソース・データベースからのREDOをアーカイブするためのマイニング・データベースの準備

ダウンストリーム・マイニング・データベースでDG_CONFIGを設定します。

ALTER SYSTEM SET LOG_ARCHIVE_CONFIG='DG_CONFIG=(dbms1,dbms2, dbmscap)'

REDOをマイニング・データベースに送信するための最初のソース・データベースの準備

REDOをマイニング・データベースに送信するための最初のソース・データベースを準備する手順:

  1. DBMS1ソース・データベースが、必要とされる互換性で稼働していることを確認します。
    select name, value from v$parameter where name = 'compatible';
    
    NAME            VALUE
    ---------       ---------------------
    compatible      11.1.0.0.0
    

    キャプチャに必要な最低限の互換性設定は、11.1.0.0.0です。

  2. DBMS1ソース・データベースでDG_CONFIGを設定します。
    ALTER SYSTEM SET LOG_ARCHIVE_CONFIG='DG_CONFIG=(dbms1, dbmscap)'; 
    
  3. DBMS1ソース・データベースでREDO転送を設定します。REDOデータをダウンストリーム・マイニング・データベースの外部アーカイブ・ログに直接送信する場合、TEMPLATE句は必須です。
    ALTER SYSTEM
    SET LOG_ARCHIVE_DEST_2='SERVICE=DBMSCAP.EXAMPLE.COM ASYNC OPTIONAL NOREGISTER
    TEMPLATE='/usr/orcl/arc_dest/dbms1/dbms1_arch_%t_%s_%r.log VALID_FOR=(ONLINE_LOGFILES,PRIMARY_ROLE)DB_UNIQUE_NAME=dbmscap';
    
  4. ダウンストリームの宛先を有効にします。
    ALTER SYSTEM SET LOG_ARCHIVE_DEST_STATE_2=ENABLE;

REDOをマイニング・データベースに送信するための2番目のソース・データベースの準備

REDOをマイニング・データベースに送信するための2番目のソース・データベースを準備する手順:

  1. DBMS2ソース・データベースが、必要とされる互換性で稼働していることを確認します。
    select name, value from v$parameter where name = 'compatible';
    
    NAME                    VALUE
    ---------               ---------------------
    compatible              11.1.0.0.0
    

    キャプチャに必要な最低限の互換性設定は、11.1.0.0.0です。

  2. DBMS2ソース・データベースでDG_CONFIGを設定します。
    ALTER SYSTEM SET LOG_ARCHIVE_CONFIG='DG_CONFIG=(dbms2, dbmscap)'; 
    
  3. DBMS2ソース・データベースでREDO転送を設定します。REDOデータをダウンストリーム・マイニング・データベースの外部アーカイブ・ログに直接送信する場合、TEMPLATE句は必須です。
    ALTER SYSTEM
    SET LOG_ARCHIVE_DEST_2='SERVICE=DBMSCAP.EXAMPLE.COM ASYNC OPTIONAL NOREGISTER
    TEMPLATE='/usr/orcl/arc_dest/dbms2/dbms2_arch_%t_%s_%r.log VALID_FOR=(ONLINE_LOGFILES,PRIMARY_ROLE)DB_UNIQUE_NAME=dbmscap';
    
  4. ダウンストリームの宛先を有効にします。
    ALTER SYSTEM SET LOG_ARCHIVE_DEST_STATE_2=ENABLE;

ダウンストリーム・マイニング・データベースでのExtractの設定

このステップでは、DBMS1およびDBMS2によって送信されたアーカイブ・ログからキャプチャするようダウンストリーム・データベースでExtractを設定します。

例3: リアルタイム・モードとアーカイブログのみモードが混在する複数ソースからのキャプチャ

次の例では、ダウンストリーム・マイニング・データベースDBMSCAPにExtractをデプロイして、データベースDBMS1、DBMS2およびDBMS3から変更をキャプチャします。

ノート:

この例では、必要なスタンバイREDOログ・ファイルを「ダウンストリーム・マイニング・データベースの構成」に記載されているように作成してあるものとします。

次のユーザーが存在するものとします。

  • DBMS1にユーザーGGADM1。Extractはこの資格証明を使用して、DBMS1からデータとメタデータをフェッチします。DBMS_GOLDENGATE_AUTH.GRANT_ADMIN_PRIVILEGE()プロシージャをコールして、DBMS1で適切な権限がこのユーザーに付与されているものとします。

  • DBMS2にユーザーGGADM2。Extractはこの資格証明を使用して、DBMS2からデータとメタデータをフェッチします。DBMS_GOLDENGATE_AUTH.GRANT_ADMIN_PRIVILEGE()プロシージャをコールして、DBMS2で適切な権限がこのユーザーに付与されているものとします。

  • DBMS3にユーザーGGADM3。Extractはこの資格証明を使用して、DBMS3からデータとメタデータをフェッチします。DBMS_GOLDENGATE_AUTH.GRANT_ADMIN_PRIVILEGE()プロシージャをコールして、DBMS3で適切な権限がこのユーザーに付与されているものとします。

  • DBMSCAPにユーザーGGADMCAP。Extractはこの資格証明を使用して、論理変更レコードをダウンストリーム・マイニング・データベースのログマイニング・サーバーから取得します。DBMS_GOLDENGATE_AUTH.GRANT_ADMIN_PRIVILEGE()プロシージャをコールして、ダウンストリーム・マイニング・データベースDBMSCAPで適切な権限がこのユーザーに付与されているものとします。

この手順では、ダウンストリーム・マイニング・データベースがアーカイブ・ログ・モードで構成されていることも前提とします。

この例では、DBMS3によって送信されるREDOデータはリアルタイム・モードでマイニングされ、DBMS1およびDBMS2から送信されるREDOデータはアーカイブログのみモードでマイニングされます。

ローカルREDOをアーカイブするためのマイニング・データベースの準備

ローカルREDOをアーカイブするためにマイニング・データベースを準備する手順:

  1. ダウンストリーム・マイニング・データベースはアーカイブ・ログ・モードである必要があります。これは、次のDDLコマンドを発行して行います。
    STARTUP MOUNT;
    ALTER DATABASE ARCHIVELOG;
    ALTER DATABASE OPEN;
    
  2. ダウンストリーム・マイニング・データベースでlog_archive_dest_1をアーカイブ・ローカルREDOに設定します。
    ALTER SYSTEM SETLOG_ARCHIVE_DEST_1='LOCATION=/home/arc_dest/localVALID_FOR=(ONLINE_LOGFILE, PRIMARY_ROLE)'
    
  3. log_archive_dest_1を有効にします。
    ALTER SYSTEM SET LOG_ARCHIVE_DEST_STATE_1=ENABLE 
    

ソース・データベースからREDOを受け入れるためのマイニング・データベースの準備

REDOデータは、ダウンストリーム・マイニング・データベースのスタンバイREDOログに受け入れられるため、正しいサイズに設定されたスタンバイREDOログが適切な数存在する必要があります。スタンバイ・ログを構成していない場合は、「ダウンストリーム・マイニング・データベースの構成」を参照してください。

  1. ダウンストリーム・マイニング・データベースで、次の例に示すように、2つ目のアーカイブ・ログの宛先をLOG_ARCHIVE_DEST_n初期化パラメータに設定します。これは、アーカイブ・スタンバイREDOログを処理するために必要です。
    ALTER SYSTEM SET
    LOG_ARCHIVE_DEST_2='LOCATION=/home/arc_dest/srl_dbms3
    VALID_FOR=(STANDBY_LOGFILE,PRIMARY_ROLE)'
    
  2. 次の例に示すように、LOG_ARCHIVE_DEST_2パラメータに対応するLOG_ARCHIVE_DEST_STATE_2初期化パラメータを有効にします。
    ALTER SYSTEM SET LOG_ARCHIVE_DEST_STATE_2=ENABLE 
  3. ダウンストリーム・マイニング・データベースですべてのソース・データベースからREDOデータを受け入れるようDG_CONFIGを設定します。
    ALTER SYSTEM SET LOG_ARCHIVE_CONFIG='DG_CONFIG=(dbms1, dbms2, dbms3, dbmscap)' 

REDOをマイニング・データベースに送信するための最初のソース・データベースの準備

REDOをマイニング・データベースに送信するための最初のソース・データベースを準備する手順:

  1. DBMS1ソース・データベースが、必要とされる互換性で稼働していることを確認します。
    select name, value from v$parameter where name = 'compatible';
    
    NAME            VALUE
    ---------       ---------------------
    compatible      11.1.0.0.0
    

    キャプチャに必要な最低限の互換性設定は、11.1.0.0.0です。

  2. DBMS1ソース・データベースでDG_CONFIGを設定します。
    ALTER SYSTEM SET LOG_ARCHIVE_CONFIG='DG_CONFIG=(dbms1, dbmscap)'; 
    
  3. DBMS1ソース・データベースでREDO転送を設定します。REDOデータをダウンストリーム・マイニング・データベースの外部アーカイブ・ログに直接送信する場合、TEMPLATE句は必須です。
    ALTER SYSTEM
    SET LOG_ARCHIVE_DEST_2='SERVICE=DBMSCAP.EXAMPLE.COM ASYNC OPTIONAL NOREGISTER
    TEMPLATE='/usr/orcl/arc_dest/dbms1/dbms1_arch_%t_%s_%r.log VALID_FOR=(ONLINE_LOGFILES,PRIMARY_ROLE)DB_UNIQUE_NAME=dbmscap';
    
  4. ダウンストリームの宛先を有効にします。
    ALTER SYSTEM SET LOG_ARCHIVE_DEST_STATE_2=ENABLE;

REDOをマイニング・データベースに送信するための2番目のソース・データベースの準備

REDOをマイニング・データベースに送信するための2番目のソース・データベースを準備する手順:

  1. DBMS2ソース・データベースが、必要とされる互換性で稼働していることを確認します。
    select name, value from v$parameter where name = 'compatible';
    
    NAME                    VALUE
    ---------               ---------------------
    compatible              11.1.0.0.0
    

    キャプチャに必要な最低限の互換性設定は、11.1.0.0.0です。

  2. DBMS2ソース・データベースでDG_CONFIGを設定します。
    ALTER SYSTEM SET LOG_ARCHIVE_CONFIG='DG_CONFIG=(dbms2, dbmscap)'; 
    
  3. DBMS2ソース・データベースでREDO転送を設定します。REDOデータをダウンストリーム・マイニング・データベースの外部アーカイブ・ログに直接送信する場合、TEMPLATE句は必須です。
    ALTER SYSTEM
    SET LOG_ARCHIVE_DEST_2='SERVICE=DBMSCAP.EXAMPLE.COM ASYNC OPTIONAL NOREGISTER
    TEMPLATE='/usr/orcl/arc_dest/dbms2/dbms2_arch_%t_%s_%r.log VALID_FOR=(ONLINE_LOGFILES,PRIMARY_ROLE)DB_UNIQUE_NAME=dbmscap';
    
  4. ダウンストリームの宛先を有効にします。
    ALTER SYSTEM SET LOG_ARCHIVE_DEST_STATE_2=ENABLE;

REDOをマイニング・データベースに送信するための3番目のソース・データベースの準備

REDOをマイニング・データベースに送信するための3番目のソース・データベースを準備する手順:

  1. DBMS3ソース・データベースが、必要とされる互換性で稼働していることを確認します。
    select name, value from v$parameter where name = 'compatible';
    
    NAME                    VALUE
    ---------               ---------------------
    compatible              11.1.0.0.0
    

    キャプチャに必要な最低限の互換性設定は、11.1.0.0.0です。

  2. DBMS3ソース・データベースでDG_CONFIGを設定します。
    ALTER SYSTEM SET LOG_ARCHIVE_CONFIG='DG_CONFIG=(dbms3, dbmscap)'; 
    
  3. DBMS3ソース・データベースでREDO転送を設定します。DBMS3はオンラインREDOログをダウンストリーム・マイニング・データベースのスタンバイREDOログに送信するソースであるため、TEMPLATE句は指定しないでください。
    ALTER SYSTEM
    SET LOG_ARCHIVE_DEST_2='SERVICE=DBMSCAP.EXAMPLE.COM ASYNC OPTIONAL NOREGISTER
    VALID_FOR=(ONLINE_LOGFILES,PRIMARY_ROLE)DB_UNIQUE_NAME=dbmscap';
    
  4. ダウンストリームの宛先を有効にします。
    ALTER SYSTEM SET LOG_ARCHIVE_DEST_STATE_2=ENABLE;

ダウンストリーム・マイニング・データベースでのExtractの設定

このステップでは、DBMS1およびDBMS2によって送信されたアーカイブ・ログからキャプチャするようダウンストリーム・データベースでExtractを設定します。

DBMS1によって送信されたアーカイブ・ログから変更をキャプチャするためのExtract (ext1)の設定

DBMSCAPダウンストリーム・マイニング・データベースで次のステップを実行します。

  1. DBMS1ソース・データベース用にDBMSCAPにExtractを登録します。資格証明ストアでは、ggadm1のエイリアス名はggadm1@dbms1のユーザー接続文字列にリンクされています。ggadmcapのエイリアス名はggadmcap@dbmscapのユーザー接続文字列にリンクされています。
    GGSCI> DBLOGIN USERIDALIAS ggadm1
    GGSCI> MININGDBLOGIN USERIDALIAS ggadmcap
    GGSCI> REGISTER EXTRACT ext1 DATABASE
    
  2. Extractをマイニング・データベースDBMSCAPで追加します。
    GGSCI> ADD EXTRACT ext1 INTEGRATED TRANLOG BEGIN NOW
    
  3. Extractパラメータ・ファイルext1.prmを編集します。資格証明ストアでは、ggadm1のエイリアス名はggadm1@dbms1のユーザー接続文字列にリンクされています。ggadmcapのエイリアス名はggadmcap@dbmscapのユーザー接続文字列にリンクされています。
    USERIDALIAS ggadm1
    TRANLOGOPTIONS MININGUSERALIAS ggadmcap
    TRANLOGOPTIONS INTEGRATEDPARAMS (downstream_real_time_mine N)
    
  4. Extractを起動します。
    GGSCI> START EXTRACT ext1
DBMS2によって送信されたアーカイブ・ログから変更をキャプチャするためのExtract (ext2)の設定

DBMSCAPダウンストリーム・マイニング・データベースで次のステップを実行します。

  1. ソース・データベースDBMS2用にマイニング・データベースにExtractを登録します。資格証明ストアでは、ggadm2のエイリアス名はggadm2@dbms2のユーザー接続文字列にリンクされています。ggadmcapのエイリアス名はggadmcap@dbmscapのユーザー接続文字列にリンクされています。
    GGSCI> DBLOGIN USERIDALIAS ggadm2
    GGSCI> MININGDBLOGIN USERIDALIAS ggadmcap
    GGSCI> REGISTER EXTRACT ext2 DATABASE
    
  2. Extractをマイニング・データベースで作成します。
    GGSCI> ADD EXTRACT ext2 INTEGRATED TRANLOG, BEGIN NOW
    
  3. Extractパラメータ・ファイルext2.prmを編集します。資格証明ストアでは、ggadm2のエイリアス名はggadm2@dbms2のユーザー接続文字列にリンクされています。ggadmcapのエイリアス名はggadmcap@dbmscapのユーザー接続文字列にリンクされています。
    USERIDALIAS ggadm2
    TRANLOGOPTIONS MININGUSERALIAS ggadmcap
    TRANLOGOPTIONS INTEGRATEDPARAMS (downstream_real_time_mine N)
    
  4. Extractを起動します。
    GGSCI> START EXTRACT ext2
DBMS3によって送信されたオンライン・ログからリアルタイム・モードで変更をキャプチャするためのExtract (ext3)の設定

DBMSCAPダウンストリーム・マイニング・データベースで次のステップを実行します。

  1. ソース・データベースDBMS3用にマイニング・データベースにExtractを登録します。資格証明ストアでは、ggadm3のエイリアス名はggadm3@dbms3のユーザー接続文字列にリンクされています。ggadmcapのエイリアス名はggadmcap@dbmscapのユーザー接続文字列にリンクされています。
    GGSCI> DBLOGIN USERID ggadm3
    GGSCI> MININGDBLOGIN USERID ggadmcap
    GGSCI> REGISTER EXTRACT ext3 DATABASE
    
  2. Extractをマイニング・データベースで作成します。
    GGSCI> ADD EXTRACT ext3 INTEGRATED TRANLOG, BEGIN NOW
  3. Extractパラメータ・ファイルext3.prmを編集します。リアルタイム・マイニングを有効にするには、downstream_real_time_mineを指定する必要があります。資格証明ストアでは、ggadm3のエイリアス名はggadm3@dbms3のユーザー接続文字列にリンクされています。ggadmcapのエイリアス名はggadmcap@dbmscapのユーザー接続文字列にリンクされています。
    USERIDALIAS ggadm3
    TRANLOGOPTIONS MININGUSERALIAS ggadmcap
    TRANLOGOPTIONS INTEGRATEDPARAMS (downstream_real_time_mine Y)
    
  4. Extractを起動します。
    GGSCI> START EXTRACT ext3

ノート:

同一のソース・データベースからデータをキャプチャする(前述の例でデータベースDBMS3の変更をキャプチャするなど)かぎり、リアルタイム統合キャプチャ・モードで実行されるExtractをダウンストリーム・マイニング・データベースに複数作成できます。