機械翻訳について

Autonomous Transaction ProcessingからConfluent Kafkaへのデータのレプリケート

このクイックスタートでは、OCI GoldenGateを使用してAutonomous Transaction ProcessingからConfluent Kafkaにデータをレプリケートする方法を示します。

始める前に

このクイックスタートを正常に完了するには、次のものが必要です:

  • ソースAutonomous Transaction Processingインスタンス。
  • Confluent Platformインスタンス。

環境設定: Autonomous Transaction Processing

レプリケーション用のソース・データベースが設定されていない場合は、次のステップに従って、このクイックスタートに使用するサンプル・スキーマをロードできます。 このクイックスタートでは、ソース・データベースにAutonomous Transaction Processingを使用します。

ソースAutonomous Databaseを設定するには:

  1. サンプル・データベース・スキーマをダウンロードして解凍します。
  2. Oracle Cloudコンソールで、Autonomous DatabasesページからAutonomous Transaction Processing (ATP)インスタンスを選択して、その詳細を表示し、データベース・アクションにアクセスします。
  3. GGADMINユーザーのロックを解除します:
    1. 「データベース・アクション」をクリックし、「データベース・ユーザー」をクリックします。
    2. GGADMINを見つけ、その省略記号メニュー(3つのドット)をクリックして、「編集」を選択します。
    3. 「ユーザーの編集」パネルで、GGADMINパスワードを入力し、パスワードを確認してから、「アカウントはロックされています」の選択を解除します。
    4. 「変更の適用」をクリックします。
  4. ソース・サンプル・スキーマおよびデータをロードします:
    1. 「データベース・アクション」メニューの「開発」で、SQLを選択します。
    2. OCIGGLL_OCIGGS_SETUP_USERS_ATP.sqlからスクリプトをコピーしてSQLワークシートに貼り付けます。
    3. 「スクリプトの実行」をクリックします。 「スクリプトの出力」タブには、確認メッセージが表示されます。
    4. SQLワークシートをクリアし、OCIGGLL_OCIGGS_SRC_USER_SEED_DATA.sql.からSQLスクリプトをコピーして貼り付けます

      ヒント:

      SQLツールでスクリプトを正常に実行するには、各文を個別に実行する必要がある場合があります。
    5. 表が正常に作成されたことを確認するには、SQLウィンドウを閉じて再度開きます。 ナビゲータ・タブで、SRC_OCIGGLLスキーマを探し、それぞれのドロップダウンから表を選択します。
  5. サプリメンタル・ロギングを有効化します。
    1. SQLワークシートをクリアします。
    2. 次の文を入力し、文の実行をクリックします:
      ALTER PLUGGABLE DATABASE ADD SUPPLEMENTAL LOG DATA;

環境設定: Confluent Cloud

ターゲットのConfluent Cloudクラスタ、トピックおよびスキーマがまだない場合は、次を実行できます:
  1. クラスタの作成
  2. 「クラスタのAPIキーの作成」 次のステップのAPIキーおよびシークレットに注意してください。
  3. 「スキーマ・レジストリを有効化」し、次に「Confluentクラウド・スキーマ・レジストリのAPIキーを作成」します。 次のステップのAPIキーおよびシークレットに注意してください。
  4. クラスタ内の「トピックの作成」 次のステップのトピックの名前に注意してください。

タスク1: OCI GoldenGateリソースの作成

このクイックスタートの例では、ソースとターゲットの両方のデプロイメントおよび接続が必要です。
  1. ソースAutonomous Transaction ProcessingインスタンスのOracleデプロイメントを作成します。
  2. ターゲットConfluent Cloudにビッグ・データ・デプロイメントを作成します。
  3. ソースAutonomous Transaction Processingへの接続を作成
  4. Confluent Kafka接続の作成
  5. Confluentスキーマ・レジストリの作成
  6. (オプション)ビッグ・データ・デプロイメントにパブリック・エンドポイントがない場合、GoldenGateへの接続の作成、次にこの接続をソースOracleデプロイメントに割当てます。
  7. ソースOracleデプロイメントへのAutonomous Transaction Processing接続の割当て
  8. ターゲットのビッグ・データ・デプロイメントへのConfluent KafkaおよびConfluentスキーマ・レジストリ接続の割当て

タスク2: 抽出の追加

  1. デプロイメント・ページで、ソースのAutonomous Transaction Processingデプロイメントを選択します。
  2. デプロイメントの詳細ページで、「コンソールの起動」をクリックします。
  3. ソース・デプロイメント管理者のユーザー名とパスワードを使用してログインします。
  4. トランザクション情報の追加
  5. Extractを追加します

タスク3: 「分散パス」を追加して実行

  1. GoldenGate資格証明ストアを使用する場合、「ターゲット」ビッグ・データ・デプロイメントで「分散パスのユーザーの作成」を使用し、それ以外の場合はステップ3にスキップします。
  2. 「ソース」 ATP GoldenGateデプロイメント・コンソールで、ステップ1で作成したユーザーのパス接続を追加します。
    1. ソースATPのGoldenGateデプロイメント・コンソールで、左側のナビゲーションで「パス接続」をクリックします。
    2. パス接続の追加 (プラス・アイコン)をクリックし、次の操作を完了します:
      1. 「資格証明別名」には、GGSNetworkと入力します。
      2. 「ユーザーID」に、ステップ1で作成したユーザーの名前を入力します。
      3. 確認のためにユーザー・パスワードを2回入力します。
    3. 「送信」をクリックします。

      「パス接続」リストにパス接続が表示されます。

  3. ソース ATPデプロイメント・コンソールで、分散パスの追加に次の値を指定します:
    1. ソース・オプションページで、次の手順を実行します:
      • 「ソースの抽出」で、タスク2で作成したExtractを選択します。
      • 「トレイル名」に、2文字の名前(E1など)を入力します。
    2. ターゲット・オプションページで、次の手順を実行します:
      • 「ターゲット・ホスト」に、ターゲット・デプロイメントのホスト・ドメインを入力します。
      • 「ポート番号」には、443と入力します。
      • 「トレイル名」に、2文字の名前(E1など)を入力します。
      • 「別名」に、ステップ2で作成した資格証明別名を入力します。
  4. 「ターゲット」ビッグ・データ・デプロイメント・コンソールで、「分散パス」の結果として作成された「受信パス」を確認します。
    1. ターゲットのビッグ・データ・デプロイメント・コンソールで、「受信サービス」をクリックします。
    2. パス詳細を確認します。 このパスは、前のステップで作成した「分散パス」の結果として作成されました。

タスク4: Replicatを追加して実行

  1. ターゲットのビッグ・データ・デプロイメント・コンソールで、「管理者サービス」をクリックし、「Replicatの追加」 (プラス・アイコン)をクリックします。
  2. 次の値を含むReplicatの追加:
    1. Replicatの「情報」ページのReplicatタイプで、「調整Replicat」を選択し、プロセス名を入力して「次」をクリックします。
    2. 「レプリケーション・オプション」ページで、次の手順を実行します:
      • 「名前」に、タスク2からのトレイルの名前を入力します。
      • 「ドメイン」で、ドメインを選択します。
      • 「別名」で、タスク1で作成したConfluent Kafka接続を選択します。
      • 「チェックポイント表」で、ターゲット・デプロイメント用に作成したチェックポイント表を選択します。
    3. Replicatパラメータ」ページで、MAP *.*, TARGET *.*;を次のように置き換えます:
      MAP SRC_OCIGGLL.SRC_CUSTOMER, Table SRC.CUSTOMER;
  3. 「Create and Run」をクリックします
「概要」ページに戻り、Replicatの詳細を確認できます。

タスク5: レプリケーションの検証

ソースAutonomous Transaction Processingインスタンスに対する更新をいくつか実行して、Confluent Kafka Cloudへのレプリケーションを確認します。
  1. 「Oracle Cloudコンソール」で、ナビゲーション・メニューを開き、Oracle Databaseを選択して、Autonomous Transaction Processingを選択します。
  2. Autonomous Transaction Processingインスタンスのリストで、ソース・インスタンスを選択して詳細を表示します。
  3. データベースの詳細ページで、「データベース・アクション」をクリックします。

    ノート:

    自動的にログインする必要があります。 そうでない場合は、データベース資格証明を使用してログインします。
  4. データベース・アクションのホームページで、SQLを選択します。
  5. ワークシートに次を入力し、「スクリプトの実行」をクリックします。
    Insert into SRC_OCIGGLL.SRC_CITY (CITY_ID,CITY,REGION_ID,POPULATION) values (1000,'Houston',20,743113);
    Insert into SRC_OCIGGLL.SRC_CITY (CITY_ID,CITY,REGION_ID,POPULATION) values (1001,'Dallas',20,822416);
    Insert into SRC_OCIGGLL.SRC_CITY (CITY_ID,CITY,REGION_ID,POPULATION) values (1002,'San Francisco',21,157574);
    Insert into SRC_OCIGGLL.SRC_CITY (CITY_ID,CITY,REGION_ID,POPULATION) values (1003,'Los Angeles',21,743878);
    Insert into SRC_OCIGGLL.SRC_CITY (CITY_ID,CITY,REGION_ID,POPULATION) values (1004,'San Diego',21,840689);
    Insert into SRC_OCIGGLL.SRC_CITY (CITY_ID,CITY,REGION_ID,POPULATION) values (1005,'Chicago',23,616472);
    Insert into SRC_OCIGGLL.SRC_CITY (CITY_ID,CITY,REGION_ID,POPULATION) values (1006,'Memphis',23,580075);
    Insert into SRC_OCIGGLL.SRC_CITY (CITY_ID,CITY,REGION_ID,POPULATION) values (1007,'New York City',22,124434);
    Insert into SRC_OCIGGLL.SRC_CITY (CITY_ID,CITY,REGION_ID,POPULATION) values (1008,'Boston',22,275581);
    Insert into SRC_OCIGGLL.SRC_CITY (CITY_ID,CITY,REGION_ID,POPULATION) values (1009,'Washington D.C.',22,688002);
  6. ソースATPデプロイメント・コンソールで、Extract名を選択し、「統計」をクリックします。 SRC_OCIGGLL.SRC _CITYに10個の挿入があることを確認します。
  7. ターゲットのビッグ・データOCI GoldenGateデプロイメント・コンソールで、Replicat名を選択し、「統計」をクリックします。 SRC_OCIGGLL.SRC _CUSTOMERに7つの挿入があることを確認します。

タスク6: (オプション) Confluent CLIでのレプリケーションの確認

  1. システムにConfluent CLIをインストールします。
  2. 次を実行します。
    export PATH=$(pwd)/bin:$PATH
    confluent login
  3. 環境のリストと環境の選択
    confluent environment list
    confluent environment use <your_environment_ID> 
  4. クラスタをリストし、クラスタを選択
    confluent kafka cluster list
    confluent kafka cluster use <your_cluster_id>
  5. APIキーおよびシークレットをローカルに格納
    confluent api-key store <cluster_api_key> <cluster_api_secret>
    confluent api-key use <cluster_api_key> --resource <cluster_id>
  6. トピックのリスト
    confluent kafka topic list
  7. メッセージの表示
    confluent kafka topic consume --value-format avro --from-beginning <topic_name>