機械翻訳について

OCI GoldenGateデータ変換の検出

OCI GoldenGateデータ・レプリケーションと「データ変換」デプロイメントを一緒に使用して、2つのAutonomous Databases間でデータをロードおよび変換する方法を学習します。

始める前に

このクイックスタートを正常に完了するには、次が必要です:

  • サンプル・データがロードされ、サプリメンタル・ロギングが有効になっているソースAutonomous Database。

    ヒント:

    使用するサンプル・データが必要な場合は、「OCI GoldenGateサンプル・データ」をダウンロードできます。
    • Autonomous Databaseのデータベース・アクションSQLツールを使用して、2つのスクリプトを実行してユーザー・スキーマと表を作成します。
    • サプリメンタル・ロギングを有効にするには、SQLツールを使用します。
    詳細は、「演習1、タスク3: ATPスキーマのロード」のステップに従ってください。
  • ソースAutonomous DatabaseインスタンスでGGADMINユーザーのロックを解除
    1. Autonomous Databaseの詳細ページで、「データベース・アクション」メニューから「データベース・ユーザー」を選択します。

      ヒント:

      プロンプトが表示された場合は、インスタンスの作成時に指定したAutonomous Database管理者資格証明を使用してログインします。
    2. GGADMINユーザーを見つけ、省略記号(3つのドット)メニューから「編集」を選択します。
    3. 「ユーザーの編集」パネルで、パスワードを入力し、そのパスワードを確認してから、「アカウントはロックされています」の選択を解除します。
    4. 「変更の適用」をクリックします。

タスク1: 環境の設定

  1. データ・レプリケーション・デプロイメントを作成します。
  2. ソースOracle Autonomous Transaction Processing (ATP)接続の作成
  3. ターゲットのAutonomous Data Warehouse (ADW)接続の作成
  4. デプロイメントへの接続の割当て
  5. Autonomous Database SQLツールを使用して、サプリメンタル・ロギングを有効にします:
    ALTER DATABASE ADD SUPPLEMENTAL LOG DATA
  6. SQLツールで次の問合せを実行して、ソース・データベース内のすべての表のsupport_mode=FULLを確認します:
    
    select * from DBA_GOLDENGATE_SUPPORT_MODE where owner = 'SRC_OCIGGLL';

タスク2: 統合抽出の作成

統合抽出は、ソース・データベースへの進行中の変更を取得します。

  1. 「デプロイメントの詳細」ページで、「コンソールの起動」をクリックします。
  2. 必要に応じて、ユーザー名にoggadmin、デプロイメントの作成時に使用したパスワードを入力し、「サインイン」をクリックします。
  3. トランザクション・データおよびチェックポイント表の追加:
    1. ナビゲーション・メニューを開き、「DB接続」をクリックします。
    2. 「データベースに接続SourceATP」をクリックします。
    3. ナビゲーション・メニューで、「Trandata」をクリックし、「Trandataの追加」 (プラス・アイコン)をクリックします。
    4. 「スキーマ名」SRC_OCIGGLLと入力し、「送信」をクリックします。
    5. 確認するには、「検索」フィールドにSRC_OCIGGLLと入力し、「検索」をクリックします。
    6. ナビゲーション・メニューを開き、「DB接続」をクリックします。
    7. 「データベースに接続TargetADW」をクリックします。
    8. ナビゲーション・メニューで、「チェックポイント」をクリックし、「チェックポイントの追加」 (プラス・アイコン)をクリックします。
    9. 「チェックポイント表」"SRCMIRROR_OCIGGLL"."CHECKTABLE"と入力し、「送信」をクリックします。
  4. Extractを追加します

    ノート:

    ソース表の指定に使用できるパラメータの詳細は、「追加の抽出パラメータ・オプション」を参照してください。
    「抽出パラメータ」ページで、EXTTRAIL <trail-name>の下に次の行を追加します:
    -- Capture DDL operations for listed schema tables
    ddl include mapped
    
    -- Add step-by-step history of 
    -- to the report file. Very useful when troubleshooting.
    ddloptions report 
    
    -- Write capture stats per table to the report file daily.
    report at 00:01 
    
    -- Rollover the report file weekly. Useful when IE runs
    -- without being stopped/started for long periods of time to
    -- keep the report files from becoming too large.
    reportrollover at 00:01 on Sunday 
    
    -- Report total operations captured, and operations per second
    -- every 10 minutes.
    reportcount every 10 minutes, rate 
    
    -- Table list for capture
    table SRC_OCIGGLL.*;
  5. 長時間実行トランザクションを確認します。 ソース・データベースで次のスクリプトを実行します:
    select start_scn, start_time from gv$transaction where start_scn < (select max(start_scn) from dba_capture);

    問合せが行を返す場合は、トランザクションSCNを特定してから、トランザクションをコミットまたはロールバックする必要があります。

タスク3: Oracle Data Pump (ExpDP)を使用したデータのエクスポート

Oracle Data Pump (ExpDP)を使用して、ソース・データベースからOracle Object Storeにデータをエクスポートします。

  1. Oracle Object Storeバケットの作成

    エクスポート・スクリプトおよびインポート・スクリプトで使用するネームスペースおよびバケット名をノートにとります。

  2. 認証トークンの作成で、後で使用できるようにトークン文字列をコピーしてテキスト・エディタに貼り付けます。
  3. ソース・データベースに資格証明を作成し、<user-name>および<token>を前のステップで作成したOracle Cloudアカウントのユーザー名およびトークン文字列に置き換えます:
    BEGIN
      DBMS_CLOUD.CREATE_CREDENTIAL(
        credential_name => 'ADB_OBJECTSTORE', 
        username => '<user-name>',
        password => '<token>'
      );
    END;
  4. ソース・データベースで次のスクリプトを実行して、データのエクスポート・ジョブを作成します。 オブジェクト・ストアURIの<region><namespace>および<bucket-name>を適宜置き換えてください。 SRC_OCIGGLL.dmpは、このスクリプトの実行時に作成されるファイルです。
    DECLARE
    ind NUMBER;              -- Loop index
    h1 NUMBER;               -- Data Pump job handle
    percent_done NUMBER;     -- Percentage of job complete
    job_state VARCHAR2(30);  -- To keep track of job state
    le ku$_LogEntry;         -- For WIP and error messages
    js ku$_JobStatus;        -- The job status from get_status
    jd ku$_JobDesc;          -- The job description from get_status
    sts ku$_Status;          -- The status object returned by get_status
    
    BEGIN
    -- Create a (user-named) Data Pump job to do a schema export.
    h1 := DBMS_DATAPUMP.OPEN('EXPORT','SCHEMA',NULL,'SRC_OCIGGLL_EXPORT','LATEST');
    
    -- Specify a single dump file for the job (using the handle just returned
    -- and a directory object, which must already be defined and accessible
    -- to the user running this procedure.
    DBMS_DATAPUMP.ADD_FILE(h1,'https://objectstorage.<region>.oraclecloud.com/n/<namespace>/b/<bucket-name>/o/SRC_OCIGGLL.dmp','ADB_OBJECTSTORE','100MB',DBMS_DATAPUMP.KU$_FILE_TYPE_URIDUMP_FILE,1);
    
    -- A metadata filter is used to specify the schema that will be exported.
    DBMS_DATAPUMP.METADATA_FILTER(h1,'SCHEMA_EXPR','IN (''SRC_OCIGGLL'')');
    
    -- Start the job. An exception will be generated if something is not set up properly.
    DBMS_DATAPUMP.START_JOB(h1);
    
    -- The export job should now be running. In the following loop, the job
    -- is monitored until it completes. In the meantime, progress information is displayed.
    percent_done := 0;
    job_state := 'UNDEFINED';
    while (job_state != 'COMPLETED') and (job_state != 'STOPPED') loop
      dbms_datapump.get_status(h1,dbms_datapump.ku$_status_job_error + dbms_datapump.ku$_status_job_status + dbms_datapump.ku$_status_wip,-1,job_state,sts);
      js := sts.job_status;
    
    -- If the percentage done changed, display the new value.
    if js.percent_done != percent_done
    then
      dbms_output.put_line('*** Job percent done = ' || to_char(js.percent_done));
      percent_done := js.percent_done;
    end if;
    
    -- If any work-in-progress (WIP) or error messages were received for the job, display them.
    if (bitand(sts.mask,dbms_datapump.ku$_status_wip) != 0)
    then
      le := sts.wip;
    else
      if (bitand(sts.mask,dbms_datapump.ku$_status_job_error) != 0)
      then
        le := sts.error;
      else
        le := null;
      end if;
    end if;
    if le is not null
    then
      ind := le.FIRST;
      while ind is not null loop
        dbms_output.put_line(le(ind).LogText);
        ind := le.NEXT(ind);
      end loop;
    end if;
      end loop;
    
      -- Indicate that the job finished and detach from it.
      dbms_output.put_line('Job has completed');
      dbms_output.put_line('Final job state = ' || job_state);
      dbms_datapump.detach(h1);
    END;

タスク4: Oracle Data Pump (ImpDP)を使用したターゲット・データベースのインスタンス化

Oracle Data Pump (ImpDP)を使用して、ソース・データベースからエクスポートされたSRC_OCIGGLL.dmpからターゲット・データベースにデータをインポートします。

  1. ターゲット・データベースに資格証明を作成して、Oracle Object Storeにアクセスします(前の項と同じ情報を使用)。
    BEGIN
      DBMS_CLOUD.CREATE_CREDENTIAL( 
        credential_name => 'ADB_OBJECTSTORE',
        username => '<user-name>',
        password => '<token>'
      );
    END;
  2. ターゲット・データベースで次のスクリプトを実行して、SRC_OCIGGLL.dmpからデータをインポートします。 必ず、オブジェクト・ストアURIの<region><namespace>および<bucket-name>を置き換えてください:
    DECLARE
    ind NUMBER;  -- Loop index
    h1 NUMBER;  -- Data Pump job handle
    percent_done NUMBER;  -- Percentage of job complete
    job_state VARCHAR2(30);  -- To keep track of job state
    le ku$_LogEntry;  -- For WIP and error messages
    js ku$_JobStatus;  -- The job status from get_status
    jd ku$_JobDesc;  -- The job description from get_status
    sts ku$_Status;  -- The status object returned by get_status
    BEGIN
    
    -- Create a (user-named) Data Pump job to do a "full" import (everything
    -- in the dump file without filtering).
    h1 := DBMS_DATAPUMP.OPEN('IMPORT','FULL',NULL,'SRCMIRROR_OCIGGLL_IMPORT');
    
    -- Specify the single dump file for the job (using the handle just returned)
    -- and directory object, which must already be defined and accessible
    -- to the user running this procedure. This is the dump file created by
    -- the export operation in the first example.
    
    DBMS_DATAPUMP.ADD_FILE(h1,'https://objectstorage.<region>.oraclecloud.com/n/<namespace>/b/<bucket-name>/o/SRC_OCIGGLL.dmp','ADB_OBJECTSTORE',null,DBMS_DATAPUMP.KU$_FILE_TYPE_URIDUMP_FILE);
    
    
    -- A metadata remap will map all schema objects from SRC_OCIGGLL to SRCMIRROR_OCIGGLL.
    DBMS_DATAPUMP.METADATA_REMAP(h1,'REMAP_SCHEMA','SRC_OCIGGLL','SRCMIRROR_OCIGGLL');
    
    -- If a table already exists in the destination schema, skip it (leave
    -- the preexisting table alone). This is the default, but it does not hurt
    -- to specify it explicitly.
    DBMS_DATAPUMP.SET_PARAMETER(h1,'TABLE_EXISTS_ACTION','SKIP');
    
    -- Start the job. An exception is returned if something is not set up properly.
    DBMS_DATAPUMP.START_JOB(h1);
    
    -- The import job should now be running. In the following loop, the job is
    -- monitored until it completes. In the meantime, progress information is
    -- displayed. Note: this is identical to the export example.
    percent_done := 0;
    job_state := 'UNDEFINED';
    while (job_state != 'COMPLETED') and (job_state != 'STOPPED') loop
      dbms_datapump.get_status(h1,
        dbms_datapump.ku$_status_job_error +
        dbms_datapump.ku$_status_job_status +
        dbms_datapump.ku$_status_wip,-1,job_state,sts);
        js := sts.job_status;
    
      -- If the percentage done changed, display the new value.
      if js.percent_done != percent_done
      then
        dbms_output.put_line('*** Job percent done = ' ||
        to_char(js.percent_done));
        percent_done := js.percent_done;
      end if;
    
      -- If any work-in-progress (WIP) or Error messages were received for the job, display them.
      if (bitand(sts.mask,dbms_datapump.ku$_status_wip) != 0)
      then
        le := sts.wip;
      else
        if (bitand(sts.mask,dbms_datapump.ku$_status_job_error) != 0)
        then
          le := sts.error;
        else
          le := null;
        end if;
      end if;
      if le is not null
      then
        ind := le.FIRST;
        while ind is not null loop
          dbms_output.put_line(le(ind).LogText);
          ind := le.NEXT(ind);
        end loop;
      end if;
    end loop;
    
    -- Indicate that the job finished and gracefully detach from it.
    dbms_output.put_line('Job has completed');
    dbms_output.put_line('Final job state = ' || job_state);
    dbms_datapump.detach(h1);
    END;

タスク5: 非統合Replicatの追加と実行

  1. Replicatを追加して実行します
    「パラメータ・ファイル」画面で、MAP *.*, TARGET *.*;を次のスクリプトに置き換えます:
    -- Capture DDL operations for listed schema tables
    --
    ddl include mapped
    --
    -- Add step-by-step history of ddl operations captured
    -- to the report file. Very useful when troubleshooting.
    --
    ddloptions report
    --
    -- Write capture stats per table to the report file daily.
    --
    report at 00:01
    --
    -- Rollover the report file weekly. Useful when PR runs
    -- without being stopped/started for long periods of time to
    -- keep the report files from becoming too large.
    --
    reportrollover at 00:01 on Sunday
    --
    -- Report total operations captured, and operations per second
    -- every 10 minutes.
    --
    reportcount every 10 minutes, rate
    --
    -- Table map list for apply
    --
    DBOPTIONS ENABLE_INSTANTIATION_FILTERING;
    MAP SRC_OCIGGLL.*, TARGET SRCMIRROR_OCIGGLL.*;

    ノート:

    DBOPTIONS ENABLE_INSTATIATION_FILTERINGは、Oracle Data Pumpを使用してインポートされた表に対するCSNフィルタリングを有効にします。 詳細は、「DBOPTIONSリファレンス」を参照してください。
  2. ソース・データベースへの挿入を実行します:
    1. Oracle Cloudコンソールに戻り、ナビゲーション・メニューを使用して、Oracle DatabaseAutonomous Transaction ProcessingSourceATPに戻ります。
    2. 「ソースATP詳細」ページで、「データベース・アクション」をクリックしてから、「SQL」をクリックします。
    3. 次の挿入を入力し、「スクリプトの実行」をクリックします:
      Insert into SRC_OCIGGLL.SRC_CITY (CITY_ID,CITY,REGION_ID,POPULATION) values (1000,'Houston',20,743113);
      Insert into SRC_OCIGGLL.SRC_CITY (CITY_ID,CITY,REGION_ID,POPULATION) values (1001,'Dallas',20,822416);
      Insert into SRC_OCIGGLL.SRC_CITY (CITY_ID,CITY,REGION_ID,POPULATION) values (1002,'San Francisco',21,157574);
      Insert into SRC_OCIGGLL.SRC_CITY (CITY_ID,CITY,REGION_ID,POPULATION) values (1003,'Los Angeles',21,743878);
      Insert into SRC_OCIGGLL.SRC_CITY (CITY_ID,CITY,REGION_ID,POPULATION) values (1004,'San Diego',21,840689);
      Insert into SRC_OCIGGLL.SRC_CITY (CITY_ID,CITY,REGION_ID,POPULATION) values (1005,'Chicago',23,616472);
      Insert into SRC_OCIGGLL.SRC_CITY (CITY_ID,CITY,REGION_ID,POPULATION) values (1006,'Memphis',23,580075);
      Insert into SRC_OCIGGLL.SRC_CITY (CITY_ID,CITY,REGION_ID,POPULATION) values (1007,'New York City',22,124434);
      Insert into SRC_OCIGGLL.SRC_CITY (CITY_ID,CITY,REGION_ID,POPULATION) values (1008,'Boston',22,275581);
      Insert into SRC_OCIGGLL.SRC_CITY (CITY_ID,CITY,REGION_ID,POPULATION) values (1009,'Washington D.C.',22,688002);
    4. OCI GoldenGateデプロイメント・コンソールで、「抽出名(UAEXT)」をクリックし、「統計」をクリックします。 SRC_OCIGGLL.SRC_CITYが10個の挿入とともにリストされていることを確認します。
    5. 「概要」画面に戻り、「Replicat名(REP)」をクリックし、「統計」をクリックします。 SRCMIRROR_OCIGGLL.SRC_CITYが10個の挿入とともにリストされていることを確認

タスク6: データ変換リソースの作成

  1. データ変換デプロイメントを作成します。
  2. 汎用接続の作成

    ノート:

    たとえば、米国東部(アッシュバーン)のAutonomous Databasesでは、次の値を使用します:
    • 「ホスト」には、adb.us-ashburn-1.oraclecloud.com:1522と入力します。
    • 「サブネット」で、ドロップダウンからデプロイメントと同じサブネットを選択します。
  3. デプロイメントへの汎用接続の割当て
  4. Autonomous Data Warehouse (ADW)インスタンスのSRCMIRROR_OCIGGLLにTRG_CUSTOMERを作成します:
    1. Oracle Cloudコンソールで、「ナビゲーション・メニュー」を開き、Oracle Databaseに移動して、Autonomous Data Warehouseを選択します。
    2. Autonomous Databasesページで、ADWインスタンスをクリックします。
    3. ADWのAutonomous Database詳細ページで、「データベース・アクション」をクリックし、ドロップダウンからSQLを選択します。 「データベース・アクション」メニューのロードに時間がかかりすぎる場合は、データベース・アクションを直接クリックしてから、「データベース・アクション」ページから「SQL」を選択できます。
    4. ワークシートに次のように入力し、「文の実行」をクリックします。
      create table SRCMIRROR_OCIGGLL.TRG_CUSTOMER (
         CUST_ID              NUMBER(10,0)     not null,
         DEAR                 VARCHAR2(4 BYTE),
         CUST_NAME            VARCHAR2(50 BYTE),
         ADDRESS              VARCHAR2(100 BYTE),
         CITY_ID              NUMBER(10,0),
         PHONE                VARCHAR2(50 BYTE),
         AGE                  NUMBER(3,0),
         AGE_RANGE            VARCHAR2(50 BYTE),
         SALES_PERS           VARCHAR2(50 BYTE),
         CRE_DATE             DATE,
         UPD_DATE             DATE,
         constraint PK_TRG_CUSTOMER primary key (CUST_ID)
      );
  5. Data Transformsデプロイメント・コンソールを起動します:
    1. 「デプロイメント」ページに戻り、タスク6で作成したデプロイメントを選択します。
    2. デプロイメントの詳細ページで、「コンソールの起動」をクリックします。
    3. Data Transformsデプロイメント・コンソールにログインします。
  6. ADW接続の作成:
    1. ナビゲーション・メニューを開き、「接続」「接続の作成」の順にクリックします。
    2. 「タイプの選択」ページの「データベース」で、「Oracle」を選択し、「次」をクリックします。
    3. 「接続の詳細」ページで、次のようにフォーム・フィールドに入力し、作成をクリックします:
      1. 「名前」に、ADW_IADと入力します。
      2. 「資格証明ファイルの使用」を選択します。
      3. Walletファイルの場合は、(ADW)ウォレット・ファイルをアップロードします。

        ノート:

        ADWウォレット・ファイルをダウンロードするには、「ADWの詳細」ページで「データベース接続」をクリックします。
      4. 「サービス」ドロップダウンから、<name>_lowを選択します。
      5. 「ユーザー」に、ADMINと入力します。
      6. 「パスワード」に、ADWパスワードを入力します。
  7. データ・エンティティのインポート:
    1. ナビゲーション・メニューを開き、「データ・エンティティ」「データ・エンティティのインポート」の順にクリックします。
    2. 「接続」で、ドロップダウンからADW_IADを選択します。
    3. 「スキーマ」で、ドロップダウンからSRCMIRROR_OCIGGLLを選択します。
    4. 「起動」をクリックします。
  8. プロジェクトの作成:
    1. ナビゲーション・メニューを開き、「プロジェクト」をクリックします。
    2. 「プロジェクト」ページで、「プロジェクトの作成」をクリックします。
    3. 「プロジェクトの作成」ダイアログで、「名前」にdemo-pipelineと入力し、「作成」をクリックします。

タスク7: ワークフローの作成と実行

  1. データ・フローの作成:
    1. プロジェクトの名前を選択します。
    2. 「プロジェクトの詳細」ページの「リソース」で、「データ・フロー」をクリックし、「データ・フローの作成」をクリックします。
    3. 「データ・フローの作成」ダイアログで、「名前」に「TRG_CUSTOMERのロード」と入力し、オプションで説明を入力します。 「Create」をクリックします。 デザイン・キャンバスが開きます。
    4. 「スキーマの追加」ダイアログで、次のようにフォーム・フィールドに入力し、OKをクリックします:
      1. 「接続」で、ドロップダウンからADW_IADを選択します。
      2. 「スキーマ」で、ドロップダウンからSRCMIRROR_OCIGGLLを選択します。
    5. 次のデータ・エンティティおよびコンポーネントをデザイン・キャンバスにドラッグします:
      1. 「データ・エンティティ」パネルで、SRCMIRROR_OCIGGLLスキーマを展開します。 SRC_AGE_GROUPデータ・エンティティをデザイン・キャンバスにドラッグします。
      2. 「データ・エンティティ」パネルで、SRCMIRROR_OCIGGLLスキーマを展開します。 SRC_SALES_PERSONデータ・エンティティをデザイン・キャンバスにドラッグします。
      3. 「データ変換」ツールバーから、「参照」コンポーネントをデザイン・キャンバスにドラッグします。
      4. 「データ変換」ツールバーから、「結合」コンポーネントをデザイン・キャンバスにドラッグします。
      5. 「データ・エンティティ」パネルのSRCMIRROR_OCIGGLLで、SRC_CUSTOMERデータ・エンティティをデザイン・キャンバスにドラッグします。
    6. 次のデータ・エンティティを参照コンポーネントに接続します:
      1. SRC_AGE_GROUPコネクタ・アイコンをクリックし、アイコンを「参照」コンポーネントにドラッグします。
      2. SRC_CUSTOMERコネクタ・アイコンをクリックし、アイコンを「参照」コンポーネントにドラッグします。
    7. デザイン・キャンバスで、「参照」をクリックして「参照」パネルを開きます。 「ルックアップ」パネルで、属性タブに切り替えてから、次の問合せを参照条件に貼り付けます:
      SRC_CUSTOMER.AGE between SRC_AGE_GROUP.AGE_MIN and SRC_AGE_GROUP.AGE_MAX
    8. 次のコンポーネントを結合コンポーネントに接続します:
      1. SRC_SALES_PERSONコネクタ・アイコンをクリックし、アイコンを「結合」コンポーネントにドラッグします。
      2. 「参照」コネクタ・アイコンをクリックし、アイコンを「結合」コンポーネントにドラッグします。
    9. デザイン・キャンバスで、「結合」をクリックして「結合」パネルを開きます。 「結合」パネルで、属性タブに切り替えてから、次の問合せを結合条件に貼り付けます:
      SRC_CUSTOMER.SALES_PERS_ID=SRC_SALES_PERSON.SALES_PERS_ID
    10. 次のデータ・エンティティおよびコンポーネントをデザイン・キャンバスにドラッグします:
      1. 「データ・エンティティ」パネルのSRCMIRROR_OCIGGLLで、TRG_CUSTOMERデータ・エンティティをデザイン・キャンバスにドラッグします。
      2. 「結合」コネクタ・アイコンをクリックし、アイコンをTRG_CUSTOMERデータ・エンティティにドラッグします。
      3. デザイン・キャンバスで、TRG_CUSTOMERをクリックしてデータ・エンティティを展開します。
    11. 「属性」タブで、CUST_IDのKeyを有効にし、CRE_DATEのUpdateを無効にし、UPD_DATEのInsertを無効にします。
    12. 列マッピングタブで、名前が式と一致していることを確認します:
      1. CUST_ID
        SRC_CUSTOMER.CUSTID
      2. DEAR
        CASE WHEN SRC_CUSTOMER.DEAR = 0 THEN 'Mr' WHEN SRC_CUSTOMER.DEAR = 1 THEN 'Mrs' ELSE 'Ms' END
      3. CUST_NAME
        SRC_CUSTOMER.FIRST_NAME || ' ' || UPPER(SRC_CUSTOMER.LAST_NAME)
      4. SALES_PERS
        SRC_SALES_PERSON.FIRST_NAME || ' ' ||UPPER(SRC_SALES_PERSON.LAST_NAME)
      5. CRE_DATE
        SYSDATE
      6. UPD_DATE
        SYSDATE
      7. 他のマッピングをそのまま使用します。
    13. 「オプション」タブの「モード」で、ドロップダウンから「増分更新」を選択します。
    14. TRG_CUSTOMERを閉じます。
    15. 「データ・フローの保存」をクリックします。
  2. ワークフローの作成:
    1. プロジェクトの名前を選択し、「ワークフロー」を選択し、「ワークフローの作成」を選択します。
    2. 名前には、「データ・ウェアハウス・ロードの調整」と入力します。 「Create」をクリックします。
    3. デザイン・キャンバスでSQLアイコンをドラッグします。
    4. エディタでSQLステップをダブルクリックし、ステップ・プロパティのページを開きます。
    5. 「一般」タブで、名前として「データ整備」と入力します。
    6. 「接続」で「属性」タブを選択し、ドロップダウンからADW_IADを選択します。
    7. SQLの場合は、次の問合せをコピーします:
      delete from SRCMIRROR_OCIGGLL.TRG_CUSTOMER where CITY_ID > 110
    8. SQLを閉じます。
    9. 「データ・フロー」で、TRG_CUSTOMERデータ・フローをデザイン・キャンバスにドラッグします。
    10. 「データ整備」 SQLワークフロー行をクリックし、OK (緑の矢印)アイコンをTRG_CUSTOMERデータ・フローにドラッグします。
    11. 「ワークフローの保存」をクリックし、「ワークフローの開始」を次にクリックします。
  3. ジョブの作成および管理