Répliquer des données entre des bases de données en nuage dans la même région

Voyez comment configurer GoldenGate pour Oracle Cloud Infrastructure pour répliquer des données entre deux bases de données autonomes.

Aperçu

Le service GoldenGate pour Oracle Cloud Infrastructure vous permet de répliquer des bases de données prises en charge dans la même région. Les étapes suivantes vous guident lors de l'instanciation d'une base de données cible à l'aide d'Oracle Data Pump et la réplication des données de la source vers la cible.

Ce démarrage rapide est également disponible en tant que LiveLab : Voir l'atelier.

Une description de same-region.png suit
Description de l'illustration same-region.png

Avant de commencer

Pour continuer, vous devez disposer des éléments suivants :

Tâche 1 : Configurer l'environnement

  1. Créer un déploiement de réplication des données.
  2. Créez une connexion Oracle Autonomous Transaction Processing (ATP) source.
  3. Créez une connexion à la base de données Autonomous Data Warehouse (ADW) cible.
  4. Affectez une connexion au déploiement.
  5. Utilisez l'outil SQL d'Autonomous Database pour activer la journalisation supplémentaire :
    ALTER DATABASE ADD SUPPLEMENTAL LOG DATA
  6. Exécutez l'interrogation suivante dans l'outil SQL pour vous assurer que support_mode=FULL pour toutes les tables de la base de données source :
    
    select * from DBA_GOLDENGATE_SUPPORT_MODE where owner = 'SRC_OCIGGLL';

Tâche 2 : Créer le processus d'extraction intégrée

Une extraction intégrée saisit les modifications en cours apportées à la base de données source.

  1. Dans la page Détails du déploiement, cliquez sur Lancer la console.
  2. Si nécessaire, entrez oggadmin pour le nom d'utilisateur et le mot de passe que vous avez utilisés lors de la création du déploiement, puis cliquez sur Connexion.
  3. Ajoutez des données de transaction et une table de points de reprise :
    1. Ouvrez le menu de navigation, puis cliquez sur Connexions à la base de données.
    2. Cliquez sur Se connecter à la base de données SourceATP.
    3. Dans le menu de navigation, cliquez sur Trandata, puis sur Ajouter Trandata (icône plus).
    4. Pour Nom du schéma, entrez SRC_OCIGGLL, puis cliquez sur Soumettre.
    5. Pour vérifier, entrez SRC_OCIGGLL dans le champ Rechercher et cliquez sur Rechercher.
    6. Ouvrez le menu de navigation, puis cliquez sur Connexions à la base de données.
    7. Cliquez sur Se connecter à la base de données TargetADW.
    8. Dans le menu de navigation, cliquez sur Point de vérification, puis sur Ajouter un point de vérification (icône plus).
    9. Pour Table de points de vérification, entrez "SRCMIRROR_OCIGGLL"."CHECKTABLE", puis cliquez sur Soumettre.
  4. Ajoutez un processus d'extraction.

    Note :

    Voir Options supplémentaires de paramètre d'extraction pour plus d'informations sur les paramètres que vous pouvez utiliser pour spécifier des tables sources.
    Dans la page Paramètres d'extraction, ajoutez les lignes suivantes sous EXTTRAIL <trail-name> :
    -- Capture DDL operations for listed schema tables
    ddl include mapped
    
    -- Add step-by-step history of 
    -- to the report file. Very useful when troubleshooting.
    ddloptions report 
    
    -- Write capture stats per table to the report file daily.
    report at 00:01 
    
    -- Rollover the report file weekly. Useful when IE runs
    -- without being stopped/started for long periods of time to
    -- keep the report files from becoming too large.
    reportrollover at 00:01 on Sunday 
    
    -- Report total operations captured, and operations per second
    -- every 10 minutes.
    reportcount every 10 minutes, rate 
    
    -- Table list for capture
    table SRC_OCIGGLL.*;
  5. Vérifiez les transactions de longue durée. Exécutez le script suivant sur votre base de données source :
    select start_scn, start_time from gv$transaction where start_scn < (select max(start_scn) from dba_capture);

    Si l'interrogation retourne des rangées, vous devez localiser le numéro SCN de la transaction, puis valider ou repositionner celle-ci.

Tâche 3 : Exporter des données à l'aide d'Oracle Data Pump (ExpDP)

Utilisez Oracle Data Pump (ExpDP) pour exporter des données de la base de données source vers le magasin d'objets Oracle.

  1. Créez un seau du magasin d'objets Oracle.

    Notez l'espace de noms et le nom du seau à utiliser avec les scripts d'exportation et d'importation.

  2. Créez un jeton d'authentification, puis copiez et collez la chaîne du jeton dans un éditeur de texte pour une utilisation ultérieure.
  3. Créez des données d'identification dans votre base de données source, en remplaçant <user-name> et <token> par le nom d'utilisateur de votre compte Oracle Cloud et la chaîne du jeton que vous avez créée à l'étape précédente :
    BEGIN
      DBMS_CLOUD.CREATE_CREDENTIAL(
        credential_name => 'ADB_OBJECTSTORE', 
        username => '<user-name>',
        password => '<token>'
      );
    END;
  4. Exécutez le script suivant dans la base de données source pour créer la tâche d'exportation de données. Assurez-vous de remplacer les valeurs <region>, <namespace> et <bucket-name> dans l'URI du magasin d'objets en conséquence. SRC_OCIGGLL.dmp est un fichier qui sera créé lors de l'exécution de ce script.
    DECLARE
    ind NUMBER;              -- Loop index
    h1 NUMBER;               -- Data Pump job handle
    percent_done NUMBER;     -- Percentage of job complete
    job_state VARCHAR2(30);  -- To keep track of job state
    le ku$_LogEntry;         -- For WIP and error messages
    js ku$_JobStatus;        -- The job status from get_status
    jd ku$_JobDesc;          -- The job description from get_status
    sts ku$_Status;          -- The status object returned by get_status
    
    BEGIN
    -- Create a (user-named) Data Pump job to do a schema export.
    h1 := DBMS_DATAPUMP.OPEN('EXPORT','SCHEMA',NULL,'SRC_OCIGGLL_EXPORT','LATEST');
    
    -- Specify a single dump file for the job (using the handle just returned
    -- and a directory object, which must already be defined and accessible
    -- to the user running this procedure.
    DBMS_DATAPUMP.ADD_FILE(h1,'https://objectstorage.<region>.oraclecloud.com/n/<namespace>/b/<bucket-name>/o/SRC_OCIGGLL.dmp','ADB_OBJECTSTORE','100MB',DBMS_DATAPUMP.KU$_FILE_TYPE_URIDUMP_FILE,1);
    
    -- A metadata filter is used to specify the schema that will be exported.
    DBMS_DATAPUMP.METADATA_FILTER(h1,'SCHEMA_EXPR','IN (''SRC_OCIGGLL'')');
    
    -- Start the job. An exception will be generated if something is not set up properly.
    DBMS_DATAPUMP.START_JOB(h1);
    
    -- The export job should now be running. In the following loop, the job
    -- is monitored until it completes. In the meantime, progress information is displayed.
    percent_done := 0;
    job_state := 'UNDEFINED';
    while (job_state != 'COMPLETED') and (job_state != 'STOPPED') loop
      dbms_datapump.get_status(h1,dbms_datapump.ku$_status_job_error + dbms_datapump.ku$_status_job_status + dbms_datapump.ku$_status_wip,-1,job_state,sts);
      js := sts.job_status;
    
    -- If the percentage done changed, display the new value.
    if js.percent_done != percent_done
    then
      dbms_output.put_line('*** Job percent done = ' || to_char(js.percent_done));
      percent_done := js.percent_done;
    end if;
    
    -- If any work-in-progress (WIP) or error messages were received for the job, display them.
    if (bitand(sts.mask,dbms_datapump.ku$_status_wip) != 0)
    then
      le := sts.wip;
    else
      if (bitand(sts.mask,dbms_datapump.ku$_status_job_error) != 0)
      then
        le := sts.error;
      else
        le := null;
      end if;
    end if;
    if le is not null
    then
      ind := le.FIRST;
      while ind is not null loop
        dbms_output.put_line(le(ind).LogText);
        ind := le.NEXT(ind);
      end loop;
    end if;
      end loop;
    
      -- Indicate that the job finished and detach from it.
      dbms_output.put_line('Job has completed');
      dbms_output.put_line('Final job state = ' || job_state);
      dbms_datapump.detach(h1);
    END;

Tâche 4 : Instancier la base de données cible à l'aide d'Oracle Data Pump (ImpDP)

Utilisez Oracle Data Pump (ImpDP) pour importer des données dans la base de données cible à partir du fichier SRC_OCIGGLL.dmp exporté à partir de la base de données source.

  1. Créez des données d'identification dans la base de données cible pour accéder au magasin d'objets Oracle (à l'aide des mêmes informations que dans la section précédente).
    BEGIN
      DBMS_CLOUD.CREATE_CREDENTIAL( 
        credential_name => 'ADB_OBJECTSTORE',
        username => '<user-name>',
        password => '<token>'
      );
    END;
  2. Exécutez le script suivant dans la base de données cible pour importer les données du fichier SRC_OCIGGLL.dmp. Assurez-vous de remplacer les valeurs <region>, <namespace> et <bucket-name> dans l'URI du magasin d'objets en conséquence :
    DECLARE
    ind NUMBER;  -- Loop index
    h1 NUMBER;  -- Data Pump job handle
    percent_done NUMBER;  -- Percentage of job complete
    job_state VARCHAR2(30);  -- To keep track of job state
    le ku$_LogEntry;  -- For WIP and error messages
    js ku$_JobStatus;  -- The job status from get_status
    jd ku$_JobDesc;  -- The job description from get_status
    sts ku$_Status;  -- The status object returned by get_status
    BEGIN
    
    -- Create a (user-named) Data Pump job to do a "full" import (everything
    -- in the dump file without filtering).
    h1 := DBMS_DATAPUMP.OPEN('IMPORT','FULL',NULL,'SRCMIRROR_OCIGGLL_IMPORT');
    
    -- Specify the single dump file for the job (using the handle just returned)
    -- and directory object, which must already be defined and accessible
    -- to the user running this procedure. This is the dump file created by
    -- the export operation in the first example.
    
    DBMS_DATAPUMP.ADD_FILE(h1,'https://objectstorage.<region>.oraclecloud.com/n/<namespace>/b/<bucket-name>/o/SRC_OCIGGLL.dmp','ADB_OBJECTSTORE',null,DBMS_DATAPUMP.KU$_FILE_TYPE_URIDUMP_FILE);
    
    
    -- A metadata remap will map all schema objects from SRC_OCIGGLL to SRCMIRROR_OCIGGLL.
    DBMS_DATAPUMP.METADATA_REMAP(h1,'REMAP_SCHEMA','SRC_OCIGGLL','SRCMIRROR_OCIGGLL');
    
    -- If a table already exists in the destination schema, skip it (leave
    -- the preexisting table alone). This is the default, but it does not hurt
    -- to specify it explicitly.
    DBMS_DATAPUMP.SET_PARAMETER(h1,'TABLE_EXISTS_ACTION','SKIP');
    
    -- Start the job. An exception is returned if something is not set up properly.
    DBMS_DATAPUMP.START_JOB(h1);
    
    -- The import job should now be running. In the following loop, the job is
    -- monitored until it completes. In the meantime, progress information is
    -- displayed. Note: this is identical to the export example.
    percent_done := 0;
    job_state := 'UNDEFINED';
    while (job_state != 'COMPLETED') and (job_state != 'STOPPED') loop
      dbms_datapump.get_status(h1,
        dbms_datapump.ku$_status_job_error +
        dbms_datapump.ku$_status_job_status +
        dbms_datapump.ku$_status_wip,-1,job_state,sts);
        js := sts.job_status;
    
      -- If the percentage done changed, display the new value.
      if js.percent_done != percent_done
      then
        dbms_output.put_line('*** Job percent done = ' ||
        to_char(js.percent_done));
        percent_done := js.percent_done;
      end if;
    
      -- If any work-in-progress (WIP) or Error messages were received for the job, display them.
      if (bitand(sts.mask,dbms_datapump.ku$_status_wip) != 0)
      then
        le := sts.wip;
      else
        if (bitand(sts.mask,dbms_datapump.ku$_status_job_error) != 0)
        then
          le := sts.error;
        else
          le := null;
        end if;
      end if;
      if le is not null
      then
        ind := le.FIRST;
        while ind is not null loop
          dbms_output.put_line(le(ind).LogText);
          ind := le.NEXT(ind);
        end loop;
      end if;
    end loop;
    
    -- Indicate that the job finished and gracefully detach from it.
    dbms_output.put_line('Job has completed');
    dbms_output.put_line('Final job state = ' || job_state);
    dbms_datapump.detach(h1);
    END;

Tâche 5 : Ajouter et exécuter un processus de réplication non intégrée

  1. Ajoutez et exécutez une réplication.
    Dans l'écran Fichier de paramètre, remplacez MAP *.*, TARGET *.*; par le script suivant :
    -- Capture DDL operations for listed schema tables
    --
    ddl include mapped
    --
    -- Add step-by-step history of ddl operations captured
    -- to the report file. Very useful when troubleshooting.
    --
    ddloptions report
    --
    -- Write capture stats per table to the report file daily.
    --
    report at 00:01
    --
    -- Rollover the report file weekly. Useful when PR runs
    -- without being stopped/started for long periods of time to
    -- keep the report files from becoming too large.
    --
    reportrollover at 00:01 on Sunday
    --
    -- Report total operations captured, and operations per second
    -- every 10 minutes.
    --
    reportcount every 10 minutes, rate
    --
    -- Table map list for apply
    --
    DBOPTIONS ENABLE_INSTANTIATION_FILTERING;
    MAP SRC_OCIGGLL.*, TARGET SRCMIRROR_OCIGGLL.*;

    Note :

    DBOPTIONS ENABLE_INSTATIATION_FILTERING permet le filtrage du CSN sur les tables importées à l'aide d'Oracle Data Pump. Pour plus d'informations, voir Informations de référence sur DBOPTIONS.
  2. Effectuez des insertions dans la base de données source :
    1. Retournez à la console Oracle Cloud et utilisez le menu de navigation pour revenir à Oracle Database, Autonomous Transaction Processing, puis à SourceATP.
    2. Dans la page Détails du DAV source, cliquez sur Outils, puis sur Actions de base de données.
    3. Utilisez les données d'identification de la base de données ATP source dans les détails de l'atelier pour vous connecter aux actions de base de données, puis cliquez sur SQL.
    4. Entrez les insertions suivantes, puis cliquez sur Exécuter le script :
      Insert into SRC_OCIGGLL.SRC_CITY (CITY_ID,CITY,REGION_ID,POPULATION) values (1000,'Houston',20,743113);
      Insert into SRC_OCIGGLL.SRC_CITY (CITY_ID,CITY,REGION_ID,POPULATION) values (1001,'Dallas',20,822416);
      Insert into SRC_OCIGGLL.SRC_CITY (CITY_ID,CITY,REGION_ID,POPULATION) values (1002,'San Francisco',21,157574);
      Insert into SRC_OCIGGLL.SRC_CITY (CITY_ID,CITY,REGION_ID,POPULATION) values (1003,'Los Angeles',21,743878);
      Insert into SRC_OCIGGLL.SRC_CITY (CITY_ID,CITY,REGION_ID,POPULATION) values (1004,'San Diego',21,840689);
      Insert into SRC_OCIGGLL.SRC_CITY (CITY_ID,CITY,REGION_ID,POPULATION) values (1005,'Chicago',23,616472);
      Insert into SRC_OCIGGLL.SRC_CITY (CITY_ID,CITY,REGION_ID,POPULATION) values (1006,'Memphis',23,580075);
      Insert into SRC_OCIGGLL.SRC_CITY (CITY_ID,CITY,REGION_ID,POPULATION) values (1007,'New York City',22,124434);
      Insert into SRC_OCIGGLL.SRC_CITY (CITY_ID,CITY,REGION_ID,POPULATION) values (1008,'Boston',22,275581);
      Insert into SRC_OCIGGLL.SRC_CITY (CITY_ID,CITY,REGION_ID,POPULATION) values (1009,'Washington D.C.',22,688002);
    5. Dans la console de déploiement d'OCI GoldenGate, cliquez sur Nom d'extraction (UAEXT), puis sur Statistiques. Vérifiez que SRC_OCIGGLL.SRC_CITY est listé avec 10insertion.
    6. Retournez à l'écran Aperçu, cliquez sur Nom de réplication (REP), puis sur Statistiques. Vérifiez que SRCMIRROR_OCIGGLL.SRC_CITY est listé avec 10 insertions

Tâche 6 : Surveiller et tenir à jour les processus

  1. Surveillez le processus de réplication.
  2. Gérez les fichiers de piste.