Replica dati da Autonomous Transaction Processing a Kafka confluente

Questa istanza rapida mostra come replicare i dati da Autonomous Transaction Processing a Confluent Kafka utilizzando OCI GoldenGate.

Prima di iniziare

Per completare correttamente questo avvio rapido, è necessario disporre dei seguenti elementi:

  • Istanza di Autonomous Transaction Processing di origine.
  • Istanza di Confluent Platform.

Impostazione dell'ambiente: Autonomous Transaction Processing

Se non si dispone già di un database di origine impostato per la replica, è possibile attenersi alla procedura riportata di seguito per caricare uno schema di esempio da utilizzare per questo avvio rapido. Questa istanza rapida utilizza Autonomous Transaction Processing per il database di origine.

Per impostare l'Autonomous Database di origine, effettuare le operazioni riportate di seguito.

  1. Scaricare ed estrarre lo schema di database di esempio.
  2. Nella console di Oracle Cloud, selezionare l'istanza ATP (Autonomous Transaction Processing) dalla pagina Autonomous Database per visualizzarne i dettagli e accedere a Database Actions.
  3. Sbloccare l'utente GGADMIN:
    1. Fare clic su Azioni di database, quindi fare clic su Utenti di database.
    2. Individuare GGADMIN, quindi fare clic sul relativo menu con i puntini (tre punti) e selezionare Modifica.
    3. Nel pannello Modifica utente, immettere la password GGADMIN, confermare la password, quindi deselezionare L'account è bloccato.
    4. Fare clic su Applica modifiche.
  4. Caricare lo schema e i dati di esempio di origine:
    1. Nel menu Database Actions, in Sviluppo, selezionare SQL.
    2. Copiare e incollare lo script da OCIGGLL_OCIGGS_SETUP_USERS_ATP.sql nel foglio di lavoro SQL.
    3. Fare clic su Esegui script. La scheda Output script visualizza i messaggi di conferma.
    4. Cancellare il foglio di lavoro SQL, quindi copiare e incollare lo script SQL da OCIGGLL_OCIGGS_SRC_USER_SEED_DATA.sql.

      Suggerimento

      Potrebbe essere necessario eseguire ciascuna istruzione separatamente affinché lo strumento SQL esegua correttamente gli script.
    5. Per verificare che le tabelle siano state create correttamente, chiudere la finestra SQL e riaprirla. Nella scheda Navigator, cercare lo schema SRC_OCIGGLL, quindi selezionare le tabelle dai rispettivi elenchi a discesa.
  5. Abilita il log supplementare:
    1. Cancellare il foglio di lavoro SQL.
    2. Immettere la seguente istruzione, quindi fare clic su Esegui istruzione:
      ALTER PLUGGABLE DATABASE ADD SUPPLEMENTAL LOG DATA;

Impostazione dell'ambiente: Confluent Cloud

Se non si dispone già di un cluster, di un argomento e di uno schema Confluent Cloud di destinazione, è possibile effettuare le operazioni riportate di seguito.
  1. Crea un cluster.
  2. Creare una chiave API per il cluster. Prendere nota della chiave e del segreto API per i passi successivi.
  3. Abilita registro degli schemi, quindi creare una chiave API per il registro degli schemi di Confluent Cloud. Prendere nota della chiave e del segreto API per i passi successivi.
  4. Creare un argomento nel cluster. Prendere nota del nome dell'argomento per i passi successivi.

Task 1: creare le risorse GoldenGate OCI

Questo esempio di avvio rapido richiede distribuzioni e connessioni sia per l'origine che per la destinazione.
  1. Creare una distribuzione Oracle per l'istanza di Autonomous Transaction Processing di origine.
  2. Creare una distribuzione Big Data per Confluent Cloud di destinazione.
  3. Creare una connessione all'Autonomous Transaction Processing di origine.
  4. Creare una connessione Kafka di tipo Confluent.
  5. Creare un registro degli schemi Confluent.
  6. (Facoltativo) Se la distribuzione dei Big Data non dispone di un endpoint pubblico, creare una connessione a GoldenGate, quindi assegnare questa connessione alla distribuzione Oracle di origine.
  7. Assegnare la connessione Autonomous Transaction Processing all'implementazione Oracle di origine.
  8. Assegnare le connessioni Confluent Kafka e Confluent Schema Registry alla distribuzione dei Big Data di destinazione.

Task 2: Aggiungi estrazione

  1. Nella pagina Distribuzioni selezionare la distribuzione di Autonomous Transaction Processing di origine.
  2. Nella pagina dei dettagli della distribuzione, fare clic su Avvia console.
  3. Eseguire il login con il nome utente e la password dell'amministratore della distribuzione di origine.
  4. Aggiungi informazioni sulla transazione.
  5. Aggiungi un Extract

Task 3: aggiungere ed eseguire Distribution Path

  1. Se si utilizza l'area di memorizzazione delle credenziali GoldenGate, creare un utente per il percorso di distribuzione nella distribuzione dei Big Data destinazione, altrimenti passare al passo 3.
  2. Nella console di distribuzione ATP origine GoldenGate, aggiungere una connessione percorso per l'utente creato nel passo 1.
    1. Nella console di distribuzione ATP di origine GoldenGate, fare clic su Connessioni percorso nella navigazione a sinistra.
    2. Fare clic su Aggiungi connessione percorso (icona più), quindi completare le operazioni riportate di seguito.
      1. In Alias credenziale, immettere GGSNetwork.
      2. In ID utente, immettere il nome dell'utente creato nel passo 1.
      3. Immettere due volte la password dell'utente per verifica.
    3. Fare clic su Sottometti.

      La connessione percorso viene visualizzata nella lista Connessioni percorso.

  3. Nella console di distribuzione ATP origine, aggiungere un percorso di distribuzione con i valori riportati di seguito.
    1. Nella pagina Opzioni di origine:
      • In Estrazione origine selezionare l'estrazione creata nel task 2.
      • In Nome traccia, immettere un nome di due caratteri, ad esempio E1.
    2. Nella pagina Opzioni di destinazione:
      • Per Host di destinazione, immettere il dominio host della distribuzione di destinazione.
      • In Numero porta, immettere 443.
      • In Nome traccia, immettere un nome di due caratteri, ad esempio E1.
      • Per Alias, immettere l'alias di credenziale creato nel passo 2.
  4. Nella console di distribuzione dei Big Data destinazione, esaminare il file Receiver Path creato come risultato del file Distribution Path.
    1. Nella console di distribuzione dei Big Data di destinazione, fare clic su Receiver Service.
    2. Esaminare i dettagli del percorso. Questo percorso è stato creato come risultato della creazione di Distribution Path nel passo precedente.

Task 4: aggiungere ed eseguire Replicat

  1. Nella console di distribuzione dei Big Data di destinazione, fare clic su Administrator Service, quindi su Add Replicat (icona più).
  2. Aggiungere un valore Replicat con i seguenti valori:
    1. Nella pagina Replicat Informazioni, sotto il tipo Replicat, selezionare Coordinated Replicat, immettere un nome di processo, quindi fare clic su Successivo.
    2. Nella pagina Opzioni replica:
      • Per Nome, inserire il nome del trail dal task 2.
      • Per Dominio, selezionare un dominio.
      • Per Alias, selezionare la connessione Kafka di tipo Confluent creata nel task 1.
      • Per Tabella checkpoint, selezionare la tabella di checkpoint creata per la distribuzione di destinazione.
    3. Nella pagina Parametri Replicat, sostituire MAP *.*, TARGET *.*; con:
      MAP SRC_OCIGGLL.SRC_CUSTOMER, Table SRC.CUSTOMER;
  3. Fare clic su Crea ed esegui.
Si torna alla pagina Panoramica, in cui è possibile rivedere i dettagli di Replicat.

Task 5: verificare la replica

Eseguire alcuni aggiornamenti all'istanza di Autonomous Transaction Processing di origine per verificare la replica in Confluent Kafka Cloud.
  1. Nella console di Oracle Cloud, aprire il menu di navigazione, selezionare Oracle Database, quindi selezionare Autonomous Transaction Processing.
  2. Nella lista delle istanze di Autonomous Transaction Processing, selezionare l'istanza di origine per visualizzarne i dettagli.
  3. Nella pagina dei dettagli del database, fare clic su Azioni del database.

    Nota

    Dovresti essere connesso automaticamente. In caso contrario, eseguire il login con le credenziali del database.
  4. Nella home page Database Actions selezionare SQL.
  5. Immettere quanto segue nel foglio di lavoro e fare clic su Esegui script.
    Insert into SRC_OCIGGLL.SRC_CITY (CITY_ID,CITY,REGION_ID,POPULATION) values (1000,'Houston',20,743113);
    Insert into SRC_OCIGGLL.SRC_CITY (CITY_ID,CITY,REGION_ID,POPULATION) values (1001,'Dallas',20,822416);
    Insert into SRC_OCIGGLL.SRC_CITY (CITY_ID,CITY,REGION_ID,POPULATION) values (1002,'San Francisco',21,157574);
    Insert into SRC_OCIGGLL.SRC_CITY (CITY_ID,CITY,REGION_ID,POPULATION) values (1003,'Los Angeles',21,743878);
    Insert into SRC_OCIGGLL.SRC_CITY (CITY_ID,CITY,REGION_ID,POPULATION) values (1004,'San Diego',21,840689);
    Insert into SRC_OCIGGLL.SRC_CITY (CITY_ID,CITY,REGION_ID,POPULATION) values (1005,'Chicago',23,616472);
    Insert into SRC_OCIGGLL.SRC_CITY (CITY_ID,CITY,REGION_ID,POPULATION) values (1006,'Memphis',23,580075);
    Insert into SRC_OCIGGLL.SRC_CITY (CITY_ID,CITY,REGION_ID,POPULATION) values (1007,'New York City',22,124434);
    Insert into SRC_OCIGGLL.SRC_CITY (CITY_ID,CITY,REGION_ID,POPULATION) values (1008,'Boston',22,275581);
    Insert into SRC_OCIGGLL.SRC_CITY (CITY_ID,CITY,REGION_ID,POPULATION) values (1009,'Washington D.C.',22,688002);
  6. Nella console di distribuzione ATP di origine, selezionare il nome Extract, quindi fare clic su Statistiche. Verificare che in SRC_OCIGGLL.SRC_CITY siano presenti 10 inserimenti.
  7. Nella console di distribuzione GoldenGate OCI dei Big Data di destinazione, selezionare il nome Replicat, quindi fare clic su Statistiche. Verificare che in SRC_OCIGGLL.SRC_CUSTOMER siano presenti 7 inserimenti.

Task 6: (facoltativo) verificare la replica nell'interfaccia CLI di Confluent

  1. Installare Confluent CLI nel sistema.
  2. Esegui:
    export PATH=$(pwd)/bin:$PATH
    confluent login
  3. Elenca gli ambienti e seleziona l'ambiente
    confluent environment list
    confluent environment use <your_environment_ID> 
  4. Elenca i cluster e seleziona il cluster
    confluent kafka cluster list
    confluent kafka cluster use <your_cluster_id>
  5. Memorizza chiave API e segreto localmente
    confluent api-key store <cluster_api_key> <cluster_api_secret>
    confluent api-key use <cluster_api_key> --resource <cluster_id>
  6. Elenca argomenti
    confluent kafka topic list
  7. Visualizza messaggi
    confluent kafka topic consume --value-format avro --from-beginning <topic_name>