Replicación de datos de Autonomous Transaction Processing en Confluent Kafka

En este inicio rápido se muestra cómo replicar datos de Autonomous Transaction Processing en Confluent Kafka mediante OCI GoldenGate.

Antes de empezar

Para completar correctamente este inicio rápido, debe tener lo siguiente:

  • Una instancia de Autonomous Transaction Processing de origen.
  • Una instancia de Confluent Platform.

Configuración de entorno: Autonomous Transaction Processing

Si aún no tiene una base de datos de origen configurada para la replicación, puede seguir estos pasos para cargar un esquema de ejemplo que utilizar para este inicio rápido. Este inicio rápido utiliza Autonomous Transaction Processing para la base de datos de origen.

Para configurar la instancia de Autonomous Database de origen:

  1. Descargue y descomprima el esquema de base de datos de ejemplo.
  2. En la consola de Oracle Cloud, seleccione la instancia de Autonomous Transaction Processing (ATP) en la página Bases de datos autónomas para ver los detalles y acceder a Database Actions.
  3. Desbloquee el usuario GGADMIN:
    1. Haga clic en Acciones de la base de datos y, a continuación, en Usuarios de la base de datos.
    2. Busque GGADMIN y, a continuación, haga clic en el menú de puntos suspensivos (tres puntos) y seleccione Editar.
    3. En el panel Edit User, introduzca la contraseña de GGADMIN, confirme la contraseña y, a continuación, anule la selección de Account is Locked.
    4. Haga clic en Aplicar cambios.
  4. Cargue el esquema y los datos de ejemplo de origen:
    1. En el menú Acciones de base de datos, en Desarrollo, seleccione SQL.
    2. Copie y pegue el script de OCIGGLL_OCIGGS_SETUP_USERS_ATP.sql en la hoja de trabajo de SQL.
    3. Haga clic en Ejecutar script. El separador Salida de script mostrará los mensajes de confirmación.
    4. Borrar la hoja de trabajo de SQL y, a continuación, copiar y pegar el script SQL de OCIGGLL_OCIGGS_SRC_USER_SEED_DATA.sql.

      Sugerencia:

      Puede que necesite ejecutar cada sentencia por separado para que la herramienta SQL ejecute los scripts correctamente.
    5. Para verificar que las tablas se han creado correctamente, cierre la ventana SQL y vuelva a abrirla. En el separador Navegador, busque el esquema SRC_OCIGGLL y, a continuación, seleccione las tablas en sus respectivas listas desplegables.
  5. Active el registro complementario:
    1. Borre la hoja de trabajo de SQL.
    2. Introduzca la siguiente sentencia y, a continuación, haga clic en Ejecutar sentencia:
      ALTER PLUGGABLE DATABASE ADD SUPPLEMENTAL LOG DATA;

Configuración del entorno: Confluent Cloud

Si aún no tiene un cluster, tema y esquema de Confluent Cloud de destino, puede hacer lo siguiente:
  1. Crear un Cluster.
  2. Cree una clave de API para el cluster. Observe la clave y el secreto de API para los siguientes pasos.
  3. Active Schema Registry y, a continuación, cree una clave de API para Confluent Cloud Schema Registry. Observe la clave y el secreto de API para los siguientes pasos.
  4. Cree un tema en el cluster. Observe el nombre del tema para los siguientes pasos.

Tarea 1: Creación de recursos de OCI GoldenGate

En este ejemplo de inicio rápido se necesitan despliegues y conexiones tanto para el origen como para el destino.
  1. Cree un despliegue de Oracle para la instancia de Autonomous Transaction Processing de origen.
  2. Cree un despliegue de Big Data para la nube confluente de destino.
  3. Cree una conexión a Autonomous Transaction Processing.
  4. Cree una conexión de Confluent Kafka.
  5. Creación de un registro de esquemas de Confluent.
  6. (Opcional) Si el despliegue de Big Data no tiene un punto final público, cree una conexión a GoldenGate y, a continuación, asigne esta conexión al despliegue de Oracle de origen.
  7. Asigne la conexión de Autonomous Transaction Processing al despliegue de Oracle de origen.
  8. Asigne conexiones de Confluent Kafka y Confluent Schema Registry al despliegue de Big Data de destino.

Tarea 2: Adición del Extract

  1. En la página Despliegues, seleccione el despliegue de Autonomous Transaction Processing de origen.
  2. En la página de detalles del despliegue, haga clic en Iniciar consola.
  3. Conéctese con el nombre de usuario y la contraseña del administrador del despliegue de origen.
  4. Agregue la información de transacción.
  5. Adición de un Extract

Tarea 3: Adición y ejecución de Distribution Path

  1. Si utiliza el almacén de credenciales GoldenGate, cree un usuario para la ruta de distribución en el despliegue de Big Data de destino; de lo contrario, vaya al paso 3.
  2. En la consola de despliegue de ATP de origen GoldenGate, agregue una conexión de ruta para el usuario creado en el paso 1.
    1. En la consola de despliegue ATP de origen GoldenGate, haga clic en Conexiones de ruta en la navegación izquierda.
    2. Haga clic en Agregar conexión de ruta (icono más) y, a continuación, complete lo siguiente:
      1. En Alias de credencial, introduzca GGSNetwork.
      2. En ID de usuario, introduzca el nombre del usuario creado en el paso 1.
      3. Introduzca la contraseña del usuario dos veces para su verificación.
    3. Haga clic en Enviar.

      La conexión de ruta aparece en la lista Conexiones de ruta.

  3. En la consola de despliegue de ATP de origen, agregue una ruta de distribución con los siguientes valores:
    1. En la página Opciones de origen:
      • En Extract de origen, seleccione el Extract creado en la tarea 2.
      • En Nombre de pista, introduzca un nombre de dos caracteres, como E1.
    2. En la página Opciones de destino:
      • En Host de destino, introduzca el dominio de host del despliegue de destino.
      • En Número de puerto, introduzca 443.
      • En Nombre de pista, introduzca un nombre de dos caracteres, como E1.
      • En Alias, introduzca el alias de credencial creado en el paso 2.
  4. En la consola de despliegue de Big Data de destino, revise la Receiver Path creada como resultado de Distribution Path.
    1. En la consola de despliegue de Big Data de destino, haga clic en Receiver Service.
    2. Revise los detalles de la ruta. Esta ruta se ha creado como resultado de la creación de Distribution Path en el paso anterior.

Tarea 4: Adición y ejecución del Replicat

  1. En la consola de despliegue de Big Data de destino, haga clic en Administrator Service y, a continuación, haga clic en Add Replicat (icono de signo más).
  2. Agregue un Replicat con los siguientes valores:
    1. En la página Información de Replicat, en el tipo Replicat, seleccione Coordinated Replicat, introduzca un nombre de proceso y, a continuación, haga clic en Siguiente.
    2. En la página Replication Options:
      • En Nombre, introduzca el nombre de la pista de la tarea 2.
      • En Dominio, seleccione un dominio.
      • En Alias, seleccione la conexión Confluent Kafka creada en la tarea 1.
      • En Tabla de puntos de control, seleccione la tabla de puntos de control que ha creado para el despliegue de destino.
    3. En la página Parámetros Replicat, sustituya MAP *.*, TARGET *.*; por:
      MAP SRC_OCIGGLL.SRC_CUSTOMER, Table SRC.CUSTOMER;
  3. Haga clic en Crear y ejecutar.
Vuelva a la página Overview, donde puede revisar los detalles de Replicat.

Tarea 5: Verificación de la replicación

Realice algunas actualizaciones en la instancia de Autonomous Transaction Processing de origen para verificar la replicación en Confluent Kafka Cloud.
  1. En la consola de Oracle Cloud, abra el menú de navegación, seleccione Oracle Database y, a continuación, seleccione Autonomous Transaction Processing.
  2. En la lista de instancias de Autonomous Transaction Processing, seleccione la instancia de origen para ver los detalles.
  3. En la página de detalles de la base de datos, haga clic en Acciones de base de datos.

    Note:

    Deberías estar conectado automáticamente. Si no es así, conéctese con las credenciales de la base de datos.
  4. En la página inicial de acciones de base de datos, seleccione SQL.
  5. Introduzca lo siguiente en la hoja de trabajo y haga clic en Ejecutar script.
    Insert into SRC_OCIGGLL.SRC_CITY (CITY_ID,CITY,REGION_ID,POPULATION) values (1000,'Houston',20,743113);
    Insert into SRC_OCIGGLL.SRC_CITY (CITY_ID,CITY,REGION_ID,POPULATION) values (1001,'Dallas',20,822416);
    Insert into SRC_OCIGGLL.SRC_CITY (CITY_ID,CITY,REGION_ID,POPULATION) values (1002,'San Francisco',21,157574);
    Insert into SRC_OCIGGLL.SRC_CITY (CITY_ID,CITY,REGION_ID,POPULATION) values (1003,'Los Angeles',21,743878);
    Insert into SRC_OCIGGLL.SRC_CITY (CITY_ID,CITY,REGION_ID,POPULATION) values (1004,'San Diego',21,840689);
    Insert into SRC_OCIGGLL.SRC_CITY (CITY_ID,CITY,REGION_ID,POPULATION) values (1005,'Chicago',23,616472);
    Insert into SRC_OCIGGLL.SRC_CITY (CITY_ID,CITY,REGION_ID,POPULATION) values (1006,'Memphis',23,580075);
    Insert into SRC_OCIGGLL.SRC_CITY (CITY_ID,CITY,REGION_ID,POPULATION) values (1007,'New York City',22,124434);
    Insert into SRC_OCIGGLL.SRC_CITY (CITY_ID,CITY,REGION_ID,POPULATION) values (1008,'Boston',22,275581);
    Insert into SRC_OCIGGLL.SRC_CITY (CITY_ID,CITY,REGION_ID,POPULATION) values (1009,'Washington D.C.',22,688002);
  6. En la consola de despliegue de ATP de origen, seleccione el nombre del Extract y, a continuación, haga clic en Estadísticas. Verifique que SRC_OCIGGLL.SRC_CITY tenga 10 inserciones.
  7. En la consola de despliegue GoldenGate de OCI de Big Data de destino, seleccione el nombre del Replicat y, a continuación, haga clic en Estadísticas. Verifique que SRC_OCIGGLL.SRC_CUSTOMER tenga 7 inserciones.

Tarea 6: (Opcional) Verificación de la replicación en la CLI de Confluent

  1. Instale la CLI de Fluent en el sistema.
  2. Ejecutar:
    export PATH=$(pwd)/bin:$PATH
    confluent login
  3. Enumerar entornos y seleccionar el entorno
    confluent environment list
    confluent environment use <your_environment_ID> 
  4. Enumerar clusters y seleccionar su cluster
    confluent kafka cluster list
    confluent kafka cluster use <your_cluster_id>
  5. Almacenar clave de API y secreto localmente
    confluent api-key store <cluster_api_key> <cluster_api_secret>
    confluent api-key use <cluster_api_key> --resource <cluster_id>
  6. Mostrar temas
    confluent kafka topic list
  7. Ver mensajes
    confluent kafka topic consume --value-format avro --from-beginning <topic_name>