Réplication de données d'Autonomous Transaction Processing vers Confluent Kafka

Ce démarrage rapide montre comment répliquer des données d'Autonomous Transaction Processing vers Confluent Kafka à l'aide d'OCI GoldenGate.

Avant de commencer

Pour mener à bien ce démarrage rapide, vous devez disposer des éléments suivants :

  • Une instance Autonomous Transaction Processing source.
  • Instance de plate-forme Confluent.

Configuration de l'environnement : Autonomous Transaction Processing

Si aucune base de données source n'est configurée pour la réplication, procédez comme suit afin de charger un schéma échantillon à utiliser avec le démarrage rapide. Ce démarrage rapide utilise Autonomous Transaction Processing pour la base de données source.

Pour configurer la base de données autonome source, procédez comme suit :

  1. Téléchargez et décompressez le schéma échantillon de base de données.
  2. Dans la console Oracle Cloud, sélectionnez votre instance Autonomous Transaction Processing (ATP) sur la page Bases de données autonomes afin de visualiser ses détails et d'accéder à Database Actions.
  3. Déverrouillez l'utilisateur GGADMIN :
    1. Cliquez sur Actions de base de données, puis sur Utilisateurs de base de données.
    2. Localisez GGADMIN, puis cliquez sur le menu représenté par des points de suspension et sélectionnez Modifier.
    3. Dans le panneau Modifier l'utilisateur, entrez le mot de passe GGADMIN, confirmez le mot de passe, puis désélectionnez Compte verrouillé.
    4. Cliquez sur Appliquer les modifications.
  4. Chargez le schéma échantillon source et les données :
    1. Dans le menu Actions de base de données, sous Développement, sélectionnez SQL.
    2. Copiez le script de OCIGGLL_OCIGGS_SETUP_USERS_ATP.sql et collez-le dans la feuille de calcul SQL.
    3. Cliquez sur Exécuter un script. L'onglet Sortie de script affiche des messages de confirmation.
    4. Effacer la feuille de calcul SQL, puis copier et coller le script SQL à partir de OCIGGLL_OCIGGS_SRC_USER_SEED_DATA.sql.

      Conseil :

      Vous devrez peut-être exécuter chaque instruction séparément pour que l'outil SQL parvienne à exécuter les scripts.
    5. Pour vérifier que les tables ont bien été créées, fermez la fenêtre SQL et rouvrez-la. Dans l'onglet Navigateur, recherchez le schéma SRC_OCIGGLL, puis sélectionnez des tables dans les listes déroulantes correspondantes.
  5. Activez la journalisation supplémentaire :
    1. Effacez la feuille de calcul SQL.
    2. Entrez l'instruction suivante, puis cliquez sur Exécuter l'instruction :
      ALTER PLUGGABLE DATABASE ADD SUPPLEMENTAL LOG DATA;

Configuration de l'environnement : Confluent Cloud

Si vous ne disposez pas encore d'un cluster, d'un sujet et d'un schéma Confluent Cloud cible, vous pouvez effectuer les opérations suivantes :
  1. Créer un cluster.
  2. Créez une clé d'API pour le cluster. Notez la clé et la clé secrète d'API pour les étapes suivantes.
  3. Activez Schema Registry, puis créez une clé d'API pour Confluent Cloud Schema Registry. Notez la clé et la clé secrète d'API pour les étapes suivantes.
  4. Créez un sujet dans le cluster. Notez le nom de la rubrique pour les étapes suivantes.

Tâche 1 : créer les ressources OCI GoldenGate

Cet exemple de démarrage rapide nécessite des déploiements et des connexions pour la source et la cible.
  1. Créez un déploiement Oracle pour l'instance Autonomous Transaction Processing source.
  2. Créez un déploiement Big Data pour le cloud confluent cible.
  3. Créer une connexion à l'instance Autonomous Transaction Processing source.
  4. Créez une connexion Kafka Confluent.
  5. Création d'un registre de schéma Confluent.
  6. (Facultatif) Si votre déploiement Big Data n'a pas d'adresse publique, créez une connexion à GoldenGate, puis affectez cette connexion au déploiement Oracle source.
  7. Affectez la connexion Autonomous Transaction Processing au déploiement Oracle source.
  8. Affectez des connexions de registre de schéma Confluent Kafka et Confluent au déploiement Big Data cible.

Tâche 2 : ajouter l'extraction

  1. Sur la page Déploiements, sélectionnez le déploiement Autonomous Transaction Processing source.
  2. Sur la page des détails du déploiement, cliquez sur Lancer la console.
  3. Connectez-vous avec le nom utilisateur et le mot de passe de l'administrateur du déploiement source.
  4. Ajoutez des informations relatives aux transactions.
  5. Ajout d'une extraction

Tâche 3 : ajoutez et exécutez Distribution Path.

  1. Si vous utilisez la banque d'informations d'identification GoldenGate, créez un utilisateur pour le chemin de distribution dans le déploiement Big Data cible. Sinon, passez à l'étape 3.
  2. Dans la console de déploiement ATP GoldenGate source, ajoutez une connexion de chemin pour l'utilisateur créé à l'étape 1.
    1. Dans la console de déploiement ATP GoldenGate source, cliquez sur Connexions de chemin dans la navigation de gauche.
    2. Cliquez sur Ajouter une connexion de chemin (icône Plus), puis effectuez les opérations suivantes :
      1. Dans Alias d'informations d'identification, entrez GGSNetwork.
      2. Dans ID utilisateur, saisissez le nom de l'utilisateur créé à l'étape 1.
      3. Indiquez le mot de passe de l'utilisateur à deux reprises pour vérification.
    3. Cliquez sur Soumettre.

      La connexion par chemin apparaît dans la liste Connexions par chemin.

  3. Dans la console de déploiement ATP source, ajoutez un chemin de distribution avec les valeurs suivantes :
    1. Sur la page Options source :
      • Dans Extraction source, sélectionnez l'extraction créée dans la tâche 2.
      • Dans Nom de trace, saisissez un nom à deux caractères, tel que E1.
    2. Sur la page Options cible, procédez comme suit :
      • Dans Hôte cible, entrez le domaine hôte du déploiement cible.
      • Dans Numéro de port, saisissez 443.
      • Dans Nom de trace, saisissez un nom à deux caractères, tel que E1.
      • Dans Alias, entrez l'alias d'informations d'identification créé à l'étape 2.
  4. Dans la console de déploiement Big Data cible, vérifiez le fichier Receiver Path créé suite à la création de Distribution Path.
    1. Dans la console de déploiement Big Data cible, cliquez sur Receiver Service.
    2. Consultez les détails du chemin. Ce chemin a été créé à la suite de la création de Distribution Path à l'étape précédente.

Tâche 4 : ajouter et exécuter Replicat

  1. Dans la console de déploiement Big Data cible, cliquez sur Administrator Service, puis sur Add Replicat (icône Plus).
  2. Ajoutez un élément Replicat avec les valeurs suivantes :
    1. Sur la page Replicat Informations, sous le type Replicat, sélectionnez Coordinated Replicat, entrez un nom de processus, puis cliquez sur Suivant.
    2. Sur la page Options de réplication :
      • Dans Nom, saisissez le nom de la trace de la tâche 2.
      • Dans Domaine, sélectionnez un domaine.
      • Dans Alias, sélectionnez la connexion Confluent Kafka créée dans la tâche 1.
      • Dans Table de point de reprise, sélectionnez la table de point de reprise que vous avez créée pour le déploiement cible.
    3. Sur la page Paramètres Replicat, remplacez MAP *.*, TARGET *.*; par l'élément suivant :
      MAP SRC_OCIGGLL.SRC_CUSTOMER, Table SRC.CUSTOMER;
  3. Cliquez sur Créer et exécuter.
Revenez à la page de présentation, dans laquelle vous pouvez consulter les détails de Replicat.

Tâche 5 : vérifier la réplication

Effectuez des mises à jour de l'instance Autonomous Transaction Processing source afin de vérifier la réplication vers le cloud Confluent.
  1. Dans la console Oracle Cloud, ouvrez le menu de navigation, et sélectionnez Oracle Database, puis Autonomous Transaction Processing.
  2. Dans la liste des instances Autonomous Transaction Processing, sélectionnez votre instance source pour en visualiser les détails.
  3. Sur la page des détails de la base de données, cliquez sur Actions de base de données.

    Remarques :

    Vous devez être connecté automatiquement. Sinon, connectez-vous avec les informations d'identification de base de données.
  4. On the Database actions home page, select SQL.
  5. Entrez ce qui suit dans la feuille de calcul et cliquez sur Exécuter un script.
    Insert into SRC_OCIGGLL.SRC_CITY (CITY_ID,CITY,REGION_ID,POPULATION) values (1000,'Houston',20,743113);
    Insert into SRC_OCIGGLL.SRC_CITY (CITY_ID,CITY,REGION_ID,POPULATION) values (1001,'Dallas',20,822416);
    Insert into SRC_OCIGGLL.SRC_CITY (CITY_ID,CITY,REGION_ID,POPULATION) values (1002,'San Francisco',21,157574);
    Insert into SRC_OCIGGLL.SRC_CITY (CITY_ID,CITY,REGION_ID,POPULATION) values (1003,'Los Angeles',21,743878);
    Insert into SRC_OCIGGLL.SRC_CITY (CITY_ID,CITY,REGION_ID,POPULATION) values (1004,'San Diego',21,840689);
    Insert into SRC_OCIGGLL.SRC_CITY (CITY_ID,CITY,REGION_ID,POPULATION) values (1005,'Chicago',23,616472);
    Insert into SRC_OCIGGLL.SRC_CITY (CITY_ID,CITY,REGION_ID,POPULATION) values (1006,'Memphis',23,580075);
    Insert into SRC_OCIGGLL.SRC_CITY (CITY_ID,CITY,REGION_ID,POPULATION) values (1007,'New York City',22,124434);
    Insert into SRC_OCIGGLL.SRC_CITY (CITY_ID,CITY,REGION_ID,POPULATION) values (1008,'Boston',22,275581);
    Insert into SRC_OCIGGLL.SRC_CITY (CITY_ID,CITY,REGION_ID,POPULATION) values (1009,'Washington D.C.',22,688002);
  6. Dans la console de déploiement ATP source, sélectionnez le nom de l'extraction, puis cliquez sur Statistiques. Vérifiez que SRC_OCIGGLL.SRC_CITY comporte 10 insertions.
  7. Dans la console de déploiement Big Data OCI GoldenGate cible, sélectionnez le nom de la réplication, puis cliquez sur Statistiques. Vérifiez que SRC_OCIGGLL.SRC_CUSTOMER comporte 7 insertions.

Tâche 6 : (facultatif) vérifiez la réplication dans la CLI Confluent

  1. Installez l'interface de ligne de commande de configuration dans votre système.
  2. Exécuter:
    export PATH=$(pwd)/bin:$PATH
    confluent login
  3. Répertorier les environnements et sélectionner un environnement
    confluent environment list
    confluent environment use <your_environment_ID> 
  4. Répertorier les clusters et sélectionner le cluster
    confluent kafka cluster list
    confluent kafka cluster use <your_cluster_id>
  5. Stocker la clé et la clé secrète d'API en local
    confluent api-key store <cluster_api_key> <cluster_api_secret>
    confluent api-key use <cluster_api_key> --resource <cluster_id>
  6. Thèmes de la liste
    confluent kafka topic list
  7. Visualiser les messages
    confluent kafka topic consume --value-format avro --from-beginning <topic_name>