Replicar dados do Autonomous AI Transaction Processing para o Microsoft Fabric Eventstream

Aprenda a replicar dados de uma origem do Autonomous AI Transaction Processing para o Microsoft Fabric Eventstream usando o OCI GoldenGate.

Antes de começar

Para concluir este início rápido com sucesso, você deve ter o seguinte:

Configuração do ambiente: Autonomous AI Transaction Processing

Se você ainda não tiver um banco de dados de origem configurado para replicação, poderá seguir estas etapas para carregar um esquema de amostra a ser usado para esse início rápido. Esse início rápido usa o Autonomous AI Transaction Processing para o banco de dados de origem.

Para configurar o Autonomous AI Transaction Processing de origem:

  1. Faça download e descompacte o esquema de banco de dados de amostra.
  2. Na console do Oracle Cloud, selecione sua instância de ATP (Autonomous AI Transaction Processing) na página do Autonomous AI Database para exibir seus detalhes e acessar o Database Actions.
  3. Desbloqueie o usuário GGADMIN:
    1. Clique em Database actions e, em seguida, clique em Database Users.
    2. Localize o GGADMIN e clique no menu reticências (três pontos) e selecione Editar.
    3. No painel Editar Usuário, informe a senha GGADMIN, confirme a senha e, em seguida, desmarque Conta Bloqueada.
    4. Clique em Aplicar Alterações.
  4. Carregue o esquema e os dados de amostra de origem:
    1. No menu de ações do Banco de Dados, em Desenvolvimento, selecione SQL.
    2. Copie e cole o script de OCIGGLL_OCIGGS_SETUP_USERS_ATP.sql na planilha de SQL.
    3. Clique emExecutar Script. A guia Saída do Script exibe mensagens de confirmação.
    4. Limpe a planilha SQL e copie e cole o script SQL em OCIGGLL_OCIGGS_SRC_USER_SEED_DATA.sql.

      Dica:

      Talvez seja necessário executar cada instrução separadamente para que a ferramenta SQL execute os scripts com sucesso.
    5. Para verificar se as tabelas foram criadas com sucesso, feche a janela SQL e reabra-a novamente. Na guia Navegador, procure o esquema SRC_OCIGGLL e selecione tabelas nas respectivas listas drop-down.
  5. Ative o registro em log complementar:
    1. Desmarque a Planilha SQL.
    2. Informe a seguinte instrução e clique em Executar Instrução:
      ALTER PLUGGABLE DATABASE ADD SUPPLEMENTAL LOG DATA;

Tarefa 2: Adicionar o processo de Extract

  1. Na página Implantações, selecione a implantação Autonomous AI Transaction Processing de origem.
  2. Na página detalhes da implantação, clique em Iniciar Console.
  3. Faça log-in com o nome de usuário e a senha do administrador da implantação de origem.
  4. Adicionar informações de transação.
  5. Adicione um Extract.

Tarefa 3: Adicionar um Caminho de Distribuição

  1. Se estiver usando o armazenamento de credenciais do GoldenGate, crie um usuário para o Caminho de Distribuição na implantação do Big Data de destino; caso contrário, pule para a Etapa 3.
  2. Na Console de implantação do ATP GoldenGate de origem, adicione uma Conexão de Caminho para o usuário criado na Etapa 1.
    1. Na console de implantação do GoldenGate do ATP de origem, clique em Conexões de Caminho na navegação esquerda.
    2. Clique em Adicionar Conexão de Caminho (ícone de mais) e conclua o seguinte:
      1. Para Alias da Credencial, informe GGSNetwork.
      2. Para o ID do Usuário, informe o nome do usuário criado na Etapa 1.
      3. Digite a senha do usuário duas vezes para verificação.
    3. Clique em Enviar.

      A conexão de caminho aparece na lista Conexões de Caminho.

  3. Na console de implantação do ATP de origem, adicione um Caminho de Distribuição com os seguintes valores:
    1. Na página Opções de Origem:
      • Para Extração de Origem, selecione a Extração criada na Tarefa 2.
      • Para Nome da Trilha, informe um Nome de dois caracteres, como E1
    2. Na página Opções de Destino:
      • Para Host do Destino, informe o domínio do host da implantação do destino.
      • Para o Número de Porta, informe 443.
      • Para Nome da Trilha, informe um Nome de dois caracteres, como E1
      • Para Alias, informe o Alias da Credencial criado na Etapa 2.
  4. Na console de implantação do Big Data de destino, verifique a Receiver Path criada como resultado da Distribution Path.
    1. Na console de implantação do Big Data de destino, clique em Receiver Service.
    2. Verifique os detalhes do caminho. Este caminho foi criado como resultado do Distribution Path criado na etapa anterior.

Tarefa 4: Adicionar e executar o Replicat

  1. Na console de implantação do Big Data de destino, clique em Replicats e, em seguida, clique em Add Replicat (ícone de adição).
  2. Adicionar uma Replicação com os seguintes valores:
    1. Na página Informações de Replicat, em tipo Replicat, selecione Classic Replicat, digite um Nome do Processo e clique em Próximo.
    2. Na página Opções de Replicação:
      • Para Nome, informe o nome da Trilho da Tarefa 2.
      • Para Destino, selecione Fluxo de Eventos do Microsoft Fabric.
      • Para Formato, selecione o formato que você deseja ingerir no Microsoft Fabric Eventstream. O padrão é JSON.
      • Para Alias Disponíveis, selecione a conexão Microsoft Fabric Eventstream na lista drop-down.
    3. Na página Opções Gerenciadas, deixe as configurações padrão.
    4. Na página Replicat Parâmetros, deixe as definições padrão.
    5. Na página Propriedades do Replicat, atualize os campos marcados como #TODO.
  3. Clique emCriar e Executar.
Você retorna à página Replicats, na qual pode revisar os detalhes de Replicat.

Tarefa 5: Verificar a replicação

Execute algumas atualizações à instância do Autonomous Transaction Processing de origem para verificar a replicação no Microsoft Fabric Lakehouse.
  1. Na console do Oracle Cloud, abra o menu de navegação, selecione Oracle AI Database e, em seguida, selecione Autonomous AI Transaction Processing.
  2. Na lista de instâncias do serviço Autonomous AI Transaction Processing, selecione sua instância de origem para exibir seus detalhes.
  3. Na página de detalhes do banco de dados, clique em Ações do banco de dados.

    Observação:

    Você deve ser feito automaticamente. Caso contrário, faça log-in com as credenciais do banco de dados.
  4. Na home page de ações do Banco de Dados, selecione SQL.
  5. Informe o seguinte na planilha e clique em Executar Script.
    Insert into SRC_OCIGGLL.SRC_CITY (CITY_ID,CITY,REGION_ID,POPULATION) values (1000,'Houston',20,743113);
    Insert into SRC_OCIGGLL.SRC_CITY (CITY_ID,CITY,REGION_ID,POPULATION) values (1001,'Dallas',20,822416);
    Insert into SRC_OCIGGLL.SRC_CITY (CITY_ID,CITY,REGION_ID,POPULATION) values (1002,'San Francisco',21,157574);
    Insert into SRC_OCIGGLL.SRC_CITY (CITY_ID,CITY,REGION_ID,POPULATION) values (1003,'Los Angeles',21,743878);
    Insert into SRC_OCIGGLL.SRC_CITY (CITY_ID,CITY,REGION_ID,POPULATION) values (1004,'San Diego',21,840689);
    Insert into SRC_OCIGGLL.SRC_CITY (CITY_ID,CITY,REGION_ID,POPULATION) values (1005,'Chicago',23,616472);
    Insert into SRC_OCIGGLL.SRC_CITY (CITY_ID,CITY,REGION_ID,POPULATION) values (1006,'Memphis',23,580075);
    Insert into SRC_OCIGGLL.SRC_CITY (CITY_ID,CITY,REGION_ID,POPULATION) values (1007,'New York City',22,124434);
    Insert into SRC_OCIGGLL.SRC_CITY (CITY_ID,CITY,REGION_ID,POPULATION) values (1008,'Boston',22,275581);
    Insert into SRC_OCIGGLL.SRC_CITY (CITY_ID,CITY,REGION_ID,POPULATION) values (1009,'Washington D.C.',22,688002);
  6. Na console da implantação de ATP de origem, selecione o nome Extract e clique em Estatísticas. Verifique se SRC_OCIGGLL.SRC_CITY tem 10 inserções.
  7. Na console de implantação do Big Data OCI GoldenGate de destino, selecione o nome do Replicat e clique em Estatísticas. Verifique se SRC_OCIGGLL.SRC_CITY tem 10 inserções.