Conecte Dados do Kafka Streams ao Oracle Autonomous Database
O Oracle GoldenGate Stream Analytics permite que os usuários criem pipelines escaláveis de transformação e análise de dados para obter insights de negócios em tempo real ágeis.
Esta seção pressupõe que você já tenha instalado o Oracle Autonomous Database na seção Antes de Começar. Agora você aprenderá a fazer o seguinte:
- Obtenha acesso à Console GGSA.
- Configurar o produtor Kafka para ingerir dados.
- Conecte o GGSA para Kafka ao Autonomous Database.
Obter Acesso à Console GGSA
- Na console do OCI, em Compute, selecione Instâncias. A instância do mercado GGSA deve estar ativa e em execução.
- Copie o Endereço IP Público.
- Faça log-in na instância usando sua chave privada e verifique
README.txt
em/home/opc
. - Copie a senha da IU do OSA.
- Abra um browser e digite
https://<Public IP Address>/osa
. - Informe o Nome do Usuário como
osaadmin
e use a senha copiada deREADME.txt
.
Configurar o Produtor Kafka para Ingerir Dados
Siga estas etapas para criar um fluxo do Kafka.
- Na página Catálogo, clique em Criar Novo Item.
- Passe o mouse sobre Conexão e selecione Kafka no submenu.
- Na tela Propriedades do Tipo, informe um Nome e selecione Tipo de Conexão como Kafka. Para este exemplo, usaremos o Kafka instalado na instância GGSA.
- Na tela Detalhes da Conexão, digite
localhost:2181
no campo Zookeepers. - Clique em Testar Conexão. Você deverá ver uma mensagem Com Êxito.
- Clique em Salvar.
Observação:
Certifique-se de que a porta 2181 esteja aberta na sua entrada.
Siga estas etapas para iniciar o tópico do Kafka na ingestão de dados.
- SSH para sua instância GGSA e vá para a pasta
/u01/app/osa/utilities/kafka-utils
. - Você usará
complex.json
como dados de entrada. - Execute o seguinte comando para fazer loop do feed de dados como um tópico do Kafka:
O tópico Kafka complexo começa a produzir dados e fica pronto para ingestão.opc@ggsanew kafka-utils]$ ./loop-file.sh ./complex.json | ./sampler.sh 1 1 | ./kafka.sh feed complex
- Na página Catálogo, clique em Criar Novo Item para criar um fluxo usando a conexão Kafka.
- Passe o mouse sobre o Stream e selecione Kafka no submenu.
- Na tela Propriedades do Tipo, informe um nome e selecione o Tipo de Stream como Kafka.
- Clique em Próximo.
- Na tela Detalhes da Origem, selecione a conexão Kafka criada em Conexões.
- Selecione o Nome do Tópico como complexo.
- Selecione o Formato de Dados como
JSON
.
- Clique em Próximo.
- Na tela Formato de Dados, deixe os valores padrão.
- Clique em Próximo.
- Na tela Forma, a forma
JSON
recebida é inferida do Stream. - Clique em Salvar. O fluxo do Kafka foi criado com sucesso.
Conecte o GGSA para Kafka ao Autonomous Database
Siga estas etapas para criar uma conexão com o Oracle Autonomous Database do GGSA.
- Na página Catálogo, clique em Criar Novo Item.
- Passe o mouse sobre Conexão e selecione Oracle Database no submenu.
- Na tela Propriedades do Tipo, informe um Nome e selecione o Tipo de Conexão como Oracle Database.
- Clique em Próximo.
- Na tela Detalhes da Conexão, Tipo: Oracle Database, informe os detalhes da conexão do Autonomous Database.
- Selecione Wallet em Conectar Usando e faça upload do arquivo da wallet.
- Selecione o Nome/SID do Serviço na lista drop-down.
- Informe o Nome do Usuário como admin.
- Digite a senha de administrador do banco de dados.
- Clique em Salvar. A conexão do Autonomous Database foi criada com sucesso.
- Faça log-in em um esquema no Autonomous Database e crie uma tabela para receber os dados.
CREATE TABLE COMPLEX ( BOOLEANFIELD VARCHAR2(20) , NUMBERFIELD NUMBER , STRINGFIELD VARCHAR2(20) , OBJECTFIELD_A_KEY NUMBER , OBJECTFIELD_A_VALUE NUMBER , OBJECTFIELD_C VARCHAR2(20) , OBJECTFIELD_E VARCHAR2(20) , ARRAYFIELD_0 NUMBER , ARRAYFIELD_1 NUMBER );
Siga estas etapas para criar um pipeline no GGSA e configurar a origem e o destino:
- Na página Catálogo, clique em Criar Novo Item e selecione Pipeline na lista drop-down.
- Passe o mouse sobre o Destino e selecione Tabela de Banco de Dados no submenu.
- Na tela Propriedades do Tipo, informe um Nome para o Destino, selecione Tipo de Destino como Tabela de Banco de Dados.
- Clique em Próximo.
- Na tela Detalhes do Destino, selecione a tabela do Autonomous Database criada anteriormente na lista drop-down.
- Clique em Próximo.
- Na tela Forma, selecione o Nome da Tabela como complexo na lista drop-down.
- Clique em Próximo.
- Inferir Forma e clicar em Salvar.
Siga estas etapas para definir o destino:
- Na página Catálogo, clique em Criar Novo Item e selecione Pipeline na lista drop-down.
- Passe o mouse sobre o Destino e selecione Fluxo Kafka no submenu.
- Clique em Salvar.
- No Pipeline, clique com o botão direito do mouse no fluxo, selecione Adicionar Estágio e, em seguida, selecione Destino.
- Na janela Criar Estágio de Destino, informe um nome e clique em Salvar.
- Selecione a tabela Destino criada anteriormente.
- Clique em Publicar para publicar o pipeline e disponibilizar os dados na tabela de destino.
-
Faça log-in no banco de dados para ver os dados que estão sendo carregados na tabela complex no Autonomous Database.