Exportar Dados para o Autonomous Database

Esta seção detalha o processo para exportar dados para um Autonomous Database e gerenciar os pipelines de carga.
Observação

A configuração e a manutenção do Autonomous database estão fora do escopo do JMS. Consulte o Regime Autonomous Database Always Free para mais informações.

Pré-requisitos de Configuração:

Antes de configurar e executar pipelines de carga para dados exportados para o seu Autonomous Database, certifique-se de que os seguintes pré-requisitos sejam atendidos:

  1. Definir Privilégio de Usuário do Banco de Dados

    Se o usuário que está chamando os scripts do pipeline de carga no Oracle Database Actions - Console SQL não for um administrador do OCI, um administrador deverá conceder a ele os privilégios de execução necessários.

    GRANT EXECUTE ON DBMS_CLOUD_PIPELINE TO <user-name>; 
    GRANT READ,WRITE ON DIRECTORY DATA_PUMP_DIR TO <user-name>; 
    GRANT CREATE JOB TO <user-name>;
  2. Ativar Controlador de Recursos

    No Oracle Database Actions - Console SQL, como administrador, execute o seguinte comando para ativar o controlador de recursos:

    EXEC DBMS_CLOUD_ADMIN.ENABLE_RESOURCE_PRINCIPAL();

    Se um usuário diferente do administrador executar o script de pipeline, como administrador, ative o controlador de recursos desse usuário executando o seguinte comando:

    EXEC DBMS_CLOUD_ADMIN.ENABLE_RESOURCE_PRINCIPAL(username => '<user-name>');
  3. Criar Grupo Dinâmico para o Autonomous Database de Destino

    Crie um grupo dinâmico com a seguinte regra de correspondência:

    ALL {resource.type = 'autonomousdatabase', resource.id = '<adb-ocid>'} 

    em que <adb-ocid> corresponde ao OCID do Autonomous Database para o qual os dados serão carregados.

  4. Conceder à Política do Controlador de Recursos Acesso ao Bucket do Object Storage

    Crie uma política para conceder ao controlador de recursos do Autonomous Database acesso a arquivos no bucket de armazenamento de objetos de destino. Crie a seguinte política no campo Políticas:

    ALLOW DYNAMIC-GROUP <dynamic-group-name> TO READ objects IN compartment <compartment-name> where target.bucket.name='<export-bucket-name>'
    
    em que:
    • <export-bucket-name> é o nome do armazenamento de objetos para o qual os dados do JMS Fleet estão sendo exportados
    • <compartment-name> é o nome do compartimento ao qual o bucket pertence
  5. Cria e ativa um job programado que é executado diariamente para verificar e remover linhas duplicadas ou desatualizadas em todas as tabelas.
    • As linhas serão consideradas duplicadas se compartilharem o mesmo valor nas seguintes colunas: compartment_ocid, fleet_ocid, hostname, java_version, java_vendor, java_distribution, install_path, application_name e application_install_path. Se forem encontradas linhas duplicadas, somente uma linha com o managed_instance_last_seen mais recente será retida e as linhas duplicadas restantes serão removidas.
    • As linhas em que managed_instance_last_seen tem mais de 90 dias de idade são consideradas desatualizadas, e essas linhas também são removidas.

Obter Script de Pipeline de Carga

O script de pipeline pode ser obtido na console do Java Management Service:
  1. No painel de controle Frota, selecione a frota cujos dados exportados precisam ser carregados no Autonomous Database.
  2. Vá para as Definições de Exportação de Dados e faça download do script de pipeline de carregamento do Autonomous Database.

Executar Script de Pipeline

Copie o conteúdo do script e execute-o no Oracle Database Actions - Console SQL.

O script de pipeline de carregamento executa quatro tarefas principais:

  1. Cria três tabelas correspondentes a três recursos de exportação. Se as tabelas já existirem, nenhuma nova tabela será criada:
    • Instância Gerenciada
    • Instância Gerenciada e Java Runtime
    • Aplicativos, Java Runtime e Managed Instance
  2. Cria e configura três pipelines para sondar continuamente o bucket de armazenamento de objetos de destino em intervalos regulares para novos arquivos CSV. Quando novos arquivos são detectados, os dados desses arquivos são carregados na tabela correta. Se os pipelines já existirem, nenhum novo pipelines será criado.
  3. Inicia os pipelines recém-criados.
  4. Cria e ativa um job programado que é executado semanalmente para verificar dados de exportação redundantes e removê-los.

Monitorar e Gerenciar Pipelines Existentes

Para monitorar todos os jobs de pipeline ativos, vá para Oracle Database Actions e Programação.

Você também pode executar a consulta no Oracle Database Actions - Console SQL:

SELECT * FROM USER_CLOUD_PIPELINES WHERE PIPELINE_NAME LIKE 'JMS%'

Para obter detalhes sobre cada job executado, consulte as tabelas $STATUS e $LOG identificadas pelo seu nome de nuvem de usuário.

Você pode controlar um pipeline iniciando, interrompendo, redefinindo ou eliminando o pipeline. Para obter etapas detalhadas, consulte Pipelines de Controle.