Sobre Pipelines de Dados no Autonomous AI Database

Os pipelines de dados do Autonomous AI Database são pipelines de carga ou pipelines de exportação.

Os pipelines de carga fornecem carregamento contínuo de dados incrementais de origens externas (à medida que os dados chegam ao armazenamento de objetos, eles são carregados em uma tabela de banco de dados). Os pipelines de exportação fornecem exportação contínua de dados incrementais para o armazenamento de objetos (como novos dados aparecem em uma tabela de banco de dados, eles são exportados para o armazenamento de objetos). Os pipelines usam o scheduler de banco de dados para carregar ou exportar continuamente dados incrementais.

Os pipelines de dados do Autonomous AI Database fornecem o seguinte:

Ciclo de Vida do Pipeline de Dados

O pacote DBMS_CLOUD_PIPELINE fornece procedimentos para criar, configurar, testar e iniciar um pipeline. O ciclo de vida e os procedimentos do pipeline são os mesmos para pipelines de carga e exportação.

Descrição da ilustração pipeline_lifecycle.png

Para qualquer tipo de pipeline, você executa as seguintes etapas para criar e usar um pipeline:

  1. Crie e configure o pipeline. Consulte Criar e Configurar Pipelines para obter mais informações.

  2. Teste um novo pipeline. Consulte Testar Pipelines para obter mais informações.

  3. Inicie um pipeline. Consulte Iniciar um Pipeline para obter mais informações.

Além disso, você pode monitorar, interromper ou eliminar pipelines:

Carregar Pipelines

Use um pipeline de carga para carregamento contínuo de dados incrementais de arquivos externos no armazenamento de objetos em uma tabela de banco de dados. Um pipeline de carregamento identifica periodicamente novos arquivos no armazenamento de objetos e carrega os novos dados na tabela do banco de dados.

Um pipeline de carga opera da seguinte forma (alguns desses recursos são configuráveis usando atributos de pipeline):

Veja a seguir a descrição da imagem

Descrição da ilustração Load-Pipeline.svg

A migração de bancos de dados não Oracle é um caso de uso possível para um pipeline de carga. Quando você precisar migrar seus dados de um banco de dados não Oracle para o Oracle Autonomous AI Database on Dedicated Exadata Infrastructure, poderá extrair os dados e carregá-los no Autonomous AI Database (o formato Oracle Data Pump não pode ser usado para migrações de bancos de dados não Oracle). Usando um formato de arquivo genérico, como CSV, para exportar dados de um banco de dados não Oracle, você pode salvar seus dados em arquivos e fazer upload dos arquivos para o armazenamento de objetos. Em seguida, crie um pipeline para carregar os dados no Autonomous AI Database. O uso de um pipeline de carga para carregar um grande conjunto de arquivos CSV fornece benefícios importantes, como tolerância a falhas e operações de retomada e repetição. Para uma migração com um grande conjunto de dados, você pode criar vários pipelines, um por tabela para os arquivos de banco de dados não Oracle, para carregar dados no Autonomous AI Database.

Exportar Pipelines

Use um pipeline de exportação para exportação incremental contínua de dados do banco de dados para o armazenamento de objetos. Um pipeline de exportação identifica periodicamente os dados candidatos e faz upload dos dados para o armazenamento de objetos.

Há três opções de pipeline de exportação (as opções de exportação são configuráveis usando atributos de pipeline):

Os pipelines de exportação têm os seguintes recursos (alguns deles são configuráveis usando atributos de pipeline):

Pipelines Mantidos pela Oracle

O Autonomous AI Database on Dedicated Exadata Infrastructure fornece pipelines incorporados para exportar logs específicos para um Armazenamento de Objetos no formato JSON. Esses pipelines são pré-configurados e são iniciados e pertencem ao usuário ADMIN.

Os pipelines Mantidos pela Oracle são:

Para configurar e iniciar um pipeline Gerenciado pela Oracle:

  1. Determine o Pipeline Gerenciado da Oracle que você deseja usar: ORA$AUDIT_EXPORT ou ORA$APEX_ACTIVITY_EXPORT.

  2. Defina os atributos credential_name e location.

    Observação: O valor credential_name é obrigatório no Autonomous AI Database on Dedicated Exadata Infrastructure.

    Por exemplo:

     BEGIN
       DBMS_CLOUD_PIPELINE.SET_ATTRIBUTE(
         pipeline_name => 'ORA$AUDIT_EXPORT',
         attribute_name => 'credential_name',
         attribute_value => 'DEF_CRED_OBJ_STORE'
       );
       DBMS_CLOUD_PIPELINE.SET_ATTRIBUTE(
         pipeline_name => 'ORA$AUDIT_EXPORT',
         attribute_name => 'location',
         attribute_value => 'https://objectstorage.us-phoenix-1.oraclecloud.com/n/namespace-string/b/bucketname/o/'
       );
     END;
     /
    

    Os dados de log do banco de dados são exportados para o local de armazenamento de objetos especificado.

    Consulte SET_ATTRIBUTE para saber mais.

  3. Opcionalmente, defina os atributos interval, format ou priority.

    Consulte SET_ATTRIBUTE para saber mais.

  4. Inicie o pipeline.

    Consulte START_PIPELINE para mais informações.

Conteúdo Relacionado

Pacote DBMS_CLOUD_PIPELINE