Informazioni su Data Pipelines nell'Autonomous AI Database

Le pipeline di dati di Autonomous AI Database sono pipeline di caricamento o di esportazione.

Le pipeline di caricamento forniscono un caricamento continuo dei dati incrementale da origini esterne (poiché i dati arrivano nell'area di memorizzazione degli oggetti, vengono caricati in una tabella di database). Le pipeline di esportazione forniscono un'esportazione continua di dati incrementali nell'area di memorizzazione degli oggetti (poiché i nuovi dati vengono visualizzati in una tabella di database, vengono esportati nell'area di memorizzazione degli oggetti). Le pipeline utilizzano lo scheduler del database per caricare o esportare continuamente dati incrementali.

Le pipeline di dati di Autonomous AI Database forniscono quanto segue:

Ciclo di vita pipeline dati

Il pacchetto DBMS_CLOUD_PIPELINE fornisce procedure per la creazione, la configurazione, il test e l'avvio di una pipeline. Il ciclo di vita e le procedure della pipeline sono uguali sia per le pipeline di caricamento che per quelle di esportazione.

Descrizione dell'immagine pipeline_lifecycle.png

Per uno dei tipi di pipeline, eseguire i passi riportati di seguito per creare e utilizzare una pipeline.

  1. Creare e configurare la pipeline. Per ulteriori informazioni, vedere Crea e configura pipeline.

  2. Eseguire il test di una nuova pipeline. Per ulteriori informazioni, vedere Test delle pipeline.

  3. Avvia una pipeline. Per ulteriori informazioni, vedere Avvio di una pipeline.

Inoltre, è possibile monitorare, arrestare o eliminare le pipeline:

Carica pipeline

Utilizzare una pipeline di caricamento per il caricamento continuo dei dati incrementali da file esterni nell'area di memorizzazione degli oggetti in una tabella di database. Una pipeline di caricamento identifica periodicamente nuovi file nell'area di memorizzazione degli oggetti e carica i nuovi dati nella tabella del database.

Una pipeline di caricamento opera nel modo seguente (alcune di queste funzioni sono configurabili utilizzando gli attributi della pipeline):

Segue la descrizione dell'immagine

Descrizione dell'illustrazione load-pipeline.svg

La migrazione da database non Oracle è un possibile caso d'uso per una pipeline di caricamento. Quando devi eseguire la migrazione dei tuoi dati da un database non Oracle a Oracle Autonomous AI Database on Dedicated Exadata Infrastructure, puoi estrarre i dati e caricarli in Autonomous AI Database (il formato Oracle Data Pump non può essere utilizzato per le migrazioni da database non Oracle). Utilizzando un formato di file generico, ad esempio CSV, per esportare i dati da un database non Oracle, è possibile salvare i dati in file e caricare i file nell'area di memorizzazione degli oggetti. Successivamente, crea una pipeline per caricare i dati in Autonomous AI Database. L'utilizzo di una pipeline di caricamento per caricare un ampio set di file CSV fornisce benefit importanti quali la tolleranza agli errori e le operazioni di ripresa e nuovo tentativo. Per una migrazione con un data set di grandi dimensioni puoi creare più pipeline, una per tabella per i file di database non Oracle, per caricare i dati in Autonomous AI Database.

Esporta pipeline

Utilizza una pipeline di esportazione per l'esportazione incrementale continua dei dati dal database all'area di memorizzazione degli oggetti. Una pipeline di esportazione identifica periodicamente i dati dei candidati e carica i dati nell'area di memorizzazione degli oggetti.

Sono disponibili tre opzioni della pipeline di esportazione (le opzioni di esportazione sono configurabili utilizzando gli attributi della pipeline):

Le pipeline di esportazione dispongono delle funzioni seguenti (alcune di queste sono configurabili utilizzando gli attributi della pipeline):

Pipeline gestite da Oracle

Autonomous AI Database on Dedicated Exadata Infrastructure fornisce pipeline integrate per esportare log specifici in un'area di memorizzazione degli oggetti in formato JSON. Queste pipeline sono preconfigurate e vengono avviate e di proprietà dell'utente ADMIN.

Le pipeline gestite da Oracle sono le seguenti:

Per configurare e avviare una pipeline gestita da Oracle:

  1. Determinare la pipeline gestita Oracle che si desidera utilizzare: ORA$AUDIT_EXPORT o ORA$APEX_ACTIVITY_EXPORT.

  2. Impostare gli attributi credential_name e location.

    Nota: credential_name è un valore obbligatorio in Autonomous AI Database on Dedicated Exadata Infrastructure.

    Ad esempio:

     BEGIN
       DBMS_CLOUD_PIPELINE.SET_ATTRIBUTE(
         pipeline_name => 'ORA$AUDIT_EXPORT',
         attribute_name => 'credential_name',
         attribute_value => 'DEF_CRED_OBJ_STORE'
       );
       DBMS_CLOUD_PIPELINE.SET_ATTRIBUTE(
         pipeline_name => 'ORA$AUDIT_EXPORT',
         attribute_name => 'location',
         attribute_value => 'https://objectstorage.us-phoenix-1.oraclecloud.com/n/namespace-string/b/bucketname/o/'
       );
     END;
     /
    

    I dati di log del database vengono esportati nella posizione dell'area di memorizzazione degli oggetti specificata.

    Per ulteriori informazioni, vedere SET_ATTRIBUTE.

  3. Facoltativamente, impostare gli attributi interval, format o priority.

    Per ulteriori informazioni, vedere SET_ATTRIBUTE.

  4. Avviare la pipeline.

    Per ulteriori informazioni, vedere START_PIPELINE.

Contenuto correlato

Package DBMS_CLOUD_PIPELINE