Esporta dati in Autonomous Database

In questa sezione viene descritto in dettaglio il processo per esportare i dati in un Autonomous Database e gestire le pipeline di caricamento.
Nota

L'impostazione e la manutenzione di Autonomous Database non sono di competenza di JMS. Per ulteriori informazioni, consulta Autonomous Database sempre gratuito.

Prerequisiti di impostazione:

Prima di impostare ed eseguire le pipeline di caricamento per i dati esportati in Autonomous Database, assicurarsi che vengano soddisfatti i prerequisiti riportati di seguito.

  1. Imposta privilegio utente database

    Se l'utente che richiama gli script della pipeline di caricamento in Oracle Database Actions - SQL Console non è un amministratore OCI, un amministratore deve concedere loro i privilegi di esecuzione necessari.

    GRANT EXECUTE ON DBMS_CLOUD_PIPELINE TO <user-name>; 
    GRANT READ,WRITE ON DIRECTORY DATA_PUMP_DIR TO <user-name>; 
    GRANT CREATE JOB TO <user-name>;
  2. Abilita principal risorsa

    All'interno di Oracle Database Actions - SQL Console, come amministratore, eseguire il comando seguente per abilitare il principal risorsa:

    EXEC DBMS_CLOUD_ADMIN.ENABLE_RESOURCE_PRINCIPAL();

    Se un utente diverso dall'amministratore esegue lo script della pipeline, in qualità di amministratore abilitare il principal risorsa per tale utente eseguendo il comando seguente:

    EXEC DBMS_CLOUD_ADMIN.ENABLE_RESOURCE_PRINCIPAL(username => '<user-name>');
  3. Crea gruppo dinamico per Autonomous Database di destinazione

    Creare un gruppo dinamico con la regola di corrispondenza seguente:

    ALL {resource.type = 'autonomousdatabase', resource.id = '<adb-ocid>'} 

    dove <adb-ocid> è l'OCID dell'Autonomous Database in cui verranno caricati i dati.

  4. Consenti accesso ai criteri principal risorsa al bucket di storage degli oggetti

    Creare un criterio per concedere al principal delle risorse di Autonomous Database l'accesso ai file nel bucket di storage degli oggetti di destinazione. Creare il criterio seguente nel campo Criteri:

    ALLOW DYNAMIC-GROUP <dynamic-group-name> TO READ objects IN compartment <compartment-name> where target.bucket.name='<export-bucket-name>'
    
    Dove:
    • <export-bucket-name> è il nome dello storage degli oggetti in cui vengono esportati i dati della flotta JMS
    • <compartment-name> è il nome del compartimento a cui appartiene il bucket

Recupera script pipeline caricamento

Lo script pipeline può essere ottenuto dalla console di Java Management Service:
  1. Nel dashboard della flotta selezionare la flotta i cui dati esportati devono essere caricati in Autonomous Database.
  2. Andare alle Impostazioni di esportazione dati e scaricare lo script della pipeline di caricamento di Autonomous Database.

Esegui script pipeline

Copiare il contenuto dello script ed eseguirlo in Oracle Database Actions - SQL Console.

Lo script della pipeline di caricamento esegue quattro task principali:

  1. Crea tre tabelle corrispondenti a tre risorse di esportazione. Se le tabelle esistono già, non verranno create nuove tabelle:
    • Istanza gestita
    • Istanza gestita e Java Runtime
    • Istanza gestita, Java Runtime e applicazione
  2. Crea e configura tre pipeline per eseguire continuamente il polling del bucket di storage degli oggetti di destinazione a intervalli regolari per i nuovi file CSV. Quando vengono rilevati nuovi file, i dati di tali file vengono caricati nella tabella corretta. Se le pipeline esistono già, non vengono create nuove pipeline.
  3. Avvia le pipeline appena create.
  4. Crea e abilita un job pianificato che viene eseguito settimanalmente per verificare la presenza di dati di esportazione ridondanti e rimuoverli.

Monitorare e gestire le pipeline esistenti

Per monitorare tutti i job della pipeline attivi, andare a Oracle Database Actions e Scheduling.

È inoltre possibile eseguire la query all'interno di Oracle Database Actions - SQL Console:

SELECT * FROM USER_CLOUD_PIPELINES WHERE PIPELINE_NAME LIKE 'JMS%'

Per informazioni dettagliate su ciascun job eseguito, vedere le tabelle $STATUS e $LOG identificate dal nome del cloud utente.

È possibile controllare una pipeline avviando, arrestando, reimpostando o rilasciando la pipeline. Per ulteriori informazioni, vedere Pipeline di controllo.