Caricare i dati mediante Oracle Data Pump

Oracle Data Pump offre uno spostamento rapido di dati e metadati in blocco tra i database Oracle e Autonomous AI Database on Dedicated Exadata Infrastructure.

L'importazione di Data Pump consente di importare i dati dai file Data Pump che risiedono in Oracle Cloud Infrastructure Object Storage e Oracle Cloud Infrastructure Object Storage Classic. Puoi salvare i tuoi dati nell'area di memorizzazione degli oggetti cloud e utilizzare Oracle Data Pump per caricare i dati in Autonomous AI Database.

Nota: per un'alternativa "Prova" alla lettura dei seguenti argomenti, puoi consultare il Lab 9: Migrate with Data Pump nel workshop Oracle Autonomous AI Database dedicato per amministratori della flotta.

Esportare i dati da Oracle Database esistente

In primo luogo, utilizzare l'esportazione di Oracle Data Pump per esportare gli schemi di Oracle Database esistenti. Quindi utilizzi l'importazione di Oracle Data Pump per eseguirne la migrazione ad Autonomous AI Database.

Oracle consiglia di utilizzare i seguenti parametri di esportazione di Data Pump per una migrazione più rapida e semplice ad Autonomous AI Database:

exclude=cluster, db_link
parallel=n
schemas=schema name
dumpfile=export%l.dmp

L'esportazione di Oracle Data Pump fornisce diverse modalità di esportazione. Oracle consiglia di utilizzare la modalità schema per la migrazione a Autonomous AI Database. È possibile elencare gli schemi che si desidera esportare utilizzando il parametro schemi.

Per una migrazione più rapida, esportare gli schemi in più file Data Pump e utilizzare il parallelismo. È possibile specificare il formato del nome del file di dump da utilizzare con il parametro dumpfile. Impostare il parametro parallel su almeno il numero di CPU presenti in Autonomous AI Database.

I parametri exclude e data_options garantiscono che i tipi di oggetto non disponibili in Autonomous AI Database non vengano esportati e che le partizioni di tabella vengano raggruppate in modo che possano essere importate più rapidamente in Autonomous AI Database.

Nota: Oracle consiglia di raccogliere le statistiche aggiornate prima di eseguire il comando expdp. Il pacchetto dbms_stats prevede più procedure per la raccolta delle statistiche più recenti. Le statistiche vengono aggiunte automaticamente al file di dump di esportazione e consentono di determinare le dimensioni degli oggetti e ottimizzare il parallelismo durante l'importazione. Per ulteriori informazioni, vedere DBMS_STATS Operational Notes in Oracle Database 19c PL/SQL Packages and Types Reference e Oracle Database 26ai PL/SQL Packages and Types Reference.

L'esempio seguente esporta lo schema SH da un Oracle Database di origine per la migrazione a un Autonomous AI Database con 16 CPU:

expdp sh/sh@orcl \
exclude=cluster, db_link \
parallel=16 \
schemas=sh \
dumpfile=export%l.dmp \
encryption_pwd_prompt=yes

Note per i parametri Data Pump:

È possibile utilizzare altri parametri di esportazione Data Pump, ad esempio compression, a seconda delle esigenze. Per ulteriori informazioni, vedere Oracle Data Pump Export in Oracle Database 19c Utilities o Oracle Database 26ai Utilities.

Caricare i file di esportazione nello storage degli oggetti cloud

Prima di poter importare i dati esportati dall'Oracle Database di origine, è necessario caricare i file di esportazione nello storage degli oggetti cloud.

Puoi caricare i file di esportazione in un bucket di storage esistente in Oracle Cloud Infrastructure Object Storage o in un contenitore di storage esistente in Oracle Cloud Infrastructure Object Storage Classic. In alternativa, utilizzare la procedura riportata di seguito per creare un nuovo bucket di storage e caricare i file di esportazione in esso.

  1. Accedi al tuo account Oracle Cloud all'indirizzo cloud.oracle.com.

  2. Dalla lista di navigazione a sinistra di Oracle Cloud Infrastructure scegli lo storage degli oggetti, quindi scegli lo storage degli oggetti dalla lista secondaria.

  3. Selezionare un compartimento in cui creare il bucket di storage.

  4. Fare clic su Crea bucket.

  5. Nella finestra di dialogo Crea bucket, assegnare un nome al bucket, quindi fare clic su Crea bucket.

  6. Dopo aver creato il bucket, fare clic sul relativo nome nella lista dei bucket per visualizzare la relativa pagina Dettagli bucket.

  7. Nella casella Oggetti fare clic su Carica oggetti.

  8. Nella finestra di dialogo Carica oggetti, fare clic sul collegamento seleziona file nella casella Scegli file dal computer.

  9. In esplorazione file, individuare e selezionare i file di esportazione. Quindi fare clic su Apri.

  10. Nella finestra di dialogo Carica oggetti, fare clic su Carica oggetti per avviare il caricamento dei file selezionati.

  11. Al termine dei caricamenti, chiudere la finestra di dialogo Carica oggetti.

Importare i dati mediante Oracle Data Pump

Oracle consiglia di utilizzare la versione più recente di Oracle Data Pump per importare i dati dai file Data Pump nell'Autonomous AI Database in quanto contiene miglioramenti e correzioni per un'esperienza migliore.

Scaricare la versione più recente del package e del package strumenti di base di Oracle Instant Client (che include Oracle Data Pump) per la piattaforma da Download di Oracle Instant Client. Vedere le istruzioni di installazione nella pagina di download dell'installazione della piattaforma per i passi di installazione richiesti dopo il download di Oracle Instant Client.

In Oracle Data Pump versione 18.3 e successive, l'argomento credential autentica Data Pump nel servizio di storage degli oggetti cloud che si sta utilizzando per i file di origine. L'argomento dumpfile è una lista delimitata da virgole di URL per i file di Data Pump.

Le versioni di importazione Data Pump 12.2.0.1 e precedenti non dispongono del parametro credential. Se si utilizza una versione precedente dell'importazione di Data Pump, è necessario definire una proprietà della credenziale predefinita per Autonomous AI Database e utilizzare la parola chiave default_credential nel parametro dumpfile.

In Oracle Data Pump, se i file di origine risiedono in Oracle Cloud Infrastructure Object Storage, puoi utilizzare gli URI nativi di Oracle Cloud Infrastructure o gli URI Swift. Per i dettagli su questi formati URI, vedere Formati URI di storage degli oggetti cloud.

  1. Memorizzare le credenziali dello storage degli oggetti cloud mediante la procedura DBMS_CLOUD.CREATE_CREDENTIAL.

    L'importazione di Data Pump supporta credenziali basate su token di autenticazione di Oracle Cloud Infrastructure e credenziali basate su chiave di firma di Oracle Cloud Infrastructure.

    Esempio 1: per creare le credenziali del token di autenticazione di Oracle Cloud Infrastructure, effettuare le operazioni riportate di seguito.

     BEGIN
     DBMS_CLOUD.CREATE_CREDENTIAL(
       credential_name => 'DEF_CRED_NAME',
       username => 'adb_user@oracle.com',
       password => '*password*'
       );
     END;
     /
    

    Esempio 2: per creare le credenziali basate sulla chiave di firma di Oracle Cloud Infrastructure, effettuare le operazioni riportate di seguito.

     BEGIN
       DBMS_CLOUD.CREATE_CREDENTIAL (
         credential_name => 'DEF_CRED_NAME',
         user_ocid       => 'ocid1.user.oc1..unique_ID',
         tenancy_ocid    => 'ocid1.tenancy.oc1..unique_ID',
         private_key     => 'MIIEogIBAAKCAQEAtUnxbmre.....wtnNpESQQQ0QLGPD8NM//JEBg=',
         fingerprint     => 'fingerprint value'
       );
     END;
     /
    

    Per ulteriori informazioni sui tipi di credenziali per Oracle Cloud Infrastructure Cloud Object Storage, vedere la procedura CREDENTIAL.

  2. Se si utilizza Oracle Data Pump versione 12.2.0.1 o precedente, è necessario impostare la credenziale come credenziale predefinita per Autonomous AI Database, come utente ADMIN. Ad esempio:

     alter database property set default_credential = 'ADMIN.DEF_CRED_NAME'
    
  3. Eseguire l'importazione di Data Pump con il parametro dumpfile impostato sulla lista degli URL di file nello storage degli oggetti cloud.

    • Oracle Data Pump versione 18.3 o successiva: impostare il parametro credential sul nome della credenziale creata nel Passo 1. Ad esempio:

      impdp admin/password@ATPC1_high \
        credential=def_cred_name \
        dumpfile= https://namespace-string.objectstorage.us-ashburn-1.oci.customer-oci.com/n/namespace-string/b/bucketname/o/export%l.dmp \ 
        parallel=16 \
        transform=segment_attributes:n \
        exclude=cluster, db_link
      

      In questo esempio, dumpfile è un URI Swift di Oracle Cloud Infrastructure che specifica tutti i file il cui nome corrisponde a export<number>.dmp nel bucket mybucket nell'area us-phoenix-1. (idthydc0kinr è lo spazio di nomi dello storage degli oggetti in cui risiede il bucket).

    • Oracle Data Pump versione 12.2.0.1 o precedente: avviare il valore del parametro dumpfile con la parola chiave default_credential e due punti. Ad esempio:

      impdp admin/password@ATPC1_high \
        dumpfile=default_credential:https://swiftobjectstorage.us-phoenix-1.oraclecloud.com/v1/idthydc0kinr/mybucket/export%l.dmp \
        parallel=16 \      
        transform=segment_attributes:n \      
        exclude=cluster, db_link
      

    Note per importazione Data Pump

    • Se durante l'esportazione con expdp è stato utilizzato il parametro encryption_pwd_prompt=yes, utilizzare encryption_pwd_prompt=yes e immettere la stessa password al prompt impdp specificato durante l'esportazione.

    • Il parametro dumpfile supporta i caratteri jolly %L e %l oltre ai caratteri jolly legacy %U e %u. Ad esempio, dumpfile=export%L.dmp.

      Utilizzare il carattere jolly %L o %l per le esportazioni da Oracle Database Release 12.2 e successive. Questo carattere jolly espande il nome del file di dump in un numero intero incrementale a 3 cifre a 10 cifre e a larghezza variabile, a partire da 100 e terminando a 2147483646.

      Utilizzare il carattere jolly legacy %U o %u per le esportazioni da Oracle Database prima della Release 12.2. Se si utilizza questa opzione e sono necessari più di 99 file di dump, è necessario specificare più nomi di file di dump, ciascuno con il parametro %U o %u.

    • Per ottenere le migliori prestazioni di importazione, utilizzare il servizio di database high per la connessione di importazione e impostare il parametro parallel sul numero di CPU del database.

    • Per il formato URL del file di dump per diversi servizi di storage degli oggetti cloud, vedere Formati URI di storage degli oggetti cloud.

    • Per eseguire un'importazione completa o per importare oggetti di proprietà di altri utenti, è necessario disporre del ruolo DATAPUMP_CLOUD_IMP.

    Per informazioni sugli oggetti non consentiti in Autonomous AI Database, vedere Limitazioni sull'uso dei comandi SQL.

    Per informazioni dettagliate sui parametri di importazione, vedere Importazione di Oracle Data Pump in Oracle Database 19c Utilities o Oracle Database 26ai Utilities.

File di log degli accessi per importazione Data Pump

I file di log per le operazioni di importazione di Data Pump vengono memorizzati nella directory specificata con il parametro directory di Data Pump impdp.

Per accedere al file di log, è necessario spostare il file di log nello storage degli oggetti cloud utilizzando la procedura DBMS_CLOUD.PUT_OBJECT. Ad esempio, il blocco PL/SQL seguente sposta il file import.log nello storage degli oggetti cloud:

BEGIN
  DBMS_CLOUD.PUT_OBJECT(
    credential_name => 'DEF_CRED_NAME',
    object_uri => 'https://objectstorage.us-ashburn-1.oraclecloud.com/n/*namespace-string*/b/*bucketname*/o/import.log',
    directory_name  => 'DATA_PUMP_DIR',
    file_name => 'import.log');
END;
/

In questo esempio, *namespace-string* è lo spazio di nomi dello storage degli oggetti Oracle Cloud Infrastructure e bucketname è il nome del bucket. Per ulteriori informazioni, vedere Informazioni sugli spazi di nomi dello storage degli oggetti.

Per ulteriori informazioni, vedere DBMS_CLOUD for Objects and Files.

Contenuto correlato