Carica dati mediante Oracle Data Pump
Oracle Data Pump offre uno spostamento rapido di dati e metadati in blocco tra i database Oracle e Autonomous AI Database on Dedicated Exadata Infrastructure.
L'importazione di Data Pump consente di importare i dati dai file Data Pump che risiedono in Oracle Cloud Infrastructure Object Storage e Oracle Cloud Infrastructure Object Storage Classic. Puoi salvare i tuoi dati nell'area di memorizzazione degli oggetti cloud e utilizzare Oracle Data Pump per caricare i dati nell'Autonomous AI Database.
Nota
Per un'alternativa "Prova" alla lettura dei seguenti argomenti, puoi consultare il Lab 9: Migrate with Data Pump nel workshop per amministratori della flotta di Oracle Autonomous AI Database dedicato.Argomenti correlati
Esporta dati da Oracle Database esistente
In primo luogo, utilizzare l'esportazione di Oracle Data Pump per esportare gli schemi di Oracle Database esistenti. Quindi utilizzi l'importazione di Oracle Data Pump per eseguirne la migrazione a Autonomous AI Database.
Oracle consiglia di utilizzare i parametri di esportazione di Data Pump riportati di seguito per una migrazione più rapida e semplice all'Autonomous AI Database:
exclude=cluster, db_link
parallel=n
schemas=schema name
dumpfile=export%l.dmp
L'esportazione di Oracle Data Pump fornisce diverse modalità di esportazione. Oracle consiglia di utilizzare la modalità schema per la migrazione a Autonomous AI Database. È possibile elencare gli schemi che si desidera esportare utilizzando il parametro schemi.
Per una migrazione più rapida, esportare gli schemi in più file Data Pump e utilizzare il parallelismo. È possibile specificare il formato del nome del file di dump da utilizzare con il parametro dumpfile. Impostare il parametro parallel su almeno il numero di CPU presenti nell'Autonomous AI Database.
I parametri exclude e data_options garantiscono che i tipi di oggetto non disponibili in Autonomous AI Database non vengano esportati e che le partizioni di tabella vengano raggruppate in modo che possano essere importate più rapidamente in Autonomous AI Database.
Nota
Oracle consiglia di raccogliere le statistiche aggiornate prima di eseguire il comandoexpdp
. Il pacchetto dbms_stats
prevede più procedure per la raccolta delle statistiche più recenti. Le statistiche vengono aggiunte automaticamente al file di dump di esportazione e consentono di determinare le dimensioni degli oggetti e ottimizzare il parallelismo durante l'importazione. Per ulteriori informazioni, vedere DBMS_STATS Operational Notes in Oracle Database 19c PL/SQL Packages and Types Reference e Oracle Database 26ai PL/SQL Packages and Types References.
L'esempio riportato di seguito esporta lo schema SH da un Oracle Database di origine per la migrazione a un database AI autonomo con 16 CPU:
expdp sh/sh@orcl \
exclude=cluster, db_link \
parallel=16 \
schemas=sh \
dumpfile=export%l.dmp \
encryption_pwd_prompt=yes
Note per i parametri Data Pump:-
Se durante l'esportazione con
expdp
si utilizza il parametroencryption_pwd_prompt=yes
, utilizzare ancheencryption_pwd_prompt=yes
con l'importazione e immettere la stessa password al promptimpdp
per decifrare i file di dump (ricordare la password fornita durante l'esportazione). La lunghezza massima della password di cifratura è di 128 byte. -
Il parametro
dumpfile
supporta i caratteri jolly%L
e%l
oltre ai caratteri jolly%U
e%u
precedenti. Ad esempio,dumpfile=export%L.dmp
.Utilizzare il carattere jolly
%L
o%l
per le esportazioni da Oracle Database Release 12.2 e successive. Questo carattere jolly espande il nome del file di dump in un numero intero incrementale di 3 cifre a 10 cifre e larghezza variabile, a partire da 100 e terminando con 2147483646.Utilizzare il carattere jolly precedente
%U
o%u
per le esportazioni da Oracle Database prima della release 12.2. Se si utilizza questa opzione e sono necessari più di 99 file di dump, è necessario specificare più nomi di file di dump, ciascuno con il parametro%U
o%u
.
È possibile utilizzare altri parametri di esportazione Data Pump, ad esempio compression
, a seconda delle esigenze. Per ulteriori informazioni, vedere Oracle Data Pump Export in Oracle Database 19c Utilities o Oracle Database 26ai Utilities.
Caricare i file di esportazione nello storage degli oggetti cloud
Prima di poter importare i dati esportati dall'Oracle Database di origine, è necessario caricare i file di esportazione nello storage degli oggetti cloud.
Puoi caricare i file di esportazione in un bucket di storage esistente in Oracle Cloud Infrastructure Object Storage o in un contenitore di storage esistente in Oracle Cloud Infrastructure Object Storage Classic. In alternativa, utilizzare la procedura riportata di seguito per creare un nuovo bucket di storage e caricarvi i file di esportazione.
-
Accedi al tuo account Oracle Cloud all'indirizzo cloud.oracle.com.
-
Nella lista di navigazione a sinistra di Oracle Cloud Infrastructure scegliere Object Storage, quindi scegliere Object Storage dalla lista secondaria.
-
Selezionare un compartimento in cui creare il bucket di storage.
-
Fare clic su Crea bucket.
-
Nella finestra di dialogo Crea bucket, assegnare un nome al bucket, quindi fare clic su Crea bucket.
-
Dopo aver creato il bucket, fare clic sul relativo nome nella lista dei bucket per visualizzare la relativa pagina Dettagli bucket.
-
Nella casella Oggetti fare clic su Carica oggetti.
-
Nella finestra di dialogo Carica oggetti, fare clic sul collegamento seleziona file nella casella Scegli file dal computer.
-
Nell'esplorazione file, individuare e selezionare i file di esportazione. Quindi fare clic su Apri.
-
Nella finestra di dialogo Carica oggetti, fare clic su Carica oggetti per iniziare a caricare i file selezionati.
-
Al termine dei caricamenti, chiudere la finestra di dialogo Carica oggetti.
Importare i dati mediante Oracle Data Pump
Oracle consiglia di utilizzare la versione più recente di Oracle Data Pump per importare i dati dai file Data Pump nel database AI autonomo in quanto contiene miglioramenti e correzioni per un'esperienza migliore.
Scarica la versione più recente del pacchetto Oracle Instant Client Basic Package and Tools Package (che include Oracle Data Pump) per la tua piattaforma da Download di Oracle Instant Client. Vedere le istruzioni di installazione nella pagina di download dell'installazione della piattaforma per i passi di installazione richiesti dopo aver scaricato Oracle Instant Client.
In Oracle Data Pump versione 18.3 e successive l'argomento credential
autentica Data Pump nel servizio di storage degli oggetti cloud in uso per i file di origine. L'argomento dumpfile
è una lista separata da virgole di URL per i file Data Pump.
Le versioni di importazione Data Pump 12.2.0.1 e precedenti non dispongono del parametro credential
. Se si utilizza una versione precedente dell'importazione di Data Pump, è necessario definire una proprietà della credenziale predefinita per Autonomous AI Database e utilizzare la parola chiave default_credential
nel parametro dumpfile
.
In Oracle Data Pump, se i file di origine risiedono in Oracle Cloud Infrastructure Object Storage, è possibile utilizzare gli URI nativi di Oracle Cloud Infrastructure o gli URI Swift. Per i dettagli su questi formati URI, vedere Formati URI di storage degli oggetti cloud.
Accedi ai file di log per l'importazione di Data Pump
I file di log per le operazioni di importazione di Data Pump vengono memorizzati nella directory specificata con il parametro impdp
directory di Data Pump.
Per accedere al file di log, è necessario spostare il file di log nello storage degli oggetti cloud utilizzando la procedura DBMS_CLOUD.PUT_OBJECT
. Ad esempio, il seguente blocco PL/SQL sposta il file import.log
nello storage degli oggetti cloud:
BEGIN
DBMS_CLOUD.PUT_OBJECT
(
credential_name => 'DEF_CRED_NAME',
object_uri => 'https://objectstorage.us-ashburn-1.oraclecloud.com/n/namespace-string/b/bucketname/o/import.log',
directory_name => 'DATA_PUMP_DIR',
file_name => 'import.log');
END;
/
In questo esempio, namespace-string
è lo spazio di nomi dello storage degli oggetti Oracle Cloud Infrastructure e bucketname
è il nome del bucket. Per ulteriori informazioni, vedere Informazioni sugli spazi di nomi dello storage degli oggetti.
Per ulteriori informazioni, vedere DBMS_CLOUD per oggetti e file.