Daten mit Oracle Data Pump laden
Oracle Data Pump bietet sehr schnelle Bulkverschiebung von Daten und Metadaten zwischen Oracle-Datenbanken und Autonomous AI Database auf dedizierter Exadata-Infrastruktur.
Mit Data Pump Import können Sie Daten aus Data Pump-Dateien importieren, die in Oracle Cloud Infrastructure Object Storage und Oracle Cloud Infrastructure Object Storage Classic gespeichert sind. Sie können Ihre Daten in Ihrem Cloud-Objektspeicher speichern und mit Oracle Data Pump Daten in eine autonome KI-Datenbank laden.
Hinweis: Als Alternative zum Lesen der folgenden Themen können Sie die Vorgänge unter Lab 9: Migrate with Data Pump in Oracle Autonomous AI Database Dedicated for Fleet Administrators Workshop ausprobieren.
Daten aus vorhandener Oracle-Datenbank exportieren
Zunächst exportieren Sie per Oracle Data Pump-Export die vorhandenen Oracle-Datenbankschemas. Anschließend migrieren Sie sie mit Oracle Data Pump Import in eine autonome KI-Datenbank.
Oracle empfiehlt die Verwendung der folgenden Data Pump-Exportparameter für die schnellere und einfachere Migration in eine autonome KI-Datenbank:
exclude=cluster, db_link
parallel=n
schemas=schema name
dumpfile=export%l.dmp
Oracle Data Pump-Export bietet mehrere Exportmodi. Oracle empfiehlt, den Schemamodus für das Migrieren zu einer autonomen KI-Datenbank zu verwenden. Mit dem Parameter schemas können Sie die zu exportierenden Schemas auflisten.
Exportieren Sie die Schemas für eine schnellere Migration in mehrere Data Pump-Dateien, und verwenden Sie die Parallelität. Sie können das Namensformat für die zu verwendenden Dumpdatei mit dem Parameter dumpfile angeben. Setzen Sie den Parameter parallel auf mindestens die Anzahl der CPUs, die Sie in Ihrer autonomen KI-Datenbank haben.
Die Parameter exclude und data_options stellen sicher, dass die in Autonomous AI Database nicht verfügbaren Objekttypen nicht exportiert und Tabellenpartitionen gruppiert werden, sodass sie schneller in Autonomous AI Database importiert werden können.
Hinweis: Oracle empfiehlt, die aktuellen Statistiken zu erfassen, bevor Sie den Befehl expdp ausführen. Das Package dbms_stats stellt mehrere Prozeduren zur Erfassung der neuesten Statistiken bereit. Statistiken werden automatisch der Exportdumpdatei hinzugefügt. Sie helfen dabei, die Größe von Objekten zu bestimmen und die Parallelität während des Imports zu optimieren. Weitere Informationen finden Sie unter DBMS_STATS Operational Notes in Oracle Database 19c PL/SQL Packages and Types Reference und Oracle Database 26ai PL/SQL Packages and Types References.
Im folgenden Beispiel wird das SH-Schema aus einer Oracle Database-Quelldatenbank zur Migration in eine autonome KI-Datenbank mit 16 CPUs exportiert:
expdp sh/sh@orcl \
exclude=cluster, db_link \
parallel=16 \
schemas=sh \
dumpfile=export%l.dmp \
encryption_pwd_prompt=yes
Hinweise zu Data Pump-Parametern:
-
Wenn Sie während des Exports mit
expdpden Parameterencryption_pwd_prompt=yesverwenden, verwenden Sieencryption_pwd_prompt=yesmit dem Import und dasselbe Kennwort beimimpdp-Prompt, um die Dumpdateien zu entschlüsseln (merken Sie das Kennwort, das Sie während des Exports angeben). Die maximale Länge des Verschlüsselungskennworts beträgt 128 Byte. -
Der Parameter
dumpfileunterstützt zusätzlich zu den Legacy-Platzhaltern%Uund%udie Platzhalter%Lund%l. Beispiel:dumpfile=export%L.dmp.Verwenden Sie den Platzhalter
%Loder%lfür Exporte aus Oracle Database Release 12.2 und höher. Dieser Platzhalter erweitert den Namen der Dumpdatei in eine 3-stellige Ganzzahl mit variabler Breite, die bei 100 beginnt und bei 2147483646 endet.Verwenden Sie den Legacy-Platzhalter
%Uoder%ufür Exporte aus Oracle Database vor Release 12.2. Wenn Sie diese Option verwenden und mehr als 99 Dumpdateien benötigt werden, müssen Sie mehrere Dumpdateinamen angeben, die jeweils den Parameter%Uoder%uenthalten.
Je nach Ihren Anforderungen können Sie andere Data Pump-Exportparameter wie compression verwenden. Weitere Informationen finden Sie unter Oracle Data Pump Export in Oracle Database 19c-Utilitys oder Oracle Database 26ai-Utilitys.
Exportdateien in Cloud-Objektspeicher hochladen
Bevor Sie die aus der Oracle-Quelldatenbank exportierten Daten importieren können, müssen Sie die Exportdateien in den Cloud-Objektspeicher hochladen.
Sie können die Exportdateien in einen vorhandenen Speicher-Bucket in Oracle Cloud Infrastructure Object Storage oder einen vorhandenen Speichercontainer in Oracle Cloud Infrastructure Object Storage Classic hochladen. Alternativ können Sie wie folgt einen neuen Speicher-Bucket erstellen und die Exportdateien in diesen hochladen.
-
Melden Sie sich unter cloud.oracle.com bei Ihrem Oracle Cloud-Account an.
-
Wählen Sie in der linken Navigationsliste von Oracle Cloud Infrastructure "Object Storage" aus, und wählen Sie in der Unterliste "Object Storage" aus.
-
Wählen Sie ein Compartment aus, in dem der Speicher-Bucket erstellt werden soll.
-
Klicken Sie auf Bucket erstellen.
-
Im Dialogfeld "Bucket erstellen" geben Sie dem Bucket einen Namen, und klicken Sie auf Bucket erstellen.
-
Nachdem der Bucket erstellt wurde, klicken Sie in der Liste der Buckets auf seinen Namen, um die Seite "Bucket-Details" anzuzeigen.
-
Klicken Sie im Feld "Objekte" auf Objekte hochladen.
-
Klicken Sie im Dialogfeld "Objekte hochladen" im Feld "Dateien von Ihrem Computer auswählen" auf den Link Dateien auswählen.
-
Navigieren Sie im Dateibrowser zu den Exportdateien, und wählen Sie sie aus. Klicken Sie dann auf Öffnen.
-
Klicken Sie im Dialogfeld "Objekte hochladen" auf Objekte hochladen, um den Hochladen der ausgewählten Dateien zu beginnen.
-
Schließen Sie nach Abschluss der Uploads das Dialogfeld "Objekte hochladen".
Daten mit Oracle Data Pump importieren
Oracle empfiehlt, die neueste Oracle Data Pump-Version für das Importieren von Daten aus Data Pump-Dateien in die Autonomous AI Database zu verwenden, da sie Verbesserungen und Fixes für eine bessere Erfahrung enthält.
Laden Sie die neueste Version des Oracle Instant Client Basic Package und des Toolpackage (inklusive Oracle Data Pump) für Ihre Plattform unter Oracle Instant Client-Downloads herunter. Die Installationsschritte, die nach dem Herunterladen von Oracle Instant Client erforderlich sind, finden Sie in den Installationsanweisungen auf der Downloadseite für die Plattforminstallation.
In Oracle Data Pump Version 18.3 und höher authentifiziert das Argument credential Data Pump beim Cloud Object Storage-Service, den Sie für Ihre Quelldateien verwenden. Das Argument dumpfile ist eine durch Komma getrennte Liste von URLs für die Data Pump-Dateien.
Die Data Pump Import-Versionen 12.2.0.1 und früher enthalten nicht den Parameter credential. Wenn Sie eine ältere Version von Data Pump Import verwenden, müssen Sie eine Standardzugangsdateneigenschaft für Autonomous AI Database definieren und das Schlüsselwort default_credential im Parameter dumpfile verwenden.
Wenn die Quelldateien in Oracle Cloud Infrastructure Object Storage, gespeichert sind, können Sie in Oracle Data Pump native Oracle Cloud Infrastructure-URIs oder die Swift-URIs verwenden. Details zu diesen URI-Formaten finden Sie unter URI-Formate für Cloud-Objektspeicher.
-
Speichern Sie die Zugangsdaten für den Cloud-Objektspeicher mit der Prozedur
DBMS_CLOUD.CREATE_CREDENTIAL.Data Pump Import unterstützt auf Oracle Cloud Infrastructure-Authentifizierungstoken basierende Zugangsdaten und auf Oracle Cloud Infrastructure-Signaturschlüsseln basierende Zugangsdaten.
Beispiel 1: So erstellen Sie Zugangsdaten für Oracle Cloud Infrastructure-Authentifizierungstoken:
BEGIN DBMS_CLOUD.CREATE_CREDENTIAL( credential_name => 'DEF_CRED_NAME', username => 'adb_user@oracle.com', password => '*password*' ); END; /Beispiel 2: So erstellen Sie Oracle Cloud Infrastructure-Signaturschlüssel-basierte Zugangsdaten:
BEGIN DBMS_CLOUD.CREATE_CREDENTIAL ( credential_name => 'DEF_CRED_NAME', user_ocid => 'ocid1.user.oc1..unique_ID', tenancy_ocid => 'ocid1.tenancy.oc1..unique_ID', private_key => 'MIIEogIBAAKCAQEAtUnxbmre.....wtnNpESQQQ0QLGPD8NM//JEBg=', fingerprint => 'fingerprint value' ); END; /Weitere Informationen zu den Zugangsdaten für Oracle Cloud Infrastructure Cloud Object Storage finden Sie unter Prozedur CREDENTIAL CREATE_CREDENTIAL.
-
Wenn Sie Oracle Data Pump Version 12.2.0.1 oder früher verwenden, müssen Sie die Zugangsdaten als Standardzugangsdaten für die autonome KI-Datenbank als ADMIN-Benutzer festlegen. Beispiel:
alter database property set default_credential = 'ADMIN.DEF_CRED_NAME' -
Führen Sie Data Pump Import aus, und setzen Sie den Parameter
dumpfileauf die Liste der Datei-URLs in Ihrem Cloud-Objektspeicher.-
Oracle Data Pump Version 18.3 oder höher: setzen Sie den Parameter
credentialauf den Namen der Zugangsdaten, die Sie in Schritt 1 erstellt haben. Beispiel:impdp admin/password@ATPC1_high \ credential=def_cred_name \ dumpfile= https://namespace-string.objectstorage.us-ashburn-1.oci.customer-oci.com/n/namespace-string/b/bucketname/o/export%l.dmp \ parallel=16 \ transform=segment_attributes:n \ exclude=cluster, db_linkIn diesem Beispiel ist
dumpfileeine Oracle Cloud Infrastructure-Swift-URI, die alle Dateien angibt, deren Namen mitexport<number>.dmpim Bucketmybucketin der Regionus-phoenix-1übereinstimmen. (idthydc0kinrist der Objektspeicher-Namespace, in dem sich der Bucket befindet.) -
Oracle Data Pump Version 12.2.0.1 oder früher: Beginnen Sie den Wert des Parameters
dumpfilemit dem Schlüsselwortdefault_credentialund einem Doppelpunkt. Beispiel:impdp admin/password@ATPC1_high \ dumpfile=default_credential:https://swiftobjectstorage.us-phoenix-1.oraclecloud.com/v1/idthydc0kinr/mybucket/export%l.dmp \ parallel=16 \ transform=segment_attributes:n \ exclude=cluster, db_link
Hinweise zum Data Pump-Import
-
Wenn Sie während des Exports mit
expdpden Parameterencryption_pwd_prompt=yesverwenden, verwenden Sieencryption_pwd_prompt=yesmit dem Import und dasselbe Kennwort beimimpdp-Prompt, das Sie beim Export angegeben haben. -
Der Parameter
dumpfileunterstützt zusätzlich zu den Legacy-Platzhaltern%Uund%udie Platzhalter%Lund%l. Beispiel:dumpfile=export%L.dmp.Verwenden Sie den Platzhalter
%Loder%lfür Exporte aus Oracle Database Release 12.2 und höher. Dieser Platzhalter erweitert den Namen der Dumpdatei in eine 3-stellige Ganzzahl mit variabler Breite, die bei 100 beginnt und bei 2147483646 endet.Verwenden Sie den Legacy-Platzhalter
%Uoder%ufür Exporte aus Oracle Database vor Release 12.2. Wenn Sie diese Option verwenden und mehr als 99 Dumpdateien benötigt werden, müssen Sie mehrere Dumpdateinamen angeben, die jeweils den Parameter%Uoder%uenthalten. -
Um die beste Importperformance zu erzielen, verwenden Sie den Datenbankservice
highfür die Importverbindung, und setzen Sie den Parameterparallelauf die Anzahl der CPUs Ihrer Datenbank. -
Informationen zum URL-Format der Dumpdatei für verschiedene Cloud-Objektspeicherservices finden Sie unter URI-Formate für Cloud-Objektspeicher.
-
Um einen vollständigen Import durchzuführen oder Objekte zu importieren, deren Eigentümer andere Benutzer sind, benötigen Sie die Rolle
DATAPUMP_CLOUD_IMP.
Informationen zu nicht zulässigen Objekten in autonomer KI-Datenbank finden Sie unter Einschränkungen bei der Verwendung von SQL-Befehlen.
Ausführliche Informationen zu den Importparametern finden Sie unter Oracle Data Pump Import in Oracle Database 19c-Utilitys oder Oracle Database 26ai-Utilitys.
-
Auf Logdateien für Data Pump-Import zugreifen
Die Logdateien für Data Pump-Importvorgänge werden in dem Verzeichnis gespeichert, das Sie mit dem Data Pump-Parameter impdp directory angeben.
Um auf die Logdatei zuzugreifen, müssen Sie die Logdatei mit der Prozedur DBMS_CLOUD.PUT_OBJECT in den Cloud Object Storage verschieben. Beispiel: Der folgende PL/SQL-Block verschiebt die Datei import.log in den Cloud-Objektspeicher:
BEGIN
DBMS_CLOUD.PUT_OBJECT(
credential_name => 'DEF_CRED_NAME',
object_uri => 'https://objectstorage.us-ashburn-1.oraclecloud.com/n/*namespace-string*/b/*bucketname*/o/import.log',
directory_name => 'DATA_PUMP_DIR',
file_name => 'import.log');
END;
/
In diesem Beispiel ist *namespace-string* der Oracle Cloud Infrastructure-Objektspeicher-Namespace und bucketname der Bucket-Name. Weitere Informationen finden Sie unter Object Storage-Namespaces.
Weitere Informationen finden Sie unter DBMS_CLOUD für Objekte und Dateien.