Charger des données à l'aide d'Oracle Data Pump
Oracle Data Pump offre un déplacement très rapide des données et des métadonnées en masse entre les bases de données Oracle et la base de données Autonomous AI Database sur une infrastructure Exadata dédiée.
Data Pump Import lets you import data from Data Pump files residing on the Oracle Cloud Infrastructure Object Storage and Oracle Cloud Infrastructure Object Storage Classic. Vous pouvez enregistrer vos données dans votre magasin d'objets en nuage et utiliser Oracle Data Pump pour charger des données dans Autonomous AI Database.
Note : Pour une solution de rechange à la lecture des rubriques suivantes, vous pouvez consulter Laboratoire 9 : Migrer avec l'extraction de données dans l'atelier Oracle Autonomous AI Database Dedicated for Fleet Administrators.
Exporter les données de votre base de données Oracle existante
Tout d'abord, vous utilisez la fonction d'exportation d'Oracle Data Pump pour exporter vos schémas Oracle Database existants. Ensuite, vous utilisez Oracle Data Pump Import pour les migrer vers Autonomous AI Database.
Oracle recommande d'utiliser les paramètres d'exportation Data Pump suivants pour une migration plus rapide et plus facile vers Autonomous AI Database :
exclude=cluster, db_link
parallel=n
schemas=schema name
dumpfile=export%l.dmp
Oracle Data Pump Export fournit plusieurs modes d'exportation. Oracle recommande d'utiliser le mode schéma pour la migration vers une base de données d'intelligence artificielle autonome. Vous pouvez lister les schémas à exporter à l'aide du paramètre schemas.
Pour une migration plus rapide, exportez vos schémas dans plusieurs fichiers Oracle Data Pump et utilisez le parallélisme. Vous pouvez spécifier le format du nom du fichier de vidage à utiliser avec le paramètre dumpfile. Réglez le paramètre parallèle à au moins le nombre d'UC que vous avez dans votre base de données d'IA autonome.
Les paramètres exclure et data_options garantissent que les types d'objet non disponibles dans Autonomous AI Database ne sont pas exportés et que les partitions de table sont regroupées afin qu'elles puissent être importées plus rapidement dans Autonomous AI Database.
Note : Oracle recommande de collecter les statistiques à jour avant d'exécuter la commande expdp. L'ensemble dbms_stats fournit plusieurs procédures pour collecter les statistiques les plus récentes. Les statistiques sont automatiquement ajoutées au fichier de vidage de l'exportation. Elles permettent de déterminer la taille des objets et d'optimiser le parallélisme pendant l'importation. Pour plus d'informations, voir Notes opérationnelles DBMS_STATS dans Informations de référence sur les ensembles et les types PL/SQL pour Oracle Database 19c et Références sur les ensembles et les types PL/SQL pour Oracle Database 26ai.
L'exemple suivant exporte le schéma SH à partir d'une base de données Oracle Database source pour la migration vers une base de données autonome avec 16 UC :
expdp sh/sh@orcl \
exclude=cluster, db_link \
parallel=16 \
schemas=sh \
dumpfile=export%l.dmp \
encryption_pwd_prompt=yes
Notes relatives aux paramètres Data Pump :
-
Si, lors de l'exportation avec
expdp, vous utilisez le paramètreencryption_pwd_prompt=yes, utilisez égalementencryption_pwd_prompt=yesavec votre importation et entrez le même mot de passe à l'inviteimpdppour déchiffrer les fichiers de vidage (rappelez-vous le mot de passe que vous fournissez lors de l'exportation). La longueur maximale du mot de passe de chiffrement est de 128 octets. -
Le paramètre
dumpfileprend en charge les caractères génériques%Let%len plus des caractères génériques%Uet%uexistants. Par exemple,dumpfile=export%L.dmp.Utilisez le caractère générique
%Lou%lpour les exportations à partir d'Oracle Database version 12.2 et supérieure. Ce caractère générique étend le nom du fichier dumpfile en un entier incrémentant de 3 chiffres à 10 chiffres, de largeur variable, commençant à 100 et se terminant à 2147483646.Utilisez le caractère générique
%Uou%uexistant pour les exportations à partir d'Oracle Database avant la version 12.2. Si vous utilisez cette option et que plus de 99 fichiers de vidage sont nécessaires, vous devez spécifier plusieurs noms de fichier de vidage, chacun avec le paramètre%Uou%u.
Vous pouvez utiliser d'autres paramètres d'exportation d'Oracle Data Pump, tels que compression, selon vos besoins. Pour plus d'informations, voir Exportation avec Oracle Data Pump dans Utilitaires Oracle Database 19c ou Utilitaires Oracle Database 26ai.
Charger les fichiers d'exportation vers le stockage d'objets en nuage
Avant de pouvoir importer les données que vous avez exportées à partir de la base de données Oracle source, vous devez charger les fichiers d'exportation dans le stockage d'objets en nuage.
Vous pouvez charger les fichiers d'exportation dans un seau de stockage existant dans le service de stockage d'objets pour Oracle Cloud Infrastructure ou dans un conteneur de stockage existant dans le service de stockage d'objets pour Oracle Cloud Infrastructure version classique. Vous pouvez également utiliser la procédure ci-dessous pour créer un nouveau seau de stockage et y charger les fichiers d'exportation.
-
Connectez-vous à votre compte Oracle Cloud à l'adresse cloud.oracle.com.
-
Dans la liste de navigation de gauche d'Oracle Cloud Infrastructure, sélectionnez Stockage d'objets, puis Stockage d'objets dans la sous-liste.
-
Sélectionnez un compartiment dans lequel créer le seau de stockage.
-
Cliquez sur Créer un seau.
-
Dans la boîte de dialogue Créer un seau, donnez un nom au seau, puis cliquez sur Créer un seau.
-
Une fois le seau créé, cliquez sur son nom dans la liste de seaux pour afficher la page de détails associée.
-
Dans la zone Objets, cliquez sur Charger les objets.
-
Dans la boîte de dialogue Charger des objets, cliquez sur le lien Sélectionner des fichiers dans la zone Sélectionner des fichiers de votre ordinateur.
-
Dans le navigateur de fichiers, accédez aux fichiers d'exportation et sélectionnez-les. Cliquez ensuite sur Ouvrir.
-
Dans la boîte de dialogue Charger des objets, cliquez sur Charger des objets pour commencer à charger les fichiers que vous avez sélectionnés.
-
Une fois les chargements terminés, fermez la boîte de dialogue Charger les objets.
Importer des données à l'aide d'Oracle Data Pump
Oracle recommande d'utiliser la dernière version d'Oracle Data Pump pour importer des données à partir de fichiers Data Pump dans votre base de données IA autonome, car elle contient des améliorations et des correctifs pour une meilleure expérience.
Téléchargez la dernière version de l'ensemble Oracle Instant Client Basic et l'ensemble d'outils (qui inclut Oracle Data Pump) pour votre plate-forme à partir des téléchargements Oracle Instant Client. Consultez les instructions d'installation sur la page de téléchargement pour connaître les étapes d'installation requises après le téléchargement d'Oracle Instant Client.
Dans Oracle Data Pump version 18.3 et ultérieures, l'argument credential authentifie Oracle Data Pump auprès du service de stockage d'objets en nuage que vous utilisez pour vos fichiers sources. L'argument dumpfile est une liste d'URL de fichiers Oracle Data Pump séparées par des virgules.
Le paramètre credential n'existe pas dans les versions 12.2.0.1 et antérieures de la fonction d'importation d'Oracle Data Pump. Si vous utilisez une ancienne version de Data Pump Import, vous devez définir une propriété de données d'identification par défaut pour Autonomous AI Database et utiliser le mot clé default_credential dans le paramètre dumpfile.
Dans Oracle Data Pump, si vos fichiers sources résident dans le service Oracle Cloud Infrastructure Object Storage, vous pouvez utiliser les URI natifs d'Oracle Cloud Infrastructure ou les URI Swift. Voir Formats d'URI du service de stockage d'objets en nuage pour plus de détails sur ces formats d'URI.
-
Stockez vos données d'identification du service de stockage d'objets en nuage à l'aide de la procédure
DBMS_CLOUD.CREATE_CREDENTIAL.L'importation Data Pump prend en charge les données d'identification basées sur un jeton d'authentification pour Oracle Cloud Infrastructure et les données d'identification basées sur une clé de signature pour Oracle Cloud Infrastructure.
Exemple 1 : Pour créer des données d'identification de jeton d'authentification Oracle Cloud Infrastructure :
BEGIN DBMS_CLOUD.CREATE_CREDENTIAL( credential_name => 'DEF_CRED_NAME', username => 'adb_user@oracle.com', password => '*password*' ); END; /Exemple 2 : Pour créer des données d'identification basées sur la clé de signature Oracle Cloud Infrastructure :
BEGIN DBMS_CLOUD.CREATE_CREDENTIAL ( credential_name => 'DEF_CRED_NAME', user_ocid => 'ocid1.user.oc1..unique_ID', tenancy_ocid => 'ocid1.tenancy.oc1..unique_ID', private_key => 'MIIEogIBAAKCAQEAtUnxbmre.....wtnNpESQQQ0QLGPD8NM//JEBg=', fingerprint => 'fingerprint value' ); END; /Pour plus d'informations sur les types de données d'identification pour le service de stockage d'objets en nuage d'Oracle Cloud Infrastructure, voir Procédure CREATE_CREDENTIAL.
-
Si vous utilisez la version 12.2.0.1 ou une version antérieure d'Oracle Data Pump, vous devez définir les données d'identification en tant que données d'identification par défaut pour votre base de données IA autonome, en tant qu'utilisateur ADMIN. Par exemple :
alter database property set default_credential = 'ADMIN.DEF_CRED_NAME' -
Exécutez la fonction d'importation d'Oracle Data Pump avec le paramètre
dumpfileréglé à la liste des URL de fichier dans le service de stockage d'objets en nuage.-
Oracle Data Pump version 18.3 ou ultérieure : Réglez le paramètre
credentialau nom des données d'identification que vous avez créées à l'étape 1. Par exemple :impdp admin/password@ATPC1_high \ credential=def_cred_name \ dumpfile= https://namespace-string.objectstorage.us-ashburn-1.oci.customer-oci.com/n/namespace-string/b/bucketname/o/export%l.dmp \ parallel=16 \ transform=segment_attributes:n \ exclude=cluster, db_linkDans cet exemple,
dumpfileest un URI Swift d'Oracle Cloud Infrastructure qui spécifie tous les fichiers dont le nom correspond àexport<number>.dmpdans le seaumybucketde la régionus-phoenix-1. (idthydc0kinrest l'espace de noms du stockage d'objets dans lequel réside le seau.) -
Oracle Data Pump version 12.2.0.1 ou antérieure : Démarrez la valeur du paramètre
dumpfileavec le mot clédefault_credentialet un deux-points. Par exemple :impdp admin/password@ATPC1_high \ dumpfile=default_credential:https://swiftobjectstorage.us-phoenix-1.oraclecloud.com/v1/idthydc0kinr/mybucket/export%l.dmp \ parallel=16 \ transform=segment_attributes:n \ exclude=cluster, db_link
Notes pour l'importation de l'extraction de données
-
Si, lors de l'exportation avec
expdp, vous avez utilisé le paramètreencryption_pwd_prompt=yes, utilisezencryption_pwd_prompt=yeset entrez le même mot de passe à l'inviteimpdpque vous avez spécifiée lors de l'exportation. -
Le paramètre
dumpfileprend en charge les caractères génériques%Let%len plus des caractères génériques%Uet%uexistants. Par exemple,dumpfile=export%L.dmp.Utilisez le caractère générique
%Lou%lpour les exportations à partir d'Oracle Database version 12.2 et supérieure. Ce caractère générique étend le nom du fichier dumpfile en un entier incrémentant de 3 chiffres à 10 chiffres, de largeur variable, commençant à 100 et se terminant à 2147483646.Utilisez le caractère générique
%Uou%uexistant pour les exportations à partir d'Oracle Database avant la version 12.2. Si vous utilisez cette option et que plus de 99 fichiers de vidage sont nécessaires, vous devez spécifier plusieurs noms de fichier de vidage, chacun avec le paramètre%Uou%u. -
Pour une meilleure performance d'importation, utilisez le service de base de données
highpour votre connexion d'importation et réglez le paramètreparallelau nombre d'UC de votre base de données. -
Pour connaître le format d'URL du fichier de vidage pour les différents services de stockage d'objets en nuage, voir Formats d'URI du service de stockage d'objets en nuage.
-
Pour effectuer une importation complète ou pour importer des objets appartenant à d'autres utilisateurs, vous avez besoin du rôle
DATAPUMP_CLOUD_IMP.
Pour plus d'informations sur les objets non autorisés dans la base de données d'IA autonome, voir Limitations relatives à l'utilisation de commandes SQL.
Pour des informations détaillées sur les paramètres d'importation, voir Importation d'Oracle Data Pump dans Utilitaires Oracle Database 19c ou Utilitaires Oracle Database 26ai.
-
Accéder aux fichiers journaux pour l'importation Data Pump
Les fichiers journaux des opérations d'importation de l'extraction de données sont stockés dans le répertoire que vous spécifiez avec le paramètre de répertoire de l'extraction de données impdp.
Pour accéder au fichier journal, vous devez déplacer le fichier journal vers le service de stockage d'objets en nuage à l'aide de la procédure DBMS_CLOUD.PUT_OBJECT. Par exemple, le bloc PL/SQL suivant déplace le fichier import.log vers votre stockage d'objets en nuage :
BEGIN
DBMS_CLOUD.PUT_OBJECT(
credential_name => 'DEF_CRED_NAME',
object_uri => 'https://objectstorage.us-ashburn-1.oraclecloud.com/n/*namespace-string*/b/*bucketname*/o/import.log',
directory_name => 'DATA_PUMP_DIR',
file_name => 'import.log');
END;
/
Dans cet exemple, *namespace-string* est l'espace de noms du stockage d'objets Oracle Cloud Infrastructure et bucketname est le nom du seau. Pour plus d'informations, voir Présentation des espaces de noms du stockage d'objets.
Pour plus d'informations, voir DBMS_CLOUD for Objects and Files.