DBMS_CLOUD pour les objets et les fichiers
Cette section traite des sous-programmes DBMS_CLOUD utilisés pour utiliser des objets et des fichiers.
Prérequis
En tant que développeur, vous pouvez utiliser les procédures DBMS_CLOUD avec des bases de données d'IA autonomes déployées sur Oracle Public Cloud, Multicloud ou Exadata Cloud@Customer.
Selon le choix de déploiement, les prérequis suivants doivent être respectés pour utiliser les procédures DBMS_CLOUD avec les fournisseurs de services Amazon S3, Azure Blob Storage et Google Cloud Storage.
L'administrateur de parc doit avoir configuré une connectivité sortante à l'aide d'une passerelle NAT, comme décrit ci-dessous :
-
Créez une passerelle NAT dans le réseau cloud virtuel (VCN) où résident vos ressources de base de données Autonomous AI en suivant les instructions de la section Création d'une passerelle NAT dans la documentation Oracle Cloud Infrastructure.
-
Après avoir créé la passerelle NAT, ajoutez une règle de routage et une règle de sécurité sortante à chaque sous-réseau (dans le VCN) où résident les ressources de base de données Autonomous AI afin que ces ressources puissent utiliser la passerelle pour obtenir une clé publique à partir de votre instance Azure AD :
-
Accédez à la page Détails du sous-réseau correspondante.
-
Dans l'onglet Information sur le sous-réseau, cliquez sur le nom de la table de acheminement du sous‑réseau pour afficher la page Détails de la table de acheminement correspondante.
-
Dans la table des règles de acheminement existantes, vérifiez s'il existe déjà une règle avec les caractéristiques suivantes :
-
Destination : 0.0.0.0/0
-
Type de cible : passerelle NAT
-
Cible : nom de la passerelle NAT que vous venez de créer dans le VCN
Si une telle règle n'existe pas, cliquez sur Ajouter des règles de routage et ajoutez une règle de routage possédant ces caractéristiques.
-
-
Revenez à la page Détails du sous-réseau du sous-réseau.
-
Dans la table Listes de sécurité du sous‑réseau, cliquez sur le nom de la liste des sécurité du sous-réseau pour afficher sa page Détails de la liste.
-
Dans le menu latéral, sous Ressources, cliquez sur Règles sortantes.
-
Dans la table des règles sortantes existantes, vérifiez s'il existe déjà une règle avec les caractéristiques suivantes :
-
Type de destination : CIDR
-
Destination :0.0.0.0/0
-
Protocole IP : TCP
-
Plage de ports source:443
-
Plage de ports de Destination : Tout
Si une telle règle n'existe pas, cliquez sur Ajouter des règles sortantes et ajoutez une règle possédant ces caractéristiques.
-
-
Les paramètres de proxy HTTP de votre environnement doivent autoriser la base de données à accéder au fournisseur de service cloud.
Ces paramètres sont définis par l'administrateur de parc lors de la création de l'infrastructure Exadata Cloud@Customer, comme décrit dans Utilisation de la console pour provisionner Exadata Database Service on Cloud@Customer.
Remarque : la configuration réseau, y compris le proxy HTTP, ne peut être modifiée que jusqu'à ce que l'infrastructure Exadata présente l'état Activation requise. Une fois activé, vous ne pouvez plus modifier ces paramètres.
La configuration d'un proxy HTTP pour une infrastructure Exadata déjà provisionnée nécessite une demande de service dans My Oracle Support. Pour plus de détails, reportez-vous à Création d'une demande d'assistance dans My Oracle Support.
DBMS_CLOUD pour les objets et les fichiers
Les sous-programmes de gestion des objets et des fichiers dans le package DBMS_CLOUD.
| Sous-programme | Description |
|---|---|
| Procédure COPY_COLLECTION | Cette procédure charge les données dans une collection SODA existante à partir du stockage d'objets cloud ou à partir de fichiers d'un répertoire. |
| Procédure COPY_DATA | Cette procédure charge les données dans les tables de base de données Autonomous AI existantes à partir du stockage d'objets cloud ou des fichiers d'un répertoire. |
| Procédure COPY_DATA pour les fichiers Avro, ORC ou Parquet | Cette procédure avec le paramètre Comme pour les fichiers texte, les données sont copiées à partir du fichier ORC, Parquet ou Avro source dans la table interne préexistante. |
| Procédure COPY_OBJECT | Cette procédure copie les fichiers d'un bucket Cloud Object Storage vers un autre. |
| Procédure CREATE_EXTERNAL_TABLE | Cette procédure crée une table externe sur les fichiers dans le cloud ou sur les fichiers dans un répertoire. Vous pouvez ainsi exécuter des requêtes sur des données externes à partir d'une base de données Autonomous AI. |
| Procédure CREATE_EXTERNAL_TABLE pour les fichiers Avro, ORC ou Parquet | Cette procédure, avec le paramètre Vous pouvez ainsi exécuter des requêtes sur des données externes à partir d'une base de données Autonomous AI. |
| Procédure CREATE_EXTERNAL_TEXT_INDEX | Cette procédure crée un index de texte sur les fichiers de banque d'objets. |
| Procédure CREATE_HYBRID_PART_TABLE | Cette procédure crée une table partitionnée hybride. Vous pouvez ainsi exécuter des requêtes sur des données partitionnées hybrides à partir d'une base de données Autonomous AI. |
| Procédure DELETE_ALL_OPERATIONS | Cette procédure efface toutes les opérations de chargement de données consignées dans la table user_load_operations de votre schéma, ou toutes les opérations de chargement de données du type spécifié, comme indiqué dans le paramètre type. |
| Procédure DELETE_FILE | Cette procédure enlève le fichier spécifié du répertoire indiqué sur la base de données Autonomous AI |
| Procédure DELETE_OBJECT | Cette procédure supprime l'objet spécifié de la banque d'objets. |
| Procédure DELETE_OPERATION | Cette procédure accepte une entrée operation_id et supprime les journaux associés à l'entrée operation_id indiquée. |
| Procédure DROP_EXTERNAL_TEXT_INDEX | Cette procédure supprime l'index de texte dans les fichiers de la banque d'objets. |
| Procédure EXPORT_DATA | Cette procédure exporte les données d'une base de données Autonomous AI vers des fichiers dans le cloud en fonction du résultat d'une requête. La forme surchargée permet d'utiliser le paramètre operation_id. En fonction de l'option type du paramètre format indiquée, la procédure exporte les lignes vers la banque d'objets cloud sous forme de texte avec les options CSV, JSON, Parquet ou XML |
| Procédure et fonction GET_OBJECT | Cette procédure est surchargée. Cette procédure lit un objet à partir du stockage d'objet cloud et le copier vers la base de données Autonomous AI. Le formulaire de fonction lit un objet à partir du stockage d'objet cloud et renvoie une valeur BLOB vers la base de données Autonomous AI. |
| Fonction LIST_FILES | Cette fonction liste les fichiers présents dans le répertoire spécifié. Les résultats incluent les noms de fichier et les métadonnées supplémentaires sur les fichiers, telles que la taille de fichier en octets, l'horodatage de création et l'horodatage de dernière modification. |
| Fonction LIST_OBJECTS | Cette fonction répertorie les objets présents à l'emplacement spécifié dans la banque d'objets. Les résultats incluent les noms d'objet et les métadonnées supplémentaires sur les objets, telles que la taille, le checksum, l'horodatage de création et l'horodatage de dernière modification. |
| Procédure MOVE_OBJECT | Cette procédure déplace un objet d'un bucket Cloud Object Storage vers un autre. |
| Procédure PUT_OBJECT | Cette procédure est surchargée. Dans un formulaire, la procédure copie un fichier d'Autonomous AI Database vers Cloud Object Storage. Dans un autre formulaire, la procédure copie une valeur BLOB d'Autonomous AI Database vers Cloud Object Storage. |
| Procédure SYNC_EXTERNAL_PART_TABLE | Cette procédure simplifie la mise à jour d'une table partitionnée externe à partir de fichiers dans le cloud. Exécutez cette procédure chaque fois que de nouvelles partitions sont ajoutées ou lorsque des partitions sont supprimées de la source de la banque d'objets pour la table partitionnée externe. |
| Procédure VALIDATE_EXTERNAL_TABLE | Cette procédure valide les fichiers source pour une table externe, génère une information sur le journal et stocke les lignes qui ne correspondent pas aux options de format indiquées pour la table externe dans une table badfile sur Autonomous AI Database. |
| Procédure VALIDATE_EXTERNAL_PART_TABLE | Cette procédure valide les fichiers source pour une table partitionnée externe, génère une information sur le journal et stocke les lignes qui ne correspondent pas aux options de format indiquées pour la table externe dans une table badfile sur Autonomous AI Database, |
| Procédure VALIDATE_HYBRID_PART_TABLE | Cette procédure valide les fichiers source pour la table partitionnée hybride, génère les informations de journal et stocke les lignes qui ne correspondent pas aux options de format indiquées pour la table hybride dans une table badfile sur la base de données Autonomous AI. |
Procédure COPY_COLLECTION
Cette procédure charge les données dans une collection SODA à partir du stockage d'objet cloud ou d'un répertoire. Si la collection SODA spécifiée n'existe pas, la procédure la crée. La forme surchargée permet d'utiliser le paramètre operation_id.
Syntaxe
DBMS_CLOUD.COPY_COLLECTION (
collection_name IN VARCHAR2,
credential_name IN VARCHAR2 DEFAULT NULL,
file_uri_list IN CLOB,
format IN CLOB DEFAULT NULL
);
DBMS_CLOUD.COPY_COLLECTION (
collection_name IN VARCHAR2,
credential_name IN VARCHAR2 DEFAULT NULL,
file_uri_list IN CLOB,
format IN CLOB DEFAULT NULL,
operation_id OUT NOCOPY NUMBER
);
Paramètres
| Paramètre | Description |
|---|---|
collection_name |
Nom de la collection SODA dans laquelle les données sont chargées. Si une collection portant ce nom existe déjà, les données spécifiées sont chargées, sinon, la collection est créée. |
credential_name |
Nom des informations d'identification permettant d'accéder au stockage d'objet cloud. Ce paramètre n'est pas utilisé lorsque vous indiquez un répertoire avec |
file_uri_list |
Ce paramètre spécifie une liste d'URI de fichier source séparés par des virgules ou un ou plusieurs répertoires et fichiers source. URI de fichier source cloud Vous pouvez utiliser des caractères génériques ainsi que des expressions régulières dans les noms de fichier dans les URI de fichier source cloud. Les expressions régulières ne peuvent être utilisées que lorsque le paramètre Les caractères "*" et " ?" sont considérés comme des caractères génériques lorsque le paramètre Les modèles d'expression régulière sont uniquement pris en charge pour le nom de fichier ou le chemin de sous-dossier dans vos URI et la correspondance de modèle est identique à celle effectuée par la fonction Exemple : Le format des URI dépend du service Cloud Object Storage que vous utilisez. Pour en savoir plus, reportez-vous àFormats d'URI de stockage d'objet cloud. Pour plus d'informations sur la condition Répertoire Vous pouvez indiquer un répertoire et un ou plusieurs noms de fichier ou utiliser une liste de répertoires et de noms de fichier séparés par des virgules. Le format pour spécifier un répertoire est : Vous pouvez utiliser des caractères génériques pour indiquer des noms de fichier dans un répertoire. Le caractère "*" peut être utilisé comme caractère générique pour représenter plusieurs caractères. Le caractère "?" peut être utilisé comme caractère générique pour représenter un seul caractère. Par exemple : Pour spécifier plusieurs répertoires, utilisez une liste de répertoires séparés par des virgules : par exemple : Utilisez des guillemets doubles pour indiquer un nom de répertoire sensible à la casse. Par exemple : Pour inclure un guillemet, utilisez deux guillemets. Par exemple : |
format |
Options décrivant le format des fichiers source. Ces options sont indiquées sous forme de chaîne JSON. Les formats pris en charge sont : Outre les formats mentionnés pour les données JSON, Autonomous AI Database prend aussi en charge d'autres formats. Pour obtenir la liste des arguments de format pris en charge par Autonomous AI Database, reportez-vous à Paramètre de format. |
operation_id |
Utilisez ce paramètre pour suivre la progression et le statut final de l'opération de chargement sous l'ID correspondant dans la vue USER_LOAD_OPERATIONS. |
Exemple
BEGIN
DBMS_CLOUD.CREATE_CREDENTIAL(
credential_name => 'OBJ_STORE_CRED',
username => 'user_name@oracle.com',
password => 'password'
);
DBMS_CLOUD.COPY_COLLECTION(
collection_name => 'myCollection',
credential_name => 'OBJ_STORE_CRED',
file_uri_list => 'https://objectstorage.us-phoenix-1.oraclecloud.com/n/adbexample/b/json/o/myCollection.json'
);
END;
/
Procédure COPY_DATA
Cette procédure charge les données dans les tables de base de données Autonomous AI existantes à partir de fichiers dans le cloud ou de fichiers dans un répertoire. La forme surchargée permet d'utiliser le paramètre operation_id.
Syntaxe
DBMS_CLOUD.COPY_DATA (
table_name IN VARCHAR2,
credential_name IN VARCHAR2 DEFAULT NULL,
file_uri_list IN CLOB,
schema_name IN VARCHAR2,
field_list IN CLOB,
format IN CLOB);
DBMS_CLOUD.COPY_DATA (
table_name IN VARCHAR2,
credential_name IN VARCHAR2 DEFAULT NULL,
file_uri_list IN CLOB DEFAULT NULL,
schema_name IN VARCHAR2 DEFAULT NULL,
field_list IN CLOB DEFAULT NULL,
format IN CLOB DEFAULT NULL
operation_id OUT NOCOPY NUMBER);
Paramètres
| Paramètre | Description |
|---|---|
table_name |
Nom de la table cible dans la base de données. Vous devez avoir créé la table cible avant d'exécuter COPY_DATA. |
credential_name |
Nom des informations d'identification permettant d'accéder au stockage d'objet cloud. Ce paramètre n'est pas utilisé lorsque vous indiquez un répertoire avec |
file_uri_list |
Vous pouvez utiliser des caractères génériques ainsi que des expressions régulières dans les noms de fichier dans les URI de fichier source cloud. URI de fichier source cloud Ce paramètre spécifie une liste d'URI de fichier source séparés par des virgules ou un ou plusieurs répertoires et fichiers source. Les expressions régulières ne peuvent être utilisées que lorsque le paramètre Les caractères "*" et " ?" sont considérés comme des caractères génériques lorsque le paramètre Les modèles d'expression régulière sont uniquement pris en charge pour le nom de fichier ou le chemin de sous-dossier dans vos URI et la correspondance de modèle est identique à celle effectuée par la fonction Exemple : Le format des URI dépend du service Cloud Object Storage que vous utilisez. Pour en savoir plus, reportez-vous àFormats d'URI de stockage d'objet cloud. Pour plus d'informations sur la condition Répertoire Vous pouvez indiquer un répertoire et un ou plusieurs noms de fichier ou utiliser une liste de répertoires et de noms de fichier séparés par des virgules. Le format pour spécifier un répertoire est : Vous pouvez utiliser des caractères génériques pour indiquer des noms de fichier dans un répertoire. Le caractère "*" peut être utilisé comme caractère générique pour représenter plusieurs caractères. Le caractère "?" peut être utilisé comme caractère générique pour représenter un seul caractère. Par exemple : Pour spécifier plusieurs répertoires, utilisez une liste de répertoires séparés par des virgules : par exemple : Utilisez des guillemets doubles pour indiquer un nom de répertoire sensible à la casse. Par exemple : Pour inclure un guillemet, utilisez deux guillemets. Par exemple : |
schema_name |
Nom du schéma dans lequel réside la table cible. La valeur par défaut est NULL, ce qui signifie que la table cible se trouve dans le même schéma que l'utilisateur qui exécute la procédure. |
field_list |
Identifie les champs dans les fichiers source et leurs types de données. La valeur par défaut est NULL, ce qui signifie que les champs et leur type de données sont déterminés par le paramètre column_list. La syntaxe de cet argument est identique à la clause Lorsque la valeur de l'option Pour obtenir un exemple d'utilisation de |
format |
Options décrivant le format des fichiers source, des fichiers journaux et des fichiers incorrects. Pour obtenir la liste des options et découvrir comment spécifier les valeurs, reportez-vous à Paramètre de format. Pour connaître les options de format de fichier Avro, ORC ou Parquet, reportez-vous à Options de format de package DBMS_CLOUD pour Avro, ORC ou Parquet. |
operation_id |
Utilisez ce paramètre pour suivre la progression et le statut final de l'opération de chargement sous l'ID correspondant dans la vue USER_LOAD_OPERATIONS. |
Remarque sur l'utilisation
Le délimiteur d'enregistrement par défaut est detected newline. Avec detected newline, DBMS_CLOUD tente de trouver automatiquement le caractère de nouvelle ligne correct à utiliser comme délimiteur d'enregistrement. DBMS_CLOUD recherche d'abord le caractère de retour à la ligne Windows \r\n. S'il trouve le caractère à la ligne Windows, celui-ci est utilisé comme délimiteur d'enregistrement pour tous les fichiers de la procédure. If a Windows newline character is not found, DBMS_CLOUD searches for the UNIX/Linux newline character \n, and if it finds one it uses \n as the record delimiter for all files in the procedure. Si les fichiers source utilisent une combinaison de différents délimiteurs d'enregistrement, vous risquez de rencontrer une erreur telle que "KUP-04020: found record longer than buffer size supported". Dans ce cas, vous devez soit modifier les fichiers source pour utiliser le même délimiteur d'enregistrement, soit spécifier uniquement les fichiers source qui utilisent le même délimiteur d'enregistrement.
Pour plus d'informations sur l'option de format recorddelmiter, reportez-vous à Paramètre de format.
Exemples
BEGIN
DBMS_CLOUD.CREATE_CREDENTIAL(
credential_name => 'DEF_CRED_NAME',
username => 'user_name@oracle.com',
password => 'password'
);
END;
/
BEGIN
DBMS_CLOUD.COPY_DATA(
table_name =>'CHANNELS',
credential_name =>'DEF_CRED_NAME',
file_uri_list =>'https://objectstorage.us-phoenix-1.oraclecloud.com/n/namespace-string/b/bucketname/o/channels.txt',
format => json_object('delimiter' value ',')
);
END;
/
BEGIN
DBMS_CLOUD.COPY_DATA(
table_name => 'ORDERS',
schema_name => 'TEST_SCHEMA',
credential_name => 'DEF_CRED_NAME',
file_uri_list => 'https://objectstorage.us-phoenix-1.oraclecloud.com/n/adbexample/b/json/o/orde[r]s.tbl.1'
format => json_object('ignoreblanklines' value TRUE,
'rejectlimit' value '0',
'dateformat' value 'yyyy-mm-dd',
'regexuri' value TRUE)
);
END;
/
Procédure COPY_DATA pour les fichiers Avro, ORC ou Parquet
Cette procédure avec le paramètre format type défini sur la valeur avro, orc ou parquet charge les données dans les tables de base de données Autonomous AI existantes à partir des fichiers Avro, ORC ou Parquet dans le cloud ou à partir des fichiers d'un répertoire.
Comme pour les fichiers texte, les données sont copiées à partir du fichier Avro, ORC ou Parquet source dans la table interne préexistante.
Syntaxe
DBMS_CLOUD.COPY_DATA (
table_name IN VARCHAR2,
credential_name IN VARCHAR2 DEFAULT NULL,
file_uri_list IN CLOB,
schema_name IN VARCHAR2 DEFAULT,
field_list IN CLOB DEFAULT,
format IN CLOB DEFAULT);
Paramètres
| Paramètre | Description |
|---|---|
table_name |
Nom de la table cible dans la base de données. Vous devez avoir créé la table cible avant d'exécuter COPY_DATA. |
credential_name |
Nom des informations d'identification permettant d'accéder au stockage d'objet cloud. Ce paramètre n'est pas utilisé lorsque vous indiquez un répertoire avec |
file_uri_list |
Ce paramètre spécifie une liste d'URI de fichier source séparés par des virgules ou un ou plusieurs répertoires et fichiers source. URI de fichier source cloud Vous pouvez utiliser des caractères génériques ainsi que des expressions régulières dans les noms de fichier dans les URI de fichier source cloud. Les expressions régulières ne peuvent être utilisées que lorsque le paramètre Les caractères "*" et " ?" sont considérés comme des caractères génériques lorsque le paramètre Les modèles d'expression régulière sont uniquement pris en charge pour le nom de fichier ou le chemin de sous-dossier dans vos URI et la correspondance de modèle est identique à celle effectuée par la fonction Exemple : Le format des URI dépend du service Cloud Object Storage que vous utilisez. Pour en savoir plus, reportez-vous àFormats d'URI de stockage d'objet cloud. Pour plus d'informations sur la condition Répertoire Vous pouvez indiquer un répertoire et un ou plusieurs noms de fichier ou utiliser une liste de répertoires et de noms de fichier séparés par des virgules. Le format pour spécifier un répertoire est : Vous pouvez utiliser des caractères génériques pour indiquer des noms de fichier dans un répertoire. Le caractère "*" peut être utilisé comme caractère générique pour représenter plusieurs caractères. Le caractère "?" peut être utilisé comme caractère générique pour représenter un seul caractère. Par exemple : Pour spécifier plusieurs répertoires, utilisez une liste de répertoires séparés par des virgules : par exemple : Utilisez des guillemets doubles pour indiquer un nom de répertoire sensible à la casse. Par exemple : Pour inclure un guillemet, utilisez deux guillemets. Par exemple : |
schema_name |
Nom du schéma dans lequel réside la table cible. La valeur par défaut est NULL, ce qui signifie que la table cible se trouve dans le même schéma que l'utilisateur qui exécute la procédure. |
field_list |
Ignoré pour les fichiers Avro, ORC ou Parquet. Les champs de la source correspondent aux colonnes de la table externe par nom. Les types de données source sont convertis en types de données de colonne de table externe. For ORC files, see DBMS_CLOUD Package ORC to Oracle Data Type Mapping. Pour les fichiers Parquet, reportez-vous à la section DBMS_CLOUD Package Parquet to Oracle Data Type Mapping pour plus de détails sur le mapping. Pour les fichiers Avro, reportez-vous à la section DBMS_CLOUD Package Avro to Oracle Data Type Mapping pour plus de détails sur le mapping. |
format |
Options décrivant le format des fichiers source. Pour les fichiers Avro, ORC ou Parquet, seules deux options sont prises en charge : reportez-vous à Options de format de package DBMS_CLOUD pour Avro, ORC ou Parquet. |
Remarques sur l'utilisation
-
Comme pour les autres fichiers de données, les chargements de données Avro, ORC et Parquet génèrent des journaux visibles dans les tables
dba_load_operationsetuser_load_operations. Chaque opération de chargement ajoute un enregistrement àdba[user]_load_operationsqui indique la table contenant les journaux.La table de journalisation fournit des informations récapitulatives sur le chargement.
-
Pour Avro, ORC ou Parquet, lorsque le paramètre
formattypeest défini sur la valeuravro,orcouparquet, la tableBADFILE_TABLEest toujours vide.-
Pour les fichiers Parquet, les erreurs de contrainte
PRIMARY KEYgénèrent une erreurORA. -
Si les données d'une colonne rencontrent une erreur de conversion, par exemple, si la colonne cible n'est pas suffisamment grande pour contenir la valeur convertie, la valeur de la colonne est définie sur
NULL. Cela ne génère pas d'enregistrement rejeté.
-
Procédure COPY_OBJECT
Cette procédure copie un objet d'un bucket ou dossier Cloud Object Storage vers un autre.
Le dossier ou le bucket source et cible peuvent se trouver dans le même fournisseur de banque d'objets cloud ou dans un autre fournisseur.
Lorsque la source et la cible se trouvent dans des banques d'objets distinctes ou ont des comptes différents avec le même fournisseur cloud, vous pouvez donner des noms d'informations d'identification distincts pour les emplacements source et cible.
Par défaut, le nom des informations d'identification source est également utilisé par l'emplacement cible lorsque le nom des informations d'identification cible n'est pas fourni.
Syntaxe
DBMS_CLOUD.COPY_OBJECT (
source_credential_name IN VARCHAR2 DEFAULT NULL,
source_object_uri IN VARCHAR2,
target_object_uri IN VARCHAR2,
target_credential_name IN VARCHAR2 DEFAULT NULL
);
Paramètres
| Paramètre | Description |
|---|---|
source_credential_name |
Nom des infos d'identification permettant d'accéder au stockage d'objet cloud source. Si vous ne fournissez pas de valeur |
source_object_uri |
Spécifie l'URI, qui pointe vers l'emplacement du dossier ou du bucket Object Storage source. Ce paramètre est obligatoire. Le format des URI dépend du service Cloud Object Storage. Pour plus d'informations, reportez-vous à Formats d'URI de stockage d'objet cloud. |
target_object_uri |
Indique l'URI de la banque d'objets cible. Ce paramètre est obligatoire. Le format des URI dépend du service Cloud Object Storage. Pour plus d'informations, reportez-vous à Formats d'URI de stockage d'objet cloud. |
target_credential_name |
Nom des données d'identification permettant d'accéder à l'emplacement de stockage d'objet cloud cible. Si vous ne fournissez pas de valeur |
Exemple
BEGIN
DBMS_CLOUD.COPY_OBJECT (
source_credential_name => 'OCI_CRED',
source_object_uri => 'https://objectstorage.us-phoenix-1.oraclecloud.com/n/namespace-string/b/bucketname1/bgfile.csv',
target_object_uri => 'https://objectstorage.us-phoenix-1.oraclecloud.com/n/namespace-string/b/bucketname2/myfile.csv'
);
END;
/
Procédure CREATE_EXTERNAL_PART_TABLE
Cette procédure crée une table partitionnée externe sur les fichiers dans le cloud ou à partir de fichiers dans un répertoire. Vous pouvez ainsi exécuter des requêtes sur des données externes à partir d'une base de données Autonomous AI.
Syntaxe
DBMS_CLOUD.CREATE_EXTERNAL_PART_TABLE (
table_name IN VARCHAR2,
credential_name IN VARCHAR2,
partitioning_clause IN CLOB,
column_list IN CLOB,
field_list IN CLOB DEFAULT,
format IN CLOB DEFAULT);
DBMS_CLOUD.CREATE_EXTERNAL_PART_TABLE (
table_name IN VARCHAR2,
credential_name IN VARCHAR2,
file_uri_list IN VARCHAR2,
column_list IN CLOB,
field_list IN CLOB DEFAULT,
format IN CLOB DEFAULT);
Paramètres
| Paramètre | Description |
|---|---|
table_name |
Nom de la table externe. |
credential_name |
Nom des informations d'identification permettant d'accéder au stockage d'objet cloud. |
partitioning_clause |
Spécifie la clause de partitionnement complète, y compris les informations d'emplacement pour les partitions individuelles. Si vous utilisez le paramètre |
file_uri_list |
Ce paramètre spécifie une liste d'URI de fichier source séparés par des virgules ou un ou plusieurs répertoires et fichiers source. URI de fichier source cloud Vous pouvez utiliser des caractères génériques ainsi que des expressions régulières dans les noms de fichier dans les URI de fichier source cloud. Les expressions régulières ne peuvent être utilisées que lorsque le paramètre Les caractères "*" et " ?" sont considérés comme des caractères génériques lorsque le paramètre Les modèles d'expression régulière sont uniquement pris en charge pour le nom de fichier ou le chemin de sous-dossier dans vos URI et la correspondance de modèle est identique à celle effectuée par la fonction Cette option est uniquement prise en charge avec les tables externes créées sur un fichier dans Object Storage. Exemple : Si vous utilisez le paramètre Le format des URI dépend du service Cloud Object Storage. Pour plus d'informations, reportez-vous à Formats d'URI de stockage d'objet cloud. Pour plus d'informations sur la condition |
column_list |
Liste des noms et des types de données de colonne pour la table externe, séparés par des virgules. Ce paramètre présente les exigences suivantes, en fonction du type de fichier de données indiqué avec le paramètre
|
field_list |
Identifie les champs dans les fichiers source et leurs types de données. La valeur par défaut est NULL, ce qui signifie que les champs et leur type de données sont déterminés par le paramètre column_list. La syntaxe de cet argument est identique à la clause field_list dans les tables externes Oracle standard. Pour plus d'informations, reportez-vous à field_list dans Utilitaires Oracle Database 19c ou Utilitaires Oracle Database 26ai. |
format |
L'option de format
Si les fichiers de données ne sont pas structurés et que la sous-clause Pour les noms d'objet qui ne sont pas basés sur le format de ruche, l'ordre des colonnes indiquées par Pour afficher toutes les options de paramètre |
Remarques sur l'utilisation
-
Vous ne pouvez pas appeler cette procédure avec les paramètres
partitioning_clauseetfile_uri_list. -
La spécification du paramètre
column_listest facultative avec les fichiers de données structurées, notamment les fichiers de données Avro, Parquet ou ORC. Sicolumn_listn'est pas spécifié, l'optionpartition_columnsdu paramètreformatdoit inclurenameettype. -
Le paramètre
column_listest requis avec les fichiers de données non structurés, tels que les fichiers texte CSV. - La procédure
DBMS_CLOUD.CREATE_EXTERNAL_PART_TABLEprend en charge les fichiers partitionnés externes dans les services de stockage d'objets cloud pris en charge, notamment :- Oracle Cloud Infrastructure Object Storage
- Stockage BLOB Azure
Pour plus d'informations, reportez-vous à Formats d'URI de stockage d'objet cloud.
-
La procédure
DBMS_CLOUD.CREATE_EXTERNAL_PART_TABLEprend en charge les fichiers partitionnés externes dans les répertoires, soit dans un système de fichiers local, soit dans un système de fichiers réseau. -
Lorsque vous appelez
DBMS_CLOUD.CREATE_EXTERNAL_PART_TABLEavec le paramètrefile_uri_list, les types de colonne indiqués dans le nom de fichier de banque d'objets cloud doivent être l'un des types suivants :VARCHAR2(n) NUMBER(n) NUMBER(p,s) NUMBER DATE TIMESTAMP(9) -
Le délimiteur d'enregistrement par défaut est
detected newline. Avecdetected newline,DBMS_CLOUDtente de trouver automatiquement le caractère de nouvelle ligne correct à utiliser comme délimiteur d'enregistrement.DBMS_CLOUDrecherche d'abord le caractère de retour à la ligne Windows\r\n. S'il trouve le caractère à la ligne Windows, celui-ci est utilisé comme délimiteur d'enregistrement pour tous les fichiers de la procédure. If a Windows newline character is not found,DBMS_CLOUDsearches for the UNIX/Linux newline character\n, and if it finds one it uses\nas the record delimiter for all files in the procedure. Si les fichiers source utilisent une combinaison de délimiteurs d'enregistrement différents, vous risquez de rencontrer une erreur telle que "KUP-04020: found record longer than buffer size supported". Dans ce cas, vous devez soit modifier les fichiers source pour utiliser le même délimiteur d'enregistrement, soit spécifier uniquement les fichiers source qui utilisent le même délimiteur d'enregistrement.Pour plus d'informations sur l'option de format
recorddelmiter, reportez-vous à Formats d'URI Cloud Object Storage. -
Les tables partitionnées externes que vous créez avec
DBMS_CLOUD.CREATE_EXTERNAL_PART_TABLEincluent deux colonnes invisiblesfile$pathetfile$name. Ces colonnes permettent d'identifier le fichier d'où provient un enregistrement.-
file$path: indique le texte du chemin du fichier jusqu'au début du nom de l'objet. -
file$name: indique le nom de l'objet, y compris tout le texte qui suit le nom du bucket.
-
Exemples
Exemple : utilisation du paramètre partitioning_clause.
BEGIN
DBMS_CLOUD.CREATE_EXTERNAL_PART_TABLE(
table_name =>'PET1',
credential_name =>'OBJ_STORE_CRED',
format => json_object('delimiter' value ',', 'recorddelimiter' value 'newline', 'characterset' value 'us7ascii'),
column_list => 'col1 number, col2 number, col3 number',
partitioning_clause => 'partition by range (col1)
(partition p1 values less than (1000) location
( ''&base_URL//file_11.txt'')
,
partition p2 values less than (2000) location
( ''&base_URL/file_21.txt'')
,
partition p3 values less than (3000) location
( ''&base_URL/file_31.txt'')
)'
);
END;
/
BEGIN
DBMS_CLOUD.CREATE_EXTERNAL_PART_TABLE(
table_name => 'PET',
format => json_object('delimiter'value ','),
column_list => 'name varchar2(20), gender varchar2(10), salary number',
partitioning_clause => 'partition by range (salary)
( -- Use test1.csv in the DEFAULT DIRECTORY DATA_PUMP_DIR
partition p1 values less than (100) LOCATION (''test1.csv''),
-- Use test2.csv in a specified directory MY_DIR
partition p2 values less than (300) DEFAULT DIRECTORY MY_DIR LOCATION (''test2.csv'') )' );
END;
/
Exemple : utilisation des paramètres file_uri_list et column_list avec des fichiers de données non structurés.
BEGIN
DBMS_CLOUD.CREATE_EXTERNAL_PART_TABLE(
table_name => 'MYSALES',
credential_name => 'DEF_CRED_NAME',
file_uri_list => 'https://objectstorage.us-phoenix-1.oraclecloud.com/n/namespace-string/b/bucketname/o/*.csv',
column_list => 'product varchar2(100), units number, country varchar2(100), year number, month varchar2(2)',
field_list => 'product, units', --[Because country, year and month are not in the file, they are not listed in the field list]
format => '{"type":"csv", "partition_columns":["country","year","month"]}');
END;
/
Exemple : utilisation de file_uri_list sans le paramètre column_list avec des fichiers de données structurées.
BEGIN
DBMS_CLOUD.CREATE_EXTERNAL_PART_TABLE(
table_name => 'MYSALES',
credential_name => 'DEF_CRED_NAME',
DBMS_CLOUD.CREATE_EXTERNAL_PART_TABLE(
table_name => 'MYSALES',
credential_name => 'DEF_CRED_NAME',
file_uri_list => 'https://objectstorage.us-phoenix-1.oraclecloud.com/n/namespace-string/b/bucketname/o/*.parquet',
format =>
json_object('type' value 'parquet', 'schema' value 'first',
'partition_columns' value
json_array(
json_object('name' value 'country', 'type' value 'varchar2(100)'),
json_object('name' value 'year', 'type' value 'number'),
json_object('name' value 'month', 'type' value 'varchar2(2)')
)
)
);
END;
/
Exemple : création de tables partitionnées externes à l'aide des objets stockés dans le bucket C3 Object Storage.
BEGIN
DBMS_CLOUD.CREATE_EXTERNAL_PART_TABLE(
table_name => 'USAGE_EXTP',
credential_name => 'OBJECT_STORAGE_CREDENTIAL',
file_uri_list => 'https://objectstorage.mydomain.com/n/mytenancy/b/mybucket/o/usage-data/*usage-data*.parquet',
format => json_object(
'type' value 'parquet', 'schema' value 'first',
'partition_columns' value json_array(
json_object('name' value 'year', 'type' value 'number'),
json_object('name' value 'month', 'type' value 'number'),
json_object('name' value 'day', 'type' value 'number')
)
)
);
END;
/
Procédure CREATE_EXTERNAL_TABLE
Cette procédure crée une table externe sur les fichiers dans le cloud ou à partir de fichiers dans un répertoire. Vous pouvez ainsi exécuter des requêtes sur des données externes à partir d'une base de données Autonomous AI.
Syntaxe
DBMS_CLOUD.CREATE_EXTERNAL_TABLE (
table_name IN VARCHAR2,
credential_name IN VARCHAR2,
file_uri_list IN CLOB,
column_list IN CLOB,
field_list IN CLOB DEFAULT,
format IN CLOB DEFAULT);
Paramètres
| Paramètre | Description |
|---|---|
table_name |
Nom de la table externe. |
credential_name |
Nom des informations d'identification permettant d'accéder au stockage d'objet cloud. Ce paramètre n'est pas utilisé lorsque vous indiquez un répertoire ou une URL de lien hypertexte de table avec |
file_uri_list |
Ce paramètre spécifie une liste d'URI de fichier source séparés par des virgules ou un ou plusieurs répertoires et fichiers source. URI de fichier source cloud Vous pouvez utiliser des caractères génériques ainsi que des expressions régulières dans les noms de fichier dans les URI de fichier source cloud. Les expressions régulières ne peuvent être utilisées que lorsque le paramètre Les caractères "*" et " ?" sont considérés comme des caractères génériques lorsque le paramètre Les modèles d'expression régulière sont uniquement pris en charge pour le nom de fichier ou le chemin de sous-dossier dans vos URI et la correspondance de modèle est identique à celle effectuée par la fonction Cette option est uniquement prise en charge avec les tables externes créées sur un fichier dans Object Storage. Exemple : Le format des URI dépend du service Cloud Object Storage que vous utilisez. Pour en savoir plus, reportez-vous àFormats d'URI de stockage d'objet cloud. Pour plus d'informations sur la condition Vous pouvez indiquer un répertoire et un ou plusieurs noms de fichier ou utiliser une liste de répertoires et de noms de fichier séparés par des virgules. Le format pour spécifier un répertoire est : Vous pouvez utiliser des caractères génériques pour indiquer des noms de fichier dans un répertoire. Le caractère "*" peut être utilisé comme caractère générique pour représenter plusieurs caractères. Le caractère "?" peut être utilisé comme caractère générique pour représenter un seul caractère. Par exemple : Pour spécifier plusieurs répertoires, utilisez une liste de répertoires séparés par des virgules : par exemple : Utilisez des guillemets doubles pour indiquer un nom de répertoire sensible à la casse. Par exemple : Pour inclure un guillemet, utilisez deux guillemets. Par exemple : |
column_list |
Liste des noms et des types de données de colonne pour la table externe, séparés par des virgules. |
field_list |
Identifie les champs dans les fichiers source et leurs types de données. La valeur par défaut est NULL, ce qui signifie que les champs et leurs types De données sont déterminés par le paramètre column_list. La syntaxe de cet argument est identique à la clause field_list dans les tables externes Oracle Database standard. Pour plus d'informations sur field_list, reportez-vous à ORACLE_LOADER Access Driver field_list sous field_definitions Clause dans Oracle Database 19c Utilities ou Oracle Database 26ai Utilities. |
format |
Options décrivant le format des fichiers source. Pour obtenir la liste des options et découvrir comment spécifier les valeurs, reportez-vous à Paramètre de format. Pour les fichiers au format Avro, ORC ou Parquet, reportez-vous à Procédure CREATE_EXTERNAL_TABLE pour les fichiers Avro, ORC ou Parquet. |
Remarques sur l'utilisation
-
La procédure
DBMS_CLOUD.CREATE_EXTERNAL_TABLEprend en charge des fichiers partitionnés externes dans les services d'objet cloud pris en charge, y compris Azure Blob Storage.Les informations d'identification sont des propriétés de niveau table. Par conséquent, les fichiers externes doivent se trouver dans la même banque d'objets.
Pour plus d'informations, reportez-vous à Formats d'URI de stockage d'objet cloud.
-
Le délimiteur d'enregistrement par défaut est
detected newline. Avecdetected newline,DBMS_CLOUDtente de trouver automatiquement le caractère de nouvelle ligne correct à utiliser comme délimiteur d'enregistrement.DBMS_CLOUDrecherche d'abord le caractère de retour à la ligne Windows\r\n. S'il trouve le caractère à la ligne Windows, celui-ci est utilisé comme délimiteur d'enregistrement pour tous les fichiers de la procédure. If a Windows newline character is not found,DBMS_CLOUDsearches for the UNIX/Linux newline character\n, and if it finds one it uses\nas the record delimiter for all files in the procedure. Si les fichiers source utilisent une combinaison de différents délimiteurs d'enregistrement, vous risquez de rencontrer une erreur telle que "KUP-04020: found record longer than buffer size supported". Dans ce cas, vous devez soit modifier les fichiers source pour utiliser le même délimiteur d'enregistrement, soit spécifier uniquement les fichiers source qui utilisent le même délimiteur d'enregistrement.Pour plus d'informations sur l'option de format
recorddelimiter, reportez-vous à Paramètre de format.
Exemples
Exemple : création d'une table externe à partir d'un fichier CSV dans Object Storage.
BEGIN
DBMS_CLOUD.CREATE_EXTERNAL_TABLE(
table_name =>'WEATHER_REPORT_DOUBLE_DATE',
credential_name =>'OBJ_STORE_CRED',
file_uri_list =>'&base_URL/Charlotte_NC_Weather_History_Double_Dates.csv',
format => json_object('type' value 'csv', 'skipheaders' value '1'),
field_list => 'REPORT_DATE DATE''mm/dd/yy'',
REPORT_DATE_COPY DATE ''yyyy-mm-dd'',
ACTUAL_MEAN_TEMP,
ACTUAL_MIN_TEMP,
ACTUAL_MAX_TEMP,
AVERAGE_MIN_TEMP,
AVERAGE_MAX_TEMP,
AVERAGE_PRECIPITATION',
column_list => 'REPORT_DATE DATE,
REPORT_DATE_COPY DATE,
ACTUAL_MEAN_TEMP NUMBER,
ACTUAL_MIN_TEMP NUMBER,
ACTUAL_MAX_TEMP NUMBER,
AVERAGE_MIN_TEMP NUMBER,
AVERAGE_MAX_TEMP NUMBER,
AVERAGE_PRECIPITATION NUMBER');
END;
/
SELECT * FROM WEATHER_REPORT_DOUBLE_DATE where
actual_mean_temp > 69 and actual_mean_temp < 74
Exemple : création d'une table externe à l'aide des objets stockés dans le bucket C3 Object Storage.
BEGIN
DBMS_CLOUD.CREATE_EXTERNAL_TABLE(
table_name =>'CHANNELS_EXT',
credential_name =>'OBJECT_STORAGE_CREDENTIAL',
file_uri_list => '<https://objectstorage.mydomain.com/n/mytenancy/b/mybucket/o/channels.txt>',
format => json_object('delimiter' value ','),
column_list => 'CHANNEL_ID NUMBER, CHANNEL_DESC VARCHAR2(20), CHANNEL_CLASS VARCHAR2(20)'
);
END;
/
Procédure CREATE_EXTERNAL_TABLE pour Apache Iceberg
Cette procédure crée des tables externes pour les tables Apache Iceberg dans les configurations prises en charge.
Ces configurations spécifiques sont prises en charge :
-
Tableaux Iceberg sur AWS :
-
Tableaux Iceberg enregistrés avec AWS Glue Data Catalog, créés avec Spark ou Athena.
Pour plus d'informations, reportez-vous à Utilisation du connecteur AWS Glue pour lire et écrire des tables Apache Iceberg avec des transactions ACID et effectuer des déplacements dans le temps et à Utilisation de tables Iceberg.
-
Tables d'iceberg stockées sur AWS S3 en fournissant directement l'URL du fichier de métadonnées racine.
-
-
Tables d'iceberg sur OCI :
-
Tables d'iceberg générées avec OCI Data Flow à l'aide d'un catalogue Hadoop.
Pour plus d'informations, reportez-vous à Exemples Oracle Data Flow et à Utilisation d'un catalogue Hadoop.
-
Tables d'iceberg stockées sur OCI Object Storage en fournissant directement l'URL du fichier de métadonnées racine.
-
Syntaxe
DBMS_CLOUD.CREATE_EXTERNAL_TABLE (
table_name IN VARCHAR2,
credential_name IN VARCHAR2 DEFAULT NULL,
file_uri_list IN CLOB,
column_list IN CLOB DEFAULT NULL,
field_list IN CLOB DEFAULT NULL,
format IN CLOB DEFAULT NULL
);
Paramètres
| Paramètre | Description |
|---|---|
table_name |
Nom de la table externe. |
credential_name |
Nom des informations d'identification utilisées pour accéder aux fichiers de données, aux fichiers de métadonnées et au catalogue Iceberg (le cas échéant). Pour les configurations AWS et OCI, les informations d'identification doivent être créées comme décrit dans la procédure CREATE_CREDENTIAL. Les informations d'identification AWS Amazon Resource Names (ARN) ne sont actuellement pas prises en charge. |
file_uri_list |
Doit avoir la valeur NULL si un catalogue Iceberg est spécifié (voir le paramètre format ci-dessous). Si aucun catalogue d'iceberg n'est utilisé, le fichier file_uri_list doit contenir l'URI du fichier de métadonnées d'iceberg. |
column_list |
Doit être NULL car les noms et les types de colonne sont automatiquement dérivés des métadonnées Iceberg. Les noms de colonne correspondent aux noms trouvés dans les fichiers de données sous-jacents (Parquet, Avro, ORC). Les types de données Oracle sont dérivés à l'aide des mappings Parquet/Avro/ORC entre Iceberg et les types de données Parquet, Avro et ORC. Par conséquent, les utilisateurs ne peuvent pas spécifier |
field_list |
Doit être NULL car les noms de colonne et les types de données sont automatiquement dérivés des métadonnées Iceberg. |
format |
Le paramètre Pour plus d'informations, reportez-vous à Prise en charge d'Iceberg sur les exemples OCI Data Flow et à Formats d'URI DBMS_CLOUD. |
Paramètres de format d'échantillon
-
Lorsque vous créez des tables sur une table AWS Iceberg à l'aide d'un catalogue AWS Glue, procédez comme suit :
format => json_object('access_protocol' value json_object('protocol_type' value 'iceberg', 'protocol_config' value json_object('iceberg_catalog_type' value 'aws_glue', 'iceberg_glue_region' value 'glue region', 'iceberg_table_path' value 'database_name.table_name')));Où, le paramètre
access_protocolcontient un objet JSON avec deux éléments, comme suit :protocol_type: doit être "iceberg"protocol_config: objet JSON imbriqué indiquant les détails du catalogue d'iceberg.iceberg_catalog_type: doit être'aws_glue'iceberg_glue_region: région de catalogue, par exemple'us-west-1'iceberg_table_path: cheminglue database.glue table name.
-
Lorsque vous créez des tables sur une table AWS Iceberg à l'aide d'un URI de fichier de métadonnées, procédez comme suit :
format => json_object('access_protocol' value json_object('protocol_type' value 'iceberg') -
Lorsque vous créez des tables sur une table OCI Iceberg créée par OCI Data Flow à l'aide du catalogue HadoopCatalog, procédez comme suit :
format => json_object('access_protocol' value json_object('protocol_type' value 'iceberg', 'protocol_config' value json_object('iceberg_catalog_type' value 'hadoop', 'iceberg_warehouse' value '<OCI folder URI>', 'iceberg_table_path' value 'database_name.table_name')));Où, le paramètre
access_protocolcontient un objet JSON avec deux éléments, comme suit :protocol_type: doit être'iceberg'protocol_config: objet JSON imbriqué indiquant les détails du catalogue d'iceberg.iceberg_catalog_type: doit être'hadoop'iceberg_warehouse: chemin de répertoire de data warehouse utilisé lors de la génération de la table, au format URI natif.iceberg_table_path: chemindatabase_name.table nameutilisé lors de la création de la table.
-
Lorsque vous créez des tables sur une table OCI Iceberg à l'aide de l'URI du fichier de métadonnées, procédez comme suit :
format => json_object('access_protocol' value json_object('protocol_type' value 'iceberg')Où le paramètre
access_protocolcontient un objet JSON avec un élément,protocol_type, qui doit être'iceberg'.
Procédure CREATE_EXTERNAL_TABLE pour les fichiers Avro, ORC ou Parquet
Cette procédure avec le paramètre format type défini sur la valeur avro, orc ou parquet crée une table externe avec des fichiers au format Avro, ORC ou Parquet dans le cloud ou dans un répertoire.
Vous pouvez ainsi exécuter des requêtes sur des données externes à partir d'une base de données Autonomous AI.
Syntaxe
DBMS_CLOUD.CREATE_EXTERNAL_TABLE (
table_name IN VARCHAR2,
credential_name IN VARCHAR2 DEFAULT NULL,
file_uri_list IN CLOB,
column_list IN CLOB,
field_list IN CLOB DEFAULT,
format IN CLOB DEFAULT);
Paramètres
| Paramètre | Description |
|---|---|
table_name |
Nom de la table externe. |
credential_name |
Nom des informations d'identification permettant d'accéder au stockage d'objet cloud. Ce paramètre n'est pas utilisé lorsque vous indiquez un répertoire avec |
file_uri_list |
Ce paramètre spécifie une liste d'URI de fichier source séparés par des virgules ou un ou plusieurs répertoires et fichiers source. URI de fichier source cloud Vous pouvez utiliser des caractères génériques ainsi que des expressions régulières dans les noms de fichier dans les URI de fichier source cloud. Les expressions régulières ne peuvent être utilisées que lorsque le paramètre Les caractères "*" et " ?" sont considérés comme des caractères génériques lorsque le paramètre Les modèles d'expression régulière sont uniquement pris en charge pour le nom de fichier ou le chemin de sous-dossier dans vos URI et la correspondance de modèle est identique à celle effectuée par la fonction Cette option est uniquement prise en charge avec les tables externes créées sur un fichier dans Object Storage. Exemple : Le format des URI dépend du service Cloud Object Storage que vous utilisez. Pour en savoir plus, reportez-vous àFormats d'URI de stockage d'objet cloud. Pour plus d'informations sur la condition Répertoire Vous pouvez indiquer un répertoire et un ou plusieurs noms de fichier ou utiliser une liste de répertoires et de noms de fichier séparés par des virgules. Le format pour spécifier un répertoire est : Vous pouvez utiliser des caractères génériques pour indiquer des noms de fichier dans un répertoire. Le caractère "*" peut être utilisé comme caractère générique pour représenter plusieurs caractères. Le caractère "?" peut être utilisé comme caractère générique pour représenter un seul caractère. Par exemple : Pour spécifier plusieurs répertoires, utilisez une liste de répertoires séparés par des virgules : par exemple : Utilisez des guillemets doubles pour indiquer un nom de répertoire sensible à la casse. Par exemple : Pour inclure un guillemet, utilisez deux guillemets. Par exemple : |
column_list |
(Facultatif) Lorsque ce champ est indiqué, il remplace le paramètre Lorsque la valeur Pour plus d'informations sur les fichiers Parquet, reportez-vous à Mise en correspondance du parquet de package DBMS_CLOUD avec le type de données Oracle Pour plus d'informations sur les fichiers ORC, reportez-vous à la section DBMS_CLOUD Package ORC to Oracle Data Type Mapping. Pour plus d'informations sur les fichiers Avro, reportez-vous à la section DBMS_CLOUD Package Avro to Oracle Data Type Mapping. |
field_list |
Ignoré pour les fichiers Avro, ORC ou Parquet. Les champs de la source correspondent aux colonnes de la table externe par nom. Les types de données source sont convertis en types de données de colonne de table externe. For ORC files, see DBMS_CLOUD Package ORC to Oracle Data Type Mapping Pour plus d'informations sur les fichiers Parquet, reportez-vous à Mise en correspondance du parquet de package DBMS_CLOUD avec le type de données Oracle. Pour plus d'informations sur les fichiers Avro, reportez-vous à la section DBMS_CLOUD Package Avro to Oracle Data Type Mapping. |
format |
Pour plus d'informations sur les fichiers source Avro, ORC ou Parquet type, reportez-vous à Options de format de package DBMS_CLOUD pour Avro, ORC ou Parquet. |
Exemples
-
ORC
format => '{"type":"orc", "schema": "all"}'format => json_object('type' value 'orc', 'schema' value 'first') -
Avro
format => '{"type":"avro", "schema": "all"}'format => json_object('type' value 'avro', 'schema' value 'first') -
Parquet
format => '{"type":"parquet", "schema": "all"}'format => json_object('type' value 'parquet', 'schema' value 'first')
A savoir : Pour plus d'informations sur la mise en correspondance des noms de colonne et l'utilisation de la conversion des noms de colonne dans Oracle SQL, voir Package DBMS_CLOUD Avro, ORC et Parquet vers Oracle.
Procédure CREATE_EXTERNAL_TEXT_INDEX
Cette procédure crée un index de texte sur les fichiers Object Storage.
La procédure CREATE_EXTERNAL_TEXT_INDEX crée un index de texte sur les fichiers Object Storage indiqués à l'emplacement location_uri. L'index est actualisé à intervalles réguliers, pour tous les nouveaux ajouts ou suppressions effectués avec des fichiers sur l'URI d'emplacement.
Syntaxe
DBMS_CLOUD.CREATE_EXTERNAL_TEXT_INDEX (
credential_name IN VARCHAR2 DEFAULT NULL,
location_uri IN VARCHAR2,
index_name IN VARCHAR2,
format IN CLOB DEFAULT NULL
);
Paramètres
| Paramètre | Description |
|---|---|
credential_name |
Nom des données d'identification permettant d'accéder à l'emplacement de stockage d'objet cloud. Pour les URI de bucket publics, pré-authentifiés ou pré-signés, une valeur NULL peut être indiquée. Si vous ne fournissez pas de valeur |
location_uri |
Ce paramètre spécifie une liste d'URI de fichier source, séparés par des virgules. Vous pouvez utiliser des caractères génériques ainsi que des expressions régulières dans les noms de fichier dans les URI de fichier source cloud. Ce paramètre est obligatoire. URI de fichier source cloud Ce paramètre spécifie une liste d'URI de fichier source séparés par des virgules ou un ou plusieurs répertoires et fichiers source. Les expressions régulières ne peuvent être utilisées que lorsque le paramètre Les caractères "*" et " ?" sont considérés comme des caractères génériques lorsque le paramètre Les modèles d'expression régulière sont uniquement pris en charge pour le nom de fichier ou le chemin de sous-dossier dans vos URI et la correspondance de modèle est identique à celle effectuée par la fonction Exemple d'utilisation d'expressions régulières : Exemple avec des caractères génériques :
Le format des URI dépend du service Cloud Object Storage que vous utilisez. Pour en savoir plus, reportez-vous àFormats d'URI de stockage d'objet cloud. Pour plus d'informations sur la condition |
index_name |
Spécifie le nom de l'index que vous créez sur les fichiers situés à l'emplacement `location_uri`. Ce paramètre est obligatoire. |
format |
Spécifie des options de configuration supplémentaires. Les options sont indiquées sous forme de chaîne JSON. Les options de format prises en charge sont les suivantes :
La valeur Vous pouvez spécifier des mots d'arrêt à l'aide des méthodes suivantes :
Si vous ne fournissez pas de paramètre |
Exemple
BEGIN
DBMS_CLOUD.CREATE_EXTERNAL_TEXT_INDEX (
credential_name => 'DEFAULT_CREDENTIAL',
location_uri => 'https://objectstorage.us-phoenix-1.oraclecloud.com/n/namespace-string/b/bucketname/o/ts_data/'
index_name => 'EMP',
format => JSON_OBJECT ('refresh_rate' value 10)
);
END;
/
Procédure CREATE_HYBRID_PART_TABLE
Cette procédure crée une table partitionnée hybride. Vous pouvez ainsi exécuter des requêtes sur des données partitionnées hybrides à partir d'une base de données Autonomous AI à l'aide d'objets et de fichiers de base de données dans le cloud ou d'objets et de fichiers de base de données dans un répertoire.
Syntaxe
DBMS_CLOUD.CREATE_HYBRID_PART_TABLE (
table_name IN VARCHAR2,
credential_name IN VARCHAR2,
partitioning_clause IN CLOB,
column_list IN CLOB,
field_list IN CLOB DEFAULT,
format IN CLOB DEFAULT);
Paramètres
| Paramètre | Description |
|---|---|
table_name |
Nom de la table externe. |
credential_name |
Nom des informations d'identification permettant d'accéder au stockage d'objet cloud. |
partitioning_clause |
Spécifie la clause de partitionnement complète, y compris les informations d'emplacement pour les partitions individuelles. Pour utiliser des répertoires, la clause de partitionnement prend en charge les valeurs Vous pouvez utiliser des caractères génériques ainsi que des expressions régulières dans les noms de fichier dans les URI de fichier source cloud. Les expressions régulières ne peuvent être utilisées que lorsque le paramètre Les caractères "*" et " ?" sont considérés comme des caractères génériques lorsque le paramètre Les modèles d'expression régulière sont uniquement pris en charge pour le nom de fichier ou le chemin de sous-dossier dans vos URI et la correspondance de modèle est identique à celle effectuée par la fonction Exemple : Pour plus d'informations sur la condition |
column_list |
Liste des noms et des types de données de colonne pour la table externe, séparés par des virgules. |
field_list |
Identifie les champs dans les fichiers source et leurs types de données. La valeur par défaut est NULL, ce qui signifie que les champs et leur type de données sont déterminés par le paramètre column_list. La syntaxe de cet argument est identique à la clause field_list dans les tables externes Oracle standard. Pour plus d'informations, reportez-vous à field_list dans Utilitaires Oracle Database 19c ou Utilitaires Oracle Database 26ai. |
format |
Options décrivant le format des fichiers source. Pour obtenir la liste des options et découvrir comment spécifier les valeurs, reportez-vous à Paramètre de format. |
Remarques sur l'utilisation
-
La procédure
DBMS_CLOUD.CREATE_HYBRID_PART_TABLEprend en charge les fichiers partitionnés externes dans les services de stockage d'objets cloud pris en charge, y compris Azure Blob Storage.Les informations d'identification sont des propriétés de niveau table. Par conséquent, les fichiers externes doivent se trouver dans la même banque d'objets.
Pour plus d'informations, reportez-vous à Formats d'URI de stockage d'objet cloud.
-
La procédure
DBMS_CLOUD.CREATE_HYBRID_PART_TABLEprend en charge les fichiers partitionnés hybrides dans les répertoires, soit dans un système de fichiers local, soit dans un système de fichiers réseau. -
Les tables partitionnées externes que vous créez avec
DBMS_CLOUD.CREATE_HYBRID_PART_TABLEincluent deux colonnes invisiblesfile$pathetfile$name. Ces colonnes permettent d'identifier le fichier d'où provient un enregistrement.-
file$path: indique le texte du chemin du fichier jusqu'au début du nom de l'objet. -
file$name: indique le nom de l'objet, y compris tout le texte qui suit le nom du bucket.
-
Exemples
BEGIN
DBMS_CLOUD.CREATE_HYBRID_PART_TABLE(
table_name =>'HPT1',
credential_name =>'OBJ_STORE_CRED',
format => json_object('delimiter' value ',', 'recorddelimiter' value 'newline', 'characterset' value 'us7ascii'),
column_list => 'col1 number, col2 number, col3 number',
partitioning_clause => 'partition by range (col1)
(partition p1 values less than (1000) external location
( ''&base_URL/file_11.txt'')
,
partition p2 values less than (2000) external location
( ''&base_URL/file_21.txt'')
,
partition p3 values less than (3000)
)'
);
END;
/
BEGIN
DBMS_CLOUD.CREATE_HYBRID_PART_TABLE(
table_name => 'HPT1',
format => json_object('delimiter'value ',', 'recorddelimiter'value 'newline'),
column_list => 'NAME VARCHAR2(30), GENDER VARCHAR2(10), BALANCE number',
partitioning_clause => 'partition by range (B 2 ALANCE)
(partition p1 values less than (1000) external DEFAULT DIRECTORY DATA_PUMP_DIR LOCATION (''Scott_male_1000.csv''),
partition p2 values less than (2000) external DEFAULT DIRECTORY DATA_PUMP_DIR LOCATION (''Mary_female_3000.csv''),
partition p3 values less than (3000))' );
END;
/
Procédure DELETE_ALL_OPERATIONS
Cette procédure efface toutes les opérations de chargement de données consignées dans la table user_load_operations de votre schéma, ou toutes les opérations de chargement de données du type spécifié, comme indiqué dans le paramètre type.
Syntaxe
DBMS_CLOUD.DELETE_ALL_OPERATIONS (
type IN VARCHAR DEFAULT NULL);
Paramètres
| Paramètre | Description |
|---|---|
type |
Indique le type d'opération à supprimer. Les valeurs de type se trouvent dans la colonne Si aucune valeur |
Remarque sur l'utilisation
DBMS_CLOUD.DELETE_ALL_OPERATIONS ne supprime pas les opérations en cours d'exécution (opérations ayant le statut "En cours d'exécution").
Procédure DELETE_FILE
Cette procédure enlève le fichier spécifié du répertoire indiqué sur Autonomous AI Database.
Syntaxe
DBMS_CLOUD.DELETE_FILE (
directory_name IN VARCHAR2,
file_name IN VARCHAR2,
force IN BOOLEAN DEFAULT FALSE);
Paramètres
| Paramètre | Description |
|---|---|
directory_name |
Nom du répertoire sur l'instance de base de données Autonomous AI. |
file_name |
Nom du fichier à enlever. |
force |
Ignorer et ne pas signaler les erreurs si le fichier n'existe pas. Les valeurs valides sont : TRUE et FALSE. La valeur par défaut est FALSE. |
Remarque : pour exécuter DBMS_CLOUD.DELETE_FILE avec un utilisateur autre qu'ADMIN, vous devez lui accorder des privilèges d'écriture sur le répertoire qui contient le fichier. Par exemple, exécutez la commande suivante en tant qu'ADMIN pour accorder des privilèges d'écriture à atpc_user :
GRANT WRITE ON DIRECTORY data_pump_dir TO atpc_user;
Exemple
BEGIN
DBMS_CLOUD.DELETE_FILE(
directory_name => 'DATA_PUMP_DIR',
file_name => 'exp1.dmp' );
END;
/
Procédure DELETE_OBJECT
Cette procédure supprime l'objet spécifié de la banque d'objets.
Syntaxe
DBMS_CLOUD.DELETE_OBJECT (
credential_name IN VARCHAR2,
object_uri IN VARCHAR2,
force IN BOOLEAN DEFAULT FALSE);
Paramètres
| Paramètre | Description |
|---|---|
credential_name |
Nom des informations d'identification permettant d'accéder au stockage d'objet cloud. |
object_uri |
URI d'objet ou de fichier de l'objet à supprimer. Le format de l'URI dépend du service Cloud Object Storage que vous utilisez. Pour plus de détails, reportez-vous à Formats d'URI de stockage d'objet cloud. |
force |
Ignorer et ne pas signaler les erreurs si l'objet n'existe pas. Les valeurs valides sont : TRUE et FALSE. La valeur par défaut est FALSE. |
Exemple
BEGIN
DBMS_CLOUD.DELETE_OBJECT(
credential_name => 'DEF_CRED_NAME',
object_uri => 'https://objectstorage.us-ashburn-1.oraclecloud.com/n/namespace-string/b/bucketname/o/exp1.dmp' );
END;
/
Procédure DELETE_OPERATION
Cette procédure efface les entrées de chargement de données pour l'ID d'opération indiqué consignées dans les tables user_load_operations ou dba_load_operations de votre schéma.
Syntaxe
DBMS_CLOUD.DELETE_OPERATION (
id IN NUMBER);
Paramètres
| Paramètre | Description |
|---|---|
id |
Indique l'ID d'opération associé aux entrées de fichier journal à supprimer. |
Exemple
SELECT id FROM user_load_operations WHERE type LIKE '%BAD%';
EXEC DBMS_CLOUD.DELETE_OPERATION(id);
Procédure DROP_EXTERNAL_TEXT_INDEX
Cette procédure supprime l'index de texte sur les fichiers Object Storage.
La procédure DROP_EXTERNAL_TEXT_INDEX supprime l'index spécifié créé avec la procédure CREATE_EXTERNAL_TEXT_INDEX.
Syntaxe
DBMS_CLOUD.DROP_EXTERNAL_TEXT_INDEX (
index_name IN VARCHAR2,
);
Paramètres
| Paramètre | Description |
|---|---|
index_name |
Spécifie le nom de l'index que vous supprimez. Le nom de l'index doit correspondre au nom fourni au moment de sa création. Ce paramètre est obligatoire. |
Exemple
BEGIN
DBMS_CLOUD.DROP_EXTERNAL_TEXT_INDEX (
index_name => 'EMP',
);
END;
/
Procédure EXPORT_DATA
Cette procédure exporte les données de la base de données Autonomous AI en fonction du résultat d'une requête. Cette procédure est surchargée et prend en charge l'écriture de fichiers dans le cloud ou dans un répertoire.
En fonction du paramètre format type, la procédure exporte les fichiers vers le cloud ou vers un emplacement de répertoire en tant que fichiers texte au format CSV, JSON, Parquet ou XML.
Syntaxe
DBMS_CLOUD.EXPORT_DATA (
credential_name IN VARCHAR2 DEFAULT NULL,
file_uri_list IN CLOB,
format IN CLOB,
query IN CLOB);
DBMS_CLOUD.EXPORT_DATA (
credential_name IN VARCHAR2 DEFAULT NULL,
file_uri_list IN CLOB DEFAULT NULL,
format IN CLOB DEFAULT NULL,
query IN CLOB DEFAULT NULL,
operation_id OUT NOCOPY NUMBER);
Paramètres
| Paramètre | Description |
|---|---|
credential_name |
Nom des informations d'identification permettant d'accéder au stockage d'objet cloud. Lorsque le paramètre d'informations d'identification n'est pas inclus, cela indique la sortie vers un répertoire. |
file_uri_list |
Il existe différentes formes, selon la valeur du paramètre de format et selon que vous incluez ou non un paramètre d'informations d'identification :
Le format des URI dépend du service Cloud Object Storage que vous utilisez. Pour plus de détails, reportez-vous à Formats d'URI de stockage d'objet cloud. |
format |
Chaîne JSON qui fournit des options de format d'export. L'option prise en charge est :
Reportez-vous à Options de format de package DBMS_CLOUD pour EXPORT_DATA |
query |
Utilisez ce paramètre pour indiquer une instruction Lorsque la valeur Exemple : |
operation_id |
Utilisez ce paramètre pour suivre la progression et la fin de l'opération d'export sous l'ID correspondant dans la vue USER_LOAD_OPERATIONS. |
Remarques sur l'utilisation
-
La valeur de paramètre
queryque vous fournissez peut être une requête avancée, si nécessaire, telle qu'une requête qui inclut des jointures ou des sous-requêtes. -
En fonction du paramètre de format indiqué,
DBMS_CLOUD.EXPORT_DATAgénère les résultats de la requête indiquée sur la banque d'objets cloud ou vers un emplacement de répertoire au format CSV, JSON, Parquet ou XML.Pour plus d'informations sur l'utilisation de
DBMS_CLOUD.EXPORT_DATAavec des fichiers de sortie CSV, JSON, Parquet ou XML, reportez-vous à Exporter des données vers une banque d'objets sous forme de texte à l'aide de DBMS_CLOUD.EXPORT_DATA et à Exporter des données vers un répertoire à l'aide de DBMS_CLOUD.EXPORT_DATA. -
Par défaut, lorsqu'un fichier généré contient 10 Mo de données, un nouveau fichier de sortie est créé pour une sortie CSV, JSON ou XML. Toutefois, si vous disposez de moins de 10 Mo de données de résultat, vous pouvez disposer de plusieurs fichiers de sortie, en fonction du service de base de données et du nombre d'OCPU (si votre base de données utilise des OCPU) pour l'instance de base de données Autonomous AI.
Pour plus d'informations, reportez-vous à Dénomination de fichier pour la sortie texte (CSV, JSON, Parquet ou XML).
La taille par défaut du bloc du fichier de sortie est de 10 Mo pour CSV, JSON ou XML. Vous pouvez modifier cette valeur avec le paramètre
format, optionmaxfilesize. Pour plus d'informations, reportez-vous à Options de format de package DBMS_CLOUD pour EXPORT_DATA. -
Par défaut, lorsqu'un fichier généré contient 10 Mo de données, un nouveau fichier de sortie est créé pour une sortie CSV, JSON ou XML. Toutefois, si vous disposez de moins de 10 Mo de données de résultat, vous pouvez disposer de plusieurs fichiers de sortie, en fonction du service de base de données et du nombre d'OCPU (si votre base de données utilise des OCPU) pour l'instance de base de données Autonomous AI.
Pour plus d'informations, reportez-vous à Dénomination de fichier pour la sortie texte (CSV, JSON, Parquet ou XML).
-
Le format de sortie parquet peut uniquement être utilisé avec des services de base de données élevés et moyens pour les bases de données Autonomous AI sur une infrastructure Exadata dédiée.
Notes d'utilisation pour `DBMS_CLOUD.EXPORT_DATA` avec sortie dans un répertoire
-
Le répertoire fourni doit exister et vous devez être connecté en tant qu'utilisateur
ADMINou disposer d'un accèsWRITEau répertoire. -
DBMS_CLOUD.EXPORT_DATAne crée pas de répertoires. -
La procédure n'écrase pas les fichiers. Par exemple, si un fichier dump dans
file_uri_listexiste,DBMS_CLOUD.EXPORT_DATAsignale une erreur telle que :
ORA-31641: unable to create dump file "/u02/exports/123.dmp"
ORA-27038: created file already exists
Exemples
Exemple : DBMS_CLOUD.EXPORT_DATA avec le paramètre de format type avec la valeur json.
BEGIN
DBMS_CLOUD.EXPORT_DATA(
credential_name => 'OBJ_STORE_CRED',
file_uri_list => 'https://objectstorage.us-phoenix-1.oraclecloud.com/n/namespace-string/b/bucketname/o/exp1.json',
query => 'SELECT * FROM DEPT',
format => JSON_OBJECT('type' value 'json', 'compression' value 'gzip'));
);
END;
/
Exemple : DBMS_CLOUD.EXPORT_DATA avec le paramètre de format type avec la valeur xml.
BEGIN
DBMS_CLOUD.EXPORT_DATA(
credential_name => 'OBJ_STORE_CRED',
file_uri_list => 'https://objectstorage.us-phoenix-1.oraclecloud.com/n/namespace-string/b/bucketname/o/exp1.xml',
query => 'SELECT * FROM DEPT',
format => JSON_OBJECT('type' value 'xml', 'compression' value 'gzip'));
);
END;
/
Exemple : DBMS_CLOUD.EXPORT_DATA avec le paramètre de format type avec la valeur csv.
BEGIN
DBMS_CLOUD.EXPORT_DATA(
credential_name => 'OBJ_STORE_CRED',
file_uri_list => 'https://objectstorage.us-phoenix-1.oraclecloud.com/n/namespace-string/b/bucketname/o/exp.csv',
query => 'SELECT * FROM DEPT',
format => JSON_OBJECT('type' value 'csv', 'delimiter' value '|', 'compression' value 'gzip', 'header' value true ));
);
END;
/
Procédure et fonction GET_OBJECT
Cette procédure est surchargée. Cette procédure lit un objet à partir du stockage d'objet cloud et le copier vers la base de données Autonomous AI. Le formulaire de fonction lit un objet à partir du stockage d'objet cloud et renvoie une valeur BLOB vers la base de données Autonomous AI.
Syntaxe
DBMS_CLOUD.GET_OBJECT (
credential_name IN VARCHAR2,
object_uri IN VARCHAR2,
directory_name IN VARCHAR2,
file_name IN VARCHAR2 DEFAULT NULL,
startoffset IN NUMBER DEFAULT 0,
endoffset IN NUMBER DEFAULT 0,
compression IN VARCHAR2 DEFAULT NULL);
DBMS_CLOUD.GET_OBJECT(
credential_name IN VARCHAR2 DEFAULT NULL,
object_uri IN VARCHAR2,
startoffset IN NUMBER DEFAULT 0,
endoffset IN NUMBER DEFAULT 0,
compression IN VARCHAR2 DEFAULT NULL)
RETURN BLOB;
Paramètres
| Paramètre | Description |
|---|---|
credential_name |
Nom des informations d'identification permettant d'accéder au stockage d'objet cloud. |
object_uri |
URI de l'objet ou du fichier. Le format de l'URI dépend du service Cloud Object Storage que vous utilisez. Pour plus de détails, reportez-vous à Formats d'URI de stockage d'objet cloud. |
directory_name |
Nom du répertoire dans la base de données. (Voir la note de bas de page 1 ci-dessous) |
file_name |
Indique le nom du fichier à créer. Si le nom du fichier n'est pas spécifié, il est défini sur ce qui suit la dernière barre oblique dans le paramètre object_uri. Pour les cas particuliers, par exemple lorsque le nom du fichier contient des barres obliques, utilisez le paramètre file_name. |
startoffset |
Décalage, en octets, à partir duquel la procédure commence la lecture. |
endoffset |
Décalage, en octets, auquel la procédure arrête la lecture. |
compression |
Spécifie la compression utilisée pour stocker l'objet. Lorsque compression est défini sur "AUTO", le fichier n'est pas compressé (la valeur "AUTO" implique que l'objet spécifié avec object_uri est compressé avec Gzip). |
Note de bas de page 1
Remarque : pour exécuter DBMS_CLOUD.GET_OBJECT avec un utilisateur autre qu'ADMIN, vous devez accorder à cet utilisateur des privilèges WRITE sur le répertoire. Par exemple, exécutez la commande suivante en tant qu'ADMIN pour accorder des privilèges d'écriture à atpc_user :
GRANT WRITE ON DIRECTORY data_pump_dir TO atpc_user;
Valeurs retournées
Le formulaire de fonction lit à partir de la banque d'objets et DBMS_CLOUD.GET_OBJECT renvoie une valeur BLOB.
Exemples
BEGIN
DBMS_CLOUD.GET_OBJECT(
credential_name => 'OBJ_STORE_CRED',
object_uri => 'https://objectstorage.us-phoenix-1.oraclecloud.com/n/namespace-string/b/bucketname/o/file.txt',
directory_name => 'DATA_PUMP_DIR');
END;
/
Exemple : pour lire des données alphanumériques à partir d'un fichier dans la banque d'objets.
SELECT to_clob(
DBMS_CLOUD.GET_OBJECT(
credential_name => 'OBJ_STORE_CRED',
object_uri => 'https://objectstorage.us-phoenix-1.oraclecloud.com/n/namespace-string/b/bucketname/o/file.txt'))
FROM DUAL;
Exemple : pour ajouter une image stockée dans la banque d'objets dans un fichier BLOB de la base de données.
DECLARE
l_blob BLOB := NULL;
BEGIN
l_blob := DBMS_CLOUD.GET_OBJECT(
credential_name => 'OBJ_STORE_CRED',
object_uri => 'https://objectstorage.us-phoenix-1.oraclecloud.com/n/namespace-string/b/bucketname/o/MyImage.gif' );
END;
/
Dans cet exemple, namespace-string est l'espace de noms Oracle Cloud Infrastructure Object Storage et bucketname est le nom du bucket. Pour plus d'informations, reportez-vous à Présentation des espaces de noms Object Storage.
Fonction LIST_FILES
Cette fonction liste les fichiers présents dans le répertoire spécifié. Les résultats incluent les noms de fichier et les métadonnées supplémentaires sur les fichiers, telles que la taille de fichier en octets, l'horodatage de création et l'horodatage de dernière modification.
Syntaxe
DBMS_CLOUD.LIST_FILES (
directory_name IN VARCHAR2)
RETURN TABLE;
Paramètres
| Paramètre | Description |
|---|---|
directory_name |
Nom du répertoire dans la base de données. Ce paramètre prend en charge les caractères génériques. |
Remarques sur l'utilisation
-
Pour exécuter
DBMS_CLOUD.LIST_FILESavec un utilisateur autre qu'ADMIN, vous devez lui accorder des privilèges d'accès en lecture sur le répertoire. Par exemple, exécutez la commande suivante en tant qu'ADMIN pour accorder les privilèges de lecture àatpc_user:GRANT READ ON DIRECTORY data_pump_dir TO atpc_user; - Il s'agit d'une fonction de table alignée avec le type de retour
DBMS_CLOUD_TYPES.list_object_ret_t. DBMS_CLOUD.LIST_FILESn'obtient pas la valeur de somme de contrôle et renvoieNULLpour ce champ.DBMS_CLOUD.LIST_FILESprend en charge le filtrage sélectif des fichiers à l'aide de la syntaxedirectory:filename. Les caractères génériques sont pris en charge dans le nom de fichier.
Exemples
Exemple : utilisation de la requête suivante pour utiliser DBMS_CLOUD.LIST_FILES en tant que fonction pipelinée qui renvoie une ligne pour chaque fichier.
SELECT * FROM DBMS_CLOUD.LIST_FILES('DATA_PUMP_DIR');
OBJECT_NAME BYTES CHECKSUM CREATED LAST_MODIFIED
------------ ---------- ---------- --------------------- ---------------------
cwallet.sso 2965 2018-12-12T18:10:47Z 2019-11-23T06:36:54Z
Vous pouvez également utiliser DBMS_CLOUD.LIST_FILES avec la syntaxe DIRECTORY:FILE, en spécifiant un fichier ou en utilisant des caractères génériques. * et ? sont les caractères génériques pris en charge.
Exemple : pour répertorier tous les fichiers CSV commençant par "f" dans le répertoire DATA_PUMP_DIR à l'aide d'un caractère générique.
SELECT * FROM DBMS_CLOUD.LIST_FILES('DATA_PUMP_DIR:f*.csv');
Exemple : pour répertorier le fichier f1.csv dans le répertoire DATA_PUMP_DIR en indiquant le nom du fichier.
SELECT * FROM DBMS_CLOUD.LIST_FILES('DATA_PUMP_DIR:f1.csv');
Fonction LIST_OBJECTS
Cette fonction répertorie les objets présents à l'emplacement spécifié dans la banque d'objets. Les résultats incluent les noms d'objet et les métadonnées supplémentaires sur les objets, telles que la taille, le checksum, l'horodatage de création et l'horodatage de dernière modification.
Syntaxe
DBMS_CLOUD.LIST_OBJECTS (
credential_name IN VARCHAR2,
location_uri IN VARCHAR2)
RETURN TABLE;
Paramètres
| Paramètre | Description |
|---|---|
credential_name |
Nom des informations d'identification permettant d'accéder au stockage d'objet cloud. |
location_uri |
URI de dossier ou de bucket Object Storage. Le format des URI dépend du service Cloud Object Storage que vous utilisez. Pour en savoir plus, reportez-vous àFormats d'URI de stockage d'objet cloud. Les caractères génériques sont pris en charge pour répertorier de manière sélective les fichiers ou sous-dossiers dans un URI. Les caractères " Exemple avec des caractères génériques : |
Remarques sur l'utilisation
-
Selon les fonctionnalités de la banque d'objets,
DBMS_CLOUD.LIST_OBJECTSne renvoie pas de valeurs pour certains attributs et la valeur renvoyée pour le champ estNULLdans ce cas.Toutes les banques d'objets prises en charge renvoient des valeurs pour les champs
OBJECT_NAME,BYTESetCHECKSUM. Le tableau suivant présente la prise en charge des champsCREATEDetLAST_MODIFIEDpar la banque d'objets :Banque d'objets CREATEDLAST_MODIFIEDOracle Cloud Infrastructure natif Renvoie l'horodatage Renvoie l'horodatage Oracle Cloud Infrastructure Swift Renvoie NULLRenvoie l'horodatage Amazon S3 Renvoie NULLRenvoie l'horodatage Compatible avec Amazon S3 Renvoie NULLRenvoie l'horodatage Azure Renvoie l'horodatage Renvoie l'horodatage -
La valeur de checksum est le checksum MD5. Il s'agit d'un nombre hexadécimal de 32 caractères calculé sur le contenu de l'objet.
-
Il s'agit d'une fonction de table alignée avec le type de retour
DBMS_CLOUD_TYPES.list_object_ret_t.
Exemple
Il s'agit d'une fonction pipelinée qui renvoie une ligne pour chaque objet. Par exemple, générez la requête suivante pour utiliser cette fonction :
SELECT * FROM DBMS_CLOUD.LIST_OBJECTS('OBJ_STORE_CRED',
'https://objectstorage.us-phoenix-1.oraclecloud.com/n/namespace-string/b/bucketname/o/');
OBJECT_NAME BYTES CHECKSUM CREATED LAST_MODIFIED
------------ ---------- -------------------------------- --------------------- --------------------
cwallet.sso 2965 2339a2731ba24a837b26d344d643dc07 2019-11-23T06:36:54Z
Dans cet exemple, namespace-string est l'espace de noms Oracle Cloud Infrastructure Object Storage et bucketname est le nom du bucket. Pour plus d'informations, reportez-vous à Présentation des espaces de noms Object Storage.
Procédure MOVE_OBJECT
Cette procédure déplace un objet d'un bucket ou dossier Cloud Object Storage vers un autre.
Le dossier ou le bucket source et cible peuvent se trouver dans le même fournisseur de banque d'objets cloud ou dans un autre fournisseur.
Lorsque la source et la cible se trouvent dans des banques d'objets distinctes ou ont des comptes différents avec le même fournisseur cloud, vous pouvez donner des noms d'informations d'identification distincts pour les emplacements source et cible.
Par défaut, le nom des informations d'identification source est également utilisé par l'emplacement cible lorsque le nom des informations d'identification cible n'est pas fourni.
Syntaxe
DBMS_CLOUD.MOVE_OBJECT (
source_credential_name IN VARCHAR2 DEFAULT NULL,
source_object_uri IN VARCHAR2,
target_object_uri IN VARCHAR2,
target_credential_name IN VARCHAR2 DEFAULT NULL
);
Paramètres
| Paramètre | Description |
|---|---|
source_credential_name |
Nom des infos d'identification permettant d'accéder au stockage d'objet cloud source. Si vous ne fournissez pas de valeur |
source_object_uri |
Spécifie l'URI, qui pointe vers l'emplacement du dossier ou du bucket Object Storage source. Ce paramètre est obligatoire. Le format des URI dépend du service Cloud Object Storage. Pour plus d'informations, reportez-vous à Formats d'URI de stockage d'objet cloud. |
target_object_uri |
Indique l'URI du bucket ou dossier Object Storage cible, où les fichiers doivent être déplacés. Ce paramètre est obligatoire. Le format des URI dépend du service Cloud Object Storage. Pour plus d'informations, reportez-vous à Formats d'URI de stockage d'objet cloud. |
target_credential_name |
Nom des données d'identification permettant d'accéder à l'emplacement de stockage d'objet cloud cible. Si vous ne fournissez pas de valeur |
Exemple
BEGIN
DBMS_CLOUD.MOVE_OBJECT (
source_credential_name => 'OCI_CRED',
source_object_uri => 'https://objectstorage.us-phoenix-1.oraclecloud.com/n/namespace-string/b/bucketname1/bgfile.csv',
target_object_uri => 'https://objectstorage.us-phoenix-1.oraclecloud.com/n/namespace-string/b/bucketname2/myfile.csv'
);
END;
/
Procédure PUT_OBJECT
Cette procédure est surchargée. Dans un formulaire, la procédure copie un fichier d'Autonomous AI Database vers Cloud Object Storage. Dans un autre formulaire, la procédure copie une valeur BLOB d'Autonomous AI Database vers Cloud Object Storage.
Syntaxe
DBMS_CLOUD.PUT_OBJECT (
credential_name IN VARCHAR2,
object_uri IN VARCHAR2,
directory_name IN VARCHAR2,
file_name IN VARCHAR2
compression IN VARCHAR2 DEFAULT NULL);
DBMS_CLOUD.PUT_OBJECT (
credential_name IN VARCHAR2,
object_uri IN VARCHAR2,
contents IN BLOB
compression IN VARCHAR2 DEFAULT NULL);
Paramètres
| Paramètre | Description |
|---|---|
credential_name |
Nom des informations d'identification permettant d'accéder au stockage d'objet cloud. |
object_uri |
URI de l'objet ou du fichier. Le format de l'URI dépend du service Cloud Object Storage que vous utilisez. Pour plus de détails, reportez-vous à Formats d'URI de stockage d'objet cloud. |
directory_name |
Nom du répertoire dans la base de données. (Voir la note de bas de page 1 ci-dessous) |
contents |
Indique le BLOB à copier de la base de données Autonomous AI vers le stockage d'objet cloud. |
file_name |
Nom du fichier dans le répertoire spécifié. |
compression |
Spécifie la compression utilisée pour stocker l'objet. La valeur par défaut est |
Note de bas de page 1
Remarque : pour exécuter DBMS_CLOUD.PUT_OBJECT avec un utilisateur autre qu'ADMIN, vous devez lui accorder des privilèges d'accès en lecture sur le répertoire. Par exemple, exécutez la commande suivante en tant qu'ADMIN pour accorder les privilèges de lecture à atpc_user :
GRANT READ ON DIRECTORY data_pump_dir TO atpc_user;
Exemple
Pour gérer les données BLOB après le traitement dans la base de données, puis les stocker directement dans un fichier de la banque d'objets, procédez comme suit :
DECLARE
my_blob_data BLOB;
BEGIN
/* Some processing producing BLOB data and populating my_blob_data */
DBMS_CLOUD.PUT_OBJECT(
credential_name => 'OBJ_STORE_CRED',
object_uri => 'https://objectstorage.us-phoenix-1.oraclecloud.com/n/namespace-string/b/bucketname/o/my_new_file',
contents => my_blob_data));
END;
/
Remarques sur l'utilisation
En fonction de votre stockage d'objet cloud, la taille de l'objet que vous transférez est limitée comme suit :
| Service Cloud Object Storage | Limite de taille de transfert d'objet |
|---|---|
| Oracle Cloud Infrastructure Object Storage | 50 GB |
| Amazon S3 | 5 GB |
| Stockage BLOB Azure | 256 Mo |
| Compatible avec Amazon S3 | Défini par le fournisseur de banque d'objets. Pour plus d'informations, reportez-vous à la documentation du fournisseur. |
La banque d'objets Oracle Cloud Infrastructure ne permet pas d'écrire des fichiers dans un bucket public sans fournir d'informations d'identification (Oracle Cloud Infrastructure permet aux utilisateurs de télécharger des objets à partir de buckets publics). Par conséquent, vous devez fournir un nom d'informations d'identification avec des informations d'identification valides pour stocker un objet dans un bucket public Oracle Cloud Infrastructure à l'aide de PUT_OBJECT.
Pour plus d'informations, reportez-vous à Formats d'URI de stockage d'objet cloud.
Procédure SYNC_EXTERNAL_PART_TABLE
Cette procédure simplifie la mise à jour d'une table partitionnée externe à partir de fichiers dans le cloud. Exécutez cette procédure chaque fois que de nouvelles partitions sont ajoutées ou lorsque des partitions sont supprimées de la source de la banque d'objets pour la table partitionnée externe.
Syntaxe
DBMS_CLOUD.SYNC_EXTERNAL_PART_TABLE (
table_name IN VARCHAR2,
schema_name IN VARCHAR2 DEFAULT,
update_columns IN BOOLEAN DEFAULT);
Paramètres
| Paramètre | Description |
|---|---|
table_name |
Nom de la Table cible. La table cible doit être créée avant d'exécuter DBMS_CLOUD.SYNC_EXTERNAL_PART_TABLE. |
schema_name |
Nom du schéma dans lequel réside la table cible. La valeur par défaut est NULL, ce qui signifie que la table cible se trouve dans le même schéma que l'utilisateur qui exécute la procédure. |
update_columns |
Les nouveaux fichiers peuvent apporter une modification au schéma. Les mises à jour prises en charge sont les suivantes : nouvelles colonnes, colonnes supprimées. Les mises à jour des colonnes existantes, par exemple une modification du type de données, génèrent des erreurs. Valeur par défaut : False |
Procédure VALIDATE_EXTERNAL_PART_TABLE
Cette procédure valide les fichiers source pour une table partitionnée externe, génère les informations de journal et stocke les lignes qui ne correspondent pas aux options de format indiquées pour la table externe dans une table badfile sur la base de données Autonomous AI. La forme surchargée permet d'utiliser le paramètre operation_id.
Syntaxe
DBMS_CLOUD.VALIDATE_EXTERNAL_PART_TABLE (
table_name IN VARCHAR2,
partition_name IN CLOB DEFAULT,
subpartition_name IN CLOB DEFAULT,
schema_name IN VARCHAR2 DEFAULT,
rowcount IN NUMBER DEFAULT,
partition_key_validation IN BOOLEAN DEFAULT,
stop_on_error IN BOOLEAN DEFAULT);
DBMS_CLOUD.VALIDATE_EXTERNAL_PART_TABLE (
table_name IN VARCHAR2,
operation_id OUT NUMBER,
partition_name IN CLOB DEFAULT,
subpartition_name IN CLOB DEFAULT,
schema_name IN VARCHAR2 DEFAULT,
rowcount IN NUMBER DEFAULT,
partition_key_validation IN BOOLEAN DEFAULT,
stop_on_error IN BOOLEAN DEFAULT);
Paramètres
| Paramètre | Description |
|---|---|
table_name |
Nom de la table externe. |
operation_id |
Utilisez ce paramètre pour suivre la progression et le statut final de l'opération de chargement sous l'ID correspondant dans la vue USER_LOAD_OPERATIONS. |
partition_name |
Si elle est définie, seule une partition spécifique est validée. Si aucune valeur n'est indiquée, lisez toutes les partitions de manière séquentielle jusqu'à ce que rowcount soit atteint. |
subpartition_name |
Si elle est définie, seule une sous-partition spécifique est validée. Si aucune valeur n'est indiquée, la lecture de toutes les partitions ou sous-partitions externes est séquentielle jusqu'à ce que rowcount soit atteint. |
schema_name |
Nom du schéma dans lequel réside la table externe. La valeur par défaut est NULL, ce qui signifie que la table externe se trouve dans le même schéma que l'utilisateur qui exécute la procédure. |
rowcount |
Nombre de lignes à analyser. La valeur par défaut est NULL, ce qui signifie que toutes les lignes des fichiers source sont analysées. |
partition_key_validation |
A usage interne uniquement. N'utilisez pas ce paramètre. |
stop_on_error |
Détermine si la validation doit s'arrêter lorsqu'une ligne est rejetée. La valeur par défaut est TRUE, ce qui signifie que la validation s'arrête à la première ligne rejetée. La définition de la valeur sur FALSE indique que la validation ne s'arrête pas à la première ligne rejetée et valide toutes les lignes jusqu'à la valeur indiquée pour le paramètre rowcount. |
Procédure VALIDATE_EXTERNAL_TABLE
Cette procédure valide les fichiers source pour une table externe, génère une information sur le journal et stocke les lignes qui ne correspondent pas aux options de format indiquées pour la table externe dans une table badfile sur Autonomous AI Database. La forme surchargée permet d'utiliser le paramètre operation_id.
Syntaxe
DBMS_CLOUD.VALIDATE_EXTERNAL_TABLE (
table_name IN VARCHAR2,
schema_name IN VARCHAR2 DEFAULT,
rowcount IN NUMBER DEFAULT,
stop_on_error IN BOOLEAN DEFAULT);
DBMS_CLOUD.VALIDATE_EXTERNAL_TABLE(
table_name IN VARCHAR2,
operation_id OUT NOCOPY NUMBER,
schema_name IN VARCHAR2 DEFAULT NULL,
rowcount IN NUMBER DEFAULT 0,
stop_on_error IN BOOLEAN DEFAULT TRUE);
Paramètres
| Paramètre | Description |
|---|---|
table_name |
Nom de la table externe. |
operation_id |
Utilisez ce paramètre pour suivre la progression et le statut final de l'opération de chargement sous l'ID correspondant dans la vue USER_LOAD_OPERATIONS. |
schema_name |
Nom du schéma dans lequel réside la table externe. La valeur par défaut est NULL, ce qui signifie que la table externe se trouve dans le même schéma que l'utilisateur qui exécute la procédure. |
rowcount |
Nombre de lignes à analyser. La valeur par défaut est NULL, ce qui signifie que toutes les lignes des fichiers source sont analysées. |
stop_on_error |
Détermine si la validation doit s'arrêter lorsqu'une ligne est rejetée. La valeur par défaut est Si la table externe fait référence à des fichiers Avro, ORC ou Parquet, la validation s'arrête à la première ligne rejetée. Lorsque la table externe indique que le paramètre |
Remarque sur l'utilisation
DBMS_CLOUD.VALIDATE_EXTERNAL_TABLE fonctionne avec les tables externes partitionnées et les tables partitionnées hybrides. Cela permet de lire les données de toutes les partitions externes jusqu'à ce que rowcount soit atteint ou que stop_on_error s'applique. Vous n'avez pas le contrôle sur quelle partition, ou parties d'une partition, est lue dans quel ordre.
Procédure VALIDATE_HYBRID_PART_TABLE
Cette procédure valide les fichiers source pour la table partitionnée hybride, génère les informations de journal et stocke les lignes qui ne correspondent pas aux options de format indiquées pour la table hybride dans une table badfile sur la base de données Autonomous AI. La forme surchargée permet d'utiliser le paramètre operation_id.
Syntaxe
DBMS_CLOUD.VALIDATE_HYBRID_PART_TABLE (
table_name IN VARCHAR2,
partition_name IN CLOB DEFAULT,
subpartition_name IN CLOB DEFAULT,
schema_name IN VARCHAR2 DEFAULT,
rowcount IN NUMBER DEFAULT,
partition_key_validation IN BOOLEAN DEFAULT,
stop_on_error IN BOOLEAN DEFAULT);
DBMS_CLOUD.VALIDATE_HYBRID_PART_TABLE (
table_name IN VARCHAR2,
operation_id OUT NUMBER,
partition_name IN CLOB DEFAULT,
subpartition_name IN CLOB DEFAULT,
schema_name IN VARCHAR2 DEFAULT,
rowcount IN NUMBER DEFAULT,
partition_key_validation IN BOOLEAN DEFAULT,
stop_on_error IN BOOLEAN DEFAULT);
Paramètres
| Paramètre | Description |
|---|---|
table_name |
Nom de la table externe. |
operation_id |
Utilisez ce paramètre pour suivre la progression et le statut final de l'opération de chargement sous l'ID correspondant dans la vue USER_LOAD_OPERATIONS. |
partition_name |
Si elle est définie, seule une partition spécifique est validée. Si aucune valeur n'est indiquée, la lecture de toutes les partitions externes est séquentielle jusqu'à ce que rowcount soit atteint. |
subpartition_name |
Si elle est définie, seule une sous-partition spécifique est validée. Si aucune valeur n'est indiquée, la lecture de toutes les partitions ou sous-partitions externes est séquentielle jusqu'à ce que rowcount soit atteint. |
schema_name |
Nom du schéma dans lequel réside la table externe. La valeur par défaut est NULL, ce qui signifie que la table externe se trouve dans le même schéma que l'utilisateur qui exécute la procédure. |
rowcount |
Nombre de lignes à analyser. La valeur par défaut est NULL, ce qui signifie que toutes les lignes des fichiers source sont analysées. |
partition_key_validation |
A usage interne uniquement. N'utilisez pas ce paramètre. |
stop_on_error |
Détermine si la validation doit s'arrêter lorsqu'une ligne est rejetée. La valeur par défaut est TRUE, ce qui signifie que la validation s'arrête à la première ligne rejetée. La définition de la valeur sur FALSE indique que la validation ne s'arrête pas à la première ligne rejetée et valide toutes les lignes jusqu'à la valeur indiquée pour le paramètre rowcount. |