DBMS_CLOUD pour les objets et les fichiers
Cette section traite des sous-programmes DBMS_CLOUD
utilisés pour utiliser des objets et des fichiers.
Prérequis
En tant que développeur, vous pouvez utiliser des procédures DBMS_CLOUD avec des instances Autonomous Database déployées sur Oracle Public Cloud, Multicloud ou Exadata Cloud@Customer.
Selon le choix de déploiement, les prérequis suivants doivent être respectés pour utiliser les procédures DBMS_CLOUD avec les fournisseurs de services Amazon S3, Azure Blob Storage et Google Cloud Storage.
- Créez une passerelle NAT dans le réseau cloud virtuel (VCN) où résident vos ressources Autonomous Database en suivant les instructions fournies dans Création d'une passerelle NAT dans la documentation Oracle Cloud Infrastructure.
- Après avoir créé la passerelle NAT, ajoutez une règle de routage et une règle de sécurité sortante à chaque sous-réseau (dans le VCN) dans lesquelles résident les ressources Autonomous Database afin que ces ressources puissent utiliser la passerelle pour obtenir une clé publique à partir de votre instance Azure AD :
- Accédez à la page Détails du sous-réseau.
- Dans l'onglet Informations sur le sous-réseau, cliquez sur le nom de la table de routage du sous-réseau pour afficher la page Détails de la table de routage correspondante.
- Dans la table des règles de routage existantes, vérifiez s'il existe déjà une règle avec les caractéristiques suivantes :
- Destination : 0.0.0.0/0
- Type de cible : passerelle NAT
- Cible : nom de la passerelle NAT que vous venez de créer dans le VCN
Si une telle règle n'existe pas, cliquez sur Ajouter des règles de routage et ajoutez une règle possédant ces caractéristiques.
- Revenez à la page Détails du sous-réseau.
- Dans la table Listes de sécurité du sous-réseau, cliquez sur le nom de la liste de sécurité du sous-réseau pour afficher la page Détails de la liste de sécurité correspondante.
- Dans le menu latéral, sous Resources, cliquez sur Egress Rules.
- Dans la table des règles sortantes existantes, vérifiez s'il existe déjà une règle avec les caractéristiques suivantes :
- Type de destination : CIDR
- Destination : 0.0.0.0/0
- Protocole IP : TCP
- Plage de ports source: 443
- Plage de ports de destination : Tout
Si une telle règle n'existe pas, cliquez sur Ajouter des règles sortantes et ajoutez une règle présentant ces caractéristiques.
Les paramètres de proxy HTTP de votre environnement doivent permettre à la base de données d'accéder au fournisseur de services cloud.
Remarques :
La configuration réseau, y compris le proxy HTTP, ne peut être modifiée que jusqu'à ce que l'infrastructure Exadata présente l'état Activation requise. Une fois activé, vous ne pouvez plus modifier ces paramètres.La configuration d'un proxy HTTP pour une infrastructure Exadata déjà provisionnée nécessite une demande de service (SR) dans My Oracle Support. Pour plus d'informations, reportez-vous à Création d'une demande d'assistance dans My Oracle Support.
DBMS_CLOUD Sous-programmes pour les objets et les fichiers
Sous-programmes de gestion des objets et des fichiers dans le package DBMS_CLOUD.
Sous-programme | Description |
---|---|
Cette procédure charge les données dans une collection SODA existante à partir de Cloud Object Storage ou de fichiers dans un répertoire. | |
Cette procédure charge les données dans des tables Autonomous Database existantes à partir de Cloud Object Storage ou de fichiers dans un répertoire. | |
Cette procédure avec le paramètre de format type défini sur la valeur orc , parquet ou avro charge les données dans des tables Autonomous Database existantes à partir de fichiers ORC, Parquet ou Avro dans le cloud ou de fichiers ORC, Parquet ou Avro dans un répertoire.
Comme pour les fichiers texte, les données sont copiées du fichier ORC, Parquet ou Avro source dans la table interne préexistante. |
|
Cette procédure copie des fichiers d'un bucket Cloud Object Storage vers un autre. | |
Cette procédure crée une table externe sur les fichiers dans le cloud ou sur les fichiers d'un répertoire. Vous pouvez ainsi exécuter des requêtes sur des données externes à partir d'Autonomous Database. | |
CREATE_EXTERNAL_TABLE Procédure pour les fichiers Avro, ORC ou Parquet |
Cette procédure avec le paramètre de format type défini sur la valeur parquet , orc ou avro crée une table externe avec des fichiers au format Parquet, ORC ou Avro dans le cloud ou dans un répertoire.
Vous pouvez ainsi exécuter des requêtes sur des données externes à partir d'Autonomous Database. |
Cette procédure crée un index de texte sur les fichiers de banque d'objets. |
|
Cette procédure crée une table partitionnée hybride. Vous pouvez ainsi exécuter des requêtes sur des données partitionnées hybrides à partir d'Autonomous Database. | |
Cette procédure efface toutes les opérations de chargement de données consignées dans la table user_load_operations de votre schéma, ou toutes les opérations de chargement de données du type spécifié, comme indiqué dans le paramètre type .
|
|
Cette procédure enlève le fichier spécifié du répertoire indiqué sur Autonomous Database | |
Cette procédure supprime l'objet spécifié de la banque d'objets. | |
Cette procédure accepte une entrée |
|
Cette procédure supprime l'index de texte sur les fichiers de banque d'objets. |
|
Cette procédure exporte des données à partir d'Autonomous Database vers des fichiers dans le cloud en fonction du résultat d'une requête. La forme surchargée permet d'utiliser le paramètre operation_id . En fonction de l'option de paramètre format type indiquée, la procédure exporte les lignes vers la banque d'objets cloud sous forme de texte avec les options CSV, JSON, Parquet ou XML |
|
Cette procédure est surchargée. Le formulaire de la procédure lit un objet à partir du stockage d'objet cloud et le copie vers Autonomous Database. Le formulaire de la fonction lit un objet à partir du stockage d'objet cloud et renvoie un objet BLOB vers Autonomous Database.
|
|
Cette fonction liste les fichiers présents dans le répertoire spécifié. Les résultats incluent les noms de fichier et les métadonnées supplémentaires sur les fichiers, telles que la taille de fichier en octets, l'horodatage de création et l'horodatage de dernière modification. | |
Cette fonction répertorie les objets présents à l'emplacement spécifié dans la banque d'objets. Les résultats incluent les noms d'objet et les métadonnées supplémentaires sur les objets, telles que la taille, le checksum, l'horodatage de création et l'horodatage de dernière modification. | |
Cette procédure déplace un objet d'un bucket Cloud Object Storage vers un autre. | |
Cette procédure est surchargée. Dans un formulaire, la procédure copie un fichier d'Autonomous Database vers le stockage d'objet cloud. Dans un autre formulaire, la procédure copie un objet BLOB d'Autonomous Database vers le stockage d'objet cloud.
|
|
Cette procédure simplifie la mise à jour d'une table partitionnée externe à partir de fichiers dans le cloud. Exécutez cette procédure lorsque de nouvelles partitions sont ajoutées ou que des partitions sont enlevées de la source de banque d'objets pour la table partitionnée externe. |
|
Cette procédure valide les fichiers source pour une table externe, génère des informations sur le journal et stocke les lignes qui ne correspondent pas aux options de format indiquées pour la table externe dans une table badfile sur Autonomous Database. | |
Cette procédure valide les fichiers source pour une table partitionnée externe, génère des informations sur le journal et stocke les lignes qui ne correspondent pas aux options de format indiquées pour la table externe dans une table badfile sur Autonomous Database. | |
Cette procédure valide les fichiers source pour une table partitionnée hybride, génère des informations sur le journal et stocke les lignes qui ne correspondent pas aux options de format indiquées pour la table hybride dans une table badfile sur Autonomous Database. |
Procédure COPY_COLLECTION
Cette procédure charge les données dans une collection SODA à partir de Cloud Object Storage ou d'un répertoire. Si la collection SODA spécifiée n'existe pas, la procédure la crée. La forme surchargée permet d'utiliser le paramètre operation_id
.
Syntaxe
DBMS_CLOUD.COPY_COLLECTION
(
collection_name IN VARCHAR2,
credential_name IN VARCHAR2 DEFAULT NULL,
file_uri_list IN CLOB,
format IN CLOB DEFAULT NULL
);
DBMS_CLOUD.COPY_COLLECTION
(
collection_name IN VARCHAR2,
credential_name IN VARCHAR2 DEFAULT NULL,
file_uri_list IN CLOB,
format IN CLOB DEFAULT NULL,
operation_id OUT NOCOPY NUMBER
);
Paramètres
Paramètre | Description |
---|---|
|
Nom de la collection SODA dans laquelle les données sont chargées. Si une collection portant ce nom existe déjà, les données spécifiées sont chargées, sinon, la collection est créée. |
|
Nom des informations d'identification permettant d'accéder au stockage d'objet cloud. Ce paramètre n'est pas utilisé lorsque vous indiquez un répertoire avec |
|
Ce paramètre indique la liste des URI de fichier source séparés par des virgules, ou des répertoires et fichiers source. URI de fichier de source cloud Vous pouvez utiliser des caractères génériques ainsi que des expressions régulières dans les noms de fichier dans les URI de fichier source Cloud. Les expressions régulières peuvent uniquement être utilisées lorsque le paramètre Les caractères "*" et " ?" sont considérés comme des caractères génériques lorsque le paramètre Les modèles d'expression régulière sont uniquement pris en charge pour le nom de fichier ou le chemin de sous-dossier dans vos URI et la correspondance de modèle est identique à celle effectuée par la fonction Exemple :
Le format des URI dépend du service Cloud Object Storage que vous utilisez. Pour plus de détails, reportez-vous à Formats d'URI de stockage d'objet cloud. Pour plus d'informations sur la condition Répertoire Vous pouvez spécifier un répertoire et un ou plusieurs noms de fichiers ou utiliser une liste de répertoires et de noms de fichiers séparés par des virgules. Le format pour spécifier un répertoire est : Vous pouvez utiliser des caractères génériques pour indiquer les noms de fichier d'un répertoire. Le caractère "*" peut être utilisé comme caractère générique pour représenter plusieurs caractères. Le caractère "?" peut être utilisé comme caractère générique pour représenter un seul caractère. Par exemple : Pour spécifier plusieurs répertoires, utilisez une liste de répertoires séparés par des virgules : par exemple : Utilisez des guillemets doubles pour indiquer un nom de répertoire sensible à la casse. Par exemple : Pour inclure un guillemet, utilisez deux guillemets. Par exemple : |
|
Options décrivant le format des fichiers source. Ces options sont indiquées sous forme de chaîne JSON. Les formats pris en charge sont : Outre les formats mentionnés pour les données JSON, Autonomous Database prend également en charge d'autres formats. Pour obtenir la liste des arguments de format pris en charge par Autonomous Database, reportez-vous à Paramètre de format. |
|
Utilisez ce paramètre pour suivre la progression et le statut final de l'opération de chargement sous l'ID correspondant dans la vue |
Exemple
BEGIN
DBMS_CLOUD.CREATE_CREDENTIAL
(
credential_name => 'OBJ_STORE_CRED',
username => 'user_name@oracle.com',
password => 'password'
);
DBMS_CLOUD.COPY_COLLECTION
(
collection_name => 'myCollection',
credential_name => 'OBJ_STORE_CRED',
file_uri_list => 'https://objectstorage.us-phoenix-1.oraclecloud.com/n/adbexample/b/json/o/myCollection.json'
);
END;
/
Procédure COPY_DATA
Cette procédure charge les données dans des tables Autonomous Database existantes à partir de fichiers dans le cloud ou de fichiers dans un répertoire. La forme surchargée permet d'utiliser le paramètre operation_id
.
Syntaxe
DBMS_CLOUD.COPY_DATA
(
table_name IN VARCHAR2,
credential_name IN VARCHAR2 DEFAULT NULL,
file_uri_list IN CLOB,
schema_name IN VARCHAR2,
field_list IN CLOB,
format IN CLOB);
DBMS_CLOUD.COPY_DATA
(
table_name IN VARCHAR2,
credential_name IN VARCHAR2 DEFAULT NULL,
file_uri_list IN CLOB DEFAULT NULL,
schema_name IN VARCHAR2 DEFAULT NULL,
field_list IN CLOB DEFAULT NULL,
format IN CLOB DEFAULT NULL
operation_id OUT NOCOPY NUMBER);
Paramètres
Paramètre | Description |
---|---|
|
Nom de la table cible dans la base de données. Vous devez avoir créé la table cible avant d'exécuter |
|
Nom des informations d'identification permettant d'accéder au stockage d'objet cloud. Ce paramètre n'est pas utilisé lorsque vous indiquez un répertoire avec |
|
Vous pouvez utiliser des caractères génériques ainsi que des expressions régulières dans les noms de fichier dans les URI de fichier source Cloud. URI de fichier de source cloud Ce paramètre indique la liste des URI de fichier source séparés par des virgules, ou des répertoires et fichiers source. Les expressions régulières peuvent uniquement être utilisées lorsque le paramètre Les caractères "*" et " ?" sont considérés comme des caractères génériques lorsque le paramètre Les modèles d'expression régulière sont uniquement pris en charge pour le nom de fichier ou le chemin de sous-dossier dans vos URI et la correspondance de modèle est identique à celle effectuée par la fonction Exemple :
Le format des URI dépend du service Cloud Object Storage que vous utilisez. Pour plus de détails, reportez-vous à Formats d'URI de stockage d'objet cloud. Pour plus d'informations sur la condition Répertoire Vous pouvez spécifier un répertoire et un ou plusieurs noms de fichiers ou utiliser une liste de répertoires et de noms de fichiers séparés par des virgules. Le format pour spécifier un répertoire est : Vous pouvez utiliser des caractères génériques pour indiquer les noms de fichier d'un répertoire. Le caractère "*" peut être utilisé comme caractère générique pour représenter plusieurs caractères. Le caractère "?" peut être utilisé comme caractère générique pour représenter un seul caractère. Par exemple : Pour spécifier plusieurs répertoires, utilisez une liste de répertoires séparés par des virgules : par exemple : Utilisez des guillemets doubles pour indiquer un nom de répertoire sensible à la casse. Par exemple : Pour inclure un guillemet, utilisez deux guillemets. Par exemple : |
|
Nom du schéma dans lequel réside la table cible. La valeur par défaut est NULL, ce qui signifie que la table cible se trouve dans le même schéma que l'utilisateur qui exécute la procédure. |
|
Identifie les champs dans les fichiers source et leurs types de données. La valeur par défaut est NULL, ce qui signifie que les champs et leurs types de données sont déterminés par le paramètre column_list. La syntaxe de cet argument est identique à la clause Lorsque la valeur de l'option du paramètre de Pour obtenir un exemple d'utilisation de |
|
Options décrivant le format des fichiers source, journal et incorrects. Pour obtenir la liste des options et découvrir comment spécifier les valeurs, reportez-vous à Paramètre de format. Pour les options de format de fichier Avro, ORC ou Parquet, reportez-vous à Options de format de package DBMS_CLOUD pour Avro, ORC ou Parquet. |
|
Utilisez ce paramètre pour suivre la progression et le statut final de l'opération de chargement sous l'ID correspondant dans la vue |
Remarque sur l'utilisation
Le séparateur d'enregistrement par défaut est detected newline
. Avec detected newline
, DBMS_CLOUD
tente de trouver automatiquement le caractère de retour à la ligne correct à utiliser comme délimiteur d'enregistrement. DBMS_CLOUD
recherche d'abord le caractère de retour à la ligne Windows \r\n
. S'il trouve le caractère de retour à la ligne Windows, celui-ci est utilisé comme délimiteur d'enregistrement pour tous les fichiers de la procédure. Si aucun caractère de retour à la ligne Windows n'est trouvé, DBMS_CLOUD
recherche le caractère de retour à la ligne UNIX/Linux \n
et, s'il en trouve un, il utilise \n
comme délimiteur d'enregistrement pour le fichier. Si les fichiers source utilisent une combinaison de délimiteurs d'enregistrement différents, vous risquez de rencontrer une erreur telle que "KUP-04020: found record longer than buffer size supported
". Dans ce cas, vous devez modifier les fichiers source pour employer le même délimiteur d'enregistrement ou indiquer uniquement les fichiers source qui utilisent le même délimiteur d'enregistrement.
Pour plus d'informations sur l'option de format recorddelmiter
, reportez-vous à Paramètre de format.
Exemples
BEGIN
DBMS_CLOUD.CREATE_CREDENTIAL
(
credential_name => 'DEF_CRED_NAME',
username => 'user_name@oracle.com',
password => 'password'
);
END;
/
BEGIN
DBMS_CLOUD.COPY_DATA
(
table_name =>'CHANNELS',
credential_name =>'DEF_CRED_NAME',
file_uri_list =>'https://objectstorage.us-phoenix-1.oraclecloud.com/n/namespace-string/b/bucketname/o/channels.txt',
format => json_object('delimiter' value ',')
);
END;
/
BEGIN
DBMS_CLOUD.COPY_DATA
(
table_name => 'ORDERS',
schema_name => 'TEST_SCHEMA',
credential_name => 'DEF_CRED_NAME',
file_uri_list => 'https://objectstorage.us-phoenix-1.oraclecloud.com/n/adbexample/b/json/o/orde[r]s.tbl.1'
format => json_object('ignoreblanklines' value TRUE,
'rejectlimit' value '0',
'dateformat' value 'yyyy-mm-dd',
'regexuri' value TRUE)
);
END;
/
COPY_DATA Procédure pour les fichiers Avro, ORC ou Parquet
format
type
défini sur la valeur avro
, orc
ou parquet
charge les données dans des tables Autonomous Database existantes à partir de fichiers Avro, ORC ou Parquet dans le cloud ou de fichiers dans un répertoire.
Comme pour les fichiers texte, les données sont copiées du fichier Avro, ORC ou Parquet source dans la table interne préexistante.
Syntaxe
DBMS_CLOUD.COPY_DATA
(
table_name IN VARCHAR2,
credential_name IN VARCHAR2 DEFAULT NULL,
file_uri_list IN CLOB,
schema_name IN VARCHAR2 DEFAULT,
field_list IN CLOB DEFAULT,
format IN CLOB DEFAULT);
Paramètres
Paramètre | Description |
---|---|
|
Nom de la table cible dans la base de données. Vous devez avoir créé la table cible avant d'exécuter |
|
Nom des informations d'identification permettant d'accéder au stockage d'objet cloud. Ce paramètre n'est pas utilisé lorsque vous indiquez un répertoire avec |
|
Ce paramètre indique la liste des URI de fichier source séparés par des virgules, ou des répertoires et fichiers source. URI de fichier de source cloud Vous pouvez utiliser des caractères génériques ainsi que des expressions régulières dans les noms de fichier dans les URI de fichier source Cloud. Les expressions régulières peuvent uniquement être utilisées lorsque le paramètre Les caractères "*" et " ?" sont considérés comme des caractères génériques lorsque le paramètre Les modèles d'expression régulière sont uniquement pris en charge pour le nom de fichier ou le chemin de sous-dossier dans vos URI et la correspondance de modèle est identique à celle effectuée par la fonction Exemple :
Le format des URI dépend du service Cloud Object Storage que vous utilisez. Pour plus de détails, reportez-vous à Formats d'URI de stockage d'objet cloud. Pour plus d'informations sur la condition Répertoire Vous pouvez spécifier un répertoire et un ou plusieurs noms de fichiers ou utiliser une liste de répertoires et de noms de fichiers séparés par des virgules. Le format pour spécifier un répertoire est : Vous pouvez utiliser des caractères génériques pour indiquer les noms de fichier d'un répertoire. Le caractère "*" peut être utilisé comme caractère générique pour représenter plusieurs caractères. Le caractère "?" peut être utilisé comme caractère générique pour représenter un seul caractère. Par exemple : Pour spécifier plusieurs répertoires, utilisez une liste de répertoires séparés par des virgules : par exemple : Utilisez des guillemets doubles pour indiquer un nom de répertoire sensible à la casse. Par exemple : Pour inclure un guillemet, utilisez deux guillemets. Par exemple : |
|
Nom du schéma dans lequel réside la table cible. La valeur par défaut est NULL, ce qui signifie que la table cible se trouve dans le même schéma que l'utilisateur qui exécute la procédure. |
|
Ignoré pour les fichiers Avro, ORC ou Parquet. Les champs de la source correspondent aux colonnes de la table externe par nom. Les types de données source sont convertis en type de données de colonne de table externe. Pour les fichiers ORC, reportez-vous à Mise en correspondance de types de données Oracle avec des types de données ORC pour le package DBMS_CLOUD. Pour les fichiers Parquet, reportez-vous à Mise en correspondance de types de données Oracle avec des types de données Parquet pour le package DBMS_CLOUD afin d'obtenir plus d'informations sur la mise en correspondance. Pour les fichiers Avro, reportez-vous à Mise en correspondance de types de données Oracle avec des types de données Avro pour le package DBMS_CLOUD afin d'obtenir plus d'informations sur la mise en correspondance. |
|
Options décrivant le format des fichiers source. Pour les fichiers Avro, ORC ou Parquet, seules deux options sont prises en charge : reportez-vous à Options de format de package DBMS_CLOUD pour Avro, ORC ou Parquet. |
Remarques sur l'utilisation
-
Comme avec les autres fichiers de données, les chargements des données Avro, ORC et Parquet génèrent des journaux visibles dans les tables
dba_load_operations
etuser_load_operations
. Chaque opération de chargement ajoute un enregistrement àdba
[utilisateur]_load_operations
qui indique la table contenant les journaux.La table des journaux fournit des informations récapitulatives sur le chargement.
-
Pour Avro, ORC ou Parquet, lorsque le paramètre de
format
type
est défini sur la valeuravro
,orc
ouparquet
, la tableBADFILE_TABLE
est toujours vide.-
Pour les fichiers Parquet, les erreurs de contrainte
PRIMARY KEY
génèrent une erreurORA
. -
Si une erreur de conversion survient pour les données d'une colonne, par exemple, si la taille de la colonne cible n'est pas suffisante pour contenir la valeur convertie, la valeur de la colonne est définie sur
NULL
. Cela ne génère pas d'enregistrement rejeté.
-
COPY_OBJECT Procédure
Cette procédure copie un objet d'un bucket ou dossier Cloud Object Storage vers un autre.
Le bucket ou le dossier source et cible peuvent se trouver dans le même fournisseur de banque d'objets cloud ou dans un autre fournisseur.
Lorsque la source et la cible se trouvent dans des banques d'objets distinctes ou ont des comptes différents avec le même fournisseur cloud, vous pouvez indiquer des noms d'informations d'identification distincts pour les emplacements source et cible.
Le nom des informations d'identification source est également utilisé par défaut par l'emplacement cible lorsque le nom des informations d'identification cible n'est pas fourni.
Syntaxe
DBMS_CLOUD.COPY_OBJECT
(
source_credential_name IN VARCHAR2 DEFAULT NULL,
source_object_uri IN VARCHAR2,
target_object_uri IN VARCHAR2,
target_credential_name IN VARCHAR2 DEFAULT NULL
);
Paramètres
Paramètre | Description |
---|---|
|
Nom des informations d'identification permettant d'accéder au stockage d'objet cloud source. Si vous n'indiquez pas de valeur |
|
Spécifie l'URI, qui pointe vers l'emplacement du bucket ou du dossier Object Storage source. Ce paramètre est obligatoire. Le format des URI dépend du service Cloud Object Storage. Pour plus d'informations, reportez-vous à Formats d'URI de stockage d'objet cloud. |
|
Indique l'URI de la banque d'objets cible. Ce paramètre est obligatoire. Le format des URI dépend du service Cloud Object Storage. Pour plus d'informations, reportez-vous à Formats d'URI de stockage d'objet cloud. |
|
Nom des informations d'identification permettant d'accéder à l'emplacement Cloud Object Storage cible. Si vous n'indiquez pas de valeur |
Exemple
BEGIN
DBMS_CLOUD.COPY_OBJECT
(
source_credential_name => 'OCI_CRED',
source_object_uri => 'https://objectstorage.us-phoenix-1.oraclecloud.com/n/namespace-string/b/bucketname1/bgfile.csv',
target_object_uri => 'https://objectstorage.us-phoenix-1.oraclecloud.com/n/namespace-string/b/bucketname2/myfile.csv'
);
END;
/
Procédure CREATE_EXTERNAL_PART_TABLE
Cette procédure crée une table partitionnée externe sur les fichiers dans le cloud ou à partir de fichiers dans un répertoire. Vous pouvez ainsi exécuter des requêtes sur des données externes à partir d'Autonomous Database.
Syntaxe
DBMS_CLOUD.CREATE_EXTERNAL_PART_TABLE
(
table_name IN VARCHAR2,
credential_name IN VARCHAR2,
partitioning_clause IN CLOB,
column_list IN CLOB,
field_list IN CLOB DEFAULT,
format IN CLOB DEFAULT);
DBMS_CLOUD.CREATE_EXTERNAL_PART_TABLE
(
table_name IN VARCHAR2,
credential_name IN VARCHAR2,
file_uri_list IN VARCHAR2,
column_list IN CLOB,
field_list IN CLOB DEFAULT,
format IN CLOB DEFAULT);
Paramètres
Paramètre | Description |
---|---|
|
Nom de la table externe. |
|
Nom des informations d'identification permettant d'accéder au stockage d'objet cloud. |
|
Indique la clause de partitionnement complète, y compris les informations sur l'emplacement de chaque partition. Si vous utilisez le paramètre |
|
Ce paramètre indique la liste des URI de fichier source séparés par des virgules, ou des répertoires et fichiers source. URI de fichier de source cloud Vous pouvez utiliser des caractères génériques ainsi que des expressions régulières dans les noms de fichier dans les URI de fichier source Cloud. Les expressions régulières peuvent uniquement être utilisées lorsque le paramètre Les caractères "*" et " ?" sont considérés comme des caractères génériques lorsque le paramètre Les modèles d'expression régulière sont uniquement pris en charge pour le nom de fichier ou le chemin de sous-dossier dans vos URI et la correspondance de modèle est identique à celle effectuée par la fonction Cette option est uniquement prise en charge avec les tables externes créées sur un fichier dans Object Storage. Exemple :
Si vous utilisez le paramètre Le format des URI dépend du service Cloud Object Storage. Pour plus d'informations, reportez-vous à Formats d'URI de stockage d'objet cloud. Pour plus d'informations sur la condition |
|
Liste des noms et des types de données de colonne pour la table externe, séparés par des virgules. Ce paramètre exige que les conditions suivantes soient remplies, en fonction du type des fichiers de données indiqués avec le paramètre
|
|
Identifie les champs dans les fichiers source et leurs types de données. La valeur par défaut est NULL, ce qui signifie que les champs et leurs types de données sont déterminés par le paramètre column_list. La syntaxe de cet argument est identique à la clause |
|
L'option de format
Si les fichiers de données sont non structurés et que la sous-classe Pour les noms d'objet qui ne sont pas basés sur le format ruche, l'ordre des colonnes spécifiées par Pour connaître toutes les options du paramètre de |
Remarques sur l'utilisation
-
Vous ne pouvez pas appeler cette procédure avec les paramètres
partitioning_clause
etfile_uri_list
. -
L'indication du paramètre
column_list
est facultative avec les fichiers de données structurés, y compris les fichiers de données Avro, Parquet ou ORC. Sicolumn_list
n'est pas indiqué, l'option du paramètre deformat
partition_columns
doit inclurename
ettype
. -
Le paramètre
column_list
est requis avec les fichiers de données non structurés, tels que les fichiers texte CSV. -
La procédure
DBMS_CLOUD.CREATE_EXTERNAL_PART_TABLE
prend en charge les fichiers partitionnés externes dans les services de stockage d'objet cloud pris en charge, notamment :-
Oracle Cloud Infrastructure Object Storage
-
Stockage Blob Azure
Pour plus d'informations, reportez-vous à Formats d'URI de stockage d'objet cloud.
-
-
La procédure
DBMS_CLOUD.CREATE_EXTERNAL_PART_TABLE
prend en charge les fichiers partitionnés externes dans les répertoires, soit dans un système de fichiers local, soit dans un système de fichiers réseau. -
Lorsque vous appelez
DBMS_CLOUD.CREATE_EXTERNAL_PART_TABLE
avec le paramètrefile_uri_list
, les types des colonnes indiquées dans le nom du fichier du stockage d'objet cloud doivent être l'un des suivants :VARCHAR2(n) NUMBER(n) NUMBER(p,s) NUMBER DATE TIMESTAMP(9)
-
Le séparateur d'enregistrement par défaut est
detected newline
. Avecdetected newline
,DBMS_CLOUD
tente de trouver automatiquement le caractère de retour à la ligne correct à utiliser comme délimiteur d'enregistrement.DBMS_CLOUD
recherche d'abord le caractère de retour à la ligne Windows\r\n
. S'il trouve le caractère de retour à la ligne Windows, celui-ci est utilisé comme délimiteur d'enregistrement pour tous les fichiers de la procédure. Si aucun caractère de retour à la ligne Windows n'est trouvé,DBMS_CLOUD
recherche le caractère de retour à la ligne UNIX/Linux\n
et, s'il en trouve un, il utilise\n
comme délimiteur d'enregistrement pour le fichier. Si les fichiers source utilisent une combinaison de délimiteurs d'enregistrement différents, vous risquez de rencontrer une erreur telle que "KUP-04020: found record longer than buffer size supported
". Dans ce cas, vous devez modifier les fichiers source pour employer le même délimiteur d'enregistrement ou indiquer uniquement les fichiers source qui utilisent le même délimiteur d'enregistrement.Pour plus d'informations sur l'option de format
recorddelmiter
, reportez-vous à Formats d'URI de stockage d'objet cloud. -
Les tables partitionnées externes que vous créez avec
DBMS_CLOUD.CREATE_EXTERNAL_PART_TABLE
incluent deux colonnes invisibles :file$path
etfile$name
. Ces colonnes permettent d'identifier le fichier d'où provient un enregistrement.-
file$path
: indique le texte du chemin du fichier jusqu'au début du nom de l'objet. -
file$name
: indique le nom de l'objet, y compris tout le texte qui suit le nom du bucket.
-
Exemples
Exemple d'utilisation du paramètre partitioning_clause
:
BEGIN
DBMS_CLOUD.CREATE_EXTERNAL_PART_TABLE
(
table_name =>'PET1',
credential_name =>'OBJ_STORE_CRED',
format => json_object('delimiter' value ',', 'recorddelimiter' value 'newline', 'characterset' value 'us7ascii'),
column_list => 'col1 number, col2 number, col3 number',
partitioning_clause => 'partition by range (col1)
(partition p1 values less than (1000) location
( ''&base_URL//file_11.txt'')
,
partition p2 values less than (2000) location
( ''&base_URL/file_21.txt'')
,
partition p3 values less than (3000) location
( ''&base_URL/file_31.txt'')
)'
);
END;
/
BEGIN
DBMS_CLOUD.CREATE_EXTERNAL_PART_TABLE
(
table_name => 'PET',
format => json_object('delimiter'value ','),
column_list => 'name varchar2(20), gender varchar2(10), salary number',
partitioning_clause => 'partition by range (salary)
( -- Use test1.csv in the DEFAULT DIRECTORY DATA_PUMP_DIR
partition p1 values less than (100) LOCATION (''test1.csv''),
-- Use test2.csv in a specified directory MY_DIR
partition p2 values less than (300) DEFAULT DIRECTORY MY_DIR LOCATION (''test2.csv'') )' );
END;
/
Exemple d'utilisation des paramètres file_uri_list
et column_list
avec des fichiers de données non structurés :
BEGIN
DBMS_CLOUD.CREATE_EXTERNAL_PART_TABLE
(
table_name => 'MYSALES',
credential_name => 'DEF_CRED_NAME',
file_uri_list => 'https://objectstorage.us-phoenix-1.oraclecloud.com/n/namespace-string/b/bucketname/o/*.csv',
column_list => 'product varchar2(100), units number, country varchar2(100), year number, month varchar2(2)',
field_list => 'product, units', --[Because country, year and month are not in the file, they are not listed in the field list]
format => '{"type":"csv", "partition_columns":["country","year","month"]}');
END;
/
Exemple d'utilisation de file_uri_list
sans le paramètre column_list
avec des fichiers de données structurés :
BEGIN
DBMS_CLOUD.CREATE_EXTERNAL_PART_TABLE
(
table_name => 'MYSALES',
credential_name => 'DEF_CRED_NAME',
DBMS_CLOUD.CREATE_EXTERNAL_PART_TABLE
(
table_name => 'MYSALES',
credential_name => 'DEF_CRED_NAME',
file_uri_list => 'https://objectstorage.us-phoenix-1.oraclecloud.com/n/namespace-string/b/bucketname/o/*.parquet',
format =>
json_object('type' value 'parquet', 'schema' value 'first',
'partition_columns' value
json_array(
json_object('name' value 'country', 'type' value 'varchar2(100)'),
json_object('name' value 'year', 'type' value 'number'),
json_object('name' value 'month', 'type' value 'varchar2(2)')
)
)
);
END;
/
Procédure CREATE_EXTERNAL_TABLE
Cette procédure crée une table externe sur les fichiers dans le cloud ou à partir des fichiers d'un répertoire. Vous pouvez ainsi exécuter des requêtes sur des données externes à partir d'Autonomous Database.
Syntaxe
DBMS_CLOUD.CREATE_EXTERNAL_TABLE
(
table_name IN VARCHAR2,
credential_name IN VARCHAR2,
file_uri_list IN CLOB,
column_list IN CLOB,
field_list IN CLOB DEFAULT,
format IN CLOB DEFAULT);
Paramètres
Paramètre | Description |
---|---|
|
Nom de la table externe. |
|
Nom des informations d'identification permettant d'accéder au stockage d'objet cloud. Ce paramètre n'est pas utilisé lorsque vous indiquez un répertoire ou une URL de lien hypertexte de table avec |
|
Ce paramètre indique la liste des URI de fichier source séparés par des virgules, ou des répertoires et fichiers source. URI de fichier de source cloud Vous pouvez utiliser des caractères génériques ainsi que des expressions régulières dans les noms de fichier dans les URI de fichier source Cloud. Les expressions régulières peuvent uniquement être utilisées lorsque le paramètre Les caractères "*" et " ?" sont considérés comme des caractères génériques lorsque le paramètre Les modèles d'expression régulière sont uniquement pris en charge pour le nom de fichier ou le chemin de sous-dossier dans vos URI et la correspondance de modèle est identique à celle effectuée par la fonction Cette option est uniquement prise en charge avec les tables externes créées sur un fichier dans Object Storage. Exemple :
Le format des URI dépend du service Cloud Object Storage que vous utilisez. Pour plus de détails, reportez-vous à Formats d'URI de stockage d'objet cloud. Pour plus d'informations sur la condition Vous pouvez spécifier un répertoire et un ou plusieurs noms de fichiers ou utiliser une liste de répertoires et de noms de fichiers séparés par des virgules. Le format pour spécifier un répertoire est : Vous pouvez utiliser des caractères génériques pour indiquer les noms de fichier d'un répertoire. Le caractère "*" peut être utilisé comme caractère générique pour représenter plusieurs caractères. Le caractère "?" peut être utilisé comme caractère générique pour représenter un seul caractère. Par exemple : Pour spécifier plusieurs répertoires, utilisez une liste de répertoires séparés par des virgules : par exemple : Utilisez des guillemets doubles pour indiquer un nom de répertoire sensible à la casse. Par exemple : Pour inclure un guillemet, utilisez deux guillemets. Par exemple : |
|
Liste des noms et des types de données de colonne pour la table externe, séparés par des virgules. |
|
Identifie les champs dans les fichiers source et leurs types de données. La valeur par défaut est NULL, ce qui signifie que les champs et leurs types de données sont déterminés par le paramètre |
|
Options décrivant le format des fichiers source. Pour obtenir la liste des options et découvrir comment spécifier les valeurs, reportez-vous à Paramètre de format. Pour les fichiers au format Avro, ORC ou Parquet, reportez-vous à Procédure CREATE_EXTERNAL_TABLE pour les fichiers Avro, ORC ou Parquet. |
Remarques sur l'utilisation
-
La procédure
DBMS_CLOUD.CREATE_EXTERNAL_TABLE
prend en charge les fichiers partitionnés externes dans les services de stockage d'objet cloud pris en charge, y compris Azure Blob Storage.Les informations d'identification sont des propriétés de niveau table. Par conséquent, les fichiers externes doivent se trouver dans la même banque d'objets.
Pour plus d'informations, reportez-vous à Formats d'URI de stockage d'objet cloud.
-
Le séparateur d'enregistrement par défaut est
detected newline
. Avecdetected newline
,DBMS_CLOUD
tente de trouver automatiquement le caractère de retour à la ligne correct à utiliser comme délimiteur d'enregistrement.DBMS_CLOUD
recherche d'abord le caractère de retour à la ligne Windows\r\n
. S'il trouve le caractère de retour à la ligne Windows, celui-ci est utilisé comme délimiteur d'enregistrement pour tous les fichiers de la procédure. Si aucun caractère de retour à la ligne Windows n'est trouvé,DBMS_CLOUD
recherche le caractère de retour à la ligne UNIX/Linux\n
et, s'il en trouve un, il utilise\n
comme délimiteur d'enregistrement pour le fichier. Si les fichiers source utilisent une combinaison de délimiteurs d'enregistrement différents, vous risquez de rencontrer une erreur telle que "KUP-04020: found record longer than buffer size supported
". Dans ce cas, vous devez modifier les fichiers source pour employer le même délimiteur d'enregistrement ou indiquer uniquement les fichiers source qui utilisent le même délimiteur d'enregistrement.Pour plus d'informations sur l'option de format
recorddelimiter
, reportez-vous à Paramètre de format.
Exemple
BEGIN
DBMS_CLOUD.CREATE_EXTERNAL_TABLE
(
table_name =>'WEATHER_REPORT_DOUBLE_DATE',
credential_name =>'OBJ_STORE_CRED',
file_uri_list =>'&base_URL/Charlotte_NC_Weather_History_Double_Dates.csv',
format => json_object('type' value 'csv', 'skipheaders' value '1'),
field_list => 'REPORT_DATE DATE''mm/dd/yy'',
REPORT_DATE_COPY DATE ''yyyy-mm-dd'',
ACTUAL_MEAN_TEMP,
ACTUAL_MIN_TEMP,
ACTUAL_MAX_TEMP,
AVERAGE_MIN_TEMP,
AVERAGE_MAX_TEMP,
AVERAGE_PRECIPITATION',
column_list => 'REPORT_DATE DATE,
REPORT_DATE_COPY DATE,
ACTUAL_MEAN_TEMP NUMBER,
ACTUAL_MIN_TEMP NUMBER,
ACTUAL_MAX_TEMP NUMBER,
AVERAGE_MIN_TEMP NUMBER,
AVERAGE_MAX_TEMP NUMBER,
AVERAGE_PRECIPITATION NUMBER');
END;
/
SELECT * FROM WEATHER_REPORT_DOUBLE_DATE where
actual_mean_temp > 69 and actual_mean_temp < 74
Procédure CREATE_EXTERNAL_TABLE pour Apache Iceberg
Cette procédure crée des tables externes pour les tables Apache Iceberg dans les configurations prises en charge.
- Tableaux Iceberg sur AWS :
- Tableaux Iceberg enregistrés avec AWS Glue Data Catalog, créés avec Spark ou Athena.
Pour plus d'informations, reportez-vous à Utilisation du connecteur AWS Glue pour lire et écrire des tables Apache Iceberg avec des transactions ACID et effectuer des déplacements dans le temps et à Utilisation de tables Iceberg.
- Tables d'iceberg stockées sur AWS S3 en fournissant directement l'URL du fichier de métadonnées racine.
- Tableaux Iceberg enregistrés avec AWS Glue Data Catalog, créés avec Spark ou Athena.
- Tables d'iceberg sur OCI :
- Tables d'iceberg générées avec OCI Data Flow à l'aide d'un catalogue Hadoop.
Pour plus d'informations, reportez-vous à Exemples Oracle Data Flow et à Utilisation d'un catalogue Hadoop.
- Tables d'iceberg stockées sur OCI Object Storage en fournissant directement l'URL du fichier de métadonnées racine.
- Tables d'iceberg générées avec OCI Data Flow à l'aide d'un catalogue Hadoop.
Syntaxe
DBMS_CLOUD.CREATE_EXTERNAL_TABLE (
table_name IN VARCHAR2,
credential_name IN VARCHAR2 DEFAULT NULL,
file_uri_list IN CLOB,
column_list IN CLOB DEFAULT NULL,
field_list IN CLOB DEFAULT NULL,
format IN CLOB DEFAULT NULL
);
Paramètres
Paramètre | Description |
---|---|
|
Nom de la table externe. |
|
Nom des informations d'identification utilisées pour accéder aux fichiers de données, aux fichiers de métadonnées et au catalogue Iceberg (le cas échéant). Pour les configurations AWS et OCI, les informations d'identification doivent être créées comme décrit dans la procédure CREATE_CREDENTIAL. Les informations d'identification AWS Amazon Resource Names (ARN) ne sont actuellement pas prises en charge. |
|
Doit avoir la valeur NULL si un catalogue Iceberg est spécifié (voir le paramètre format ci-dessous). Si aucun catalogue d'iceberg n'est utilisé, le fichier file_uri_list doit contenir l'URI du fichier de métadonnées d'iceberg.
|
|
Doit être NULL car les noms et les types de colonne sont automatiquement dérivés des métadonnées Iceberg. Les noms de colonne correspondent aux noms trouvés dans les fichiers de données sous-jacents (Parquet, Avro, ORC). Les types de données Oracle sont dérivés à l'aide des mappings Parquet/Avro/ORC entre Iceberg et les types de données Parquet, Avro et ORC. Par conséquent, les utilisateurs ne peuvent pas spécifier |
|
Doit être NULL car les noms de colonne et les types de données sont automatiquement dérivés des métadonnées Iceberg. |
|
Le paramètre Pour plus d'informations, reportez-vous à Prise en charge d'Iceberg sur les exemples OCI Data Flow et à Formats d'URI DBMS_CLOUD. |
Exemple de paramètre de format pour les tables AWS Iceberg utilisant un catalogue AWS Glue
Voici un exemple de paramètre format
lors de la création de tables sur une table AWS Iceberg à l'aide d'un catalogue AWS Glue :
format => json_object('access_protocol' value
json_object('protocol_type' value 'iceberg',
'protocol_config' value
json_object('iceberg_catalog_type' value 'aws_glue',
'iceberg_glue_region' value 'glue region',
'iceberg_table_path' value 'database_name.table_name')));
access_protocol
contient un objet JSON avec deux éléments, comme suit :
protocol_type
: doit être "iceberg"protocol_config
: objet JSON imbriqué indiquant les détails du catalogue d'iceberg.iceberg_catalog_type
: doit être'aws_glue'
iceberg_glue_region
: région de catalogue, par exemple'us-west-1'
iceberg_table_path
: cheminglue database.glue table name
.
Exemple de paramètre de format pour la table AWS Iceberg utilisant un URI de fichier de métadonnées
format
lors de la création de tables sur une table AWS Iceberg à l'aide d'un URI de fichier de métadonnées est le suivant :format => json_object('access_protocol' value
json_object('protocol_type' value 'iceberg')
Exemple de paramètre de format pour la table OCI Iceberg à l'aide du catalogue HadoopCatalog
format
lors de la création de tables sur une table OCI Iceberg créée par OCI Data Flow à l'aide du catalogue HadoopCatalog est le suivant :format => json_object('access_protocol' value
json_object('protocol_type' value 'iceberg',
'protocol_config' value
json_object('iceberg_catalog_type' value 'hadoop',
'iceberg_warehouse' value '<OCI folder URI>',
'iceberg_table_path' value 'database_name.table_name')));
access_protocol
contient un objet JSON avec deux éléments, comme suit :
protocol_type
: doit être'iceberg'
protocol_config
: objet JSON imbriqué indiquant les détails du catalogue d'iceberg.iceberg_catalog_type
: doit être'hadoop'
iceberg_warehouse
: chemin de répertoire de data warehouse utilisé lors de la génération de la table, au format URI natif.iceberg_table_path
: chemindatabase_name.table name
utilisé lors de la création de la table.
Exemple de paramètre de format pour la table OCI Iceberg à l'aide de l'URI du fichier de métadonnées
format
lors de la création de tables sur une table OCI Iceberg à l'aide de l'URI du fichier de métadonnées est le suivant :format => json_object('access_protocol' value
json_object('protocol_type' value 'iceberg')
access_protocol
contient un objet JSON avec un élément comme suit :
protocol_type
: doit être'iceberg'
CREATE_EXTERNAL_TABLE Procédure pour les fichiers Avro, ORC ou Parquet
format
type
défini sur la valeur avro
, orc
ou parquet
crée une table externe avec des fichiers au format Avro, ORC ou Parquet dans le cloud ou dans un répertoire.
Vous pouvez ainsi exécuter des requêtes sur des données externes à partir d'Autonomous Database.
Syntaxe
DBMS_CLOUD.CREATE_EXTERNAL_TABLE
(
table_name IN VARCHAR2,
credential_name IN VARCHAR2 DEFAULT NULL,
file_uri_list IN CLOB,
column_list IN CLOB,
field_list IN CLOB DEFAULT,
format IN CLOB DEFAULT);
Paramètres
Paramètre | Description |
---|---|
|
Nom de la table externe. |
|
Nom des informations d'identification permettant d'accéder au stockage d'objet cloud. Ce paramètre n'est pas utilisé lorsque vous indiquez un répertoire avec |
|
Ce paramètre indique la liste des URI de fichier source séparés par des virgules, ou des répertoires et fichiers source. URI de fichier de source cloud Vous pouvez utiliser des caractères génériques ainsi que des expressions régulières dans les noms de fichier dans les URI de fichier source Cloud. Les expressions régulières peuvent uniquement être utilisées lorsque le paramètre Les caractères "*" et " ?" sont considérés comme des caractères génériques lorsque le paramètre Les modèles d'expression régulière sont uniquement pris en charge pour le nom de fichier ou le chemin de sous-dossier dans vos URI et la correspondance de modèle est identique à celle effectuée par la fonction Cette option est uniquement prise en charge avec les tables externes créées sur un fichier dans Object Storage. Exemple :
Le format des URI dépend du service Cloud Object Storage que vous utilisez. Pour plus de détails, reportez-vous à Formats d'URI de stockage d'objet cloud. Pour plus d'informations sur la condition Répertoire Vous pouvez spécifier un répertoire et un ou plusieurs noms de fichiers ou utiliser une liste de répertoires et de noms de fichiers séparés par des virgules. Le format pour spécifier un répertoire est : Vous pouvez utiliser des caractères génériques pour indiquer les noms de fichier d'un répertoire. Le caractère "*" peut être utilisé comme caractère générique pour représenter plusieurs caractères. Le caractère "?" peut être utilisé comme caractère générique pour représenter un seul caractère. Par exemple : Pour spécifier plusieurs répertoires, utilisez une liste de répertoires séparés par des virgules : par exemple : Utilisez des guillemets doubles pour indiquer un nom de répertoire sensible à la casse. Par exemple : Pour inclure un guillemet, utilisez deux guillemets. Par exemple : |
|
(Facultatif) Ce champ, lorsqu'il est indiqué, remplace le paramètre Lorsque Pour les fichiers Parquet, reportez-vous à Mise en correspondance de types de données Oracle avec des types de données Parquet pour le package DBMS_CLOUD afin d'obtenir plus d'informations. Pour les fichiers ORC, reportez-vous à Mise en correspondance de types de données Oracle avec des types de données ORC pour le package DBMS_CLOUD afin d'obtenir plus d'informations. Pour les fichiers Avro, reportez-vous à Mise en correspondance de types de données Oracle avec des types de données Avro pour le package DBMS_CLOUD afin d'obtenir plus d'informations. |
|
Ignoré pour les fichiers Avro, ORC ou Parquet. Les champs de la source correspondent aux colonnes de la table externe par nom. Les types de données source sont convertis en type de données de colonne de table externe. Pour les fichiers ORC, reportez-vous à Mise en correspondance de types de données Oracle avec des types de données ORC pour le package DBMS_CLOUD. Pour les fichiers Parquet, reportez-vous à Mise en correspondance de types de données Oracle avec des types de données Parquet pour le package DBMS_CLOUD afin d'obtenir plus d'informations. Pour les fichiers Avro, reportez-vous à Mise en correspondance de types de données Oracle avec des types de données Avro pour le package DBMS_CLOUD afin d'obtenir plus d'informations. |
|
Pour plus d'informations sur les fichiers source |
Exemples ORC
format => '{"type":"orc", "schema": "all"}'
format => json_object('type' value 'orc', 'schema' value 'first')
Exemples Avro
format => '{"type":"avro", "schema": "all"}'
format => json_object('type' value 'avro', 'schema' value 'first')
Exemples Parquet
format => '{"type":"parquet", "schema": "all"}'
format => json_object('type' value 'parquet', 'schema' value 'first')
Mise en correspondance de nom de colonne Avro, ORC ou Parquet avec des noms de colonne Oracle
Reportez-vous à Mise en correspondance de nom de colonnes Avro, ORC et Parquet avec des noms de colonne Oracle pour le package DBMS_CLOUD pour plus d'informations sur la mise en correspondance de noms de colonne et l'utilisation de la conversion de nom de colonne dans Oracle SQL.
CREATE_EXTERNAL_TEXT_INDEX Procédure
Cette procédure crée un index de texte sur les fichiers Object Storage.
La procédure CREATE_EXTERNAL_TEXT_INDEX
crée un index de texte sur les fichiers Object Storage indiqués à l'emplacement location_uri
. L'index est actualisé à intervalles réguliers, pour tous les nouveaux ajouts ou suppressions effectués avec des fichiers sur l'URI d'emplacement.
Syntaxe
DBMS_CLOUD.CREATE_EXTERNAL_TEXT_INDEX
(
credential_name IN VARCHAR2 DEFAULT NULL,
location_uri IN VARCHAR2,
index_name IN VARCHAR2,
format IN CLOB DEFAULT NULL
);
Paramètres
Paramètre | Description |
---|---|
|
Nom des informations d'identification permettant d'accéder à l'emplacement de stockage d'objet cloud. Pour les URI de bucket publics, pré-authentifiés ou pré-signés, une valeur NULL peut être indiquée. Si vous n'indiquez pas de valeur |
location_uri |
Spécifie l'URI de bucket ou de dossier de banque d'objets. Ce paramètre est obligatoire. Le format des URI dépend du service Cloud Object Storage. Pour plus d'informations, reportez-vous à DBMS_CLOUD Formats d'URI de stockage d'objet cloud de fichier de package. |
index_name |
Spécifie le nom de l'index que vous créez sur les fichiers situés à l'emplacement location_uri .
Ce paramètre est obligatoire. |
|
Spécifie des options de configuration supplémentaires. Les options sont indiquées sous forme de chaîne JSON. Les options de format prises en charge sont les suivantes :
La valeur Vous pouvez spécifier des mots d'arrêt à l'aide des méthodes suivantes :
Si vous n'indiquez pas de paramètre |
Exemple
BEGIN
DBMS_CLOUD.CREATE_EXTERNAL_TEXT_INDEX
(
credential_name => 'DEFAULT_CREDENTIAL',
location_uri => 'https://objectstorage.us-phoenix-1.oraclecloud.com/n/namespace-string/b/bucketname/o/ts_data/'
index_name => 'EMP',
format => JSON_OBJECT ('refresh_rate' value 10)
);
END;
/
Procédure CREATE_HYBRID_PART_TABLE
Cette procédure crée une table partitionnée hybride. Cela vous permet d'exécuter des requêtes sur des données partitionnées hybrides à partir d'Autonomous Database à l'aide d'objets et de fichiers de base de données dans le cloud, ou d'objets et de fichiers de base de données dans un répertoire.
Syntaxe
DBMS_CLOUD.CREATE_HYBRID_PART_TABLE
(
table_name IN VARCHAR2,
credential_name IN VARCHAR2,
partitioning_clause IN CLOB,
column_list IN CLOB,
field_list IN CLOB DEFAULT,
format IN CLOB DEFAULT);
Paramètres
Paramètre | Description |
---|---|
|
Nom de la table externe. |
|
Nom des informations d'identification permettant d'accéder au stockage d'objet cloud. |
|
Indique la clause de partitionnement complète, y compris les informations sur l'emplacement de chaque partition. Pour utiliser des répertoires, la clause de partitionnement prend en charge les valeurs Vous pouvez utiliser des caractères génériques ainsi que des expressions régulières dans les noms de fichier dans les URI de fichier source Cloud. Les expressions régulières peuvent uniquement être utilisées lorsque le paramètre Les caractères "*" et " ?" sont considérés comme des caractères génériques lorsque le paramètre Les modèles d'expression régulière sont uniquement pris en charge pour le nom de fichier ou le chemin de sous-dossier dans vos URI et la correspondance de modèle est identique à celle effectuée par la fonction Exemple :
Pour plus d'informations sur la condition |
|
Liste des noms et des types de données de colonne pour la table externe, séparés par des virgules. |
|
Identifie les champs dans les fichiers source et leurs types de données. La valeur par défaut est NULL, ce qui signifie que les champs et leurs types de données sont déterminés par le paramètre column_list. La syntaxe de cet argument est identique à la clause |
|
Options décrivant le format des fichiers source. Pour obtenir la liste des options et découvrir comment spécifier les valeurs, reportez-vous à Paramètre de format. |
Remarques sur l'utilisation
-
La procédure
DBMS_CLOUD.CREATE_HYBRID_PART_TABLE
prend en charge les fichiers partitionnés externes dans les services de stockage d'objet cloud pris en charge, y compris Azure Blob Storage.Les informations d'identification sont des propriétés de niveau table. Par conséquent, les fichiers externes doivent se trouver dans la même banque d'objets.
Pour plus d'informations, reportez-vous à Formats d'URI de stockage d'objet cloud.
-
La procédure
DBMS_CLOUD.CREATE_HYBRID_PART_TABLE
prend en charge les fichiers partitionnés hybrides dans les répertoires, soit dans un système de fichiers local, soit dans un système de fichiers réseau. -
Les tables partitionnées externes que vous créez avec
DBMS_CLOUD.CREATE_HYBRID_PART_TABLE
incluent deux colonnes invisibles :file$path
etfile$name
. Ces colonnes permettent d'identifier le fichier d'où provient un enregistrement.-
file$path
: indique le texte du chemin du fichier jusqu'au début du nom de l'objet. -
file$name
: indique le nom de l'objet, y compris tout le texte qui suit le nom du bucket.
-
Exemples
BEGIN
DBMS_CLOUD.CREATE_HYBRID_PART_TABLE
(
table_name =>'HPT1',
credential_name =>'OBJ_STORE_CRED',
format => json_object('delimiter' value ',', 'recorddelimiter' value 'newline', 'characterset' value 'us7ascii'),
column_list => 'col1 number, col2 number, col3 number',
partitioning_clause => 'partition by range (col1)
(partition p1 values less than (1000) external location
( ''&base_URL/file_11.txt'')
,
partition p2 values less than (2000) external location
( ''&base_URL/file_21.txt'')
,
partition p3 values less than (3000)
)'
);
END;
/
BEGIN
DBMS_CLOUD.CREATE_HYBRID_PART_TABLE
(
table_name => 'HPT1',
format => json_object('delimiter'value ',', 'recorddelimiter'value 'newline'),
column_list => 'NAME VARCHAR2(30), GENDER VARCHAR2(10), BALANCE number',
partitioning_clause => 'partition by range (B 2 ALANCE)
(partition p1 values less than (1000) external DEFAULT DIRECTORY DATA_PUMP_DIR LOCATION (''Scott_male_1000.csv''),
partition p2 values less than (2000) external DEFAULT DIRECTORY DATA_PUMP_DIR LOCATION (''Mary_female_3000.csv''),
partition p3 values less than (3000))' );
END;
/
Procédure DELETE_ALL_OPERATIONS
Cette procédure efface toutes les opérations de chargement de données consignées dans la table user_load_operations
de votre schéma, ou toutes les opérations de chargement de données du type spécifié, comme indiqué dans le paramètre type
.
Syntaxe
DBMS_CLOUD.DELETE_ALL_OPERATIONS
(
type IN VARCHAR DEFAULT NULL);
Paramètres
Paramètre | Description |
---|---|
|
Indique le type d'opération à supprimer. Les valeurs de type se trouvent dans la colonne Si aucune valeur |
Remarque sur l'utilisation
-
DBMS_CLOUD.DELETE_ALL_OPERATIONS
ne supprime pas les opérations en cours d'exécution (opérations portant le statut En cours d'exécution).
Procédure DELETE_FILE
Cette procédure enlève le fichier spécifié du répertoire indiqué sur Autonomous Database.
Syntaxe
DBMS_CLOUD.DELETE_FILE
(
directory_name IN VARCHAR2,
file_name IN VARCHAR2,
force IN BOOLEAN DEFAULT FALSE);
Paramètres
Paramètre | Description |
---|---|
|
Nom du répertoire sur l'instance Autonomous Database. |
|
Nom du fichier à enlever. |
force |
Ignorer et ne pas signaler les erreurs si le fichier n'existe pas. Les valeurs valides sont |
Remarques :
Pour exécuterDBMS_CLOUD.DELETE_FILE
avec un utilisateur autre qu'ADMIN, vous devez accorder à cet utilisateur des privilèges d'écriture sur le répertoire qui contient le fichier.Par exemple, exécutez la commande suivante en tant qu'ADMIN pour accorder des privilèges d'écriture à atpc_user
:GRANT WRITE ON DIRECTORY data_pump_dir TO atpc_user;
Exemple
BEGIN
DBMS_CLOUD.DELETE_FILE
(
directory_name => 'DATA_PUMP_DIR',
file_name => 'exp1.dmp' );
END;
/
Procédure DELETE_OBJECT
Cette procédure supprime l'objet spécifié de la banque d'objets.
Syntaxe
DBMS_CLOUD.DELETE_OBJECT
(
credential_name IN VARCHAR2,
object_uri IN VARCHAR2,
force IN BOOLEAN DEFAULT FALSE);
Paramètres
Paramètre | Description |
---|---|
|
Nom des informations d'identification permettant d'accéder au stockage d'objet cloud. |
object_uri |
URI d'objet ou de fichier de l'objet à supprimer. Le format de l'URI dépend du service Cloud Object Storage que vous utilisez. Pour plus de détails, reportez-vous à Formats d'URI de stockage d'objet cloud. |
force |
Ignorer et ne pas signaler les erreurs si l'objet n'existe pas. Les valeurs valides sont |
Exemple
BEGIN
DBMS_CLOUD.DELETE_OBJECT
(
credential_name => 'DEF_CRED_NAME',
object_uri => 'https://objectstorage.us-ashburn-1.oraclecloud.com/n/namespace-string/b/bucketname/o/exp1.dmp' );
END;
/
DELETE_OPERATION Procédure
Cette procédure efface les entrées de chargement de données pour l'ID d'opération indiqué journalisé dans les tables user_load_operations
ou dba_load_operations
de votre schéma.
Syntaxe
DBMS_CLOUD.DELETE_OPERATION
(
id IN NUMBER);
Paramètres
Paramètre | Description |
---|---|
|
Indique l'ID d'opération associé aux entrées de fichier journal à supprimer. |
Exemple
SELECT id FROM user_load_operations WHERE type LIKE '%BAD%';
EXEC DBMS_CLOUD.DELETE_OPERATION
(id);
DROP_EXTERNAL_TEXT_INDEX Procédure
Cette procédure supprime l'index de texte des fichiers Object Storage.
La procédure DROP_EXTERNAL_TEXT_INDEX
supprime l'index indiqué créé avec la procédure CREATE_EXTERNAL_TEXT_INDEX
.
Syntaxe
DBMS_CLOUD.DROP_EXTERNAL_TEXT_INDEX
(
index_name IN VARCHAR2,
);
Paramètres
Paramètre | Description |
---|---|
index_name |
Spécifie le nom de l'index que vous supprimez. Le nom de l'index doit correspondre au nom fourni lors de la création de l'index. Ce paramètre est obligatoire. |
Exemple
BEGIN
DBMS_CLOUD.DROP_EXTERNAL_TEXT_INDEX
(
index_name => 'EMP',
);
END;
/
Procédure EXPORT_DATA
En fonction du paramètre format
type
, la procédure exporte les fichiers vers le cloud ou vers un emplacement de répertoire sous forme de fichiers texte au format CSV, JSON, Parquet ou XML.
Syntaxe
DBMS_CLOUD.EXPORT_DATA
(
credential_name IN VARCHAR2 DEFAULT NULL,
file_uri_list IN CLOB,
format IN CLOB,
query IN CLOB);
DBMS_CLOUD.EXPORT_DATA
(
credential_name IN VARCHAR2 DEFAULT NULL,
file_uri_list IN CLOB DEFAULT NULL,
format IN CLOB DEFAULT NULL,
query IN CLOB DEFAULT NULL,
operation_id OUT NOCOPY NUMBER);
Paramètres
Paramètre | Description |
---|---|
|
Nom des informations d'identification permettant d'accéder au stockage d'objet cloud. Lorsque le paramètre d'informations d'identification n'est pas inclus, cela indique la sortie vers un répertoire. |
|
Il existe différents formulaires, en fonction de la valeur du paramètre de format et selon que vous incluez ou non un paramètre d'informations d'identification :
Le format des URI dépend du service Cloud Object Storage que vous utilisez. Pour plus de détails, reportez-vous à Formats d'URI de stockage d'objet cloud. |
|
Chaîne JSON fournissant des options de format d'export. L'option prise en charge est la suivante :
Reportez-vous à DBMS_CLOUD Options de format de package pour EXPORT_DATA. |
|
Utilisez ce paramètre pour indiquer une instruction SELECT warehouse_id, quantity FROM inventories Lorsque la valeur Exemple : SELECT JSON_OBJECT(* RETURNING CLOB) from(SELECT warehouse_id, quantity FROM inventories) |
|
Utilisez ce paramètre pour suivre la progression et le statut final de l'opération d'export sous l'ID correspondant dans la vue |
Remarques d'utilisation :
-
La valeur du paramètre
query
que vous indiquez peut être une requête avancée, si nécessaire, telle qu'une requête incluant des jointures ou des sous-requêtes. -
Selon le paramètre de format indiqué,
DBMS_CLOUD.EXPORT_DATA
génère les résultats de la requête indiquée sur la banque d'objets cloud ou vers un emplacement de répertoire aux formats de fichier CSV, JSON, Parquet ou XML.Reportez-vous à Export de données vers la banque d'objets en tant que texte à l'aide de DBMS_CLOUD.EXPORT_DATA et à Export de données vers un répertoire à l'aide de DBMS_CLOUD.EXPORT_DATA pour plus d'informations sur l'utilisation de
DBMS_CLOUD.EXPORT_DATA
avec des fichiers de sortie CSV, JSON, Parquet ou XML. -
Pour une sortie CSV, JSON ou XML, par défaut, lorsqu'un fichier généré contient 10 Mo de données, un nouveau fichier de sortie est créé. Toutefois, si vous disposez de moins de 10 Mo de données de résultat, plusieurs fichiers de sortie peuvent être générés, selon le service de base de données et le nombre d'OCPU (si votre base de données utilise des OCPU) de l'instance Autonomous Database.
Pour plus d'informations, reportez-vous à Dénomination de fichier pour la sortie texte (CSV, JSON, Parquet ou XML).
La taille de bloc de fichier de sortie par défaut est 10 Mo pour CSV, JSON ou XML. Vous pouvez modifier cette valeur avec l'option du paramètre de
format
maxfilesize
. Pour plus d'informations, reportez-vous à DBMS_CLOUD Options de format de package pour EXPORT_DATA. -
Pour la sortie Parquet, chaque fichier généré est inférieur à 128 Mo et plusieurs fichiers de sortie peuvent être générés. Toutefois, si vous disposez de moins de 128 Mo de données de résultat, plusieurs fichiers de sortie peuvent être générés en fonction du service de base de données et du nombre d'OCPU (si votre base de données utilise des OCPU) de l'instance Autonomous Database.
Pour plus d'informations, reportez-vous à Dénomination de fichier pour la sortie texte (CSV, JSON, Parquet ou XML).
- Le format de sortie de parquet peut uniquement être utilisé avec des services de base de données élevés et moyens pour les instances Autonomous Database sur une infrastructure Exadata dédiée.
Notes d'utilisation de DBMS_CLOUD.EXPORT_DATA
avec sortie vers un répertoire
-
Le répertoire fourni doit exister et vous devez être connecté en tant qu'utilisateur
ADMIN
ou disposer de l'accèsWRITE
au répertoire. -
DBMS_CLOUD.EXPORT_DATA
ne crée pas de répertoires. -
La procédure n'écrase pas les fichiers. Par exemple, si un fichier dump dans
file_uri_list
existe,DBMS_CLOUD.EXPORT_DATA
signale une erreur telle que :ORA-31641: unable to create dump file "/u02/exports/123.dmp" ORA-27038: created file already exists
Exemples
L'exemple suivant montre DBMS_CLOUD.EXPORT_DATA
avec le paramètre de format type
comportant la valeur json
:
BEGIN
DBMS_CLOUD.EXPORT_DATA
(
credential_name => 'OBJ_STORE_CRED',
file_uri_list => 'https://objectstorage.us-phoenix-1.oraclecloud.com/n/namespace-string/b/bucketname/o/exp1.json',
query => 'SELECT * FROM DEPT',
format => JSON_OBJECT('type' value 'json', 'compression' value 'gzip'));
);
END;
/
L'exemple suivant montre DBMS_CLOUD.EXPORT_DATA
avec le paramètre de format type
comportant la valeur xml
:
BEGIN
DBMS_CLOUD.EXPORT_DATA
(
credential_name => 'OBJ_STORE_CRED',
file_uri_list => 'https://objectstorage.us-phoenix-1.oraclecloud.com/n/namespace-string/b/bucketname/o/exp1.xml',
query => 'SELECT * FROM DEPT',
format => JSON_OBJECT('type' value 'xml', 'compression' value 'gzip'));
);
END;
/
L'exemple suivant montre DBMS_CLOUD.EXPORT_DATA
avec le paramètre de format type
comportant la valeur csv
:
BEGIN
DBMS_CLOUD.EXPORT_DATA
(
credential_name => 'OBJ_STORE_CRED',
file_uri_list => 'https://objectstorage.us-phoenix-1.oraclecloud.com/n/namespace-string/b/bucketname/o/exp.csv',
query => 'SELECT * FROM DEPT',
format => JSON_OBJECT('type' value 'csv', 'delimiter' value '|', 'compression' value 'gzip', 'header' value true ));
);
END;
/
Procédure et fonction GET_OBJECT
Cette procédure est surchargée. Le formulaire de la procédure lit un objet à partir du stockage d'objet cloud et le copie vers Autonomous Database. Le formulaire de la fonction lit un objet à partir du stockage d'objet cloud et renvoie un objet BLOB
vers Autonomous Database.
Syntaxe
DBMS_CLOUD.GET_OBJECT
(
credential_name IN VARCHAR2,
object_uri IN VARCHAR2,
directory_name IN VARCHAR2,
file_name IN VARCHAR2 DEFAULT NULL,
startoffset IN NUMBER DEFAULT 0,
endoffset IN NUMBER DEFAULT 0,
compression IN VARCHAR2 DEFAULT NULL);
DBMS_CLOUD.GET_OBJECT
(
credential_name IN VARCHAR2 DEFAULT NULL,
object_uri IN VARCHAR2,
startoffset IN NUMBER DEFAULT 0,
endoffset IN NUMBER DEFAULT 0,
compression IN VARCHAR2 DEFAULT NULL)
RETURN BLOB;
Paramètres
Paramètre | Description |
---|---|
|
Nom des informations d'identification permettant d'accéder au stockage d'objet cloud. |
|
URI de l'objet ou du fichier. Le format de l'URI dépend du service Cloud Object Storage que vous utilisez. Pour plus de détails, reportez-vous à Formats d'URI de stockage d'objet cloud. |
|
Nom du répertoire dans la base de données. pied de page 1 |
|
Indique le nom du fichier à créer. Si le nom du fichier n'est pas spécifié, il est défini sur ce qui suit la dernière barre oblique dans le paramètre |
startoffset |
Décalage, en octets, à partir duquel la procédure commence la lecture. |
endoffset |
Décalage, en octets, auquel la procédure arrête la lecture. |
|
Spécifie la compression utilisée pour stocker l'objet. Lorsque |
Note 1
Remarques :
Pour exécuter DBMS_CLOUD.GET_OBJECT
avec un utilisateur autre qu'ADMIN, vous devez lui accorder des privilèges WRITE
sur le répertoire. Par exemple, exécutez la commande suivante en tant qu'ADMIN pour accorder des privilèges d'écriture à atpc_user
:
GRANT WRITE ON DIRECTORY data_pump_dir TO atpc_user;
Valeurs retournées
Le formulaire de la fonction effectue une lecture à partir de la banque d'objets et DBMS_CLOUD.GET_OBJECT
renvoie un objet BLOB
.
Exemples
BEGIN
DBMS_CLOUD.GET_OBJECT
(
credential_name => 'OBJ_STORE_CRED',
object_uri => 'https://objectstorage.us-phoenix-1.oraclecloud.com/n/namespace-string/b/bucketname/o/file.txt',
directory_name => 'DATA_PUMP_DIR');
END;
/
Pour lire des données de caractère à partir d'un fichier dans la banque d'objets, exécutez la commande suivante :
SELECT to_clob(
DBMS_CLOUD.GET_OBJECT
(
credential_name => 'OBJ_STORE_CRED',
object_uri => 'https://objectstorage.us-phoenix-1.oraclecloud.com/n/namespace-string/b/bucketname/o/file.txt'))
FROM DUAL;
Pour ajouter une image stockée sur la banque d'objets dans un objet BLOB
de la base de données, exécutez la commande suivante :
DECLARE
l_blob BLOB := NULL;
BEGIN
l_blob := DBMS_CLOUD.GET_OBJECT
(
credential_name => 'OBJ_STORE_CRED',
object_uri => 'https://objectstorage.us-phoenix-1.oraclecloud.com/n/namespace-string/b/bucketname/o/MyImage.gif' );
END;
/
Dans cet exemple, namespace-string
est l'espace de noms de stockage d'objet Oracle Cloud Infrastructure et bucketname
est le nom du bucket. Pour plus d'informations, reportez-vous à Présentation des espaces de noms Object Storage.
Fonction LIST_FILES
Cette fonction liste les fichiers présents dans le répertoire spécifié. Les résultats incluent les noms de fichier et les métadonnées supplémentaires sur les fichiers, telles que la taille de fichier en octets, l'horodatage de création et l'horodatage de dernière modification.
Syntaxe
DBMS_CLOUD.LIST_FILES
(
directory_name IN VARCHAR2)
RETURN TABLE;
Paramètres
Paramètre | Description |
---|---|
|
Nom du répertoire dans la base de données. |
Remarques sur l'utilisation
-
Pour exécuter
DBMS_CLOUD.LIST_FILES
avec un utilisateur autre qu'ADMIN, vous devez lui accorder des privilèges de lecture sur le répertoire.Par exemple, exécutez la commande suivante en tant qu'ADMIN pour accorder les privilèges de lecture àatpc_user
:GRANT READ ON DIRECTORY data_pump_dir TO atpc_user;
-
Il s'agit d'une fonction de table pipeline dont le type de valeur renvoyée est
DBMS_CLOUD_TYPES.list_object_ret_t
. -
DBMS_CLOUD.LIST_FILES
n'obtient pas la valeur de checksum et renvoieNULL
pour ce champ.
Exemple
Il s'agit d'une fonction pipeline qui renvoie une ligne pour chaque fichier. Par exemple, générez la requête suivante pour utiliser cette fonction :
SELECT * FROM DBMS_CLOUD.LIST_FILES
('DATA_PUMP_DIR');
OBJECT_NAME BYTES CHECKSUM CREATED LAST_MODIFIED
------------ ---------- ---------- --------------------- ---------------------
cwallet.sso 2965 2018-12-12T18:10:47Z 2019-11-23T06:36:54Z
Fonction LIST_OBJECTS
Cette fonction répertorie les objets présents à l'emplacement spécifié dans la banque d'objets. Les résultats incluent les noms d'objet et les métadonnées supplémentaires sur les objets, telles que la taille, le checksum, l'horodatage de création et l'horodatage de dernière modification.
Syntaxe
DBMS_CLOUD.LIST_OBJECTS
(
credential_name IN VARCHAR2,
location_uri IN VARCHAR2)
RETURN TABLE;
Paramètres
Paramètre | Description |
---|---|
|
Nom des informations d'identification permettant d'accéder au stockage d'objet cloud. |
location_uri |
URI de l'objet ou du fichier. Le format de l'URI dépend du service Cloud Object Storage que vous utilisez. Pour plus de détails, reportez-vous à Formats d'URI de stockage d'objet cloud. |
Remarques sur l'utilisation
-
Selon les fonctionnalités de la banque d'objets,
DBMS_CLOUD.LIST_OBJECTS
ne renvoie pas de valeurs pour certains attributs et la valeur renvoyée pour le champ estNULL
dans ce cas.Toutes les banques d'objets prises en charge renvoient des valeurs pour les champs
OBJECT_NAME
,BYTES
etCHECKSUM
.Le tableau suivant présente la prise en charge des champs
CREATED
etLAST_MODIFIED
par les banques d'objets :Banque d'objets CREATED
LAST_MODIFIED
Oracle Cloud Infrastructure natif Renvoie un horodatage Renvoie un horodatage Oracle Cloud Infrastructure Swift Renvoie NULL
Renvoie un horodatage Amazon S3 Renvoie NULL
Renvoie un horodatage Compatible avec Amazon S3 Renvoie NULL
Renvoie un horodatage Azure Renvoie un horodatage Renvoie un horodatage -
La valeur de checksum est le checksum MD5. Il s'agit d'un nombre hexadécimal de 32 caractères calculé sur le contenu de l'objet.
-
Il s'agit d'une fonction de table pipeline dont le type de valeur renvoyée est
DBMS_CLOUD_TYPES.list_object_ret_t
.
Exemple
Il s'agit d'une fonction pipeline qui renvoie une ligne pour chaque objet. Par exemple, générez la requête suivante pour utiliser cette fonction :
SELECT * FROM DBMS_CLOUD.LIST_OBJECTS
('OBJ_STORE_CRED',
'https://objectstorage.us-phoenix-1.oraclecloud.com/n/namespace-string/b/bucketname/o/');
OBJECT_NAME BYTES CHECKSUM CREATED LAST_MODIFIED
------------ ---------- -------------------------------- --------------------- --------------------
cwallet.sso 2965 2339a2731ba24a837b26d344d643dc07 2019-11-23T06:36:54Z
Dans cet exemple, namespace-string
est l'espace de noms de stockage d'objet Oracle Cloud Infrastructure et bucketname
est le nom du bucket. Pour plus d'informations, reportez-vous à Présentation des espaces de noms Object Storage.
MOVE_OBJECT Procédure
Cette procédure déplace un objet d'un bucket ou dossier Cloud Object Storage vers un autre.
Le bucket ou le dossier source et cible peuvent se trouver dans le même fournisseur de banque d'objets cloud ou dans un autre fournisseur.
Lorsque la source et la cible se trouvent dans des banques d'objets distinctes ou ont des comptes différents avec le même fournisseur cloud, vous pouvez indiquer des noms d'informations d'identification distincts pour les emplacements source et cible.
Le nom des informations d'identification source est également utilisé par défaut par l'emplacement cible lorsque le nom des informations d'identification cible n'est pas fourni.
Syntaxe
DBMS_CLOUD.MOVE_OBJECT
(
source_credential_name IN VARCHAR2 DEFAULT NULL,
source_object_uri IN VARCHAR2,
target_object_uri IN VARCHAR2,
target_credential_name IN VARCHAR2 DEFAULT NULL
);
Paramètres
Paramètre | Description |
---|---|
|
Nom des informations d'identification permettant d'accéder au stockage d'objet cloud source. Si vous n'indiquez pas de valeur |
|
Spécifie l'URI, qui pointe vers l'emplacement du bucket ou du dossier Object Storage source. Ce paramètre est obligatoire. Le format des URI dépend du service Cloud Object Storage. Pour plus d'informations, reportez-vous à Formats d'URI de stockage d'objet cloud. |
|
Spécifie l'URI du bucket ou du dossier Object Storage cible, où les fichiers doivent être déplacés. Ce paramètre est obligatoire. Le format des URI dépend du service Cloud Object Storage. Pour plus d'informations, reportez-vous à Formats d'URI de stockage d'objet cloud. |
|
Nom des informations d'identification permettant d'accéder à l'emplacement Cloud Object Storage cible. Si vous n'indiquez pas de valeur |
Exemple
BEGIN
DBMS_CLOUD.MOVE_OBJECT
(
source_credential_name => 'OCI_CRED',
source_object_uri => 'https://objectstorage.us-phoenix-1.oraclecloud.com/n/namespace-string/b/bucketname1/bgfile.csv',
target_object_uri => 'https://objectstorage.us-phoenix-1.oraclecloud.com/n/namespace-string/b/bucketname2/myfile.csv'
);
END;
/
Procédure PUT_OBJECT
Cette procédure est surchargée. Dans un formulaire, la procédure copie un fichier d'Autonomous Database vers le stockage d'objet cloud. Dans un autre formulaire, la procédure copie un objet BLOB
d'Autonomous Database vers le stockage d'objet cloud.
Syntaxe
DBMS_CLOUD.PUT_OBJECT
(
credential_name IN VARCHAR2,
object_uri IN VARCHAR2,
directory_name IN VARCHAR2,
file_name IN VARCHAR2
compression IN VARCHAR2 DEFAULT NULL);
DBMS_CLOUD.PUT_OBJECT
(
credential_name IN VARCHAR2,
object_uri IN VARCHAR2,
contents IN BLOB
compression IN VARCHAR2 DEFAULT NULL);
Paramètres
Paramètre | Description |
---|---|
|
Nom des informations d'identification permettant d'accéder au stockage d'objet cloud. |
|
URI de l'objet ou du fichier. Le format de l'URI dépend du service Cloud Object Storage que vous utilisez. Pour plus de détails, reportez-vous à Formats d'URI de stockage d'objet cloud. |
|
Nom du répertoire sur l'instance Autonomous Database. pied de page 1 |
|
Indique le fichier |
|
Nom du fichier dans le répertoire spécifié. |
|
Spécifie la compression utilisée pour stocker l'objet. Valeur par défaut : |
Note 1
Remarques :
Pour exécuter DBMS_CLOUD.PUT_OBJECT
avec un utilisateur autre qu'ADMIN, vous devez accorder à cet utilisateur des privilèges de lecture sur le répertoire. Par exemple, exécutez la commande suivante en tant qu'ADMIN pour accorder les privilèges de lecture à atpc_user
:
GRANT READ ON DIRECTORY data_pump_dir TO atpc_user;
Exemple
Pour gérer les données BLOB
après leur traitement dans la base de données, puis les stocker directement dans un fichier de la banque d'objets, exécutez la commande suivante :
DECLARE
my_blob_data BLOB;
BEGIN
/* Some processing producing BLOB data and populating my_blob_data */
DBMS_CLOUD.PUT_OBJECT
(
credential_name => 'OBJ_STORE_CRED',
object_uri => 'https://objectstorage.us-phoenix-1.oraclecloud.com/n/namespace-string/b/bucketname/o/my_new_file',
contents => my_blob_data));
END;
/
Remarques sur l'utilisation
En fonction de votre stockage d'objet cloud, la taille de l'objet que vous transférez est limitée comme suit :
Service de stockage d'objet cloud | Limite de taille de transfert d'objet |
---|---|
Oracle Cloud Infrastructure Object Storage |
50 Go |
Amazon S3 |
5 GB |
Stockage Blob Azure |
256 Mo |
Compatible avec Amazon S3 |
Définie par le fournisseur de banque d'objets. Pour plus d'informations, reportez-vous à la documentation du fournisseur. |
La banque d'objets Oracle Cloud Infrastructure ne permet pas d'écrire des fichiers dans un bucket public sans fournir d'informations d'identification (Oracle Cloud Infrastructure permet aux utilisateurs de télécharger des objets à partir de buckets publics). Par conséquent, vous devez fournir un nom d'informations d'identification avec des informations d'identification valides pour stocker un objet dans un bucket public Oracle Cloud Infrastructure à l'aide de PUT_OBJECT
.
Pour plus d'informations, reportez-vous à Formats d'URI de stockage d'objet cloud.
Procédure SYNC_EXTERNAL_PART_TABLE
Cette procédure simplifie la mise à jour d'une table partitionnée externe à partir de fichiers dans le cloud. Exécutez cette procédure lorsque de nouvelles partitions sont ajoutées ou que des partitions sont enlevées de la source de banque d'objets pour la table partitionnée externe.
Syntaxe
DBMS_CLOUD.SYNC_EXTERNAL_PART_TABLE
(
table_name IN VARCHAR2,
schema_name IN VARCHAR2 DEFAULT,
update_columns IN BOOLEAN DEFAULT);
Paramètres
Paramètre | Description |
---|---|
|
Nom de la table cible. Vous devez avoir créé la table cible avant d'exécuter |
|
Nom du schéma dans lequel réside la table cible. La valeur par défaut est NULL, ce qui signifie que la table cible se trouve dans le même schéma que l'utilisateur qui exécute la procédure. |
|
Les nouveaux fichiers peuvent apporter une modification au schéma. Les mises à jour prises en charge incluent les nouvelles colonnes et les colonnes supprimées. Les mises à jour apportées aux colonnes existantes, par exemple la modification du type de données, génèrent des erreurs. Valeur par défaut : False |
Procédure VALIDATE_EXTERNAL_PART_TABLE
Cette procédure valide les fichiers source pour une table partitionnée externe, génère des informations sur le journal et stocke les lignes qui ne correspondent pas aux options de format indiquées pour la table externe dans une table badfile sur Autonomous Database. La forme surchargée permet d'utiliser le paramètre operation_id
.
Syntaxe
DBMS_CLOUD.VALIDATE_EXTERNAL_PART_TABLE
(
table_name IN VARCHAR2,
partition_name IN CLOB DEFAULT,
subpartition_name IN CLOB DEFAULT,
schema_name IN VARCHAR2 DEFAULT,
rowcount IN NUMBER DEFAULT,
partition_key_validation IN BOOLEAN DEFAULT,
stop_on_error IN BOOLEAN DEFAULT);
DBMS_CLOUD.VALIDATE_EXTERNAL_PART_TABLE
(
table_name IN VARCHAR2,
operation_id OUT NUMBER,
partition_name IN CLOB DEFAULT,
subpartition_name IN CLOB DEFAULT,
schema_name IN VARCHAR2 DEFAULT,
rowcount IN NUMBER DEFAULT,
partition_key_validation IN BOOLEAN DEFAULT,
stop_on_error IN BOOLEAN DEFAULT);
Paramètres
Paramètre | Description |
---|---|
|
Nom de la table externe. |
|
Utilisez ce paramètre pour suivre la progression et le statut final de l'opération de chargement sous l'ID correspondant dans la vue |
|
Si ce paramètre est défini, seule une partition spécifique est validée. S'il n'est pas indiqué, lit toutes les partitions de façon séquentielle jusqu'à atteindre |
|
Si ce paramètre est défini, seule une sous-partition spécifique est validée. S'il n'est pas indiqué, effectue une lecture à partir de toutes les partitions ou sous-partitions externes de façon séquentielle jusqu'à atteindre |
|
Nom du schéma dans lequel réside la table externe. La valeur par défaut est NULL, ce qui signifie que la table externe se trouve dans le même schéma que l'utilisateur qui exécute la procédure. |
|
Nombre de lignes à analyser. La valeur par défaut est NULL, ce qui signifie que toutes les lignes des fichiers source sont analysées. |
|
A usage interne uniquement. N'utilisez pas ce paramètre. |
|
Détermine si la validation doit s'arrêter lorsqu'une ligne est rejetée. La valeur par défaut est |
Procédure VALIDATE_EXTERNAL_TABLE
Cette procédure valide les fichiers source pour une table externe, génère des informations sur le journal et stocke les lignes qui ne correspondent pas aux options de format indiquées pour la table externe dans une table badfile sur Autonomous Database. La forme surchargée permet d'utiliser le paramètre operation_id
.
Syntaxe
DBMS_CLOUD.VALIDATE_EXTERNAL_TABLE
(
table_name IN VARCHAR2,
schema_name IN VARCHAR2 DEFAULT,
rowcount IN NUMBER DEFAULT,
stop_on_error IN BOOLEAN DEFAULT);
DBMS_CLOUD.VALIDATE_EXTERNAL_TABLE
(
table_name IN VARCHAR2,
operation_id OUT NOCOPY NUMBER,
schema_name IN VARCHAR2 DEFAULT NULL,
rowcount IN NUMBER DEFAULT 0,
stop_on_error IN BOOLEAN DEFAULT TRUE);
Paramètres
Paramètre | Description |
---|---|
|
Nom de la table externe. |
|
Utilisez ce paramètre pour suivre la progression et le statut final de l'opération de chargement sous l'ID correspondant dans la vue |
|
Nom du schéma dans lequel réside la table externe. La valeur par défaut est NULL, ce qui signifie que la table externe se trouve dans le même schéma que l'utilisateur qui exécute la procédure. |
|
Nombre de lignes à analyser. La valeur par défaut est NULL, ce qui signifie que toutes les lignes des fichiers source sont analysées. |
|
Détermine si la validation doit s'arrêter lorsqu'une ligne est rejetée. La valeur par défaut est Si la table externe fait référence à des fichiers Avro, ORC ou Parquet, la validation s'arrête à la première ligne rejetée. Lorsque la table externe indique le paramètre de |
Remarques sur l'utilisation
-
DBMS_CLOUD.VALIDATE_EXTERNAL_TABLE
fonctionne avec les tables externes partitionnées et les tables partitionnées hybrides. Cette procédure peut lire les données de toutes les partitions externes jusqu'à ce querowcount
soit atteint ou questop_on_error
s'applique. Vous n'avez pas le contrôle sur les partitions, ou parties d'une partition, lues ni sur l'ordre de lecture.
Procédure VALIDATE_HYBRID_PART_TABLE
Cette procédure valide les fichiers source pour une table partitionnée hybride, génère des informations sur le journal et stocke les lignes qui ne correspondent pas aux options de format indiquées pour la table hybride dans une table badfile sur Autonomous Database. La forme surchargée permet d'utiliser le paramètre operation_id
.
Syntaxe
DBMS_CLOUD.VALIDATE_HYBRID_PART_TABLE
(
table_name IN VARCHAR2,
partition_name IN CLOB DEFAULT,
subpartition_name IN CLOB DEFAULT,
schema_name IN VARCHAR2 DEFAULT,
rowcount IN NUMBER DEFAULT,
partition_key_validation IN BOOLEAN DEFAULT,
stop_on_error IN BOOLEAN DEFAULT);
DBMS_CLOUD.VALIDATE_HYBRID_PART_TABLE
(
table_name IN VARCHAR2,
operation_id OUT NUMBER,
partition_name IN CLOB DEFAULT,
subpartition_name IN CLOB DEFAULT,
schema_name IN VARCHAR2 DEFAULT,
rowcount IN NUMBER DEFAULT,
partition_key_validation IN BOOLEAN DEFAULT,
stop_on_error IN BOOLEAN DEFAULT);
Paramètres
Paramètre | Description |
---|---|
|
Nom de la table externe. |
|
Utilisez ce paramètre pour suivre la progression et le statut final de l'opération de chargement sous l'ID correspondant dans la vue |
|
Si ce paramètre est défini, seule une partition spécifique est validée. S'il n'est pas indiqué, effectue une lecture à partir de toutes les partitions externes de façon séquentielle jusqu'à atteindre |
|
Si ce paramètre est défini, seule une sous-partition spécifique est validée. S'il n'est pas indiqué, effectue une lecture à partir de toutes les partitions ou sous-partitions externes de façon séquentielle jusqu'à atteindre |
|
Nom du schéma dans lequel réside la table externe. La valeur par défaut est NULL, ce qui signifie que la table externe se trouve dans le même schéma que l'utilisateur qui exécute la procédure. |
|
Nombre de lignes à analyser. La valeur par défaut est NULL, ce qui signifie que toutes les lignes des fichiers source sont analysées. |
|
A usage interne uniquement. N'utilisez pas ce paramètre. |
|
Détermine si la validation doit s'arrêter lorsqu'une ligne est rejetée. La valeur par défaut est |