Options de format de package DBMS_CLOUD

L'argument de format dans DBMS_CLOUD indique le format des fichiers source.

Les deux méthodes de spécification de l'argument de format sont :

format => '{"format_option" : “format_value” }'  

Et :

format => json_object('format_option' value 'format_value'))

Exemples :

format => json_object('type' VALUE 'CSV')

Pour indiquer plusieurs options de format, séparez les valeurs par une virgule ",".

Par exemple :

format => json_object('ignoremissingcolumns' value 'true', 'removequotes' value 'true', 
                           'dateformat' value 'YYYY-MM-DD-HH24-MI-SS', 'blankasnull' value 'true', 'logretention' value 7)
Remarque

Pour les options de format Avro, ORC ou Parquet, reportez-vous à DBMS_CLOUD Options de format de package pour Avro, ORC ou Parquet.

Comme indiqué dans la colonne Option de format, un ensemble limité d'options de format est valide avec DBMS_CLOUD.COPY_COLLECTION ou avec DBMS_CLOUD.COPY_DATA lorsque format type est JSON.

Option de format Description Syntaxe

access_protocol

Spécifie le type de table Apache Iceberg, tel qu'AWS ou OCI Object Storage, et les informations utilisées pour créer la table externe, par exemple les informations d'un catalogue de données ou d'un URI de métadonnées direct.

Pour plus d'informations sur la syntaxe access_protocol, reportez-vous à la procédure CREATE_EXTERNAL_TABLE pour Apache Iceberg.

blankasnull

Lorsque cette option est définie sur true, les champs composés d'espaces sont chargés comme NULL.

blankasnull : true

Valeur par défaut : False

characterset

Valide avec format JSON et COPY_DATA

Spécifie le jeu de caractères des fichiers source.

characterset : chaîne

Valeur par défaut : jeu de caractères de base de données

columnpath

Utiliser uniquement avec format JSON et COPY_DATA

Tableau d'expressions de chemin JSON qui correspondent aux champs à extraire des enregistrements JSON. Chacune des expressions de chemin JSON du tableau doit suivre les règles décrites dans Expressions de chemin SQL/JSON.

A utiliser uniquement avec le format JSON et DBMS_CLOUD.COPY_DATA.

Tableau JSON d'expressions de chemin json exprimées sous forme de chaîne. Par exemple : 'columnpath' value '["$.WEATHER_STATION_ID", "$.WEATHER_STATION_NAME"]'

compression

Option valide avec les données JSON

Spécifie le type de compression du fichier source.

Le format d'archivage ZIP n'est pas pris en charge.

La spécification de la valeur auto recherche les types de compression : gzip, zlib, zstd, bzip2.

compression: auto|gzip|zlib|zstd|bzip2

Valeur par défaut : valeur NULL : aucune compression.

conversionerrors

Si une ligne est rejetée en raison d'erreurs de conversion du type de données, les colonnes associées sont stockées comme NULL ou la ligne est rejetée.

conversionerrors : reject_record | store_null

Valeur par défaut : reject_record

dateformat

Indique le format de date dans le fichier source. L'option de format AUTO recherche les formats suivants :

J 
MM-DD-YYYYBC 
MM-DD-YYYY 
YYYYMMDD HHMISS 
YYMMDD HHMISS 
YYYY.DDD 
YYYY-MM-DD

dateformat : chaîne

Valeur par défaut : format de date de base de données

delimiter

Indique le délimiteur de champ.

Pour utiliser un caractère spécial comme délimiteur, spécifiez la valeur HEX du code ASCII du caractère. Par exemple, le caractère de tabulation suivant est spécifié comme délimiteur :

format => json_object('delimiter' value 'X''9''')

delimiter : caractère

Valeur par défaut | (caractère de pipe)

detectfieldorder

Indique que les champs des fichiers de données externes sont dans un ordre différent de celui des colonnes de la table. Détectez l'ordre des champs en utilisant la première ligne de chaque fichier de données externe et mettez-le en correspondance avec les colonnes de la table. Les noms de champ dans les fichiers de données externes sont comparés de manière non sensible à la casse avec les noms des colonnes de la table.

Cette option de format s'applique aux procédures suivantes :

  • DBMS_CLOUD.COPY_DATA

  • DBMS_CLOUD.CREATE_EXTERNAL_TABLE

  • DBMS_CLOUD.CREATE_EXTERNAL_PART_TABLE

  • DBMS_CLOUD.CREATE_HYBRID_PART_TABLE

Restrictions pour detectfieldorder :

  • Les noms de champ dans le fichier de données doivent apparaître sur la première ligne d'enregistrement et ne doivent pas contenir d'espaces entre les noms de champ.

  • Le délimiteur de champ dans l'enregistrement de noms de champ doit être identique au délimiteur de champ pour les données du fichier.

  • Les noms de champ entre guillemets ne sont pas pris en charge. Les noms de champ dans les fichiers de données sont comparés, de manière non sensible à la casse, aux noms des colonnes de table externe.

  • Les délimiteurs de champ imbriqués ne sont pas autorisés dans les noms de champ.

  • Le nombre de colonnes dans la table doit correspondre au nombre de champs dans les fichiers de données.

  • Cette option de format n'est pas applicable aux formats Bigdata ou Oracle Data Pump, car ces formats contiennent des informations précises sur les métadonnées de colonne au format de fichier binaire.

    Les formats de texte, CSV, JSON, Parquet ou XML peuvent bénéficier de cette détection automatique des demandes d'intervention terrain lorsque la première ligne contient les noms de champ.

Pour plus d'informations, reportez-vous à FIELD NAMES et à la description de ALL FILES.

detectfieldorder: true

Valeur par défaut : false

enablelogs

L'option de format enablelogs est utilisée avec les procédures DBMS_CLOUD suivantes :

  • COPY_DATA

  • COPY_COLLECTION

  • EXPORT_DATA

enablelogs indique une valeur booléenne. Lorsqu'elle est définie sur TRUE, les journaux sont générés. Lorsqu'elle est définie sur FALSE, les journaux ne sont pas générés.

Par exemple :

format => JSON_OBJECT('enablelogs' value FALSE)

enablelogs: false

Valeur par défaut : true.

encryption

L'option de format encryption indique les options de cryptage et de décryptage permettant d'exporter et d'importer des données vers et depuis la banque d'objets.

Utilisez encryption pour indiquer les paramètres suivants pour crypter et décrypter :

  • user_defined_function : indique une fonction entièrement qualifiée définie par l'utilisateur pour décrypter ou crypter le BLOB spécifié (objet LOB binaire). Elle renvoie un BLOB décrypté ou crypté. user_defined_function s'exclut mutuellement avec d'autres paramètres pour encryption.

    Par exemple, ADMIN.DECRYPTION_CALLBACK.

  • type : indique l'algorithme de cryptage DBMS_CRYPTO à décrypter ou à crypter.

    type accepte les valeurs au format Algorithmes de cryptage de bloc + modificateurs de chaînage de cryptage de bloc + modificateurs de remplissage de cryptage de bloc.

    Les algorithmes de cryptage de bloc pris en charge sont les suivants :

    • DBMS_CRYPTO.ENCRYPT_AES256

    Modificateurs de chaînage de chiffrement de bloc pris en charge :

    • DBMS_CRYPTO.CHAIN_CBC

    • DBMS_CRYPTO.CHAIN_CFB

    • DBMS_CRYPTO.CHAIN_ECB

    • DBMS_CRYPTO.CHAIN_OFB

    Modificateurs de remplissage de chiffrement de bloc pris en charge :

    • DBMS_CRYPTO.PAD_PKCS5

    • DBMS_CRYPTO.PAD_NONE

    • DBMS_CRYPTO.PAD_ZERO

    • DBMS_CRYPTO.PAD_ORCL

  • credential_name : indique les informations d'identification utilisées pour stocker la clé de cryptage.

Les valeurs par défaut des modificateurs de chaînage de chiffrement de bloc et des modificateurs de remplissage de chiffrement de bloc sont DBMS_CRYPTO.CHAIN_CBC et DBMS_CRYPTO.PAD_PKCS5, si vous n'indiquez pas de valeurs pour ces paramètres.

L'option de format encryption est utilisée avec les procédures DBMS_CLOUD suivantes :
  • Utilisé pour transmettre les paramètres de décryptage pour les procédures suivantes :

    • DBMS_CLOUD.COPY_DATA

    • DBMS_CLOUD.CREATE_EXTERNAL_TABLE

    • DBMS_CLOUD.CREATE_EXTERNAL_PART_TABLE

    • DBMS_CLOUD.CREATE_HYBRID_PART_TABLE

      Pour DBMS_CLOUD.CREATE_HYBRID_PART_TABLE, cette option n'est applicable qu'aux fichiers Object Storage.

    • DBMS_CLOUD.COPY_COLLECTION

  • Utilisé pour transmettre les paramètres à crypter pour la procédure suivante :

    • DBMS_CLOUD.EXPORT_DATA

Par exemple :

format => JSON_OBJECT('encryption' value json_object ('type' value DBMS_CRYPTO.ENCRYPT_AES256 + DBMS_CRYPTO.CHAIN_CBC + DBMS_CRYPTO.PAD_PKCS5, 'credential_name' value 'ENCRYPTION_CRED'))
encryption:value

value est une chaîne JSON qui fournit des paramètres supplémentaires pour le cryptage :

type : valeur

Spécifie le type de chiffrement.

credential_name: value

Indique les informations d'identification utilisées pour stocker la clé de cryptage.

user_defined_function: value

Spécifie une fonction entièrement qualifiée définie par l'utilisateur pour déchiffrer ou chiffrer le BLOB spécifié (objet volumineux binaire).

endquote

Les données peuvent être placées entre deux délimiteurs, indiqués par quote et endquote. Les caractères quote et endquote sont enlevés lors du chargement lorsqu'ils sont indiqués.

Par exemple :

format => JSON_OBJECT(‘quote’ value ‘(’, ‘endquote’ value ‘)’)

endquote:character

Valeur par défaut : NULL, ce qui signifie non endquote.

escape

Le caractère "\" est utilisé comme caractère d'échappement lorsqu'il est indiqué.

escape : true

Valeur par défaut : false

ignoreblanklines

Option valide avec les données JSON

Les lignes vides sont ignorées lorsque la valeur est True.

ignoreblanklines : true

Valeur par défaut : False

ignoremissingcolumns

Si field_list contient davantage de colonnes que les fichiers source, les colonnes supplémentaires sont stockées comme NULL.

ignoremissingcolumns : true

Valeur par défaut False

implicit_partition_columns

Activez le partitionnement implicite et indiquez les noms de colonne de partition à l'aide de l'option de format implicit_partition_columns avec DBMS_CLOUD.CREATE_EXTERNAL_TABLE.

Le partitionnement implicite est activé des manières suivantes :

  • Utilisez implicit_partition_columns pour fournir la liste des colonnes de partition et indiquer implicit_partition_type. Par exemple :
    format => '{"implicit_partition_type":"hive",
          "implicit_partition_columns":["country","year","month"]}'
  • Utilisez implicit_partition_columns pour fournir une liste de colonnes de partition sans indiquer le type de partition. Le type de partition est automatiquement détecté comme ruche ou non ruche. Par exemple :
    format => '{"implicit_partition_columns":["country","year","month"]}'
  • Utilisez implicit_partition_type pour indiquer le type de colonne de partition sans fournir de liste de colonnes de partition. La découverte automatique des clés de partition dans les données partitionnées de type HIVE est déclenchée pour déterminer les noms de colonne. Par exemple :
    format => '{"partition_type":"hive"}'

Reportez-vous à la page implicit_partition_type pour obtenir la description et la syntaxe des options.

implicit_partition_columns : tableau de chaînes

Valeur par défaut : si implicit_partition_type est spécifié, les noms de colonne sont dérivés via la découverte automatique des clés de partition dans les données partitionnées de type HIVE. Sinon, la valeur par défaut est NULL et le partitionnement implicite n'est pas activé.

implicit_partition_type

Activez le partitionnement implicite et indiquez les types de données des colonnes de partition en utilisant l'option de format implicit_partition_type avec DBMS_CLOUD.CREATE_EXTERNAL_TABLE.

Pour plus d'informations sur l'activation du partitionnement implicite et des exemples, reportez-vous à implicit_partition_columns.

implicit_partition_type : ruche

Valeur par défaut : si implicit_partition_columns est indiqué, le type est automatiquement détecté comme ruche ou non ruche. Sinon, la valeur par défaut est NULL et le partitionnement implicite n'est pas activé.

jsonpath

Utiliser uniquement avec COPY_COLLECTION

Chemin JSON permettant d'identifier le document à charger.

Cette option est valide uniquement pour les données de collecte JSON avec DBMS_CLOUD.COPY_COLLECTION.

jsonpath : string

Valeur par défaut : NULL

keyassignment

Utiliser uniquement avec COPY_COLLECTION

Indique si une nouvelle collection est créée en tant que collection compatible Mongo ou en tant que collection SODA.

Lorsque la valeur est définie sur embedded_oid, une nouvelle collection est créée en tant que collection compatible mongo.

Par défaut, ce paramètre n'est pas défini, ce qui signifie qu'une nouvelle collection est créée en tant que collection SODA.

keyassignment: embedded_oid

Par défaut : keyassignment n'est pas défini

keypath

Utiliser uniquement avec COPY_COLLECTION

Indique un attribut dans les données à charger en tant que valeur '_id'.

Si keypath est indiqué, vous devez également indiquer la valeur keyassignment en tant que embedded_oid.

Définissez la valeur sur un chemin, par exemple, '$.mykey', pour choisir la valeur du chemin en tant que valeur '_id'.

Ce paramètre est facultatif et n'est valide que pour le chargement dans des collections compatibles.

Si aucune valeur n'est indiquée, Oracle génère un ID système unique de 12 octets et le renseigne en tant qu'attribut '_id', si aucun attribut '_id' n'est déjà présent dans les données en cours de chargement.

keypath: string

Valeur par défaut : keypath n'est pas défini.

Lorsque keypath est défini, la valeur par défaut de string est NULL.

language

Indique un nom de langue (par exemple, FRENCH), à partir duquel dériver des informations linguistiques.

language : chaîne

Valeur par défaut : NULL

Pour obtenir la liste des langues prises en charge par Oracle, reportez-vous à Données d'environnement local dans le guide de support à la globalisation Oracle Database.

logdir

Spécifie une valeur de chaîne qui détermine le nom de l'objet répertoire dans lequel les fichiers logfile_table ou badfile_table sont enregistrés.

Par défaut, logdir n'est pas sensible à la casse, mais la casse est réservée lorsque la valeur indiquée est placée entre guillemets doubles.

Par exemple :

format => JSON_OBJECT ('logdir' value 'test_log')

L'option de format logdir indiquée dans l'exemple ci-dessus enregistre les fichiers logfile_table ou badfile_table dans l'objet de répertoire TEST_LOG.

format => JSON_OBJECT ('logdir' value '"test_log"')

L'option de format logdir indiquée dans l'exemple ci-dessus enregistre les fichiers logfile_table ou badfile_table dans l'objet de répertoire test_log.

logdir : string

Valeur par défaut : DATA_PUMP_DIR

logprefix

Spécifie une valeur de chaîne qui détermine le préfixe des fichiers logfile_table et badfile_table.

Le format du nom de la table de journalisation est : logprefix$operation_id

Par défaut, le préfixe de journal est en majuscules, mais la casse est réservée lorsque la valeur spécifiée est placée entre guillemets doubles.

Par exemple :

format => JSON_OBJECT ('logprefix' value 'TEST')

Les fichiers journaux utilisent ensuite le préfixe TEST, tel que TEST$2_LOG et TEST$2_BAD.

logprefix : string

La valeur par défaut est COPY

logretention

Indique une durée entière positive, en jours, pendant laquelle les fichiers logfile_table et badfile_table sont conservés.

Valeurs valides : 0 à 99999

Par exemple :

format => JSON_OBJECT ('logretention' value 7)

logretention : nombre

Valeur par défaut : 2

maxdocsize

Cette option est valide uniquement avec les données JSON

Taille maximale des documents JSON.

maxdocsize : nombre

Valeur par défaut : 1 mégaoctet

Valeur maximale autorisée : 2 Go

numericcharacters

Spécifie les caractères à utiliser comme séparateur de groupes et caractère décimal.

decimal_character : le séparateur décimal sépare la partie entière du nombre de ses décimales.

group_separator : le séparateur de groupes sépare les groupes dans les nombres entiers (milliers, millions, milliards, etc.).

numericcharacters: 'decimal_character group_separator'

La valeur par défaut est ".,"

Pour plus d'informations, reportez-vous à NLS_NUMERIC_CHARACTERS dans le guide de support à la globalisation Oracle Database.

numberformat

Spécifie le modèle de format numérique. Les modèles de format numérique définissent l'arrondi au nombre de chiffres significatifs spécifié. Un modèle de format numérique est composé d'éléments de format numérique.

Il est utilisé en combinaison avec numericcharacters.

numberformat: number_format_model

La valeur par défaut est dérivée du paramètre NLS_TERRITORY

Pour plus d'informations, reportez-vous à Modèles de format numérique dans Référence de langage SQL.

partition_columns

L'option de format partition_columns est utilisée avec DBMS_CLOUD.CREATE_EXTERNAL_PART_TABLE pour indiquer les noms de colonne et les types de données des colonnes de partition lorsque les colonnes de partition sont dérivées du chemin de fichier, selon le type de fichier de données, structuré ou non structuré :

  • Lorsque DBMS_CLOUD.CREATE_EXTERNAL_PART_TABLE inclut le paramètre column_list et que le fichier de données n'est pas structuré, par exemple avec des fichiers texte CSV, partition_columns n'inclut pas le type de données. Par exemple, utilisez un format tel que le suivant pour ce type de spécification partition_columns :

    '"partition_columns":["state","zipcode"]'

    Le type de données n'est pas requis car il est indiqué dans le paramètre DBMS_CLOUD.CREATE_EXTERNAL_PART_TABLE column_list.

  • Lorsque le paramètre DBMS_CLOUD.CREATE_EXTERNAL_PART_TABLE n'inclut pas le paramètre column_list et que les fichiers de données sont structurés, tels que les fichiers Avro, ORC ou Parquet, l'option partition_columns inclut le type de données. Par exemple, l'exemple suivant présente une spécification partition_columns :

    '"partition_columns":[
                   {"name":"country", "type":"varchar2(10)"},
                   {"name":"year", "type":"number"},
                   {"name":"month", "type":"varchar2(10)"}]'

Si les fichiers de données ne sont pas structurés et que la sous-clause type est indiquée avec partition_columns, la sous-clause type est ignorée.

Pour les noms d'objet qui ne sont pas basés sur le format de ruche, l'ordre des colonnes indiquées par partition_columns doit correspondre à l'ordre dans lequel elles apparaissent dans le nom d'objet dans file_uri_list.

 

quote

Indique le guillemet pour les champs. Les caractères quote sont enlevés durant l'opération de chargement si elles sont indiquées.

quote : caractère

Valeur par défaut : NULL, sans guillemets

recorddelimiter

Option valide avec les données JSON

Indique le délimiteur d'enregistrement.

Par défaut, DBMS_CLOUD tente de trouver automatiquement le caractère de retour à la ligne correct comme délimiteur. Il recherche d'abord le caractère de retour à la ligne Windows "\r\n" dans le fichier. S'il trouve le caractère à la ligne Windows, celui-ci est utilisé comme délimiteur d'enregistrement pour tous les fichiers de la procédure. If a Windows newline character is not found, it searches for the UNIX/Linux newline character "\n" and if it finds one it uses "\n" as the record delimiter for all files in the procedure.

Indiquez explicitement cet argument si vous voulez remplacer le comportement par défaut, par exemple :

format => json_object('recorddelimiter' VALUE '''\r\n''')

Pour indiquer qu'il n'existe aucun délimiteur d'enregistrement, vous pouvez spécifier une valeur recorddelimiter qui ne figure pas dans le fichier d'entrée. Par exemple, pour indiquer qu'il n'y a pas de séparateur, indiquez le caractère de contrôle 0x01 (SOH) en tant que valeur pour recorddelimiter et définissez la valeur recorddelimiter sur "0x''01''" (ce caractère n'est pas présent dans le texte JSON). Par exemple :

format => '{"recorddelimiter" : "0x''01''"}'

recorddelimiter est défini une fois par appel de procédure. Si vous utilisez la valeur par défaut, detected newline, tous les fichiers utilisent le même délimiteur d'enregistrement, si un délimiteur est détecté.

recorddelimiter : caractère

Valeur par défaut : nouvelle ligne détectée

regexuri

L'option de format regexuri est utilisée avec les procédures DBMS_CLOUD suivantes :

  • COPY_COLLECTION

  • COPY_DATA

  • CREATE_EXTERNAL_TABLE

  • CREATE_EXTERNAL_PART_TABLE

  • CREATE_HYBRID_PART_TABLE

Lorsque la valeur de regexuri est définie sur TRUE, vous pouvez utiliser des caractères génériques ainsi que des expressions régulières dans les noms de fichier dans les URI de fichier source cloud.

Les caractères "*" et " ?" sont considérés comme des caractères génériques lorsque le paramètre regexuri est défini sur FALSE. Lorsque le paramètre regexuri est défini sur TRUE, les caractères "*" et " ?" font partie du modèle d'expression régulière indiqué.

Les modèles d'expression régulière sont uniquement pris en charge pour le nom de fichier ou le chemin de sous-dossier dans vos URI et la correspondance de modèle est identique à celle effectuée par la fonction REGEXP_LIKE. Les modèles d'expression régulière ne sont pas pris en charge pour les noms de répertoire.

Pour les tables externes, cette option n'est prise en charge qu'avec les tables créées sur un fichier dans Object Storage.

Par exemple :

format => JSON_OBJECT('regexuri' value TRUE)

Pour plus d'informations sur la condition REGEXP_LIKE, reportez-vous à REGEXP_LIKE Condition.

regexuri: True

Valeur par défaut : False

rejectlimit

L'opération génère une erreur après le rejet d'un nombre donné de lignes.

rejectlimit : nombre

Valeur par défaut : 0

removequotes

Enlève tous les guillemets encadrant un champ du fichier source.

removequotes: true

Valeur par défaut : False

skipheaders

Indique le nombre de lignes à ignorer à partir du début du fichier.

skipheaders : nombre

Valeur par défaut : 0 si aucune valeur n'est spécifiée, 1 si aucune valeur n'est spécifiée

territory

Spécifie un nom de territoire pour déterminer plus précisément les caractéristiques des données d'entrée.

territory : chaîne

Valeur par défaut : NULL

Pour obtenir la liste des territoires pris en charge par Oracle, reportez-vous à Données d'environnement local dans le guide de support à la globalisation Oracle Database.

timestampformat

Indique le format d'horodatage dans le fichier source. L'option de format AUTO recherche les formats suivants :

YYYY-MM-DD HH:MI:SS.FF 
YYYY-MM-DD HH:MI:SS.FF3
YYYY-MM-DD HH24:MI:SS.FF3
MM/DD/YYYY HH:MI:SS.FF3

timestampformat : chaîne

Valeur par défaut : format d'horodatage de base de données

La chaîne peut contenir des caractères génériques tels que "$".

timestampltzformat

Indique l'horodatage avec le format de fuseau horaire local dans le fichier source. L'option de format AUTO recherche les formats suivants :

DD Mon YYYY HH:MI:SS.FF TZR 
MM/DD/YYYY HH:MI:SS.FF TZR 
YYYY-MM-DD HH:MI:SS+/-TZR 
YYYY-MM-DD HH:MI:SS.FF3 
DD.MM.YYYY HH:MI:SS TZR

timestampltzformat : chaîne

Valeur par défaut : horodatage de base de données avec format de fuseau horaire local

timestamptzformat

Indique l'horodatage avec le format de fuseau horaire dans le fichier source. L'option de format AUTO recherche les formats suivants :

DD Mon YYYY HH:MI:SS.FF TZR 
MM/DD/YYYY HH:MI:SS.FF TZR 
YYYY-MM-DD HH:MI:SS+/-TZR 
YYYY-MM-DD HH:MI:SS.FF3 
DD.MM.YYYY HH:MI:SS TZR

timestamptzformat : chaîne

Valeur par défaut : horodatage de base de données avec le format de fuseau horaire

trimspaces

Indique la façon dont sont tronqués les espaces de début et de fin des champs.

Voir la description de trim_spec.

trimspaces : rtrim| ltrim| notrim| lrtrim| ldrtrim

Valeur par défaut : notrim

truncatecol

Si les données du fichier sont trop longues pour un champ, cette option tronque la valeur du champ au lieu de rejeter la ligne.

truncatecol :true

Valeur par défaut : False

type

Spécifie le type de fichier source.

Reportez-vous à la description de CSV dans Clause field_definitions.

Si type est datapump, la seule autre option de format valide est rejectlimit.

Si type est défini sur datapump, les seuls magasins d'objets pris en charge sont Oracle Cloud Infrastructure Object Storage et Oracle Cloud Infrastructure Object Storage Classic.

Reportez-vous à la section DBMS_CLOUD Package Format Options for Avro, ORC, or Parquet pour obtenir les valeurs type avro, orc ou parquet.

Pour les données JSON avec DBMS_CLOUD.COPY_COLLECTION, type a deux valeurs valides : json (par défaut) et ejson. Pour DBMS_CLOUD.COPY_COLLECTION, ces valeurs indiquent toutes deux que l'entrée est des données JSON. La valeur ejson entraîne la conversion des objets étendus dans les données d'entrée JSON textuelles en valeurs JSON scalaires dans la collection JSON binaire native. La valeur json n'effectue pas cette transformation et tous les objets des données d'entrée sont convertis au format JSON binaire.

Pour les données JSON avec DBMS_CLOUD.COPY_DATA, type a une valeur valide : json. Cette valeur indique que l'entrée est des données JSON.

type: csv|csv with embedded|csv without embedded |avro||datapump|orc|parquet

Remarque

Tous les types de procédure DBMS_CLOUD ne sont pas pris en charge.

csv est identique à csv without embedded.

Valeur par défaut : NULL

Pour les données JSON, il existe deux valeurs type valides à utiliser avec DBMS_CLOUD.COPY_COLLECTION : json|ejson Dans ce cas, la valeur par défaut est json. Pour les données JSON avec DBMS_CLOUD.COPY_DATA, seule json est valide.

unpackarrays

Utiliser uniquement avec COPY_COLLECTION

Lorsque la valeur est true, si un document chargé est un tableau, le contenu du tableau est chargé en tant que documents plutôt que le tableau lui-même. Cela s'applique uniquement au tableau de niveau supérieur.

Lorsqu'elle est définie sur true, l'ensemble du tableau est inséré en tant que document unique.

Cette option est valide uniquement pour les données de collecte JSON avec DBMS_CLOUD.COPY_COLLECTION.

unpackarrays: true

Valeur par défaut : False