DBMS_CLOUD Options de format de package

L'argument de format dans DBMS_CLOUD indique le format des fichiers source.

Les deux méthodes de spécification de l'argument de format sont les suivantes :

format => '{"format_option" : “format_value” }'  

Et :

format => json_object('format_option' value 'format_value'))

Exemples :

format => json_object('type' VALUE 'CSV')

Pour indiquer plusieurs options de format, séparez les valeurs par une virgule ",".

Exemple :

format => json_object('ignoremissingcolumns' value 'true', 'removequotes' value 'true', 
                           'dateformat' value 'YYYY-MM-DD-HH24-MI-SS', 'blankasnull' value 'true', 'logretention' value 7)
Remarque

Pour les options de format Avro, ORC ou Parquet, reportez-vous à DBMS_CLOUD Options de format de package pour Avro, ORC ou Parquet.

Comme indiqué dans la colonne Option de format, un ensemble limité d'options de format est valide avec DBMS_CLOUD.COPY_COLLECTION ou avec DBMS_CLOUD.COPY_DATA lorsque la valeur de type de format est JSON.

Option de formatage Description Syntaxe

access_protocol

Spécifie le type de table Apache Iceberg, tel qu'AWS ou OCI Object Storage, et les informations utilisées pour créer la table externe, par exemple les informations d'un catalogue de données ou d'un URI de métadonnées direct.

Pour plus d'informations sur la syntaxe access_protocol, reportez-vous à Procédure CREATE_EXTERNAL_TABLE pour Apache Iceberg.

blankasnull

Lorsque cette option est définie sur true, les champs composés d'espaces sont chargés comme NULL.

blankasnull : true

Valeur par défaut : False

characterset

Valide avec format JSON et COPY_DATA

Spécifie le jeu de caractères des fichiers source.

characterset : chaîne

Valeur par défaut : Database characterset.

columnpath

A utiliser uniquement avec format au format JSON et COPY_DATA

Tableau d'expressions de chemin JSON correspondant aux champs qui doivent être extraits des enregistrements JSON. Chacune des expressions de chemin JSON du tableau doit suivre les règles décrites dans Expressions de chemin SQL/JSON.

Utilisable uniquement avec le format JSON et DBMS_CLOUD.COPY_DATA.

Tableau JSON des expressions de chemin json exprimées sous forme de chaîne. Par exemple : valeur 'columnpath' '["$.WEATHER_STATION_ID", "$.WEATHER_STATION_NAME"]'

compression

Option valide avec des données JSON

Spécifie le type de compression du fichier source.

Le format d'archivage ZIP n'est pas pris en charge.

La spécification de la valeur auto recherche les types de compression gzip, zlib, zstd, bzip2.

compression: auto|gzip|zlib|zstd|bzip2

Valeur par défaut : NULL signifiant l'absence de compression.

conversionerrors

Si une ligne est rejetée en raison d'erreurs de conversion du type de données, les colonnes associées sont stockées comme NULL ou la ligne est rejetée.

conversionerrors : reject_record | store_null

Valeur par défaut : reject_record.

dateformat

Indique le format de date dans le fichier source. L'option de format AUTO recherche les formats suivants :

J 
MM-DD-YYYYBC 
MM-DD-YYYY 
YYYYMMDD HHMISS 
YYMMDD HHMISS 
YYYY.DDD 
YYYY-MM-DD

dateformat : chaîne

Valeur par défaut : format de date de base de données.

delimiter

Indique le délimiteur de champ.

Pour utiliser un caractère spécial comme séparateur, indiquez la valeur HEX du code ASCII du caractère. Par exemple, la chaîne suivante indique le caractère de tabulation comme séparateur :

format => json_object('delimiter' value 'X''9''')

delimiter : caractère

Valeur par défaut | (barre verticale).

detectfieldorder

Indique que les champs des fichiers de données externes sont dans un ordre différent de celui des colonnes de la table. Détectez l'ordre des champs à l'aide de la première ligne de chaque fichier de données externe et mettez-le en correspondance avec les colonnes de la table. Les noms de champ dans les fichiers de données externes sont comparés sans distinction entre les majuscules et les minuscules avec les noms des colonnes de la table.

Cette option de format s'applique aux procédures suivantes :

  • DBMS_CLOUD.COPY_DATA

  • DBMS_CLOUD.CREATE_EXTERNAL_TABLE

  • DBMS_CLOUD.CREATE_EXTERNAL_PART_TABLE

  • DBMS_CLOUD.CREATE_HYBRID_PART_TABLE

Restrictions applicables à detectfieldorder :

  • Les noms de champ dans le fichier de données doivent apparaître sur la première ligne d'enregistrement et ne doivent pas contenir d'espaces entre les noms de champ.

  • Le délimiteur de champ dans l'enregistrement de noms de champ doit être identique au délimiteur de champ pour les données du fichier.

  • Les noms de champ entre guillemets ne sont pas pris en charge. Les noms de champ des fichiers de données sont comparés, sans distinction entre les majuscules et les minuscules, aux noms des colonnes de la table externe.

  • Les délimiteurs de champ incorporés ne sont pas autorisés dans les noms de champ.

  • Le nombre de colonnes dans la table doit correspondre au nombre de champs dans les fichiers de données.

  • Cette option de format n'est pas applicable aux formats Bigdata ou Oracle Data Pump, car ces formats contiennent des informations de métadonnées de colonne précises au format de fichier binaire.

    Les formats de texte, CSV, JSON, Parquet ou XML peuvent bénéficier de cette détection automatique de l'ordre des champs lorsque la première ligne contient les noms des champs.

Pour plus d'informations, reportez-vous à FIELD NAMES et à la description de ALL FILES.

detectfieldorder: true

Valeur par défaut : false

enablelogs

L'option de format enablelogs est utilisée avec les procédures DBMS_CLOUD suivantes :

  • COPY_DATA

  • COPY_COLLECTION

  • EXPORT_DATA

enablelogs indique une valeur booléenne. Lorsque cette option est définie sur TRUE, les journaux sont générés. Lorsque cette option est définie sur FALSE, les journaux ne sont pas générés.

Exemple :

format => JSON_OBJECT('enablelogs' value FALSE)

enablelogs: false

Valeur par défaut : true.

encryption

L'option de format encryption indique les options de cryptage et de décryptage permettant d'exporter et d'importer des données vers et depuis la banque d'objets.

Utilisez encryption pour indiquer les paramètres suivants pour le cryptage et le décryptage :

  • user_defined_function : indique une fonction entièrement qualifiée définie par l'utilisateur pour décrypter ou crypter le BLOB indiqué (objet LOB binaire). Elle renvoie un objet BLOB décrypté ou crypté. user_defined_function s'exclut mutuellement avec d'autres paramètres pour encryption.

    Par exemple, ADMIN.DECRYPTION_CALLBACK.

  • type : indique l'algorithme de cryptage DBMS_CRYPTO à décrypter ou à crypter.

    type accepte les valeurs au format Algorithmes de cryptage de bloc + Modificateurs de chaînage de bloc + Modificateurs de remplissage de cryptage de bloc.

    Les algorithmes de cryptage de bloc pris en charge sont les suivants :

    • DBMS_CRYPTO.ENCRYPT_AES256

    Modificateurs de chaînage de chiffrement de bloc pris en charge :

    • DBMS_CRYPTO.CHAIN_CBC

    • DBMS_CRYPTO.CHAIN_CFB

    • DBMS_CRYPTO.CHAIN_ECB

    • DBMS_CRYPTO.CHAIN_OFB

    Modificateurs de remplissage de cryptage de bloc pris en charge :

    • DBMS_CRYPTO.PAD_PKCS5

    • DBMS_CRYPTO.PAD_NONE

    • DBMS_CRYPTO.PAD_ZERO

    • DBMS_CRYPTO.PAD_ORCL

  • credential_name : indique les informations d'identification utilisées pour stocker la clé de cryptage.

Les valeurs par défaut des modificateurs de chaînage de bloc et des modificateurs de remplissage de bloc sont DBMS_CRYPTO.CHAIN_CBC et DBMS_CRYPTO.PAD_PKCS5, si vous n'indiquez pas de valeurs pour ces paramètres.

L'option de format encryption est utilisée avec les procédures DBMS_CLOUD suivantes :
  • Utilisé pour transmettre les paramètres à décrypter pour les procédures suivantes :

    • DBMS_CLOUD.COPY_DATA

    • DBMS_CLOUD.CREATE_EXTERNAL_TABLE

    • DBMS_CLOUD.CREATE_EXTERNAL_PART_TABLE

    • DBMS_CLOUD.CREATE_HYBRID_PART_TABLE

      Pour DBMS_CLOUD.CREATE_HYBRID_PART_TABLE, cette option s'applique uniquement aux fichiers Object Storage.

    • DBMS_CLOUD.COPY_COLLECTION

  • Utilisé pour transmettre les paramètres à crypter pour la procédure suivante :

    • DBMS_CLOUD.EXPORT_DATA

Exemple :

format => JSON_OBJECT('encryption' value json_object ('type' value DBMS_CRYPTO.ENCRYPT_AES256 + DBMS_CRYPTO.CHAIN_CBC + DBMS_CRYPTO.PAD_PKCS5, 'credential_name' value 'ENCRYPTION_CRED'))
encryption:value

value est une chaîne JSON qui fournit des paramètres supplémentaires pour le cryptage :

type : value

Spécifie le type de chiffrement.

credential_name: value

Indique les informations d'identification utilisées pour stocker la clé de cryptage.

user_defined_function: value

Spécifie une fonction entièrement qualifiée définie par l'utilisateur pour déchiffrer ou chiffrer le BLOB spécifié (objet LOB binaire).

endquote

Les données peuvent être placées entre deux séparateurs, indiqués par quote et endquote. Les caractères quote et endquote sont enlevés pendant le chargement s'ils sont indiqués.

Par exemple :

format => JSON_OBJECT(‘quote’ value ‘(’, ‘endquote’ value ‘)’)

endquote:character

Valeur par défaut : NULL, signifiant l'absence d'élément endquote.

escape

Le caractère "\" est utilisé comme caractère d'échappement lorsqu'il est indiqué.

escape : true

Valeur par défaut : false

ignoreblanklines

Option valide avec des données JSON

Les lignes vides sont ignorées lorsque la valeur est True.

ignoreblanklines : true

Valeur par défaut : False

ignoremissingcolumns

Si field_list contient davantage de colonnes que les fichiers source, les colonnes supplémentaires sont stockées comme NULL.

ignoremissingcolumns : true

Valeur par défaut : False

implicit_partition_columns

Activez le partitionnement implicite et indiquez les noms de colonne de partition à l'aide de l'option de format implicit_partition_columns avec DBMS_CLOUD.CREATE_EXTERNAL_TABLE.

Le partitionnement implicite est activé de l'une des manières suivantes :

  • Utilisez implicit_partition_columns pour fournir la liste des colonnes de partition et indiquer implicit_partition_type. Exemples :
    format => '{"implicit_partition_type":"hive",
          "implicit_partition_columns":["country","year","month"]}'
  • Utilisez implicit_partition_columns pour fournir la liste des colonnes de partition sans indiquer le type de partition. Le type de partition est automatiquement détecté comme ruche ou non ruche. Exemples :
    format => '{"implicit_partition_columns":["country","year","month"]}'
  • Utilisez implicit_partition_type pour indiquer le type de colonne de partition sans fournir de liste de colonnes de partition. La découverte automatique des clés de partitionnement dans les données partitionnées de type HIVE est déclenchée pour déterminer les noms de colonne. Exemples :
    format => '{"partition_type":"hive"}'

Reportez-vous à implicit_partition_type pour obtenir la description et la syntaxe de l'option.

implicit_partition_columns : tableau de chaînes

Valeur par défaut : si implicit_partition_type est spécifié, les noms de colonne sont dérivés via le repérage automatique des clés de partitionnement dans les données partitionnées de type HIVE. Sinon, la valeur par défaut est NULL et le partitionnement implicite n'est pas activé.

implicit_partition_type

Activez le partitionnement implicite et indiquez les types de données des colonnes de partition à l'aide de l'option de format implicit_partition_type avec DBMS_CLOUD.CREATE_EXTERNAL_TABLE.

Pour plus d'informations sur l'activation du partitionnement implicite et des exemples, reportez-vous à la page implicit_partition_columns.

implicit_partition_type : ruche

Valeur par défaut : si implicit_partition_columns est spécifié, le type est automatiquement détecté comme ruche ou non. Sinon, la valeur par défaut est NULL et le partitionnement implicite n'est pas activé.

jsonpath

A utiliser uniquement avec COPY_COLLECTION

Chemin JSON permettant d'identifier le document à charger.

Cette option est valide uniquement pour les données de collection JSON avec DBMS_CLOUD.COPY_COLLECTION.

jsonpath : chaîne

Valeur par défaut : NULL

keyassignment

A utiliser uniquement avec COPY_COLLECTION

Indique si une nouvelle collection est créée en tant que collection compatible mongo ou en tant que collection SODA.

Lorsque la valeur est définie sur embedded_oid, une nouvelle collection est créée en tant que collection compatible mongo.

Par défaut, ce paramètre n'est pas défini, ce qui signifie qu'une nouvelle collection est créée en tant que collection SODA.

keyassignment: embedded_oid

Par défaut : keyassignment n'est pas défini

keypath

A utiliser uniquement avec COPY_COLLECTION

Spécifie un attribut dans les données à charger en tant que valeur '_id'.

Si keypath est indiqué, vous devez également indiquer la valeur keyassignment en tant que embedded_oid.

Définissez la valeur sur un chemin, par exemple '$.mykey', pour choisir la valeur du chemin en tant que valeur '_id'.

Ce paramètre est facultatif et n'est valide que pour le chargement dans des collections compatibles mongo.

S'il n'est pas indiqué, Oracle génère un ID système unique de 12 octets et le remplit en tant qu'attribut '_id', si un attribut '_id' n'est pas déjà présent dans les données en cours de chargement.

keypath: string

Par défaut : keypath n'est pas défini.

Lorsque keypath est défini, la valeur string par défaut est NULL.

language

Indique un nom de langue (par exemple, FRENCH), à partir duquel dériver des informations linguistiques.

language : chaîne

Valeur par défaut : NULL

Pour obtenir la liste des langues prises en charge par Oracle, reportez-vous à Données d'environnement local dans le guide de support à la globalisation Oracle Database.

logdir

Spécifie une valeur de chaîne qui détermine le nom de l'objet de répertoire dans lequel les fichiers logfile_table ou badfile_table sont enregistrés.

Par défaut, logdir n'est pas sensible à la casse, mais la casse est réservée lorsque la valeur spécifiée est placée entre guillemets doubles.

Exemple :

format => JSON_OBJECT ('logdir' value 'test_log')

L'option de format logdir indiquée dans l'exemple ci-dessus enregistre les fichiers logfile_table ou badfile_table dans l'objet de répertoire TEST_LOG.

format => JSON_OBJECT ('logdir' value '"test_log"')

L'option de format logdir indiquée dans l'exemple ci-dessus enregistre les fichiers logfile_table ou badfile_table dans l'objet de répertoire test_log.

logdir : chaîne

Valeur par défaut : DATA_PUMP_DIR

logprefix

Spécifie une valeur de chaîne qui détermine le préfixe des fichiers logfile_table et badfile_table.

Le format du nom de la table de journalisation est le suivant : logprefix$operation_id

Par défaut, le préfixe de journal est en majuscules, mais la casse est réservée lorsque la valeur spécifiée est placée entre guillemets.

Exemple :

format => JSON_OBJECT ('logprefix' value 'TEST')

Les fichiers journaux utilisent ensuite le préfixe TEST, par exemple : TEST$2_LOG et TEST$2_BAD.

logprefix : chaîne

Valeur par défaut : COPY

logretention

Spécifie une durée entière positive, en jours, pour laquelle les fichiers logfile_table et badfile_table sont conservés.

Valeurs valides : 0 à 99999

Exemple :

format => JSON_OBJECT ('logretention' value 7)

logretention : nombre

Valeur par défaut : 2

maxdocsize

Cette option est valide uniquement avec des données JSON

Taille maximale des documents JSON.

maxdocsize : nombre

Valeur par défaut : 1 Go.

Valeur maximale autorisée : 2 Go.

numericcharacters

Spécifie les caractères à utiliser comme séparateur de groupes et caractère décimal.

decimal_character : le séparateur décimal sépare la partie entière du nombre de ses décimales.

group_separator : le séparateur de groupes sépare les groupes dans les nombres entiers (milliers, millions, milliards, etc.).

numericcharacters : 'decimal_character group_separator'

Valeur par défaut : ".,"

Pour plus d'informations, reportez-vous à NLS_NUMERIC_CHARACTERS dans le guide de support à la globalisation Oracle Database.

numberformat

Spécifie le modèle de format numérique. Les modèles de format numérique définissent l'arrondi au nombre de chiffres significatifs spécifié. Un modèle de format numérique est composé d'éléments de format numérique.

Il est utilisé en combinaison avec numericcharacters.

numberformat : number_format_model

La valeur par défaut est dérivée de la définition du paramètre NLS_TERRITORY.

Pour plus d'informations, reportez-vous à Modèles de format numérique dans Référence de langage SQL.

partition_columns

L'option de format partition_columns est utilisée avec DBMS_CLOUD.CREATE_EXTERNAL_PART_TABLE pour indiquer les noms de colonne et les types de données des colonnes de partition lorsque les colonnes de partition sont dérivées du chemin de fichier, en fonction du type de fichier de données, structuré ou non structuré :

  • Lorsque DBMS_CLOUD.CREATE_EXTERNAL_PART_TABLE inclut le paramètre column_list et que le fichier de données est non structuré, comme avec les fichiers texte CSV, partition_columns n'inclut pas le type de données. Par exemple, utilisez un format tel que le suivant pour ce type de spécification partition_columns :

    '"partition_columns":["state","zipcode"]'

    Le type de données n'est pas requis car il est indiqué dans le paramètre DBMS_CLOUD.CREATE_EXTERNAL_PART_TABLE column_list.

  • Lorsque DBMS_CLOUD.CREATE_EXTERNAL_PART_TABLE n'inclut pas le paramètre column_list et que les fichiers de données sont structurés, comme avec les fichiers Avro, ORC ou Parquet, l'option partition_columns inclut le type de données. L'exemple ci-dessous indique une spécification de partition_columns :

    '"partition_columns":[
                   {"name":"country", "type":"varchar2(10)"},
                   {"name":"year", "type":"number"},
                   {"name":"month", "type":"varchar2(10)"}]'

Si les fichiers de données sont non structurés et que la sous-clause type est indiquée avec partition_columns, la sous-clause type est ignorée.

Pour les noms d'objet qui ne sont pas basés sur le format de ruche, l'ordre des colonnes indiquées dans partition_columns doit correspondre à l'ordre tel qu'ils apparaissent dans le nom d'objet dans file_uri_list.

 

quote

Indique les guillemets pour les champs. Les caractères quote sont enlevés pendant le chargement s'ils sont indiqués.

quote : caractère

Valeur par défaut : NULL, signifiant l'absence de guillemets.

recorddelimiter

Option valide avec des données JSON

Indique le délimiteur d'enregistrement.

Par défaut, DBMS_CLOUD tente de trouver automatiquement le caractère de retour à la ligne correct comme délimiteur. Il recherche d'abord le caractère de retour à la ligne Windows "\r\n" dans le fichier. S'il trouve le caractère Windows newline, celui-ci est utilisé comme séparateur d'enregistrements pour tous les fichiers de la procédure. Si aucun caractère de retour à la ligne Windows n'est trouvé, il recherche le caractère de retour à la ligne UNIX/Linux "\n" et, s'il en trouve un, il utilise "\n" comme délimiteur d'enregistrement pour tous les fichiers de la procédure.

Indiquez explicitement cet argument si vous voulez remplacer le comportement par défaut, par exemple :

format => json_object('recorddelimiter' VALUE '''\r\n''')

Pour ne pas indiquer de séparateur d'enregistrement, vous pouvez indiquer une valeur recorddelimiter qui ne figure pas dans le fichier d'entrée. Par exemple, afin d'indiquer qu'il n'existe aucun séparateur, indiquez le caractère de contrôle 0x01 (SOH) comme valeur pour recorddelimiter et définissez la valeur recorddelimiter sur "0x''01''" (ce caractère n'apparaît pas dans le texte JSON). Exemple :

format => '{"recorddelimiter" : "0x''01''"}'

La valeur recorddelimiter est définie une fois par appel de procédure. Si vous utilisez la valeur par défaut, detected newline, tous les fichiers utilisent le même séparateur d'enregistrements, si un séparateur est détecté.

recorddelimiter : caractère

Valeur par défaut : detected newline.

regexuri

L'option de format regexuri est utilisée avec les procédures DBMS_CLOUD suivantes :

  • COPY_COLLECTION

  • COPY_DATA

  • CREATE_EXTERNAL_TABLE

  • CREATE_EXTERNAL_PART_TABLE

  • CREATE_HYBRID_PART_TABLE

Lorsque la valeur de regexuri est définie sur TRUE, vous pouvez utiliser des caractères génériques ainsi que des expressions régulières dans les noms de fichier dans les URI de fichier source cloud.

Les caractères "*" et " ?" sont considérés comme des caractères génériques lorsque le paramètre regexuri est défini sur FALSE. Lorsque le paramètre regexuri est défini sur TRUE, les caractères "*" et " ?" font partie du modèle d'expression régulière indiqué.

Les modèles d'expression régulière sont uniquement pris en charge pour le nom de fichier ou le chemin de sous-dossier dans vos URI et la correspondance de modèle est identique à celle effectuée par la fonction REGEXP_LIKE. Les modèles d'expression régulière ne sont pas pris en charge pour les noms de répertoire.

Pour les tables externes, cette option n'est prise en charge qu'avec les tables créées dans un fichier dans Object Storage.

Exemple :

format => JSON_OBJECT('regexuri' value TRUE)

Pour plus d'informations sur la condition REGEXP_LIKE, reportez-vous à Condition REGEXP_LIKE.

regexuri: True

Valeur par défaut : False

rejectlimit

L'opération génère une erreur après le rejet d'un nombre donné de lignes.

rejectlimit : nombre

Valeur par défaut : 0

removequotes

Enlève tous les guillemets encadrant un champ du fichier source.

removequotes: true

Valeur par défaut : False

skipheaders

Indique le nombre de lignes à ignorer à partir du début du fichier.

skipheaders : nombre

Valeur par défaut : 0 si non spécifiée, 1 si spécifiée sans valeur.

territory

Spécifie un nom de territoire pour déterminer plus précisément les caractéristiques des données d'entrée.

territory : chaîne

Valeur par défaut : NULL

Pour obtenir la liste des territoires pris en charge par Oracle, reportez-vous à Données d'environnement local dans le guide de support à la globalisation Oracle Database.

timestampformat

Indique le format d'horodatage dans le fichier source. L'option de format AUTO recherche les formats suivants :

YYYY-MM-DD HH:MI:SS.FF 
YYYY-MM-DD HH:MI:SS.FF3
YYYY-MM-DD HH24:MI:SS.FF3
MM/DD/YYYY HH:MI:SS.FF3

timestampformat : chaîne

Valeur par défaut : format d'heure de base de données.

La chaîne peut contenir des caractères génériques tels que "$".

timestampltzformat

Indique l'horodatage avec le format de fuseau horaire local dans le fichier source. L'option de format AUTO recherche les formats suivants :

DD Mon YYYY HH:MI:SS.FF TZR 
MM/DD/YYYY HH:MI:SS.FF TZR 
YYYY-MM-DD HH:MI:SS+/-TZR 
YYYY-MM-DD HH:MI:SS.FF3 
DD.MM.YYYY HH:MI:SS TZR

timestampltzformat : chaîne

Valeur par défaut : horodatage de base de données avec le format de fuseau horaire local.

timestamptzformat

Indique l'horodatage avec le format de fuseau horaire dans le fichier source. L'option de format AUTO recherche les formats suivants :

DD Mon YYYY HH:MI:SS.FF TZR 
MM/DD/YYYY HH:MI:SS.FF TZR 
YYYY-MM-DD HH:MI:SS+/-TZR 
YYYY-MM-DD HH:MI:SS.FF3 
DD.MM.YYYY HH:MI:SS TZR

timestamptzformat : chaîne

Valeur par défaut : horodatage de base de données avec le format de fuseau horaire.

trimspaces

Indique la façon dont sont tronqués les espaces de début et de fin des champs.

Reportez-vous à la description de trim_spec.

trimspaces : rtrim| ltrim| notrim| lrtrim| ldrtrim

Valeur par défaut : notrim.

truncatecol

Si les données du fichier sont trop longues pour un champ, cette option tronque la valeur du champ au lieu de rejeter la ligne.

truncatecol:true

Valeur par défaut : False

type

Spécifie le type de fichier source.

Reportez-vous à la description de CSV dans Clause field_definitions.

Si type a la valeur datapump, la seule autre option de format valide est rejectlimit.

Si type a la valeur datapump, les seules banques d'objets prises en charge sont Oracle Cloud Infrastructure Object Storage et Oracle Cloud Infrastructure Object Storage Classic.

Pour obtenir les valeurs type avro, orc ou parquet, reportez-vous à DBMS_CLOUD Options de format de package pour Avro, ORC ou Parquet.

Pour les données JSON avec DBMS_CLOUD.COPY_COLLECTION, les deux valeurs valides pour le paramètre type sont json (valeur par défaut) et ejson. Pour DBMS_CLOUD.COPY_COLLECTION, ces deux valeurs indiquent que l'entrée est constituée de données JSON. La valeur ejson entraîne la conversion des objets étendus dans les données d'entrée JSON texte en valeurs JSON scalaires dans la collection JSON binaire native. La valeur json n'effectue pas cette transformation et tous les objets dans les données d'entrée sont convertis au format JSON binaire.

Pour les données JSON avec DBMS_CLOUD.COPY_DATA, la valeur valide de type est la suivante : json. Cette valeur indique que l'entrée est constituée de données JSON.

type: csv|csv with embedded|csv without embedded |avro||datapump|orc|parquet

Remarque

Toutes les procédures DBMS_CLOUD ne prennent pas en charge tous ces types.

csv est identique à csv without embedded.

Valeur par défaut : NULL

Pour les données JSON, deux valeurs type valides à utiliser avec DBMS_CLOUD.COPY_COLLECTION sont : json|ejson. Dans ce cas, la valeur par défaut est json. Pour les données JSON avec DBMS_CLOUD.COPY_DATA, seul json est valide.

unpackarrays

A utiliser uniquement avec COPY_COLLECTION

Lorsque la valeur est true, si un document chargé est un tableau, le contenu du tableau est chargé en tant que documents plutôt que le tableau lui-même. Cela s'applique uniquement au tableau de niveau supérieur.

Lorsque la valeur est true, le tableau entier est inséré en tant que document unique.

Cette option est valide uniquement pour les données de collection JSON avec DBMS_CLOUD.COPY_COLLECTION.

unpackarrays: true

Valeur par défaut : False