DBMS_CLOUD-Package - Formatoptionen

Das Formatargument in DBMS_CLOUD gibt das Format der Quelldateien an.

Es gibt zwei Möglichkeiten, das Argument format anzugeben:

format => '{"format_option" : “format_value” }'  

Und:

format => json_object('format_option' value 'format_value'))

Beispiele:

format => json_object('type' VALUE 'CSV')

Um mehrere Formatoptionen anzugeben, trennen Sie die Werte durch ",".

Beispiele:

format => json_object('ignoremissingcolumns' value 'true', 'removequotes' value 'true', 
                           'dateformat' value 'YYYY-MM-DD-HH24-MI-SS', 'blankasnull' value 'true', 'logretention' value 7)
Hinweis

Informationen zu den Formatoptionen "Avro", "ORC" oder "Parkett" finden Sie unter DBMS_CLOUD Paketformatoptionen für "Avro", "ORC" oder "Parkett".

Wie in der Spalte Formatoption angegeben, ist eine begrenzte Gruppe von Formatoptionen mit DBMS_CLOUD.COPY_COLLECTION oder mit DBMS_CLOUD.COPY_DATA gültig, wenn format type JSON lautet.

Formatoption Beschreibung Syntax

access_protocol

Gibt den Typ der Apache Iceberg-Tabelle an, wie AWS oder OCI Object Storage, und welche Informationen zum Erstellen der externen Tabelle verwendet werden, z.B. Informationen aus einem Datenkatalog oder aus einem direkten Metadaten-URI.

Weitere Informationen zur access_protocol-Syntax finden Sie unter Prozedur CREATE_EXTERNAL_TABLE für Apache Iceberg.

blankasnull

Wenn diese Option auf true gesetzt ist, werden Felder, die nur Leerzeichen enthalten, als Null geladen.

blankasnull : true

Standardwert: False

characterset

Gültig mit format JSON und COPY_DATA

Gibt den Zeichensatz der Quelldateien an.

characterset: Zeichenfolge

Standardwert: Datenbankzeichensatz

columnpath

Nur mit format JSON und COPY_DATA verwenden

Array von JSON-Pfadausdrücken, die den Feldern entsprechen, die aus den JSON-Datensätzen extrahiert werden müssen. Jeder der JSON-Pfadausdrücke im Array muss den unter SQL/JSON-Pfadausdrücke beschriebenen Regeln entsprechen.

Nur mit den Formaten JSON und DBMS_CLOUD.COPY_DATA verwenden.

JSON-Array mit json-Pfadausdrücken im Zeichenfolgenformat. Beispiel: "columnpath"-Wert '["$.WEATHER_STATION_ID", "$.WEATHER_STATION_NAME"]'"

compression

Option gültig mit JSON-Daten

Gibt den Komprimierungstyp der Quelldatei an.

Das ZIP-Archivierungsformat wird nicht unterstützt.

Wenn Sie den Wert auto angeben, wird nach den folgenden Komprimierungstypen gesucht: gzip, zlib, zstd, bzip2.

compression: auto|gzip|zlib|zstd|bzip2

Standardwert: Nullwert bedeutet keine Kompression.

conversionerrors

Wenn eine Zeile wegen Datentyp-Konvertierungsfehlern abgelehnt wird, werden die zugehörigen Spalten als Null gespeichert, oder die Zeile wird abgelehnt.

conversionerrors: reject_record | store_null

Standardwert: reject_record

dateformat

Gibt das Datumsformat in der Quelldatei an. Die Formatoption AUTO sucht nach den folgenden Formaten:

J 
MM-DD-YYYYBC 
MM-DD-YYYY 
YYYYMMDD HHMISS 
YYMMDD HHMISS 
YYYY.DDD 
YYYY-MM-DD

dateformat: Zeichenfolge

Standardwert: Datenbankdatumsformat

delimiter

Gibt das Feldbegrenzungszeichen an.

Um ein Sonderzeichen als Trennzeichen zu verwenden, geben Sie den HEX-Wert des ASCII-Code des Zeichens an. Beispiel: Im Folgenden wird das TAB-Zeichen als Trennzeichen angegeben:

format => json_object('delimiter' value 'X''9''')

delimiter: Zeichen

Standardwert | (Pipe-Zeichen)

detectfieldorder

Gibt an, dass sich die Felder in den externen Datendateien in einer anderen Reihenfolge befinden als die Spalten in der Tabelle. Ermitteln Sie die Reihenfolge der Felder mit der ersten Zeile jeder externen Datendatei, und ordnen Sie sie den Spalten der Tabelle zu. Die Feldnamen in externen Datendateien werden unabhängig von der Groß-/Kleinschreibung mit den Namen der Tabellenspalten verglichen.

Diese Formatoption gilt für die folgenden Verfahren:

  • DBMS_CLOUD.COPY_DATA

  • DBMS_CLOUD.CREATE_EXTERNAL_TABLE

  • DBMS_CLOUD.CREATE_EXTERNAL_PART_TABLE

  • DBMS_CLOUD.CREATE_HYBRID_PART_TABLE

Einschränkungen für detectfieldorder:

  • Feldnamen in der Datendatei müssen in der ersten Datensatzzeile angezeigt werden und dürfen keine Leerzeichen zwischen den Feldnamen enthalten.

  • Das Feldbegrenzungszeichen im Feldnamendatensatz muss mit dem Feldbegrenzungszeichen für die Daten in der Datei identisch sein.

  • Feldnamen in Anführungszeichen werden nicht unterstützt. Die Feldnamen in Datendateien werden unabhängig von der Groß-/Kleinschreibung mit den Namen der externen Tabellenspalten verglichen.

  • Eingebettete Feldbegrenzungszeichen sind in den Feldnamen nicht zulässig.

  • Die Anzahl der Spalten in der Tabelle muss mit der Anzahl der Felder in den Datendateien übereinstimmen.

  • Diese Formatoption ist für Bigdata- oder Oracle Data Pump-Formate nicht anwendbar, da diese Formate genaue Spaltenmetadateninformationen im binären Dateiformat enthalten.

    Die Textformate CSV, JSON, Parquet oder XML können von dieser automatischen Erkennung der Feldreihenfolge profitieren, wenn die erste Zeile die Feldnamen enthält.

Weitere Informationen finden Sie unter FIELD NAMES und in der Beschreibung für ALL FILES.

detectfieldorder: true

Standardwert: false

enablelogs

Die Formatoption enablelogs wird mit den folgenden DBMS_CLOUD-Prozeduren verwendet:

  • COPY_DATA

  • COPY_COLLECTION

  • EXPORT_DATA

enablelogs gibt einen booleschen Wert an. Wenn dieser Wert auf TRUE gesetzt wird, werden Logs generiert. Wenn dieser Wert auf FALSE gesetzt ist, werden keine Logs generiert.

Beispiele:

format => JSON_OBJECT('enablelogs' value FALSE)

enablelogs: false

Standardwert: true

encryption

Die Formatoption encryption gibt die Verschlüsselungs- und Entschlüsselungsoptionen für den Export und Import von Daten in und aus dem Objektspeicher an.

Verwenden Sie encryption, um die folgenden Parameter zum Verschlüsseln und Entschlüsseln anzugeben:

  • user_defined_function: Gibt eine vollqualifizierte benutzerdefinierte Funktion an, mit der das angegebene BLOB (binäres Large Object) entschlüsselt oder verschlüsselt wird. Es gibt ein entschlüsseltes oder verschlüsseltes BLOB zurück. user_defined_function schließt sich gegenseitig mit anderen Parametern für encryption aus.

    Beispiel: ADMIN.DECRYPTION_CALLBACK.

  • type: Gibt den Verschlüsselungsalgorithmus DBMS_CRYPTO an, der entschlüsselt oder verschlüsselt werden soll.

    type akzeptiert Werte im Format Block-Cipher-Algorithmen + Block-Cipher-Chain-Modifikatoren + Block-Cipher-Padding-Modifikatoren.

    Unterstützte Block-Cipher-Algorithmen:

    • DBMS_CRYPTO.ENCRYPT_AES256

    Unterstützte Block Cipher Chaining Modifikatoren sind:

    • DBMS_CRYPTO.CHAIN_CBC

    • DBMS_CRYPTO.CHAIN_CFB

    • DBMS_CRYPTO.CHAIN_ECB

    • DBMS_CRYPTO.CHAIN_OFB

    Folgende Block-Cipher-Padding-Modifikatoren werden unterstützt:

    • DBMS_CRYPTO.PAD_PKCS5

    • DBMS_CRYPTO.PAD_NONE

    • DBMS_CRYPTO.PAD_ZERO

    • DBMS_CRYPTO.PAD_ORCL

  • credential_name: Gibt die Zugangsdaten an, mit denen der Verschlüsselungsschlüssel gespeichert wird.

Die Werte für Block-Cipher-Verkettungsmodifikatoren und Block-Cipher-Padding-Modifikatoren lauten standardmäßig DBMS_CRYPTO.CHAIN_CBC und DBMS_CRYPTO.PAD_PKCS5, wenn Sie keine Werte für diese Parameter angeben.

Die Formatoption encryption wird mit den folgenden DBMS_CLOUD-Prozeduren verwendet:
  • Wird verwendet, um Parameter zur Entschlüsselung für die folgenden Prozeduren zu übergeben:

    • DBMS_CLOUD.COPY_DATA

    • DBMS_CLOUD.CREATE_EXTERNAL_TABLE

    • DBMS_CLOUD.CREATE_EXTERNAL_PART_TABLE

    • DBMS_CLOUD.CREATE_HYBRID_PART_TABLE

      Für DBMS_CLOUD.CREATE_HYBRID_PART_TABLE gilt diese Option nur für die Object Storage-Dateien.

    • DBMS_CLOUD.COPY_COLLECTION

  • Wird verwendet, um Parameter zur Verschlüsselung für diese Prozedur zu übergeben:

    • DBMS_CLOUD.EXPORT_DATA

Beispiele:

format => JSON_OBJECT('encryption' value json_object ('type' value DBMS_CRYPTO.ENCRYPT_AES256 + DBMS_CRYPTO.CHAIN_CBC + DBMS_CRYPTO.PAD_PKCS5, 'credential_name' value 'ENCRYPTION_CRED'))
encryption:value

Dabei ist Wert eine JSON-Zeichenfolge, die zusätzliche Parameter für die Verschlüsselung bereitstellt:

type: Wert

Gibt den Verschlüsselungstyp an.

credential_name: value

Gibt die Zugangsdaten an, die zum Speichern des Verschlüsselungsschlüssels verwendet werden.

user_defined_function: value

Gibt eine vollqualifizierte benutzerdefinierte Funktion an, mit der das angegebene BLOB (binäres Large Object) entschlüsselt oder verschlüsselt wird.

endquote

Daten können zwischen zwei Begrenzungszeichen eingeschlossen werden, die mit quote und endquote angegeben werden. Die Zeichen quote und endquote werden beim Laden entfernt, wenn angegeben.

Beispiele:

format => JSON_OBJECT(‘quote’ value ‘(’, ‘endquote’ value ‘)’)

endquote:character

Standardwert: Null, d.h. kein endquote.

escape

Das Zeichen "\" wird als Escapezeichen verwendet, sofern angegeben.

escape : true

Standardwert: false

ignoreblanklines

Option gültig mit JSON-Daten

Leere Zeilen werden ignoriert, wenn diese Option auf "true" gesetzt ist.

ignoreblanklines : true

Standardwert: False

ignoremissingcolumns

Wenn die field_list mehr Spalten als die Quelldateien enthält, werden die zusätzlichen Spalten als Null gespeichert.

ignoremissingcolumns : true

Standardwert False

implicit_partition_columns

Aktivieren Sie die implizite Partitionierung, und geben Sie die Partitionsspaltennamen mit der Formatoption implicit_partition_columns mit DBMS_CLOUD.CREATE_EXTERNAL_TABLE an.

Implizite Partitionierung wird auf folgende Weise aktiviert:

  • Geben Sie mit implicit_partition_columns eine Liste der Partitionsspalten an, und geben Sie implicit_partition_type an. Beispiele:
    format => '{"implicit_partition_type":"hive",
          "implicit_partition_columns":["country","year","month"]}'
  • Verwenden Sie implicit_partition_columns, um eine Liste der Partitionsspalten anzugeben, ohne den Partitionstyp anzugeben. Der Partitionstyp wird automatisch als "hive" oder "non-hive" erkannt. Beispiele:
    format => '{"implicit_partition_columns":["country","year","month"]}'
  • Verwenden Sie implicit_partition_type, um den Typ der Partitionsspalten anzugeben, ohne eine Liste der Partitionsspalten anzugeben. Die automatische Erkennung der Partitionsschlüssel in partitionierten HIVE-Daten wird ausgelöst, um Spaltennamen zu bestimmen. Beispiele:
    format => '{"partition_type":"hive"}'

Eine Beschreibung und Syntax der Option finden Sie unter implicit_partition_type.

implicit_partition_columns : Array mit Zeichenfolgen

Standardwert: Wenn implicit_partition_type angegeben wird, werden die Spaltennamen durch automatische Erkennung der Partitionsschlüssel in partitionierten HIVE-Daten abgeleitet. Andernfalls ist der Standardwert null, und die implizite Partitionierung ist nicht aktiviert.

implicit_partition_type

Aktivieren Sie die implizite Partitionierung, und geben Sie die Datentypen von Partitionsspalten mit der Formatoption implicit_partition_type mit DBMS_CLOUD.CREATE_EXTERNAL_TABLE an.

Weitere Informationen zum Aktivieren der impliziten Partitionierung und Beispiele finden Sie unter implicit_partition_columns.

implicit_partition_type : Bienenstock

Standardwert: Wenn implicit_partition_columns angegeben wird, wird der Typ automatisch als "hive" oder "non-hive" erkannt. Andernfalls ist der Standardwert null, und die implizite Partitionierung ist nicht aktiviert.

jsonpath

Nur mit COPY_COLLECTION verwenden

JSON-Pfad für das zu ladende Dokument.

Diese Option ist nur für JSON-Collection-Daten mit DBMS_CLOUD.COPY_COLLECTION gültig.

jsonpath: Zeichenfolge.

Standardwert: Null

keyassignment

Nur mit COPY_COLLECTION verwenden

Gibt an, ob eine neue Collection als mongo-kompatible Collection oder als SODA-Collection erstellt wird.

Wenn der Wert auf embedded_oid gesetzt ist, wird eine neue Collection als mongo-kompatible Collection erstellt.

Standardmäßig ist dieser Parameter nicht festgelegt, d.h. eine neue Collection wird als SODA-Collection erstellt.

keyassignment: embedded_oid

Standard: keyassignment ist nicht festgelegt

keypath

Nur mit COPY_COLLECTION verwenden

Gibt ein Attribut in den zu ladenden Daten als Wert '_id' an.

Wenn keypath angegeben ist, müssen Sie auch den Wert keyassignment als embedded_oid angeben.

Setzen Sie den Wert auf einen Pfad, z.B. '$.mykey', um den Wert des Pfades als '_id'-Wert zu wählen.

Dieser Parameter ist optional und nur für das Laden in mongo-kompatible Sammlungen gültig.

Wenn keine Angabe gemacht wird, generiert Oracle eine eindeutige 12-Byte-System-ID und füllt diese als Attribut '_id' auf, wenn in den geladenen Daten noch kein '_id'-Attribut vorhanden ist.

keypath: string

Standard: keypath ist nicht festgelegt.

Wenn keypath festgelegt ist, ist der Zeichenfolge-Standardwert NULL.

language

Gibt einen Sprachennamen an (z.B. FRENCH), von dem gebietsschemaabhängige Informationen abgeleitet werden können.

language: Zeichenfolge:

Standardwert: Null

Eine Liste der von Oracle unterstützten Sprachen finden Sie unter Gebietsschemadaten im Handbuch für Oracle Database-Globalisierungsfunktionen.

logdir

Gibt einen Zeichenfolgenwert an, der den Verzeichnisobjektnamen bestimmt, in dem die logfile_table- oder badfile_table-Dateien gespeichert werden.

Standardmäßig wird bei logdir die Groß-/Kleinschreibung nicht beachtet. Die Groß-/Kleinschreibung wird jedoch reserviert, wenn der angegebene Wert in doppelte Anführungszeichen eingeschlossen wird.

Beispiele:

format => JSON_OBJECT ('logdir' value 'test_log')

Mit der im obigen Beispiel angegebenen Formatoption logdir werden die Dateien logfile_table oder badfile_table im Verzeichnisobjekt TEST_LOG gespeichert.

format => JSON_OBJECT ('logdir' value '"test_log"')

Mit der im obigen Beispiel angegebenen Formatoption logdir werden die Dateien logfile_table oder badfile_table im Verzeichnisobjekt test_log gespeichert.

logdir: Zeichenfolge

Standardwert: DATA_PUMP_DIR

logprefix

Gibt einen Zeichenfolgenwert an, der das Präfix für die Dateien logfile_table und badfile_table bestimmt.

Das Namensformat der Logtabelle lautet: logprefix$operation_id

Standardmäßig ist das logprefix in Großbuchstaben angegeben. Die Groß-/Kleinschreibung wird jedoch reserviert, wenn der angegebene Wert in doppelte Anführungszeichen eingeschlossen wird.

Beispiele:

format => JSON_OBJECT ('logprefix' value 'TEST')

Logdateien verwenden dann das Präfix TEST, wie TEST$2_LOG und TEST$2_BAD.

logprefix: Zeichenfolge

Standardwert: COPY

logretention

Gibt eine positive Ganzzahldauer in Tagen an, für die die Dateien logfile_table und badfile_table beibehalten werden.

Gültige Werte: 0 bis 99999

Beispiele:

format => JSON_OBJECT ('logretention' value 7)

logretention: Zahl

Standardwert: 2

maxdocsize

Diese Option ist nur mit JSON-Daten gültig

Maximale Größe von JSON-Dokumenten.

maxdocsize: Zahl.

Standardwert: 1 Megabyte

Höchstwert: 2 Gigabyte

numericcharacters

Gibt die Zeichen an, die als Gruppentrennzeichen und Dezimalzeichen verwendet werden sollen.

decimal_character: Das Dezimalzeichen trennt den ganzzahligen Teil einer Zahl vom Dezimalteil.

group_separator: Das Gruppentrennzeichen trennt Ganzzahlgruppen (d.h. Tausende, Millionen, Milliarden usw.).

numericcharacters: 'decimal_character group_separator'

Standardwert: ".,"

Weitere Informationen finden Sie unter NLS_NUMERIC_CHARACTERS im Handbuch für Oracle Database-Globalisierungsfunktionen.

numberformat

Gibt das Modell für das Zahlenformat an. Mit Zahlenformatmodellen wird die Zahl auf die angegebene Anzahl signifikanter Ziffern gerundet. Ein Zahlenformatmodell besteht aus mindestens einem Zahlenformatelement.

Wird in Kombination mit numericcharacters verwendet.

numberformat: number_format_model

Standardwert: wird von der Einstellung des Parameters NLS_TERRITORY abgeleitet.

Weitere Informationen finden Sie unter Zahlenformatmodelle in der SQL-Sprachreferenz.

partition_columns

Die Formatoption partition_columns wird mit DBMS_CLOUD.CREATE_EXTERNAL_PART_TABLE verwendet, um die Spaltennamen und Datentypen von Partitionsspalten anzugeben, wenn die Partitionsspalten aus dem Dateipfad abgeleitet werden, abhängig vom Typ der strukturierten oder unstrukturierten Datendatei:

  • Wenn DBMS_CLOUD.CREATE_EXTERNAL_PART_TABLE den Parameter column_list enthält und die Datendatei unstrukturiert ist, wie z.B. CSV-Textdateien, enthält partition_columns den Datentyp nicht. Beispiel: Verwenden Sie für diesen partition_columns-Typ das folgende Format:

    '"partition_columns":["state","zipcode"]'

    Der Datentyp ist nicht erforderlich, da er im column_list-Parameter DBMS_CLOUD.CREATE_EXTERNAL_PART_TABLE angegeben ist.

  • Wenn DBMS_CLOUD.CREATE_EXTERNAL_PART_TABLE den Parameter column_list nicht enthält und die Datendateien strukturiert sind, wie Avro-, ORC- oder Parquet-Dateien, enthält die Option partition_columns den Datentyp. Beispiel: Im Folgenden wird eine partition_columns-Spezifikation dargestellt:

    '"partition_columns":[
                   {"name":"country", "type":"varchar2(10)"},
                   {"name":"year", "type":"number"},
                   {"name":"month", "type":"varchar2(10)"}]'

Wenn die Datendateien unstrukturiert sind und die Unterklausel type mit partition_columns angegeben ist, wird die Unterklausel type ignoriert.

Bei Objektnamen, die nicht auf dem Hive-Format basieren, muss die Reihenfolge der angegebenen partition_columns-Spalten mit der Reihenfolge übereinstimmen, wie sie im Objektnamen in file_uri_list angezeigt werden.

 

quote

Gibt das Anführungszeichen für die Felder an. Die quote-Zeichen werden beim Laden entfernt, sofern angegeben.

quote: Zeichen

Standardwert: Null Bedeutung keine Anführungszeichen

recorddelimiter

Option gültig mit JSON-Daten

Gibt das Datensatz-Begrenzungszeichen an.

Standardmäßig versucht DBMS_CLOUD, das richtige Zeilenvorschubzeichen automatisch als Trennzeichen zu ermitteln. Zuerst wird die Datei nach dem Windows-Zeilenvorschubzeichen "\r\n" durchsucht. Wird das Windows- Zeilenvorschubzeichen gefunden, wird es für alle Dateien in der Prozedur als Datensatzbegrenzung verwendet. Wenn kein Zeilenvorschubzeichen gefunden wird, wird nach dem UNIX/Linux-Zeilenvorschubzeichen "\n" gesucht. Wird dieses gefunden, wird "\n" für alle Dateien in der Prozedur als Datensatzbegrenzungszeichen verwendet.

Geben Sie dieses Argument explizit an, wenn Sie das Standardverhalten überschreiben möchten. Beispiel:

format => json_object('recorddelimiter' VALUE '''\r\n''')

Um anzugeben, dass kein Datensatztrennzeichen vorhanden ist, können Sie einen recorddelimiter angeben, der in der Eingabedatei nicht auftritt. Beispiel: Um anzugeben, dass kein Trennzeichen vorhanden ist, geben Sie das Steuerzeichen 0x01 (SOH) als Wert für recorddelimiter an, und setzen Sie den Wert recorddelimiter auf "0x''01''" (dieses Zeichen kommt in JSON-Text nicht vor). Beispiele:

format => '{"recorddelimiter" : "0x''01''"}'

recorddelimiter wird einmal pro Prozeduraufruf festgelegt. Wenn Sie den Standardwert detected newline verwenden, verwenden alle Dateien dasselbe Datensatzbegrenzer, wenn eines erkannt wird.

recorddelimiter: Zeichen

Standardwert: Zeilenvorschubzeichen erkannt

regexuri

Die Formatoption regexuri wird mit den folgenden DBMS_CLOUD-Prozeduren verwendet:

  • COPY_COLLECTION

  • COPY_DATA

  • CREATE_EXTERNAL_TABLE

  • CREATE_EXTERNAL_PART_TABLE

  • CREATE_HYBRID_PART_TABLE

Wenn der Wert von regexuri auf TRUE gesetzt ist, können Sie Platzhalter sowie reguläre Ausdrücke in den Dateinamen in Cloud-Quelldatei-URIs verwenden.

Die Zeichen "*" und "?" werden als Platzhalterzeichen betrachtet, wenn der Parameter regexuri auf FALSE gesetzt ist. Wenn der Parameter regexuri auf TRUE gesetzt ist, sind die Zeichen "*" und "?" Teil des angegebenen regulären Ausdrucksmusters.

Reguläre Ausdrucksmuster werden nur für den Dateinamen oder Unterordnerpfad in Ihren URIs unterstützt, und der Musterabgleich ist mit dem der Funktion REGEXP_LIKE identisch. Reguläre Ausdrucksmuster werden für Verzeichnisnamen nicht unterstützt.

Bei externen Tabellen wird diese Option nur bei den Tabellen unterstützt, die für eine Datei im Object Storage erstellt werden.

Beispiele:

format => JSON_OBJECT('regexuri' value TRUE)

Weitere Informationen zur Bedingung REGEXP_LIKE finden Sie unter REGEXP_LIKE-Bedingung.

regexuri: True

Standardwert: False

rejectlimit

Der Vorgang wird mit einem Fehler beendet, nachdem die angegebene Anzahl an Zeilen abgelehnt wurde.

rejectlimit: Zahl.

Standardwert: 0

removequotes

Entfernt alle Anführungszeichen um Felder in der Quelldatei.

removequotes: true

Standardwert: False

skipheaders

Gibt an, wie viele Zeilen ab dem Anfang der Datei übersprungen werden sollen.

skipheaders: Zahl.

Standardwert: 0, wenn nicht angegeben. 1, wenn ohne Wert angegeben.

territory

Gibt einen Gebietsnamen an, um die Eigenschaften der Eingabedaten weiter zu bestimmen.

territory: Zeichenfolge

Standardwert: Null

Eine Liste der von Oracle unterstützten Gebiete finden Sie unter Gebietsschemadaten im Handbuch für Oracle Database-Globalisierungsfunktionen.

timestampformat

Gibt das Zeitstempelformat in der Quelldatei an. Die Formatoption AUTO sucht nach den folgenden Formaten:

YYYY-MM-DD HH:MI:SS.FF 
YYYY-MM-DD HH:MI:SS.FF3
YYYY-MM-DD HH24:MI:SS.FF3
MM/DD/YYYY HH:MI:SS.FF3

timestampformat: Zeichenfolge

Standardwert: Datenbank-Zeitstempelformat

Die Zeichenfolge kann Platzhalterzeichen wie "$" enthalten.

timestampltzformat

Gibt das Zeitstempelformat mit lokaler Zeitzone in der Quelldatei an. Die Formatoption AUTO sucht nach den folgenden Formaten:

DD Mon YYYY HH:MI:SS.FF TZR 
MM/DD/YYYY HH:MI:SS.FF TZR 
YYYY-MM-DD HH:MI:SS+/-TZR 
YYYY-MM-DD HH:MI:SS.FF3 
DD.MM.YYYY HH:MI:SS TZR

timestampltzformat: Zeichenfolge

Standardwert: Datenbank-Zeitstempelformat mit lokaler Zeitzone

timestamptzformat

Gibt das Zeitstempelformat mit Zeitzone in der Quelldatei an. Die Formatoption AUTO sucht nach den folgenden Formaten:

DD Mon YYYY HH:MI:SS.FF TZR 
MM/DD/YYYY HH:MI:SS.FF TZR 
YYYY-MM-DD HH:MI:SS+/-TZR 
YYYY-MM-DD HH:MI:SS.FF3 
DD.MM.YYYY HH:MI:SS TZR

timestamptzformat: Zeichenfolge

Standardwert: Datenbank-Zeitstempelformat mit Zeitzone

trimspaces

Gibt an, wie die vor- und nachgestellten Leerzeichen der Felder abgeschnitten werden.

Weitere Informationen finden Sie in der Beschreibung von trim_spec.

trimspaces: rtrim| ltrim| notrim| lrtrim| ldrtrim

Standardwert: notrim

truncatecol

Wenn die Daten in der Datei zu lang für ein Feld sind, wird der Wert des Feldes mit dieser Option abgeschnitten, anstatt dass die Zeile abgelehnt wird.

truncatecol:true

Standardwert: False

type

Gibt den Typ der Quelldatei an.

Siehe Beschreibung von CSV unter field_definitions-Klausel

Wenn type den Wert datapump hat, ist die einzige andere gültige Formatoption rejectlimit.

Wenn type den Wert datapump lautet, werden nur Oracle Cloud Infrastructure Object Storage und Oracle Cloud Infrastructure Object Storage Classic unterstützt.

Die type-Werte avro, orc oder parquet finden Sie unter DBMS_CLOUD-Paketformatoptionen für Avro, ORC oder Parquet.

Für JSON-Daten mit DBMS_CLOUD.COPY_COLLECTION hat type zwei gültige Werte: json (Standard) und ejson. Für DBMS_CLOUD.COPY_COLLECTION geben beide diese Werte an, dass die Eingabe JSON-Daten ist. Der Wert ejson bewirkt, dass erweiterte Objekte in den JSON-Eingangsdaten in skalare JSON-Werte in der nativen binären JSON-Collection übersetzt werden. Der Wert json führt diese Transformation nicht aus, und alle Objekte in den Eingabedaten werden in das binäre JSON-Format konvertiert.

Für JSON-Daten mit DBMS_CLOUD.COPY_DATA hat type einen gültigen Wert: json. Dieser Wert gibt an, dass die Eingabe aus JSON-Daten besteht.

type: csv|csv with embedded|csv without embedded |avro||datapump|orc|parquet

Hinweis

Nicht alle DBMS_CLOUD-Prozeduren unterstützen alle diese Typen.

csv ist mit csv without embedded identisch.

Standardwert: Null

Für JSON-Daten gibt es zwei gültige type-Werte für die Verwendung mit DBMS_CLOUD.COPY_COLLECTION: json|ejson In diesem Fall lautet der Standardwert json. Für JSON-Daten mit DBMS_CLOUD.COPY_DATA ist nur json gültig.

unpackarrays

Nur mit COPY_COLLECTION verwenden

Wenn der Wert auf true gesetzt ist und ein geladenes Dokument ein Array ist, wird der Inhalt des Arrays als Dokumente und nicht als Array selbst geladen. Dies gilt nur für das Array der obersten Ebene.

Wenn dieser Wert auf true gesetzt ist, wird das gesamte Array als ein Dokument eingefügt.

Diese Option ist nur für JSON-Collection-Daten mit DBMS_CLOUD.COPY_COLLECTION gültig.

unpackarrays: true

Standardwert: False