DBMS_CLOUD-Package - Formatoptionen

Das Formatargument in DBMS_CLOUD gibt das Format der Quelldateien an.

Es gibt zwei Möglichkeiten, das Formatargument anzugeben:

format => '{"format_option" : “format_value” }'  

Und:

format => json_object('format_option' value 'format_value'))

Beispiele:

format => json_object('type' VALUE 'CSV')

Um mehrere Formatoptionen anzugeben, trennen Sie die Werte durch ",".

Beispiel:

format => json_object('ignoremissingcolumns' value 'true', 'removequotes' value 'true', 
                           'dateformat' value 'YYYY-MM-DD-HH24-MI-SS', 'blankasnull' value 'true', 'logretention' value 7)
Hinweis

Informationen zu den Optionen für Avro-, ORC- oder Parquet-Format finden Sie unter DBMS_CLOUD Packageformatoptionen für Avro, ORC oder Parquet.

Wie in der Spalte Formatoption angegeben, ist ein begrenztes Set von Formatoptionen mit DBMS_CLOUD.COPY_COLLECTION oder DBMS_CLOUD.COPY_DATA gültig, wenn format type JSON ist.

Formatoption Beschreibung Syntax

access_protocol

Gibt den Typ der Apache Iceberg-Tabelle an, z.B. AWS oder OCI Object Storage, und welche Informationen zum Erstellen der externen Tabelle verwendet werden, z.B. Informationen aus einem Datenkatalog oder einer direkten Metadaten-URI.

Einzelheiten zur access_protocol-Syntax finden Sie unter Prozedur CREATE_EXTERNAL_TABLE für Apache Iceberg.

blankasnull

Wenn diese Option auf true gesetzt ist, werden Felder, die nur Leerzeichen enthalten, als Null geladen.

blankasnull : true

Standardwert: False

characterset

Gültig mit format JSON und COPY_DATA

Gibt den Zeichensatz der Quelldateien an.

characterset: Zeichenfolge

Standardwert: Datenbankzeichensatz

columnpath

Nur mit format JSON und COPY_DATA verwenden

Array von JSON-Pfadausdrücken, die den Feldern entsprechen, die aus den JSON-Datensätzen extrahiert werden müssen. Jeder JSON-Pfadausdruck im Array muss den unter SQL/JSON-Pfadausdrücke beschriebenen Regeln entsprechen.

Nur mit JSON-Format und DBMS_CLOUD.COPY_DATA verwenden.

JSON-Array mit json-Pfadausdrücken im Zeichenfolgenformat. Beispiel: "columnpath"-Wert '["$.WEATHER_STATION_ID", "$.WEATHER_STATION_NAME"]'

compression

Option gültig mit JSON-Daten

Gibt den Komprimierungstyp der Quelldatei an.

ZIP-Archivierungsformat wird nicht unterstützt.

Wenn Sie den Wert auto angeben, wird nach den folgenden Komprimierungstypen gesucht: gzip, zlib, zstd, bzip2.

compression: auto|gzip|zlib|zstd|bzip2

Standardwert: Nullwert bedeutet keine Komprimierung.

conversionerrors

Wenn eine Zeile wegen Datentyp-Konvertierungsfehlern abgelehnt wird, werden die zugehörigen Spalten als Null gespeichert, oder die Zeile wird abgelehnt.

conversionerrors: reject_record | store_null

Standardwert: reject_record

dateformat

Gibt das Datumsformat in der Quelldatei an. Die Formatoption AUTO sucht nach den folgenden Formaten:

J 
MM-DD-YYYYBC 
MM-DD-YYYY 
YYYYMMDD HHMISS 
YYMMDD HHMISS 
YYYY.DDD 
YYYY-MM-DD

dateformat: Zeichenfolge

Standardwert: Datenbankdatumsformat

delimiter

Gibt das Feldbegrenzungszeichen an.

Um ein Sonderzeichen als Trennzeichen zu verwenden, geben Sie den HEX-Wert des ASCII-Codes des Zeichens an. Beispiel: Im Folgenden wird das TAB-Zeichen als Trennzeichen angegeben:

format => json_object('delimiter' value 'X''9''')

delimiter: Zeichen

Standardwert | (Pipe-Zeichen)

detectfieldorder

Gibt an, dass die Felder in den externen Datendateien in einer anderen Reihenfolge sind als die Spalten in der Tabelle. Erkennen Sie die Reihenfolge der Felder mit der ersten Zeile jeder externen Datendatei, und ordnen Sie sie den Spalten der Tabelle zu. Die Feldnamen in externen Datendateien werden ohne Beachtung der Groß-/Kleinschreibung mit den Namen der Tabellenspalten verglichen.

Diese Formatoption gilt für die folgenden Verfahren:

  • DBMS_CLOUD.COPY_DATA

  • DBMS_CLOUD.CREATE_EXTERNAL_TABLE

  • DBMS_CLOUD.CREATE_EXTERNAL_PART_TABLE

  • DBMS_CLOUD.CREATE_HYBRID_PART_TABLE

Einschränkungen für detectfieldorder:

  • Feldnamen in der Datendatei müssen in der ersten Datensatzzeile angezeigt werden und dürfen keine Leerzeichen zwischen den Feldnamen enthalten.

  • Das Feldtrennzeichen im Datensatz für Feldnamen muss mit dem Feldtrennzeichen für die Daten in der Datei identisch sein.

  • Feldnamen in Anführungszeichen werden nicht unterstützt. Die Feldnamen in Datendateien werden ohne Beachtung der Groß-/Kleinschreibung mit den Namen der externen Tabellenspalten verglichen.

  • Eingebettete Feldbegrenzungszeichen sind in den Feldnamen nicht zulässig.

  • Die Anzahl der Spalten in der Tabelle muss mit der Anzahl der Felder in den Datendateien übereinstimmen.

  • Diese Formatoption ist für Bigdata- oder Oracle Data Pump-Formate nicht anwendbar, da diese Formate genaue Spaltenmetadateninformationen im Binärdateiformat enthalten.

    Die Textformate CSV, JSON, Parquet oder XML können von dieser automatischen Erkennung von Feldaufträgen profitieren, wenn die erste Zeile die Feldnamen enthält.

Weitere Informationen finden Sie unter FIELD NAMES und in der Beschreibung für ALL FILES.

detectfieldorder: true

Standardwert: false

enablelogs

Die Formatoption enablelogs wird mit den folgenden DBMS_CLOUD-Prozeduren verwendet:

  • COPY_DATA

  • COPY_COLLECTION

  • EXPORT_DATA

enablelogs gibt einen booleschen Wert an. Wenn dieser Wert auf TRUE gesetzt ist, werden Logs generiert. Wenn dieser Wert auf FALSE gesetzt ist, werden keine Logs generiert.

Beispiel:

format => JSON_OBJECT('enablelogs' value FALSE)

enablelogs: false

Standardwert: true

encryption

Die Formatoption encryption gibt die Verschlüsselungs- und Entschlüsselungsoptionen an, um Daten in und aus dem Objektspeicher zu exportieren und zu importieren.

Verwenden Sie encryption, um die folgenden Parameter zum Verschlüsseln und Entschlüsseln anzugeben:

  • user_defined_function: Gibt eine vollqualifizierte benutzerdefinierte Funktion zum Entschlüsseln oder Verschlüsseln des angegebenen BLOB (Binary Large Object) an. Gibt ein entschlüsseltes oder verschlüsseltes BLOB zurück. user_defined_function schließt sich mit anderen Parametern für encryption gegenseitig aus.

    Beispiel: ADMIN.DECRYPTION_CALLBACK.

  • type: Gibt den Verschlüsselungsalgorithmus DBMS_CRYPTO an, der entschlüsselt oder verschlüsselt werden soll.

    type akzeptiert Werte im Format Block-Cipher-Algorithmen + Block-Cipher-Chaining-Modifikatoren + Block-Cipher-Padding-Modifikatoren.

    Folgende Block-Cipher-Algorithmen werden unterstützt:

    • DBMS_CRYPTO.ENCRYPT_AES256

    Folgende Block Cipher Chaining-Modifikatoren werden unterstützt:

    • DBMS_CRYPTO.CHAIN_CBC

    • DBMS_CRYPTO.CHAIN_CFB

    • DBMS_CRYPTO.CHAIN_ECB

    • DBMS_CRYPTO.CHAIN_OFB

    Unterstützte Block Cipher Padding Modifikatoren sind:

    • DBMS_CRYPTO.PAD_PKCS5

    • DBMS_CRYPTO.PAD_NONE

    • DBMS_CRYPTO.PAD_ZERO

    • DBMS_CRYPTO.PAD_ORCL

  • credential_name: Gibt die Zugangsdaten an, mit denen der Verschlüsselungsschlüssel gespeichert wird.

Die Werte für Block Cipher Chaining Modifiers und Block Cipher Padding Modifiers lauten standardmäßig DBMS_CRYPTO.CHAIN_CBC und DBMS_CRYPTO.PAD_PKCS5, wenn Sie keine Werte für diese Parameter angeben.

Die Formatoption encryption wird mit den folgenden DBMS_CLOUD-Prozeduren verwendet:
  • Wird verwendet, um Parameter zur Entschlüsselung für die folgenden Prozeduren zu übergeben:

    • DBMS_CLOUD.COPY_DATA

    • DBMS_CLOUD.CREATE_EXTERNAL_TABLE

    • DBMS_CLOUD.CREATE_EXTERNAL_PART_TABLE

    • DBMS_CLOUD.CREATE_HYBRID_PART_TABLE

      Für DBMS_CLOUD.CREATE_HYBRID_PART_TABLE gilt diese Option nur für die Object Storage-Dateien.

    • DBMS_CLOUD.COPY_COLLECTION

  • Wird verwendet, um Parameter für die Verschlüsselung für diese Prozedur zu übergeben:

    • DBMS_CLOUD.EXPORT_DATA

Beispiel:

format => JSON_OBJECT('encryption' value json_object ('type' value DBMS_CRYPTO.ENCRYPT_AES256 + DBMS_CRYPTO.CHAIN_CBC + DBMS_CRYPTO.PAD_PKCS5, 'credential_name' value 'ENCRYPTION_CRED'))
encryption:value

Dabei ist Wert eine JSON-Zeichenfolge, die zusätzliche Parameter für die Verschlüsselung bereitstellt:

type: Wert

Gibt den Verschlüsselungstyp an.

credential_name: value

Gibt die Zugangsdaten an, die zum Speichern des Verschlüsselungsschlüssels verwendet werden.

user_defined_function: value

Gibt eine vollqualifizierte benutzerdefinierte Funktion zum Entschlüsseln oder Verschlüsseln des angegebenen BLOB (Binary Large Object) an.

endquote

Daten können zwischen zwei Begrenzungszeichen eingeschlossen werden, die mit quote und endquote angegeben werden. Die Zeichen quote und endquote werden beim Laden entfernt, wenn angegeben.

Beispiel:

format => JSON_OBJECT(‘quote’ value ‘(’, ‘endquote’ value ‘)’)

endquote:character

Standardwert: Null, d.h. keine endquote.

escape

Das Zeichen "\" wird als Escapezeichen verwendet, sofern angegeben.

escape : true

Standardwert: false

ignoreblanklines

Option gültig mit JSON-Daten

Leere Zeilen werden ignoriert, wenn diese Option auf "true" gesetzt ist.

ignoreblanklines : true

Standardwert: False

ignoremissingcolumns

Wenn die field_list mehr Spalten als die Quelldateien enthält, werden die zusätzlichen Spalten als Null gespeichert.

ignoremissingcolumns : true

Standardwert False

implicit_partition_columns

Aktivieren Sie die implizite Partitionierung, und geben Sie die Namen der Partitionsspalten mit der Formatoption implicit_partition_columns und DBMS_CLOUD.CREATE_EXTERNAL_TABLE an.

Implizite Partitionierung wird wie folgt aktiviert:

  • Geben Sie mit implicit_partition_columns eine Liste der Partitionsspalten an, und geben Sie implicit_partition_type an. Beispiel:
    format => '{"implicit_partition_type":"hive",
          "implicit_partition_columns":["country","year","month"]}'
  • Verwenden Sie implicit_partition_columns, um eine Liste der Partitionsspalten anzugeben, ohne den Partitionstyp anzugeben. Der Partitionstyp wird automatisch als "hive" oder "non-hive" erkannt. Beispiel:
    format => '{"implicit_partition_columns":["country","year","month"]}'
  • Verwenden Sie implicit_partition_type, um den Typ der Partitionsspalten anzugeben, ohne eine Liste der Partitionsspalten anzugeben. Die automatische Erkennung der Partitionsschlüssel in HIVE-partitionierten Daten wird ausgelöst, um Spaltennamen zu bestimmen. Beispiel:
    format => '{"partition_type":"hive"}'

Eine Beschreibung und Syntax der Optionen finden Sie unter implicit_partition_type.

implicit_partition_columns : Zeichenfolgenarray

Standardwert: Wenn implicit_partition_type angegeben ist, werden die Spaltennamen durch die automatische Erkennung der Partitionsschlüssel in HIVE-partitionierten Daten abgeleitet. Andernfalls ist der Standardwert Null, und die implizite Partitionierung ist nicht aktiviert.

implicit_partition_type

Aktivieren Sie die implizite Partitionierung, und geben Sie die Datentypen von Partitionsspalten mit der Formatoption implicit_partition_type und DBMS_CLOUD.CREATE_EXTERNAL_TABLE an.

Weitere Informationen zum Aktivieren der impliziten Partitionierung und Beispiele finden Sie unter implicit_partition_columns.

implicit_partition_type : Bienenstock

Standardwert: Wenn implicit_partition_columns angegeben ist, wird der Typ automatisch als "hive" oder "non-hive" erkannt. Andernfalls ist der Standardwert Null, und die implizite Partitionierung ist nicht aktiviert.

jsonpath

Nur mit COPY_COLLECTION verwenden

JSON-Pfad zur Identifizierung des zu ladenden Dokuments.

Diese Option ist nur für JSON-Collection-Daten mit DBMS_CLOUD.COPY_COLLECTION gültig.

jsonpath: Zeichenfolge

Standardwert: Null

keyassignment

Nur mit COPY_COLLECTION verwenden

Gibt an, ob eine neue Collection als mongokompatible Collection oder als SODA-Collection erstellt wird.

Wenn der Wert auf embedded_oid gesetzt ist, wird eine neue Collection als mongokompatible Collection erstellt.

Standardmäßig ist dieser Parameter nicht festgelegt, d.h. eine neue Collection wird als SODA-Collection erstellt.

keyassignment: embedded_oid

Standard: keyassignment ist nicht festgelegt

keypath

Nur mit COPY_COLLECTION verwenden

Gibt ein Attribut in den Daten an, das als Wert '_id' geladen werden soll.

Wenn keypath angegeben ist, müssen Sie auch den Wert keyassignment als embedded_oid angeben.

Setzen Sie den Wert auf einen Pfad, z.B. '$.mykey', um den Wert des Pfads als '_id'-Wert auszuwählen.

Dieser Parameter ist optional und nur zum Laden in mongokompatible Collections gültig.

Wenn keine Angabe gemacht wird, generiert Oracle eine eindeutige 12-Byte-System-ID und füllt diese als '_id'-Attribut auf, wenn in den geladenen Daten noch kein '_id'-Attribut vorhanden ist.

keypath: string

Standard: keypath ist nicht festgelegt.

Wenn keypath festgelegt ist, lautet der Standardwert für Zeichenfolge NULL.

language

Gibt einen Sprachennamen an (z.B. FRENCH), von dem gebietsschemaabhängige Informationen abgeleitet werden können.

language: Zeichenfolge

Standardwert: Null

Eine Liste der von Oracle unterstützten Sprachen finden Sie unter Gebietsschemadaten im Handbuch für Oracle Database-Globalisierungsfunktionen.

logdir

Gibt einen Zeichenfolgenwert an, der den Verzeichnisobjektnamen bestimmt, in dem die Dateien logfile_table oder badfile_table gespeichert werden.

Standardmäßig wird bei logdir nicht zwischen Groß- und Kleinschreibung unterschieden. Die Groß-/Kleinschreibung wird jedoch reserviert, wenn der angegebene Wert in doppelte Anführungszeichen eingeschlossen wird.

Beispiel:

format => JSON_OBJECT ('logdir' value 'test_log')

Mit der im obigen Beispiel angegebenen Formatoption logdir werden die Dateien logfile_table oder badfile_table im Verzeichnisobjekt TEST_LOG gespeichert.

format => JSON_OBJECT ('logdir' value '"test_log"')

Mit der im obigen Beispiel angegebenen Formatoption logdir werden die Dateien logfile_table oder badfile_table im Verzeichnisobjekt test_log gespeichert.

logdir: Zeichenfolge

Standardwert: DATA_PUMP_DIR

logprefix

Gibt einen Zeichenfolgenwert an, der das Präfix für die Dateien logfile_table und badfile_table bestimmt.

Das Namensformat der Logtabelle lautet: logprefix$operation_id

Standardmäßig ist das logprefix in Großbuchstaben angegeben. Die Groß-/Kleinschreibung wird jedoch reserviert, wenn der angegebene Wert in doppelte Anführungszeichen eingeschlossen ist.

Beispiel:

format => JSON_OBJECT ('logprefix' value 'TEST')

Logdateien verwenden dann das Präfix TEST. Beispiel: TEST$2_LOG und TEST$2_BAD.

logprefix: Zeichenfolge

Standardwert: COPY

logretention

Gibt eine positive Ganzzahldauer in Tagen an, für die die Dateien logfile_table und badfile_table beibehalten werden.

Gültige Werte: 0 bis 99999

Beispiel:

format => JSON_OBJECT ('logretention' value 7)

logretention: Zahl

Standardwert: 2

maxdocsize

Diese Option ist nur bei JSON-Daten gültig

Maximale Größe von JSON-Dokumenten.

maxdocsize: Zahl

Standardwert: 1 Megabyte

Maximal zulässiger Wert: 2 Gigabyte

numericcharacters

Gibt die Zeichen an, die als Gruppentrennzeichen und Dezimalzeichen verwendet werden sollen.

decimal_character: Das Dezimalzeichen trennt den ganzzahligen Teil einer Zahl vom Dezimalteil.

group_separator: Das Gruppentrennzeichen trennt Ganzzahlgruppen (d.h. Tausende, Millionen, Milliarden usw.).

numericcharacters: 'decimal_character group_separator'

Standardwert: ".,"

Weitere Informationen finden Sie unter NLS_NUMERIC_CHARACTERS im Handbuch für Oracle Database-Globalisierungsfunktionen.

numberformat

Gibt das Modell für das Zahlenformat an. Mit Zahlenformatmodellen wird die Zahl auf die angegebene Anzahl signifikanter Ziffern gerundet. Ein Zahlenformatmodell besteht aus mindestens einem Zahlenformatelement.

Wird in Kombination mit numericcharacters verwendet.

numberformat: number_format_model

Standardwert: wird von der Einstellung des Parameters NLS_TERRITORY abgeleitet

Weitere Informationen finden Sie unter Zahlenformatmodelle in der SQL-Sprachreferenz.

partition_columns

Die Formatoption partition_columns wird mit DBMS_CLOUD.CREATE_EXTERNAL_PART_TABLE verwendet, um die Spaltennamen und Datentypen von Partitionsspalten anzugeben, wenn die Partitionsspalten vom Dateipfad abgeleitet werden, je nach Typ der Datendatei, strukturiert oder unstrukturiert:

  • Wenn die DBMS_CLOUD.CREATE_EXTERNAL_PART_TABLE den Parameter column_list enthält und die Datendatei unstrukturiert ist, z.B. bei CSV-Textdateien, enthält partition_columns den Datentyp nicht. Beispiel: Verwenden Sie ein Format wie das Folgende für diesen Typ von partition_columns-Spezifikation:

    '"partition_columns":["state","zipcode"]'

    Der Datentyp ist nicht erforderlich, da er im Parameter DBMS_CLOUD.CREATE_EXTERNAL_PART_TABLE column_list angegeben ist.

  • Wenn DBMS_CLOUD.CREATE_EXTERNAL_PART_TABLE den Parameter column_list nicht enthält und die Datendateien strukturiert sind, wie z.B. Avro-, ORC- oder Parquet-Dateien, enthält die Option partition_columns den Datentyp. Beispiel: Im Folgenden wird eine partition_columns-Spezifikation dargestellt:

    '"partition_columns":[
                   {"name":"country", "type":"varchar2(10)"},
                   {"name":"year", "type":"number"},
                   {"name":"month", "type":"varchar2(10)"}]'

Wenn die Datendateien unstrukturiert sind und die Unterklausel type mit partition_columns angegeben wird, wird die Unterklausel type ignoriert.

Bei Objektnamen, die nicht auf dem Hive-Format basieren, muss die Reihenfolge der angegebenen partition_columns-Spalten mit der Reihenfolge übereinstimmen, wie sie im Objektnamen in der file_uri_list angezeigt werden.

 

quote

Gibt das Anführungszeichen für die Felder ein. Die quote-Zeichen werden beim Laden entfernt, sofern angegeben.

quote: Zeichen

Standardwert: Null bedeutet kein Anführungszeichen

recorddelimiter

Option gültig mit JSON-Daten

Gibt das Datensatz-Begrenzungszeichen an.

Standardmäßig versucht DBMS_CLOUD, das richtige Zeilenvorschubzeichen automatisch als Trennzeichen zu ermitteln. Zuerst wird die Datei nach dem Windows-Zeilenvorschubzeichen "\r\n" durchsucht. Wird das Windows-Zeilenvorschubzeichen ermittelt, wird es als Datensatz-Begrenzungszeichen für alle Dateien in der Prozedur verwendet. Wenn kein Windows-Zeilenvorschubwort gefunden wird, wird nach dem UNIX/Linux-Zeilenvorschubzeichen "\n" gesucht. Wenn dieser Vorgang erfolgreich ist, wird "\n" als Datensatz-Begrenzungszeichen für alle Dateien in der Prozedur verwendet.

Geben Sie dieses Argument explizit ein, wenn Sie das Standardverhalten außer Kraft setzen möchten. Beispiel:

format => json_object('recorddelimiter' VALUE '''\r\n''')

Um anzugeben, dass kein Datensatzbegrenzungszeichen vorhanden ist, können Sie ein recorddelimiter angeben, das nicht in der Eingabedatei vorkommt. Beispiel: Um anzugeben, dass kein Begrenzungszeichen vorhanden ist, geben Sie das Steuerzeichen 0x01 (SOH) als Wert für recorddelimiter an, und setzen Sie den Wert recorddelimiter auf "0x''01''" (dieses Zeichen tritt nicht in JSON-Text auf). Beispiel:

format => '{"recorddelimiter" : "0x''01''"}'

Die recorddelimiter wird einmal pro Prozeduraufruf festgelegt. Wenn Sie den Standardwert detected newline verwenden, verwenden alle Dateien dasselbe Datensatzbegrenzungszeichen, sofern eines erkannt wird.

recorddelimiter: Zeichen

Standardwert: newline erkannt

regexuri

Die Formatoption regexuri wird mit den folgenden DBMS_CLOUD-Prozeduren verwendet:

  • COPY_COLLECTION

  • COPY_DATA

  • CREATE_EXTERNAL_TABLE

  • CREATE_EXTERNAL_PART_TABLE

  • CREATE_HYBRID_PART_TABLE

Wenn der Wert von regexuri auf TRUE gesetzt ist, können Sie Platzhalter sowie reguläre Ausdrücke in den Dateinamen in Cloud-Quelldatei-URIs verwenden.

Die Zeichen "*" und "?" gelten als Platzhalterzeichen, wenn der Parameter regexuri auf FALSE gesetzt ist. Wenn der Parameter regexuri auf TRUE gesetzt ist, sind die Zeichen "*" und "?" Teil des angegebenen regulären Ausdrucksmusters.

Muster regulärer Ausdrücke werden nur für den Dateinamen oder Unterordnerpfad in Ihren URIs unterstützt, und der Musterabgleich ist mit dem Musterabgleich identisch, der von der Funktion REGEXP_LIKE ausgeführt wird. Reguläre Ausdrucksmuster werden für Verzeichnisnamen nicht unterstützt.

Bei externen Tabellen wird diese Option nur bei Tabellen unterstützt, die in einer Datei im Object Storage erstellt werden.

Beispiel:

format => JSON_OBJECT('regexuri' value TRUE)

Weitere Informationen zur Bedingung REGEXP_LIKE finden Sie unter REGEXP_LIKE-Bedingung.

regexuri: True

Standardwert: False

rejectlimit

Der Vorgang wird mit einem Fehler beendet, nachdem die angegebene Anzahl an Zeilen abgelehnt wurde.

rejectlimit: Zahl

Standardwert: 0

removequotes

Entfernt alle Anführungszeichen um Felder in der Quelldatei.

removequotes: true

Standardwert: False

skipheaders

Gibt an, wie viele Zeilen ab dem Anfang der Datei übersprungen werden sollen.

skipheaders: Zahl

Standardwert: 0, wenn nicht angegeben, 1, wenn ohne Wert angegeben

territory

Gibt einen Gebietsnamen an, um die Eigenschaften der Eingabedaten weiter zu bestimmen.

territory: Zeichenfolge

Standardwert: Null

Eine Liste der von Oracle unterstützten Gebiete finden Sie unter Gebietsschemadaten im Handbuch für Oracle Database-Globalisierungsfunktionen.

timestampformat

Gibt das Zeitstempelformat in der Quelldatei an. Die Formatoption AUTO sucht nach den folgenden Formaten:

YYYY-MM-DD HH:MI:SS.FF 
YYYY-MM-DD HH:MI:SS.FF3
YYYY-MM-DD HH24:MI:SS.FF3
MM/DD/YYYY HH:MI:SS.FF3

timestampformat: Zeichenfolge

Standardwert: Datenbankzeitstempelformat

Die Zeichenfolge kann Platzhalterzeichen wie "$" enthalten.

timestampltzformat

Gibt das Zeitstempelformat mit lokaler Zeitzone in der Quelldatei an. Die Formatoption AUTO sucht nach den folgenden Formaten:

DD Mon YYYY HH:MI:SS.FF TZR 
MM/DD/YYYY HH:MI:SS.FF TZR 
YYYY-MM-DD HH:MI:SS+/-TZR 
YYYY-MM-DD HH:MI:SS.FF3 
DD.MM.YYYY HH:MI:SS TZR

timestampltzformat: Zeichenfolge

Standardwert: Datenbank-Zeitstempelformat mit lokaler Zeitzone

timestamptzformat

Gibt das Zeitstempelformat mit Zeitzone in der Quelldatei an. Die Formatoption AUTO sucht nach den folgenden Formaten:

DD Mon YYYY HH:MI:SS.FF TZR 
MM/DD/YYYY HH:MI:SS.FF TZR 
YYYY-MM-DD HH:MI:SS+/-TZR 
YYYY-MM-DD HH:MI:SS.FF3 
DD.MM.YYYY HH:MI:SS TZR

timestamptzformat: Zeichenfolge

Standardwert: Datenbank-Zeitstempelformat mit Zeitzone

trimspaces

Gibt an, wie die vor- und nachgestellten Leerzeichen der Felder abgeschnitten werden.

Siehe die Beschreibung von trim_spec.

trimspaces: rtrim| ltrim| notrim| lrtrim| ldrtrim

Standardwert: notrim

truncatecol

Wenn die Daten in der Datei zu lang für ein Feld sind, wird der Wert des Feldes mit dieser Option abgeschnitten, anstatt dass die Zeile abgelehnt wird.

truncatecol:true

Standardwert: False

type

Gibt den Typ der Quelldatei an.

Weitere Informationen finden Sie in der Beschreibung von CSV unter field_definitions-Klausel

Wenn type datapump ist, ist die einzige andere gültige Formatoption rejectlimit.

Wenn type datapump ist, werden nur Oracle Cloud Infrastructure Object Storage und Oracle Cloud Infrastructure Object Storage Classic als Objektspeicher unterstützt.

Informationen zu den type-Werten avro, orc oder parquet finden Sie unter DBMS_CLOUD Package Format Options for Avro, ORC, or Parquet.

Für JSON-Daten mit DBMS_CLOUD.COPY_COLLECTION hat type zwei gültige Werte: json (Standard) und ejson. Für DBMS_CLOUD.COPY_COLLECTION geben diese Werte an, dass es sich bei der Eingabe um JSON-Daten handelt. Der Wert ejson bewirkt, dass erweiterte Objekte in den textuellen JSON-Eingabedaten in skalare JSON-Werte in der nativen binären JSON-Sammlung übersetzt werden. Der Wert json führt diese Transformation nicht aus, und alle Objekte in den Eingabedaten werden in ein binäres JSON-Format konvertiert.

Für JSON-Daten mit DBMS_CLOUD.COPY_DATA hat type einen gültigen Wert: json. Dieser Wert gibt an, dass es sich bei der Eingabe um JSON-Daten handelt.

type: csv|csv with embedded|csv without embedded |avro||datapump|orc|parquet

Hinweis

Nicht alle DBMS_CLOUD-Prozeduren unterstützen alle diese Typen.

csv ist mit csv without embedded identisch.

Standardwert: Null

Für JSON-Daten gibt es zwei gültige type-Werte für die Verwendung mit DBMS_CLOUD.COPY_COLLECTION: json|ejson In diesem Fall ist der Standardwert json. Bei JSON-Daten mit DBMS_CLOUD.COPY_DATA ist nur json gültig.

unpackarrays

Nur mit COPY_COLLECTION verwenden

Wenn dies auf true gesetzt ist und ein geladenes Dokument ein Array ist, werden die Inhalte des Arrays als Dokumente und nicht als Array selbst geladen. Dies gilt nur für das Array der obersten Ebene.

Wenn dieser Wert auf true gesetzt ist, wird das gesamte Array als einzelnes Dokument eingefügt.

Diese Option ist nur für JSON-Collection-Daten mit DBMS_CLOUD.COPY_COLLECTION gültig.

unpackarrays: true

Standardwert: False