access_protocol
|
Gibt den Typ der Apache Iceberg-Tabelle an, z.B. AWS oder OCI Object Storage, und welche Informationen zum Erstellen der externen Tabelle verwendet werden, z.B. Informationen aus einem Datenkatalog oder einer direkten Metadaten-URI.
|
Einzelheiten zur access_protocol -Syntax finden Sie unter Prozedur CREATE_EXTERNAL_TABLE für Apache Iceberg.
|
blankasnull
|
Wenn diese Option auf true gesetzt ist, werden Felder, die nur Leerzeichen enthalten, als Null geladen.
|
blankasnull : true
Standardwert: False
|
characterset
Gültig mit format JSON und COPY_DATA
|
Gibt den Zeichensatz der Quelldateien an.
|
characterset : Zeichenfolge
Standardwert: Datenbankzeichensatz
|
columnpath
Nur mit format JSON und COPY_DATA verwenden
|
Array von JSON-Pfadausdrücken, die den Feldern entsprechen, die aus den JSON-Datensätzen extrahiert werden müssen. Jeder JSON-Pfadausdruck im Array muss den unter SQL/JSON-Pfadausdrücke beschriebenen Regeln entsprechen.
Nur mit JSON-Format und DBMS_CLOUD.COPY_DATA verwenden.
|
JSON-Array mit json-Pfadausdrücken im Zeichenfolgenformat. Beispiel: "columnpath"-Wert '["$.WEATHER_STATION_ID", "$.WEATHER_STATION_NAME"]'
|
compression
Option gültig mit JSON-Daten
|
Gibt den Komprimierungstyp der Quelldatei an.
ZIP-Archivierungsformat wird nicht unterstützt.
Wenn Sie den Wert auto angeben, wird nach den folgenden Komprimierungstypen gesucht: gzip, zlib, zstd, bzip2 .
|
compression : auto|gzip|zlib|zstd|bzip2
Standardwert: Nullwert bedeutet keine Komprimierung.
|
conversionerrors
|
Wenn eine Zeile wegen Datentyp-Konvertierungsfehlern abgelehnt wird, werden die zugehörigen Spalten als Null gespeichert, oder die Zeile wird abgelehnt.
|
conversionerrors : reject_record | store_null
Standardwert: reject_record
|
dateformat
|
Gibt das Datumsformat in der Quelldatei an. Die Formatoption AUTO sucht nach den folgenden Formaten:
J
MM-DD-YYYYBC
MM-DD-YYYY
YYYYMMDD HHMISS
YYMMDD HHMISS
YYYY.DDD
YYYY-MM-DD
|
dateformat : Zeichenfolge
Standardwert: Datenbankdatumsformat
|
delimiter
|
Gibt das Feldbegrenzungszeichen an.
Um ein Sonderzeichen als Trennzeichen zu verwenden, geben Sie den HEX-Wert des ASCII-Codes des Zeichens an. Beispiel: Im Folgenden wird das TAB-Zeichen als Trennzeichen angegeben:
format => json_object('delimiter' value 'X''9''')
|
delimiter : Zeichen
Standardwert | (Pipe-Zeichen)
|
detectfieldorder
|
Gibt an, dass die Felder in den externen Datendateien in einer anderen Reihenfolge sind als die Spalten in der Tabelle. Erkennen Sie die Reihenfolge der Felder mit der ersten Zeile jeder externen Datendatei, und ordnen Sie sie den Spalten der Tabelle zu. Die Feldnamen in externen Datendateien werden ohne Beachtung der Groß-/Kleinschreibung mit den Namen der Tabellenspalten verglichen.
Diese Formatoption gilt für die folgenden Verfahren:
-
DBMS_CLOUD.COPY_DATA
-
DBMS_CLOUD.CREATE_EXTERNAL_TABLE
-
DBMS_CLOUD.CREATE_EXTERNAL_PART_TABLE
-
DBMS_CLOUD.CREATE_HYBRID_PART_TABLE
Einschränkungen für detectfieldorder :
-
Feldnamen in der Datendatei müssen in der ersten Datensatzzeile angezeigt werden und dürfen keine Leerzeichen zwischen den Feldnamen enthalten.
-
Das Feldtrennzeichen im Datensatz für Feldnamen muss mit dem Feldtrennzeichen für die Daten in der Datei identisch sein.
-
Feldnamen in Anführungszeichen werden nicht unterstützt. Die Feldnamen in Datendateien werden ohne Beachtung der Groß-/Kleinschreibung mit den Namen der externen Tabellenspalten verglichen.
-
Eingebettete Feldbegrenzungszeichen sind in den Feldnamen nicht zulässig.
-
Die Anzahl der Spalten in der Tabelle muss mit der Anzahl der Felder in den Datendateien übereinstimmen.
-
Diese Formatoption ist für Bigdata- oder Oracle Data Pump-Formate nicht anwendbar, da diese Formate genaue Spaltenmetadateninformationen im Binärdateiformat enthalten.
Die Textformate CSV, JSON, Parquet oder XML können von dieser automatischen Erkennung von Feldaufträgen profitieren, wenn die erste Zeile die Feldnamen enthält.
Weitere Informationen finden Sie unter FIELD NAMES und in der Beschreibung für ALL FILES .
|
detectfieldorder : true
Standardwert: false
|
enablelogs
|
Die Formatoption enablelogs wird mit den folgenden DBMS_CLOUD -Prozeduren verwendet:
-
COPY_DATA
-
COPY_COLLECTION
-
EXPORT_DATA
enablelogs gibt einen booleschen Wert an. Wenn dieser Wert auf TRUE gesetzt ist, werden Logs generiert. Wenn dieser Wert auf FALSE gesetzt ist, werden keine Logs generiert.
Beispiel: format => JSON_OBJECT('enablelogs' value FALSE) |
enablelogs : false
Standardwert: true
|
encryption
|
Die Formatoption encryption gibt die Verschlüsselungs- und Entschlüsselungsoptionen an, um Daten in und aus dem Objektspeicher zu exportieren und zu importieren.
Verwenden Sie encryption , um die folgenden Parameter zum Verschlüsseln und Entschlüsseln anzugeben:
-
user_defined_function : Gibt eine vollqualifizierte benutzerdefinierte Funktion zum Entschlüsseln oder Verschlüsseln des angegebenen BLOB (Binary Large Object) an. Gibt ein entschlüsseltes oder verschlüsseltes BLOB zurück. user_defined_function schließt sich mit anderen Parametern für encryption gegenseitig aus.
Beispiel: ADMIN.DECRYPTION_CALLBACK .
-
type : Gibt den Verschlüsselungsalgorithmus DBMS_CRYPTO an, der entschlüsselt oder verschlüsselt werden soll.
type akzeptiert Werte im Format Block-Cipher-Algorithmen + Block-Cipher-Chaining-Modifikatoren + Block-Cipher-Padding-Modifikatoren.
Folgende Block-Cipher-Algorithmen werden unterstützt:
Folgende Block Cipher Chaining-Modifikatoren werden unterstützt:
-
DBMS_CRYPTO.CHAIN_CBC
-
DBMS_CRYPTO.CHAIN_CFB
-
DBMS_CRYPTO.CHAIN_ECB
-
DBMS_CRYPTO.CHAIN_OFB
Unterstützte Block Cipher Padding Modifikatoren sind:
-
DBMS_CRYPTO.PAD_PKCS5
-
DBMS_CRYPTO.PAD_NONE
-
DBMS_CRYPTO.PAD_ZERO
-
DBMS_CRYPTO.PAD_ORCL
Die Werte für Block Cipher Chaining Modifiers und Block Cipher Padding Modifiers lauten standardmäßig DBMS_CRYPTO.CHAIN_CBC und DBMS_CRYPTO.PAD_PKCS5 , wenn Sie keine Werte für diese Parameter angeben.
Die Formatoption encryption wird mit den folgenden DBMS_CLOUD -Prozeduren verwendet:
-
Wird verwendet, um Parameter zur Entschlüsselung für die folgenden Prozeduren zu übergeben:
-
DBMS_CLOUD.COPY_DATA
-
DBMS_CLOUD.CREATE_EXTERNAL_TABLE
-
DBMS_CLOUD.CREATE_EXTERNAL_PART_TABLE
-
DBMS_CLOUD.CREATE_HYBRID_PART_TABLE
Für DBMS_CLOUD.CREATE_HYBRID_PART_TABLE gilt diese Option nur für die Object Storage-Dateien.
-
DBMS_CLOUD.COPY_COLLECTION
-
Wird verwendet, um Parameter für die Verschlüsselung für diese Prozedur zu übergeben:
Beispiel: format => JSON_OBJECT('encryption' value json_object ('type' value DBMS_CRYPTO.ENCRYPT_AES256 + DBMS_CRYPTO.CHAIN_CBC + DBMS_CRYPTO.PAD_PKCS5, 'credential_name' value 'ENCRYPTION_CRED')) |
encryption:value Dabei ist Wert eine JSON-Zeichenfolge, die zusätzliche Parameter für die Verschlüsselung bereitstellt:
type : Wert
Gibt den Verschlüsselungstyp an.
credential_name : value
Gibt die Zugangsdaten an, die zum Speichern des Verschlüsselungsschlüssels verwendet werden. user_defined_function: value Gibt eine vollqualifizierte benutzerdefinierte Funktion zum Entschlüsseln oder Verschlüsseln des angegebenen BLOB (Binary Large Object) an.
|
endquote
|
Daten können zwischen zwei Begrenzungszeichen eingeschlossen werden, die mit quote und endquote angegeben werden. Die Zeichen quote und endquote werden beim Laden entfernt, wenn angegeben.
Beispiel: format => JSON_OBJECT(‘quote’ value ‘(’, ‘endquote’ value ‘)’) |
endquote :character
Standardwert: Null, d.h. keine endquote .
|
escape
|
Das Zeichen "\" wird als Escapezeichen verwendet, sofern angegeben.
|
escape : true
Standardwert: false
|
field_list
|
Gibt die Felder in den Quelldateien und deren Datentypen an. Der Standardwert ist NULL, d.h. die Felder und ihre Datentypen werden durch den Parameter column_list bestimmt. Weitere Informationen finden Sie unter field_list in Oracle Database 19c Utilities oder Oracle AI Database 26ai Utilities.
|
Standardwert: NULL
|
ignoreblanklines
Option gültig mit JSON-Daten
|
Leere Zeilen werden ignoriert, wenn diese Option auf "true" gesetzt ist.
|
ignoreblanklines : true
Standardwert: False
|
ignoremissingcolumns
|
Wenn die field_list mehr Spalten als die Quelldateien enthält, werden die zusätzlichen Spalten als Null gespeichert.
|
ignoremissingcolumns : true
Standardwert False
|
implicit_partition_config
|
Die Option implicit_partition_config aktiviert die implizite Partitionierung, wenn partition_type auf "hive" gesetzt ist. Die implizite Partitionsoptimierung ist aktiviert, wenn strict_column_order auf "true" gesetzt ist.
Die Kriterien für die Verwendung dieser Optimierung umfassen:
- Es sind keine Dateien mit vollständigen Pfaden mit zusätzlichen Zeichenfolgen vor der Datei-URI und zwischen dem Pfad des Partitionsspaltennamens vorhanden.
- Beispiel: Sie können keine Dateien wie
https://swiftobjectstorage.us-phoenix-1.oraclecloud.com/n/oraclebigdatadb/b/test-partitions/xyz/.. oder https://swiftobjectstorage.us-phoenix-1.oraclecloud.com/n/oraclebigdatadb/b/test-partitions/tenant=tenant_01/xyz/dbtype=dbtype_01/year=.. haben. Der xyz-Code stellt zusätzliche Zeichenfolgen dar. Diese Dateien werden übersprungen, wenn die Listenoptimierung angegeben ist und das Prädikat die impliziten Partitionsspalten nach diesen zusätzlichen Zeichenfolgen enthält.
- Die Reihenfolge der Partitionsspalten in der Spezifikation muss mit den tatsächlichen Dateipfaden übereinstimmen, und die Dateipfade müssen alle Spalten in
partition_columns enthalten.
- Beispiel: Sie können keine Dateien wie
https://swiftobjectstorage.us-phoenix-1.oraclecloud.com/n/oraclebigdatadb/b/test-partitions/year=2023/month=01/tenant=tenant_01/dbtype=... haben. Sie ist nicht in der korrekten Reihenfolge der implicit_columns -Spezifikation. Diese Dateien werden übersprungen, wenn die Listenspezifikation angegeben ist und die Prädikate die Out-of-Order-Spalten enthalten (Beispiel: tenant='tenant_01' und dbtype='dbtype_1' und year='2023' und ..)
- Dateien wie
https://swiftobjectstorage.us-phoenix-1.oraclecloud.com/n/oraclebigdatadb/b/test-partitions/tenant=tenant_01/year=2023/month=01/day=01/myfile.csv sind nicht zulässig. Beachten Sie, dass dbtype hier fehlt. Wenn die Optimierung aktiviert ist, werden diese Dateien übersprungen, oder die Abfrage erhält je nach den angegebenen Prädikaten eine Fehlermeldung.
- Die Dateipfade müssen die Partitionierungsbenennung im Hive-Stil verwenden.
Unteroptionen für die Formatoption implicit_partition_config :
partition_type : "hive" ist der einzige akzeptierte Wert. Der Standardwert ist der Pfad des Nicht-Hive-Dateinamens.
partition_columns : ["column1","column2",…]
strict_column_order : false (Standard), true
Beispiel: dbms_cloud.create_external_table (
table_name => 'partitions1',
credential_name => 'MY_CRED',
file_uri_list => 'https://swiftobjectstorage.us-phoenix-1.oraclecloud.com/n/oraclebigdatadb/b/test-partitions/',
column_list => 'payload varchar2(100), y number, total_sales number, tenant varchar2(10), dbtype varchar(10), year varchar(4), month varchar(2) day varchar(2)',
format => '{"type":"parquet",
"implicit_partition_config":{
"partition_type":"hive",
"strict_column_order":true,
"partition_columns":["tenant","dbtype","year","month","day"] } }');
|
implicit_partition_config enthält die folgenden Unteroptionen:
-
partition_type: hive
Der Standardwert ist der Pfad des Nicht-Hive-Dateinamens. Der einzige gültige Wert ist hive .
-
partition_columns : Zeichenfolgenarray
Standardwert: Wenn partition_type angegeben ist, werden die Spaltennamen durch die automatische Erkennung der Partitionsschlüssel in HIVE-partitionierten Daten abgeleitet. Andernfalls ist der Standardwert Null, und die implizite Partitionierung ist nicht aktiviert.
-
strict_column_order: true
Standardwert: false
|
implicit_partition_columns
|
Aktivieren Sie die implizite Partitionierung, und geben Sie die Namen der Partitionsspalten mit der Formatoption implicit_partition_columns und DBMS_CLOUD.CREATE_EXTERNAL_TABLE an.
Implizite Partitionierung wird wie folgt aktiviert:
-
Geben Sie mit implicit_partition_columns eine Liste der Partitionsspalten an, und geben Sie implicit_partition_type an. Beispiel: format => '{"implicit_partition_type":"hive",
"implicit_partition_columns":["country","year","month"]}'
-
Verwenden Sie implicit_partition_columns , um eine Liste der Partitionsspalten anzugeben, ohne den Partitionstyp anzugeben. Der Partitionstyp wird automatisch als "hive" oder "non-hive" erkannt. Beispiel: format => '{"implicit_partition_columns":["country","year","month"]}'
-
Verwenden Sie implicit_partition_type , um den Typ der Partitionsspalten anzugeben, ohne eine Liste der Partitionsspalten anzugeben. Die automatische Erkennung der Partitionsschlüssel in HIVE-partitionierten Daten wird ausgelöst, um Spaltennamen zu bestimmen. Beispiel: format => '{"partition_type":"hive"}'
Eine Beschreibung und Syntax der Optionen finden Sie unter implicit_partition_type .
|
implicit_partition_columns : Zeichenfolgenarray
Standardwert: Wenn implicit_partition_type angegeben ist, werden die Spaltennamen durch die automatische Erkennung der Partitionsschlüssel in HIVE-partitionierten Daten abgeleitet. Andernfalls ist der Standardwert Null, und die implizite Partitionierung ist nicht aktiviert.
|
implicit_partition_type
|
Aktivieren Sie die implizite Partitionierung, und geben Sie die Datentypen von Partitionsspalten mit der Formatoption implicit_partition_type und DBMS_CLOUD.CREATE_EXTERNAL_TABLE an.
Weitere Informationen zum Aktivieren der impliziten Partitionierung und Beispiele finden Sie unter implicit_partition_columns .
|
implicit_partition_type : Bienenstock
Standardwert: Wenn implicit_partition_columns angegeben ist, wird der Typ automatisch als "hive" oder "non-hive" erkannt. Andernfalls ist der Standardwert Null, und die implizite Partitionierung ist nicht aktiviert.
|
jsonpath
Nur mit COPY_COLLECTION verwenden
|
JSON-Pfad zur Identifizierung des zu ladenden Dokuments.
Diese Option ist nur für JSON-Collection-Daten mit DBMS_CLOUD.COPY_COLLECTION gültig.
|
jsonpath : Zeichenfolge
Standardwert: Null
|
keyassignment Nur mit COPY_COLLECTION verwenden
|
Gibt an, ob eine neue Collection als mongokompatible Collection oder als SODA-Collection erstellt wird.
Wenn der Wert auf embedded_oid gesetzt ist, wird eine neue Collection als mongokompatible Collection erstellt.
Standardmäßig ist dieser Parameter nicht festgelegt, d.h. eine neue Collection wird als SODA-Collection erstellt.
|
keyassignment : embedded_oid
Standard: keyassignment ist nicht festgelegt
|
keypath
Nur mit COPY_COLLECTION verwenden
|
Gibt ein Attribut in den Daten an, das als Wert '_id' geladen werden soll.
Wenn keypath angegeben ist, müssen Sie auch den Wert keyassignment als embedded_oid angeben.
Setzen Sie den Wert auf einen Pfad, z.B. '$.mykey' , um den Wert des Pfads als '_id' -Wert auszuwählen.
Dieser Parameter ist optional und nur zum Laden in mongokompatible Collections gültig.
Wenn keine Angabe gemacht wird, generiert Oracle eine eindeutige 12-Byte-System-ID und füllt diese als '_id' -Attribut auf, wenn in den geladenen Daten noch kein '_id' -Attribut vorhanden ist.
|
keypath : string
Standard: keypath ist nicht festgelegt.
Wenn keypath festgelegt ist, lautet der Standardwert für Zeichenfolge NULL .
|
language
|
Gibt einen Sprachennamen an (z.B. FRENCH), von dem gebietsschemaabhängige Informationen abgeleitet werden können.
|
language : Zeichenfolge
Standardwert: Null
Eine Liste der von Oracle unterstützten Sprachen finden Sie unter Gebietsschemadaten im Handbuch für Oracle Database-Globalisierungsfunktionen.
|
logdir
|
Gibt einen Zeichenfolgenwert an, der den Verzeichnisobjektnamen bestimmt, in dem die Dateien logfile_table oder badfile_table gespeichert werden.
Standardmäßig wird bei logdir nicht zwischen Groß- und Kleinschreibung unterschieden. Die Groß-/Kleinschreibung wird jedoch reserviert, wenn der angegebene Wert in doppelte Anführungszeichen eingeschlossen wird.
Beispiel:
format => JSON_OBJECT ('logdir' value 'test_log')
Mit der im obigen Beispiel angegebenen Formatoption logdir werden die Dateien logfile_table oder badfile_table im Verzeichnisobjekt TEST_LOG gespeichert.
format => JSON_OBJECT ('logdir' value '"test_log"')
Mit der im obigen Beispiel angegebenen Formatoption logdir werden die Dateien logfile_table oder badfile_table im Verzeichnisobjekt test_log gespeichert.
|
logdir : Zeichenfolge
Standardwert: DATA_PUMP_DIR
|
logprefix
|
Gibt einen Zeichenfolgenwert an, der das Präfix für die Dateien logfile_table und badfile_table bestimmt.
Das Namensformat der Logtabelle lautet: logprefix$ operation_id
Standardmäßig ist das logprefix in Großbuchstaben angegeben. Die Groß-/Kleinschreibung wird jedoch reserviert, wenn der angegebene Wert in doppelte Anführungszeichen eingeschlossen ist.
Beispiel: format => JSON_OBJECT ('logprefix' value 'TEST') Logdateien verwenden dann das Präfix TEST . Beispiel: TEST$2_LOG und TEST$2_BAD .
|
logprefix : Zeichenfolge
Standardwert: COPY
|
logretention
|
Gibt eine positive Ganzzahldauer in Tagen an, für die die Dateien logfile_table und badfile_table beibehalten werden.
Gültige Werte: 0 bis 99999
Beispiel: format => JSON_OBJECT ('logretention' value 7) |
logretention : Zahl
Standardwert: 2
|
maxdocsize
Diese Option ist nur bei JSON-Daten gültig
|
Maximale Größe von JSON-Dokumenten.
|
maxdocsize : Zahl
Standardwert: 1 Megabyte
Maximal zulässiger Wert: 2 Gigabyte
|
numericcharacters
|
Gibt die Zeichen an, die als Gruppentrennzeichen und Dezimalzeichen verwendet werden sollen.
decimal_character: Das Dezimalzeichen trennt den ganzzahligen Teil einer Zahl vom Dezimalteil.
group_separator: Das Gruppentrennzeichen trennt Ganzzahlgruppen (d.h. Tausende, Millionen, Milliarden usw.).
|
numericcharacters: 'decimal_character group_separator'
Standardwert: ".,"
Weitere Informationen finden Sie unter NLS_NUMERIC_CHARACTERS im Handbuch für Oracle Database-Globalisierungsfunktionen.
|
numberformat
|
Gibt das Modell für das Zahlenformat an. Mit Zahlenformatmodellen wird die Zahl auf die angegebene Anzahl signifikanter Ziffern gerundet. Ein Zahlenformatmodell besteht aus mindestens einem Zahlenformatelement.
Wird in Kombination mit numericcharacters verwendet.
|
numberformat: number_format_model
Standardwert: wird von der Einstellung des Parameters NLS_TERRITORY abgeleitet
Weitere Informationen finden Sie unter Zahlenformatmodelle in der SQL-Sprachreferenz.
|
partition_columns
|
Die Formatoption partition_columns wird mit DBMS_CLOUD.CREATE_EXTERNAL_PART_TABLE verwendet, um die Spaltennamen und Datentypen von Partitionsspalten anzugeben, wenn die Partitionsspalten vom Dateipfad abgeleitet werden, je nach Typ der Datendatei, strukturiert oder unstrukturiert:
-
Wenn die DBMS_CLOUD.CREATE_EXTERNAL_PART_TABLE den Parameter column_list enthält und die Datendatei unstrukturiert ist, z.B. bei CSV-Textdateien, enthält partition_columns den Datentyp nicht. Beispiel: Verwenden Sie ein Format wie das Folgende für diesen Typ von partition_columns -Spezifikation:
'"partition_columns":["state","zipcode"]'
Der Datentyp ist nicht erforderlich, da er im Parameter DBMS_CLOUD.CREATE_EXTERNAL_PART_TABLE column_list angegeben ist.
-
Wenn DBMS_CLOUD.CREATE_EXTERNAL_PART_TABLE den Parameter column_list nicht enthält und die Datendateien strukturiert sind, wie z.B. Avro-, ORC- oder Parquet-Dateien, enthält die Option partition_columns den Datentyp. Beispiel: Im Folgenden wird eine partition_columns -Spezifikation dargestellt:
'"partition_columns":[
{"name":"country", "type":"varchar2(10)"},
{"name":"year", "type":"number"},
{"name":"month", "type":"varchar2(10)"}]'
Wenn die Datendateien unstrukturiert sind und die Unterklausel type mit partition_columns angegeben wird, wird die Unterklausel type ignoriert.
Bei Objektnamen, die nicht auf dem Hive-Format basieren, muss die Reihenfolge der angegebenen partition_columns -Spalten mit der Reihenfolge übereinstimmen, wie sie im Objektnamen in der file_uri_list angezeigt werden.
|
|
quote
|
Gibt das Anführungszeichen für die Felder ein. Die quote -Zeichen werden beim Laden entfernt, sofern angegeben.
|
quote : Zeichen
Standardwert: Null bedeutet kein Anführungszeichen
|
readsize
|
Gibt die Größe des Lesepuffers für die Verarbeitung von Datensätzen an.
Der Parameter readsize muss mindestens so groß sein wie der größte Datensatz in dem Dataset, das gelesen wird.
Beispiel:
format => JSON_OBJECT ('readsize' value 1000)
|
readsize : Zahl
Standardwert: 10 Megabyte
|
recorddelimiter
Option gültig mit JSON-Daten
|
Gibt das Datensatz-Begrenzungszeichen an.
Standardmäßig versucht DBMS_CLOUD , das richtige Zeilenvorschubzeichen automatisch als Trennzeichen zu ermitteln. Zuerst wird die Datei nach dem Windows-Zeilenvorschubzeichen "\r\n " durchsucht. Wird das Windows-Zeilenvorschubzeichen ermittelt, wird es als Datensatz-Begrenzungszeichen für alle Dateien in der Prozedur verwendet. Wenn kein Windows-Zeilenvorschubwort gefunden wird, wird nach dem UNIX/Linux-Zeilenvorschubzeichen "\n " gesucht. Wenn dieser Vorgang erfolgreich ist, wird "\n " als Datensatz-Begrenzungszeichen für alle Dateien in der Prozedur verwendet.
Geben Sie dieses Argument explizit ein, wenn Sie das Standardverhalten außer Kraft setzen möchten. Beispiel:
format => json_object('recorddelimiter' VALUE '''\r\n''')
Um anzugeben, dass kein Datensatzbegrenzungszeichen vorhanden ist, können Sie ein recorddelimiter angeben, das nicht in der Eingabedatei vorkommt. Beispiel: Um anzugeben, dass kein Begrenzungszeichen vorhanden ist, geben Sie das Steuerzeichen 0x01 (SOH) als Wert für recorddelimiter an, und setzen Sie den Wert recorddelimiter auf "0x''01''" (dieses Zeichen tritt nicht in JSON-Text auf). Beispiel:
format => '{"recorddelimiter" : "0x''01''"}'
Die recorddelimiter wird einmal pro Prozeduraufruf festgelegt. Wenn Sie den Standardwert detected newline verwenden, verwenden alle Dateien dasselbe Datensatzbegrenzungszeichen, sofern eines erkannt wird.
|
recorddelimiter : Zeichen
Standardwert: newline erkannt
|
regexuri
|
Die Formatoption regexuri wird mit den folgenden DBMS_CLOUD-Prozeduren verwendet:
Wenn der Wert von regexuri auf TRUE gesetzt ist, können Sie Platzhalter sowie reguläre Ausdrücke in den Dateinamen in Cloud-Quelldatei-URIs verwenden.
Die Zeichen "*" und "?" gelten als Platzhalterzeichen, wenn der Parameter regexuri auf FALSE gesetzt ist. Wenn der Parameter regexuri auf TRUE gesetzt ist, sind die Zeichen "*" und "?" Teil des angegebenen regulären Ausdrucksmusters.
Muster regulärer Ausdrücke werden nur für den Dateinamen oder Unterordnerpfad in Ihren URIs unterstützt, und der Musterabgleich ist mit dem Musterabgleich identisch, der von der Funktion REGEXP_LIKE ausgeführt wird. Reguläre Ausdrucksmuster werden für Verzeichnisnamen nicht unterstützt.
Bei externen Tabellen wird diese Option nur bei Tabellen unterstützt, die in einer Datei im Object Storage erstellt werden.
Beispiel:
format => JSON_OBJECT('regexuri' value TRUE)
Weitere Informationen zur Bedingung REGEXP_LIKE finden Sie unter REGEXP_LIKE-Bedingung.
|
regexuri : True
Standardwert: False
|
rejectlimit
|
Der Vorgang wird mit einem Fehler beendet, nachdem die angegebene Anzahl an Zeilen abgelehnt wurde.
|
rejectlimit : Zahl
Standardwert: 0
|
removequotes
|
Entfernt alle Anführungszeichen um Felder in der Quelldatei.
|
removequotes : true
Standardwert: False
|
skipheaders
|
Gibt an, wie viele Zeilen ab dem Anfang der Datei übersprungen werden sollen.
|
skipheaders : Zahl
Standardwert: 0, wenn nicht angegeben, 1, wenn ohne Wert angegeben
|
territory
|
Gibt einen Gebietsnamen an, um die Eigenschaften der Eingabedaten weiter zu bestimmen.
|
territory : Zeichenfolge
Standardwert: Null
Eine Liste der von Oracle unterstützten Gebiete finden Sie unter Gebietsschemadaten im Handbuch für Oracle Database-Globalisierungsfunktionen.
|
timestampformat
|
Gibt das Zeitstempelformat in der Quelldatei an. Die Formatoption AUTO sucht nach den folgenden Formaten:
YYYY-MM-DD HH:MI:SS.FF
YYYY-MM-DD HH:MI:SS.FF3
YYYY-MM-DD HH24:MI:SS.FF3
MM/DD/YYYY HH:MI:SS.FF3
|
timestampformat : Zeichenfolge
Standardwert: Datenbankzeitstempelformat
Die Zeichenfolge kann Platzhalterzeichen wie "$" enthalten.
|
timestampltzformat
|
Gibt das Zeitstempelformat mit lokaler Zeitzone in der Quelldatei an. Die Formatoption AUTO sucht nach den folgenden Formaten:
DD Mon YYYY HH:MI:SS.FF TZR
MM/DD/YYYY HH:MI:SS.FF TZR
YYYY-MM-DD HH:MI:SS+/-TZR
YYYY-MM-DD HH:MI:SS.FF3
DD.MM.YYYY HH:MI:SS TZR
|
timestampltzformat : Zeichenfolge
Standardwert: Datenbank-Zeitstempelformat mit lokaler Zeitzone
|
timestamptzformat
|
Gibt das Zeitstempelformat mit Zeitzone in der Quelldatei an. Die Formatoption AUTO sucht nach den folgenden Formaten:
DD Mon YYYY HH:MI:SS.FF TZR
MM/DD/YYYY HH:MI:SS.FF TZR
YYYY-MM-DD HH:MI:SS+/-TZR
YYYY-MM-DD HH:MI:SS.FF3
DD.MM.YYYY HH:MI:SS TZR
|
timestamptzformat : Zeichenfolge
Standardwert: Datenbank-Zeitstempelformat mit Zeitzone
|
trimspaces
|
Gibt an, wie die vor- und nachgestellten Leerzeichen der Felder abgeschnitten werden.
Siehe die Beschreibung von trim_spec.
|
trimspaces : rtrim| ltrim| notrim| lrtrim| ldrtrim
Standardwert: notrim
|
truncatecol
|
Wenn die Daten in der Datei zu lang für ein Feld sind, wird der Wert des Feldes mit dieser Option abgeschnitten, anstatt dass die Zeile abgelehnt wird.
|
truncatecol :true
Standardwert: False
|
type
|
Gibt den Typ der Quelldatei an.
Weitere Informationen finden Sie in der Beschreibung von CSV unter field_definitions-Klausel
Wenn type datapump ist, ist die einzige andere gültige Formatoption rejectlimit .
Wenn type datapump ist, werden nur Oracle Cloud Infrastructure Object Storage und Oracle Cloud Infrastructure Object Storage Classic als Objektspeicher unterstützt.
Informationen zu den type -Werten avro , orc oder parquet finden Sie unter DBMS_CLOUD Package Format Options for Avro, ORC, or Parquet.
Für JSON-Daten mit DBMS_CLOUD.COPY_COLLECTION hat type zwei gültige Werte: json (Standard) und ejson . Für DBMS_CLOUD.COPY_COLLECTION geben diese Werte an, dass es sich bei der Eingabe um JSON-Daten handelt. Der Wert ejson bewirkt, dass erweiterte Objekte in den textuellen JSON-Eingabedaten in skalare JSON-Werte in der nativen binären JSON-Sammlung übersetzt werden. Der Wert json führt diese Transformation nicht aus, und alle Objekte in den Eingabedaten werden in ein binäres JSON-Format konvertiert.
Für JSON-Daten mit DBMS_CLOUD.COPY_DATA hat type einen gültigen Wert: json . Dieser Wert gibt an, dass es sich bei der Eingabe um JSON-Daten handelt.
|
type : csv|csv with embedded |csv without embedded |avro| |datapump|orc|parquet
Hinweis
Nicht alle DBMS_CLOUD -Prozeduren unterstützen alle diese Typen.
csv ist mit csv without embedded identisch.
Standardwert: Null
Für JSON-Daten gibt es zwei gültige type -Werte für die Verwendung mit DBMS_CLOUD.COPY_COLLECTION : json |ejson In diesem Fall ist der Standardwert json . Bei JSON-Daten mit DBMS_CLOUD.COPY_DATA ist nur json gültig.
|
unpackarrays
Nur mit COPY_COLLECTION verwenden
|
Wenn dies auf true gesetzt ist und ein geladenes Dokument ein Array ist, werden die Inhalte des Arrays als Dokumente und nicht als Array selbst geladen. Dies gilt nur für das Array der obersten Ebene.
Wenn dieser Wert auf true gesetzt ist, wird das gesamte Array als einzelnes Dokument eingefügt.
Diese Option ist nur für JSON-Collection-Daten mit DBMS_CLOUD.COPY_COLLECTION gültig.
|
unpackarrays : true
Standardwert: False
|