access_protocol
|
Specifica il tipo di tabella Apache Iceberg, ad esempio AWS o OCI Object Storage, e quali informazioni vengono utilizzate per creare la tabella esterna, ad esempio informazioni da un Data Catalog o da un URI di metadati diretti.
|
Per informazioni dettagliate sulla sintassi access_protocol , vedere CREATE_EXTERNAL_TABLE Procedura per Apache Iceberg.
|
blankasnull
|
Se impostato su true , carica i campi costituiti da spazi come valore nullo.
|
blankasnull : true
Valore predefinito: False
|
characterset
Valido con JSON e format COPY_DATA
|
Specifica il set dei caratteri dei file di origine
|
characterset : stringa
Valore predefinito: set di caratteri del database
|
columnpath
Utilizza solo con JSON e format COPY_DATA
|
Array di espressioni di percorso JSON corrispondenti ai campi che devono essere estratti dai record JSON. Ogni espressione di percorso JSON nell'array deve seguire le regole descritte in Espressioni percorso SQL/JSON.
Utilizzare solo con il formato JSON e DBMS_CLOUD.COPY_DATA .
|
Array JSON delle espressioni di percorso json espresse in formato stringa. Ad esempio: valore 'columnpath' '["$.WEATHER_STATION_ID", "$.WEATHER_STATION_NAME"]'
|
compression
Opzione valida con dati JSON
|
Specifica il tipo di compressione del file di origine.
Formato di archiviazione ZIP non supportato.
Se si specifica il valore auto , vengono controllati i tipi di compressione: gzip, zlib, zstd, bzip2 .
|
compression : auto|gzip|zlib|zstd|bzip2
Valore predefinito: valore nullo senza compressione.
|
conversionerrors
|
Se una riga viene rifiutata a causa di errori di conversione del tipo di dati, le colonne correlate vengono memorizzate come nulle o la riga viene rifiutata.
|
conversionerrors : reject_record | store_null
Valore predefinito: reject_record
|
dateformat
|
Specifica il formato della data nel file di origine. L'opzione di formato AUTO cerca i seguenti formati:
J
MM-DD-YYYYBC
MM-DD-YYYY
YYYYMMDD HHMISS
YYMMDD HHMISS
YYYY.DDD
YYYY-MM-DD
|
dateformat : stringa
Valore predefinito: formato data database
|
delimiter
|
Specifica il delimitatore di campo.
Per utilizzare un carattere speciale come delimitatore, specificare il valore HEX del codice ASCII del carattere. Ad esempio, quanto segue specifica il carattere TAB come delimitatore:
format => json_object('delimiter' value 'X''9''')
|
delimiter : carattere
Valore predefinito | (carattere pipe)
|
detectfieldorder
|
Specifica che i campi nei file di dati esterni si trovano in un ordine diverso rispetto alle colonne della tabella. Rileva l'ordine dei campi utilizzando la prima riga di ciascun file di dati esterno e mappalo alle colonne della tabella. I nomi dei campi nei file di dati esterni vengono confrontati senza distinzione tra maiuscole e minuscole con i nomi delle colonne della tabella.
Questa opzione di formato è applicabile alle seguenti procedure:
-
DBMS_CLOUD.COPY_DATA
-
DBMS_CLOUD.CREATE_EXTERNAL_TABLE
-
DBMS_CLOUD.CREATE_EXTERNAL_PART_TABLE
-
DBMS_CLOUD.CREATE_HYBRID_PART_TABLE
Restrizioni per detectfieldorder :
-
I nomi dei campi nel file di dati devono essere visualizzati nella prima riga del record e non devono contenere spazi vuoti tra i nomi dei campi.
-
Il delimitatore di campo nel record dei nomi di campo deve essere uguale al delimitatore di campo per i dati nel file.
-
I nomi dei campi citati non sono supportati. I nomi dei campi nei file di dati vengono confrontati, senza distinzione tra maiuscole e minuscole, con i nomi delle colonne delle tabelle esterne.
-
I delimitatori di campi incorporati non sono consentiti nei nomi dei campi.
-
Il numero di colonne nella tabella deve corrispondere al numero di campi nei file di dati.
-
Questa opzione di formato non è applicabile ai formati Bigdata o Oracle Data Pump, poiché tali formati dispongono di informazioni precise sui metadati delle colonne nel formato file binario.
I formati di testo, CSV, JSON, Parquet o XML possono trarre vantaggio da questo rilevamento automatico dell'ordine dei campi quando la prima riga contiene i nomi dei campi.
Per ulteriori informazioni, vedere NOMI CAMPO e la descrizione di ALL FILES .
|
detectfieldorder : true
Valore predefinito: false
|
enablelogs
|
L'opzione di formato enablelogs viene utilizzata con le procedure DBMS_CLOUD riportate di seguito.
-
COPY_DATA
-
COPY_COLLECTION
-
EXPORT_DATA
enablelogs specifica un valore booleano. Se impostato su TRUE , vengono generati i log. Se impostato su FALSE , i log non vengono generati.
Ad esempio: format => JSON_OBJECT('enablelogs' value FALSE) |
enablelogs : false
Valore predefinito: true
|
encryption
|
L'opzione di formato encryption specifica le opzioni di cifratura e decifrazione per esportare e importare dati da e verso l'area di memorizzazione degli oggetti.
Usare encryption per specificare i seguenti parametri per la cifratura e la decifrazione:
-
user_defined_function : specifica una funzione completamente qualificata definita dall'utente per decifrare o cifrare il BLOB (binary large object) specificato. Restituisce un oggetto BLOB decifrato o cifrato. user_defined_function si esclude a vicenda con altri parametri per encryption .
Ad esempio, ADMIN.DECRYPTION_CALLBACK .
-
type : specifica l'algoritmo di cifratura DBMS_CRYPTO da decifrare o cifrare.
type accetta i valori nel formato Algoritmi di cifratura a blocchi + Modificatori di concatenamento di cifratura a blocchi + Modificatori di riempimento di cifratura a blocchi.
Gli algoritmi di cifratura dei blocchi supportati sono:
I modificatori di concatenamento di cifratura a blocchi supportati sono:
-
DBMS_CRYPTO.CHAIN_CBC
-
DBMS_CRYPTO.CHAIN_CFB
-
DBMS_CRYPTO.CHAIN_ECB
-
DBMS_CRYPTO.CHAIN_OFB
I modificatori di riempimento della cifratura dei blocchi supportati sono:
-
DBMS_CRYPTO.PAD_PKCS5
-
DBMS_CRYPTO.PAD_NONE
-
DBMS_CRYPTO.PAD_ZERO
-
DBMS_CRYPTO.PAD_ORCL
Se non si specificano valori per questi parametri, i valori dei modificatori di concatenamento di cifratura a blocchi e dei modificatori di riempimento di cifratura a blocchi vengono impostati automaticamente su DBMS_CRYPTO.CHAIN_CBC e DBMS_CRYPTO.PAD_PKCS5 .
L'opzione di formato encryption viene utilizzata con le procedure DBMS_CLOUD riportate di seguito.
Ad esempio: format => JSON_OBJECT('encryption' value json_object ('type' value DBMS_CRYPTO.ENCRYPT_AES256 + DBMS_CRYPTO.CHAIN_CBC + DBMS_CRYPTO.PAD_PKCS5, 'credential_name' value 'ENCRYPTION_CRED')) |
encryption:value Dove valore è una stringa JSON che fornisce parametri aggiuntivi per la cifratura:
type : valore
Specifica il tipo di cifratura.
credential_name : value
Specifica la credenziale utilizzata per memorizzare la chiave di cifratura. user_defined_function: value Specifica una funzione completamente qualificata definita dall'utente per decifrare o cifrare il BLOB (binary large object) specificato.
|
endquote
|
I dati possono essere racchiusi tra due delimitatori, specificati con quote e endquote . Quando specificato, i caratteri quote e endquote vengono rimossi durante il caricamento.
Ad esempio: format => JSON_OBJECT(‘quote’ value ‘(’, ‘endquote’ value ‘)’) |
endquote :character
Valore predefinito: Null, ovvero endquote .
|
escape
|
Il carattere "\" viene utilizzato come carattere di escape quando specificato.
|
escape : true
Valore predefinito: false
|
field_list
|
Identifica i campi nei file di origine e i relativi tipi di dati. Il valore predefinito è NULL, ovvero i campi e i relativi tipi di dati sono determinati dal parametro column_list. Per ulteriori informazioni, consulta field_list in Oracle Database 19c Utilities o Oracle Database 23ai Utilities.
|
Valore predefinito: NULL
|
ignoreblanklines
Opzione valida con dati JSON
|
Le righe vuote vengono ignorate quando l'impostazione è True.
|
ignoreblanklines : true
Valore predefinito: False
|
ignoremissingcolumns
|
If there are more columns in the field_list than there are in the source files, the extra columns are stored as null.
|
ignoremissingcolumns : true
Valore predefinito False
|
implicit_partition_config
|
L'opzione implicit_partition_config abilita il partizionamento implicito quando partition_type è impostato su "hive". L'ottimizzazione implicita della partizione viene abilitata quando strict_column_order è impostato su "true".
I criteri per l'utilizzo di questa ottimizzazione includono:
- Non ci sono file con percorsi completi con stringhe extra prima dell'URI del file e tra il percorso del nome della colonna della partizione.
- Ad esempio, non è possibile avere file come
https://swiftobjectstorage.us-phoenix-1.oraclecloud.com/n/oraclebigdatadb/b/test-partitions/xyz/.. o https://swiftobjectstorage.us-phoenix-1.oraclecloud.com/n/oraclebigdatadb/b/test-partitions/tenant=tenant_01/xyz/dbtype=dbtype_01/year=.. . xyz rappresenta stringhe extra. Questi file vengono ignorati se viene specificata l'ottimizzazione della lista e il predicato include le colonne di partizione implicite dopo queste stringhe aggiuntive.
- L'ordine delle colonne di partizione nella specifica deve corrispondere ai percorsi dei file reali e i percorsi dei file devono includere ogni colonna in
partition_columns .
- Ad esempio, non è possibile avere file come
https://swiftobjectstorage.us-phoenix-1.oraclecloud.com/n/oraclebigdatadb/b/test-partitions/year=2023/month=01/tenant=tenant_01/dbtype=... . Non è nell'ordine corretto della specifica implicit_columns . Questi file vengono saltati se viene specificata la specifica della lista e i predicati includono le colonne fuori ordine (ad esempio, dove tenant='tenant_01' e dbtype='dbtype_1' e year='2023' e ..)
- Non è possibile avere file come
https://swiftobjectstorage.us-phoenix-1.oraclecloud.com/n/oraclebigdatadb/b/test-partitions/tenant=tenant_01/year=2023/month=01/day=01/myfile.csv . Si noti che dbtype manca qui. Se l'ottimizzazione è abilitata, questi file vengono saltati oppure la query riceve un messaggio di errore a seconda dei predicati forniti.
- I percorsi dei file devono utilizzare la denominazione di partizionamento in stile Hive.
Le opzioni secondarie per l'opzione di formato implicit_partition_config includono:
partition_type : "hive" è l'unico valore accettato, il valore predefinito è il percorso del nome file non Hive.
partition_columns : ["column1","column2",…]
strict_column_order : false (predefinito), true
Ad esempio: dbms_cloud.create_external_table (
table_name => 'partitions1',
credential_name => 'MY_CRED',
file_uri_list => 'https://swiftobjectstorage.us-phoenix-1.oraclecloud.com/n/oraclebigdatadb/b/test-partitions/',
column_list => 'payload varchar2(100), y number, total_sales number, tenant varchar2(10), dbtype varchar(10), year varchar(4), month varchar(2) day varchar(2)',
format => '{"type":"parquet",
"implicit_partition_config":{
"partition_type":"hive",
"strict_column_order":true,
"partition_columns":["tenant","dbtype","year","month","day"] } }');
|
implicit_partition_config dispone delle seguenti opzioni secondarie:
-
partition_type: hive
Il valore predefinito è un percorso di nome file non Hive. L'unico valore valido è hive .
-
partition_columns : array di stringhe
Valore predefinito: se si specifica partition_type , i nomi delle colonne vengono derivati mediante la ricerca automatica delle chiavi di partizione nei dati partizionati in stile HIVE. In caso contrario, il valore predefinito è nullo e il partizionamento implicito non è abilitato.
-
strict_column_order: true
Valore predefinito: false
|
implicit_partition_columns
|
Abilitare il partizionamento implicito e specificare i nomi delle colonne della partizione utilizzando l'opzione di formato implicit_partition_columns con DBMS_CLOUD.CREATE_EXTERNAL_TABLE .
Il partizionamento implicito è abilitato nei modi riportati di seguito.
-
Utilizzare implicit_partition_columns per fornire una lista di colonne di partizione e specificare implicit_partition_type . Ad esempio: format => '{"implicit_partition_type":"hive",
"implicit_partition_columns":["country","year","month"]}'
-
Utilizzare implicit_partition_columns per fornire un elenco di colonne di partizione senza fornire il tipo di partizione. Il tipo di partizione viene rilevato automaticamente come hive o non Beehive. Ad esempio: format => '{"implicit_partition_columns":["country","year","month"]}'
-
Utilizzare implicit_partition_type per fornire il tipo di colonne di partizione senza fornire una lista di colonne di partizione. La ricerca automatica delle chiavi di partizione nei dati partizionati in stile HIVE viene attivata per determinare i nomi delle colonne. Ad esempio: format => '{"partition_type":"hive"}'
Per la descrizione e la sintassi delle opzioni, vedere implicit_partition_type .
|
implicit_partition_columns : array di stringhe
Valore predefinito: se si specifica implicit_partition_type , i nomi delle colonne vengono derivati mediante la ricerca automatica delle chiavi di partizione nei dati partizionati in stile HIVE. In caso contrario, il valore predefinito è nullo e il partizionamento implicito non è abilitato.
|
implicit_partition_type
|
Abilitare il partizionamento implicito e specificare i tipi di dati delle colonne di partizione utilizzando l'opzione di formato implicit_partition_type con DBMS_CLOUD.CREATE_EXTERNAL_TABLE .
Per ulteriori informazioni sull'abilitazione del partizionamento implicito e degli esempi, vedere implicit_partition_columns .
|
implicit_partition_type : alveare
Valore predefinito: se si specifica implicit_partition_columns , il tipo viene rilevato automaticamente come hive o non Beehive. In caso contrario, il valore predefinito è nullo e il partizionamento implicito non è abilitato.
|
jsonpath
Utilizzare solo con COPY_COLLECTION
|
Percorso JSON per identificare il documento da caricare.
Questa opzione è valida solo per i dati di raccolta JSON con DBMS_CLOUD.COPY_COLLECTION .
|
jsonpath : stringa
Valore predefinito: Null
|
keyassignment Utilizzare solo con COPY_COLLECTION
|
Specifica se una nuova raccolta viene creata come raccolta compatibile con mongo o come raccolta SODA.
Quando il valore è impostato su embedded_oid , una nuova raccolta viene creata come raccolta compatibile con mongo.
Per impostazione predefinita, questo parametro non è impostato, il che significa che una nuova raccolta viene creata come raccolta SODA.
|
keyassignment : embedded_oid
Impostazione predefinita: keyassignment non impostato
|
keypath
Utilizzare solo con COPY_COLLECTION
|
Specifica un attributo nei dati da caricare come valore '_id' .
Se si specifica keypath , è necessario specificare anche il valore keyassignment come embedded_oid .
Impostare il valore su un percorso, ad esempio '$.mykey' , per selezionare il valore del percorso come valore '_id' .
Questo parametro è facoltativo ed è valido solo per il caricamento in raccolte compatibili con mongo.
Se non specificato, Oracle genera un ID di sistema univoco a 12 byte e lo inserisce come attributo '_id' , se un attributo '_id' non è già presente nei dati in fase di caricamento.
|
keypath : string
Impostazione predefinita: keypath non è impostato.
Quando keypath è impostato, il valore predefinito di stringa è NULL .
|
language
|
Specifica il nome di una lingua, ad esempio FRENCH, da cui è possibile recuperare informazioni basate su impostazioni nazionali.
|
language : stringa
Valore predefinito: Null
Per un elenco delle lingue supportate da Oracle, vedere Locale Data in Oracle Database Globalization Support Guide.
|
logdir
|
Specifica un valore stringa che determina il nome dell'oggetto directory in cui vengono salvati i file logfile_table o badfile_table .
Per impostazione predefinita, logdir non fa distinzione tra maiuscole e minuscole, ma viene riservato quando il valore specificato è racchiuso tra virgolette doppie.
Ad esempio:
format => JSON_OBJECT ('logdir' value 'test_log')
L'opzione di formato logdir specificata nell'esempio precedente salva i file logfile_table o badfile_table nell'oggetto directory TEST_LOG .
format => JSON_OBJECT ('logdir' value '"test_log"')
L'opzione di formato logdir specificata nell'esempio precedente salva i file logfile_table o badfile_table nell'oggetto directory test_log .
|
logdir : stringa
Valore predefinito: DATA_PUMP_DIR
|
logprefix
|
Specifica un valore stringa che determina il prefisso per i file logfile_table e badfile_table .
Il formato del nome della tabella di log è: prefisso log$ operation_id
Per impostazione predefinita, il prefisso di log è in maiuscolo, ma il carattere maiuscolo viene riservato quando il valore specificato è racchiuso tra virgolette doppie.
Ad esempio: format => JSON_OBJECT ('logprefix' value 'TEST') I file di log utilizzano quindi il prefisso TEST , ad esempio TEST$2_LOG e TEST$2_BAD .
|
logprefix : stringa
Valore predefinito: COPY
|
logretention
|
Specifica una durata intera positiva, espressa in giorni, per la quale vengono conservati i file logfile_table e badfile_table .
Valori validi: da 0 a 99999
Ad esempio: format => JSON_OBJECT ('logretention' value 7) |
logretention : numero
Valore predefinito: 2
|
maxdocsize
Questa opzione è valida solo con dati JSON
|
Dimensione massima dei documenti JSON.
|
maxdocsize : numero
Valore predefinito: 1 megabyte
Valore massimo consentito: 2 gigabyte
|
numericcharacters
|
Specifica i caratteri da utilizzare come separatori delle migliaia e i caratteri decimali.
decimal_character: il separatore dei decimali separa la parte intera di un numero dalla porzione decimale.
group_separator: il separatore di gruppo separa i gruppi di valori interi (ossia, le migliaia, i milioni, i miliardi e così via).
|
numericcharacters: 'decimal_character group_separator'
Valore predefinito: ".,"
Per ulteriori informazioni, vedere NLS_NUMERIC_CHARACTERS in Oracle Database Globalization Support Guide.
|
numberformat
|
Specifica il modello di formato numerico. I modelli con formato numerico consentono di arrotondare il numero al numero specificato di cifre significative. Un modello di formato numerico è composto da uno o più elementi di formato numerico.
Utilizzato in combinazione con numericcharacters .
|
numberformat: number_format_model
Valore predefinito: derivato dall'impostazione del parametro NLS_TERRITORY
Per ulteriori informazioni, vedere Modelli formato numerico in Riferimento linguaggio SQL.
|
partition_columns
|
L'opzione di formato partition_columns viene utilizzata con DBMS_CLOUD.CREATE_EXTERNAL_PART_TABLE per specificare i nomi delle colonne e i tipi di dati delle colonne di partizione quando le colonne di partizione vengono derivate dal percorso del file, a seconda del tipo di file di dati, strutturato o non strutturato:
-
Quando DBMS_CLOUD.CREATE_EXTERNAL_PART_TABLE include il parametro column_list e il file di dati non è strutturato, ad esempio con i file di testo CSV, partition_columns non include il tipo di dati. Ad esempio, utilizzare un formato simile al seguente per questo tipo di specifica partition_columns :
'"partition_columns":["state","zipcode"]'
Il tipo di dati non è obbligatorio perché è specificato nel parametro DBMS_CLOUD.CREATE_EXTERNAL_PART_TABLE column_list .
-
Se DBMS_CLOUD.CREATE_EXTERNAL_PART_TABLE non include il parametro column_list e i file di dati sono strutturati, ad esempio i file Avro, ORC o Parquet, l'opzione partition_columns include il tipo di dati. Ad esempio, viene mostrata una specifica partition_columns :
'"partition_columns":[
{"name":"country", "type":"varchar2(10)"},
{"name":"year", "type":"number"},
{"name":"month", "type":"varchar2(10)"}]'
Se i file di dati non sono strutturati e la sottoclausola type è specificata con partition_columns , la sottoclausola type viene ignorata.
Per i nomi oggetto non basati sul formato hive, l'ordine delle colonne partition_columns specificate deve corrispondere all'ordine in cui sono visualizzate nel nome oggetto in file_uri_list .
|
|
quote
|
Specifica il carattere di virgolette per i campi, i caratteri quote vengono rimossi durante il caricamento quando specificato.
|
quote : carattere
Valore predefinito: nullo indica assenza di virgolette
|
readsize
|
Specifica la dimensione del buffer di lettura per l'elaborazione dei record.
Il parametro readsize deve essere grande almeno quanto il record più grande del data set in fase di lettura.
Ad esempio:
format => JSON_OBJECT ('readsize' value 1000)
|
readsize : numero
Valore predefinito: 10 megabyte
|
recorddelimiter
Opzione valida con dati JSON
|
Specifica il delimitatore di record.
Per impostazione predefinita, DBMS_CLOUD tenta di trovare automaticamente come delimitatore il carattere di nuova riga corretto. Prima cerca nel file il carattere di nuova riga di Windows "\r\n ". Se trova il carattere di nuova riga di Windows, viene utilizzato come delimitatore di record per tutti i file della procedura. Se non viene trovato un carattere newline di Windows, cerca il carattere newline UNIX/Linux "\n " e se ne trova uno utilizza "\n " come delimitatore di record per tutti i file nella procedura.
Specificare questo argomento in modo esplicito se si desidera eseguire l'override del funzionamento predefinito, ad esempio:
format => json_object('recorddelimiter' VALUE '''\r\n''')
Per indicare che non esiste un delimitatore di record, è possibile specificare un valore recorddelimiter che non sia presente nel file di input. Ad esempio, per indicare che non esiste un delimitatore, specificare il carattere di controllo 0x01 (SOH) come valore per recorddelimiter e impostare il valore recorddelimiter su "0x''01''" (questo carattere non è presente nel testo JSON). Ad esempio:
format => '{"recorddelimiter" : "0x''01''"}'
recorddelimiter viene impostato una volta per chiamata di procedura. Se si utilizza il valore predefinito detected newline , tutti i file utilizzano lo stesso delimitatore di record, se ne viene rilevato uno.
|
recorddelimiter : carattere
Valore predefinito: newline rilevato
|
regexuri
|
L'opzione di formato regexuri viene utilizzata con le procedure DBMS_CLOUD riportate di seguito.
Quando il valore di regexuri è impostato su TRUE , è possibile utilizzare i caratteri jolly e le espressioni regolari nei nomi dei file negli URI dei file di origine cloud.
I caratteri "*" e "?" sono considerati caratteri jolly quando il parametro regexuri è impostato su FALSE . Se il parametro regexuri è impostato su TRUE , i caratteri "*" e "?" fanno parte del pattern di espressione regolare specificato.
I pattern di espressione regolari sono supportati solo per il nome file o il percorso della sottocartella negli URI e la corrispondenza dei pattern è identica a quella eseguita dalla funzione REGEXP_LIKE . I pattern di espressione regolare non sono supportati per i nomi delle directory.
Per le tabelle esterne, questa opzione è supportata solo con le tabelle create in un file nello storage degli oggetti.
Ad esempio:
format => JSON_OBJECT('regexuri' value TRUE)
Per ulteriori informazioni sulla condizione REGEXP_LIKE , vedere REGEXP_LIKE Condition.
|
regexuri : True
Valore predefinito: False
|
rejectlimit
|
L'operazione restituirà un errore dopo il rifiuto del numero di righe specificato.
|
rejectlimit : numero
Valore predefinito: 0
|
removequotes
|
Rimuove tutte le virgolette che racchiudono qualsiasi campo nel file di origine.
|
removequotes : true
Valore predefinito: False
|
skipheaders
|
Specifica quante righe devono essere saltate dall'inizio del file.
|
skipheaders : numero
Valore predefinito: 0 se non specificato, 1 se specificato senza un valore
|
territory
|
Specifica un nome di area per determinare ulteriormente le caratteristiche dei dati di input.
|
territory : stringa
Valore predefinito: Null
Per un elenco dei territori supportati da Oracle, vedere Locale Data in Oracle Database Globalization Support Guide.
|
timestampformat
|
Specifica il formato dell'indicatore orario nel file di origine. L'opzione di formato AUTO cerca i seguenti formati:
YYYY-MM-DD HH:MI:SS.FF
YYYY-MM-DD HH:MI:SS.FF3
YYYY-MM-DD HH24:MI:SS.FF3
MM/DD/YYYY HH:MI:SS.FF3
|
timestampformat : stringa
Valore predefinito: formato indicatore orario database
La stringa può contenere caratteri jolly, ad esempio "$".
|
timestampltzformat
|
Specifica l'indicatore orario con formato fuso orario locale nel file di origine. L'opzione di formato AUTO cerca i seguenti formati:
DD Mon YYYY HH:MI:SS.FF TZR
MM/DD/YYYY HH:MI:SS.FF TZR
YYYY-MM-DD HH:MI:SS+/-TZR
YYYY-MM-DD HH:MI:SS.FF3
DD.MM.YYYY HH:MI:SS TZR
|
timestampltzformat : stringa
Valore predefinito: indicatore orario del database con formato fuso orario locale
|
timestamptzformat
|
Specifica l'indicatore orario con formato fuso orario nel file di origine. L'opzione di formato AUTO cerca i seguenti formati:
DD Mon YYYY HH:MI:SS.FF TZR
MM/DD/YYYY HH:MI:SS.FF TZR
YYYY-MM-DD HH:MI:SS+/-TZR
YYYY-MM-DD HH:MI:SS.FF3
DD.MM.YYYY HH:MI:SS TZR
|
timestamptzformat : stringa
Valore predefinito: indicatore orario del database con formato fuso orario
|
trimspaces
|
Specifica le modalità per troncamento degli spazi iniziali e finali degli spazi.
Vedere la descrizione del processo trim_spec.
|
trimspaces : rtrim| ltrim| notrim| lrtrim| ldrtrim
Valore predefinito: notrim
|
truncatecol
|
Se i dati nel file sono troppi lunghi per un campo, questa opzione troncherà il valore del campo invece di rifiutare la riga.
|
truncatecol :true
Valore predefinito: False
|
type
|
Specifica il tipo di file di origine.
Vedere la descrizione di CSV nella clausola field_definitions
Se type è datapump , l'unica altra opzione di formato valida è rejectlimit .
Se type è datapump , gli unici aree di memorizzazione degli oggetti supportati sono Oracle Cloud Infrastructure Object Storage e Oracle Cloud Infrastructure Object Storage Classic.
Vedere DBMS_CLOUD Opzioni formato pacchetto per Avro, ORC o Parquet per i valori type avro , orc o parquet .
Per i dati JSON con DBMS_CLOUD.COPY_COLLECTION type sono disponibili due valori validi: json (impostazione predefinita) e ejson . Per DBMS_CLOUD.COPY_COLLECTION questi valori specificano entrambi che l'input è dato JSON. Il valore ejson fa sì che gli oggetti estesi nei dati di input JSON testuali vengano convertiti in valori JSON scalari nella raccolta JSON binaria nativa. Il valore json non esegue questa trasformazione e tutti gli oggetti nei dati di input vengono convertiti in formato JSON binario.
Per i dati JSON con DBMS_CLOUD.COPY_DATA type è presente un valore valido: json . Questo valore specifica che l'input è dato JSON.
|
type : csv|csv with embedded |csv without embedded |avro| |datapump|orc|parquet
Nota
Non tutte le procedure DBMS_CLOUD supportano tutti questi tipi.
csv è uguale a csv without embedded .
Valore predefinito: Null
Per i dati JSON esistono due valori type validi da utilizzare con DBMS_CLOUD.COPY_COLLECTION : json |ejson In questo caso il valore predefinito è json . Per i dati JSON con DBMS_CLOUD.COPY_DATA , è valido solo json .
|
unpackarrays
Utilizzare solo con COPY_COLLECTION
|
Quando è impostato su true , se un documento caricato è un array, il contenuto dell'array viene caricato come documenti anziché come array stesso. Questo vale solo per l'array di livello superiore.
Se impostato su true , l'intero array viene inserito come un singolo documento.
Questa opzione è valida solo per i dati di raccolta JSON con DBMS_CLOUD.COPY_COLLECTION .
|
unpackarrays : true
Valore predefinito: False
|