access_protocol
|
Especifica o tipo de tabela do Apache Iceberg, como AWS ou OCI Object Storage, e quais informações são usadas para criar a tabela externa, por exemplo, informações de um catálogo de dados ou de um URI de metadados direto.
|
Consulte Procedimento CREATE_EXTERNAL_TABLE para Apache Iceberg, para obter detalhes sobre a sintaxe access_protocol .
|
blankasnull
|
Quando definido como true , carrega campos que consistem em espaços como nulos.
|
blankasnull : true
Valor padrão: False
|
characterset
Válido com format JSON e COPY_DATA
|
Especifica o conjunto de caracteres dos arquivos de origem
|
characterset : string
Valor padrão: Conjunto de caracteres do banco de dados
|
columnpath
Use somente com format JSON e COPY_DATA
|
Array de expressões de caminho JSON que correspondem aos campos que precisam ser extraídos dos registros JSON. Cada uma das expressões de caminho JSON no array deve seguir as regras descritas em Expressões de Caminho SQL/JSON.
Só use com o formato JSON e DBMS_CLOUD.COPY_DATA .
|
Array JSON de expressões de caminho json expressas em formato de string. Por exemplo: valor de 'columnpath' '["$.WEATHER_STATION_ID", "$.WEATHER_STATION_NAME"]'
|
compression
Opção válida com dados JSON
|
Especifica o tipo de compactação do arquivo de origem.
Formato de arquivamento ZIP não é suportado.
A especificação do valor auto verifica os tipos de compactação: gzip, zlib, zstd, bzip2 .
|
compression : auto|gzip|zlib|zstd|bzip2
Valor padrão: Valor nulo que significa nenhuma compactação.
|
conversionerrors
|
Se uma linha for rejeitada por causa de erros de conversão do tipo de dados, as colunas relacionadas serão armazenadas como nulas ou a linha será rejeitada.
|
conversionerrors : reject_record | store_null
Valor padrão: reject_record
|
dateformat
|
Especifica o formato de data no arquivo de origem. A opção de formato AUTO pesquisa os seguintes formatos:
J
MM-DD-YYYYBC
MM-DD-YYYY
YYYYMMDD HHMISS
YYMMDD HHMISS
YYYY.DDD
YYYY-MM-DD
|
dateformat : string
Valor padrão: Formato de data do banco de dados
|
delimiter
|
Especifica o delimitador de campo.
Para usar um caractere especial como delimitador, especifique o valor HEX do código ASCII do caractere. Por exemplo, o seguinte especifica o caractere TAB como delimitador:
format => json_object('delimiter' value 'X''9''')
|
delimiter : caractere
Valor padrão | (caractere da tubulação)
|
detectfieldorder
|
Especifica que os campos nos arquivos de dados externos estão em uma ordem diferente das colunas na tabela. Detecte a ordem dos campos usando a primeira linha de cada arquivo de dados externo e mapeie-o para as colunas da tabela. Os nomes dos campos em arquivos de dados externos são comparados de maneira que não faça distinção entre maiúsculas e minúsculas e os nomes das colunas da tabela.
Essa opção de formato é aplicável para os seguintes procedimentos:
-
DBMS_CLOUD.COPY_DATA
-
DBMS_CLOUD.CREATE_EXTERNAL_TABLE
-
DBMS_CLOUD.CREATE_EXTERNAL_PART_TABLE
-
DBMS_CLOUD.CREATE_HYBRID_PART_TABLE
Restrições para detectfieldorder :
-
Os nomes de campo no arquivo de dados devem aparecer na primeira linha de registro e não devem conter espaços em branco entre os nomes de campo.
-
O delimitador de campo no registro de nomes de campo deve ser igual ao delimitador de campo para os dados no arquivo.
-
Os nomes de campo entre aspas não são suportados. Os nomes dos campos nos arquivos de dados são comparados, sem distinção entre maiúsculas e minúsculas, com os nomes das colunas da tabela externa.
-
Não são permitidos delimitadores de campo incorporados nos nomes dos campos.
-
O número de colunas na tabela deve corresponder ao número de campos nos arquivos de dados.
-
Essa opção de formato não é aplicável aos formatos Bigdata ou Oracle Data Pump, pois esses formatos têm informações precisas de metadados de coluna no formato de arquivo binário.
Os formatos de texto CSV, JSON, Parquet ou XML podem se beneficiar dessa detecção automática de ordem de campo quando a primeira linha contiver os nomes de campo.
Consulte NOMES DE CAMPO e a descrição de ALL FILES para obter mais informações.
|
detectfieldorder : true
Valor padrão: false
|
enablelogs
|
A opção de formato enablelogs é usada com os seguintes procedimentos DBMS_CLOUD :
-
COPY_DATA
-
COPY_COLLECTION
-
EXPORT_DATA
enablelogs especifica um valor booliano, quando definido como TRUE , os logs são gerados. Quando definido como FALSE , os logs não são gerados.
Por exemplo: format => JSON_OBJECT('enablelogs' value FALSE) |
enablelogs : false
Valor padrão: true
|
encryption
|
A opção de formato encryption especifica as opções de criptografia e decriptografia para exportar e importar dados de/para o Object Store.
Use encryption para especificar os seguintes parâmetros para criptografar e decriptografar:
-
user_defined_function : Especifica uma função definida pelo usuário totalmente qualificada para decriptografar ou criptografar o BLOB especificado (objeto grande binário). Retorna um BLOB descriptografado ou criptografado. user_defined_function é mutuamente exclusivo com outros parâmetros para encryption .
Por exemplo, ADMIN.DECRYPTION_CALLBACK .
-
type : Especifica o algoritmo de criptografia DBMS_CRYPTO para decriptografar ou criptografar.
type aceita valores no formato Algoritmos de Cifragem em Bloco + Modificadores de Encadeamento de Cifragem em Bloco + Modificadores de Preenchimento de Cifragem em Bloco.
Os Algoritmos de Cifragem de Bloco Suportados são:
Os Modificadores de Encadeamento de Cifragem de Bloco Suportados são:
-
DBMS_CRYPTO.CHAIN_CBC
-
DBMS_CRYPTO.CHAIN_CFB
-
DBMS_CRYPTO.CHAIN_ECB
-
DBMS_CRYPTO.CHAIN_OFB
Os Modificadores de Preenchimento de Cifragem de Bloco Suportados são:
-
DBMS_CRYPTO.PAD_PKCS5
-
DBMS_CRYPTO.PAD_NONE
-
DBMS_CRYPTO.PAD_ZERO
-
DBMS_CRYPTO.PAD_ORCL
Os valores dos Modificadores de Encadeamento de Cifragem de Bloco e dos Modificadores de Preenchimento de Cifragem de Bloco assumem como padrão DBMS_CRYPTO.CHAIN_CBC e DBMS_CRYPTO.PAD_PKCS5 , se você não especificar valores para esses parâmetros.
A opção de formato encryption é usada com os seguintes procedimentos DBMS_CLOUD :
Por exemplo: format => JSON_OBJECT('encryption' value json_object ('type' value DBMS_CRYPTO.ENCRYPT_AES256 + DBMS_CRYPTO.CHAIN_CBC + DBMS_CRYPTO.PAD_PKCS5, 'credential_name' value 'ENCRYPTION_CRED')) |
encryption:value Em que valor é uma string JSON que fornece parâmetros adicionais para criptografia:
type : valor
Especifica o tipo de criptografia.
credential_name : value
Especifica a credencial usada para armazenar a chave de criptografia. user_defined_function: value Especifica uma função totalmente qualificada definida pelo usuário para decriptografar ou criptografar o BLOB especificado (objeto grande binário).
|
endquote
|
Os dados podem ser delimitados entre dois delimitadores, especificados com quote e endquote . Os caracteres quote e endquote são removidos durante o carregamento quando especificados.
Por exemplo: format => JSON_OBJECT(‘quote’ value ‘(’, ‘endquote’ value ‘)’) |
endquote :character
Valor padrão: Nulo, significando que não há endquote .
|
escape
|
O caractere "\" é usado como o caractere de escape quando especificado.
|
escape : true
Valor padrão: false
|
field_list
|
Identifica os campos nos arquivos de origem e seus tipos de dados. O valor padrão é NULO, o que significa que o campo e os tipos de dados são determinados pelo parâmetro column_list. Para obter mais informações, consulte field_list em Utilitários 19c do Oracle Database ou Utilitários Oracle AI Database 26ai.
|
Valor padrão: NULL
|
ignoreblanklines
Opção válida com dados JSON
|
As linhas em branco são ignoradas quando definidas como verdadeiras.
|
ignoreblanklines : true
Valor padrão: False
|
ignoremissingcolumns
|
Se houver mais colunas no field_list do que nos arquivos de origem, as colunas extras serão armazenadas como nulas.
|
ignoremissingcolumns : true
Valor padrão False
|
implicit_partition_config
|
A opção implicit_partition_config ativa o particionamento implícito quando partition_type é definido como "hive". A otimização de partição implícita é ativada quando strict_column_order é definido como "true".
Os critérios para usar essa otimização incluem:
- Não há arquivos com caminhos completos com strings extras antes do uri do arquivo e entre o caminho do nome da coluna da partição.
- Por exemplo, não é possível ter arquivos como
https://swiftobjectstorage.us-phoenix-1.oraclecloud.com/n/oraclebigdatadb/b/test-partitions/xyz/.. ou https://swiftobjectstorage.us-phoenix-1.oraclecloud.com/n/oraclebigdatadb/b/test-partitions/tenant=tenant_01/xyz/dbtype=dbtype_01/year=.. . O xyz representa strings extras. Esses arquivos serão ignorados se a otimização da lista for especificada e o predicado incluir as colunas de partição implícita após essas strings extras.
- A ordem das colunas de partição na especificação deve corresponder aos caminhos de arquivo reais e os caminhos de arquivo devem incluir todas as colunas em
partition_columns .
- Por exemplo, não é possível ter arquivos como
https://swiftobjectstorage.us-phoenix-1.oraclecloud.com/n/oraclebigdatadb/b/test-partitions/year=2023/month=01/tenant=tenant_01/dbtype=... . Ele não está na ordem correta da especificação implicit_columns . Esses arquivos serão ignorados se a especificação da lista for especificada e os predicados incluírem as colunas fora de ordem (por exemplo, onde tenant='tenant_01' e dbtype='dbtype_1' e year='2023' e ..)
- Não é possível ter arquivos como
https://swiftobjectstorage.us-phoenix-1.oraclecloud.com/n/oraclebigdatadb/b/test-partitions/tenant=tenant_01/year=2023/month=01/day=01/myfile.csv . Observe que dbtype está ausente aqui. Se a otimização estiver ativada, esses arquivos serão ignorados ou a consulta receberá uma mensagem de erro dependendo dos predicados fornecidos.
- Os caminhos de arquivo devem usar a nomeação do particionamento de estilo Hive.
As subopções para a opção de formato implicit_partition_config incluem:
partition_type : "hive" é o único valor aceito; o padrão é o caminho de nome de arquivo não Hive.
partition_columns : ["column1","column2",…]
strict_column_order : falso (padrão), verdadeiro
Por exemplo: dbms_cloud.create_external_table (
table_name => 'partitions1',
credential_name => 'MY_CRED',
file_uri_list => 'https://swiftobjectstorage.us-phoenix-1.oraclecloud.com/n/oraclebigdatadb/b/test-partitions/',
column_list => 'payload varchar2(100), y number, total_sales number, tenant varchar2(10), dbtype varchar(10), year varchar(4), month varchar(2) day varchar(2)',
format => '{"type":"parquet",
"implicit_partition_config":{
"partition_type":"hive",
"strict_column_order":true,
"partition_columns":["tenant","dbtype","year","month","day"] } }');
|
implicit_partition_config tem as seguintes subopções:
-
partition_type: hive
O valor padrão é um caminho de nome de arquivo não Hive. O único valor válido é hive .
-
partition_columns : matriz de strings
Valor padrão: Se partition_type for especificado, os nomes das colunas serão derivados por meio da descoberta automática das chaves de partição em dados particionados no estilo HIVE. Caso contrário, o padrão será nulo e o particionamento implícito não será ativado.
-
strict_column_order: true
Valor padrão: falso
|
implicit_partition_columns
|
Ative o particionamento implícito e especifique os nomes das colunas da partição usando a opção de formato implicit_partition_columns com DBMS_CLOUD.CREATE_EXTERNAL_TABLE .
O particionamento implícito está ativado das seguintes maneiras:
-
Use implicit_partition_columns para fornecer uma lista de colunas de partição e especificar o implicit_partition_type . Por exemplo: format => '{"implicit_partition_type":"hive",
"implicit_partition_columns":["country","year","month"]}'
-
Use implicit_partition_columns para fornecer uma lista de colunas de partição sem fornecer o tipo de partição. O tipo de partição é detectado automaticamente como hive ou não-hive. Por exemplo: format => '{"implicit_partition_columns":["country","year","month"]}'
-
Use implicit_partition_type para fornecer o tipo de colunas de partição sem fornecer uma lista de colunas de partição. A descoberta automática das chaves de partição em dados particionados no estilo HIVE é acionada para determinar os nomes das colunas. Por exemplo: format => '{"partition_type":"hive"}'
Consulte implicit_partition_type para obter a descrição e a sintaxe da opção.
|
implicit_partition_columns : matriz de strings
Valor padrão: Se implicit_partition_type for especificado, os nomes das colunas serão derivados por meio da descoberta automática das chaves de partição em dados particionados no estilo HIVE. Caso contrário, o padrão será nulo e o particionamento implícito não será ativado.
|
implicit_partition_type
|
Ative o particionamento implícito e especifique os tipos de dados das colunas de partição usando a opção de formato implicit_partition_type com DBMS_CLOUD.CREATE_EXTERNAL_TABLE .
Consulte implicit_partition_columns para obter mais informações sobre como ativar o particionamento implícito e exemplos.
|
implicit_partition_type : colmeia
Valor padrão: Se implicit_partition_columns for especificado, o tipo será detectado automaticamente como hive ou não-hive. Caso contrário, o padrão será nulo e o particionamento implícito não será ativado.
|
jsonpath
Usar somente com COPY_COLLECTION
|
Caminho JSON para identificar o documento a ser carregado.
Essa opção só é válida para dados de coleta JSON com DBMS_CLOUD.COPY_COLLECTION .
|
jsonpath : string
Valor padrão: Nulo
|
keyassignment Usar somente com COPY_COLLECTION
|
Especifica se uma nova coleção é criada como uma coleção compatível com mongo ou como uma coleção SODA.
Quando o valor é definido como embedded_oid , uma nova coleção é criada como uma coleção compatível com mongo.
Por padrão, esse parâmetro não está definido, o que significa que uma nova coleção é criada como uma coleção SODA.
|
keyassignment : embedded_oid
Padrão: keyassignment não está definido
|
keypath
Usar somente com COPY_COLLECTION
|
Especifica um atributo nos dados a serem carregados como o valor '_id' .
Se keypath for especificado, você também deverá especificar o valor keyassignment como embedded_oid .
Defina o valor como um caminho, por exemplo, '$.mykey' , para escolher o valor do caminho como '_id' .
Este parâmetro é opcional e só é válido para carregamento em coleções compatíveis com mongo.
Se não for especificado, o sistema Oracle gerará um ID de sistema exclusivo de 12 bytes e o preencherá como o atributo '_id' , se um atributo '_id' ainda não estiver presente nos dados que estão sendo carregados.
|
keypath : string
Padrão: keypath não está definido.
Quando keypath é definido, o valor padrão de string é NULL .
|
language
|
Especifica o nome de um idioma (por exemplo, FRENCH), cujas informações de configuração regional podem ser derivadas.
|
language : string
Valor padrão: Nulo
Consulte Locale Data no Oracle Database Globalization Support Guide para obter uma listagem de idiomas suportados pelo sistema Oracle.
|
logdir
|
Especifica um valor de string que determina o nome do objeto de diretório onde os arquivos logfile_table ou badfile_table são salvos.
Por padrão, o logdir não faz distinção entre maiúsculas e minúsculas, mas o uso de maiúsculas e minúsculas é reservado quando o valor especificado está entre aspas duplas.
Por exemplo:
format => JSON_OBJECT ('logdir' value 'test_log')
A opção de formato logdir especificada no exemplo acima salva os arquivos logfile_table ou badfile_table no objeto do diretório TEST_LOG .
format => JSON_OBJECT ('logdir' value '"test_log"')
A opção de formato logdir especificada no exemplo acima salva os arquivos logfile_table ou badfile_table no objeto do diretório test_log .
|
logdir : string
Valor padrão: DATA_PUMP_DIR
|
logprefix
|
Especifica um valor de string que determina o prefixo para os arquivos logfile_table e badfile_table .
O formato do nome da tabela de log é: logprefix$ operation_id
Por padrão, o logprefix está em letras maiúsculas, mas a letra é reservada quando o valor especificado é colocado entre aspas duplas.
Por exemplo: format => JSON_OBJECT ('logprefix' value 'TEST') Os arquivos de log usam o prefixo TEST , como: TEST$2_LOG e TEST$2_BAD .
|
logprefix : string
Valor padrão: COPY
|
logretention
|
Especifica uma duração de número inteiro positivo, em dias, para a qual os arquivos logfile_table e badfile_table são retidos.
Valores válidos: 0 a 99999
Por exemplo: format => JSON_OBJECT ('logretention' value 7) |
logretention : número
Valor padrão: 2
|
maxdocsize
Esta opção só é válida com dados JSON
|
Tamanho máximo de documentos JSON.
|
maxdocsize : número
Valor padrão: 1 Megabyte
Valor máximo permitido: 2 Gigabytes
|
numericcharacters
|
Especifica os caracteres a serem usados como separador de grupo e caractere decimal.
decimal_character: O decimal separa a parte inteira de um número da parte decimal.
group_separator: O separador de grupo separa grupos de números inteiros (ou seja, milhares, milhões, bilhões etc.).
|
numericcharacters: 'decimal_character group_separator'
Valor padrão: ".,"
Consulte NLS_NUMERIC_CHARACTERS no Oracle Database Globalization Support Guide para obter mais informações.
|
numberformat
|
Especifica o modelo de formato de número. Os modelos de formato numérico fazem com que o número seja arredondado para o número especificado de dígitos significativos. Um modelo de formato de número é composto de um ou mais elementos de formato de número.
É usado em combinação com numericcharacters .
|
numberformat: number_format_model
Valor padrão: é derivado da definição do parâmetro NLS_TERRITORY
Consulte Modelos de Formato de Número em Referência de Linguagem SQL para obter mais informações.
|
partition_columns
|
A opção de formato partition_columns é usada com DBMS_CLOUD.CREATE_EXTERNAL_PART_TABLE para especificar os nomes das colunas e os tipos de dados das colunas de partição quando as colunas de partição são derivadas do caminho do arquivo, dependendo do tipo de arquivo de dados, estruturado ou não estruturado:
-
Quando o DBMS_CLOUD.CREATE_EXTERNAL_PART_TABLE inclui o parâmetro column_list e o arquivo de dados é desestruturado, como com arquivos de texto CSV, o partition_columns não inclui o tipo de dados. Por exemplo, use um formato como o seguinte para esse tipo de especificação partition_columns :
'"partition_columns":["state","zipcode"]'
O tipo de dados não é obrigatório porque está especificado no parâmetro DBMS_CLOUD.CREATE_EXTERNAL_PART_TABLE column_list .
-
Quando o DBMS_CLOUD.CREATE_EXTERNAL_PART_TABLE não inclui o parâmetro column_list e os arquivos de dados são estruturados, como arquivos Avro, ORC ou Parquet, a opção partition_columns inclui o tipo de dados. Por exemplo, o seguinte mostra uma especificação partition_columns :
'"partition_columns":[
{"name":"country", "type":"varchar2(10)"},
{"name":"year", "type":"number"},
{"name":"month", "type":"varchar2(10)"}]'
Se os arquivos de dados forem desestruturados e a subcláusula type for especificada com partition_columns , a subcláusula type será ignorada.
Para nomes de objeto que não se baseiam no formato de colmeia, a ordem das colunas especificadas partition_columns deve corresponder à ordem conforme elas aparecem no nome do objeto no file_uri_list .
|
|
quote
|
Especifica o caractere de aspas para os campos. Os caracteres quote são removidos durante a carga quando especificados.
|
quote : character
Valor padrão: Nulo, que significa nenhuma cota
|
readsize
|
Especifica o tamanho do buffer de leitura para processar registros.
O parâmetro readsize deve ser pelo menos tão grande quanto o maior registro do conjunto de dados que está sendo lido.
Por exemplo:
format => JSON_OBJECT ('readsize' value 1000)
|
readsize : número
Valor padrão: 10 Megabytes
|
recorddelimiter
Opção válida com dados JSON
|
Especifica o delimitador de registro.
Por padrão, DBMS_CLOUD tenta localizar automaticamente o caractere de nova linha correto como delimitador. Ele primeiro pesquisa o arquivo para o caractere de nova linha do Windows "\r\n ". Se ele encontrar o caractere de nova linha do Windows, ele será usado como delimitador de registro para todos os arquivos no procedimento. Se um caractere da linha nova do Windows não for encontrado, ele procurará o caractere da linha nova do UNIX/Linux "\n " e, se encontrar um, ele usará "\n " como delimitador de registro para todos os arquivos no procedimento.
Especifique este argumento explicitamente se quiser substituir o comportamento padrão, por exemplo:
format => json_object('recorddelimiter' VALUE '''\r\n''')
Para indicar que não há delimitador de registro, você pode especificar um recorddelimiter que não ocorra no arquivo de entrada. Por exemplo, para indicar que não há delimitador, especifique o caractere de controle 0x01 (SOH) como um valor para recorddelimiter e defina o valor recorddelimiter como "0x''01''" (esse caractere não ocorre no texto JSON). Por exemplo:
format => '{"recorddelimiter" : "0x''01''"}'
O recorddelimiter é definido uma vez por chamada de procedimento. Se você estiver usando o valor padrão, detected newline , todos os arquivos usarão o mesmo delimitador de registro, se for detectado um.
|
recorddelimiter : caractere
Valor padrão: nova linha detectada
|
regexuri
|
A opção de formato regexuri é usada com os seguintes procedimentos DBMS_CLOUD:
Quando o valor de regexuri é definido como TRUE , você pode usar curingas, bem como expressões regulares nos nomes de arquivos nos URIs do arquivo de origem da Nuvem.
Os caracteres "*" e "?" são considerados caracteres curinga quando o parâmetro regexuri é definido como FALSE . Quando o parâmetro regexuri é definido como TRUE , os caracteres "*" e "?" fazem parte do padrão de expressão regular especificado.
Só há suporte para padrões de expressão regular no nome do arquivo ou no caminho da subpasta em seus URIs, e a correspondência de padrões é idêntica à executada pela função REGEXP_LIKE . Padrões de expressão regular não são suportados para nomes de diretório.
Para tabelas externas, essa opção só é suportada com as tabelas criadas em um arquivo no Object Storage.
Por exemplo:
format => JSON_OBJECT('regexuri' value TRUE)
Consulte REGEXP_LIKE Condição para obter mais informações sobre a condição REGEXP_LIKE .
|
regexuri : True
Valor padrão: False
|
rejectlimit
|
A operação resultará em erro após o número especificado de linhas ser rejeitado.
|
rejectlimit : número
Valor padrão: 0
|
removequotes
|
Remove todas as aspas que estão ao redor de qualquer campo no arquivo de origem.
|
removequotes : true
Valor padrão: False
|
skipheaders
|
Especifica quantas linhas devem ser ignoradas do início do arquivo.
|
skipheaders : número
Valor padrão: 0 se não for especificado, 1 se for especificado sem um valor
|
territory
|
Especifica um nome de território para determinar melhor as características dos dados de entrada.
|
territory : string
Valor padrão: Nulo
Consulte Locale Data no Oracle Database Globalization Support Guide para obter uma listagem de territórios suportados pelo sistema Oracle.
|
timestampformat
|
Especifica o formato de timestamp no arquivo de origem. A opção de formato AUTO pesquisa os seguintes formatos:
YYYY-MM-DD HH:MI:SS.FF
YYYY-MM-DD HH:MI:SS.FF3
YYYY-MM-DD HH24:MI:SS.FF3
MM/DD/YYYY HH:MI:SS.FF3
|
timestampformat : string
Valor padrão: Formato de timestamp do banco de dados
A string pode conter caracteres curinga, como "$".
|
timestampltzformat
|
Especifica o timestamp com o formato de fuso horário local no arquivo de origem. A opção de formato AUTO pesquisa os seguintes formatos:
DD Mon YYYY HH:MI:SS.FF TZR
MM/DD/YYYY HH:MI:SS.FF TZR
YYYY-MM-DD HH:MI:SS+/-TZR
YYYY-MM-DD HH:MI:SS.FF3
DD.MM.YYYY HH:MI:SS TZR
|
timestampltzformat : string
Valor padrão: Timestamp do banco de dados com formato de fuso horário local
|
timestamptzformat
|
Especifica o timestamp com o formato de fuso horário no arquivo de origem. A opção de formato AUTO pesquisa os seguintes formatos:
DD Mon YYYY HH:MI:SS.FF TZR
MM/DD/YYYY HH:MI:SS.FF TZR
YYYY-MM-DD HH:MI:SS+/-TZR
YYYY-MM-DD HH:MI:SS.FF3
DD.MM.YYYY HH:MI:SS TZR
|
timestamptzformat : string
Valor padrão: Timestamp do banco de dados com formato de fuso horário
|
trimspaces
|
Especifica como os espaços à esquerda e à direita dos campos são cortados.
Consulte a descrição de trim_spec.
|
trimspaces : rtrim| ltrim| notrim| lrtrim| ldrtrim
Valor padrão: notrim
|
truncatecol
|
Se os dados do arquivo forem muito longos para um campo, essa opção truncará o valor do campo em vez de rejeitar a linha.
|
truncatecol :true
Valor padrão: False
|
type
|
Especifica o tipo de arquivo de origem.
Consulte a descrição de CSV na Cláusula field_definitions
Se o type for datapump , a única outra opção de formato válida será rejectlimit .
Se o type for datapump , os únicos Armazenamento de Objetos suportados serão o Oracle Cloud Infrastructure Object Storage e o Oracle Cloud Infrastructure Object Storage Classic.
Consulte DBMS_CLOUD Opções do Formato do Pacote para Avro, ORC ou Parquet para obter os valores type avro , orc ou parquet .
Para dados JSON com DBMS_CLOUD.COPY_COLLECTION type , há dois valores válidos: json (padrão) e ejson . Para DBMS_CLOUD.COPY_COLLECTION , esses valores especificam que a entrada são dados JSON. O valor ejson faz com que objetos estendidos nos dados de entrada JSON textuais sejam convertidos em valores JSON escalares na coleção JSON binária nativa. O valor json não executa essa transformação e todos os objetos nos dados de entrada são convertidos em formato JSON binário.
Para dados JSON com DBMS_CLOUD.COPY_DATA type , tem um valor válido: json . Esse valor especifica que a entrada são dados JSON.
|
type : csv|csv with embedded |csv without embedded |avro| |datapump|orc|parquet
Observação
Nem todos os procedimentos do DBMS_CLOUD suportam todos esses tipos.
csv é o mesmo que csv without embedded .
Valor padrão: Nulo
Para dados JSON, há dois valores type válidos para uso com DBMS_CLOUD.COPY_COLLECTION : json |ejson Nesse caso, o valor padrão é json . Para dados JSON com DBMS_CLOUD.COPY_DATA , somente json é válido.
|
unpackarrays
Usar somente com COPY_COLLECTION
|
Quando definido como true , se um documento carregado for um array, o conteúdo do array será carregado como documentos, e não como o próprio array. Isso só se aplica ao array de nível superior.
Quando definido como true , todo o array é inserido como um único documento.
Essa opção só é válida para dados de coleta JSON com DBMS_CLOUD.COPY_COLLECTION .
|
unpackarrays : true
Valor padrão: False
|