DBMS_CLOUD Sottoprogrammi e API REST

In questa sezione vengono descritti i sottoprogrammi DBMS_CLOUD e le API REST fornite con Autonomous Database.

Nota

Per eseguire i sottoprogrammi DBMS_CLOUD con un utente diverso da ADMIN, è necessario concedere i privilegi EXECUTE a tale utente. Ad esempio, eseguire il seguente comando come ADMIN per concedere i privilegi a adb_user:
GRANT EXECUTE ON DBMS_CLOUD TO adb_user;

Il pacchetto DBMS_CLOUD è composto dai seguenti elementi:

DBMS_CLOUD per la gestione degli accessi

I sottoprogrammi per la gestione delle credenziali all'interno del package DBMS_CLOUD, incluse le credenziali di creazione, eliminazione e aggiornamento.

Programma secondario descrizione;

CREATE_CREDENTIAL Procedura

Questa procedura memorizza le credenziali del servizio cloud in Autonomous Database.

DROP_CREDENTIAL Procedura

Questa procedura rimuove una credenziale esistente da Autonomous Database.

REFRESH_VAULT_CREDENTIAL Procedura

Questa procedura aggiorna immediatamente il segreto vault di una credenziale segreta del vault per ottenere la versione più recente del segreto vault per il valore credential_name specificato in Autonomous Database.

UPDATE_CREDENTIAL Procedura

Questa procedura aggiorna gli attributi delle credenziali del servizio cloud in Autonomous Database.

CREATE_CREDENTIAL Procedura

Questa procedura memorizza le credenziali del servizio cloud in Autonomous Database.

Utilizzare le credenziali del servizio cloud memorizzate per accedere al servizio cloud per il caricamento dei dati, per eseguire query sui dati esterni che risiedono nel cloud o per altri casi quando si utilizzano le procedure DBMS_CLOUD con un parametro credential_name. Questa procedura è sovraccaricata:

  • Utilizzare i parametri relativi a Oracle Cloud Infrastructure, tra cui user_ocid, tenancy_ocid, private_key e fingerprint solo quando si utilizza l'autenticazione delle chiavi di firma di Oracle Cloud Infrastructure.

  • Utilizzare il parametro params per uno dei seguenti:

    • Credenziali Amazon Resource Names (ARNs)

    • Google Analytics o Google BigQuery credenziali

    • Credenziali del segreto vault da utilizzare con un vault supportato:

      • Oracle Cloud Infrastructure Vault
      • Vault delle chiavi di Azure
      • AWS Secrets Manager
      • Gestore segreti GCP

Sintassi

DBMS_CLOUD.CREATE_CREDENTIAL (
      credential_name   IN VARCHAR2,
      username          IN VARCHAR2,
      password          IN VARCHAR2 DEFAULT NULL,
      comments          IN VARCHAR2 DEFAULT NULL);


DBMS_CLOUD.CREATE_CREDENTIAL (
      credential_name   IN VARCHAR2,
      user_ocid         IN VARCHAR2,
      tenancy_ocid      IN VARCHAR2,
      private_key       IN VARCHAR2,
      fingerprint       IN VARCHAR2,
      comments          IN VARCHAR2 DEFAULT NULL);


DBMS_CLOUD.CREATE_CREDENTIAL (
      credential_name  IN VARCHAR2,
      params           IN CLOB DEFAULT);

Parametri

Parametro descrizione;

credential_name

Il nome della credenziale da memorizzare. Il parametro credential_name deve essere conforme alle convenzioni di denominazione degli oggetti Oracle. Il parametro credential_name può essere definito come identificativo non racchiuso tra virgolette o come identificativo tra virgolette. Per ulteriori informazioni, vedere Regole di denominazione degli oggetti del database.

username

Gli argomenti username e password specificano insieme le credenziali del servizio cloud. Consulta le note sull'uso per le informazioni da specificare per username e password per i diversi servizi cloud.

password

Gli argomenti username e password specificano insieme le credenziali del servizio cloud.

comments

Specifica il testo del commento per la credenziale. Questo campo può essere utile per descrivere e distinguere le credenziali.

La lunghezza massima del commento è di 3800 caratteri.

user_ocid

Specifica l'OCID dell'utente. Per informazioni dettagliate su come ottenere l'OCID dell'utente, vedere Where to Get the Tenancy's OCID and User's OCID.

tenancy_ocid

Specifica l'OCID della tenancy. Per informazioni dettagliate su come ottenere l'OCID della tenancy, vedere Where to Get the Tenancy's OCID and User's OCID.

private_key

Specifica la chiave privata generata. Le chiavi private generate con una password non sono supportate. È necessario generare la chiave privata senza una passphrase. Per informazioni dettagliate sulla generazione di una coppia di chiavi in formato PEM, vedere Come generare una chiave di firma API.

fingerprint

Specifica un'impronta digitale. Dopo aver caricato una chiave pubblica generata nell'account dell'utente, l'impronta viene visualizzata nella console. Utilizzare l'impronta digitale visualizzata per questo argomento. Per ulteriori dettagli, vedere Come ottenere l'impronta digitale della chiave e Come generare una chiave di firma API.

params

Specifica i parametri delle credenziali per uno dei seguenti elementi:

  • Credenziali Amazon Resource Names (ARNs)

  • Google Analytics o Google BigQuery credenziali

  • Credenziali segrete del vault da utilizzare con le credenziali di tipo nome utente/password in cui si memorizza la password in un vault supportato:

    • Oracle Cloud Infrastructure Vault

    • Vault delle chiavi di Azure

    • AWS Secrets Manager

    • Gestore segreti GCP

    Per creare una credenziale segreta del vault, è necessario disporre del privilegio EXECUTE nel package DBMS_CLOUD.

Note per uso

  • Questa operazione memorizza le credenziali nel database in formato cifrato.

  • È possibile visualizzare le credenziali nello schema eseguendo una query sulla tabella user_credentials.

  • È possibile visualizzare i commenti delle credenziali nello schema eseguendo una query sulla tabella user_credentials. Ad esempio:

    SELECT comments FROM user_credentials
            WHERE credential_name = 'MY_CRED';
  • L'utente ADMIN può visualizzare tutte le credenziali eseguendo una query sulla tabella dba_credentials.

  • È necessario creare le credenziali una sola volta a meno che le credenziali del servizio cloud non vengano modificate. Dopo aver memorizzato le credenziali, è possibile utilizzare lo stesso nome di credenziale per le procedure DBMS_CLOUD che richiedono un parametro credential_name.

  • Questa procedura è sovraccaricata. Se si fornisce uno degli attributi di autenticazione basati su chiave, user_ocid, tenancy_ocid, private_key o fingerprint, si presume che la chiamata sia una credenziale basata su chiave di firma di Oracle Cloud Infrastructure.

  • È possibile elencare le credenziali dalla vista ALL_CREDENTIALS. Ad esempio, eseguire il comando seguente per visualizzare le credenziali:

    SELECT credential_name, username, comments FROM all_credentials;

Credenziali Oracle Cloud Infrastructure (token di autorizzazione)

Per Oracle Cloud Infrastructure, username è il nome utente di Oracle Cloud Infrastructure. password è il token di autenticazione di Oracle Cloud Infrastructure. Vedere Utilizzo dei token di autenticazione.

Ad esempio:

BEGIN
  DBMS_CLOUD.CREATE_CREDENTIAL(
    credential_name => 'DEF_CRED_NAME',
    username => 'adb_user@example.com',
    password => 'password' );
END;
/

Usare le credenziali basate su token di autenticazione quando si autenticano le chiamate a OCI Object Storage. Per le chiamate a qualsiasi altro tipo di servizio cloud Oracle Cloud Infrastructure, utilizza le credenziali basate sulla chiave di firma di Oracle Cloud Infrastructure.

Per lo storage degli oggetti OCI, il valore del parametro username deve includere il dominio di Identity e il nome utente del profilo. Puoi trovare il dominio di Identity associato a un utente nella console di Oracle Cloud Infrastructure.

Ad esempio:

oracleidentitycloudservice/adb_user@example.com

Con il dominio di Identity predefinito non è necessario includere il nome di dominio Default. Ad esempio:

adb_user@example.com

Credenziali basate su chiave di firma Oracle Cloud Infrastructure

Utilizzare i parametri correlati alla chiave di firma di Oracle Cloud Infrastructure, tra cui user_ocid, tenancy_ocid, private_key e fingerprint con l'autenticazione delle chiavi di firma di Oracle Cloud Infrastructure.

Ad esempio:

BEGIN
   DBMS_CLOUD.CREATE_CREDENTIAL (
       credential_name => ‘OCI_KEY_CRED’,
       user_ocid       => ‘ocid1.user.oc1..aaaaaaaauq54mi7zdyfhw33ozkwuontjceel7fok5nq3bf2vwetkpqsoa’,
       tenancy_ocid    => ‘ocid1.tenancy.oc1..aabbbbbbaafcue47pqmrf4vigneebgbcmmoy5r7xvoypicjqqge32ewnrcyx2a’,
       private_key     => ‘MIIEogIBAAKCAQEAtUnxbmrekwgVac6FdWeRzoXvIpA9+0r1.....wtnNpESQQQ0QLGPD8NM//JEBg=’,
       fingerprint     => ‘f2:db:f9:18:a4:aa:fc:94:f4:f6:6c:39:96:16:aa:27’);
END;
/

Le chiavi private generate con una password non sono supportate. È necessario generare la chiave privata senza una passphrase. Per ulteriori informazioni, vedere Come generare una chiave di firma API.

Credenziali Oracle Cloud Infrastructure Object Storage Classic

Se i file di origine risiedono in Oracle Cloud Infrastructure Object Storage Classic, username è il nome utente Oracle Cloud Infrastructure Classic e password è la password Oracle Cloud Infrastructure Classic.

Credenziali Amazon Web Services (AWS)

Se i file di origine risiedono in Amazon S3 o si sta chiamando un'API AWS, username è l'ID della chiave di accesso AWS e password è la chiave di accesso segreta AWS. Vedere AWS Identity and Access Management.

Credenziali Microsoft Azure

Se i file di origine risiedono in Azure Blob Storage o in Azure Data Lake Storage o si sta chiamando un'API di Azure, username è il nome dell'account di memorizzazione di Azure e password è una chiave di accesso dell'account di memorizzazione di Azure. Vedere Informazioni sugli account di memorizzazione di Azure.

Credenziali compatibili con Amazon S3

Servizio Informazioni credenziali

Oracle Cloud Infrastructure (chiavi segrete del cliente)

Se i file di origine risiedono in Oracle Cloud Infrastructure, è necessario utilizzare le chiavi segrete del cliente con URL compatibili con S3. Per ulteriori informazioni, vedere Utilizzo delle chiavi segrete del cliente.

Google Cloud Storage

Se i file di origine risiedono in Google Cloud Storage o si chiamano API di Google Cloud Storage, è necessario impostare un progetto Google predefinito e ottenere una chiave HMAC per creare le credenziali da fornire con gli URL compatibili con S3 di Google Cloud Storage. Utilizzare l'ID chiave HMAC come nome utente e il segreto HMAC come password.

Per ulteriori informazioni, vedere Progetti e Chiavi HMAC.

Storage cloud a caldo per Wasabi

Se i file di origine risiedono in Wasabi Hot Cloud Storage o si chiamano le API Wasabi Hot Cloud Storage, è necessario utilizzare le chiavi di accesso per creare le credenziali da fornire con gli URL compatibili con S3. Utilizzare la chiave di accesso Wasabi Hot Cloud Storage come nome utente e la chiave segreta Wasabi Hot Cloud Storage come password.

Per ulteriori informazioni, vedere Creazione di un set di chiavi di accesso API Wasabi.

Credenziali AWS Amazon Resource Names (ARN)

Se i file di origine risiedono in Amazon S3 o si sta chiamando un'API AWS, utilizzare params per specificare i parametri per i nomi delle risorse Amazon (ARN).

Parametro Valore
aws_role_arn

Specifica il nome della risorsa Amazon (ARN) che identifica il ruolo AWS.

Se questo parametro non viene fornito durante la creazione della credenziale, viene generato ORA-20041.

external_id_type

Facoltativamente, impostare external_id_type per utilizzare l'OCID del compartimento di Autonomous Database, l'OCID del database o l'OCID della tenancy fornendo uno dei seguenti: compartment_ocid, database_ocid o tenant_ocid.

Se questo parametro non viene specificato durante la creazione della credenziale, il valore predefinito è database_ocid.

Ad esempio:

BEGIN DBMS_CLOUD.CREATE_CREDENTIAL(
        credential_name      => 'MY_CRED',
        params               => JSON_OBJECT(
               'aws_role_arn'      value 'arn:aws:iam::123456:role/AWS_ROLE_ARN',
               'external_id_type'  value 'database_ocid'));
END;
/

GitHub Token di accesso personale

Se i file di origine risiedono in un repository GitHub o si sta chiamando un'interfaccia API GitHub, username è l'indirizzo di posta elettronica GitHub e password è il token di accesso personale GitHub. Per ulteriori informazioni, vedere Creazione di un token di accesso personale.

Ad esempio:

BEGIN
  DBMS_CLOUD.CREATE_CREDENTIAL(
    credential_name => 'MY_GITHUB_CRED',
    username => 'user@example.com',
    password => 'your_personal_access_token' );
END;
/

Credenziali Google Analytics o Google BigQuery

Se si accede a Google Analytics o Google BigQuery, utilizzare il parametro params per specificare i parametri delle credenziali OAuth 2.0 di Google.

Parametro Valore
gcp_oauth2

Specifica l'accesso OAuth 2.0 per Google Analytics o Google BigQuery con un oggetto JSON che include i seguenti parametri e i relativi valori:

  • client_id: per ottenere l'ID client, vedere Google API Console.

  • client_secret: per ottenere il segreto client, vedere Google API Console.

  • refresh_token: un token di aggiornamento consente all'applicazione di ottenere nuovi token di accesso.

Per ulteriori informazioni sulle credenziali di Google OAuth, vedere Utilizzo di OAuth 2.0 per accedere alle API di Google.

Ad esempio:

BEGIN DBMS_CLOUD.CREATE_CREDENTIAL(
      credential_name => 'GOOGLE_BIGQUERY_CRED',
      params => JSON_OBJECT('gcp_oauth2' value 
                                  JSON_OBJECT(
                                       'client_id'     value 'client_id',
                                       'client_secret' value 'client_secret',
                                       'refresh_token' value 'refresh_token' )));
END;
/

Credenziali del segreto vault con Oracle Cloud Infrastructure Vault

Per creare le credenziali del segreto vault con Oracle Cloud Infrastructure Vault, utilizzare il parametro params per specificare i parametri necessari:

  • username: specifica il nome utente di qualsiasi tipo di credenziale nome utente/password, ad esempio il nome utente della password di OCI Swift. Ad esempio, se si dispone di una credenziale Swift con nome utente "scott" e password "password", specificare "scott" come parametro username.

  • secret_id: è l'ID del segreto vault. Specificare il valore secret_id come OCID segreto vault. Per ulteriori informazioni, vedere Panoramica del vault.

  • region: è un parametro facoltativo che specifica l'identificativo dell'area cloud oracle. L'area, se specificata, indica la posizione in cui si trova il segreto di Oracle Cloud Infrastructure Vault.

    Per impostazione predefinita, CREATE_CREDENTIAL utilizza il file region mappato dalla chiave area in secret_id. Un esempio di area è us-ashburn-1.

    Per un elenco completo delle aree, consulta la sezione relativa alle aree e ai domini di disponibilità.

Ad esempio:

BEGIN DBMS_CLOUD.CREATE_CREDENTIAL(
    credential_name => 'OCI_SECRET_CRED',
    params => JSON_OBJECT( 
                'username'   value 'scott',
                'region'     value 'us-ashburn-1',
                'secret_id'  value 'ocid1.vaultsecret.co1.ap-mumbai-1.example..aaaaaaaauq5ok5nq3bf2vwetkpqsoa'));
END;
/

Note per l'uso di un segreto di Oracle Cloud Infrastructure Vault per memorizzare i segreti del vault:

  • Quando si utilizza Oracle Cloud Infrastructure Vault, nell'istanza di Autonomous Database è necessario abilitare l'autenticazione del principal con DBMS_CLOUD_ADMIN.ENABLE_RESOURCE_PRINCIPAL.
  • In Oracle Cloud Infrastructure è necessario specificare un criterio per il principal risorsa per accedere al segreto.

Per creare una credenziale segreta del vault, è necessario disporre del privilegio EXECUTE nel package DBMS_CLOUD.

Credenziali del segreto vault con Azure Key Vault

Per creare le credenziali di Key Vault di Azure, utilizzare il parametro params per specificare i parametri richiesti:

  • username: specifica il nome utente associato alla chiave.

  • secret_id: specifica il nome del segreto.

  • azure_vault_name: specifica il nome del vault in cui si trova il segreto.

Per ulteriori informazioni, vedere Creare un vault di chiavi.

Per creare una credenziale segreta del vault, è necessario disporre del privilegio EXECUTE nel package DBMS_CLOUD.

Credenziali segrete del vault con AWS Secrets Manager

Per creare le credenziali segrete del vault con AWS Secrets Manager, utilizzare il parametro params per specificare i parametri richiesti:

  • username: specifica la chiave di accesso di AWS Secrets Manager.

  • secret_id: AWS Secrets Manager è AWS ARN.

  • region: (facoltativo) specifica l'area di servizio AWS in cui si trovano il vault e il segreto. Un esempio della regione AWS è "noi-est-2". Il valore predefinito region è l'area specificata con l'ARN nel parametro secret_id.

    Per ulteriori informazioni, vedere Gestione delle aree AWS.

    Per creare una credenziale segreta del vault, è necessario disporre del privilegio EXECUTE nel package DBMS_CLOUD.

Credenziali del segreto vault con GCP Secret Manager

Per creare le credenziali di GCP Secret Manager, utilizzare il parametro params per specificare i parametri richiesti:

  • username: specifica il nome utente associato al segreto.

  • secret_id: è il nome segreto.

  • gcp_project_id: specifica l'ID del progetto in cui si trova il segreto.

Per ulteriori informazioni, vedere Gestione segreta.

Per creare una credenziale segreta del vault, è necessario disporre del privilegio EXECUTE nel package DBMS_CLOUD.

DROP_CREDENTIAL Procedura

Questa procedura rimuove una credenziale esistente da Autonomous Database.

Sintassi

DBMS_CLOUD.DROP_CREDENTIAL (
   credential_name     IN VARCHAR2);

Parametri

Parametro descrizione;

credential_name

Il nome della credenziale da rimuovere.

REFRESH_VAULT_CREDENTIAL Procedura

Questa procedura aggiorna il segreto vault di una credenziale segreta del vault.

Questa procedura consente di aggiornare immediatamente il segreto vault di una credenziale segreta del vault per ottenere la versione più recente del segreto vault per il file credential_name specificato.

Sintassi

DBMS_CLOUD.REFRESH_VAULT_CREDENTIAL (
    credential_name   IN VARCHAR2);

Parametri

Parametro descrizione;

credential_name

Il nome della credenziale da aggiornare.

Note per uso

  • L'utente ADMIN può visualizzare tutte le credenziali eseguendo una query sulla tabella dba_credentials.

  • È possibile elencare le credenziali dalla vista ALL_CREDENTIALS. Ad esempio, eseguire il comando seguente per visualizzare le credenziali:

    SELECT credential_name, username, comments FROM all_credentials;

Esempio

BEGIN
  DBMS_CLOUD.REFRESH_VAULT_CREDENTIAL(
     credential_name => 'AZURE_SECRET_CRED'); 
END;
/

UPDATE_CREDENTIAL Procedura

Questa procedura aggiorna un attributo con un nuovo valore per un valore credential_name specificato.

Utilizzare le credenziali memorizzate per il caricamento dei dati, per eseguire query sui dati esterni che risiedono nel cloud o ovunque si utilizzino le procedure DBMS_CLOUD con un parametro credential_name.

Sintassi

DBMS_CLOUD.UPDATE_CREDENTIAL (
    credential_name   IN VARCHAR2,
    attribute         IN VARCHAR2,
    value             IN VARCHAR2);

Parametri

Parametro descrizione;

credential_name

Il nome della credenziale da aggiornare.

attribute

Nome dell'attributo da aggiornare.

Per una credenziale di tipo nome utente/password, i valori validi di attribute sono USERNAME e PASSWORD.

Per una credenziale per un ARN Amazon, i valori validi di attribute sono: aws_role_arn e external_id_type.

Per una credenziale per Google BigQuery o Google Analytics, i valori validi di attribute sono: client_id, client_secret e refresh_token.

A seconda del vault in uso, per le credenziali segrete del vault i valori attribute validi sono:
  • Oracle Cloud Infrastructure Vault: secret_id, region

  • Vault delle chiavi di Azure: secret_id, azure_vault_name

  • Gestore segreti AWS: secret_id, region

  • Gestore segreti GCP: secret_id, gcp_project_id

Per ulteriori informazioni, vedere CREATE_CREDENTIAL Procedura.

value

Nuovo valore per l'attributo specificato.

Note per uso

  • Il valore del nome utente distingue tra casi. Non può contenere virgolette o spazi.

  • L'utente ADMIN può visualizzare tutte le credenziali eseguendo una query su dba_credentials.

  • È necessario creare le credenziali una sola volta a meno che le credenziali del servizio cloud non vengano modificate. Dopo aver memorizzato le credenziali, è possibile utilizzare lo stesso nome di credenziale per le procedure DBMS_CLOUD che richiedono un parametro credential_name.

  • È possibile elencare le credenziali dalla vista ALL_CREDENTIALS. Ad esempio, eseguire il comando seguente per visualizzare le credenziali:

    SELECT credential_name, username, comments FROM all_credentials;

Esempi

BEGIN
  DBMS_CLOUD.UPDATE_CREDENTIAL(
     credential_name => 'OBJ_STORE_CRED',
     attribute => 'PASSWORD',
     value => 'password'); 
END;
/
BEGIN
  DBMS_CLOUD.UPDATE_CREDENTIAL(
     credential_name => 'ARN_CRED',
     attribute => 'aws_role_arn',
     value => 'NEW_AWS_ARN'); 
END;
/

DBMS_CLOUD per oggetti e file

Sottoprogrammi per la gestione di oggetti e file all'interno del pacchetto DBMS_CLOUD.

Programma secondario descrizione;

COPY_COLLECTION Procedura

Questa procedura carica i dati nella raccolta SODA esistente dallo storage degli oggetti cloud o dai file di una directory.

COPY_DATA Procedura

Questa procedura carica i dati nelle tabelle di Autonomous Database esistenti dallo storage degli oggetti cloud o dai file in una directory.

COPY_DATA Procedura per i file Avro, ORC o Parquet

Questa procedura con il parametro format type impostato sul valore orc, parquet o avro carica i dati nelle tabelle di Autonomous Database esistenti dai file ORC, Parquet o Avro nel cloud o dai file ORC, Parquet o Avro in una directory.

Analogamente ai file di testo, i dati vengono copiati dal file ORC, Parquet o Avro di origine nella tabella interna preesistente.

COPY_OBJECT Procedura

Questa procedura copia i file da un bucket dello storage degli oggetti cloud a un altro.

CREATE_EXTERNAL_TABLE Procedura

Questa procedura crea una tabella esterna sui file nel cloud o sui file di una directory. Ciò consente di eseguire query su dati esterni da Autonomous Database.
CREATE_CLOUD_TABLE Procedura

Questa procedura crea una tabella cloud in cui tutti i dati persistenti vengono memorizzati nello storage degli oggetti gestito da Oracle.

CREATE_EXTERNAL_TABLE Procedura per Apache Iceberg

Questa procedura crea tabelle esterne per le tabelle Apache Iceberg nelle configurazioni supportate.

CREATE_EXTERNAL_TABLE Procedura per i file Avro, ORC o Parquet

Questa procedura con il parametro format type impostato sul valore parquet, orc o avro crea una tabella esterna con i file in formato Parquet, ORC o Avro nel cloud o in una directory.

Ciò consente di eseguire query su dati esterni da Autonomous Database.

CREATE_EXTERNAL_PART_TABLE Procedura

Questa procedura crea una tabella partizionata esterna sui file nel cloud. Ciò consente di eseguire query su dati esterni da Autonomous Database.

CREATE_EXTERNAL_TEXT_INDEX Procedura

Questa procedura crea un indice di testo nei file dell'area di memorizzazione degli oggetti.

CREATE_HYBRID_PART_TABLE Procedura

Questa procedura crea una tabella partizionata ibrida. Ciò consente di eseguire query su dati ibridi partizionati da Autonomous Database.

DELETE_ALL_OPERATIONS Procedura

Questa procedura cancella tutte le operazioni di caricamento dati registrate nella tabella user_load_operations nello schema oppure cancella tutte le operazioni di caricamento dati del tipo specificato, come indicato con il parametro type.

DELETE_FILE Procedura

Questa procedura rimuove il file specificato dalla directory specificata in Autonomous Database

DELETE_OBJECT Procedura

Questa procedura elimina l'oggetto specificato nell'area di memorizzazione degli oggetti.

DELETE_OPERATION Procedura

Questa procedura accetta un valore operation_id come input ed elimina i log associati al valore operation_id specificato.

DROP_EXTERNAL_TEXT_INDEX Procedura

Questa procedura elimina l'indice di testo nei file dell'area di memorizzazione degli oggetti.

EXPORT_DATA Procedura

Questa procedura esporta i dati da Autonomous Database nei file nel cloud in base al risultato di una query. Il form sovraccarico consente di utilizzare il parametro operation_id. A seconda dell'opzione type del parametro format specificata, la procedura esporta le righe nell'area di memorizzazione degli oggetti cloud come testo con opzioni CSV, JSON, Parquet o XML oppure utilizzando il driver di accesso ORACLE_DATAPUMP per scrivere i dati in un file di dump.

GET_OBJECT Procedura e funzione

Questa procedura è sovraccaricata. Il form della procedura legge un oggetto dallo storage degli oggetti cloud e lo copia in Autonomous Database. Il form funzione legge un oggetto dallo storage degli oggetti cloud e restituisce BLOB ad Autonomous Database.

Funzione LIST_FILES

Questa funzione elenca i file nella directory specificata. I risultati includono i nomi dei file e metadati aggiuntivi relativi ai file, ad esempio la dimensione dei file in byte, l'indicatore orario di creazione e l'indicatore orario dell'ultima modifica.

Funzione LIST_OBJECTS

Questa funzione elenca gli oggetti nella posizione specificata nell'area di memorizzazione degli oggetti. I risultati includono i nomi degli oggetti e metadati aggiuntivi relativi agli oggetti, ad esempio dimensione, checksum, indicatore orario di creazione e indicatore orario dell'ultima modifica.

MOVE_OBJECT Procedura

Questa procedura sposta un oggetto da un bucket di storage degli oggetti cloud a un altro.

PUT_OBJECT Procedura

Questa procedura è sovraccaricata. In un unico form la procedura copia un file da Autonomous Database nello storage degli oggetti cloud. In un altro modulo, la procedura copia un file BLOB da Autonomous Database nello storage degli oggetti cloud.

SYNC_EXTERNAL_PART_TABLE Procedura

Questa procedura semplifica l'aggiornamento di una tabella partizionata esterna dai file nel cloud. Eseguire questa procedura ogni volta che vengono aggiunte nuove partizioni o quando le partizioni vengono rimosse dall'origine dell'area di memorizzazione degli oggetti per la tabella partizionata esterna.

VALIDATE_EXTERNAL_TABLE Procedura

Questa procedura convalida i file di origine per una tabella esterna, genera le informazioni di log e memorizza le righe che non corrispondono alle opzioni di formato specificate per la tabella esterna in una tabella badfile in Autonomous Database.

VALIDATE_EXTERNAL_PART_TABLE Procedura

Questa procedura convalida i file di origine per una tabella partizionata esterna, genera informazioni di log e memorizza le righe che non corrispondono alle opzioni di formato specificate per la tabella esterna in una tabella badfile in Autonomous Database.

VALIDATE_HYBRID_PART_TABLE Procedura

Questa procedura convalida i file di origine per una tabella partizionata ibrida, genera informazioni di log e memorizza le righe che non corrispondono alle opzioni di formato specificate per la tabella ibrida in una tabella badfile in Autonomous Database.

COPY_COLLECTION Procedura

Questa procedura carica i dati in una raccolta SODA dallo storage degli oggetti cloud o da una directory. Se la raccolta SODA specificata non esiste, viene creata dalla procedura. Il form sovraccarico consente di utilizzare il parametro operation_id.

Sintassi

DBMS_CLOUD.COPY_COLLECTION (
    collection_name   IN VARCHAR2,
    credential_name   IN VARCHAR2 DEFAULT NULL,
    file_uri_list     IN CLOB,
    format            IN CLOB     DEFAULT NULL
);

DBMS_CLOUD.COPY_COLLECTION (
    collection_name   IN VARCHAR2,
    credential_name   IN VARCHAR2 DEFAULT NULL,
    file_uri_list     IN CLOB,
    format            IN CLOB     DEFAULT NULL,
    operation_id      OUT NOCOPY NUMBER
);

Parametri

Parametro descrizione;

collection_name

Nome della raccolta SODA in cui verranno caricati i dati. Se una raccolta con questo nome esiste già, i dati specificati verranno caricati, altrimenti verrà creata una nuova raccolta.

credential_name

Il nome della credenziale per accedere allo storage degli oggetti cloud.

È possibile utilizzare 'OCI$RESOURCE_PRINCIPAL' come credential_name quando il principal risorsa è abilitato. Vedere ENABLE_RESOURCE_PRINCIPAL.

Questo parametro non viene utilizzato quando si specifica una directory con file_uri_list.

file_uri_list

Questo parametro specifica una lista delimitata da virgole degli URI dei file di origine oppure una o più directory e file di origine.

URI file di origine cloud

È possibile utilizzare caratteri jolly ed espressioni regolari nei nomi file negli URI dei file di origine cloud.

Le espressioni regolari possono essere utilizzate solo quando il parametro regexuri format è impostato su TRUE.

I caratteri "*" e "?" vengono considerati caratteri jolly quando il parametro regexuri è impostato su FALSE. Quando il parametro regexuri è impostato su TRUE, i caratteri "*" e "?" fanno parte del pattern di espressioni regolari specificato.

I pattern di espressioni regolari sono supportati solo per il nome file o il percorso della sottocartella negli URI e la corrispondenza del pattern è identica a quella eseguita dalla funzione REGEXP_LIKE.

Ad esempio:

file_uri_list => 'https://objectstorage.us-phoenix-1.oraclecloud.com/n/namespace-string/b/bucketname/o(/)*year=[0-9]+(/)*month=[0-9]+(/)*[a-z]+[1-3]??.csv'

Il formato degli URI dipende dal servizio di storage degli oggetti cloud in uso. Per i dettagli, vedere DBMS_CLOUD Formati URI.

Per ulteriori informazioni sulla condizione REGEXP_LIKE, vedere REGEXP_LIKE Condizione.

Directory

È possibile specificare una directory e uno o più nomi di file oppure usare una lista separata da virgole di directory e nomi di file. Il formato per specificare una directory è:'MY_DIR:filename.ext'. Per impostazione predefinita, il nome directory MY_DIR è un oggetto di database e non fa distinzione tra maiuscole e minuscole. Per il nome del file viene fatta distinzione tra casi.

Le espressioni regolari non sono supportate quando si specificano i nomi file in una directory. È possibile utilizzare solo caratteri jolly per specificare i nomi dei file in una directory. Il carattere "*" può essere utilizzato come carattere jolly per più caratteri e il carattere "?" può essere utilizzato come carattere jolly per un singolo carattere. Ad esempio:'MY_DIR:*" o 'MY_DIR:test?'

Per specificare più directory, utilizzare una lista separata da virgole di directory, ad esempio:'MY_DIR1:*, MY_DIR2:test?'

Utilizzare le virgolette doppie per specificare un nome di directory con distinzione tra maiuscole e minuscole. Ad esempio:'"my_dir1":*, "my_dir2":Test?'

Per includere una virgoletta, utilizzare due virgolette. Ad esempio:'MY_DIR:''filename.ext'. Specifica che filename inizia con una virgoletta (').

format

Opzioni che descrivono il formato dei file di origine. Queste opzioni sono specificate come stringa JSON.

I formati supportati sono: characterset, compression, encryption, ignoreblanklines, jsonpath, maxdocsize, recorddelimiter, rejectlimit, type, unpackarrays, keyassignment e keypath.

Oltre ai formati menzionati per i dati JSON, Autonomous Database supporta anche altri formati. Per la lista degli argomenti di formato supportati da Autonomous Database, vedere DBMS_CLOUD Package Format Options.

operation_id

Utilizzare questo parametro per tenere traccia dell'avanzamento e dello stato finale dell'operazione di caricamento come ID corrispondente nella vista USER_LOAD_OPERATIONS.

Esempio

BEGIN
    DBMS_CLOUD.CREATE_CREDENTIAL(
            credential_name => 'OBJ_STORE_CRED',
            username        => 'user_name@oracle.com',
            password        => 'password'
            );

    DBMS_CLOUD.COPY_COLLECTION(
            collection_name => 'myCollection',
            credential_name => 'OBJ_STORE_CRED',
            file_uri_list   => 'https://objectstorage.us-phoenix-1.oraclecloud.com/n/adbexample/b/json/o/myCollection.json'  
            );
END;
/

COPY_DATA Procedura

Questa procedura carica i dati nelle tabelle di Autonomous Database esistenti dai file nel cloud o dai file di una directory. Il form sovraccarico consente di utilizzare il parametro operation_id.

Sintassi

DBMS_CLOUD.COPY_DATA (
    table_name        IN VARCHAR2,
    credential_name   IN VARCHAR2 DEFAULT NULL,
    file_uri_list     IN CLOB,
    schema_name       IN VARCHAR2,
    field_list        IN CLOB,
    format            IN CLOB);

DBMS_CLOUD.COPY_DATA (
    table_name        IN VARCHAR2,
    credential_name   IN VARCHAR2 DEFAULT NULL,
    file_uri_list     IN CLOB DEFAULT NULL,
    schema_name       IN VARCHAR2 DEFAULT NULL,
    field_list        IN CLOB DEFAULT NULL,
    format            IN CLOB DEFAULT NULL
    operation_id      OUT NOCOPY NUMBER);

Parametri

Parametro descrizione;

table_name

Nome della tabella di destinazione nel database. Prima di eseguire COPY_DATA, è necessario creare la tabella di destinazione.

credential_name

Il nome della credenziale per accedere allo storage degli oggetti cloud.

È possibile utilizzare 'OCI$RESOURCE_PRINCIPAL' come credential_name quando il principal risorsa è abilitato. Vedere ENABLE_RESOURCE_PRINCIPAL.

Questo parametro non viene utilizzato quando si specifica un URL di collegamento ipertestuale di directory o tabella con file_uri_list.

file_uri_list

Questo parametro specifica una delle seguenti opzioni:

  • Lista delimitata da virgole degli URI dei file di origine

  • Elenco delimitato da virgole di URL collegamento ipertestuale tabella

  • Una o più directory e file di origine

È possibile utilizzare caratteri jolly ed espressioni regolari nei nomi file negli URI dei file di origine cloud.

URI file di origine cloud

Questo parametro specifica una lista delimitata da virgole degli URI dei file di origine oppure una o più directory e file di origine.

Le espressioni regolari possono essere utilizzate solo quando il parametro regexuri format è impostato su TRUE.

I caratteri "*" e "?" vengono considerati caratteri jolly quando il parametro regexuri è impostato su FALSE. Quando il parametro regexuri è impostato su TRUE, i caratteri "*" e "?" fanno parte del pattern di espressioni regolari specificato.

I pattern di espressioni regolari sono supportati solo per il nome file o il percorso della sottocartella negli URI e la corrispondenza del pattern è identica a quella eseguita dalla funzione REGEXP_LIKE.

Ad esempio:

file_uri_list => 'https://objectstorage.us-phoenix-1.oraclecloud.com/n/namespace-string/b/bucketname/o(/)*year=[0-9]+(/)*month=[0-9]+(/)*[a-z]+[1-3]??.csv'

Il formato degli URI dipende dal servizio di storage degli oggetti cloud in uso. Per i dettagli, vedere DBMS_CLOUD Formati URI.

Per ulteriori informazioni sulla condizione REGEXP_LIKE, vedere REGEXP_LIKE Condizione.

URL collegamento ipertestuale tabella

È possibile utilizzare un collegamento ipertestuale tabella nei modi riportati di seguito.
  • Specificare un singolo URL collegamento ipertestuale tabella.

    Ad esempio:
    file_uri_list => 'https://dataaccess.adb.us-chicago-1.oraclecloudapps.com/adb/p/K6XExample/data'
    
  • Specificare una lista delimitata da virgole di URL collegamento ipertestuale tabella. È necessario assicurarsi che tutti i collegamenti ipertestuali tabella inclusi abbiano gli stessi nomi di colonna, ordine di colonna e tipi di dati colonna.

    Ad esempio:
    file_uri_list => 'https://dataaccess.adb.us-chicago-1.oraclecloudapps.com/adb/p/K6XExample/data','https://dataaccess.adb.us-chicago-1.oraclecloudapps.com/adb/p/K7XExample/data'
    
Per ulteriori informazioni, vedere Informazioni sui collegamenti ipertestuali alle tabelle in Autonomous Database e la procedura GET_PREAUTHENTICATED_URL.

Directory

È possibile specificare una directory e uno o più nomi di file oppure usare una lista separata da virgole di directory e nomi di file. Il formato per specificare una directory è:'MY_DIR:filename.ext'. Per impostazione predefinita, il nome directory MY_DIR è un oggetto di database e non fa distinzione tra maiuscole e minuscole. Per il nome del file viene fatta distinzione tra casi.

Le espressioni regolari non sono supportate quando si specificano i nomi file in una directory. È possibile utilizzare solo caratteri jolly per specificare i nomi dei file in una directory. Il carattere "*" può essere utilizzato come carattere jolly per più caratteri e il carattere "?" può essere utilizzato come carattere jolly per un singolo carattere. Ad esempio:'MY_DIR:*" o 'MY_DIR:test?'

Per specificare più directory, utilizzare una lista separata da virgole di directory, ad esempio:'MY_DIR1:*, MY_DIR2:test?'

Utilizzare le virgolette doppie per specificare un nome di directory con distinzione tra maiuscole e minuscole. Ad esempio:'"my_dir1":*, "my_dir2":Test?'

Per includere una virgoletta, utilizzare due virgolette. Ad esempio:'MY_DIR:''filename.ext'. Specifica che filename inizia con una virgoletta (').

schema_name

Nome dello schema in cui risiede la tabella di destinazione. Il valore predefinito è NULL, ovvero la tabella di destinazione si trova nello stesso schema dell'utente che esegue la procedura.

field_list

Identifica i campi nei file di origine e i relativi tipi di dati. Il valore predefinito è NULL, ovvero i campi e i relativi tipi di dati sono determinati dalla definizione della tabella di destinazione. La sintassi di questo argomento è la stessa della clausola field_list nelle normali tabelle esterne Oracle. Per ulteriori informazioni su field_list, vedere Oracle® Database Utilities.

Quando il valore dell'opzione type del parametro format è json, questo parametro viene ignorato.

Per un esempio che utilizza field_list, vedere Procedura CREATE_EXTERNAL_TABLE.

format

Opzioni che descrivono il formato dei file di origine, di log e non validi. Per l'elenco delle opzioni e come specificare i valori, vedere DBMS_CLOUD Opzioni formato pacchetto.

Per le opzioni di formato file Avro, ORC o Parquet, vedere DBMS_CLOUD Opzioni di formato package per Avro, ORC o Parquet.

operation_id

Utilizzare questo parametro per tenere traccia dell'avanzamento e dello stato finale dell'operazione di caricamento come ID corrispondente nella vista USER_LOAD_OPERATIONS.

Nota per l'uso

Il delimitatore di record predefinito è detected newline. Con detected newline, DBMS_CLOUD tenta di trovare automaticamente il carattere di nuova riga corretto da utilizzare come delimitatore di record. DBMS_CLOUD cerca innanzitutto il carattere di nuova riga di Windows \r\n. Se trova il carattere di nuova riga di Windows, viene utilizzato come delimitatore di record per tutti i file della procedura. Se un carattere di nuova riga di Windows non viene trovato, DBMS_CLOUD cerca il carattere di nuova riga UNIX/Linux \n e, se ne trova uno, utilizza \n come delimitatore di record per tutti i file della procedura. Se i file di origine utilizzano una combinazione di diversi delimitatori di record, potrebbe verificarsi un errore, ad esempio "KUP-04020: found record longer than buffer size supported". In questo caso, è necessario modificare i file di origine per utilizzare lo stesso delimitatore di record oppure specificare solo i file di origine che utilizzano lo stesso delimitatore di record.

Per informazioni sull'opzione di formato recorddelmiter, vedere DBMS_CLOUD Package Format Options.

Esempi

BEGIN
    DBMS_CLOUD.CREATE_CREDENTIAL(
            credential_name => 'DEF_CRED_NAME',
            username        => 'user_name@oracle.com',
            password        => 'password'
            );
END;
/
BEGIN
 DBMS_CLOUD.COPY_DATA(
    table_name =>'CHANNELS',
    credential_name =>'DEF_CRED_NAME',
    file_uri_list =>'https://objectstorage.us-phoenix-1.oraclecloud.com/n/namespace-string/b/bucketname/o/channels.txt',
    format => json_object('delimiter' value ',')
 );
END;
/
BEGIN
    DBMS_CLOUD.COPY_DATA(
            table_name      => 'ORDERS',
            schema_name     => 'TEST_SCHEMA',
            credential_name => 'DEF_CRED_NAME',
	     file_uri_list   => 'https://objectstorage.us-phoenix-1.oraclecloud.com/n/adbexample/b/json/o/orde[r]s.tbl.1'
            format          =>  json_object('ignoreblanklines' value TRUE,
                                            'rejectlimit' value '0',
                                            'dateformat' value 'yyyy-mm-dd',
                                            'regexuri' value TRUE)
            );
END;
/

COPY_DATA Procedura per i file Avro, ORC o Parquet

Questa procedura con il parametro format type impostato sul valore avro, orc o parquet carica i dati nelle tabelle di Autonomous Database esistenti dai file Avro, ORC o Parquet nel cloud o dai file in una directory.

Analogamente ai file di testo, i dati vengono copiati dal file Avro, ORC o Parquet di origine nella tabella interna preesistente.

Sintassi

DBMS_CLOUD.COPY_DATA (
    table_name        IN VARCHAR2,
    credential_name   IN VARCHAR2 DEFAULT NULL,
    file_uri_list     IN CLOB,
    schema_name       IN VARCHAR2 DEFAULT,
    field_list        IN CLOB DEFAULT,
    format            IN CLOB DEFAULT);

Parametri

Parametro descrizione;

table_name

Nome della tabella di destinazione nel database. Prima di eseguire COPY_DATA, è necessario creare la tabella di destinazione.

credential_name

Il nome della credenziale per accedere allo storage degli oggetti cloud.

È possibile utilizzare 'OCI$RESOURCE_PRINCIPAL' come credential_name quando il principal risorsa è abilitato. Vedere ENABLE_RESOURCE_PRINCIPAL.

Questo parametro non viene utilizzato quando si specifica una directory con file_uri_list.

file_uri_list

Questo parametro specifica una lista delimitata da virgole degli URI dei file di origine oppure una o più directory e file di origine.

URI file di origine cloud

È possibile utilizzare caratteri jolly ed espressioni regolari nei nomi file negli URI dei file di origine cloud.

Le espressioni regolari possono essere utilizzate solo quando il parametro regexuri format è impostato su TRUE.

I caratteri "*" e "?" vengono considerati caratteri jolly quando il parametro regexuri è impostato su FALSE. Quando il parametro regexuri è impostato su TRUE, i caratteri "*" e "?" fanno parte del pattern di espressioni regolari specificato.

I pattern di espressioni regolari sono supportati solo per il nome file o il percorso della sottocartella negli URI e la corrispondenza del pattern è identica a quella eseguita dalla funzione REGEXP_LIKE.

Ad esempio:

file_uri_list => 'https://objectstorage.us-phoenix-1.oraclecloud.com/n/namespace-string/b/bucketname/o(/)*year=[0-9]+(/)*month=[0-9]+(/)*[a-z]+[1-3]??.csv'

Il formato degli URI dipende dal servizio di storage degli oggetti cloud in uso. Per i dettagli, vedere DBMS_CLOUD Formati URI.

Per ulteriori informazioni sulla condizione REGEXP_LIKE, vedere REGEXP_LIKE Condizione.

Directory

È possibile specificare una directory e uno o più nomi di file oppure usare una lista separata da virgole di directory e nomi di file. Il formato per specificare una directory è:'MY_DIR:filename.ext'. Per impostazione predefinita, il nome directory MY_DIR è un oggetto di database e non fa distinzione tra maiuscole e minuscole. Per il nome del file viene fatta distinzione tra casi.

Le espressioni regolari non sono supportate quando si specificano i nomi file in una directory. È possibile utilizzare solo caratteri jolly per specificare i nomi dei file in una directory. Il carattere "*" può essere utilizzato come carattere jolly per più caratteri e il carattere "?" può essere utilizzato come carattere jolly per un singolo carattere. Ad esempio:'MY_DIR:*" o 'MY_DIR:test?'

Per specificare più directory, utilizzare una lista separata da virgole di directory, ad esempio:'MY_DIR1:*, MY_DIR2:test?'

Utilizzare le virgolette doppie per specificare un nome di directory con distinzione tra maiuscole e minuscole. Ad esempio:'"my_dir1":*, "my_dir2":Test?'

Per includere una virgoletta, utilizzare due virgolette. Ad esempio:'MY_DIR:''filename.ext'. Specifica che filename inizia con una virgoletta (').

schema_name

Nome dello schema in cui risiede la tabella di destinazione. Il valore predefinito è NULL, ovvero la tabella di destinazione si trova nello stesso schema dell'utente che esegue la procedura.

field_list

Ignorato per i file Avro, ORC o Parquet.

I campi nell'origine corrispondono alle colonne della tabella esterna per nome. I tipi di dati di origine vengono convertiti nel tipo di dati della colonna della tabella esterna.

Per i file ORC, vedere DBMS_CLOUD Package ORC to Oracle Data Type Mapping.

Per i file Parquet, vedere DBMS_CLOUD Parquet di package per Oracle Data Type Mapping per dettagli sul mapping.

Per i file Avro, vedere DBMS_CLOUD Package Avro to Oracle Data Type Mapping per i dettagli sul mapping.

format

Opzioni che descrivono il formato dei file di origine. Per i file Avro, ORC o Parquet, sono supportate solo due opzioni: vedere DBMS_CLOUD Opzioni formato package per Avro, ORC o Parquet.

Note per uso

  • Come per altri file di dati, i caricamenti dei dati Avro, ORC e Parquet generano log visualizzabili nelle tabelle dba_load_operations e user_load_operations. Ogni operazione di caricamento aggiunge un record a dba[utente]_load_operations che indica la tabella contenente i log.

    La tabella di log fornisce informazioni di riepilogo sul caricamento.

  • Per Avro, ORC o Parquet, quando il parametro format type è impostato sul valore avro, orc o parquet, la tabella BADFILE_TABLE è sempre vuota.

    • Per i file Parquet, gli errori di vincolo PRIMARY KEY restituiscono un errore ORA.

    • Se i dati di una colonna riscontrano un errore di conversione, ad esempio la colonna di destinazione non è sufficientemente grande da contenere il valore convertito, il valore della colonna viene impostato su NULL. Questo non produce un record rifiutato.

COPY_OBJECT Procedura

Questa procedura copia un oggetto da un bucket o una cartella dello storage degli oggetti cloud a un altro.

Il bucket o la cartella di origine e destinazione possono trovarsi nello stesso provider dell'area di memorizzazione degli oggetti cloud o in un altro provider.

Quando l'origine e la destinazione si trovano in aree di memorizzazione degli oggetti distinte o hanno account diversi con lo stesso provider cloud, è possibile assegnare nomi di credenziali separati per le posizioni di origine e destinazione.

Il nome della credenziale di origine viene utilizzato per impostazione predefinita anche dalla posizione di destinazione quando non viene fornito il nome della credenziale di destinazione.

Sintassi

DBMS_CLOUD.COPY_OBJECT (
    source_credential_name  IN  VARCHAR2 DEFAULT NULL,
    source_object_uri       IN  VARCHAR2,
    target_object_uri       IN  VARCHAR2,
    target_credential_name  IN  VARCHAR2 DEFAULT NULL
);

Parametri

Parametro descrizione;

source_credential_name

Nome della credenziale per accedere allo storage degli oggetti cloud di origine.

È possibile utilizzare 'OCI$RESOURCE_PRINCIPAL' come credential_name quando il principal risorsa è abilitato. Vedere ENABLE_RESOURCE_PRINCIPAL.

Se non si specifica un valore source_credential_name, credential_name viene impostato su NULL.

source_object_uri

Specifica l'URI che punta al bucket di storage degli oggetti o alla posizione della cartella di origine.

Questo parametro è obbligatorio.

Il formato degli URI dipende dal servizio di storage degli oggetti cloud. Vedere DBMS_CLOUD Formati URI per ulteriori informazioni.

target_object_uri

Specifica l'URI per l'area di memorizzazione degli oggetti di destinazione.

Questo parametro è obbligatorio.

Il formato degli URI dipende dal servizio di storage degli oggetti cloud. Vedere DBMS_CLOUD Formati URI per ulteriori informazioni.

target_credential_name

Nome della credenziale per accedere alla posizione di storage degli oggetti cloud di destinazione.

È possibile utilizzare 'OCI$RESOURCE_PRINCIPAL' come credential_name quando il principal risorsa è abilitato. Vedere ENABLE_RESOURCE_PRINCIPAL.

Se non si specifica un valore target_credential_name, il valore target_object_uri viene impostato sul valore source_credential_name.

Esempio

BEGIN 
DBMS_CLOUD.COPY_OBJECT (
    source_credential_name => 'OCI_CRED',
    source_object_uri    => 'https://objectstorage.us-phoenix-1.oraclecloud.com/n/namespace-string/b/bucketname1/bgfile.csv',
    target_object_uri    => 'https://objectstorage.us-phoenix-1.oraclecloud.com/n/namespace-string/b/bucketname2/myfile.csv'
);
END;
/

CREATE_CLOUD_TABLE Procedura

Questa procedura crea una tabella cloud. Tutti i dati della tabella cloud vengono memorizzati nello storage degli oggetti gestito da Oracle (le tabelle cloud memorizzano solo i metadati nel database).

Sintassi

DBMS_CLOUD.CREATE_CLOUD_TABLE (
    table_name       IN VARCHAR2,
    column_list      IN CLOB,
    params           IN CLOB);

Parametri

Parametro descrizione;

table_name

Nome della tabella cloud.

column_list

Lista delimitata da virgole di nomi di colonna e tipi di dati per la tabella cloud.

Note per uso

  • Attributi DEFAULT: la clausola column_list può includere la clausola DEFAULT, che funziona come la clausola DEFAULT in un normale CREATE TABLE. Per informazioni sul funzionamento della clausola DEFAULT, vedere CREATE TABLE.

  • Utilizzare DROP TABLE per eliminare una tabella cloud. Le tabelle cloud non supportano il cestino.

    Ad esempio:

    DROP TABLE CLOUD_TAB1; 
  • È possibile concedere i privilegi SELECT, INSERT e UPDATE per una tabella cloud. Non è possibile concedere altri privilegi a una tabella cloud.

    Per ulteriori informazioni, vedere Configurazione dell'autorizzazione di privilegi e ruoli.

Esempi

EXEC DBMS_CLOUD.CREATE_CLOUD_TABLE( 'CLOUD_TAB1', 'I INTEGER, J INTEGER' );
BEGIN
  DBMS_CLOUD.CREATE_CLOUD_TABLE(
   table_name  => 'CLOUD_TABLE_WITH_DEFAULT',
   column_list => 'I INTEGER,
                   A VARCHAR2(32) DEFAULT ''ABC''' );
END;
/

CREATE_EXTERNAL_PART_TABLE Procedura

Questa procedura crea una tabella partizionata esterna su file nel cloud o da file in una directory. Ciò consente di eseguire query su dati esterni da Autonomous Database.

Sintassi

DBMS_CLOUD.CREATE_EXTERNAL_PART_TABLE (
    table_name           IN VARCHAR2,
    credential_name      IN VARCHAR2,
    partitioning_clause  IN CLOB,
    column_list          IN CLOB,
    field_list           IN CLOB DEFAULT,
    format               IN CLOB DEFAULT);


DBMS_CLOUD.CREATE_EXTERNAL_PART_TABLE (
    table_name           IN VARCHAR2,
    credential_name      IN VARCHAR2,
    file_uri_list        IN VARCHAR2,
    column_list          IN CLOB,
    field_list           IN CLOB DEFAULT,
    format               IN CLOB DEFAULT);

Parametri

Parametro descrizione;

table_name

Il nome della tabella esterna.

credential_name

Il nome della credenziale per accedere allo storage degli oggetti cloud.

È possibile utilizzare 'OCI$RESOURCE_PRINCIPAL' come credential_name quando il principal risorsa è abilitato. Vedere ENABLE_RESOURCE_PRINCIPAL.

partitioning_clause

Specifica la clausola di partizionamento completa, incluse le informazioni sulla posizione per le singole partizioni.

Se si utilizza il parametro partitioning_clause, il parametro file_uri_list non è consentito.

file_uri_list

Questo parametro specifica una lista delimitata da virgole degli URI dei file di origine oppure una o più directory e file di origine.

URI file di origine cloud

È possibile utilizzare caratteri jolly ed espressioni regolari nei nomi file negli URI dei file di origine cloud.

Le espressioni regolari possono essere utilizzate solo quando il parametro regexuri format è impostato su TRUE.

I caratteri "*" e "?" vengono considerati caratteri jolly quando il parametro regexuri è impostato su FALSE. Quando il parametro regexuri è impostato su TRUE, i caratteri "*" e "?" fanno parte del pattern di espressioni regolari specificato.

I pattern di espressioni regolari sono supportati solo per il nome file o il percorso della sottocartella negli URI e la corrispondenza del pattern è identica a quella eseguita dalla funzione REGEXP_LIKE.

Questa opzione è supportata solo con tabelle esterne create su un file nello storage degli oggetti.

Ad esempio:

file_uri_list => 'https://objectstorage.us-phoenix-1.oraclecloud.com/n/namespace-string/b/bucketname/o(/)*year=[0-9]+(/)*month=[0-9]+(/)*[a-z]+[1-3]??.csv'

Se si utilizza il parametro file_uri_list, il parametro partitioning_clause non è consentito.

Il formato degli URI dipende dal servizio di storage degli oggetti cloud. Vedere DBMS_CLOUD Formati URI per ulteriori informazioni.

Per ulteriori informazioni sulla condizione REGEXP_LIKE, vedere REGEXP_LIKE Condizione.

column_list

Lista delimitata da virgole di nomi di colonna e tipi di dati per la tabella esterna. Questo parametro prevede i seguenti requisiti, a seconda del tipo di file di dati specificato con il parametro file_uri_list:

  • Il parametro column_list è obbligatorio con file non strutturati. Utilizzando file non strutturati, ad esempio con file di testo CSV, il parametro column_list deve specificare tutti i nomi di colonna e i tipi di dati all'interno del file di dati, nonché le colonne di partizione derivate dal nome dell'oggetto.

  • Il parametro column_list è facoltativo con i file strutturati. Ad esempio, con i file di dati Avro, ORC o Parquet, column_list non è obbligatorio. Quando l'opzione column_list non è inclusa, l'opzione partition_columns del parametro format deve includere specifiche sia per i nomi di colonna (name) che per i tipi di dati (type).

field_list

Identifica i campi nei file di origine e i relativi tipi di dati. Il valore predefinito è NULL, ovvero i campi e i relativi tipi di dati sono determinati dal parametro column_list. La sintassi di questo argomento è la stessa della clausola field_list nelle normali tabelle esterne Oracle. Per ulteriori informazioni su field_list, vedere Oracle® Database Utilities.

format

L'opzione di formato partition_columns specifica i nomi di colonna DBMS_CLOUD.CREATE_EXTERNAL_PART_TABLE e i tipi di dati delle colonne di partizione quando le colonne di partizione vengono derivate dal percorso del file, a seconda del tipo di file di dati, strutturato o non strutturato:

  • Quando il parametro DBMS_CLOUD.CREATE_EXTERNAL_PART_TABLE include il parametro column_list e i file di dati non sono strutturati, ad esempio con file di testo CSV, partition_columns non include il tipo di dati. Ad esempio, utilizzare un formato come il seguente per questo tipo di specifica partition_columns:

    '"partition_columns":["state","zipcode"]'

    Il tipo di dati non è obbligatorio perché è specificato nel parametro DBMS_CLOUD.CREATE_EXTERNAL_PART_TABLE column_list.

  • Se DBMS_CLOUD.CREATE_EXTERNAL_PART_TABLE non include il parametro column_list e i file di dati sono strutturati, ad esempio i file Avro, ORC o Parquet, l'opzione partition_columns include sia il nome della colonna, la sottoclausola name che il tipo di dati, la sottoclausola type. Ad esempio, la seguente mostra una specifica partition_columns:

    '"partition_columns":[
                   {"name":"country", "type":"varchar2(10)"},
                   {"name":"year", "type":"number"},
                   {"name":"month", "type":"varchar2(10)"}]'

Se i file di dati non sono strutturati e la sottoclausola type è specificata con partition_columns, la sottoclausola type viene ignorata.

Per i nomi oggetto non basati sul formato hive, l'ordine delle colonne specificate in partition_columns deve corrispondere all'ordine visualizzato nel nome oggetto nel percorso file specificato nel parametro file_uri_list.

Per visualizzare tutte le opzioni dei parametri format che descrivono il formato dei file di origine, vedere DBMS_CLOUD Opzioni formato package.

Note per uso

  • Non è possibile richiamare questa procedura con i parametri partitioning_clause e file_uri_list.

  • La specifica del parametro column_list è facoltativa con i file di dati strutturati, inclusi i file di dati Avro, Parquet o ORC. Se column_list non viene specificato, l'opzione partition_columns del parametro format deve includere sia name che type.

  • Il parametro column_list è obbligatorio con file di dati non strutturati, ad esempio file di testo CSV.

  • La procedura DBMS_CLOUD.CREATE_EXTERNAL_PART_TABLE supporta i file partizionati esterni nei servizi di storage degli oggetti cloud supportati, tra cui:
    • Oracle Cloud Infrastructure Object Storage

    • Azure Blob Storage o Azure Data Lake Storage

    • Amazon S3

    • Compatibile con Amazon S3, tra cui Oracle Cloud Infrastructure Object Storage, Google Cloud Storage e Wasabi Hot Cloud Storage.

    • GitHub Repository

    Vedere DBMS_CLOUD Formati URI per ulteriori informazioni.

  • La procedura DBMS_CLOUD.CREATE_EXTERNAL_PART_TABLE supporta file partizionati esterni nelle directory (file system locale o di rete).

  • Quando si chiama DBMS_CLOUD.CREATE_EXTERNAL_PART_TABLE con il parametro file_uri_list, i tipi per le colonne specificate nel nome file dell'area di memorizzazione degli oggetti cloud devono essere uno dei seguenti:

    VARCHAR2(n)
    NUMBER(n)
    NUMBER(p,s)
    NUMBER
    DATE
    TIMESTAMP(9)
  • Il delimitatore di record predefinito è detected newline. Con detected newline, DBMS_CLOUD tenta di trovare automaticamente il carattere di nuova riga corretto da utilizzare come delimitatore di record. DBMS_CLOUD cerca innanzitutto il carattere di nuova riga di Windows \r\n. Se trova il carattere di nuova riga di Windows, viene utilizzato come delimitatore di record per tutti i file della procedura. Se un carattere di nuova riga di Windows non viene trovato, DBMS_CLOUD cerca il carattere di nuova riga UNIX/Linux \n e, se ne trova uno, utilizza \n come delimitatore di record per tutti i file della procedura. Se i file di origine utilizzano una combinazione di diversi delimitatori di record, potrebbe verificarsi un errore, ad esempio "KUP-04020: found record longer than buffer size supported". In questo caso, è necessario modificare i file di origine per utilizzare lo stesso delimitatore di record oppure specificare solo i file di origine che utilizzano lo stesso delimitatore di record.

    Per informazioni sull'opzione di formato recorddelmiter, vedere DBMS_CLOUD Package Format Options.

  • Le tabelle partizionate esterne create con DBMS_CLOUD.CREATE_EXTERNAL_PART_TABLE includono due colonne invisibili file$path e file$name. Queste colonne consentono di identificare il file da cui proviene un record.

    • file$path: specifica il testo del percorso del file fino all'inizio del nome dell'oggetto.

    • file$name: specifica il nome dell'oggetto, incluso tutto il testo che segue il nome del bucket.

Esempi

Esempio di utilizzo del parametro partitioning_clause:

BEGIN  
   DBMS_CLOUD.CREATE_EXTERNAL_PART_TABLE(
      table_name =>'PET1',  
      credential_name =>'OBJ_STORE_CRED',
      format => json_object('delimiter' value ',', 'recorddelimiter' value 'newline', 'characterset' value 'us7ascii'),
      column_list => 'col1 number, col2 number, col3 number',
      partitioning_clause => 'partition by range (col1)
                                (partition p1 values less than (1000) location
                                    ( ''&base_URL//file_11.txt'')
                                 ,
                                 partition p2 values less than (2000) location
                                    ( ''&base_URL/file_21.txt'')
                                 ,
                                 partition p3 values less than (3000) location 
                                    ( ''&base_URL/file_31.txt'')
                                 )'
     );
   END;
/  


BEGIN
    DBMS_CLOUD.CREATE_EXTERNAL_PART_TABLE(
       table_name          => 'PET',
       format              => json_object('delimiter'value ','),
       column_list         => 'name varchar2(20), gender varchar2(10), salary number',
       partitioning_clause => 'partition by range (salary)
              (   -- Use test1.csv in the DEFAULT DIRECTORY DATA_PUMP_DIR 
                  partition p1 values less than (100) LOCATION (''test1.csv''),
                   -- Use test2.csv in a specified directory MY_DIR
                  partition p2 values less than (300) DEFAULT DIRECTORY MY_DIR LOCATION (''test2.csv'')        )'   );                       
END;                     
/

Esempio di utilizzo dei parametri file_uri_list e column_list con file di dati non strutturati:

BEGIN
  DBMS_CLOUD.CREATE_EXTERNAL_PART_TABLE(
   table_name => 'MYSALES',
   credential_name => 'DEF_CRED_NAME',
   file_uri_list     => 'https://objectstorage.us-phoenix-1.oraclecloud.com/n/namespace-string/b/bucketname/o/*.csv', 
   column_list       => 'product varchar2(100), units number, country varchar2(100), year number, month varchar2(2)', 
   field_list        => 'product, units', --[Because country, year and month are not in the file, they are not listed in the field list]
   format            => '{"type":"csv", "partition_columns":["country","year","month"]}');
END;
/ 

Esempio di utilizzo del parametro file_uri_list senza il parametro column_list con file di dati strutturati:

BEGIN
  DBMS_CLOUD.CREATE_EXTERNAL_PART_TABLE(
  table_name => 'MYSALES',
  credential_name => 'DEF_CRED_NAME',
  DBMS_CLOUD.CREATE_EXTERNAL_PART_TABLE(
    table_name      => 'MYSALES',
    credential_name => 'DEF_CRED_NAME',
    file_uri_list   => 'https://objectstorage.us-phoenix-1.oraclecloud.com/n/namespace-string/b/bucketname/o/*.parquet',
    format          => 
        json_object('type' value 'parquet', 'schema' value 'first',
                    'partition_columns' value 
                          json_array(
                                json_object('name' value 'country', 'type' value 'varchar2(100)'),
                                json_object('name' value 'year', 'type' value 'number'),
                                json_object('name' value 'month', 'type' value 'varchar2(2)')
                          )
         )
    );
END;
/

CREATE_EXTERNAL_TABLE Procedura

Questa procedura crea una tabella esterna sui file nel cloud o dai file di una directory. Ciò consente di eseguire query su dati esterni da Autonomous Database.

Sintassi

DBMS_CLOUD.CREATE_EXTERNAL_TABLE (
    table_name       IN VARCHAR2,
    credential_name  IN VARCHAR2 DEFAULT NULL,
    file_uri_list    IN CLOB,
    column_list      IN CLOB,
    field_list       IN CLOB DEFAULT,
    format           IN CLOB DEFAULT);

Parametri

Parametro descrizione;

table_name

Il nome della tabella esterna.

credential_name

Il nome della credenziale per accedere allo storage degli oggetti cloud.

È possibile utilizzare 'OCI$RESOURCE_PRINCIPAL' come credential_name quando il principal risorsa è abilitato. Vedere ENABLE_RESOURCE_PRINCIPAL.

Questo parametro non viene utilizzato quando si specifica una directory o un URL di collegamento ipertestuale tabella con file_uri_list.

file_uri_list

Questo parametro specifica una delle seguenti opzioni:

  • Lista delimitata da virgole degli URI dei file di origine.

  • Elenco delimitato da virgole di URL collegamento ipertestuale tabella.

  • Una o più directory e file di origine.

URI file di origine cloud

È possibile utilizzare caratteri jolly ed espressioni regolari nei nomi file negli URI dei file di origine cloud.

Le espressioni regolari possono essere utilizzate solo quando il parametro regexuri format è impostato su TRUE.

I caratteri "*" e "?" vengono considerati caratteri jolly quando il parametro regexuri è impostato su FALSE. Quando il parametro regexuri è impostato su TRUE, i caratteri "*" e "?" fanno parte del pattern di espressioni regolari specificato.

I pattern di espressioni regolari sono supportati solo per il nome file o il percorso della sottocartella negli URI e la corrispondenza del pattern è identica a quella eseguita dalla funzione REGEXP_LIKE.

Questa opzione è supportata solo con tabelle esterne create su un file nello storage degli oggetti.

Ad esempio:

file_uri_list => 'https://objectstorage.us-phoenix-1.oraclecloud.com/n/namespace-string/b/bucketname/o(/)*year=[0-9]+(/)*month=[0-9]+(/)*[a-z]+[1-3]??.csv'

Il formato degli URI dipende dal servizio di storage degli oggetti cloud in uso. Per i dettagli, vedere DBMS_CLOUD Formati URI.

Per ulteriori informazioni sulla condizione REGEXP_LIKE, vedere REGEXP_LIKE Condizione.

URL collegamento ipertestuale tabella

È possibile utilizzare un URL collegamento ipertestuale tabella per creare una tabella esterna nei modi riportati di seguito.
  • Specificare un singolo URL del collegamento ipertestuale della tabella di Autonomous Database. È inoltre possibile applicare filtri e clausole ai dati quando si leggono i dati dalla tabella. Ad esempio, è possibile filtrare i dati utilizzando la clausola WHERE o ordinarli utilizzando la clausola ORDER BY.

    Ad esempio:
    file_uri_list => 'https://dataaccess.adb.us-chicago-1.oraclecloudapps.com/adb/p/K6XExample/data'
    
  • Specificare una lista delimitata da virgole degli URL dei collegamenti ipertestuali delle tabelle di Autonomous Database. È necessario assicurarsi che tutti i collegamenti ipertestuali delle tabelle inclusi abbiano gli stessi nomi di colonna, ordine di colonna e tipi di dati delle colonne nello stesso schema.

    Ad esempio:
    file_uri_list => 'https://dataaccess.adb.us-chicago-1.oraclecloudapps.com/adb/p/K6XExample/data','https://dataaccess.adb.us-chicago-1.oraclecloudapps.com/adb/p/K7XExample/data'
    
Nota

Gli URL dei collegamenti ipertestuali delle tabelle non supportano i caratteri jolly.
Per ulteriori informazioni, vedere Informazioni sui collegamenti ipertestuali alle tabelle in Autonomous Database e la procedura GET_PREAUTHENTICATED_URL.
Directory

È possibile specificare una directory e uno o più nomi di file oppure usare una lista separata da virgole di directory e nomi di file. Il formato per specificare una directory è:'MY_DIR:filename.ext'. Per impostazione predefinita, il nome directory MY_DIR è un oggetto di database e non fa distinzione tra maiuscole e minuscole. Per il nome del file viene fatta distinzione tra casi.

Le espressioni regolari non sono supportate quando si specificano i nomi file in una directory. È possibile utilizzare solo caratteri jolly per specificare i nomi dei file in una directory. Il carattere "*" può essere utilizzato come carattere jolly per più caratteri e il carattere "?" può essere utilizzato come carattere jolly per un singolo carattere. Ad esempio:'MY_DIR:*" o 'MY_DIR:test?'

Per specificare più directory, utilizzare una lista separata da virgole di directory, ad esempio:'MY_DIR1:*, MY_DIR2:test?'

Utilizzare le virgolette doppie per specificare un nome di directory con distinzione tra maiuscole e minuscole. Ad esempio:'"my_dir1":*, "my_dir2":Test?'

Per includere una virgoletta, utilizzare due virgolette. Ad esempio:'MY_DIR:''filename.ext'. Specifica che filename inizia con una virgoletta (').

column_list

Lista delimitata da virgole di nomi di colonna e tipi di dati per la tabella esterna.

field_list

Identifica i campi nei file di origine e i relativi tipi di dati. Il valore predefinito è NULL, ovvero i campi e i relativi tipi di dati sono determinati dal parametro column_list. La sintassi di questo argomento è la stessa della clausola field_list nelle normali tabelle esterne di Oracle Database. Per ulteriori informazioni su field_list, vedere ORACLE_LOADER Driver di accesso field_list nella clausola field_definitions in Oracle Database Utilities.

format

Opzioni che descrivono il formato dei file di origine. Per l'elenco delle opzioni e come specificare i valori, vedere DBMS_CLOUD Opzioni formato pacchetto.

Per i file in formato Avro, ORC o Parquet, vedere CREATE_EXTERNAL_TABLE Procedura per i file Avro, ORC o Parquet.

Note per uso

  • La procedura DBMS_CLOUD.CREATE_EXTERNAL_TABLE supporta i file partizionati esterni nelle origini di storage degli oggetti cloud supportate, tra cui:

    • Oracle Cloud Infrastructure Object Storage

    • Azure Blob Storage o Azure Data Lake Storage

    • Amazon S3

    • Compatibile con Amazon S3, tra cui Oracle Cloud Infrastructure Object Storage, Google Cloud Storage e Wasabi Hot Cloud Storage.

    • GitHub Repository

    • Oracle Cloud Infrastructure Object Storage con URL collegamento ipertestuale tabella

    La credenziale è una proprietà a livello di tabella, pertanto i file esterni devono trovarsi nella stessa area di memorizzazione degli oggetti.

    Vedere DBMS_CLOUD Formati URI per ulteriori informazioni.

  • Il delimitatore di record predefinito è detected newline. Con detected newline, DBMS_CLOUD tenta di trovare automaticamente il carattere di nuova riga corretto da utilizzare come delimitatore di record. DBMS_CLOUD cerca innanzitutto il carattere di nuova riga di Windows \r\n. Se trova il carattere di nuova riga di Windows, viene utilizzato come delimitatore di record per tutti i file della procedura. Se un carattere di nuova riga di Windows non viene trovato, DBMS_CLOUD cerca il carattere di nuova riga UNIX/Linux \n e, se ne trova uno, utilizza \n come delimitatore di record per tutti i file della procedura. Se i file di origine utilizzano una combinazione di diversi delimitatori di record, potrebbe verificarsi un errore, ad esempio "KUP-04020: found record longer than buffer size supported". In questo caso, è necessario modificare i file di origine per utilizzare lo stesso delimitatore di record oppure specificare solo i file di origine che utilizzano lo stesso delimitatore di record.

    Per informazioni sull'opzione di formato recorddelimiter, vedere DBMS_CLOUD Package Format Options.

Esempio

BEGIN  
   DBMS_CLOUD.CREATE_EXTERNAL_TABLE(   
      table_name =>'WEATHER_REPORT_DOUBLE_DATE',   
      credential_name =>'OBJ_STORE_CRED',   
      file_uri_list =>'&base_URL/Charlotte_NC_Weather_History_Double_Dates.csv',
      format => json_object('type' value 'csv', 'skipheaders' value '1'),   
      field_list => 'REPORT_DATE DATE''mm/dd/yy'',                   
                     REPORT_DATE_COPY DATE ''yyyy-mm-dd'',
                     ACTUAL_MEAN_TEMP,                 
                     ACTUAL_MIN_TEMP,                 
                     ACTUAL_MAX_TEMP,                 
                     AVERAGE_MIN_TEMP,                    
                     AVERAGE_MAX_TEMP,     
                     AVERAGE_PRECIPITATION',   
      column_list => 'REPORT_DATE DATE,   
                     REPORT_DATE_COPY DATE,
                     ACTUAL_MEAN_TEMP NUMBER,  
                     ACTUAL_MIN_TEMP NUMBER,  
                     ACTUAL_MAX_TEMP NUMBER,  
                     AVERAGE_MIN_TEMP NUMBER,   
                     AVERAGE_MAX_TEMP NUMBER,                  
                     AVERAGE_PRECIPITATION NUMBER');
   END;
/ 

SELECT * FROM WEATHER_REPORT_DOUBLE_DATE where         
   actual_mean_temp > 69 and actual_mean_temp < 74

CREATE_EXTERNAL_TABLE Procedura per Apache Iceberg

Questa procedura crea tabelle esterne per le tabelle Apache Iceberg nelle configurazioni supportate.

Per una descrizione delle configurazioni supportate, vedere Informazioni sull'esecuzione di query sulle tabelle di Apache Iceberg.

Sintassi

DBMS_CLOUD.CREATE_EXTERNAL_TABLE (
    table_name       IN VARCHAR2,
    credential_name  IN VARCHAR2 DEFAULT NULL,
    file_uri_list    IN CLOB,
    column_list      IN CLOB DEFAULT NULL,
    field_list       IN CLOB DEFAULT NULL,
    format           IN CLOB DEFAULT NULL
);

Parametri

Parametro descrizione;

table_name

Il nome della tabella esterna.

credential_name

Il nome della credenziale utilizzata per accedere ai file di dati, ai file di metadati e al catalogo Iceberg (se utilizzato).

Per le configurazioni AWS e OCI, la credenziale deve essere creata come descritto nella procedura CREATE_CREDENTIAL.

Le credenziali AWS Amazon Resource Names (ARN) non sono attualmente supportate.

file_uri_list

Deve essere NULL se viene specificato un catalogo Iceberg (vedere il parametro format riportato di seguito). Se non viene utilizzato un catalogo iceberg, file_uri_list deve contenere l'URI del file di metadati iceberg.

column_list

Deve essere NULL, poiché i nomi e i tipi di colonna vengono derivati automaticamente dai metadati Iceberg.

I nomi delle colonne corrispondono ai nomi trovati nei file di dati sottostanti (Parquet, Avro, ORC). I tipi di dati Oracle vengono derivati utilizzando i mapping Parquet/Avro/ORC tra i tipi di dati Iceberg e Parquet, Avro e ORC. Pertanto gli utenti non possono specificare il valore column_list.

field_list

Deve essere NULL, poiché i nomi delle colonne e i tipi di dati vengono derivati automaticamente dai metadati Iceberg.

format

Il parametro format ha una struttura diversa a seconda del tipo di tabella Iceberg, AWS o OCI e quali informazioni vengono utilizzate per creare la tabella esterna, ad esempio informazioni da un Data Catalog o un URI di metadati diretti.

Per esempi e ulteriori informazioni, vedere gli esempi riportati di seguito, Supporto Iceberg sugli esempi di OCI Data Flow, DBMS_CLOUD Formati URI.

Esempio di tabelle AWS Iceberg che utilizzano il catalogo AWS Glue

Il parametro format quando si creano tabelle su una tabella AWS Iceberg utilizzando un catalogo AWS Glue è il seguente:

format => json_object('access_protocol' value
       json_object('protocol_type' value 'iceberg',
                   'protocol_config' value
                    json_object('iceberg_catalog_type' value 'aws_glue',
                                'iceberg_glue_region'  value 'glue region',
                                'iceberg_table_path'   value 'database_name.table_name'))); 
Dove, il parametro access_protocol contiene un oggetto JSON con due elementi come indicato di seguito.
  • protocol_type: deve essere 'iceberg'
  • protocol_config: oggetto JSON nidificato che specifica i dettagli del catalogo iceberg.
    • iceberg_catalog_type: deve essere 'aws_glue'
    • iceberg_glue_region: l'area del catalogo, ad esempio 'us-west-1'
    • iceberg_table_path: un percorso glue database.glue table name.

Esempio di tabella AWS Iceberg che utilizza un URI di file di metadati

Il parametro format quando si creano tabelle su una tabella AWS Iceberg utilizzando un URI file di metadati è il seguente:
format => json_object('access_protocol' value
       json_object('protocol_type' value 'iceberg')

Esempio di tabella Iceberg OCI che utilizza il catalogo HadoopCatalog

Il parametro format quando si creano tabelle su una tabella OCI Iceberg creata da OCI Data Flow utilizzando il catalogo HadoopCatalog è il seguente:
format => json_object('access_protocol' value
       json_object('protocol_type'   value 'iceberg',
                   'protocol_config' value
                   json_object('iceberg_catalog_type'  value 'hadoop',
                               'iceberg_warehouse'     value '<OCI folder URI>',
                               'iceberg_table_path'    value 'database_name.table_name')));
Dove, il parametro access_protocol contiene un oggetto JSON con due elementi come indicato di seguito.
  • protocol_type: deve essere 'iceberg'
  • protocol_config: oggetto JSON nidificato che specifica i dettagli del catalogo iceberg.
    • iceberg_catalog_type: deve essere 'hadoop'
    • iceberg_warehouse: il percorso della directory warehouse utilizzato durante la generazione della tabella, in formato URI nativo.
    • iceberg_table_path: il percorso database_name.table name utilizzato durante la creazione della tabella.

Esempio di tabella Iceberg OCI che utilizza l'URI del file di metadati

Il parametro format quando si creano tabelle su una tabella OCI Iceberg utilizzando l'URI del file di metadati è il seguente:
format => json_object('access_protocol' value
       json_object('protocol_type' value 'iceberg')
Dove, il parametro access_protocol contiene un oggetto JSON con un elemento come indicato di seguito.
  • protocol_type: deve essere 'iceberg'

CREATE_EXTERNAL_TABLE Procedura per i file Avro, ORC o Parquet

Questa procedura con il parametro format type impostato sul valore avro, orc o parquet crea una tabella esterna con i file in formato Avro, ORC o Parquet nel cloud o in una directory.

Ciò consente di eseguire query su dati esterni da Autonomous Database.

Sintassi

DBMS_CLOUD.CREATE_EXTERNAL_TABLE (
    table_name       IN VARCHAR2,
    credential_name  IN VARCHAR2 DEFAULT NULL,
    file_uri_list    IN CLOB,
    column_list      IN CLOB,
    field_list       IN CLOB DEFAULT,
    format           IN CLOB DEFAULT);

Parametri

Parametro descrizione;

table_name

Il nome della tabella esterna.

credential_name

Il nome della credenziale per accedere allo storage degli oggetti cloud.

È possibile utilizzare 'OCI$RESOURCE_PRINCIPAL' come credential_name quando il principal risorsa è abilitato. Vedere ENABLE_RESOURCE_PRINCIPAL.

Questo parametro non viene utilizzato quando si specifica una directory con file_uri_list.

file_uri_list

Questo parametro specifica una lista delimitata da virgole degli URI dei file di origine oppure una o più directory e file di origine.

URI file di origine cloud

È possibile utilizzare caratteri jolly ed espressioni regolari nei nomi file negli URI dei file di origine cloud.

Le espressioni regolari possono essere utilizzate solo quando il parametro regexuri format è impostato su TRUE.

I caratteri "*" e "?" vengono considerati caratteri jolly quando il parametro regexuri è impostato su FALSE. Quando il parametro regexuri è impostato su TRUE, i caratteri "*" e "?" fanno parte del pattern di espressioni regolari specificato.

I pattern di espressioni regolari sono supportati solo per il nome file o il percorso della sottocartella negli URI e la corrispondenza del pattern è identica a quella eseguita dalla funzione REGEXP_LIKE.

Questa opzione è supportata solo con tabelle esterne create su un file nello storage degli oggetti.

Ad esempio:

file_uri_list => 'https://objectstorage.us-phoenix-1.oraclecloud.com/n/namespace-string/b/bucketname/o(/)*year=[0-9]+(/)*month=[0-9]+(/)*[a-z]+[1-3]??.parquet'

Il formato degli URI dipende dal servizio di storage degli oggetti cloud in uso. Per i dettagli, vedere DBMS_CLOUD Formati URI.

Per ulteriori informazioni sulla condizione REGEXP_LIKE, vedere REGEXP_LIKE Condizione.

Directory

È possibile specificare una directory e uno o più nomi di file oppure usare una lista separata da virgole di directory e nomi di file. Il formato per specificare una directory è:'MY_DIR:filename.ext'. Per impostazione predefinita, il nome directory MY_DIR è un oggetto di database e non fa distinzione tra maiuscole e minuscole. Per il nome del file viene fatta distinzione tra casi.

Le espressioni regolari non sono supportate quando si specificano i nomi file in una directory. È possibile utilizzare solo caratteri jolly per specificare i nomi dei file in una directory. Il carattere "*" può essere utilizzato come carattere jolly per più caratteri e il carattere "?" può essere utilizzato come carattere jolly per un singolo carattere. Ad esempio:'MY_DIR:*" o 'MY_DIR:test?'

Per specificare più directory, utilizzare una lista separata da virgole di directory, ad esempio:'MY_DIR1:*, MY_DIR2:test?'

Utilizzare le virgolette doppie per specificare un nome di directory con distinzione tra maiuscole e minuscole. Ad esempio:'"my_dir1":*, "my_dir2":Test?'

Per includere una virgoletta, utilizzare due virgolette. Ad esempio:'MY_DIR:''filename.ext'. Specifica che filename inizia con una virgoletta (').

column_list

(Facoltativo) Questo campo, se specificato, sostituisce il parametro format->schema che specifica che lo schema, le colonne e i tipi di dati vengono derivati automaticamente. Vedere il parametro del formato per i dettagli.

Quando si specifica column_list per l'origine Avro, ORC o Parquet, i nomi delle colonne devono corrispondere alle colonne trovate nel file. I tipi di dati Oracle devono essere mappati in modo appropriato ai tipi di dati Avro, ORC o Parquet.

Per i file Parquet, vedere DBMS_CLOUD Parquet di package per Oracle Data Type Mapping per i dettagli.

Per i file ORC, vedere DBMS_CLOUD Package ORC to Oracle Data Type Mapping per i dettagli.

Per i file Avro, vedere DBMS_CLOUD Package Avro to Oracle Data Type Mapping per i dettagli.

field_list

Ignorato per i file Avro, ORC o Parquet.

I campi nell'origine corrispondono alle colonne della tabella esterna per nome. I tipi di dati di origine vengono convertiti nel tipo di dati della colonna della tabella esterna.

Per i file ORC, vedere DBMS_CLOUD Package ORC to Oracle Data Type Mapping

Per i file Parquet, vedere DBMS_CLOUD Parquet di package per Oracle Data Type Mapping per i dettagli.

Per i file Avro, vedere DBMS_CLOUD Package Avro to Oracle Data Type Mapping per i dettagli.

format

Per i file di origine Avro, ORC o Parquet type, vedere DBMS_CLOUD Opzioni formato package per Avro, ORC o Parquet per i dettagli.

Esempi ORC

format => '{"type":"orc", "schema": "all"}'
format => json_object('type' value 'orc', 'schema' value 'first')

Esempi Avro

format => '{"type":"avro", "schema": "all"}'
format => json_object('type' value 'avro', 'schema' value 'first')

Esempi Parquet

format => '{"type":"parquet", "schema": "all"}'
format => json_object('type' value 'parquet', 'schema' value 'first')

Mapping dei nomi delle colonne Avro, ORC o Parquet ai nomi delle colonne Oracle

Per informazioni sul mapping dei nomi di colonna e sull'uso della conversione dei nomi di colonna in Oracle SQL, vedere DBMS_CLOUD Package Avro, ORC e Parquet to Oracle Column Name Mapping.

CREATE_EXTERNAL_TEXT_INDEX Procedura

Questa procedura crea un indice di testo nei file di storage degli oggetti.

La procedura CREATE_EXTERNAL_TEXT_INDEX crea un indice di testo nei file di storage degli oggetti specificati nella posizione location_uri. L'indice viene aggiornato a intervalli regolari, per eventuali nuove aggiunte o eliminazioni effettuate con i file sull'URI della posizione.

Sintassi

DBMS_CLOUD.CREATE_EXTERNAL_TEXT_INDEX (
      credential_name  IN  VARCHAR2 DEFAULT NULL,
      location_uri     IN  VARCHAR2,
      index_name       IN  VARCHAR2,
      format           IN  CLOB     DEFAULT NULL
);

Parametri

Parametro descrizione;

credential_name

Nome della credenziale per accedere alla posizione dello storage degli oggetti cloud. Per gli URI bucket pubblici, preautenticati o pre-firmati, è possibile specificare un valore NULL.

Per ulteriori informazioni, vedere Configura criteri e ruoli per accedere alle risorse.

Se non si specifica un valore credential_name, il valore credential_name viene impostato su un valore NULL.

location_uri

Specifica il bucket dell'area di memorizzazione degli oggetti o l'URI della cartella.

Questo parametro è obbligatorio.

Il formato degli URI dipende dal servizio di storage degli oggetti cloud. Vedere DBMS_CLOUD Formati URI per ulteriori informazioni.

index_name Specifica il nome dell'indice che si sta creando sui file situati nella posizione location_uri.

Questo parametro è obbligatorio.

format

Specifica opzioni di configurazione aggiuntive. Le opzioni sono specificate come stringa JSON.

Di seguito sono riportate le opzioni di formato supportate.

refresh_rate: specifica la frequenza in minuti con cui viene aggiornato l'indice locale. I nuovi caricamenti e le nuove eliminazioni di file comportano un aggiornamento dell'indice. Il valore predefinito è 5 minuti.

binary_files: specifica se il contenuto dei file da indicizzare è binario. Ad esempio, PDF, MS-Word. Il valore predefinito è FALSE.

json_index: specifica se il contenuto dei file da indicizzare è JSON o JSON di riga. Il valore predefinito è FALSE.

json_index_doc_sep: specifica il separatore utilizzato per la pre-elaborazione dei documenti JSON delle righe. Il valore predefinito è '\n' (nuova riga).

json_index_doc_len: specifica la lunghezza di ogni documento JSON nell'oggetto. Il valore predefinito è 32767 e il valore massimo è 200000.

file_compression: specifica il formato di compressione dei file JSON. Il valore predefinito è gzip.

stop_words: specifica una lista di stopword che è possibile fornire quando si creano gli indici.

Il valore stop_words indica se si tratta di una lista di stopword o di una tabella di stopword. Quando viene fornito un array JSON, il parametro delle stopword viene considerato come un elenco, altrimenti il parametro delle stopword viene considerato come un nome di tabella la cui colonna "STOP_WORDS" viene utilizzata per leggere nell'elenco delle stopword.

È possibile specificare le stopword utilizzando i metodi riportati di seguito.

  • Array JSON: ad esempio: format := '{"stop_words":["king","queen"]}'
  • Nome tabella stop word: ad esempio: format := '{"stop_words":"STOP_WORDS_TABLE"}'

Se il parametro format non viene fornito, il valore format viene impostato su NULL.

Esempio

BEGIN 
DBMS_CLOUD.CREATE_EXTERNAL_TEXT_INDEX (
        credential_name => 'DEFAULT_CREDENTIAL',
        location_uri    => 'https://objectstorage.us-phoenix-1.oraclecloud.com/n/namespace-string/b/bucketname/o/ts_data/'
        index_name      => 'EMP',
        format          => JSON_OBJECT ('refresh_rate' value 10)
);
END;
/

CREATE_HYBRID_PART_TABLE Procedura

Questa procedura crea una tabella partizionata ibrida. Ciò consente di eseguire query su dati ibridi partizionati da Autonomous Database utilizzando oggetti e file di database nel cloud oppure su oggetti e file di database in una directory.

Sintassi

DBMS_CLOUD.CREATE_HYBRID_PART_TABLE (
    table_name           IN VARCHAR2,
    credential_name      IN VARCHAR2,
    partitioning_clause  IN CLOB,
    column_list          IN CLOB,
    field_list           IN CLOB DEFAULT,
    format               IN CLOB DEFAULT);

Parametri

Parametro descrizione;

table_name

Il nome della tabella esterna.

credential_name

Il nome della credenziale per accedere allo storage degli oggetti cloud.

È possibile utilizzare 'OCI$RESOURCE_PRINCIPAL' come credential_name quando il principal risorsa è abilitato. Vedere ENABLE_RESOURCE_PRINCIPAL.

partitioning_clause

Specifica la clausola di partizionamento completa, incluse le informazioni sulla posizione per le singole partizioni.

Per utilizzare le directory, la clausola di partizionamento supporta i valori LOCATION e DEFAULT DIRECTORY.

È possibile utilizzare caratteri jolly ed espressioni regolari nei nomi file negli URI dei file di origine cloud.

Le espressioni regolari possono essere utilizzate solo quando il parametro regexuri format è impostato su TRUE.

I caratteri "*" e "?" vengono considerati caratteri jolly quando il parametro regexuri è impostato su FALSE. Quando il parametro regexuri è impostato su TRUE, i caratteri "*" e "?" fanno parte del pattern di espressioni regolari specificato.

I pattern di espressioni regolari sono supportati solo per il nome file o il percorso della sottocartella negli URI e la corrispondenza del pattern è identica a quella eseguita dalla funzione REGEXP_LIKE. I pattern di espressione regolare non sono supportati per i nomi di directory.

Ad esempio:

partitioning_clause => 'partition by range (col1)
                                (partition p1 values less than (1000) external location
				    ( ''https://objectstorage.us-phoenix-1.oraclecloud.com/n/namespace-string/b/bucketname/o(/)*year=[0-9]+(/)*month=[0-9]+(/)*[a-z]+[1-3]??.txt''),….

Per ulteriori informazioni sulla condizione REGEXP_LIKE, vedere REGEXP_LIKE Condizione.

column_list

Lista delimitata da virgole di nomi di colonna e tipi di dati per la tabella esterna.

field_list

Identifica i campi nei file di origine e i relativi tipi di dati. Il valore predefinito è NULL, ovvero i campi e i relativi tipi di dati sono determinati dal parametro column_list. La sintassi di questo argomento è la stessa della clausola field_list nelle normali tabelle esterne Oracle. Per ulteriori informazioni su field_list, vedere Oracle® Database Utilities.

format

Opzioni che descrivono il formato dei file di origine. Per l'elenco delle opzioni e come specificare i valori, vedere DBMS_CLOUD Opzioni formato pacchetto.

Note per uso

  • La procedura DBMS_CLOUD.CREATE_HYBRID_PART_TABLE supporta i file partizionati esterni nei servizi di storage degli oggetti cloud supportati, tra cui:

    • Oracle Cloud Infrastructure Object Storage

    • Azure Blob Storage o Azure Data Lake Storage

    • Amazon S3

    • Compatibile con Amazon S3, tra cui Oracle Cloud Infrastructure Object Storage, Google Cloud Storage e Wasabi Hot Cloud Storage.

    • GitHub Repository

    La credenziale è una proprietà a livello di tabella, pertanto i file esterni devono trovarsi nella stessa area di memorizzazione degli oggetti.

    Vedere DBMS_CLOUD Formati URI per ulteriori informazioni.

  • La procedura DBMS_CLOUD.CREATE_HYBRID_PART_TABLE supporta i file di partizionamento ibridi contenuti nelle directory, sia in un file system locale che in un file system di rete.

  • Le tabelle partizionate esterne create con DBMS_CLOUD.CREATE_HYBRID_PART_TABLE includono due colonne invisibili file$path e file$name. Queste colonne consentono di identificare il file da cui proviene un record.

    • file$path: specifica il testo del percorso del file fino all'inizio del nome dell'oggetto.

    • file$name: specifica il nome dell'oggetto, incluso tutto il testo che segue il nome del bucket.

Esempi

BEGIN  
   DBMS_CLOUD.CREATE_HYBRID_PART_TABLE(
      table_name =>'HPT1',  
      credential_name =>'OBJ_STORE_CRED',  
      format => json_object('delimiter' value ',', 'recorddelimiter' value 'newline', 'characterset' value 'us7ascii'),  
      column_list => 'col1 number, col2 number, col3 number',
      partitioning_clause => 'partition by range (col1)
                                (partition p1 values less than (1000) external location
                                    ( ''&base_URL/file_11.txt'')
                                 ,
                                 partition p2 values less than (2000) external location
                                    ( ''&base_URL/file_21.txt'')
                                 ,
                                 partition p3 values less than (3000)
                                 )'
     );
   END;
/ 


BEGIN
   DBMS_CLOUD.CREATE_HYBRID_PART_TABLE(
    table_name  => 'HPT1',
    format      => json_object('delimiter'value ',', 'recorddelimiter'value 'newline'),
    column_list => 'NAME VARCHAR2(30), GENDER VARCHAR2(10), BALANCE number',
    partitioning_clause => 'partition by range (B  2  ALANCE)
               (partition p1 values less than (1000) external DEFAULT DIRECTORY DATA_PUMP_DIR LOCATION (''Scott_male_1000.csv''),
                partition p2 values less than (2000) external DEFAULT DIRECTORY DATA_PUMP_DIR LOCATION (''Mary_female_3000.csv''),
                partition p3 values less than (3000))' );
END;
/

DELETE_ALL_OPERATIONS Procedura

Questa procedura cancella tutte le operazioni di caricamento dati registrate nella tabella user_load_operations nello schema oppure cancella tutte le operazioni di caricamento dati del tipo specificato, come indicato con il parametro type.

Sintassi

DBMS_CLOUD.DELETE_ALL_OPERATIONS (
	type      IN VARCHAR DEFAULT NULL);

Parametri

Parametro descrizione;

type

Specifica il tipo di operazione da eliminare. I valori dei tipi sono disponibili nella colonna TYPE della tabella user_load_operations.

Se non viene specificato alcun valore type, vengono eliminate tutte le righe.

Note per uso

  • Questa procedura non elimina le operazioni attualmente in esecuzione (operazioni con stato "In esecuzione").

  • Questa procedura elimina tutte le tabelle di log e i file di log associati alle operazioni.

DELETE_FILE Procedura

Questa procedura rimuove il file specificato dalla directory specificata in Autonomous Database.

Sintassi

 DBMS_CLOUD.DELETE_FILE ( 
       directory_name     IN VARCHAR2,
       file_name          IN VARCHAR2,
       force              IN BOOLEAN DEFAULT FALSE); 

Parametri

Parametro descrizione;

directory_name

Nome della directory nell'istanza di Autonomous Database.

file_name

Il nome del file da rimuovere.

force

Ignora e non segnala errori se il file non esiste. I valori validi sono TRUE e FALSE. Il valore predefinito è FALSE.

Nota

Per eseguire DBMS_CLOUD.DELETE_FILE con un utente diverso da ADMIN, è necessario concedere privilegi di scrittura sulla directory che contiene il file a tale utente. Ad esempio, eseguire il comando seguente come ADMIN per concedere i privilegi di scrittura a adb_user:
GRANT WRITE ON DIRECTORY data_pump_dir TO adb_user;

Esempio

BEGIN
   DBMS_CLOUD.DELETE_FILE(
      directory_name =>  'DATA_PUMP_DIR',
      file_name => 'exp1.dmp' );
   END;
/ 

DELETE_OBJECT Procedura

Questa procedura elimina l'oggetto specificato nell'area di memorizzazione degli oggetti.

Sintassi

DBMS_CLOUD.DELETE_OBJECT (
       credential_name      IN VARCHAR2,
       object_uri           IN VARCHAR2,
       force                IN BOOLEAN DEFAULT FALSE);

Parametri

Parametro descrizione;

credential_name

Il nome della credenziale per accedere allo storage degli oggetti cloud.

È possibile utilizzare 'OCI$RESOURCE_PRINCIPAL' come credential_name quando il principal risorsa è abilitato. Vedere ENABLE_RESOURCE_PRINCIPAL.

object_uri

URI dell'oggetto o del file per l'oggetto da eliminare. Il formato dell'URI dipende dal servizio di storage degli oggetti cloud in uso. Per i dettagli, vedere DBMS_CLOUD Formati URI.

force

Ignora e non segnala errori se l'oggetto non esiste. I valori validi sono TRUE e FALSE. Il valore predefinito è FALSE.

Esempio

BEGIN
   DBMS_CLOUD.DELETE_OBJECT(
       credential_name => 'DEF_CRED_NAME',
       object_uri => 'https://objectstorage.us-ashburn-1.oraclecloud.com/n/namespace-string/b/bucketname/o/exp1.dmp' );
   END;
/ 

DELETE_OPERATION Procedura

Questa procedura cancella le voci di caricamento dati per l'ID operazione specificato registrato nelle tabelle user_load_operations o dba_load_operations dello schema.

Sintassi

DBMS_CLOUD.DELETE_OPERATION (
	id      IN NUMBER);

Parametri

Parametro descrizione;

id

Specifica l'ID operazione associato alle voci del file di log che si desidera eliminare.

Nota per l'uso

  • Questa procedura elimina tutte le tabelle di log e i file di log associati all'ID operazione specificato nell'input.

Esempio

SELECT id FROM user_load_operations WHERE type LIKE '%BAD%';
EXEC DBMS_CLOUD.DELETE_OPERATION(id);

DROP_EXTERNAL_TEXT_INDEX Procedura

Questa procedura elimina l'indice di testo nei file dello storage degli oggetti.

La procedura DROP_EXTERNAL_TEXT_INDEX elimina l'indice specificato creato con la procedura CREATE_EXTERNAL_TEXT_INDEX.

Sintassi

DBMS_CLOUD.DROP_EXTERNAL_TEXT_INDEX (
      index_name       IN  VARCHAR2,
);

Parametri

Parametro descrizione;
index_name

Specifica il nome dell'indice che si sta rilasciando.

Il nome dell'indice deve corrispondere al nome fornito al momento della creazione dell'indice.

Questo parametro è obbligatorio.

Esempio

BEGIN 
DBMS_CLOUD.DROP_EXTERNAL_TEXT_INDEX (
        index_name => 'EMP',
);
END;
/

EXPORT_DATA Procedura

Questa procedura consente di esportare i dati da Autonomous Database in base al risultato di una query. Questa procedura è sovraccarica e supporta la scrittura di file nel cloud o in una directory.

In base al parametro format type, la procedura esporta i file nel cloud o in una posizione di directory sotto forma di file di testo in formato CSV, JSON, Parquet o XML oppure utilizzando il driver di accesso ORACLE_DATAPUMP per scrivere i dati in un file di dump Oracle Datapump.

Sintassi

DBMS_CLOUD.EXPORT_DATA (
      credential_name   IN VARCHAR2 DEFAULT NULL,
      file_uri_list     IN CLOB,
      format            IN CLOB,
      query             IN CLOB);

DBMS_CLOUD.EXPORT_DATA (
      credential_name   IN VARCHAR2 DEFAULT NULL,
      file_uri_list     IN CLOB DEFAULT NULL,
      format            IN CLOB DEFAULT NULL,
      query             IN CLOB DEFAULT NULL,
      operation_id      OUT NOCOPY NUMBER);

Parametri

Parametro descrizione;

credential_name

Il nome della credenziale per accedere allo storage degli oggetti cloud.

È possibile utilizzare 'OCI$RESOURCE_PRINCIPAL' come credential_name quando il principal risorsa è abilitato. Vedere ENABLE_RESOURCE_PRINCIPAL.

Quando il parametro delle credenziali non è incluso, specifica l'output in una directory.

file_uri_list

Esistono moduli diversi, a seconda del valore del parametro del formato e a seconda che si includa o meno un parametro della credenziale:
  • Quando il valore del parametro format type è json: il file JSON nell'area di memorizzazione degli oggetti o nella posizione della directory specificata viene salvato con un nome file generato in base al valore del parametro file_uri_list. Per ulteriori informazioni, vedere Denominazione dei file per l'output di testo (CSV, JSON, Parquet o XML).

  • Quando il valore del parametro format type è datapump, file_uri_list è una lista delimitata da virgole dei file di dump. Specifica i file da creare nell'area di memorizzazione degli oggetti. L'uso dei caratteri jolly e di sostituzione non è supportato nel file file_uri_list.

  • Quando il parametro credential_name non viene specificato, fornire un nome di directory in file_uri_list.

Il formato degli URI dipende dal servizio di storage degli oggetti cloud in uso. Per i dettagli, vedere DBMS_CLOUD Formati URI.

format

Stringa JSON che fornisce le opzioni di formato di esportazione.

L'opzione supportata è:

  • type: l'opzione type format è obbligatoria e deve avere uno dei valori seguenti: csv | datapump | json | parquet | xml.

Vedere DBMS_CLOUD Opzioni formato pacchetto per EXPORT_DATA.

query

Utilizzare questo parametro per specificare un'istruzione SELECT in modo che vengano esportati solo i dati richiesti. La query determina il contenuto dei file esportati come file di testo CSV, JSON, Parquet o XML o come file di dump. Ad esempio:

SELECT warehouse_id, quantity FROM inventories

Per informazioni sul formato type, valore datapump, vedere Filtri di dati di esportazione di Oracle Data Pump e Scaricamento e caricamento dei dati con il driver di accesso ORACLE_DATAPUMP per ulteriori informazioni.

Quando il valore format type è json, ogni risultato della query viene controllato e se non è JSON, come determinato con la funzione: JSON_OBJECT_T.parse(), DBMS_CLOUD.EXPORT_DATA trasforma la query in modo da includere la funzione JSON_OBJECT per convertire la riga in JSON. Per ulteriori informazioni, vedere JSON_OBJECT_T Object Type.

Ad esempio:

SELECT JSON_OBJECT(* RETURNING CLOB) from(SELECT warehouse_id, quantity FROM inventories)

operation_id

Utilizzare questo parametro per tenere traccia dell'avanzamento e dello stato finale dell'operazione di esportazione come ID corrispondente nella vista USER_LOAD_OPERATIONS.

Note per l'uso

  • Il valore del parametro query fornito può essere una query avanzata, se necessario, ad esempio una query che include join o subquery.

  • A seconda del parametro di formato specificato, DBMS_CLOUD.EXPORT_DATA restituisce i risultati della query specificata nell'area di memorizzazione degli oggetti cloud o in una posizione di directory in uno dei seguenti formati:

  • Per l'output CSV, JSON o XML, per impostazione predefinita quando un file generato contiene 10 MB di dati, viene creato un nuovo file di output. Tuttavia, se hai meno di 10 MB di dati dei risultati, potresti avere più file di output, a seconda del servizio di database e del numero di ECPU (OCPU se il tuo database utilizza OCPU) per l'istanza di Autonomous Database.

    Per ulteriori informazioni, vedere Denominazione dei file per l'output di testo (CSV, JSON, Parquet o XML).

    La dimensione predefinita del chunk del file di output è 10 MB per CSV, JSON o XML. È possibile modificare questo valore con l'opzione maxfilesize del parametro format. Per ulteriori informazioni, vedere DBMS_CLOUD Opzioni formato pacchetto per EXPORT_DATA.

  • Per l'output Parquet, ogni file generato è inferiore a 128 MB ed è possibile generare più file di output. Tuttavia, se hai meno di 128 MB di dati dei risultati, potresti avere più file di output a seconda del servizio di database e del numero di ECPU (OCPU se il tuo database utilizza OCPU) per l'istanza di Autonomous Database.

    Per ulteriori informazioni, vedere Denominazione dei file per l'output di testo (CSV, JSON, Parquet o XML).

Note di utilizzo per l'output ORACLE_DATAPUMP (DBMS_CLOUD.EXPORT_DATA con il parametro format, opzione type, datapump):

  • EXPORT_DATA utilizza DATA_PUMP_DIR come directory di log predefinita. Pertanto, il privilegio di scrittura su DATA_PUMP_DIR è necessario quando si utilizza l'output ORACLE_DATAPUMP.

  • L'esportazione di Autonomous Database mediante DBMS_CLOUD.EXPORT_DATA con il parametro format type, opzione datapump, supporta solo le aree di memorizzazione degli oggetti Oracle Cloud Infrastructure Object Storage, Oracle Cloud Infrastructure Object Storage Classic o l'output della directory.

  • Quando si specifica DBMS_CLOUD.EXPORT_DATA con il parametro format type, opzione datapump, il valore del parametro credential_name non può essere un principal risorsa OCI.

  • Oracle Data Pump divide ogni parte del file di dump in chunk più piccoli per caricamenti più veloci. La console di Oracle Cloud Infrastructure Object Storage mostra più file per ogni parte del file di dump esportata. La dimensione dei file di dump effettivi verrà visualizzata come zero (0) e i relativi blocchi di file correlati come 10 MB o meno. Ad esempio:
    exp01.dmp
    exp01.dmp_aaaaaa
    exp02.dmp
    exp02.dmp_aaaaaa
    Il download del file di dump a zero byte dalla console di Oracle Cloud Infrastructure o l'utilizzo dell'interfaccia CLI di Oracle Cloud Infrastructure non fornirà i file di dump completi. Per scaricare i file di dump completi dall'area di memorizzazione degli oggetti, utilizzare uno strumento che supporti Swift come curl e fornire il login utente e il token di autenticazione Swift.
    curl -O -v -X GET -u 'user1@example.com:auth_token' \
       https://swiftobjectstorage.us-ashburn-1.oraclecloud.com/v1/namespace-string/bucketname/exp01.dmp

    Se si importa un file con le procedure DBMS_CLOUD che supportano il parametro format type con il valore 'datapump', è necessario solo fornire il nome del file primario. Le procedure che supportano il tipo di formato 'datapump' individuano e scaricano automaticamente i blocchi.

    Quando si utilizza DBMS_CLOUD.DELETE_OBJECT, la procedura individua ed elimina automaticamente i chunk quando la procedura elimina il file primario.

  • La procedura DBMS_CLOUD.EXPORT_DATA crea i file di dump dai valori file_uri_list specificati, come indicato di seguito.

    • Poiché sono necessari altri file, la procedura crea altri file dal file file_uri_list.

    • La procedura non sovrascrive i file. Se esiste un file di dump in file_uri_list, DBMS_CLOUD.EXPORT_DATA segnala un errore.

    • DBMS_CLOUD.EXPORT_DATA non crea bucket.

  • Il numero di file di dump generati da DBMS_CLOUD.EXPORT_DATA viene determinato all'esecuzione della procedura. Il numero di file di dump generati dipende dal numero di nomi file forniti nel parametro file_uri_list, nonché dal numero di OCPU di Autonomous Database disponibili per l'istanza, dal livello di servizio e dalla dimensione dei dati.

    Ad esempio, se si utilizza un'istanza di Autonomous Database da 1 OCPU o il servizio low, viene esportato un singolo file di dump senza parallelismo, anche se si forniscono più nomi di file. Se si utilizza un'istanza di Autonomous Database da 4 OCPU con il servizio medium o high, i job possono essere eseguiti in parallelo e i file di dump multipli vengono esportati se si forniscono più nomi di file.

  • I file di dump creati con DBMS_CLOUD.EXPORT_DATA non possono essere importati utilizzando Oracle Data Pump impdp. A seconda del database, è possibile utilizzare i file indicati di seguito.

    • In un Autonomous Database, è possibile utilizzare i file di dump con le procedure DBMS_CLOUD che supportano il parametro format type con il valore 'datapump'. È possibile importare i file di dump utilizzando DBMS_CLOUD.COPY_DATA oppure chiamare DBMS_CLOUD.CREATE_EXTERNAL_TABLE per creare una tabella esterna.

    • In qualsiasi altro Oracle Database, ad esempio Oracle Database 19c in locale, è possibile importare i file di dump creati con la procedura DBMS_CLOUD.EXPORT_DATA utilizzando il driver di accesso ORACLE_DATAPUMP. Per ulteriori informazioni, vedere Scaricamento e caricamento dei dati con il driver di accesso ORACLE_DATAPUMP.

  • Il valore del parametro query fornito può essere una query avanzata, se necessario, ad esempio una query che include join o subquery.

Note di utilizzo per DBMS_CLOUD.EXPORT_DATA con output in una directory

  • La directory fornita deve esistere ed è necessario eseguire il login come utente ADMIN o disporre dell'accesso WRITE alla directory.

  • DBMS_CLOUD.EXPORT_DATA non crea directory.

  • La procedura non sovrascrive i file. Ad esempio, se esiste un file di dump in file_uri_list, DBMS_CLOUD.EXPORT_DATA segnala un errore simile al seguente:

    ORA-31641: unable to create dump file  "/u02/exports/123.dmp"
    ORA-27038: created file already exists

Esempi

L'esempio seguente mostra DBMS_CLOUD.EXPORT_DATA con il parametro formato type con il valore datapump:

BEGIN  
   DBMS_CLOUD.EXPORT_DATA(
      credential_name =>'OBJ_STORE_CRED',
      file_uri_list =>'https://objectstorage.us-phoenix-1.oraclecloud.com/n/namespace-string/b/bucketname/o/exp1.dmp',
      format => json_object('type' value 'datapump', 'compression' value 'basic', 'version' value 'latest'),
      query => 'SELECT warehouse_id, quantity FROM inventories'
     );
   END;
/  

In questo esempio, namespace-string è lo spazio di nomi dello storage degli oggetti Oracle Cloud Infrastructure e bucketname è il nome del bucket. Per ulteriori informazioni, vedere Informazioni sugli spazi di nomi dello storage degli oggetti.

L'esempio seguente mostra DBMS_CLOUD.EXPORT_DATA con il parametro formato type con il valore json:

BEGIN  
   DBMS_CLOUD.EXPORT_DATA(
      credential_name => 'OBJ_STORE_CRED',
      file_uri_list   => 'https://objectstorage.us-phoenix-1.oraclecloud.com/n/namespace-string/b/bucketname/o/exp1.json', 
      query           => 'SELECT * FROM DEPT',
      format          => JSON_OBJECT('type' value 'json', 'compression' value 'gzip'));
     );
   END;
/  

L'esempio seguente mostra DBMS_CLOUD.EXPORT_DATA con il parametro formato type con il valore xml:

BEGIN  
   DBMS_CLOUD.EXPORT_DATA(
      credential_name => 'OBJ_STORE_CRED',
      file_uri_list   => 'https://objectstorage.us-phoenix-1.oraclecloud.com/n/namespace-string/b/bucketname/o/exp1.xml', 
      query           => 'SELECT * FROM DEPT',
      format          => JSON_OBJECT('type' value 'xml', 'compression' value 'gzip'));
     );
   END;
/

L'esempio seguente mostra DBMS_CLOUD.EXPORT_DATA con il parametro formato type con il valore csv:

BEGIN  
   DBMS_CLOUD.EXPORT_DATA(
      credential_name => 'OBJ_STORE_CRED',
      file_uri_list   => 'https://objectstorage.us-phoenix-1.oraclecloud.com/n/namespace-string/b/bucketname/o/exp.csv', 
      query           => 'SELECT * FROM DEPT',
      format          => JSON_OBJECT('type' value 'csv', 'delimiter' value '|', 'compression' value 'gzip', 'header' value true, 'encryption' value ('user_defined_function' value 'ADMIN.decryption_callback')));
     );
   END;
/  

L'esempio seguente mostra DBMS_CLOUD.EXPORT_DATA che esporta i dati in una posizione di directory con il parametro type con il valore datapump:

BEGIN
 DBMS_CLOUD.EXPORT_DATA(
    file_uri_list => 'export_dir:sales.dmp',
    format        => json_object('type' value 'datapump'),
    query         => 'SELECT * FROM sales'
 );
END;
/

GET_OBJECT Procedura e funzione

Questa procedura è sovraccaricata. Il form della procedura legge un oggetto dallo storage degli oggetti cloud e lo copia in Autonomous Database. Il form funzione legge un oggetto dallo storage degli oggetti cloud e restituisce BLOB ad Autonomous Database.

Sintassi

DBMS_CLOUD.GET_OBJECT (
       credential_name      IN VARCHAR2,
       object_uri           IN VARCHAR2,
       directory_name       IN VARCHAR2,
       file_name            IN VARCHAR2 DEFAULT  NULL,
       startoffset          IN NUMBER DEFAULT  0,
       endoffset            IN NUMBER DEFAULT  0,
       compression          IN VARCHAR2 DEFAULT  NULL);


DBMS_CLOUD.GET_OBJECT(
       credential_name      IN VARCHAR2 DEFAULT NULL,
       object_uri           IN VARCHAR2,
       startoffset          IN NUMBER DEFAULT  0,
       endoffset            IN NUMBER DEFAULT  0,
       compression          IN VARCHAR2 DEFAULT  NULL)
RETURN BLOB;

Parametri

Parametro descrizione;

credential_name

Il nome della credenziale per accedere allo storage degli oggetti cloud.

È possibile utilizzare 'OCI$RESOURCE_PRINCIPAL' come credential_name quando il principal risorsa è abilitato. Vedere ENABLE_RESOURCE_PRINCIPAL.

object_uri

URI oggetto o file. Il formato dell'URI dipende dal servizio di storage degli oggetti cloud in uso. Per i dettagli, vedere DBMS_CLOUD Formati URI.

directory_name

Nome della directory nel database.

Piede 1
È possibile utilizzare un URL collegamento ipertestuale tabella nei modi riportati di seguito.
  • Specificare un singolo URL collegamento ipertestuale tabella Autonomous Database.

  • Specificare la lista delimitata da virgole degli URL dei collegamenti ipertestuali delle tabelle di Autonomous Database. È necessario assicurarsi che tutti i collegamenti ipertestuali delle tabelle inclusi abbiano gli stessi nomi di colonna, ordine di colonna e tipi di dati delle colonne nello stesso schema.

Per ulteriori informazioni, vedere Informazioni sui collegamenti ipertestuali alle tabelle in Autonomous Database e la procedura GET_PREAUTHENTICATED_URL.

file_name

Specifica il nome del file da creare. Se il nome del file non viene specificato, il nome del file viene preso dopo l'ultima barra nel parametro object_uri. Per casi speciali, ad esempio quando il nome del file contiene barre, utilizzare il parametro file_name.

startoffset

L'offset, in byte, da cui inizia la lettura della procedura.

endoffset

L'offset, in byte, fino al punto in cui la procedura smette di leggere.

compression

Specifica la compressione utilizzata per memorizzare l'oggetto. Quando compression è impostato su ‘AUTO’, il file viene decompresso (il valore ‘AUTO’ implica che l'oggetto specificato con object_uri viene compresso con Gzip).

Nota a piè di pagina 1

Nota

Per eseguire DBMS_CLOUD.GET_OBJECT con un utente diverso da ADMIN, è necessario concedere i privilegi WRITE sulla directory a tale utente. Ad esempio, eseguire il comando seguente come ADMIN per concedere i privilegi di scrittura a adb_user:

GRANT WRITE ON DIRECTORY data_pump_dir TO adb_user;

Valori restituiti

Il form funzione viene letto dall'area di memorizzazione degli oggetti e DBMS_CLOUD.GET_OBJECT restituisce un valore BLOB.

Esempi

BEGIN 
   DBMS_CLOUD.GET_OBJECT(
     credential_name => 'OBJ_STORE_CRED',
     object_uri => 'https://objectstorage.us-phoenix-1.oraclecloud.com/n/namespace-string/b/bucketname/o/file.txt',
     directory_name => 'DATA_PUMP_DIR'); 
END;
/

Per leggere i dati dei caratteri da un file nell'area di memorizzazione degli oggetti:

SELECT to_clob(
     DBMS_CLOUD.GET_OBJECT(
       credential_name => 'OBJ_STORE_CRED',
       object_uri => 'https://objectstorage.us-phoenix-1.oraclecloud.com/n/namespace-string/b/bucketname/o/file.txt'))
FROM DUAL;

Per aggiungere un'immagine memorizzata nell'area di memorizzazione degli oggetti in un file BLOB nel database, procedere come segue.


DECLARE
   l_blob BLOB := NULL;
BEGIN
   l_blob := DBMS_CLOUD.GET_OBJECT(
     credential_name => 'OBJ_STORE_CRED',
     object_uri => 'https://objectstorage.us-phoenix-1.oraclecloud.com/n/namespace-string/b/bucketname/o/MyImage.gif' );
END;
/

In questo esempio, namespace-string è lo spazio di nomi dello storage degli oggetti Oracle Cloud Infrastructure e bucketname è il nome del bucket. Per ulteriori informazioni, vedere Informazioni sugli spazi di nomi dello storage degli oggetti.

Funzione LIST_FILES

Questa funzione elenca i file nella directory specificata. I risultati includono i nomi dei file e metadati aggiuntivi relativi ai file, ad esempio la dimensione dei file in byte, l'indicatore orario di creazione e l'indicatore orario dell'ultima modifica.

Sintassi

DBMS_CLOUD.LIST_FILES (
	directory_name      IN VARCHAR2)
       RETURN TABLE;

Parametri

Parametro descrizione;

directory_name

Nome della directory nel database.

Note per uso

  • Per eseguire DBMS_CLOUD.LIST_FILES con un utente diverso da ADMIN, è necessario concedere privilegi di lettura sulla directory a tale utente. Ad esempio, eseguire il comando seguente come ADMIN per concedere i privilegi di lettura a adb_user:

    GRANT READ ON DIRECTORY data_pump_dir TO adb_user;
  • Questa è una funzione tabella con pipeline con tipo restituito DBMS_CLOUD_TYPES.list_object_ret_t.

  • DBMS_CLOUD.LIST_FILES non ottiene il valore di checksum e restituisce NULL per questo campo.

Esempio

Questa è una funzione con pipeline che restituisce una riga per ogni file. Ad esempio, utilizzare la seguente query per utilizzare questa funzione:

SELECT * FROM DBMS_CLOUD.LIST_FILES('DATA_PUMP_DIR');

OBJECT_NAME       BYTES   CHECKSUM      CREATED              LAST_MODIFIED
------------ ---------- ----------    ---------------------  ---------------------
cwallet.sso        2965               2018-12-12T18:10:47Z   2019-11-23T06:36:54Z

Funzione LIST_OBJECTS

Questa funzione elenca gli oggetti nella posizione specificata nell'area di memorizzazione degli oggetti. I risultati includono i nomi degli oggetti e metadati aggiuntivi relativi agli oggetti, ad esempio dimensione, checksum, indicatore orario di creazione e indicatore orario dell'ultima modifica.

Sintassi

DBMS_CLOUD.LIST_OBJECTS (
       credential_name      IN VARCHAR2,
       location_uri         IN VARCHAR2)
   RETURN TABLE;

Parametri

Parametro descrizione;

credential_name

Il nome della credenziale per accedere allo storage degli oggetti cloud.

È possibile utilizzare 'OCI$RESOURCE_PRINCIPAL' come credential_name quando il principal risorsa è abilitato. Vedere ENABLE_RESOURCE_PRINCIPAL.

location_uri

URI oggetto o file. Il formato dell'URI dipende dal servizio di storage degli oggetti cloud in uso. Per i dettagli, vedere DBMS_CLOUD Formati URI.

Note per uso

  • A seconda delle capacità dell'area di memorizzazione degli oggetti, DBMS_CLOUD.LIST_OBJECTS non restituisce valori per determinati attributi e il valore restituito per il campo è NULL in questo caso.

    Tutti gli archivi oggetti supportati restituiscono valori per i campi OBJECT_NAME, BYTES e CHECKSUM.

    La tabella riportata di seguito mostra il supporto per i campi CREATED e LAST_MODIFIED per area di memorizzazione degli oggetti.

    Area di memorizzazione degli oggetti CREATED LAST_MODIFIED
    Oracle Cloud Infrastructure Native Indicatore orario resi Indicatore orario resi
    Oracle Cloud Infrastructure Swift Restituisce NULL Indicatore orario resi
    Oracle Cloud Infrastructure Classic Restituisce NULL Indicatore orario resi
    Amazon S3 Restituisce NULL Indicatore orario resi
    Amazon S3 - Compatibile Restituisce NULL Indicatore orario resi
    Azure Indicatore orario resi Indicatore orario resi
    GitHub Repository    
  • Il valore di checksum è il checksum MD5. Si tratta di un numero esadecimale di 32 caratteri calcolato sul contenuto dell'oggetto. Si prevede che abbia un valore di checksum diverso se si utilizza la credenziale OCI$RESOURCE_PRINCIPAL.

  • Questa è una funzione tabella con pipeline con tipo restituito DBMS_CLOUD_TYPES.list_object_ret_t.

Esempio

Questa è una funzione con pipeline che restituisce una riga per ogni oggetto. Ad esempio, utilizzare la seguente query per utilizzare questa funzione:

SELECT * FROM DBMS_CLOUD.LIST_OBJECTS('OBJ_STORE_CRED', 
    'https://objectstorage.us-phoenix-1.oraclecloud.com/n/namespace-string/b/bucketname/o/');


OBJECT_NAME   BYTES              CHECKSUM                       CREATED         LAST_MODIFIED
------------ ---------- -------------------------------- --------------------- --------------------
cwallet.sso   2965      2339a2731ba24a837b26d344d643dc07 2019-11-23T06:36:54Z          

In questo esempio, namespace-string è lo spazio di nomi dello storage degli oggetti Oracle Cloud Infrastructure e bucketname è il nome del bucket. Per ulteriori informazioni, vedere Informazioni sugli spazi di nomi dello storage degli oggetti.

MOVE_OBJECT Procedura

Questa procedura sposta un oggetto da un bucket o una cartella dello storage degli oggetti cloud a un altro.

Il bucket o la cartella di origine e destinazione possono trovarsi nello stesso provider dell'area di memorizzazione degli oggetti cloud o in un altro provider.

Quando l'origine e la destinazione si trovano in aree di memorizzazione degli oggetti distinte o hanno account diversi con lo stesso provider cloud, è possibile assegnare nomi di credenziali separati per le posizioni di origine e destinazione.

Il nome della credenziale di origine viene utilizzato per impostazione predefinita anche dalla posizione di destinazione quando non viene fornito il nome della credenziale di destinazione.

Sintassi

DBMS_CLOUD.MOVE_OBJECT (
    source_credential_name  IN  VARCHAR2 DEFAULT NULL,
    source_object_uri       IN  VARCHAR2,
    target_object_uri       IN  VARCHAR2,
    target_credential_name  IN  VARCHAR2 DEFAULT NULL
);

Parametri

Parametro descrizione;

source_credential_name

Nome della credenziale per accedere allo storage degli oggetti cloud di origine.

È possibile utilizzare 'OCI$RESOURCE_PRINCIPAL' come credential_name quando il principal risorsa è abilitato. Vedere ENABLE_RESOURCE_PRINCIPAL.

Se non si specifica un valore source_credential_name, credential_name viene impostato su NULL.

source_object_uri

Specifica l'URI che punta al bucket di storage degli oggetti o alla posizione della cartella di origine.

Questo parametro è obbligatorio.

Il formato degli URI dipende dal servizio di storage degli oggetti cloud. Vedere DBMS_CLOUD Formati URI per ulteriori informazioni.

target_object_uri

Specifica l'URI per il bucket o la cartella di storage degli oggetti di destinazione, in cui è necessario spostare i file.

Questo parametro è obbligatorio.

Il formato degli URI dipende dal servizio di storage degli oggetti cloud. Vedere DBMS_CLOUD Formati URI per ulteriori informazioni.

target_credential_name

Nome della credenziale per accedere alla posizione di storage degli oggetti cloud di destinazione.

È possibile utilizzare 'OCI$RESOURCE_PRINCIPAL' come credential_name quando il principal risorsa è abilitato. Vedere ENABLE_RESOURCE_PRINCIPAL.

Se non si specifica un valore target_credential_name, il valore target_object_uri viene impostato sul valore source_credential_name.

Esempio

BEGIN 
DBMS_CLOUD.MOVE_OBJECT (
    source_credential_name => 'OCI_CRED',
    source_object_uri    => 'https://objectstorage.us-phoenix-1.oraclecloud.com/n/namespace-string/b/bucketname1/bgfile.csv',
    target_object_uri    => 'https://objectstorage.us-phoenix-1.oraclecloud.com/n/namespace-string/b/bucketname2/myfile.csv'
);
END;
/

PUT_OBJECT Procedura

Questa procedura è sovraccaricata. In un unico form la procedura copia un file da Autonomous Database nello storage degli oggetti cloud. In un altro modulo, la procedura copia un file BLOB da Autonomous Database nello storage degli oggetti cloud.

Sintassi

DBMS_CLOUD.PUT_OBJECT (
       credential_name      IN VARCHAR2,
       object_uri           IN VARCHAR2,
       directory_name       IN VARCHAR2,
       file_name            IN VARCHAR2
       compression          IN VARCHAR2 DEFAULT  NULL);


DBMS_CLOUD.PUT_OBJECT (
       credential_name      IN VARCHAR2,
       object_uri           IN VARCHAR2,
       contents             IN BLOB
       compression          IN VARCHAR2 DEFAULT  NULL);

Parametri

Parametro descrizione;

credential_name

Il nome della credenziale per accedere allo storage degli oggetti cloud.

È possibile utilizzare 'OCI$RESOURCE_PRINCIPAL' come credential_name quando il principal risorsa è abilitato. Vedere ENABLE_RESOURCE_PRINCIPAL.

object_uri

URI oggetto o file. Il formato dell'URI dipende dal servizio di storage degli oggetti cloud in uso. Per i dettagli, vedere DBMS_CLOUD Formati URI.

directory_name

Nome della directory in Autonomous Database.

Piede 2

contents

Specifica il file BLOB da copiare da Autonomous Database nello storage degli oggetti cloud.

file_name

Il nome del file nella directory specificata.

compression

Specifica la compressione utilizzata per memorizzare l'oggetto.

Valore predefinito: NULL

Nota a piè di pagina 2

Nota

Per eseguire DBMS_CLOUD.PUT_OBJECT con un utente diverso da ADMIN, è necessario concedere privilegi di lettura sulla directory a tale utente. Ad esempio, eseguire il comando seguente come ADMIN per concedere i privilegi di lettura a adb_user:

GRANT READ ON DIRECTORY data_pump_dir TO adb_user;

Esempio

Per gestire i dati BLOB dopo l'elaborazione nel database e quindi memorizzarli direttamente in un file nell'area di memorizzazione degli oggetti, effettuare le operazioni riportate di seguito.

DECLARE
      my_blob_data BLOB;
BEGIN 
 /* Some processing producing BLOB data and populating my_blob_data */
DBMS_CLOUD.PUT_OBJECT(
     credential_name => 'OBJ_STORE_CRED',
     object_uri => 'https://objectstorage.us-phoenix-1.oraclecloud.com/n/namespace-string/b/bucketname/o/my_new_file',
     contents => my_blob_data)); 
END;
/

Note per uso

A seconda dello storage degli oggetti cloud, le dimensioni dell'oggetto trasferito sono limitate come indicato di seguito.

Servizio di storage degli oggetti cloud Limite dimensione trasferimento oggetto

Oracle Cloud Infrastructure Object Storage

50 GB

Amazon S3

5 GB

Azure Blob Storage o Azure Data Lake Storage

256 MB

Amazon S3 - Compatibile

Impostato dal provider dell'area di memorizzazione oggetti. Per ulteriori informazioni, vedere la documentazione del provider.

L'area di memorizzazione degli oggetti Oracle Cloud Infrastructure non consente la scrittura di file in un bucket pubblico senza fornire credenziali (Oracle Cloud Infrastructure consente agli utenti di scaricare oggetti dai bucket pubblici). Pertanto, devi fornire un nome di credenziale con credenziali valide per memorizzare un oggetto in un bucket pubblico di Oracle Cloud Infrastructure utilizzando PUT_OBJECT.

Vedere DBMS_CLOUD Formati URI per ulteriori informazioni.

SYNC_EXTERNAL_PART_TABLE Procedura

Questa procedura semplifica l'aggiornamento di una tabella partizionata esterna dai file nel cloud. Eseguire questa procedura ogni volta che vengono aggiunte nuove partizioni o quando le partizioni vengono rimosse dall'origine dell'area di memorizzazione degli oggetti per la tabella partizionata esterna.

Sintassi

DBMS_CLOUD.SYNC_EXTERNAL_PART_TABLE (
	table_name        IN VARCHAR2,
	schema_name       IN VARCHAR2 DEFAULT,
	update_columns    IN BOOLEAN DEFAULT);

Parametri

Parametro descrizione;

table_name

Nome della tabella di destinazione. Prima di eseguire DBMS_CLOUD.SYNC_EXTERNAL_PART_TABLE, è necessario creare la tabella di destinazione.

schema_name

Nome dello schema in cui risiede la tabella di destinazione. Il valore predefinito è NULL, ovvero la tabella di destinazione si trova nello stesso schema dell'utente che esegue la procedura.

update_columns

I nuovi file potrebbero introdurre una modifica allo schema. Gli aggiornamenti supportati includono: nuove colonne, colonne eliminate. Aggiornamenti alle colonne esistenti, ad esempio una modifica del tipo di dati genera errori.

Valore predefinito: False

VALIDATE_EXTERNAL_PART_TABLE Procedura

Questa procedura convalida i file di origine per una tabella partizionata esterna, genera informazioni di log e memorizza le righe che non corrispondono alle opzioni di formato specificate per la tabella esterna in una tabella badfile in Autonomous Database. Il form sovraccarico consente di utilizzare il parametro operation_id.

Sintassi

DBMS_CLOUD.VALIDATE_EXTERNAL_PART_TABLE (
       table_name                 IN VARCHAR2,
       partition_name             IN CLOB DEFAULT,
       subpartition_name          IN CLOB DEFAULT,
       schema_name                IN VARCHAR2 DEFAULT,
       rowcount                   IN NUMBER DEFAULT,
       partition_key_validation   IN BOOLEAN DEFAULT,
       stop_on_error              IN BOOLEAN DEFAULT);


DBMS_CLOUD.VALIDATE_EXTERNAL_PART_TABLE (
       table_name                 IN VARCHAR2,
       operation_id               OUT NUMBER,
       partition_name             IN CLOB DEFAULT,
       subpartition_name          IN CLOB DEFAULT,
       schema_name                IN VARCHAR2 DEFAULT,
       rowcount                   IN NUMBER DEFAULT,
       partition_key_validation   IN BOOLEAN DEFAULT,
       stop_on_error              IN BOOLEAN DEFAULT);

Parametri

Parametro descrizione;

table_name

Il nome della tabella esterna.

operation_id

Utilizzare questo parametro per tenere traccia dell'avanzamento e dello stato finale dell'operazione di caricamento come ID corrispondente nella vista USER_LOAD_OPERATIONS.

partition_name

Se definito, viene convalidata solo una partizione specifica. Se non viene specificato, leggere tutte le partizioni in sequenza fino al raggiungimento di rowcount.

subpartition_name

Se definita, viene convalidata solo una partizione secondaria specifica. Se non viene specificato, leggere tutte le partizioni esterne o le partizioni secondarie in sequenza fino al raggiungimento di rowcount.

schema_name

Nome dello schema in cui si trova la tabella esterna. Il valore predefinito è NULL, ovvero la tabella esterna si trova nello stesso schema dell'utente che esegue la procedura.

rowcount

Numero di righe da analizzare. Il valore predefinito è NULL, ovvero vengono analizzate tutte le righe nei file di origine.

partition_key_validation

Solo per uso interno. Non utilizzare questo parametro.

stop_on_error

Determina se la convalida deve essere interrotta quando una riga viene rifiutata. Il valore predefinito è TRUE, ovvero la convalida si interrompe alla prima riga rifiutata. L'impostazione del valore su FALSE specifica che la convalida non si arresta alla prima riga rifiutata e convalida tutte le righe fino al valore specificato per il parametro rowcount.

VALIDATE_EXTERNAL_TABLE Procedura

Questa procedura convalida i file di origine per una tabella esterna, genera le informazioni di log e memorizza le righe che non corrispondono alle opzioni di formato specificate per la tabella esterna in una tabella badfile in Autonomous Database. Il form sovraccarico consente di utilizzare il parametro operation_id.

Sintassi

DBMS_CLOUD.VALIDATE_EXTERNAL_TABLE (
	table_name      IN VARCHAR2,
	schema_name     IN VARCHAR2 DEFAULT,		
	rowcount        IN NUMBER DEFAULT,
	stop_on_error   IN BOOLEAN DEFAULT);


DBMS_CLOUD.VALIDATE_EXTERNAL_TABLE(
	table_name      IN VARCHAR2,
	operation_id    OUT NOCOPY NUMBER,
	schema_name     IN VARCHAR2 DEFAULT NULL,		
	rowcount        IN NUMBER DEFAULT 0,
	stop_on_error   IN BOOLEAN DEFAULT TRUE);

Parametri

Parametro descrizione;

table_name

Il nome della tabella esterna.

operation_id

Utilizzare questo parametro per tenere traccia dell'avanzamento e dello stato finale dell'operazione di caricamento come ID corrispondente nella vista USER_LOAD_OPERATIONS.

schema_name

Nome dello schema in cui si trova la tabella esterna. Il valore predefinito è NULL, ovvero la tabella esterna si trova nello stesso schema dell'utente che esegue la procedura.

rowcount

Numero di righe da analizzare. Il valore predefinito è NULL, ovvero vengono analizzate tutte le righe nei file di origine.

stop_on_error

Determina se la convalida deve essere interrotta quando una riga viene rifiutata. Il valore predefinito è TRUE, ovvero la convalida si interrompe alla prima riga rifiutata. L'impostazione del valore su FALSE specifica che la convalida non si arresta alla prima riga rifiutata e convalida tutte le righe fino al valore specificato per il parametro rowcount.

Se la tabella esterna fa riferimento a file Avro, ORC o Parquet, la convalida si interrompe alla prima riga rifiutata.

Quando la tabella esterna specifica il parametro format type impostato sul valore avro, orc o parquet, il parametro stop_on_error ha sempre il valore TRUE. Pertanto, il file di errore della tabella sarà sempre vuoto per una tabella esterna che fa riferimento ai file Avro, ORC o Parquet.

Note per uso

  • DBMS_CLOUD.VALIDATE_EXTERNAL_TABLE funziona sia con tabelle esterne partizionate che con tabelle ibride partizionate. Questa operazione consente di leggere i dati di tutte le partizioni esterne fino al raggiungimento di rowcount o all'applicazione di stop_on_error. Non si dispone del controllo su quale partizione, o parti di una partizione, viene letta in quale ordine.

VALIDATE_HYBRID_PART_TABLE Procedura

Questa procedura convalida i file di origine per una tabella partizionata ibrida, genera informazioni di log e memorizza le righe che non corrispondono alle opzioni di formato specificate per la tabella ibrida in una tabella badfile in Autonomous Database. Il form sovraccarico consente di utilizzare il parametro operation_id.

Sintassi

DBMS_CLOUD.VALIDATE_HYBRID_PART_TABLE (
       table_name                 IN VARCHAR2,
       partition_name             IN CLOB DEFAULT,
       subpartition_name          IN CLOB DEFAULT,
       schema_name                IN VARCHAR2 DEFAULT,
       rowcount                   IN NUMBER DEFAULT,
       partition_key_validation   IN BOOLEAN DEFAULT,
       stop_on_error              IN BOOLEAN DEFAULT);


DBMS_CLOUD.VALIDATE_HYBRID_PART_TABLE (
       table_name                 IN VARCHAR2,
       operation_id               OUT NUMBER,
       partition_name             IN CLOB DEFAULT,
       subpartition_name          IN CLOB DEFAULT,
       schema_name                IN VARCHAR2 DEFAULT,
       rowcount                   IN NUMBER DEFAULT,
       partition_key_validation   IN BOOLEAN DEFAULT,
       stop_on_error              IN BOOLEAN DEFAULT);

Parametri

Parametro descrizione;

table_name

Il nome della tabella esterna.

operation_id

Utilizzare questo parametro per tenere traccia dell'avanzamento e dello stato finale dell'operazione di caricamento come ID corrispondente nella vista USER_LOAD_OPERATIONS.

partition_name

Se definito, viene convalidata solo una partizione specifica. Se non viene specificato, leggere tutte le partizioni esterne in sequenza fino al raggiungimento di rowcount.

subpartition_name

Se definita, viene convalidata solo una partizione secondaria specifica. Se non viene specificato, leggere tutte le partizioni esterne o le partizioni secondarie in sequenza fino al raggiungimento di rowcount.

schema_name

Nome dello schema in cui si trova la tabella esterna. Il valore predefinito è NULL, ovvero la tabella esterna si trova nello stesso schema dell'utente che esegue la procedura.

rowcount

Numero di righe da analizzare. Il valore predefinito è NULL, ovvero vengono analizzate tutte le righe nei file di origine.

partition_key_validation

Solo per uso interno. Non utilizzare questo parametro.

stop_on_error

Determina se la convalida deve essere interrotta quando una riga viene rifiutata. Il valore predefinito è TRUE, ovvero la convalida si interrompe alla prima riga rifiutata. L'impostazione del valore su FALSE specifica che la convalida non si arresta alla prima riga rifiutata e convalida tutte le righe fino al valore specificato per il parametro rowcount.

DBMS_CLOUD per la gestione di massa dei file

I sottoprogrammi per le operazioni dei file in blocco all'interno del pacchetto DBMS_CLOUD.

Programma secondario descrizione;
BULK_COPY Procedura

Questa procedura copia i file da un bucket dello storage degli oggetti cloud a un altro.

BULK_DELETE Procedura

La procedura elimina i file dal bucket o dalla cartella di storage degli oggetti cloud.

BULK_DOWNLOAD Procedura

Questa procedura scarica i file dal bucket dell'area di memorizzazione degli oggetti cloud in una directory in Autonomous Database.

BULK_MOVE Procedura

Questa procedura sposta i file da un bucket di storage degli oggetti cloud a un altro.

BULK_UPLOAD Procedura

Questa procedura carica i file da una directory in Autonomous Database nello storage degli oggetti cloud.

BULK_COPY Procedura

Questa procedura copia in blocco i file da un bucket di storage degli oggetti cloud a un altro. Il form sovraccarico consente di utilizzare il parametro operation_id.

È possibile filtrare la lista di file da eliminare utilizzando un pattern di espressione regolare compatibile con l'operatore REGEXP_LIKE.

Il bucket o la cartella di origine e destinazione possono trovarsi nello stesso provider dell'area di memorizzazione degli oggetti cloud o in un altro provider.

Quando l'origine e la destinazione si trovano in aree di memorizzazione degli oggetti distinte o hanno account diversi con lo stesso provider cloud, è possibile assegnare nomi di credenziali separati per le posizioni di origine e destinazione.

Il nome della credenziale di origine viene utilizzato per impostazione predefinita anche dalla posizione di destinazione.

Sintassi

DBMS_CLOUD.BULK_COPY (
      source_credential_name  IN  VARCHAR2 DEFAULT NULL,
      source_location_uri     IN  VARCHAR2,
      target_location_uri     IN  VARCHAR2,
      target_credential_name  IN  VARCHAR2 DEFAULT NULL,
      regex_filter            IN  VARCHAR2 DEFAULT NULL,
      format                  IN  CLOB     DEFAULT NULL
);

DBMS_CLOUD.BULK_COPY (
      source_credential_name  IN  VARCHAR2 DEFAULT NULL,
      source_location_uri     IN  VARCHAR2,
      target_location_uri     IN  VARCHAR2,
      target_credential_name  IN  VARCHAR2 DEFAULT NULL,
      regex_filter            IN  VARCHAR2 DEFAULT NULL,
      format                  IN  CLOB     DEFAULT NULL,
      operation_id            OUT NUMBER
);

Parametri

Parametro descrizione;

source_credential_name

Il nome della credenziale per accedere allo storage degli oggetti cloud.

È possibile utilizzare 'OCI$RESOURCE_PRINCIPAL' come credential_name quando il principal risorsa è abilitato. Vedere ENABLE_RESOURCE_PRINCIPAL.

Se non si specifica un valore source_credential_name, credential_name viene impostato su NULL.

source_location_uri

Specifica l'URI che punta al bucket di storage degli oggetti o alla posizione della cartella di origine.

Questo parametro è obbligatorio.

Il formato degli URI dipende dal servizio di storage degli oggetti cloud. Vedere DBMS_CLOUD Formati URI per ulteriori informazioni.

target_location_uri

Specifica l'URI per il bucket o la cartella di storage degli oggetti di destinazione, in cui è necessario copiare i file.

Questo parametro è obbligatorio.

Il formato degli URI dipende dal servizio di storage degli oggetti cloud. Vedere DBMS_CLOUD Formati URI per ulteriori informazioni.

target_credential_name

Nome della credenziale per accedere alla posizione di storage degli oggetti cloud di destinazione.

È possibile utilizzare 'OCI$RESOURCE_PRINCIPAL' come credential_name quando il principal risorsa è abilitato. Vedere ENABLE_RESOURCE_PRINCIPAL.

Se non si specifica un valore target_credential_name, il valore target_location_uri viene impostato sul valore source_credential_name.

regex_filter

Specifica l'espressione REGEX per filtrare i file. Il pattern di espressione REGEX deve essere compatibile con l'operatore REGEXP_LIKE.

Se non si specifica un valore regex_filter, regex_filter viene impostato su NULL.

Per ulteriori informazioni, vedere REGEXP_LIKE Condizione.

format

Specifica le opzioni di configurazione aggiuntive per l'operazione sul file. Queste opzioni sono specificate come stringa JSON.

Di seguito sono riportate le opzioni di formato supportate.
  • logretention: accetta un valore intero che determina la durata in giorni per la quale la tabella di stato viene conservata per un'operazione di massa.

    Il valore predefinito è 2 giorni.

  • logprefix: accetta un valore stringa che determina la stringa del prefisso del nome della tabella di stato dell'operazione in blocco.

    Il tipo di operazione è il valore predefinito. Per BULK_COPY, il valore predefinito logprefix è COPYOBJ.

  • priority: accetta un valore stringa che determina il numero di operazioni file eseguite contemporaneamente.

    Un'operazione con una priorità più elevata consuma più risorse del database e dovrebbe essere eseguita più velocemente.

    Accetta i seguenti valori:

    • HIGH: determina il numero di file paralleli gestiti utilizzando il conteggio ECPU del database (conteggio OCPU se il database utilizza OCPU)

    • MEDIUM: determina il numero di processi simultanei utilizzando il limite di concorrenza per il servizio di medie dimensioni. Il valore predefinito è 4.

    • LOW: elabora i file in ordine seriale.

    Il valore predefinito è MEDIUM.

    Il numero massimo di operazioni file concorrenti è limitato a 64.

Se non si specifica un valore format, format viene impostato su NULL.

operation_id

Utilizzare questo parametro per tenere traccia dell'avanzamento e dello stato finale dell'operazione di caricamento come ID corrispondente nella vista USER_LOAD_OPERATIONS.

Note per uso

  • Viene restituito un errore quando l'URI di origine e destinazione punta allo stesso bucket o cartella di storage degli oggetti.

Esempio

BEGIN 
DBMS_CLOUD.BULK_COPY (
     source_credential_name => 'OCI_CRED',
     source_location_uri    => 'https://objectstorage.us-phoenix-1.oraclecloud.com/n/namespace-string/b/bucketname1/o',
     target_location_uri    => 'https://objectstorage.us-phoenix-1.oraclecloud.com/n/namespace-string/b/bucketname2/o',
     format       => JSON_OBJECT ('logretention' value 7, 'logprefix' value 'BULKOP')
);
END;
/

BULK_DELETE Procedura

Questa procedura elimina in blocco i file dallo storage degli oggetti cloud. Il form sovraccarico consente di utilizzare il parametro operation_id. È possibile filtrare la lista di file da eliminare utilizzando un pattern di espressione regolare compatibile con l'operatore REGEXP_LIKE.

Sintassi

 DBMS_CLOUD.BULK_DELETE(
     credential_name  IN  VARCHAR2 DEFAULT NULL,
     location_uri     IN  VARCHAR2,
     regex_filter     IN  VARCHAR2 DEFAULT NULL,
     format           IN  CLOB     DEFAULT NULL
);

DBMS_CLOUD.BULK_DELETE (
     credential_name  IN  VARCHAR2 DEFAULT NULL,
     location_uri     IN  VARCHAR2,
     regex_filter     IN  VARCHAR2 DEFAULT NULL,
     format           IN  CLOB     DEFAULT NULL,
     operation_id     OUT NUMBER
);

Parametri

Parametro descrizione;

credential_name

Il nome della credenziale per accedere allo storage degli oggetti cloud.

È possibile utilizzare 'OCI$RESOURCE_PRINCIPAL' come credential_name quando il principal risorsa è abilitato. Vedere ENABLE_RESOURCE_PRINCIPAL.

Se non si specifica un valore credential_name, credential_name viene impostato su NULL.

location_uri

Specifica l'URI che punta a una posizione di storage degli oggetti in Autonomous Database.

Questo parametro è obbligatorio.

Il formato degli URI dipende dal servizio di storage degli oggetti cloud. Vedere DBMS_CLOUD Formati URI per ulteriori informazioni.

regex_filter

Specifica l'espressione REGEX per filtrare i file. Il pattern di espressione REGEX deve essere compatibile con l'operatore REGEXP_LIKE.

Se non si specifica un valore regex_filter, regex_filter viene impostato su NULL.

Per ulteriori informazioni, vedere REGEXP_LIKE Condizione.

format

Specifica le opzioni di configurazione aggiuntive per l'operazione sul file. Queste opzioni sono specificate come stringa JSON.

Di seguito sono riportate le opzioni di formato supportate.
  • logretention: accetta un valore intero che determina la durata in giorni per la quale la tabella di stato viene conservata per un'operazione di massa.

    Il valore predefinito è 2 giorni.

  • logprefix: accetta un valore stringa che determina la stringa del prefisso del nome della tabella di stato dell'operazione in blocco.

    Il tipo di operazione è il valore predefinito. Per BULK_DELETE, il valore predefinito logprefix è DELETE.

  • priority: accetta un valore stringa che determina il numero di operazioni file eseguite contemporaneamente.

    Un'operazione con una priorità più alta consuma più risorse di database e viene completata prima.

    Accetta i seguenti valori:

    • HIGH: determina il numero di file paralleli gestiti utilizzando il conteggio ECPU del database (conteggio OCPU se il database utilizza OCPU).

    • MEDIUM: determina il numero di processi simultanei utilizzando il limite di concorrenza per il servizio di medie dimensioni. Il valore predefinito è 4.

    • LOW: elabora i file in ordine seriale.

    Il valore predefinito è MEDIUM.

    Il numero massimo di operazioni file concorrenti è limitato a 64.

Se non si specifica un valore format, format viene impostato su NULL.

operation_id

Utilizzare questo parametro per tenere traccia dell'avanzamento e dello stato finale dell'operazione di caricamento come ID corrispondente nella vista USER_LOAD_OPERATIONS.

Esempio

BEGIN
DBMS_CLOUD.BULK_DELETE (    
     credential_name => 'OCI_CRED',
     location_uri    => 'https://objectstorage.us-phoenix-1.oraclecloud.com/n/namespace-string/b/bucketname/o',
     format          => JSON_OBJECT ('logretention' value 5, 'logprefix' value 'BULKDEL')
);
END;
/

BULK_DOWNLOAD Procedura

Questa procedura scarica i file in una directory di Autonomous Database dallo storage degli oggetti cloud. Il form sovraccarico consente di utilizzare il parametro operation_id. È possibile filtrare la lista dei file da scaricare utilizzando un pattern di espressione regolare compatibile con l'operatore REGEXP_LIKE.

Sintassi

DBMS_CLOUD.BULK_DOWNLOAD (
     credential_name  IN  VARCHAR2 DEFAULT NULL,
     location_uri     IN  VARCHAR2,
     directory_name   IN  VARCHAR2,
     regex_filter     IN  VARCHAR2 DEFAULT NULL,
     format           IN  CLOB     DEFAULT NULL
);

DBMS_CLOUD.BULK_DOWNLOAD (
     credential_name  IN  VARCHAR2 DEFAULT NULL,
     location_uri     IN  VARCHAR2,
     directory_name   IN  VARCHAR2,
     regex_filter     IN  VARCHAR2 DEFAULT NULL,
     format           IN  CLOB     DEFAULT NULL,
     operation_id     OUT NUMBER
);

Parametri

Parametro descrizione;

credential_name

Il nome della credenziale per accedere allo storage degli oggetti cloud.

È possibile utilizzare 'OCI$RESOURCE_PRINCIPAL' come credential_name quando il principal risorsa è abilitato. Vedere ENABLE_RESOURCE_PRINCIPAL.

Se non si specifica un valore credential_name, credential_name viene impostato su NULL.

location_uri

Specifica l'URI che punta a una posizione di storage degli oggetti in Autonomous Database.

Questo parametro è obbligatorio.

Il formato degli URI dipende dal servizio di storage degli oggetti cloud. Vedere DBMS_CLOUD Formati URI per ulteriori informazioni.

directory_name

Il nome della directory in Autonomous Database da cui si desidera scaricare i file.

Questo parametro è obbligatorio.

regex_filter

Specifica l'espressione REGEX per filtrare i file. Il pattern di espressione REGEX deve essere compatibile con l'operatore REGEXP_LIKE.

Se non si specifica un valore regex_filter, regex_filter viene impostato su NULL.

Per ulteriori informazioni, vedere REGEXP_LIKE Condizione.

format

Specifica le opzioni di configurazione aggiuntive per l'operazione sul file. Queste opzioni sono specificate come stringa JSON.

Di seguito sono riportate le opzioni di formato supportate.
  • logretention: accetta un valore intero che determina la durata in giorni per la quale la tabella di stato viene conservata per un'operazione di massa.

    Il valore predefinito è 2 giorni.

  • logprefix: accetta un valore stringa che determina la stringa del prefisso del nome della tabella di stato dell'operazione in blocco. Per BULK_DOWNLOAD, il valore predefinito logprefix è DOWNLOAD.

    Il tipo di operazione è il valore predefinito.

  • priority: accetta un valore stringa che determina il numero di operazioni file eseguite contemporaneamente.

    Un'operazione con una priorità più alta consuma più risorse di database e viene completata prima.

    Accetta i seguenti valori:

    • HIGH: determina il numero di file paralleli gestiti utilizzando il conteggio ECPU del database (conteggio OCPU se il database utilizza OCPU).

    • MEDIUM: determina il numero di processi simultanei utilizzando il limite di concorrenza per il servizio di medie dimensioni. Il valore predefinito è 4.

    • LOW: elabora i file in ordine seriale.

    Il valore predefinito è MEDIUM.

    Il numero massimo di operazioni file concorrenti è limitato a 64.

Se non si specifica un valore format, format viene impostato su NULL.

operation_id

Utilizzare questo parametro per tenere traccia dell'avanzamento e dello stato finale dell'operazione di caricamento come ID corrispondente nella vista USER_LOAD_OPERATIONS.

Esempio

BEGIN
DBMS_CLOUD.BULK_DOWNLOAD (    
     credential_name => 'OCI_CRED',
     location_uri    => 'https://objectstorage.us-phoenix-1.oraclecloud.com/n/namespace-string/b/bucketname/o',
     directory_name  => 'BULK_TEST',
     format          => JSON_OBJECT ('logretention' value 7, 'logprefix' value 'BULKOP')
 );
END;
/

BULK_MOVE Procedura

Questa procedura sposta in blocco i file da un bucket o una cartella dello storage degli oggetti cloud a un altro. Il form sovraccarico consente di utilizzare il parametro operation_id.

È possibile filtrare la lista di file da eliminare utilizzando un pattern di espressione regolare compatibile con l'operatore REGEXP_LIKE.

Il bucket o la cartella di origine e destinazione possono trovarsi nello stesso provider dell'area di memorizzazione degli oggetti cloud o in un altro provider.

Quando l'origine e la destinazione si trovano in aree di memorizzazione degli oggetti distinte o hanno account diversi con lo stesso provider cloud, è possibile assegnare nomi di credenziali separati per le posizioni di origine e destinazione.

Il nome della credenziale di origine viene utilizzato per impostazione predefinita anche dalla posizione di destinazione quando non viene fornito il nome della credenziale di destinazione.

Il primo passo per spostare i file è copiarli nella posizione di destinazione, quindi eliminare i file di origine, una volta copiati correttamente.

L'oggetto viene rinominato anziché spostato se l'area di memorizzazione degli oggetti consente di rinominare le operazioni tra le posizioni di origine e di destinazione.

Sintassi

DBMS_CLOUD.BULK_MOVE (
      source_credential_name  IN  VARCHAR2 DEFAULT NULL,
      source_location_uri     IN  VARCHAR2,
      target_location_uri     IN  VARCHAR2,
      target_credential_name  IN  VARCHAR2 DEFAULT NULL,
      regex_filter            IN  VARCHAR2 DEFAULT NULL,
      format                  IN  CLOB     DEFAULT NULL
);

DBMS_CLOUD.BULK_MOVE (
      source_credential_name  IN  VARCHAR2 DEFAULT NULL,
      source_location_uri     IN  VARCHAR2,
      target_location_uri     IN  VARCHAR2,
      target_credential_name  IN  VARCHAR2 DEFAULT NULL,
      regex_filter            IN  VARCHAR2 DEFAULT NULL,
      format                  IN  CLOB     DEFAULT NULL,
      operation_id            OUT NUMBER
);

Parametri

Parametro descrizione;

source_credential_name

Nome della credenziale per accedere allo storage degli oggetti cloud di origine.

È possibile utilizzare 'OCI$RESOURCE_PRINCIPAL' come credential_name quando il principal risorsa è abilitato. Vedere ENABLE_RESOURCE_PRINCIPAL.

Se non si specifica un valore source_credential_name, credential_name viene impostato su NULL.

source_location_uri

Specifica l'URI che punta al bucket di storage degli oggetti o alla posizione della cartella di origine.

Questo parametro è obbligatorio.

Il formato degli URI dipende dal servizio di storage degli oggetti cloud. Vedere DBMS_CLOUD Formati URI per ulteriori informazioni.

target_location_uri

Specifica l'URI per il bucket o la cartella di storage degli oggetti di destinazione, in cui è necessario spostare i file.

Questo parametro è obbligatorio.

Il formato degli URI dipende dal servizio di storage degli oggetti cloud. Vedere DBMS_CLOUD Formati URI per ulteriori informazioni.

target_credential_name

Nome della credenziale per accedere alla posizione di storage degli oggetti cloud di destinazione.

È possibile utilizzare 'OCI$RESOURCE_PRINCIPAL' come credential_name quando il principal risorsa è abilitato. Vedere ENABLE_RESOURCE_PRINCIPAL.

Se non si specifica un valore target_credential_name, il valore target_location_uri viene impostato sul valore source_credential_name.

regex_filter

Specifica l'espressione REGEX per filtrare i file. Il pattern di espressione REGEX deve essere compatibile con l'operatore REGEXP_LIKE.

Se non si specifica un valore regex_filter, regex_filter viene impostato su NULL.

Per ulteriori informazioni, vedere REGEXP_LIKE Condizione.

format

Specifica le opzioni di configurazione aggiuntive per l'operazione sul file. Queste opzioni sono specificate come stringa JSON.

Di seguito sono riportate le opzioni di formato supportate.
  • logretention: accetta un valore intero che determina la durata in giorni per la quale la tabella di stato viene conservata per un'operazione di massa.

    Il valore predefinito è 2 giorni.

  • logprefix: accetta un valore stringa che determina la stringa del prefisso del nome della tabella di stato dell'operazione in blocco.

    Il tipo di operazione è il valore predefinito. Per BULK_MOVE, il valore predefinito logprefix è MOVE.

  • priority: accetta un valore stringa che determina il numero di operazioni file eseguite contemporaneamente.

    Un'operazione con una priorità più alta consuma più risorse di database e viene completata prima.

    Accetta i seguenti valori:

    • HIGH: determina il numero di file paralleli gestiti utilizzando il conteggio ECPU del database (conteggio OCPU se il database utilizza OCPU).

    • MEDIUM: determina il numero di processi simultanei utilizzando il limite di concorrenza per il servizio di medie dimensioni. Il valore predefinito è 4.

    • LOW: elabora i file in ordine seriale.

    Il valore predefinito è MEDIUM.

    Il numero massimo di operazioni file concorrenti è limitato a 64.

Se non si specifica un valore format, format viene impostato su NULL.

operation_id

Utilizzare questo parametro per tenere traccia dell'avanzamento e dello stato finale dell'operazione di caricamento come ID corrispondente nella vista USER_LOAD_OPERATIONS.

Esempio

BEGIN 
DBMS_CLOUD.BULK_MOVE (    
     source_credential_name => 'OCI_CRED',
     source_location_uri    => 'https://objectstorage.us-phoenix-1.oraclecloud.com/n/namespace-string/b/bucketname1/o',
     target_location_uri    => 'https://objectstorage.us-phoenix-1.oraclecloud.com/n/namespace-string/b/bucketname2/o',
     format                 => JSON_OBJECT ('logretention' value 7, 'logprefix' value 'BULKMOVE')
);
END;
/
Nota

Viene restituito un errore quando l'URI di origine e destinazione punta allo stesso bucket o cartella di storage degli oggetti.

BULK_UPLOAD Procedura

Questa procedura copia i file nello storage degli oggetti cloud da una directory di Autonomous Database. Il form sovraccarico consente di utilizzare il parametro operation_id.

Sintassi

DBMS_CLOUD.BULK_UPLOAD (
     credential_name  IN  VARCHAR2 DEFAULT NULL,
     location_uri     IN  VARCHAR2,
     directory_name   IN  VARCHAR2,
     regex_filter     IN  VARCHAR2 DEFAULT NULL,
     format           IN  CLOB     DEFAULT NULL
);

DBMS_CLOUD.BULK_UPLOAD (
     credential_name  IN  VARCHAR2 DEFAULT NULL,
     location_uri     IN  VARCHAR2,
     directory_name   IN  VARCHAR2,
     regex_filter     IN  VARCHAR2 DEFAULT NULL,
     format           IN  CLOB     DEFAULT NULL,
     operation_id     OUT NUMBER
);

Parametri

Parametro descrizione;

credential_name

Il nome della credenziale per accedere allo storage degli oggetti cloud.

È possibile utilizzare 'OCI$RESOURCE_PRINCIPAL' come credential_name quando il principal risorsa è abilitato. Vedere ENABLE_RESOURCE_PRINCIPAL.

Se non si specifica un valore credential_name, credential_name viene impostato su NULL.

location_uri

Specifica l'URI che punta a una posizione di storage degli oggetti per caricare i file.

Questo parametro è obbligatorio.

Il formato degli URI dipende dal servizio di storage degli oggetti cloud. Vedere DBMS_CLOUD Formati URI per ulteriori informazioni.

directory_name

Nome della directory in Autonomous Database da cui si caricano i file.

Questo parametro è obbligatorio.

regex_filter

Specifica l'espressione REGEX per filtrare i file. Il pattern di espressione REGEX deve essere compatibile con l'operatore REGEXP_LIKE.

Se non si specifica un valore regex_filter, regex_filter viene impostato su NULL.

Per ulteriori informazioni, vedere REGEXP_LIKE Condizione.

format

Specifica le opzioni di configurazione aggiuntive per l'operazione sul file. Queste opzioni sono specificate come stringa JSON.

Di seguito sono riportate le opzioni di formato supportate.
  • logretention: accetta un valore intero che determina la durata in giorni per la quale la tabella di stato viene conservata per un'operazione di massa.

    Il valore predefinito è 2 giorni.

  • logprefix: accetta un valore stringa che determina la stringa del prefisso del nome della tabella di stato dell'operazione in blocco.

    Il tipo di operazione è il valore predefinito. Per BULK_UPLOAD, il valore predefinito logprefix è UPLOAD.

  • priority: accetta un valore stringa che determina il numero di operazioni file eseguite contemporaneamente.

    Un'operazione con una priorità più alta consuma più risorse di database e viene completata prima.

    Accetta i seguenti valori:

    • HIGH: determina il numero di file paralleli gestiti utilizzando il conteggio ECPU del database (conteggio OCPU se il database utilizza OCPU).

    • MEDIUM: determina il numero di processi simultanei utilizzando il limite di concorrenza per il servizio di medie dimensioni. Il valore predefinito è 4.

    • LOW: elabora i file in ordine seriale.

    Il valore predefinito è MEDIUM.

    Il numero massimo di operazioni file concorrenti è limitato a 64.

Se non si specifica un valore format, format viene impostato su NULL.

operation_id

Utilizzare questo parametro per tenere traccia dell'avanzamento e dello stato finale dell'operazione di caricamento come ID corrispondente nella vista USER_LOAD_OPERATIONS.

Esempio

BEGIN
DBMS_CLOUD.BULK_UPLOAD ( 
     credential_name => 'OCI_CRED',
     location_uri    => 'https://objectstorage.us-phoenix-1.oraclecloud.com/n/namespace-string/b/bucketname/o',
     directory_name  => 'BULK_TEST',
     format          => JSON_OBJECT ('logretention' value 5, 'logprefix' value 'BULKUPLOAD')
 );
END;
/

DBMS_CLOUD API REST

In questa sezione vengono descritte le API REST DBMS_CLOUD fornite con Autonomous Database.

API REST descrizione;

Funzione GET_RESPONSE_HEADERS

Questa funzione restituisce le intestazioni di risposta HTTP come dati JSON in un oggetto JSON in Autonomous Database.

Funzione GET_RESPONSE_RAW

Questa funzione restituisce la risposta HTTP in formato RAW Autonomous Database. Questo è utile se si prevede che la risposta HTTP sia in formato binario.

Funzione GET_RESPONSE_STATUS_CODE

Questa funzione restituisce il codice di stato della risposta HTTP come numero intero in Autonomous Database. Il codice di stato consente di identificare se la richiesta è riuscita.

Funzione GET_RESPONSE_TEXT

Questa funzione restituisce la risposta HTTP in formato TEXT (VARCHAR2 o CLOB) in Autonomous Database. In genere, la maggior parte delle API REST cloud restituisce una risposta JSON in formato testo. Questa funzione è utile se si prevede che la risposta HTTP sia in formato testo.

Funzione GET_API_RESULT_CACHE_SIZE

Questa funzione restituisce la dimensione della cache dei risultati configurata.

SEND_REQUEST Funzione e procedura

Questa funzione avvia una richiesta HTTP, ottiene la risposta e termina la risposta in Autonomous Database. Questa funzione fornisce un workflow per l'invio di una richiesta API REST cloud con argomenti e un codice di risposta di restituzione e un payload.

SET_API_RESULT_CACHE_SIZE Procedura

Questa procedura imposta la dimensione massima della cache per la sessione corrente.

DBMS_CLOUD Panoramica delle API REST

Quando utilizzi PL/SQL nella tua applicazione e devi chiamare le API REST cloud, puoi utilizzare DBMS_CLOUD.SEND_REQUEST per inviare le richieste delle API REST.

Le funzioni API REST DBMS_CLOUD consentono di effettuare richieste HTTP utilizzando DBMS_CLOUD.SEND_REQUEST e di ottenere e salvare i risultati. Queste funzioni forniscono un'interfaccia API generica che consente di chiamare qualsiasi interfaccia API REST con i servizi cloud supportati riportati di seguito.

DBMS_CLOUD Costanti API REST

Descrive le costanti DBMS_CLOUD per effettuare richieste HTTP utilizzando DBMS_CLOUD.SEND_REQUEST.

DBMS_CLOUD supporta i metodi GET, PUT, POST, HEAD e DELETE HTTP. Il metodo API REST da utilizzare per una richiesta HTTP è in genere documentato nella documentazione dell'API REST cloud.

Nome Digita Valore
METHOD_DELETE VARCHAR2(6) 'DELETE'
METHOD_GET VARCHAR2(3) 'GET'
METHOD_HEAD VARCHAR2(4) 'HEAD'
METHOD_POST VARCHAR2(4) 'POST'
METHOD_PUT VARCHAR2(3) 'PUT'

DBMS_CLOUD Cache dei risultati dell'API REST

È possibile salvare i risultati dell'interfaccia API REST DBMS_CLOUD quando si imposta il parametro cache su true con DBMS_CLOUD.SEND_REQUEST. La vista SESSION_CLOUD_API_RESULTS descrive le colonne che è possibile utilizzare quando vengono salvati i risultati dell'API REST.

Per impostazione predefinita, le chiamate API REST DBMS_CLOUD non salvano i risultati per la sessione. In questo caso si utilizza la funzione DBMS_CLOUD.SEND_REQUEST per restituire i risultati.

Quando si utilizza DBMS_CLOUD.SEND_REQUEST e si imposta il parametro cache su TRUE, i risultati vengono salvati ed è possibile visualizzare i risultati passati nella vista SESSION_CLOUD_API_RESULTS. Il salvataggio e l'esecuzione di query sui risultati cronologici delle richieste API REST DBMS_CLOUD possono essere utili quando è necessario utilizzare i risultati precedenti nelle applicazioni.

Ad esempio, per eseguire una query sui risultati recenti dell'API REST DBMS_CLOUD, utilizzare la vista SESSION_CLOUD_API_RESULTS:

SELECT timestamp FROM SESSION_CLOUD_API_RESULTS;

Quando si salvano i risultati dell'interfaccia API REST DBMS_CLOUD con DBMS_CLOUD.SEND_REQUEST, i dati salvati sono disponibili solo all'interno della stessa sessione (connessione). Al termine della sessione, i dati salvati non sono più disponibili.

Utilizzare DBMS_CLOUD.GET_API_RESULT_CACHE_SIZE e DBMS_CLOUD.SET_API_RESULT_CACHE_SIZE per visualizzare e impostare la dimensione della cache dell'API REST DBMS_CLOUD e per disabilitare l'inserimento nella cache.

DBMS_CLOUD Parametro risultati API REST cache_scope

Quando si salvano i risultati dell'API REST DBMS_CLOUD con DBMS_CLOUD.SEND_REQUEST, l'accesso ai risultati in SESSION_CLOUD_API_RESULTS viene fornito in base al valore di cache_scope.

Per impostazione predefinita, cache_scope è 'PRIVATE' e solo l'utente corrente della sessione può accedere ai risultati. Se si imposta cache_scope su 'PUBLIC', tutti gli utenti della sessione potranno accedere ai risultati. Il valore predefinito per cache_scope specifica che ogni utente può visualizzare solo i risultati dell'interfaccia API REST DBMS_CLOUD.SEND_REQUEST generati dalle procedure richiamate con i diritti del chiamante. Quando si richiama DBMS_CLOUD.SEND_REQUEST in una sessione, esistono tre possibilità che determinano se l'utente corrente può visualizzare i risultati nella cache, in base al valore cache_scope:

  • È possibile eseguire direttamente DBMS_CLOUD.SEND_REQUEST come istruzione di livello superiore e la chiamata a DBMS_CLOUD.SEND_REQUEST e i risultati dell'API REST vengono salvati con lo stesso nome utente. In questo caso è possibile accedere a tutti i risultati con il valore predefinito 'PRIVATE', impostato per cache_scope.

  • Si scrive la procedura dei diritti di un chiamante wrapper e come utente corrente la chiamata con DBMS_CLOUD.SEND_REQUEST chiama la procedura e i risultati dell'API REST vengono salvati con lo stesso nome utente. In questo caso, si dispone dell'accesso a tutti i risultati con il valore predefinito 'PRIVATE', impostato per cache_scope.

  • Si scrive la procedura dei diritti di un definitore wrapper e la procedura è di proprietà di un altro utente. Quando si chiama DBMS_CLOUD.SEND_REQUEST all'interno della procedura, i risultati vengono salvati con il nome utente del proprietario della procedura.

    In questo caso, un utente con diritti di un altro definitore richiama DBMS_CLOUD.SEND_REQUEST e i risultati dell'API REST vengono salvati con il proprietario della procedura di definizione. Per impostazione predefinita, se cache_scope è PRIVATE', la sessione del chiamante non può visualizzare i risultati.

    Se il proprietario della procedura del definitore desidera rendere disponibili i risultati per qualsiasi utente della sessione chiamante, è necessario impostare cache_scope su 'PUBLIC' in DBMS_CLOUD.SEND_REQUEST.

DBMS_CLOUD Vista SESSION_CLOUD_API_RESULTS API REST

È possibile salvare i risultati dell'interfaccia API REST DBMS_CLOUD quando si imposta il parametro cache su true con DBMS_CLOUD.SEND_REQUEST. La vista SESSION_CLOUD_API_RESULTS descrive le colonne che è possibile utilizzare quando vengono salvati i risultati dell'API REST.

La vista SESSION_CLOUD_API_RESULTS è la vista creata se si inseriscono nella cache i risultati con DBMS_CLOUD.SEND_REQUEST. È possibile eseguire query sui risultati cronologici appartenenti alla sessione utente. Al termine della sessione, i dati nel file SESSION_CLOUD_API_RESULTS vengono rimossi.

A colonne descrizione;
URI URL di richiesta dell'API REST DBMS_CLOUD
TIMESTAMP Indicatore orario risposta API REST DBMS_CLOUD
CLOUD_TYPE Il tipo di cloud DBMS_CLOUD API REST, ad esempio Oracle Cloud Infrastructure, AMAZON_S3 e AZURE_BLOB
REQUEST_METHOD Il metodo di richiesta dell'API REST DBMS_CLOUD, ad esempio GET, PUT, HEAD
REQUEST_HEADERS Intestazioni delle richieste API REST DBMS_CLOUD
REQUEST_BODY_TEXT Corpo della richiesta dell'API REST DBMS_CLOUD in CLOB
RESPONSE_STATUS_CODE Codice di stato della risposta dell'API REST DBMS_CLOUD, ad esempio 200(OK), 404(Not Found)
RESPONSE_HEADERS Intestazioni di risposta dell'API REST DBMS_CLOUD
RESPONSE_BODY_TEXT Corpo della risposta dell'API REST DBMS_CLOUD in CLOB
SCOPE

Il valore cache_scope impostato da DBMS_CLOUD.SEND_REQUEST. I valori validi sono PUBLIC o PRIVATE.

Funzione GET_RESPONSE_HEADERS

Questa funzione restituisce le intestazioni di risposta HTTP come dati JSON in un oggetto JSON.

Sintassi

DBMS_CLOUD.GET_RESPONSE_HEADERS(
       resp          IN DBMS_CLOUD_TYPES.resp)
   RETURN JSON_OBJECT_T;

Parametri

Parametro descrizione;
resp

Tipo di risposta HTTP restituito da DBMS_CLOUD.SEND_REQUEST.

Eccezioni

Eccezione Errore descrizione;
invalid_response ORA-20025

Oggetto del tipo di risposta non valido passato a DBMS_CLOUD.GET_RESPONSE_HEADERS.

Funzione GET_RESPONSE_RAW

Questa funzione restituisce la risposta HTTP in formato RAW. Questo è utile se si prevede che la risposta HTTP sia in formato binario.

Sintassi

DBMS_CLOUD.GET_RESPONSE_RAW(
       resp          IN DBMS_CLOUD_TYPES.resp)
   RETURN BLOB;

Parametri

Parametro descrizione;
resp

Tipo di risposta HTTP restituito da DBMS_CLOUD.SEND_REQUEST.

Eccezioni

Eccezione Errore descrizione;
invalid_response ORA-20025

Oggetto del tipo di risposta non valido passato a DBMS_CLOUD.GET_RESPONSE_RAW.

Funzione GET_RESPONSE_STATUS_CODE

Questa funzione restituisce il codice di stato della risposta HTTP come numero intero. Il codice di stato consente di identificare se la richiesta è riuscita.

Sintassi

DBMS_CLOUD.GET_RESPONSE_STATUS_CODE(
       resp          IN DBMS_CLOUD_TYPES.resp)
   RETURN PLS_INTEGER;

Parametri

Parametro descrizione;
resp

Tipo di risposta HTTP restituito da DBMS_CLOUD.SEND_REQUEST.

Eccezioni

Eccezione Errore descrizione;
invalid_response ORA-20025

Oggetto del tipo di risposta non valido passato a DBMS_CLOUD.GET_RESPONSE_STATUS_CODE.

Funzione GET_RESPONSE_TEXT

Questa funzione restituisce la risposta HTTP in formato TEXT (VARCHAR2 o CLOB). In genere, la maggior parte delle API REST cloud restituisce una risposta JSON in formato testo. Questa funzione è utile se si prevede che la risposta HTTP sia in formato testo.

Sintassi

DBMS_CLOUD.GET_RESPONSE_TEXT(
       resp          IN DBMS_CLOUD_TYPES.resp)
   RETURN CLOB;

Parametri

Parametro descrizione;
resp

Tipo di risposta HTTP restituito da DBMS_CLOUD.SEND_REQUEST.

Eccezioni

Eccezione Errore descrizione;
invalid_response ORA-20025

Oggetto del tipo di risposta non valido passato a DBMS_CLOUD.GET_RESPONSE_TEXT.

Funzione GET_API_RESULT_CACHE_SIZE

Questa funzione restituisce la dimensione della cache dei risultati configurata. Il valore della dimensione della cache si applica solo alla sessione corrente.

Sintassi

DBMS_CLOUD.GET_API_RESULT_CACHE_SIZE()
   RETURN NUMBER;

SEND_REQUEST Funzione e procedura

Questa funzione e questa procedura iniziano una richiesta HTTP, ottengono la risposta e terminano la risposta. Questa funzione fornisce un workflow per l'invio di una richiesta API REST cloud con argomenti e la funzione restituisce un codice di risposta e un payload. Se si utilizza la procedura, è possibile visualizzare i risultati e i dettagli delle risposte dai risultati salvati con la vista SESSION_CLOUD_API_RESULTS.

Sintassi

DBMS_CLOUD.SEND_REQUEST(
       credential_name    IN VARCHAR2,
       uri                IN VARCHAR2,
       method             IN VARCHAR2,
       headers            IN CLOB DEFAULT NULL,
       async_request_url  IN VARCHAR2 DEFAULT NULL,
       wait_for_states    IN DBMS_CLOUD_TYPES.wait_for_states_t DEFAULT NULL,
       timeout            IN NUMBER DEFAULT 0,
       cache              IN PL/SQL BOOLEAN DEFAULT FALSE,
       cache_scope        IN VARCHAR2 DEFAULT 'PRIVATE',
       body               IN BLOB DEFAULT NULL)
   RETURN DBMS_CLOUD_TYPES.resp;

DBMS_CLOUD.SEND_REQUEST(
       credential_name    IN VARCHAR2,
       uri                IN VARCHAR2,
       method             IN VARCHAR2,
       headers            IN CLOB DEFAULT NULL,
       async_request_url  IN VARCHAR2 DEFAULT NULL,
       wait_for_states    IN DBMS_CLOUD_TYPES.wait_for_states_t DEFAULT NULL,
       timeout            IN NUMBER DEFAULT 0,
       cache              IN PL/SQL BOOLEAN DEFAULT FALSE,
       cache_scope        IN VARCHAR2 DEFAULT 'PRIVATE',
       body               IN BLOB DEFAULT NULL);

Parametri

Parametro descrizione;

credential_name

Nome della credenziale per l'autenticazione con l'API cloud nativa corrispondente.

È possibile utilizzare 'OCI$RESOURCE_PRINCIPAL' come credential_name quando il principal risorsa è abilitato. Vedere ENABLE_RESOURCE_PRINCIPAL.

uri

URI HTTP per effettuare la richiesta.

method

Metodo di richiesta HTTP: GET, PUT, POST, HEAD, DELETE. Utilizzare la costante del pacchetto DBMS_CLOUD per specificare il metodo.

Per ulteriori informazioni, vedere DBMS_CLOUD Costanti API REST.

headers

Intestazioni delle richieste HTTP per l'API cloud nativa corrispondente in formato JSON. Le intestazioni di autenticazione vengono impostate automaticamente, passando solo le intestazioni personalizzate.

async_request_url

URL di richiesta asincrona.

Per ottenere l'URL, selezionare l'interfaccia API di richiesta dall'elenco delle interfacce API (vedere https://docs.cloud.oracle.com/en-us/iaas/api/). Quindi, individuare l'API per la richiesta nel riquadro sinistro. Ad esempio, Database Services API → Autonomous Database → StopAutonomousDatabase. Questa pagina mostra la home API (e mostra l'endpoint di base). Aggiungere quindi l'endpoint di base con il percorso relativo ottenuto per il collegamento WorkRequest della richiesta di lavoro.

wait_for_states

Lo stato di attesa degli stati è di tipo DBMS_CLOUD_TYPES.wait_for_states_t. Di seguito sono riportati i valori validi per gli stati previsti: 'ACTIVE', 'CANCELED', 'COMPLETED', 'DELETED', 'FAILED', 'SUCCEEDED'.

Per wait_for_states sono consentiti più stati. Il valore predefinito per wait_for_states consiste nell'attesa di uno qualsiasi degli stati previsti: 'ACTIVE', 'CANCELED', 'COMPLETED', 'DELETED', 'FAILED', 'SUCCEEDED'.

timeout

Specifica il timeout, in secondi, per le richieste asincrone con i parametri async_request_url e wait_for_states.

Il valore predefinito è 0. Ciò indica di attendere il completamento della richiesta senza alcun timeout.

cache

Se TRUE specifica che la richiesta deve essere inserita nella cache dell'API dei risultati REST.

Il valore predefinito è FALSE, ovvero le richieste API REST non vengono inserite nella cache.

cache_scope

Specifica se tutti possono accedere a questa cache dei risultati delle richieste. Valori validi: "PRIVATE" e "PUBLIC". Il valore predefinito è "PRIVATE".

body

Corpo della richiesta HTTP per le richieste PUT e POST.

Eccezioni

Eccezione Errore descrizione;
invalid_req_method ORA-20023

Il metodo di richiesta passato a DBMS_CLOUD.SEND_REQUEST non è valido.

invalid_req_header ORA-20024

Le intestazioni di richiesta passate a DBMS_CLOUD.SEND_REQUEST non sono in formato JSON valido.

Note per l'uso

  • Se si utilizza Oracle Cloud Infrastructure, è necessario utilizzare un valore di credenziale basato su chiave di firma per credential_name. Per ulteriori informazioni, vedere CREATE_CREDENTIAL Procedura.

  • I parametri facoltativi async_request_url, wait_for_states e timeout consentono di gestire le richieste con tempi di esecuzione lunghi. Utilizzando questo formato asincrono di send_request, la funzione attende lo stato di completamento specificato in wait_for_states prima di tornare. Con questi parametri nella richiesta di invio, si superano gli stati di restituzione previsti nel parametro wait_for_states e si utilizza il parametro async_request_url per specificare una richiesta di lavoro associata, la richiesta non viene restituita immediatamente. Invece, la richiesta esamina async_request_url fino a quando lo stato restituito non è uno degli stati previsti o viene superato timeout (timeout è facoltativo). Se non viene specificato alcun valore timeout, la richiesta attende che si verifichi uno stato trovato in wait_for_states.

SET_API_RESULT_CACHE_SIZE Procedura

Questa procedura imposta la dimensione massima della cache per la sessione corrente. Il valore della dimensione della cache si applica solo alla sessione corrente.

Sintassi

DBMS_CLOUD.SET_API_RESULT_CACHE_SIZE(
       cache_size          IN NUMBER);

Parametri

Parametro descrizione;
cache_size

Impostare la dimensione massima della cache sul valore specificato cache_size. Se la nuova dimensione massima della cache è inferiore alla dimensione corrente della cache, i record precedenti vengono eliminati fino a quando il numero di righe non è uguale alla dimensione massima della cache specificata. Il valore massimo è 10000.

Se la dimensione della cache è impostata su 0, l'inserimento nella cache è disabilitato nella sessione.

La dimensione predefinita della cache è 10.

Eccezioni

Eccezione Errore descrizione;
invalid API result cache size ORA-20032

Il valore minimo è 0 e il valore massimo è 10000. Questa eccezione viene visualizzata quando il valore di input è minore di 0 o maggiore di 10000.

Esempio

EXEC DBMS_CLOUD.SET_API_RESULT_CACHE_SIZE(101);

DBMS_CLOUD Esempi di API REST

Mostra esempi che utilizzano DBMS_CLOUD.SEND_REQUEST per creare ed eliminare un bucket di Oracle Cloud Infrastructure Object Storage e un esempio per elencare tutti i compartimenti nella tenancy.

Nota

Questi esempi mostrano le API di richiesta di Oracle Cloud Infrastructure e richiedono l'uso di una credenziale basata su chiave di firma per credential_name. Le credenziali basate sulla chiave di firma di Oracle Cloud Infrastructure includono gli argomenti private_key e fingerprint.

Ad esempio:

BEGIN
   DBMS_CLOUD.CREATE_CREDENTIAL (
       credential_name => ‘OCI_KEY_CRED’,
       user_ocid       => ‘ocid1.user.oc1..aaaaaaaauq54mi7zdyfhw33ozkwuontjceel7fok5nq3bf2vwetkpqsoa’,
       tenancy_ocid    => ‘ocid1.tenancy.oc1..aabbbbbbaafcue47pqmrf4vigneebgbcmmoy5r7xvoypicjqqge32ewnrcyx2a’,
       private_key     => ‘MIIEogIBAAKCAQEAtUnxbmrekwgVac6FdWeRzoXvIpA9+0r1.....wtnNpESQQQ0QLGPD8NM//JEBg=’,
       fingerprint     => ‘f2:db:f9:18:a4:aa:fc:94:f4:f6:6c:39:96:16:aa:27’);
END;
/
Per informazioni su DBMS_CLOUD.CREATE_CREDENTIAL, vedere CREATE_CREDENTIAL Procedura.

Crea esempio di bucket

Mostra un esempio che utilizza DBMS_CLOUD.SEND_REQUEST con il metodo HTTP POST per creare un bucket dell'area di memorizzazione degli oggetti denominato bucketname.

Per i dettagli sull'API di Oracle Cloud Infrastructure Object Storage Service, vedere CreateBucket per questo esempio.

SET SERVEROUTPUT ON
DECLARE
  resp DBMS_CLOUD_TYPES.resp;
BEGIN
  -- Send request
  resp := DBMS_CLOUD.send_request(
            credential_name => 'OCI_KEY_CRED',
            uri => 'https://objectstorage.region.oraclecloud.com/n/namespace-string/b/',
            method => DBMS_CLOUD.METHOD_POST,
            body => UTL_RAW.cast_to_raw(
                        JSON_OBJECT('name' value 'bucketname',
                                    'compartmentId' value 'compartment_OCID'))
          );
 
  -- Response Body in TEXT format
  dbms_output.put_line('Body: ' || '------------' || CHR(10) ||
  DBMS_CLOUD.get_response_text(resp) || CHR(10));
  
  -- Response Headers in JSON format
  dbms_output.put_line('Headers: ' || CHR(10) || '------------' || CHR(10) ||
  DBMS_CLOUD.get_response_headers(resp).to_clob || CHR(10));
 
  -- Response Status Code
  dbms_output.put_line('Status Code: ' || CHR(10) || '------------' || CHR(10) ||
  DBMS_CLOUD.get_response_status_code(resp));
 
END;
/

Note:

  • In questo esempio, namespace-string è lo spazio di nomi dello storage degli oggetti Oracle Cloud Infrastructure e bucketname è il nome del bucket. Per ulteriori informazioni, vedere Informazioni sugli spazi di nomi dello storage degli oggetti.

  • Dove: region è un'area di endpoint. Per ulteriori informazioni, consulta il riferimento all'API di storage degli oggetti in Riferimento ed endpoint API. Ad esempio, dove region è: us-phoenix-1.

Esempio di eliminazione del bucket

Mostra un esempio che utilizza il metodo DBMS_CLOUD.SEND_REQUEST con HTTP DELETE per eliminare un bucket dell'area di memorizzazione degli oggetti denominato bucketname.

Per i dettagli sull'API di Oracle Cloud Infrastructure Object Storage Service, vedere DeleteBucket per questo esempio.

SET SERVEROUTPUT ON
DECLARE
  resp DBMS_CLOUD_TYPES.resp;
BEGIN
  -- Send request
  resp := DBMS_CLOUD.send_request(
            credential_name => 'OCI_KEY_CRED',
            uri => 'https://objectstorage.region.oraclecloud.com/n/namespace-string/b/bucketname',
            method => DBMS_CLOUD.METHOD_DELETE
          );
 
  -- Response Body in TEXT format
  dbms_output.put_line('Body: ' || '------------' || CHR(10) ||
  DBMS_CLOUD.get_response_text(resp) || CHR(10));
  
  -- Response Headers in JSON format
  dbms_output.put_line('Headers: ' || CHR(10) || '------------' || CHR(10) ||
  DBMS_CLOUD.get_response_headers(resp).to_clob || CHR(10));
 
  -- Response Status Code
  dbms_output.put_line('Status Code: ' || CHR(10) || '------------' || CHR(10) ||
  DBMS_CLOUD.get_response_status_code(resp));
 
END;
/

Note:

  • In questo esempio, namespace-string è lo spazio di nomi dello storage degli oggetti Oracle Cloud Infrastructure e bucketname è il nome del bucket. Per ulteriori informazioni, vedere Informazioni sugli spazi di nomi dello storage degli oggetti.

  • Dove: region è un'area di endpoint. Per ulteriori informazioni, consulta il riferimento all'API di storage degli oggetti in Riferimento ed endpoint API. Ad esempio, dove region è: us-phoenix-1.

Esempio di lista di compartimenti

Mostra un esempio utilizzando il metodo DBMS_CLOUD.SEND_REQUEST con il metodo HTTP GET per elencare tutti i compartimenti nella tenancy (compartimento radice). In questo esempio viene illustrato come passare le intestazioni delle richieste in DBMS_CLOUD.SEND_REQUEST.

Per i dettagli sull'API di Oracle Cloud Infrastructure Identity and Access Management Service, vedere ListCompartments per questo esempio.

--
-- List compartments
--
DECLARE
  resp DBMS_CLOUD_TYPES.resp;
  root_compartment_ocid VARCHAR2(512) := '&1';
BEGIN
  -- Send request
  dbms_output.put_line('Send Request');
  resp := DBMS_CLOUD.send_request(
            credential_name => 'OCI_KEY_CRED',
            uri => 'https://identity.region.oraclecloud.com/20160918/compartments?compartmentId=' || root_compartment_ocid,
            method => DBMS_CLOUD.METHOD_GET,
            headers => JSON_OBJECT('opc-request-id' value 'list-compartments')
          );
  dbms_output.put_line('Body: ' || '------------' || CHR(10) || DBMS_CLOUD.get_response_text(resp) || CHR(10));
  dbms_output.put_line('Headers: ' || CHR(10) || '------------' || CHR(10) || DBMS_CLOUD.get_response_headers(resp).to_clob || CHR(10));
  dbms_output.put_line('Status Code: ' || CHR(10) || '------------' || CHR(10) || DBMS_CLOUD.get_response_status_code(resp));
  dbms_output.put_line(CHR(10));
END;
/

Dove: region è un'area di endpoint. Per ulteriori informazioni, consulta il riferimento all'API IAM (Identity and Access Management) in Riferimento e endpoint API. Ad esempio, dove region è: uk-london-1.

Esempio di richiesta asincrona

Mostra un esempio che utilizza DBMS_CLOUD.SEND_REQUEST con il metodo HTTP POST per eseguire l'operazione di arresto di Autonomous Database e attendere lo stato. Questo esempio mostra come utilizzare DBMS_CLOUD.SEND_REQUEST con i parametri async_request_url, wait_for_states e timeout.

--
-- Sent Work Request Autonomous Database Stop Request with Wait for Status
DECLARE
    l_resp DBMS_CLOUD_TYPES.resp;
    l_resp_json JSON_OBJECT_T;
    l_key_shape JSON_OBJECT_T;
    l_body JSON_OBJECT_T;
    status_array DBMS_CLOUD_TYPES.wait_for_states_t;
BEGIN
  status_array := DBMS_CLOUD_TYPES.wait_for_states_t('SUCCEEDED');
  l_body := JSON_OBJECT_T('{}');
  l_body.put('autonomousDatabaseId', 'ocid');
-- Send request
  dbms_output.put_line(l_body.to_clob);
  dbms_output.put_line('Send Request');
  l_resp := DBMS_CLOUD.send_request(
                       credential_name    => 'NATIVE_CRED_OCI',
                       uri                => 'https://database.region.oraclecloud.com/20160918/autonomousDatabases/ocid/actions/stop',
                       method             => DBMS_CLOUD.METHOD_POST,
                       body               => UTL_RAW.cast_to_raw(l_body.to_clob),
                       async_request_url  => 'https://iaas.region.oraclecloud.com/20160918/workRequests',
                       wait_for_states    => status_array,
                       timeout            => 600
                  );
   dbms_output.put_line('resp body: '||DBMS_CLOUD.get_response_text(l_resp));
   dbms_output.put_line('resp headers: '||DBMS_CLOUD.get_response_headers(l_resp).to_clob);
END;
/

Dove: region è un'area di endpoint. Per ulteriori informazioni, consulta il riferimento all'API IAM (Identity and Access Management) in Riferimento e endpoint API. Ad esempio, dove region è: uk-london-1.

L'ocid è l'identificativo della risorsa Oracle Cloud Infrastructure. Per ulteriori informazioni, vedere Identificativi risorsa.



Nota a piedi

Nota a piè di pagina 3: il supporto per le chiamate API REST di Azure Cloud è limitato al dominio "blob.windows.net".