機械翻訳について

「Azure BlobストレージまたはAzure Data Lakeストレージ」からAutonomous Databaseへのデータのロード

この例では、「Azure BlobストレージまたはAzure Data Lakeストレージ」からAutonomous Databaseにデータをロードする方法を示します。

Autonomous Databaseへのデータ・ロードを実行する様々なオプションがあります。次に例を示します:

  • 「UIの使用」オプション: Data Studioロード・ツールのユーザー・インタフェースを使用して、クラウド・ストアのロケーションの資格証明を作成し、データを含むファイルを選択して、データ・ロード・ジョブを実行できます。

    「クラウド・ストレージからのデータのロード」を参照してください

  • Restデータ・サービスAPIの使用: Data Studioロード・ツールAPIを使用して、クラウド・ストアのロケーションへのリンクを作成し、データ・ロード・ジョブを実行できます。

    「PL/SQLでのData Studioデータ・ロードAPIの使用」を参照してください

  • この例では、SQLコマンドを使用します。

これらのメソッドはすべて、データのロードに同じPL/SQLパッケージDBMS_CLOUDを使用します。 ただし、Data StudioにはSQLコマンドよりも追加の利点があります。 ソースの分析と表定義の作成に役立つだけでなく、検証チェックも実行します。

ユーザー・アカウント認証のAzureアクセス資格証明と、Azure Storageアカウント・コンテナ内のオブジェクトにアクセスするためのオブジェクトURLが必要です。

Azure BlobストレージまたはAzure Data Lakeストレージからデータをロードするには:
  1. Autonomous DatabaseにAzureユーザー・アカウントの資格証明を作成します。

  2. 「Azure BlobストレージまたはAzure Data Lakeストレージ」からデータベースにデータをコピーします。

トピック

「Azure BlobストレージまたはAzure Data Lakeストレージ」からのデータのロードの準備

前提条件を確認し、「Azure BlobストレージまたはAzure Data Lakeストレージ」からデータをロードする準備をします。

前提条件

データ・ファイル(たとえば、azure-data.txt)は、インポートできるAzure Storageアカウント・コンテナに存在します。 この例のサンプル・ファイルの内容は次のとおりです:
1,Azure Direct Sales
2,Azure Tele Sales
3,Azure Catalog
4,Azure Internet
5,Azure Partners

Azure側で、Azureストレージ・アカウントにログインし、次の手順を実行します:

  1. 必要なロール(Storage Blob Data Contributorなど)をAzure Storageアカウントに付与します。
    詳細は、「Azureポータルを使用したAzureロールの割当て」を参照してください。
  2. Azure Storageアカウントのアクセス・キーを取得します。
    詳細は、「アカウント・アクセス・キーの表示」を参照してください。
  3. Azure Storageアカウント・コンテナに格納されているデータファイルのオブジェクトURLを取得します。

「Azure BlobストレージまたはAzure Data Lakeストレージ」からデータをロードするステップ

次のステップを実行して、「Azure BlobストレージまたはAzure Data Lakeストレージ」からAutonomous Databaseにデータをロードします。

  1. Azure Storageアカウント資格証明をAutonomous Databaseに格納し、資格証明名を指定します。 これにより、データベースはAzure Storageアカウントで認証し、Azure Storageアカウント・コンテナ内のアイテムにアクセスできます。
    SET DEFINE OFF
    BEGIN
      DBMS_CLOUD.CREATE_CREDENTIAL(
        credential_name => 'AZURE_CRED_NAME',
        username => 'username',
        password => 'password'
      );
    END;
    /

    ノート:

    ここで、usernameはAzure Storageアカウント名で、「パスワード」はユーザー・アクセス・キーです。

    パラメータの詳細は、「CREATE_CREDENTIALプロシージャ」を参照してください。

    Azureサービス・プリンシパルを有効にする場合、Azure BlobストレージまたはAzure Data Lakeストレージにアクセスするための資格証明を作成する必要はありません。 詳細については、「Azureサービス・プリンシパルを使用したAzureリソースへのアクセス」を参照してください。

    オプションで、この例に示すように、「Azure BlobストレージまたはAzure Data Lakeストレージ」へのアクセスをテストできます。

    SELECT * FROM DBMS_CLOUD.LIST_OBJECTS('AZURE_CRED_NAME', 'https://dbazure.blob.core.windows.net/my-azure-container/');
    
  2. データをロードする表をデータベースに作成します。
    CREATE TABLE myazuretable (id NUMBER, name VARCHAR2(64));
    
  3. 「Azure BlobストレージまたはAzure Data Lakeストレージ」コンテナからAutonomous Databaseにデータをインポートします。
    表名とAzure資格証明名を指定し、その後に「Azure BlobストレージまたはAzure Data Lakeストレージ」オブジェクトURLを指定します。
    BEGIN
          DBMS_CLOUD.COPY_DATA(
              table_name => 'myazuretable',
              credential_name => 'AZURE_CRED_NAME',
              file_uri_list => 'https://dbazure.blob.core.windows.net/my-azure-container/azure-data.txt',
              format => json_object('delimiter' value ',')
          );
    END;
    /

    パラメータの詳細は、「COPY_DATAプロシージャ」を参照してください。

「Azure BlobストレージまたはAzure Data Lakeストレージ」からAutonomous Databaseにデータが正常にインポートされました。 この文を実行して、表のデータを検証できます。
SELECT * FROM myazuretable;
ID  NAME
--  –-------------
 1  Azure Direct Sales
 2  Azure Tele Sales
 3  Azure Catalog
 4  Azure Internet
 5  Azure Partners

データのロードの詳細は、「クラウドのファイルからのデータのロード」を参照してください。