Chargement de données dans Autonomous Database à partir d'Azure Blob Storage ou d'Azure Data Lake Storage

Cet exemple montre comment charger des données à partir d'Azure Blob Storage ou d'Azure Data Lake Storage vers Autonomous Database.

Vous disposez de différentes options pour effectuer le chargement de données dans Autonomous Database, par exemple :

  • Utilisation des options d'interface utilisateur : vous pouvez utiliser l'interface utilisateur de l'outil de chargement Data Studio pour créer des informations d'identification pour l'emplacement de banque cloud, sélectionner des fichiers contenant des données et exécuter des travaux de chargement de données.

    Reportez-vous à Loading Data from Cloud Storage

  • Utilisation des API Rest Data Services : Vous pouvez utiliser les API de l'outil de chargement Data Studio pour créer des liens vers l'emplacement de la banque cloud et exécuter des travaux de chargement de données.

    Reportez-vous à Utilisation des API de chargement de données Data Studio dans PL/SQL

  • Utilisation des commandes SQL comme expliqué dans cet exemple.

Toutes ces méthodes utilisent le même package PL/SQL DBMS_CLOUD pour le chargement des données. Toutefois, Data Studio offre des avantages supplémentaires par rapport aux commandes SQL. Il permet non seulement d'analyser la source et de créer des définitions de table, mais aussi d'effectuer des contrôles de validation.

Vous avez besoin d'informations d'identification d'accès Azure pour l'authentification de compte utilisateur et d'une URL d'objet pour accéder à l'objet dans votre conteneur de compte Azure Storage.

Pour charger des données à partir d'Azure Blob Storage ou d'Azure Data Lake Storage, procédez comme suit :
  1. Créez des informations d'identification pour le compte utilisateur Azure dans Autonomous Database.

  2. Copiez les données d'Azure Blob Storage ou d'Azure Data Lake Storage vers la base de données.

Rubriques

Préparation pour le chargement de données à partir d'Azure Blob Storage ou d'Azure Data Lake Storage

Vérifiez les prérequis et préparez le chargement des données à partir d'Azure Blob Storage ou d'Azure Data Lake Storage.

Prérequis

Un fichier de données, par exemple azure-data.txt, existe dans le conteneur de compte de stockage Azure que vous pouvez importer. L'exemple de fichier dans cet exemple contient les données suivantes :
1,Azure Direct Sales
2,Azure Tele Sales
3,Azure Catalog
4,Azure Internet
5,Azure Partners

Côté Azure, connectez-vous à votre compte Azure Storage et procédez comme suit :

  1. Accordez le rôle requis, par exemple Storage Blob Data Contributor, à votre compte Azure Storage.
    Pour plus d'informations, reportez-vous à Affectation de rôles Azure à l'aide du portail Azure.
  2. Obtenez une clé d'accès pour le compte de stockage Azure.
    Pour plus d'informations, voir Afficher les clés d'accès de compte.
  3. Obtenez l'URL d'objet du fichier de données stocké dans le conteneur de compte Azure Storage.

Etapes de chargement de données à partir d'Azure Blob Storage ou d'Azure Data Lake Storage

Exécutez ces étapes pour charger des données à partir d'Azure Blob Storage ou d'Azure Data Lake Storage vers Autonomous Database.

  1. Stockez les informations d'identification de compte Azure Storage dans votre instance Autonomous Database et indiquez un nom d'informations d'identification. Cela permet à la base de données de s'authentifier auprès de votre compte de stockage Azure et d'accéder aux éléments du conteneur de compte de stockage Azure.
    SET DEFINE OFF
    BEGIN
      DBMS_CLOUD.CREATE_CREDENTIAL(
        credential_name => 'AZURE_CRED_NAME',
        username => 'username',
        password => 'password'
      );
    END;
    /
    Remarque

    Ici, le nom utilisateur est le nom de votre compte Azure Storage et le mot de passe est votre clé d'accès utilisateur.

    Pour obtenir des informations détaillées sur les paramètres, reportez-vous à Procédure CREATE_CREDENTIAL.

    La création d'informations d'identification pour accéder à Azure Blob Storage ou à Azure Data Lake Storage n'est pas requise si vous activez le principal de service Azure. Pour plus d'informations, reportez-vous à Utilisation du principal de service Azure afin d'accéder aux ressources Azure.

    Vous pouvez éventuellement tester l'accès à Azure Blob Storage ou à Azure Data Lake Storage, comme indiqué dans cet exemple.

    SELECT * FROM DBMS_CLOUD.LIST_OBJECTS('AZURE_CRED_NAME', 'https://dbazure.blob.core.windows.net/my-azure-container/');
    
  2. Créez dans la base de données une table dans laquelle vous souhaitez charger les données.
    CREATE TABLE myazuretable (id NUMBER, name VARCHAR2(64));
    
  3. Importez des données du conteneur Azure Blob Storage ou Azure Data Lake Storage vers votre instance Autonomous Database.
    Indiquez le nom de la table et le nom des informations d'identification Azure suivis de l'URL de l'objet Stockage BLOB Azure ou Stockage de lac de données Azure.
    BEGIN
          DBMS_CLOUD.COPY_DATA(
              table_name => 'myazuretable',
              credential_name => 'AZURE_CRED_NAME',
              file_uri_list => 'https://dbazure.blob.core.windows.net/my-azure-container/azure-data.txt',
              format => json_object('delimiter' value ',')
          );
    END;
    /

    Pour obtenir des informations détaillées sur les paramètres, reportez-vous à Procédure COPY_DATA.

Vous avez importé des données à partir d'Azure Blob Storage ou d'Azure Data Lake Storage vers votre instance Autonomous Database. Vous pouvez exécuter cette instruction et vérifier les données de votre table.
SELECT * FROM myazuretable;
ID  NAME
--  –-------------
 1  Azure Direct Sales
 2  Azure Tele Sales
 3  Azure Catalog
 4  Azure Internet
 5  Azure Partners

Pour plus d'informations sur le chargement des données, reportez-vous à Chargement des données à partir de fichiers dans le cloud.