Chargement de données dans Autonomous Database à partir d'Azure Blob Storage ou d'Azure Data Lake Storage

Cet exemple montre comment charger des données à partir d'Azure Blob Storage ou d'Azure Data Lake Storage vers Autonomous Database.

Vous disposez de différentes options pour effectuer le chargement des données dans Autonomous Database, par exemple :

  • Utilisation des options d'interface utilisateur : vous pouvez utiliser l'interface utilisateur de l'outil de chargement Data Studio pour créer des informations d'identification pour l'emplacement de banque cloud, sélectionner des fichiers contenant des données et exécuter des travaux de chargement de données.

    Reportez-vous à Chargement de données à partir du stockage cloud

  • Utilisation des API Rest Data Services : vous pouvez utiliser les API de l'outil de chargement Data Studio pour créer des liens vers l'emplacement de la banque cloud et exécuter des travaux de chargement de données.

    Reportez-vous à Utilisation des API de chargement de données Data Studio dans PL/SQL

  • Utilisation de commandes SQL comme expliqué dans cet exemple.

Toutes ces méthodes utilisent le même package PL/SQL DBMS_CLOUD pour le chargement des données. Toutefois, Data Studio offre des avantages supplémentaires par rapport aux commandes SQL. Il permet non seulement d'analyser la source et de créer des définitions de table, mais également d'effectuer des vérifications de validation.

Vous avez besoin d'informations d'identification d'accès Azure pour l'authentification de compte utilisateur et d'une URL d'objet pour accéder à l'objet dans le conteneur de compte Azure Storage.

Pour charger des données à partir d'Azure Blob Storage ou d'Azure Data Lake Storage :
  1. Créez des informations d'identification pour le compte utilisateur Azure dans Autonomous Database.

  2. Copiez les données d'Azure Blob Storage ou d'Azure Data Lake Storage vers la base de données.

Sujets

Préparation du chargement de données à partir d'Azure Blob Storage ou d'Azure Data Lake Storage

Vérifiez les prérequis et préparez-vous au chargement de données à partir d'Azure Blob Storage ou d'Azure Data Lake Storage.

Prérequis

Un fichier de données, par exemple, azure-data.txt existe dans le conteneur de compte Azure Storage que vous pouvez importer. L'exemple de fichier de cet exemple a le contenu suivant :
1,Azure Direct Sales
2,Azure Tele Sales
3,Azure Catalog
4,Azure Internet
5,Azure Partners

Côté Azure, connectez-vous à votre compte Azure Storage et procédez comme suit :

  1. Accordez le rôle requis, par exemple Storage Blob Data Contributor, à votre compte Azure Storage.
    Pour plus d'informations, reportez-vous à Affectation de rôles Azure à l'aide du portail Azure.
  2. Obtenez une clé d'accès pour le compte Azure Storage.
    Pour plus d'informations, voir Afficher les clés d'accès au compte.
  3. Obtenez l'URL d'objet du fichier de données stocké dans le conteneur de compte Azure Storage.

Etapes de chargement de données à partir d'Azure Blob Storage ou d'Azure Data Lake Storage

Exécutez ces étapes pour charger des données à partir d'Azure Blob Storage ou d'Azure Data Lake Storage vers Autonomous Database.

  1. Stockez les informations d'identification de compte Azure Storage dans votre instance Autonomous Database et indiquez un nom d'informations d'identification. Cela permet à la base de données de s'authentifier auprès de votre compte Azure Storage et d'accéder aux éléments du conteneur de compte Azure Storage.
    SET DEFINE OFF
    BEGIN
      DBMS_CLOUD.CREATE_CREDENTIAL(
        credential_name => 'AZURE_CRED_NAME',
        username => 'username',
        password => 'password'
      );
    END;
    /
    Remarque

    Ici, le nom utilisateur est le nom de votre compte Azure Storage et le mot de passe est la clé d'accès utilisateur.

    Pour obtenir des informations détaillées sur les paramètres, reportez-vous à la procédure CREATE_CREDENTIAL.

    La création d'informations d'identification pour accéder à Azure Blob Storage ou à Azure Data Lake Storage n'est pas requise si vous activez le principal de service Azure. Pour plus d'informations, reportez-vous à Utilisation du principal de service Azure pour accéder à des ressources Azure.

    Vous pouvez éventuellement tester l'accès à Azure Blob Storage ou à Azure Data Lake Storage, comme indiqué dans cet exemple.

    SELECT * FROM DBMS_CLOUD.LIST_OBJECTS('AZURE_CRED_NAME', 'https://dbazure.blob.core.windows.net/my-azure-container/');
    
  2. Créez dans la base de données une table dans laquelle charger les données.
    CREATE TABLE myazuretable (id NUMBER, name VARCHAR2(64));
    
  3. Importez des données du conteneur Azure Blob Storage ou Azure Data Lake Storage vers votre instance Autonomous Database.
    Indiquez le nom de la table et le nom des informations d'identification Azure, suivis de l'URL d'objet Azure Blob Storage ou Azure Data Lake Storage.
    BEGIN
          DBMS_CLOUD.COPY_DATA(
              table_name => 'myazuretable',
              credential_name => 'AZURE_CRED_NAME',
              file_uri_list => 'https://dbazure.blob.core.windows.net/my-azure-container/azure-data.txt',
              format => json_object('delimiter' value ',')
          );
    END;
    /

    Pour obtenir des informations détaillées sur les paramètres, reportez-vous à la procédure COPY_DATA.

Vous avez importé des données à partir d'Azure Blob Storage ou d'Azure Data Lake Storage vers votre instance Autonomous Database. Vous pouvez exécuter cette instruction et vérifier les données de votre table.
SELECT * FROM myazuretable;
ID  NAME
--  –-------------
 1  Azure Direct Sales
 2  Azure Tele Sales
 3  Azure Catalog
 4  Azure Internet
 5  Azure Partners

Pour plus d'informations sur le chargement de données, reportez-vous à Chargement de données à partir de fichiers dans le cloud.