Charger des données dans une base de données IA autonome à partir d'Azure Blob Storage ou d'Azure Data Lake Storage

Cet exemple montre comment charger des données depuis Azure Blob Storage ou Azure Data Lake Storage vers Autonomous AI Database.

Vous disposez de diverses options pour effectuer le chargement de données dans une base de données d'IA autonome, notamment :

  • Utilisation des options de l'interface utilisateur : Vous pouvez utiliser l'interface utilisateur de l'outil de chargement de Data Studio pour créer des données d'identification pour l'emplacement du magasin en nuage, sélectionner des fichiers contenant des données et exécuter des tâches de chargement de données.

    Voir Chargement de données à partir du stockage en nuage

  • Utilisation des API Rest Data Services : Vous pouvez utiliser les API de l'outil de chargement de Data Studio pour créer des liens vers l'emplacement du magasin en nuage et exécuter des tâches de chargement de données.

    Voir Utilisation des API de chargement de données Data Studio dans PL/SQL

  • Utiliser des commandes SQL comme expliqué dans cet exemple.

Toutes ces méthodes utilisent le même ensemble PL/SQL DBMS_CLOUD pour le chargement des données. Toutefois, Data Studio offre des avantages supplémentaires par rapport aux commandes SQL. Il permet non seulement d'analyser la source et de créer des définitions de table, mais effectue également des vérifications de validation.

Vous devez disposer des données d'identification d'accès Azure pour l'authentification de compte d'utilisateur et d'une URL d'objet pour accéder à l'objet dans le conteneur de votre compte de stockage Azure.

Pour charger des données à partir d'Azure Blob Storage ou d'Azure Data Lake Storage :
  1. Créez des données d'identification pour le compte d'utilisateur Azure dans la base de données Autonomous AI Database.

  2. Copiez les données depuis Azure Blob Storage ou Azure Data Lake Storage vers la base de données.

Rubriques

Préparer le chargement de données à partir d'Azure Blob Storage ou d'Azure Data Lake Storage

Vérifiez les préalables et préparez le chargement des données à partir d'Azure Blob Storage ou d'Azure Data Lake Storage.

Conditions requises

Un fichier de données, par exemple, azure-data.txt existe dans le conteneur de compte de stockage Azure que vous pouvez importer. L'exemple de fichier contient les éléments suivants :
1,Azure Direct Sales
2,Azure Tele Sales
3,Azure Catalog
4,Azure Internet
5,Azure Partners

Côté Azure, connectez-vous à votre compte de stockage Azure et effectuez les opérations suivantes :

  1. Accordez le rôle requis, par exemple Storage Blob Data Contributor, à votre compte Azure Storage.
  2. Obtenez une clé d'accès pour le compte de stockage Azure.
    Pour plus d'informations, voir Voir les clés d'accès au compte.
  3. Obtenez l'URL de l'objet pour le fichier de données stocké dans le conteneur de compte de stockage Azure.

Étapes de chargement des données à partir d'Azure Blob Storage ou d'Azure Data Lake Storage

Exécutez ces étapes pour charger des données depuis Azure Blob Storage ou Azure Data Lake Storage vers Autonomous AI Database.

  1. Stockez les données d'identification du compte de stockage Azure dans votre base de données Autonomous AI Database et spécifiez un nom de données d'identification. Cela permet à la base de données de s'authentifier auprès de votre compte de stockage Azure et d'accéder aux éléments du conteneur de compte de stockage Azure.
    SET DEFINE OFF
    BEGIN
      DBMS_CLOUD.CREATE_CREDENTIAL(
        credential_name => 'AZURE_CRED_NAME',
        username => 'username',
        password => 'password'
      );
    END;
    /
    Note

    Ici, le nom d'utilisateur est le nom de votre compte de stockage Azure et le mot de passe est votre clé d'accès utilisateur.

    Pour des informations détaillées sur les paramètres, voir ProcédureCREATE_CREDENTIAL.

    La création de données d'identification pour accéder à Azure Blob Storage ou à Azure Data Lake Storage n'est pas requise si vous activez le principal de service Azure. Pour plus d'informations, voir Utiliser un principal de service Azure pour accéder aux ressources Azure.

    Facultativement, vous pouvez tester l'accès à Azure Blob Storage ou à Azure Data Lake Storage comme illustré dans cet exemple.

    SELECT * FROM DBMS_CLOUD.LIST_OBJECTS('AZURE_CRED_NAME', 'https://dbazure.blob.core.windows.net/my-azure-container/');
    
  2. Créez une table dans la base de données où vous souhaitez charger les données.
    CREATE TABLE myazuretable (id NUMBER, name VARCHAR2(64));
    
  3. Importez des données du conteneur Azure Blob Storage ou Azure Data Lake Storage vers votre base de données Autonomous AI Database.
    Spécifiez le nom de la table et le nom des données d'identification Azure suivis de l'URL d'objet Azure Blob Storage ou Azure Data Lake Storage.
    BEGIN
          DBMS_CLOUD.COPY_DATA(
              table_name => 'myazuretable',
              credential_name => 'AZURE_CRED_NAME',
              file_uri_list => 'https://dbazure.blob.core.windows.net/my-azure-container/azure-data.txt',
              format => json_object('delimiter' value ',')
          );
    END;
    /

    Pour des informations détaillées sur les paramètres, voir ProcédureCOPY_DATA.

Vous avez importé avec succès des données depuis Azure Blob Storage ou Azure Data Lake Storage vers votre base de données Autonomous AI Database. Vous pouvez exécuter cette instruction et vérifier les données de votre table.
SELECT * FROM myazuretable;
ID  NAME
--  –-------------
 1  Azure Direct Sales
 2  Azure Tele Sales
 3  Azure Catalog
 4  Azure Internet
 5  Azure Partners

Pour plus d'informations sur le chargement des données, voir Charger des données à partir de fichiers dans le nuage.