À propos des pipelines de données sur une base de données d'IA autonome

Les pipelines de données Autonomous AI Database sont soit des pipelines de chargement, soit des pipelines d'exportation.

Les pipelines de chargement fournissent un chargement incrémentiel continu de données à partir de sources externes (à mesure que les données arrivent dans le magasin d'objets, elles sont chargées dans une table de base de données). Les pipelines d'exportation fournissent une exportation incrémentielle continue des données vers le magasin d'objets (à mesure que de nouvelles données apparaissent dans une table de base de données, elles sont exportées vers le magasin d'objets). Les pipelines utilisent le programmateur de base de données pour charger ou exporter en continu des données incrémentielles.

Les pipelines de données Autonomous AI Database fournissent les éléments suivants :

Cycle de vie du pipeline de données

L'ensemble DBMS_CLOUD_PIPELINE fournit des procédures pour créer, configurer, tester et démarrer un pipeline. Le cycle de vie et les procédures du pipeline sont les mêmes pour les pipelines de chargement et d'exportation.

Description de l'illustration pipeline_lifecycle.png

Pour l'un ou l'autre type de pipeline, vous effectuez les étapes suivantes pour créer et utiliser un pipeline :

  1. Créez et configurez le pipeline. Pour plus d'informations, voir Créer et configurer des pipelines.

  2. Testez un nouveau pipeline. Pour plus d'informations, voir Tester les pipelines.

  3. Démarrez un pipeline. Pour plus d'informations, voir Démarrer un pipeline.

En outre, vous pouvez surveiller, arrêter ou supprimer des pipelines :

Charger les pipelines

Utilisez un pipeline de chargement pour le chargement incrémentiel continu de données à partir de fichiers externes dans le magasin d'objets dans une table de base de données. Un pipeline de chargement identifie périodiquement les nouveaux fichiers dans le magasin d'objets et charge les nouvelles données dans la table de base de données.

Un pipeline de chargement fonctionne comme suit (certaines de ces fonctions peuvent être configurées à l'aide des attributs de pipeline) :

Description de l'image ci-dessous

Description de l'illustration load-pipeline.svg

La migration à partir de bases de données non Oracle est un cas d'utilisation possible pour un pipeline de chargement. Lorsque vous devez migrer vos données d'une base de données non Oracle vers Oracle Autonomous AI Database sur une infrastructure Exadata dédiée, vous pouvez extraire les données et les charger dans Autonomous AI Database (le format Oracle Data Pump ne peut pas être utilisé pour les migrations à partir de bases de données non Oracle). En utilisant un format de fichier générique tel que CSV pour exporter des données à partir d'une base de données non Oracle, vous pouvez enregistrer vos données dans des fichiers et charger les fichiers dans le magasin d'objets. Créez ensuite un pipeline pour charger les données dans Autonomous AI Database. L'utilisation d'un pipeline de chargement pour charger un grand jeu de fichiers CSV offre des avantages importants tels que la tolérance aux pannes et les opérations de reprise et de nouvelle tentative. Pour une migration avec un jeu de données volumineux, vous pouvez créer plusieurs pipelines, un par table pour les fichiers de base de données non Oracle, afin de charger des données dans Autonomous AI Database.

Exporter les pipelines

Utilisez un pipeline d'exportation pour l'exportation incrémentielle continue des données de la base de données vers le magasin d'objets. Un pipeline d'exportation identifie périodiquement les données candidates et les charge dans le magasin d'objets.

Il existe trois options de pipeline d'exportation (les options d'exportation sont configurables à l'aide des attributs de pipeline) :

Les pipelines d'exportation ont les fonctions suivantes (certains d'entre eux sont configurables à l'aide des attributs de pipeline) :

Pipelines gérés par Oracle

La base de données autonome avec intelligence artificielle sur une infrastructure Exadata dédiée fournit des pipelines intégrés pour exporter des journaux spécifiques vers un magasin d'objets au format JSON. Ces pipelines sont préconfigurés et sont démarrés et détenus par l'utilisateur ADMIN.

Les pipelines gérés par Oracle sont les suivants :

Pour configurer et démarrer un pipeline géré par Oracle :

  1. Déterminez le pipeline géré Oracle à utiliser : ORA$AUDIT_EXPORT ou ORA$APEX_ACTIVITY_EXPORT.

  2. Définissez les attributs credential_name et location.

    Note : credential_name est une valeur obligatoire dans une base de données d'intelligence artificielle autonome sur une infrastructure Exadata dédiée.

    Par exemple :

     BEGIN
       DBMS_CLOUD_PIPELINE.SET_ATTRIBUTE(
         pipeline_name => 'ORA$AUDIT_EXPORT',
         attribute_name => 'credential_name',
         attribute_value => 'DEF_CRED_OBJ_STORE'
       );
       DBMS_CLOUD_PIPELINE.SET_ATTRIBUTE(
         pipeline_name => 'ORA$AUDIT_EXPORT',
         attribute_name => 'location',
         attribute_value => 'https://objectstorage.us-phoenix-1.oraclecloud.com/n/namespace-string/b/bucketname/o/'
       );
     END;
     /
    

    Les données de journal de la base de données sont exportées vers l'emplacement de magasin d'objets que vous spécifiez.

    Voir SET_ATTRIBUTE pour plus d'informations.

  3. Facultativement, définissez les attributs interval, format ou priority.

    Voir SET_ATTRIBUTE pour plus d'informations.

  4. Démarrez le pipeline.

    Voir START_PIPELINE pour plus d'informations.

Contenu connexe

Ensemble DBMS_CLOUD_PIPELINE