A propos des pipelines de données sur Autonomous Database

Les pipelines de données Autonomous Database sont des pipelines de chargement ou d'export.

Les pipelines de chargement permettent un chargement incrémentiel continu des données à partir de sources externes (à mesure que les données arrivent dans la banque d'objets, elles sont chargées dans une table de base de données). Les pipelines d'export permettent l'export continu de données incrémentielles vers la banque d'objets (à mesure que de nouvelles données apparaissent dans une table de base de données, elles sont exportées vers la banque d'objets). Les pipelines utilisent le planificateur de base de données pour charger ou exporter en permanence des données incrémentielles.

Les pipelines de données Autonomous Database fournissent les éléments suivants :

  • Opérations unifiées : les pipelines vous permettent de charger ou d'exporter des données rapidement et facilement, et de répéter ces opérations à intervalles réguliers pour rechercher de nouvelles données. Le package DBMS_CLOUD_PIPELINE fournit un ensemble unifié de procédures PL/SQL pour la configuration de pipeline, ainsi que pour la création et le démarrage d'un travail programmé pour les opérations de chargement ou d'export.

  • Traitement des données programmé : les pipelines surveillent leur source de données et chargent ou exportent régulièrement les données à l'arrivée de nouvelles données.

  • Hautes performances : les pipelines redimensionnent les opérations de transfert de données avec les ressources disponibles sur votre instance Autonomous Database. Par défaut, les pipelines utilisent le parallélisme pour toutes les opérations de chargement ou d'export, et évoluent en fonction des ressources d'UC disponibles sur votre instance Autonomous Database ou en fonction d'un attribut de priorité configurable.

  • Atomicité et récupération : les pipelines garantissent l'atomicité de sorte que les fichiers de la banque d'objets soient chargés exactement une fois pour un pipeline de chargement.

  • Surveillance et dépannage : les pipelines fournissent des tables de journal et de statut détaillées qui vous permettent de surveiller et de déboguer les opérations de pipeline.

  • Compatible avec le multicloud : les pipelines sur Autonomous Database prennent en charge le basculement facile entre les fournisseurs cloud sans modification d'application. Les pipelines prennent en charge tous les formats d'URI de banque d'informations d'identification et d'objet pris en charge par Autonomous Database (Oracle Cloud Infrastructure Object Storage, Amazon S3, Azure Blob Storage ou Azure Data Lake Storage, Google Cloud Storage et banques d'objets compatibles avec Amazon S3).

A propos du cycle de vie du pipeline de données sur Autonomous Database

Le package DBMS_CLOUD_PIPELINE fournit des procédures pour créer, configurer, tester et démarrer un pipeline. Le cycle de vie et les procédures du pipeline sont les mêmes pour les pipelines de chargement et d'exportation.

Description de pipeline_lifecycle.eps
Description de l'image pipeline_lifecycle.eps

Pour chaque type de pipeline, procédez comme suit pour créer et utiliser un pipeline :

  1. Créez et configurez le pipeline. Pour plus d'informations, reportez-vous à Création et configuration de pipelines.

  2. Testez un nouveau pipeline. Pour plus d'informations, reportez-vous à Test des pipelines.

  3. Démarrez un pipeline. Pour plus d'informations, reportez-vous à Démarrage d'un pipeline.

En outre, vous pouvez surveiller, arrêter ou supprimer des pipelines :

  • Pendant qu'un pipeline est en cours d'exécution, que ce soit pendant le test ou lors d'une utilisation régulière après le démarrage du pipeline, vous pouvez le surveiller. Pour plus d'informations, reportez-vous à Surveillance et dépannage des pipelines.

  • Vous pouvez arrêter un pipeline et le redémarrer ultérieurement, ou supprimer un pipeline lorsque vous avez terminé d'utiliser le pipeline. Pour plus d'informations, reportez-vous à Arrêt d'un pipeline et à Suppression d'un pipeline.

A propos des pipelines de chargement sur Autonomous Database

Utilisez un pipeline de chargement pour le chargement incrémentiel continu de données à partir de fichiers externes dans une banque d'objets dans une table de base de données. Un pipeline de chargement identifie régulièrement les nouveaux fichiers dans la banque d'objets et charge les nouvelles données dans la table de base de données.

Un pipeline de chargement fonctionne comme suit (certaines de ces fonctionnalités sont configurables à l'aide d'attributs de pipeline) :

  • Les fichiers de la banque d'objets sont chargés en parallèle dans une table de base de données.

    • Un pipeline de chargement utilise le nom du fichier de banque d'objets pour identifier et charger de manière unique les fichiers les plus récents.
    • Une fois qu'un fichier de la banque d'objets a été chargé dans la table de base de données, si le contenu du fichier change dans la banque d'objets, il ne sera plus chargé.
    • Si le fichier de banque d'objets est supprimé, cela n'a aucune incidence sur les données de la table de base de données.
  • En cas d'échec, un pipeline de chargement retente automatiquement l'opération. Des tentatives sont effectuées à chaque exécution ultérieure du travail programmé du pipeline.

  • Dans les cas où les données d'un fichier ne sont pas conformes à la table de base de données, elles sont marquées comme FAILED et peuvent être examinées pour déboguer et résoudre le problème.

    • Si le chargement d'un fichier échoue, le pipeline ne s'arrête pas et continue à charger les autres fichiers.
  • Les pipelines de chargement prennent en charge plusieurs formats de fichier d'entrée, notamment : JSON, CSV, XML, Avro, ORC et Parquet.

Description de l'image load-pipeline.eps
Description de l'image load-pipeline.eps

La migration à partir de bases de données non Oracle est l'un des cas d'emploi possibles pour un pipeline de chargement. Lorsque vous devez migrer vos données d'une base de données non Oracle vers Oracle Autonomous Database, vous pouvez extraire les données et les charger dans Autonomous Database (le format Oracle Data Pump ne peut pas être utilisé pour les migrations à partir de bases de données non Oracle). En utilisant un format de fichier générique tel que CSV pour exporter des données à partir d'une base de données non Oracle, vous pouvez enregistrer vos données dans des fichiers et les télécharger vers la banque d'objets. Créez ensuite un pipeline pour charger les données vers Autonomous Database. L'utilisation d'un pipeline de chargement pour charger un grand ensemble de fichiers CSV offre des avantages importants tels que la tolérance aux pannes, ainsi que les opérations de reprise et de nouvelle tentative. Pour une migration avec un ensemble de données volumineux, vous pouvez créer plusieurs pipelines, un par table pour les fichiers de base de données non Oracle, afin de charger des données dans Autonomous Database.

A propos des pipelines d'export sur Autonomous Database

Utilisez un pipeline d'export pour l'export incrémentiel continu de données de la base de données vers la banque d'objets. Un pipeline d'export identifie périodiquement les données candidates et télécharge les données vers la banque d'objets.

Il existe trois options de pipeline d'export (les options d'export sont configurables à l'aide des attributs de pipeline) :

  • Exporter les résultats incrémentiels d'une requête vers la banque d'objets en utilisant une colonne de date ou d'horodatage comme clé pour le suivi de données plus récentes.

  • Exporter les données incrémentielles d'une table vers la banque d'objets en utilisant une colonne de date ou d'horodatage comme clé pour le suivi des données plus récentes.

  • Exportez les données d'une table vers une banque d'objets à l'aide d'une requête pour sélectionner des données sans référence à une colonne de date ou d'horodatage (de sorte que le pipeline exporte toutes les données sélectionnées par la requête pour chaque exécution du planificateur).

Les pipelines d'export disposent des fonctionnalités suivantes (certaines d'entre elles peuvent être configurées à l'aide d'attributs de pipeline) :

  • Les résultats sont exportés en parallèle vers la banque d'objets.

  • En cas d'échec, un travail de pipeline suivant répète l'opération d'export.

  • Les pipelines d'export prennent en charge plusieurs formats de fichier d'export, notamment CSV, JSON, Parquet ou XML.

A propos des pipelines mis à jour par Oracle

Autonomous Database fournit des pipelines intégrés pour l'export de journaux vers la banque d'objets. Ces pipelines sont préconfigurés et peuvent être démarrés par l'utilisateur ADMIN.

Les pipelines mis à jour par Oracle sont les suivants :

  • ORA$AUDIT_EXPORT : ce pipeline exporte les journaux d'audit de base de données vers la banque d'objets au format JSON et s'exécute toutes les 15 minutes après le démarrage du pipeline (en fonction de la valeur d'attribut interval).

  • ORA$APEX_ACTIVITY_EXPORT : ce pipeline exporte le journal d'activité de l'espace de travail Oracle APEX vers la banque d'objets au format JSON. Ce pipeline est préconfiguré avec la requête SQL permettant d'extraire des enregistrements d'activité APEX et s'exécute toutes les 15 minutes après le démarrage du pipeline (en fonction de la valeur d'attribut interval).

Les pipelines gérés par Oracle appartiennent à l'utilisateur ADMIN et les attributs des pipelines gérés par Oracle peuvent être modifiés par l'utilisateur ADMIN.

Par défaut, les pipelines gérés par Oracle utilisent OCI$RESOURCE_PRINCIPAL comme credential_name.

Pour plus d'informations, reportez-vous à Utilisation des pipelines mis à jour par Oracle.