Export de données vers Autonomous Database

Cette section détaille le processus d'export de données vers une instance Autonomous Database et de gestion des pipelines de chargement.
Remarque

La configuration et la maintenance de la base de données autonome ne relèvent pas de JMS. Pour plus d'informations, reportez-vous à Autonomous Database Toujours gratuit.

Configurez les prérequis :

Avant de configurer et d'exécuter des pipelines de chargement pour les données exportées vers votre instance Autonomous Database, assurez-vous que les prérequis suivants sont respectés :

  1. Définir les privilèges utilisateur de base de données

    Si l'utilisateur qui appelle les scripts de pipeline de chargement dans Oracle Database Actions - Console SQL n'est pas un administrateur OCI, un administrateur doit lui accorder les privilèges d'exécution requis.

    GRANT EXECUTE ON DBMS_CLOUD_PIPELINE TO <user-name>; 
    GRANT READ,WRITE ON DIRECTORY DATA_PUMP_DIR TO <user-name>; 
    GRANT CREATE JOB TO <user-name>;
  2. Activer le principal de ressource

    Dans Oracle Database Actions - Console SQL, en tant qu'administrateur, exécutez la commande suivante pour activer le principal de ressource :

    EXEC DBMS_CLOUD_ADMIN.ENABLE_RESOURCE_PRINCIPAL();

    Si un utilisateur autre que l'administrateur exécute le script de pipeline, en tant qu'administrateur, activez le principal de ressource pour cet utilisateur en exécutant la commande suivante :

    EXEC DBMS_CLOUD_ADMIN.ENABLE_RESOURCE_PRINCIPAL(username => '<user-name>');
  3. Création d'un groupe dynamique pour la base de données Autonomous Database cible

    Créez un groupe dynamique avec la règle de mise en correspondance suivante :

    ALL {resource.type = 'autonomousdatabase', resource.id = '<adb-ocid>'} 

    <adb-ocid> est l'OCID de l'instance Autonomous Database vers laquelle les données seront chargées.

  4. Octroi de l'accès au bucket Object Storage à la stratégie de principal de ressource

    Créez une stratégie pour accorder au principal de ressource Autonomous Database l'accès aux fichiers dans le bucket de stockage d'objet cible. Créez la stratégie suivante dans le champ Stratégies :

    ALLOW DYNAMIC-GROUP <dynamic-group-name> TO READ objects IN compartment <compartment-name> where target.bucket.name='<export-bucket-name>'
    
    où :
    • <export-bucket-name> est le nom du stockage d'objet vers lequel les données de parc JMS sont exportées.
    • <compartment-name> est le nom du compartiment auquel appartient le bucket

Obtenir le script de pipeline de chargement

Le script de pipeline peut être obtenu à partir de la console Java Management Service :
  1. Dans le tableau de bord du parc, sélectionnez le parc dont les données exportées doivent être chargées dans Autonomous Database.
  2. Accédez à Paramètres d'export de données et téléchargez le script de pipeline de chargement Autonomous Database.

Exécuter le script de pipeline

Copiez le contenu du script et exécutez-le dans Oracle Database Actions - Console SQL.

Le script de pipeline de chargement exécute quatre tâches principales :

  1. Crée trois tables correspondant à trois ressources d'export. Si les tables existent déjà, aucune table n'est créée :
    • Instance gérée
    • Instance gérée et exécution Java
    • Instance gérée, exécution Java et application
  2. Crée et configure trois pipelines afin d'interroger en permanence le bucket de stockage d'objet cible à intervalles réguliers pour les nouveaux fichiers CSV. Lorsque de nouveaux fichiers sont détectés, les données de ces fichiers sont chargées dans la bonne table. Si les pipelines existent déjà, aucun pipeline n'est créé.
  3. Démarre les pipelines nouvellement créés.
  4. Crée et active un travail programmé qui s'exécute chaque semaine pour vérifier les données d'export redondantes et les enlever.

Surveiller et gérer les pipelines existants

Pour surveiller tous les travaux de pipeline actifs, accédez à Oracle Database Actions et à Programmation.

Vous pouvez également exécuter la requête dans la console SQL d'Oracle Database Actions :

SELECT * FROM USER_CLOUD_PIPELINES WHERE PIPELINE_NAME LIKE 'JMS%'

Pour plus de détails sur chaque travail exécuté, reportez-vous aux tables $STATUS et $LOG identifiées par votre nom de cloud utilisateur.

Vous pouvez contrôler un pipeline en le démarrant, en l'arrêtant, en le réinitialisant ou en le supprimant. Pour obtenir des étapes détaillées, reportez-vous à Control Pipelines.