Exporter des données vers Autonomous Database

Cette section détaille le processus d'exportation des données vers une base de données Autonomous Database et de gestion des pipelines de chargement.
Note

La configuration et la maintenance de la base de données autonome ne relèvent pas du service JMS. Pour plus d'informations, voir Toujours gratuit pour Autonomous Database.

Préalables à la configuration :

Avant de configurer et d'exécuter des pipelines de chargement pour les données exportées vers votre base de données Autonomous Database, assurez-vous que les conditions préalables suivantes sont remplies :

  1. Définir le privilège d'utilisateur de base de données

    Si l'utilisateur appelant les scripts de pipeline de chargement dans Oracle Database Actions - Console SQL n'est pas un administrateur OCI, un administrateur doit lui accorder les privilèges d'exécution requis.

    GRANT EXECUTE ON DBMS_CLOUD_PIPELINE TO <user-name>; 
    GRANT READ,WRITE ON DIRECTORY DATA_PUMP_DIR TO <user-name>; 
    GRANT CREATE JOB TO <user-name>;
  2. Activer le principal de ressource

    Dans Oracle Database Actions - Console SQL, en tant qu'administrateur, exécutez la commande suivante pour activer le principal de ressource :

    EXEC DBMS_CLOUD_ADMIN.ENABLE_RESOURCE_PRINCIPAL();

    Si un utilisateur autre que l'administrateur exécute le script de pipeline, en tant qu'administrateur, activez le principal de ressource pour cet utilisateur en exécutant la commande suivante :

    EXEC DBMS_CLOUD_ADMIN.ENABLE_RESOURCE_PRINCIPAL(username => '<user-name>');
  3. Créer un groupe dynamique pour Autonomous Database cible

    Créez un groupe dynamique en utilisant la règle de correspondance suivante :

    ALL {resource.type = 'autonomousdatabase', resource.id = '<adb-ocid>'} 

    <adb-ocid> est l'OCID de la base de données Autonomous Database vers laquelle les données seront chargées.

  4. Accorder au principal de ressource l'accès à la politique de stockage d'objets

    Créez une politique pour accorder au principal de ressource d'Autonomous Database l'accès aux fichiers du seau de stockage d'objets cible. Créez la politique suivante dans le champ Politiques :

    ALLOW DYNAMIC-GROUP <dynamic-group-name> TO READ objects IN compartment <compartment-name> where target.bucket.name='<export-bucket-name>'
    
    où :
    • <export-bucket-name> est le nom du stockage d'objets vers lequel les données du parc JMS sont exportées
    • <compartment-name> est le nom du compartiment auquel le seau appartient
  5. Crée et active une tâche programmée qui s'exécute quotidiennement pour rechercher et supprimer les rangées en double ou obsolètes dans toutes les tables.
    • Les rangées sont considérées comme en double si elles partagent la même valeur dans les colonnes suivantes : région, compartment_ocid, fleet_ocid, nom d'hôte, java_version, java_vendor, java_distribution, install_path, application_name et application_install_path. Si des rangées en double sont trouvées, une seule rangée ayant la dernière valeur managed_instance_last_seen est conservée et les rangées en double restantes sont supprimées.
    • Les rangées dont managed_instance_last_seen a plus de 90 jours sont considérées comme obsolètes et ces rangées sont également supprimées.

Obtenir le script de pipeline de chargement

Le script de pipeline peut être obtenu à partir de la console Java Management Service :
  1. Dans le tableau de bord Parc, sélectionnez le parc dont les données exportées doivent être chargées dans la base de données Autonomous Database.
  2. Allez à Paramètres d'exportation de données et téléchargez le script de pipeline de chargement d'Autonomous Database.

Exécuter le script de pipeline

Copiez le contenu du script et exécutez-les dans Oracle Database Actions - Console SQL.

Le script de pipeline de chargement exécute quatre tâches principales :

  1. Crée trois tables correspondant à trois ressources d'exportation. Si les tables existent déjà, aucune nouvelle table ne sera créée :
    • Instance gérée
    • Instance gérée et exécution Java
    • Instance gérée, environnement d'exécution Java et application
  2. Crée et configure trois pipelines pour scruter en continu le seau de stockage d'objets cible à intervalles réguliers pour les nouveaux fichiers CSV. Lorsque de nouveaux fichiers sont détectés, les données de ces fichiers sont chargées dans la table appropriée. Si les pipelines existent déjà, aucun nouveau pipeline n'est créé.
  3. Démarre les pipelines nouvellement créés.
  4. Crée et active une tâche programmée qui s'exécute chaque semaine pour rechercher les données d'exportation redondantes et les supprimer.

Surveiller et gérer les pipelines existants

Pour surveiller toutes les tâches de pipeline actives, allez à Oracle Database Actions et à Programmation.

Vous pouvez également exécuter l'interrogation dans Oracle Database Actions - Console SQL :

SELECT * FROM USER_CLOUD_PIPELINES WHERE PIPELINE_NAME LIKE 'JMS%'

Pour plus de détails sur chaque tâche exécutée, voir les tables $STATUS et $LOG identifiées par votre nom de nuage d'utilisateurs.

Vous pouvez contrôler un pipeline en le démarrant, en l'arrêtant, en le réinitialisant ou en le supprimant. Pour les étapes détaillées, voir Pipelines de contrôle.