Daten in Autonomous Database exportieren

In diesem Abschnitt wird der Prozess zum Exportieren von Daten in eine Autonomous Database und Verwalten der Load-Pipelines beschrieben.
Hinweis

Setup und Wartung der autonomen Datenbank liegen außerhalb des Bereichs von JMS. Weitere Informationen finden Sie unter Autonomous Database vom Typ "Immer kostenlos".

Voraussetzungen einrichten:

Bevor Sie Load-Pipelines für in Autonomous Database exportierte Daten einrichten und ausführen, stellen Sie sicher, dass die folgenden Voraussetzungen erfüllt sind:

  1. Datenbankbenutzerberechtigung festlegen

    Wenn der Benutzer, der die Load-Pipeline-Skripte in Oracle Database Actions - SQL Console aufruft, kein OCI-Administrator ist, muss ihm ein Administrator die erforderlichen Ausführungsberechtigungen erteilen.

    GRANT EXECUTE ON DBMS_CLOUD_PIPELINE TO <user-name>; 
    GRANT READ,WRITE ON DIRECTORY DATA_PUMP_DIR TO <user-name>; 
    GRANT CREATE JOB TO <user-name>;
  2. Resource Principal aktivieren

    Führen Sie in Oracle Database Actions - SQL Console als Administrator den folgenden Befehl aus, um den Resource Principal zu aktivieren:

    EXEC DBMS_CLOUD_ADMIN.ENABLE_RESOURCE_PRINCIPAL();

    Wenn ein anderer Benutzer als der Administrator das Pipeline-Skript als Administrator ausführt, aktivieren Sie den Resource Principal für diesen Benutzer, indem Sie den folgenden Befehl ausführen:

    EXEC DBMS_CLOUD_ADMIN.ENABLE_RESOURCE_PRINCIPAL(username => '<user-name>');
  3. Dynamische Gruppe für Autonomous Database-Ziel erstellen

    Dynamische Gruppe erstellen mit der folgenden Vergleichsregel:

    ALL {resource.type = 'autonomousdatabase', resource.id = '<adb-ocid>'} 

    Dabei ist <adb-ocid> die OCID der Autonomous Database, in die Daten geladen werden.

  4. Resource Principal Policy-Zugriff auf Object Storage-Bucket erteilen

    Erstellen Sie eine Policy, um dem Resource Principal von Autonomous Database Zugriff auf Dateien im Zielobjektspeicher-Bucket zu erteilen. Erstellen Sie im Feld Policys die folgende Policy:

    ALLOW DYNAMIC-GROUP <dynamic-group-name> TO READ objects IN compartment <compartment-name> where target.bucket.name='<export-bucket-name>'
    
    wobei:
    • <export-bucket-name> ist der Name des Objektspeichers, in den die JMS-Flottendaten exportiert werden
    • <compartment-name> ist der Name des Compartments, zu dem der Bucket gehört

Load-Pipeline-Skript abrufen

Das Pipeline-Skript kann über die Java Management Service-Konsole abgerufen werden:
  1. Wählen Sie im Flotten-Dashboard die Flotte aus, deren exportierte Daten in Autonomous Database geladen werden müssen.
  2. Gehen Sie zu den Datenexporteinstellungen, und laden Sie das Autonomous Database-Ladepipelineskript herunter.

Pipeline-Skript ausführen

Kopieren Sie den Inhalt des Skriptes, und führen Sie ihn in Oracle Database Actions - SQL Console aus.

Das Load-Pipeline-Skript führt vier Hauptaufgaben aus:

  1. Erstellt drei Tabellen, die drei Exportressourcen entsprechen. Wenn die Tabellen bereits vorhanden sind, werden keine neuen Tabellen erstellt:
    • Verwaltete Instanz
    • Verwaltete Instanz und Java Runtime
    • Verwaltete Instanz, Java Runtime und Anwendung
  2. Erstellt und konfiguriert drei Pipelines, um den Zielobjektspeicher-Bucket kontinuierlich in regelmäßigen Abständen nach neuen CSV-Dateien abzufragen. Wenn neue Dateien erkannt werden, werden Daten aus diesen Dateien in die richtige Tabelle geladen. Wenn die Pipelines bereits vorhanden sind, werden keine neuen Pipelines erstellt.
  3. Startet die neu erstellten Pipelines.
  4. Erstellt und aktiviert einen geplanten Job, der wöchentlich ausgeführt wird, um redundante Exportdaten zu prüfen und zu entfernen.

Vorhandene Pipelines überwachen und verwalten

Um alle aktiven Pipelinejobs zu überwachen, gehen Sie zu Oracle Database Actions und Planung.

Sie können die Abfrage auch in Oracle Database Actions - SQL Console ausführen:

SELECT * FROM USER_CLOUD_PIPELINES WHERE PIPELINE_NAME LIKE 'JMS%'

Details zu den einzelnen ausgeführten Jobs finden Sie in den Tabellen $STATUS und $LOG, die mit Ihrem Cloud-Namen des Benutzers identifiziert werden.

Sie können eine Pipeline steuern, indem Sie die Pipeline starten, stoppen, zurücksetzen oder löschen. Ausführliche Schritte finden Sie unter Kontrollpipelines.