Pipelines erstellen und konfigurieren
Sie können eine oder mehrere Lade- oder Exportpipelines erstellen. Wenn Sie eine Pipeline erstellen, verwenden Sie Parameter und legen Pipelineattribute fest, um die Pipeline zu konfigurieren.
Folgende Optionen stehen zum Erstellen und Konfigurieren einer Pipeline zur Verfügung:
-
Pipeline laden:
-
Pipeline exportieren:
-
Exportieren Sie inkrementelle Ergebnisse einer Abfrage in den Objektspeicher, indem Sie eine Datums- oder Zeitstempelspalte als Schlüssel für die Verfolgung neuerer Daten verwenden. Informationen hierzu finden Sie unter Pipeline zum Exportieren mit Zeitstempelspalte erstellen und konfigurieren.
-
Exportieren Sie inkrementelle Daten einer Tabelle in den Objektspeicher, indem Sie eine Datums- oder Zeitstempelspalte als Schlüssel für die Verfolgung neuerer Daten verwenden. Informationen hierzu finden Sie unter Pipeline zum Exportieren mit Zeitstempelspalte erstellen und konfigurieren.
-
Exportieren Sie Daten einer Tabelle in einen Objektspeicher mit einer Abfrage, um Daten ohne Referenz auf eine Datums- oder Zeitstempelspalte auszuwählen (so dass die Pipeline alle Daten exportiert, die von der Abfrage für jede Scheduler-Ausführung ausgewählt werden). Informationen hierzu finden Sie unter Pipeline zum Exportieren von Abfrageergebnissen (ohne Zeitstempel) erstellen und konfigurieren.
-
Pipeline zum Laden von Daten erstellen und konfigurieren
Sie können eine Pipeline erstellen, um Daten aus externen Dateien im Objektspeicher oder Verzeichnisse in Tabellen in Autonomous AI Database zu laden.
Eine Ladepipeline verbraucht Daten, die im Objektspeicher oder in Verzeichnissen gespeichert sind, und lädt sie in eine Tabelle in Autonome KI-Datenbank. Wenn Sie eine Ladepipeline erstellen, wird die Pipeline in regelmäßigen Abständen ausgeführt, um Daten zu konsumieren, die am Quellspeicherort platziert wurden. Wenn neue Datendateien ankommen, lädt die Pipeline die neuen Daten. Sie können auch eine Pipeline verwenden, um Dateien mit Lebenslauf- und Wiederholungsfunktionen zuverlässig aus dem Quellspeicherort in eine Tabelle in Ihrer Datenbank zu kopieren.
Bei einer Ladepipeline verwendet das Pipelinepackage DBMS_CLOUD.COPY_DATA
zum Laden von Daten.
Verwenden Sie in Ihrer autonomen KI-Datenbank entweder eine vorhandene Tabelle, oder erstellen Sie die Datenbanktabelle, in die Sie Daten laden. Beispiel:
CREATE TABLE EMPLOYEE
(name VARCHAR2(128),
age NUMBER,
salary NUMBER);
Alternativ können Sie das folgende Format verwenden, um das Format für JSON festzulegen:
BEGIN
DBMS_CLOUD_PIPELINE.SET_ATTRIBUTE
(
pipeline_name => 'MY_PIPE1',
attribute_name => 'format',
attribute_value => JSON_OBJECT('type' value 'json', 'columnpath' value '["$.NAME", "$.AGE", "$.SALARY"]')
);
END;
/
Pipeline zum Exportieren mit Zeitstempelspalte erstellen und konfigurieren
Mit dieser Exportpipelineoption geben Sie eine Tabelle oder SQL-Abfrage und eine Spalte mit einem Zeitstempel an, mit dem die Pipeline die Zeit des letzten Uploads verfolgt. Mit einer Exportpipeline können Sie Daten für die Nutzung durch andere Anwendungen freigeben oder Daten im Objektspeicher speichern.
Bei einer Exportpipeline verwendet das Pipelinepackage DBMS_CLOUD.EXPORT_DATA
zum Exportieren von Daten.
Eine Exportpipeline exportiert Daten aus Ihrer autonomen KI-Datenbank in den Objektspeicher. Wenn Sie eine Exportpipeline erstellen, wird die Pipeline in regelmäßigen Abständen ausgeführt und platziert Daten im Objektspeicher.
Pipeline zum Exportieren von Abfrageergebnissen (ohne Zeitstempel) erstellen und konfigurieren
Sie können eine Exportpipeline erstellen, um Daten automatisch aus Ihrer autonomen KI-Datenbank in den Objektspeicher zu exportieren. Mit dieser Exportpipelineoption geben Sie eine SQL-Abfrage an, die in der Pipeline regelmäßig ausgeführt wird, um Daten in den Objektspeicher zu exportieren. Mit dieser Exportoption können Sie die neuesten Daten aus Ihrer autonomen KI-Datenbank für den Objektspeicher freigeben, damit andere Anwendungen die Daten nutzen können.
Eine Exportpipeline exportiert Daten aus Ihrer autonomen KI-Datenbank in den Objektspeicher. Wenn Sie eine Exportpipeline erstellen, wird die Pipeline in regelmäßigen Abständen ausgeführt und platziert Daten im Objektspeicher.
Pipelines testen
RUN_PIPELINE_ONCE
, um eine Pipeline nach Bedarf auszuführen, ohne einen geplanten Job zu erstellen.
RUN_PIPELINE_ONCE
ist nützlich, um eine Pipeline zu testen, bevor Sie die Pipeline starten. Nachdem Sie eine Pipeline einmal ausgeführt haben, um die Pipeline zu testen und zu prüfen, ob sie wie erwartet funktioniert, setzen Sie den Status der Pipeline mit RESET_PIPELINE
zurück (auf den Status, bevor Sie RUN_PIPELINE_ONCE
ausgeführt haben).