DBMS_CLOUD_PIPELINE-Package
Mit dem Package DBMS_CLOUD_PIPELINE können Sie Datenpipelines zum Laden und Exportieren von Daten in die Cloud erstellen. Dieses Package unterstützt das kontinuierliche inkrementelle Laden von Dateien im Objektspeicher in die Datenbank. DBMS_CLOUD_PIPELINE unterstützt auch den kontinuierlichen inkrementellen Export von Tabellendaten oder Abfrageergebnissen aus der Datenbank in den Objektspeicher basierend auf einer Zeitstempelspalte.
Voraussetzungen
Als Entwickler können Sie DBMS_CLOUD-Prozeduren mit autonomen KI-Datenbanken verwenden, die in Oracle Public Cloud, Multicloud oder Exadata Cloud@Customer bereitgestellt sind.
Abhängig von der Bereitstellungsoption müssen die folgenden Voraussetzungen erfüllt sein, um die DBMS_CLOUD-Prozeduren mit Amazon S3-, Azure Blob Storage- und Google Cloud Storage-Serviceprovidern zu verwenden.
Eine ausgehende Konnektivität muss von Ihrem Flottenadministrator mit einem NAT-Gateway konfiguriert worden sein, wie unten beschrieben:
-
Sie können ein NAT-Gateway im virtuellen Cloud-Netzwerk (VCN) erstellen, in das sich Ihre autonomen KI-Datenbankressourcen befinden, indem Sie die Anweisungen in NAT-Gateway erstellen in der Oracle Cloud Infrastructure-Dokumentation befolgen.
-
Nachdem das NAT-Gateway erstellt wurde, fügen Sie eine Routingregel und eine Egress-Sicherheitsregel zu jedem Subnetz (im VCN) hinzu, in dem sich autonome KI-Datenbankressourcen befinden. Damit können diese Ressourcen über das Gateway einen öffentlichen Schlüssel von Ihrer Azure AD-Instanz abrufen:
-
Gehen Sie zur Seite Subnetzdetails für das Subnetz.
-
Klicken Sie auf der Registerkarte Informationen zum Subnetz auf den Namen der Routentabelle des Subnetzs, um die Seite Routentabellendetails anzuzeigen.
-
Überprüfen Sie in der Tabelle der vorhandenen Routingregeln, ob bereits eine Regel mit den folgenden Eigenschaften vorhanden ist:
-
Ziel: 0.0.0.0/0
-
Zieltyp: NAT-Gateway
-
Ziel: Der Name des NAT-Gateways, das Sie gerade im VCN erstellt hat
Wenn keine derartige Regel vorhanden ist, klicken Sie auf Routingregeln hinzufügen, und fügen Sie eine Routingregel mit diesen Merkmalen hinzu.
-
-
Kehren Sie zur Seite Subnetzdetails für das Subnetz erneut zurück.
-
Klicken Sie in der Tabelle Sicherheitslisten des Subnetzes auf den Namen der Sicherheitsliste des Subnetzes, um das Register Sicherheitslistendetails anzuzeigen.
-
Klicke im Seitenmenü unter Ressourcen auf Egress-Regeln.
-
Überprüfen Sie in der Tabelle der vorhandenen Egress-Regeln, ob bereits eine Regel mit den folgenden Eigenschaften vorhanden ist:
-
Zieltyp:CIDR
-
Ziel:0.0.0.0/0
-
IP-Protokoll:TCP
-
Quellportbereich:443
-
Zielportbereich: Alle
Wenn keine derartige Regel vorhanden ist, klicken Sie auf Egress-Regeln hinzufügen, und fügen Sie eine Egress-Regel mit diesen Merkmalen hinzu.
-
-
Die HTTP-Proxyeinstellungen in Ihrer Umgebung müssen es der Datenbank ermöglichen, auf den Cloud-Serviceprovider zuzugreifen.
Diese Einstellungen werden vom Flottenadministrator beim Erstellen der Exadata Cloud@Customer-Infrastruktur definiert, wie unter Exadata Database Service on Cloud@Customer mit der Konsole bereitstellen beschrieben.
Hinweis: Die Netzwerkkonfiguration einschließlich des HTTP-Proxys kann nur bearbeitet werden, bis die Exadata-Infrastruktur den Status Aktivierung erforderlich aufweist. Sobald es aktiviert ist, können Sie diese Einstellungen nicht mehr bearbeiten.
Für das Einrichten eines HTTP-Proxys für eine bereits bereitgestellte Exadata-Infrastruktur ist eine Serviceanfrage (SR) in My Oracle Support erforderlich. Weitere Einzelheiten finden Sie unter Serviceanfrage in My Oracle Support erstellen.
Übersicht über DBMS_CLOUD_PIPELINE-Unterprogramme
In dieser Tabelle werden die Unterprogramme zusammengefasst, die im Package DBMS_CLOUD_PIPELINE enthalten sind.
| Unterprogramm | Beschreibung |
|---|---|
| CREATE_PIPELINE Prozedur | Erstellt eine neue Datenpipeline. |
| DROP_PIPELINE | Löscht eine vorhandene Datenpipeline. |
| Prozedur RESET_PIPELINE | Setzt den Tracking-Status einer Datenpipeline zurück. Verwenden Sie die Pipeline zum Zurücksetzen, um die Pipeline vom anfänglichen Status des Dataloads oder -exports neu zu starten. Optional kann die Pipeline Daten in der Datenbank oder im Objektspeicher löschen, je nach Typ der Pipeline. |
| Prozedur RUN_PIPELINE_ONCE | Führt eine On-Demand-Ausführung der Pipeline in der aktuellen Vordergrundsession anstelle eines geplanten Jobs aus. |
| Prozedur SET_ATTRIBUTE | Legt Pipelineattribute fest. Es gibt zwei überladene Prozeduren, eine zum Festlegen eines einzelnen Attributs und eine andere zum Festlegen mehrerer Attribute mit einem JSON-Dokument mit Attributnamen/Wert-Paaren |
| START_PIPELINE Prozedur | Startet die Datenpipeline. Wenn eine Pipeline gestartet wird, wird der Pipelinevorgang kontinuierlich in einem geplanten Job gemäß dem in Pipelineattributen konfigurierten "Intervall" ausgeführt. |
| STOP_PIPELINE Prozedur | Stoppt die Datenpipeline. Wenn eine Pipeline gestoppt wird, werden keine zukünftigen Jobs für die Pipeline geplant. |
CREATE_PIPELINE Prozedur
Die Prozedur erstellt eine neue Datenpipeline.
Syntax
DBMS_CLOUD_PIPELINE.CREATE_PIPELINE(
pipeline_name IN VARCHAR2,
pipeline_type IN VARCHAR2,
attributes IN CLOB DEFAULT NULL,
description IN VARCHAR2 DEFAULT NULL
);
Parameter
| Parameter | Beschreibung |
|---|---|
pipeline_name |
Gibt einen Namen für die Pipeline an. Der Name der Pipeline muss den Benennungsregeln von Oracle SQL-IDs entsprechen. Weitere Informationen finden Sie unter Identifier in der Oracle Database Database PL/SQL Language Reference oder in der Oracle Database 26ai Database PL/SQL Language Reference. Dieser Parameter ist obligatorisch. |
pipeline_type |
Gibt den Pipeline-Typ an. Gültige Werte: Dieser Parameter ist obligatorisch. |
attributes |
Pipelineattribute im JSON-Format. Standardwert: Weitere Informationen finden Sie unter DBMS_CLOUD_PIPELINE-Attribute. |
description |
Beschreibung für die Pipeline. Standardwert: |
DROP_PIPELINE
Die Prozedur löscht eine vorhandene Datenpipeline. Wenn eine Pipeline gestartet wurde, muss sie gestoppt werden, bevor sie gelöscht werden kann.
Syntax
DBMS_CLOUD_PIPELINE.DROP_PIPELINE(
pipeline_name IN VARCHAR2,
force IN BOOLEAN DEFAULT FALSE
);
Parameter
| Parameter | Beschreibung |
|---|---|
pipeline_name |
Gibt einen Pipelinenamen an. Dieser Parameter ist obligatorisch. |
force |
Löschen Sie eine Pipeline zwangsweise, auch wenn sie sich im Status "Gestartet" befindet. Gültige Werte: Standardwert: |
Hinweis zur Verwendung
- Um eine Pipeline im Status "Gestartet" zu löschen, setzen Sie den Parameter
forceaufTRUE.
Prozedur RESET_PIPELINE
Setzt den Tracking-Status einer Datenpipeline zurück. Verwenden Sie die Pipeline zum Zurücksetzen, um die Pipeline vom anfänglichen Status des Dataloads oder -exports neu zu starten. Optional kann die Pipeline Daten in der Datenbank oder im Objektspeicher löschen, je nach Typ der Pipeline. Eine Datenpipeline muss den Status "Gestoppt" aufweisen, um sie zurückzusetzen.
Syntax
DBMS_CLOUD_PIPELINE.RESET_PIPELINE(
pipeline_name IN VARCHAR2,
purge_data IN BOOLEAN DEFAULT FALSE
);
Parameter
| Parameter | Beschreibung |
|---|---|
pipeline_name |
Gibt einen Namen für die Pipeline an. Dieser Parameter ist obligatorisch. |
purge_data |
Das Löschen von Daten gilt entweder für eine Ladepipeline oder eine Exportpipeline:
Gültige Werte: Standardwert: |
Verwendungshinweise
-
Eine Datenpipeline muss den Status "Gestoppt" aufweisen, um sie zurückzusetzen. Weitere Informationen finden Sie unter Prozedur STOP_PIPELINE.
-
Beim Zurücksetzen der Pipeline für eine Ladepipeline wird der Datensatz der von der Pipeline geladenen Dateien gelöscht. Wenn Sie nach dem Zurücksetzen einer Ladepipeline
START_PIPELINEoderRUN_PIPELINE_ONCEaufrufen, wiederholt die Pipeline den Dataload und enthält alle Dateien, die im Objektspeicherverzeichnis vorhanden sind.Wenn
purge_dataaufTRUEgesetzt ist, führtDBMS_CLOUD_PIPELINE.RESET_PIPELINEdie folgenden Schritte aus:-
Schneidet die Daten in der von Ihnen angegebenen Datenbanktabelle der Pipeline mit dem Attribut
table_nameab. -
Löscht die Statustabelle der Pipeline sowie die ungültige Dateitabelle und Fehlertabelle der Pipeline (sofern vorhanden).
-
-
Beim Zurücksetzen der Pipeline für eine Exportpipeline werden die zuletzt verfolgten Daten in der Datenbanktabelle gelöscht. Wenn Sie
START_PIPELINEoderRUN_PIPELINE_ONCEnach dem Zurücksetzen einer Exportpipeline aufrufen, wiederholt die Pipeline den Export von Daten aus der Tabelle oder Abfrage.Wenn
purge_dataaufTRUEgesetzt ist, löschtDBMS_CLOUD_PIPELINE.RESET_PIPELINEvorhandene Dateien im Objektspeicherort, der mit dem Attributlocationangegeben ist.
Prozedur RUN_PIPELINE_ONCE
Diese Prozedur führt eine On-Demand-Ausführung der Pipeline in der aktuellen Vordergrundsession aus, anstatt eine Ausführung in einem geplanten Job. Verwenden Sie DBMS_CLOUD_PIPELINE.RUN_PIPELINE_ONCE, um eine Pipeline zu testen, bevor Sie die Pipeline als kontinuierlichen Job starten.
Syntax
DBMS_CLOUD_PIPELINE.RUN_PIPELINE_ONCE(
pipeline_name IN VARCHAR2
);
Parameter
| Parameter | Beschreibung |
|---|---|
pipeline_name |
Gibt einen Namen für die auszuführende Pipeline an. Dieser Parameter ist obligatorisch. |
Verwendungshinweise
-
Nachdem Sie einen Testlauf einer Pipeline ausgeführt haben, können Sie den Pipelinestatus mit
DBMS_CLOUD_PIPELINE.RESET_PIPELINEzurücksetzen. Auf diese Weise können Sie den Pipelinestatus zurücksetzen, bevor Sie die Pipeline in einem geplanten Job starten. -
Wenn sich eine Pipeline im Status "Gestartet" befindet, kann sie nicht in der Vordergrundsession ausgeführt werden.
Prozedur SET_ATTRIBUTE
Diese Prozedur legt Pipelineattribute fest. Es gibt zwei überladene Prozeduren, eine zum Festlegen eines einzelnen Attributs und eine andere zum Festlegen mehrerer Attribute mit einem JSON-Dokument mit Attributnamen/Wert-Paaren.
Syntax
PROCEDURE DBMS_CLOUD_PIPELINE.SET_ATTRIBUTE(
pipeline_name IN VARCHAR2,
attribute_name IN VARCHAR2,
attribute_value IN CLOB
);
PROCEDURE DBMS_CLOUD_PIPELINE.SET_ATTRIBUTE(
pipeline_name IN VARCHAR2,
attributes IN CLOB
);
Parameter
| Parameter | Beschreibung |
|---|---|
pipeline_name |
Gibt einen Namen für die Pipeline zum Festlegen von Attributen an. Dieser Parameter ist obligatorisch. |
attribute_name |
Gibt den Attributnamen für das festzulegende Attribut an. Weitere Informationen finden Sie unter DBMS_CLOUD_PIPELINE-Attribute. |
attribute_value |
Gibt den Wert für das festzulegende Pipelineattribut an. Weitere Informationen finden Sie unter DBMS_CLOUD_PIPELINE-Attribute. |
attributes |
Gibt ein JSON-Dokument mit Attributnamen und -werten an. Weitere Informationen finden Sie unter DBMS_CLOUD_PIPELINE-Attribute. |
Hinweis zur Verwendung
Wenn Sie DBMS_CLOUD_PIPELINE.SET_ATTRIBUTE verwenden, um mehrere Attribute mit dem Parameter attributes festzulegen, werden alle vorhandenen Attribute gelöscht und mit den angegebenen Attributen aus dem JSON-Dokument überschrieben.
START_PIPELINE Prozedur
Die Prozedur startet die Datenpipeline. Wenn eine Pipeline gestartet wird, wird der Pipelinevorgang entsprechend der mit den Pipelineattributen konfigurierten interval kontinuierlich in einem geplanten Job ausgeführt.
Syntax
DBMS_CLOUD_PIPELINE.START_PIPELINE(
pipeline_name IN VARCHAR2,
start_date IN TIMESTAMP WITH TIME ZONE DEFAULT NULL
);
Parameter
| Parameter | Beschreibung |
|---|---|
pipeline_name |
Gibt einen Namen für die Pipeline an. Dieser Parameter ist obligatorisch. |
start_date |
Gibt das Startdatum für den Pipelinejob an. Standardwert: |
Verwendungshinweise
-
Standardmäßig wird ein Pipelinejob sofort gestartet, sobald die Pipeline gestartet wird. Um einen Pipelinejob zu einem späteren Zeitpunkt zu starten, geben Sie mit dem Parameter
start_dateein gültiges Datum oder einen gültigen Zeitstempel an. -
Informationen zur Pipeline
intervalund zu anderen Pipelineattributen finden Sie unter DBMS_CLOUD_PIPELINE-Attribute.
STOP_PIPELINE Prozedur
Die Prozedur stoppt die Datenpipeline. Wenn eine Pipeline gestoppt wird, werden keine zukünftigen Jobs für die Pipeline geplant.
Syntax
DBMS_CLOUD_PIPELINE.STOP_PIPELINE(
pipeline_name IN VARCHAR2,
force IN BOOLEAN DEFAULTFALSE
);
Parameter
| Parameter | Beschreibung |
|---|---|
pipeline_name |
Gibt einen Namen für die Pipeline an. Dieser Parameter ist obligatorisch. |
force |
Wenn der Force-Parameter als Gültige Werte: Standardwert: |
DBMS_CLOUD_PIPELINE-Attribute
Mit Attributen können Sie das Verhalten einer Datenpipeline steuern und konfigurieren.
Attribute
Hinweis: Wie in der Spalte Pipelinetyp angegeben, unterstützt eine Pipeline je nach Pipeline-Typ LOAD oder EXPORT ein anderes Attributset.
| Attributname | Beschreibung | Pipelinetyp | Nach Pipelinebeginn veränderbar |
|---|---|---|---|
credential_name |
Der Name der Zugangsdaten für den Zugriff auf den Cloud-Quellobjektspeicher. Standardwert: Wenn Sie keine |
LOAD, EXPORT |
Ja |
field_list |
Gibt die Felder in den Quelldateien und deren Datentypen an. Die Syntax dieses Arguments entspricht der Standardwert: Der Standardwert gibt die Felder an, und ihre Datentypen werden durch die Spalten in der Tabelle bestimmt, die im Attribut |
LOAD |
Ja |
format |
Die Optionen, die das Format für den Pipeline-Typ beschreiben.
Datapump Dieses Attribut ist sowohl für die Pipelines |
LOAD, EXPORT |
Ja |
interval |
Das Zeitintervall in Minuten zwischen aufeinanderfolgenden Ausführungen des geplanten Pipelinejobs. Standardwert: 15 Minuten |
LOAD, EXPORT |
Ja |
key_column |
Eine Zeitstempel- oder Datumsspalte in der angegebenen Standardwert: NULL Wenn |
EXPORT |
Nr. |
location |
Dieser Parameter gibt die URI der Quelldatei oder Verzeichnisse und Quelldateien an. Sie können Platzhalter in den Dateinamen verwenden. Dieser Parameter ist obligatorisch. URIs für Cloud-Quelldatei Sie können eine Quelldatei-URI für Bucket oder Unterordner angeben. Sie können Platzhalter verwenden, um Unterordner oder Dateinamensmuster anzugeben. Das Zeichen "\*" kann als Platzhalter für mehrere Zeichen verwendet werden. Das Zeichen "?" kann als Platzhalter für ein einzelnes Zeichen verwendet werden. Beispiel mit Platzhaltern:
Das Format der URIs ist vom benutzten Cloud-Objektspeichersystem abhängig. Weitere Einzelheiten finden Sie unter URI-Formate für Cloud Object Storage. Verzeichnis Sie können ein Verzeichnis und einen Dateinamen angeben. Das Format für die Angabe eines Verzeichnisses lautet Sie können nur Platzhalter verwenden, um Dateinamen in einem Verzeichnis anzugeben. Das Zeichen Beispiel: Verwenden Sie doppelte Anführungszeichen, um einen Verzeichnisnamen anzugeben, bei dem die Groß-/Kleinschreibung beachtet wird. Beispiel: Um ein Anführungszeichen einzuschließen, verwenden Sie zwei Anführungszeichen. Beispiel: |
||
priority |
Gibt einen Zeichenfolgenwert an, der die Anzahl der parallelen Vorgänge bestimmt, die für die Pipeline ausgeführt werden.
Ein Vorgang mit einer höheren Priorität belegt mehr Datenbankressourcen und wird früher abgeschlossen. Gültige Werte:
Standardwert: Die maximale Anzahl nebenläufiger Dateivorgänge ist auf 64 begrenzt. |
LOAD, EXPORT |
Ja |
query |
Gibt eine Beispiel: Standardwert: Für eine Exportpipeline ist entweder |
EXPORT |
Nr. |
table_name |
Gibt den Namen der Zieltabelle für das Laden oder Exportieren von Daten an. Für eine Ladepipeline ist Für eine Exportpipeline ist entweder |
LOAD, EXPORT |
Nr. |
table_owner |
Der Name des Schemas, in dem sich die Zieltabelle zum Laden oder Exportieren von Daten befindet. Standardwert: Mit einem |
LOAD, EXPORT |
Nr. |