Dieses Diagramm zeigt die Konvertierung von Unternehmensanwendungen, Flat Files, Ereignissen und Sensordaten aus mehreren Quellen über Komponenten in einer Oracle Cloud Infrastructure-Region in nutzbare Erkenntnisse für Daten-Consumer.
Die folgenden Komponenten gelten für die gesamte Oracle Cloud Infrastructure-Region:
Der Bereich ist in funktionale Schichten unterteilt, die physische oder funktionale Komponenten enthalten:
Datenquellenschicht: Datenfreigabeprovider, Geräte, Endbenutzer, Ereignisse, Sensoren, Dateien, jede Datenquelle für jeden Typ und Unternehmensanwendungen. Metadaten aus den Datenbanken der Unternehmensanwendungen werden gesammelt und in den Block Governance (Data Catalog) übertragen.
Connect, Ingest, Transform Layer: Daten werden in der Batch-, API- und Streamingaufnahme verfeinert und nutzen je nach Anwendungsfall verschiedene Services.
Ein Block mit der Bezeichnung "Batch-Aufnahme" (OCI Data Integration, Data Integrator, Datentransformationen) verarbeitet Daten, die aufgenommen und in Batches oder Mikrobatches transformiert werden. Rohdaten werden in Objektspeicher gespeichert.
Ein Block mit dem Label "API-based Ingest" (OIC, ORDS, API Gateway, Functions) verarbeitet Daten, die aufgenommene APIs sind. Rohdaten werden in Objektspeicher gespeichert.
Ein Block mit der Bezeichnung "Echtzeitaufnahme" (GoldenGate Service/OGG Marketplace) verarbeitet Daten, die nahezu in Echtzeit aufgenommen werden. In Echtzeit aufgenommene Daten werden ebenfalls mit den Funktionen der Batchaufnahmekomponente verarbeitet und verfeinert. Roh- und verfeinerte Anwendungsdaten werden entlang separater Pfade an die Schicht "Persist", "Curate", "Create" übergeben. RAW-Daten werden in Objektspeicher gespeichert.
Ein Block mit der Bezeichnung "Massentransfer" (FastConnect, Data Transfer, Storage Gateway, CLI, SDK, API) verarbeitet Massendaten (Datei), die dann an den Cloud-Speicherblock weitergeleitet werden.
Streamingdaten werden von einem Block mit der Bezeichnung Streaming Ingest (OCI Streaming, Service Connector Hub, Kafka Connect) aufgenommen, der dann in Cloud Storage (Object Storage), Streaming Processing (OCI Golden Gate, Streaming Analytics) oder Streaming Analytics (Golden Gate Stream Analytics) fließt.
Persist, Curate, Create: Daten werden im Lakehouse in Oracle Cloud Infrastructure Lakehouse oder in Object Storage oder beidem persistiert. Der Zugriff erfolgt über APIs und wird für Analysen, Visualisierungen und Data Science verwendet.
Verarbeitete Daten und Daten aus einer Datenfreigabe liefern Umzüge in einen Block innerhalb des Lakehouse mit der Bezeichnung "Serving" (Oracle Cloud Infrastructure Lakehouse). Das Lakehouse umfasst auch Cloud/Storage/Date Lake (Object Storage).
Zusätzliche Verarbeitung wird durch Batchverarbeitung (Data Flow, OCI Data Integration, Data Integrator), Open Source Ecosystem (Big Data Service) und Streaming Processing (OCI GoldenGate Stream Analytics, OCI Data Flow) bereitgestellt. Metadaten werden an den Block mit der Bezeichnung Data Governance (Data Catalog) übergeben.
Schicht "Analysieren, lernen, prognostizieren": Lakehouse-Daten werden von Oracle Analytics Cloud für Analysen und Visualisierungen, von Data Science und KI für Leaning und Vorhersagen, von KI- und generativen KI-Services, von Data Labeling für die Datenanreicherung, von OCI Search verwendet, um Ergebnisse für Personen und Partner sowie für Anwendungen und IoT-Verbraucher bereitzustellen, die eine API verwenden.
Lakehouse- und Streamingdaten können Reverse ETL Writeback verwenden, um Daten für Anwendungen und IoT-Konsumenten bereitzustellen.
Maßnahme, Handlungsebene: Datenfreigabeempfänger verwenden gemeinsam genutzte Daten, Personen und Partner verwenden Analysedaten, während Anwendungen und IoT-Nutzer verfeinerte Daten verwenden.