Dieses Diagramm zeigt die Konvertierung von Unternehmensanwendungen, Flat File-, Ereignis- und Sensordaten aus mehreren Quellen über Komponenten in einer Oracle Cloud Infrastructure-Region in nutzbare Erkenntnisse für Daten-Consumer.
Die folgenden Komponenten gelten für die gesamte Oracle Cloud Infrastructure-Region:
Der Bereich ist in funktionale Schichten unterteilt, die physische oder funktionale Komponenten enthalten:
Datenquellenebene: Datenfreigabeprovider, Geräte, Endbenutzer, Ereignisse, Sensoren, Dateien, beliebige Datenquellen für beliebige Typen und Unternehmensanwendungen. Metadaten aus den Datenbanken der Unternehmensanwendungen werden durch Harvesting erfasst und fließen in die Block-Governance (Data Catalog).
Verbindungs-, Aufnahme- und Transformationsschicht: Daten werden in Batch-, API- und Streamingaufnahme verfeinert, wobei je nach Anwendungsfall verschiedene Services genutzt werden.
Ein Block mit der Bezeichnung "Batchaufnahme" (OCI Data Integration, Data Integrator, Data Transforms) verarbeitet Daten, die in Batches oder Micro Batches aufgenommen und transformiert werden. Rohdaten werden im Objektspeicher gespeichert.
Ein Block mit dem Label "API-based Ingest" (OIC, ORDS, API Gateway, Functions) verarbeitet Daten, die aufgenommene APIs sind. Rohdaten werden im Objektspeicher gespeichert.
Ein Block mit der Bezeichnung "Echtzeitaufnahme" (GoldenGate Service/OGG Marketplace) verarbeitet Daten, die nahezu in Echtzeit aufgenommen werden. Die in Echtzeit aufgenommenen Daten werden ebenfalls mit den Funktionen der Batchaufnahmekomponente verarbeitet und verfeinert. Raw- und verfeinerte Anwendungsdaten werden über separate Pfade an den Layer "Persistieren", "Kurieren", "Erstellen" übergeben. Rohdaten werden im Objektspeicher gespeichert.
Ein Block mit der Bezeichnung "Massentransfer" (FastConnect, Data Transfer, Storage Gateway, CLI, SDK, API) verarbeitet Massendaten (Dateien), die dann an den Cloud-Speicherblock übergeben werden.
Streamingdaten werden von einem Block mit der Bezeichnung "Streaming-Aufnahme" (OCI Streaming, Service Connector Hub, Kafka Connect) aufgenommen, der dann in Cloud Storage (Object Storage), Streamingverarbeitung (OCI Golden Gate, Streaming Analytics) oder Streaming Analytics (Golden Gate Stream Analytics) fließt.
Persistieren, kuratieren, erstellen: Daten werden im Lakehouse in Oracle Autonomous Data Warehouse oder Object Storage oder in beiden gespeichert. Der Zugriff erfolgt über APIs und wird für Analysen, Visualisierung und Data Science verwendet.
Verarbeitete Daten und Daten aus einem Daten-Share stellen Verschiebungen in einen Block innerhalb des Lakehouse mit der Bezeichnung "Serving" (Oracle Autonomous Data Warehouse) bereit. Das Lakehouse enthält auch Cloud/Storage/Date Lake (Object Storage).
Zusätzliche Verarbeitung wird durch Batchverarbeitung (Data Flow, OCI Data Integration, Data Integrator), Open Source Ecosystem (Big Data Service) und Streamingverarbeitung (OCI GoldenGate Stream Analytics, OCI Data Flow) bereitgestellt. Metadaten werden an den Block mit dem Label Data Governance (Data Catalog) übergeben.
Analyze, Learn, Predict-Schicht: Lakehouse-Daten werden von Oracle Analytics Cloud für Analysen und Visualisierung, von Data Science und KI für Leaning und Vorhersagen, von KI- und generativen KI-Services, von Data Labeling für die Datenanreicherung, von OCI Search zur Bereitstellung von Ergebnissen für Personen und Partner sowie für Anwendungen und IoT-Consumer, die eine API verwenden, verwendet.
Lakehouse- und Streamingdaten können Reverse ETL Writeback verwenden, um Anwendungen und IoT-Consumern Daten bereitzustellen.
Messung, Act-Ebene: Datenfreigabeempfänger verwenden gemeinsam genutzte Daten, Personen und Partner verwenden Analysedaten, während Anwendungen und IoT-Verbraucher verfeinerte Daten verwenden.