Diese Architektur demonstriert die Fähigkeiten eines Cloud-Data Lake mit Oracle-Daten- und KI-Services zur Verarbeitung von Daten aus einer Vielzahl von Unternehmensdatenressourcen. Daten können aus verschiedenen Quellen sowohl innerhalb als auch außerhalb von Oracle erkannt und dann für die Transformation aufgenommen werden. Um die Rohdaten in messbare und umsetzbare Daten zu transformieren, müssen die Daten in verschiedenen Phasen verarbeitet werden:
- Ermitteln
- Datenaufnahme
- Transformieren
- Kuratieren
- Analysieren, lernen und voraussagen
- Messen und handeln
Die folgenden Features erstrecken sich über die gesamte Oracle Cloud Infrastructure-(OCI-)Region:
- Governance
- Sicherheits-, Identitäts- und Zugriffsverwaltung
- On Premise FastConnect ermöglicht die Online-Datenübertragung mit flexiblen Compute- und flexiblen Speicherfeatures von OCI
- Die Partnerschaft zwischen Oracle und Azure Interconnect ermöglicht die Migration in die Cloud und die Erstellung cloud-nativer Anwendungen.
Der Bereich ist in Funktionsschichten unterteilt, die physische oder funktionale Komponenten enthalten:
- Discovery-Phase: Sie können Daten aus einer Vielzahl von Quellen ermitteln, wie beispielsweise Unternehmensanwendungen, Azure und andere Datenbanken, Oracle Data Cloud, Webclicks, Event Streams, Sensoren und Medien oder File Object Stores.
-
Data Refinery-Schicht: Die Daten durchlaufen die Erfassungsphase in diesem Layer.
- Batch-Ingestion-(OCI Data Integration-, ODI- und DB-Tools-)Services konsumieren Anwendungsdaten. Oracle Autonomous Data Warehouse nutzt raffinierte Anwendungsdaten. Der Cloud-Speicher in der Data Persistence Platform-Schicht belegt Raw-Daten.
- Mit Change Data Capture (GoldenGate und ODI) und Bulk Transfer (FastConnect Data Transfer, MFT, CLI) können Rohdaten von allen Datenrefinery-Pfaden in den Cloud-Speicher der Schicht "Data Persistence & Processing" verschoben werden.
- Streaming Ingest (Streaming Service, Big Data Service) konsumiert die Ereignisstreamdaten. Der Streaming-Verarbeitungsservice (GoldenGate Stream Analytics) belegt die Streamdaten und überträgt sie in den Cloud-Speicher auf der Schicht "Data Persistence & Processing".
-
Data Persistence & Processing Layer: Daten durchlaufen die Phasen "Transformation" und "Curates". Dieser Layer vereinfacht die Datennavigation, um die aktuelle Geschäftsansicht anzuzeigen.
Die Data Persistence & Processing-Schicht strukturiert die Daten basierend darauf, ob die verwendete Datenbanktechnologie relational oder nicht relational ist. Governance (Data Catalog) gilt für Anwendungsdaten und Rohdaten, wenn sie diesen Layer durchlaufen.
-
Zugriffs- und Interpretationsschicht: Daten durchlaufen die Analyse-, Lern- und Vorhersagephase. Diese Schicht macht die Daten mit Analysen, maschinellem Lernen und KI-Services wie Anomalieerkennung für den Zugriff und die Interpretation bereit. Sie können verfeinerte Anwendungsdaten mit dem Oracle Analytics Cloud-Service visualisieren. Data Scientists können mit den Services für maschinelles Lernen (Data Science, OML-Notizbücher, OML) Modelle mit einer vertrauten Benutzeroberfläche erstellen und trainieren. Maschinelles Lernen verbraucht Rohdaten, die für Trainingsmodelle verwendet werden können. Streaming Analytics-(GoldenGate Stream Analytics-)Services stellen Datenvisualisierungen bereit, damit die Daten für den Zugriff und die Interpretation verfügbar sind.
Mit den über ein API-Gateway und Funktionen verfügbaren APIs können Entwickler ihre eigenen Anwendungen erstellen und die Rohdaten mit maschinellem Lernen und KI-Services nutzen.
- Phase "Messung und Handeln": Oracle Applications Data Warehouse kann die analysierten Daten nutzen, nutzen, daraus lernen und Ergebnisse vorhersagen. Augumented Analytics, Dashboards und Berichte, Modelle für maschinelles Lernen, datengesteuerte Anwendungen, KI-fähige Services und alle Vorteile durch die Nutzung der Messungen und die Umsetzung der Vorhersagen. Unternehmen können die Daten monetarisieren, indem sie datengesteuerte Geschäftsentscheidungen mit datengesteuerten Apps treffen. Sie können Modelle für maschinelles Lernen trainieren, Dashboards und Berichte erstellen und dokumentierte Analysen erstellen.