Questo diagramma mostra la conversione dei dati di applicazioni aziendali, file flat, eventi e sensori provenienti da più origini attraverso i componenti in un'area di Oracle Cloud Infrastructure in insight utilizzabili per i consumatori di dati.
I seguenti componenti si applicano all'intera area Oracle Cloud Infrastructure:
La regione è divisa in strati funzionali che ospitano componenti fisici o funzionali:
Livello origini dati: provider di condivisione dati, dispositivi, utenti finali, eventi, sensori, file, qualsiasi origine dati di qualsiasi tipo e applicazioni aziendali. I metadati dai database delle applicazioni aziendali vengono raccolti e confluiscono nella governance a blocchi (Data Catalog).
Connetti, includi, trasforma: i dati vengono perfezionati in batch, API e streaming, sfruttando servizi diversi a seconda del caso d'uso.
Un blocco denominato Batch Ingest (OCI Data Integration, Data Integrator, Data Transforms) gestisce i dati inclusi e trasformati in batch o micro batch. I dati non elaborati vengono memorizzati nello storage degli oggetto.
Un'inclusione basata su API a blocchi (OIC, ORDS, API Gateway, Functions) gestisce i dati inclusi nelle API. I dati non elaborati vengono memorizzati nello storage degli oggetto.
Un blocco denominato Real Time Ingest (GoldenGate Service/OGG Marketplace) gestisce i dati inclusi quasi in tempo reale. I dati inclusi in tempo reale vengono inoltre elaborati e perfezionati con le funzionalità fornite dal componente di inclusione batch. I dati dell'applicazione raw e perfezionati passano al livello Persist, Curate, Create lungo percorsi separati. I dati non elaborati vengono memorizzati nello storage degli oggetto.
Un trasferimento di massa a blocchi con etichetta (FastConnect, Data Transfer, Storage Gateway, CLI, SDK, API) gestisce i dati di massa (file) che vengono quindi trasmessi al blocco di storage cloud.
I dati di streaming vengono inclusi da un blocco denominato Streaming Ingest (OCI Streaming, Service Connector Hub, Kafka Connect), che viene quindi trasferito nello storage cloud (storage degli oggetti), nell'elaborazione in streaming (OCI Golden Gate, Streaming Analytics) o nell'analitica in streaming (Golden Gate Stream Analytics).
Persistere, curare, creare: i dati vengono resi persistenti nel lakehouse in Oracle Cloud Infrastructure Lakehouse, nello storage degli oggetti o in entrambi. È accessibile dalle API ed è utilizzato per analytics, visualizzazione e data science.
I dati e i dati elaborati da una condivisione di dati forniscono spostamenti in un blocco all'interno del lakehouse denominato Serving (Oracle Cloud Infrastructure Lakehouse). Il lakehouse include anche Cloud/Storage/Date Lake (storage degli oggetti).
L'elaborazione aggiuntiva viene fornita dall'elaborazione in batch (Data Flow, OCI Data Integration, Data Integrator), dall'ecosistema open source (Big Data Service) e dall'elaborazione in streaming (OCI GoldenGate Stream Analytics, OCI Data Flow). I metadati passano al blocco denominato Data Governance (Data Catalog).
Livello di analisi, apprendimento e previsione: i dati lakehouse vengono utilizzati da Oracle Analytics Cloud per l'analisi e la visualizzazione, da Data Science e AI per la pendenza e le previsioni, dai servizi AI e AI generativa, dall'etichettatura dei dati per l'arricchimento dei dati, da OCI Search per fornire risultati a persone e partner e alle applicazioni e AI consumatori IoT che utilizzano un'API.
I dati lakehouse e di streaming possono utilizzare Reverse ETL Writeback per fornire dati alle applicazioni e ai consumatori IoT.
Livello Misura e azione: i destinatari della condivisione dei dati utilizzano dati condivisi, le persone e i partner utilizzano dati analitici mentre le applicazioni e i consumatori IoT utilizzano dati raffinati.