Questo diagramma mostra la conversione dei dati di applicazioni aziendali, file sequenziali, eventi e sensori da più origini attraverso i componenti di un'area Oracle Cloud Infrastructure in insight utilizzabili per i consumatori di dati.
I seguenti componenti si applicano all'intera area geografica di Oracle Cloud Infrastructure:
La regione è divisa in strati funzionali che ospitano componenti fisici o funzionali:
Livello Origini dati: provider di condivisione dati, dispositivi, utenti finali, eventi, sensori, file, qualsiasi origine dati per qualsiasi tipo e applicazioni aziendali. I metadati provenienti dai database delle applicazioni aziendali vengono raccolti e inseriti nella governance a blocchi (Data Catalog).
Livello Connect, Ingest, Transform: i dati vengono perfezionati in batch, API e inclusione di streaming, sfruttando servizi diversi a seconda del caso d'uso.
Un blocco denominato inclusione batch (OCI Data Integration, Data Integrator, Trasformazioni dati) gestisce i dati inclusi e trasformati in batch o micro batch. I dati non elaborati vengono memorizzati nello storage degli oggetti.
Un blocco con etichetta API-based Ingest (OIC, ORDS, API Gateway, Functions) gestisce i dati che sono API incluse. I dati non elaborati vengono memorizzati nello storage degli oggetti.
Un blocco denominato Real Time Ingest (GoldenGate Service/OGG Marketplace) gestisce i dati inclusi quasi in tempo reale. I dati inclusi in tempo reale vengono inoltre elaborati e perfezionati con le funzionalità fornite dal componente di inclusione batch. I dati di applicazione grezzi e raffinati passano al livello Persist, Curate, Create lungo percorsi separati. I dati non elaborati vengono memorizzati nello storage degli oggetti.
Un blocco denominato Bulk Transfer (FastConnect, Data Transfer, Storage Gateway, CLI, SDK, API) gestisce i dati in blocco (file), che vengono quindi trasmessi al blocco di storage cloud.
I dati di streaming vengono inclusi da un blocco denominato Streaming Ingest (OCI Streaming, Service Connector Hub, Kafka Connect), che viene quindi trasferito nello storage cloud (Object Storage), nell'elaborazione di streaming (OCI Golden Gate, Streaming Analytics) o nell'analitica di streaming (Golden Gate Stream Analytics).
Persistere, curare, creare: i dati vengono resi persistenti nel lakehouse in Oracle Autonomous Data Warehouse, nello storage degli oggetti o in entrambi. È accessibile dalle API ed è utilizzato per l'analitica, la visualizzazione e la data science.
I dati e i dati elaborati da una condivisione dati consentono di spostarsi in un blocco all'interno del lakehouse denominato Serving (Oracle Autonomous Data Warehouse). Il lakehouse include anche Cloud/Storage/Date Lake (Object Storage).
L'elaborazione aggiuntiva viene fornita dall'elaborazione in batch (Data Flow, OCI Data Integration, Data Integrator), dall'ecosistema open source (Big Data Service) e dall'elaborazione in streaming (OCI GoldenGate Stream Analytics, OCI Data Flow). I metadati vengono passati al blocco denominato Data Governance (Data Catalog).
Livello di analisi, apprendimento, previsione: i dati del lakehouse vengono utilizzati da Oracle Analytics Cloud per l'analitica e la visualizzazione, da Data Science e AI per la pendenza e le previsioni, dai servizi AI e AI generativa, dall'etichettatura dei dati per l'arricchimento dei dati, da OCI Search per fornire risultati a persone e partner e alle applicazioni e AI consumatori IoT che utilizzano un'API.
Lakehouse e dati di streaming possono utilizzare Reverse ETL Writeback per fornire dati alle applicazioni e ai consumer IoT.
Misura e agisci: i destinatari della condivisione dei dati utilizzano dati condivisi, le persone e i partner utilizzano i dati di analisi mentre le applicazioni e i consumatori di IoT utilizzano dati raffinati.