En este diagrama se muestra la conversión de datos de aplicaciones empresariales, archivos planos, eventos y sensores de varios orígenes a través de componentes de una región de Oracle Cloud Infrastructure en estadísticas útiles para los consumidores de datos.
Los siguientes componentes se aplican a toda la región de Oracle Cloud Infrastructure:
La región se divide en capas funcionales que alojan componentes físicos o funcionales:
Capa de orígenes de datos: proveedor de recursos compartidos de datos, dispositivos, usuarios finales, eventos, sensores, archivos, cualquier origen de datos de cualquier tipo y aplicaciones empresariales. Los metadatos de las bases de datos de aplicaciones empresariales se recopilan y fluyen al bloque Governance (Data Catalog).
Capa Connect, Ingest, Transform: los datos se refinan en la ingesta de lotes, API y transmisión, aprovechando diferentes servicios según el caso de uso.
Un bloque con la etiqueta Ingesta por lotes (OCI Data Integration, Data Integrator, Data Transforms) gestiona los datos que se ingieren y transforman en lotes o micro lotes. Los datos raw se almacenan en Object Storage.
Un bloque con la etiqueta Ingesta basada en API (OIC, ORDS, API Gateway, Functions) gestiona los datos que son API ingeridas. Los datos raw se almacenan en Object Storage.
Un bloque con la etiqueta Real Time Ingest (GoldenGate Service/OGG Marketplace) gestiona los datos que se ingieren casi en tiempo real. Los datos ingeridos en tiempo real también se procesan y refinan con las capacidades proporcionadas por el componente de ingestión por lotes. Los datos de aplicación raw y refinados pasan a la capa Persist, Curate, Create a lo largo de rutas independientes. Los datos raw se almacenan en Object Storage.
Un bloque con la etiqueta Transferencia masiva (FastConnect, Transferencia de datos, Gateway de almacenamiento, CLI, SDK, API) maneja datos en bloque (archivo) que luego se transfieren al bloque de almacenamiento en la nube.
Los datos de Streaming se ingieren mediante un bloque con la etiqueta Streaming Ingest (OCI Streaming, Service Connector Hub, Kafka Connect), que luego fluye a Cloud Storage (Object Storage), Streaming Processing (OCI Golden Gate, Streaming Analytics) o Streaming Analytics (Golden Gate Stream Analytics).
Persistir, curar, crear: los datos se conservan en el lakehouse de Oracle Autonomous Data Warehouse, en Object Storage o en ambos. Las API acceden a ella y se utilizan para análisis, visualización y ciencia de datos.
Los datos procesados y los datos de un recurso compartido de datos proporcionan movimientos a un bloque dentro del lakehouse denominado Serving (Oracle Autonomous Data Warehouse). El lakehouse también incluye Cloud/Storage/Date Lake (almacenamiento de objetos).
El procesamiento adicional lo proporcionan el procesamiento por lotes (Data Flow, OCI Data Integration, Data Integrator), el ecosistema de código abierto (Big Data Service) y el procesamiento de flujo (OCI GoldenGate Stream Analytics, OCI Data Flow). Los metadatos se transfieren al bloque con la etiqueta Data Governance (Data Catalog).
Capa de análisis, aprendizaje y predicción: Oracle Analytics Cloud utiliza los datos de Lakehouse para análisis y visualización, Data Science e IA para el aprendizaje y las predicciones, los servicios de IA e IA generativa, Data Labeling para el enriquecimiento de datos, OCI Search para proporcionar resultados para personas y socios y para aplicaciones y consumidores de IoT que utilizan una API.
Los datos de Lakehouse y Streaming pueden utilizar la reescritura de ETL inversa para proporcionar datos a aplicaciones y consumidores IoT.
Medir, actuar capa: los destinatarios de datos compartidos utilizan datos compartidos, las personas y los socios utilizan datos analíticos mientras que las aplicaciones y los consumidores de IoT utilizan datos refinados.