Ce diagramme présente la conversion des données d'applications d'entreprise, de fichiers plats, d'événements et de capteurs provenant de plusieurs sources au moyen de composants d'une région Oracle Cloud Infrastructure en données clés utilisables pour les consommateurs de données.
Les composants suivants s'appliquent à l'ensemble de la région Oracle Cloud Infrastructure :
La région est divisée en couches fonctionnelles qui hébergent des composants physiques ou fonctionnels :
Couche des sources de données : fournisseur de partage de données, appareils, utilisateurs finaux, événements, capteurs, fichiers, toute source de données pour tout type et applications d'entreprise. Les métadonnées des bases de données des applications d'entreprise sont collectées et transmises au bloc Governance (catalogue de données).
Couche de connexion, d'ingestion, de transformation : Les données sont affinées dans les traitements par lots, les API et l'ingestion en continu, en tirant parti de différents services selon le cas d'utilisation.
Un bloc étiqueté Ingestion par lots (OCI Data Integration, Data Integrator, Data Transforms) traite les données ingérées et transformées en lots ou en micro lots. Les données brutes sont stockées dans le stockage d'objets.
Un bloc étiqueté API-based Ingest (OIC, ORDS, API Gateway, Functions) gère les données qui sont des API ingérées. Les données brutes sont stockées dans le stockage d'objets.
Un bloc étiqueté Real Time Ingest (GoldenGate Service/OGG Marketplace) gère les données ingérées en temps quasi réel. Les données ingérées en temps réel sont également traitées et affinées avec les capacités fournies par le composant d'ingestion par lots. Les données d'application brutes et affinées sont transmises au calque Persist, Curate, Create le long de chemins distincts. Les données brutes sont stockées dans le stockage d'objets.
Un bloc étiqueté Transfert en masse (FastConnect, Transfert de données, Storage Gateway, interface de ligne de commande, trousse SDK, API) traite les données en masse (fichier) qui sont ensuite transmises au bloc Stockage en nuage.
Les données de diffusion en continu sont ingérées par un bloc étiqueté Streaming Ingest (service de diffusion en continu OCI, centre de connecteurs de service, Kafka Connect), qui se jette ensuite dans le stockage en nuage (stockage d'objets), le traitement de diffusion en continu (Golden Gate, analyse de diffusion en continu) ou l'analyse de diffusion en continu (analyse de flux Golden Gate).
Persister, organiser, créer : Les données sont conservées dans l'entrepôt avec lac de données dans Oracle Autonomous Data Warehouse ou le service de stockage d'objets, ou les deux. Les API y accèdent et sont utilisés pour l'analyse, la visualisation et la science des données.
Les données et les données traitées à partir d'un partage de données permettent de passer dans un bloc de l'entrepôt avec lac de données intitulé Service (Oracle Autonomous Data Warehouse). L'entrepôt avec lac de données comprend également le nuage, le stockage et le lac de dates (stockage d'objets).
Le traitement supplémentaire est fourni par le traitement par lots (flux de données, intégration de données OCI, intégrateur de données), par écosystème à source ouverte (service de mégadonnées) et le traitement en continu (OCI GoldenGate Analyse de flux, flux de données OCI). Les métadonnées sont transmises au bloc étiqueté Data Governance (catalogue de données).
Couche d'analyse, d'apprentissage et de prévision : Les données de l'entrepôt avec lac de données sont utilisées par Oracle Analytics Cloud pour l'analyse et la visualisation, par la science des données et l'intelligence artificielle pour l'apprentissage et les prédictions, par les services d'intelligence artificielle et d'intelligence artificielle générative, par l'étiquetage de données pour l'enrichissement des données, par la recherche OCI pour fournir des résultats aux personnes et aux partenaires, ainsi qu'aux applications et aux consommateurs IoT qui utilisent une API.
Les données de l'entrepôt avec lac de données et les données en continu peuvent utiliser la réécriture ETL inverse pour fournir des données aux applications et aux consommateurs IoT.
Mesure, couche d'action : Les destinataires du partage de données utilisent des données partagées, les personnes et les partenaires utilisent des données d'analyse alors que les applications et les consommateurs IoT utilisent des données raffinées.