Sources internes
Oracle AI Data Platform Workbench prend en charge l'ingestion à partir de sources Oracle internes à l'aide de connecteurs d'ingestion intégrés. Ces connecteurs permettent aux utilisateurs d'extraire facilement des données à l'aide de blocs-notes basés sur Spark et de les intégrer à leurs workflows et pipelines de données.
Les connecteurs d'ingestion résument les complexités de la configuration des connexions, fournissant des modèles d'accès optimisés pour l'ingestion par lots et en temps quasi réel à partir des services natifs Oracle.
AI Data Platform Workbench fournit des exemples de modèles de code dans le référentiel Git Oracle AI Data Platform Workbench Samples pour prendre en charge l'inclusion de données à partir de plusieurs sources internes à l'aide de Spark dans des blocs-notes.
Tableau 14-1 Sources internes
| Source | Type d'accès | Méthode d'intégration | Description | Prise en charge du catalogue externe | Exemple de code disponible |
|---|---|---|---|---|---|
| Fusion | Extraction uniquement | Modèles Spark préconfigurés | Extrait les données des applications Fusion SaaS via BICC dans les tables ou volumes AI Data Platform Workbench. | No | Oui |
| Adresses REST | Lecture seule | JDBC via le bloc-notes Spark | Lectures à partir d'API pour l'ingestion de données semi-structurées telles que JSON. | No | Oui |
| MySQL HeatWave | Lecture seule | JDBC via le bloc-notes Spark | Déplacez des données entre AI Data Platform Workbench et MySQL HeatWave à l'aide de JDBC. | No | Oui |
| Oracle Autonomous AI Lakehouse | Lecture/Ecriture + Copie zéro | JDBC ou catalogue externe | Assimilez ou inscrivez Oracle Autonomous AI Lakehouse en tant que catalogue externe pour interroger les données directement sans duplication. | Oui | Oui |
| Oracle Autonomous AI Transaction Processing | Lecture/Ecriture + Copie zéro | JDBC ou catalogue externe | Inclure ou enregistrer en tant que catalogue externe pour interroger les données directement sans duplication. | Oui | Oui |
| Oracle Database | Lecture/écriture | JDBC ou catalogue externe | Prise en charge de l'assimilation des données à partir de bases de données sur site ou OCI. | Oui | Oui |
| Exadata | Lecture/écriture | JDBC ou catalogue externe | Accéder aux systèmes Exadata pour des lectures et des écritures hautes performances à l'aide de JDBC. | No | Oui |
Table 14-2 Spark SQL to , Oracle Autonomous AI Database, Exadata Data Type mapping
| Type SQL Spark | Oracle AI Database, Oracle Autonomous AI Database, type de données Exadata |
|---|---|
| Type d'octet | NOMBRE(38,10) |
| Type abrégé | NOMBRE(38,10) |
| IntegerType (INT) | NOMBRE(38,10) |
| Type long | NOMBRE(38,10) |
| Type flottant | FLOAT(126) |
| Type double | NOMBRE(38,10) |
| DecimalType(p,s) | NUMERO(p,s) |
| Type de chaîne | VARCHAR2(4000 CHAR) |
| Type binaire | BLOB |
| Type booléen | VARCHAR2(4000 CHAR) |
| Type de date | DATE |
| TimestampType | TIMESTAMP(6) |
| Type de tableau | VARCHAR2(4000 CHAR) |
| Type de carte | Non prises en charge |
| Type de structure | VARCHAR2(4000 CHAR) |
| Type d'intervalle de calendrier | Pris en charge s'il est converti en chaîne/VARCHAR2 |