Sources externes
Oracle AI Data Platform Workbench prend en charge l'inclusion de données provenant d'un large éventail de sources à l'aide de connecteurs de bloc-notes basés sur Spark. Ces connecteurs permettent aux utilisateurs d'ingérer et de traiter des données directement à partir de sources externes de manière flexible et basée sur du code.
AI Data Platform Workbench fournit des exemples de modèles de code dans le référentiel Git Oracle AI Data Platform Workbench Samples pour prendre en charge l'inclusion de données à partir de plusieurs systèmes externes à l'aide de Spark dans des blocs-notes. Ces modèles sont prédéfinis et personnalisables, ce qui permet aux utilisateurs de se connecter, de lire et d'écrire rapidement des données à partir de divers systèmes couramment utilisés.
Tableau 14-3 Sources d'ingestion externe
| Source | Type d'accès | Méthode d'intégration | Description | Prise en charge du catalogue externe | Exemple de code disponible |
|---|---|---|---|---|---|
| MySQL | Lecture/écriture | JDBC via le bloc-notes Spark | Assimilez et exportez des données entre AI Data Platform Workbench et les bases de données MySQL à l'aide de connecteurs JDBC. | No | Oui |
| PostgreSQL | Lecture/écriture | JDBC via le bloc-notes Spark | Prend en charge le déplacement de données bidirectionnel avec PostgreSQL via JDBC. | No | Oui |
| MS SQL Server | Lecture/écriture | JDBC via le bloc-notes Spark | Connectez et transférez des données à partir de Microsoft SQL Server à l'aide de Spark et JDBC. | No | Oui |
| Kafka | Lecture | Consommateur Kafka dans le bloc-notes Spark | Ingestion de flux de données à partir de sujets Kafka | No | Oui |
| Hive | Lecture/écriture | JDBC via le bloc-notes Spark | Assimilation et exportation de données entre AI Data Platform Workbench et les bases de données Hive à l'aide de connecteurs JDBC | No | Oui |