Sources externes
Oracle AI Data Platform Workbench prend en charge l'ingestion des données à partir d'un large éventail de sources à l'aide de connecteurs de carnet basés sur Spark. Ces connecteurs permettent aux utilisateurs d'ingérer et de traiter des données directement à partir de sources externes d'une manière flexible basée sur du code.
AI Data Platform Workbench fournit des exemples de modèle de code dans le référentiel Git Exemples d'atelier sur la plate-forme de données pour Oracle AI pour prendre en charge l'ingestion de données à partir de plusieurs systèmes externes à l'aide de Spark dans les carnets. Ces modèles sont prédéfinis et personnalisables, ce qui permet aux utilisateurs de se connecter, de lire et d'écrire rapidement des données à partir de divers systèmes couramment utilisés.
Tableau 14-3 Sources d'ingestion externe
| Source | Type d'accès | Méthode d'intégration | Déchiffrement | Prise en charge du catalogue externe | Exemple de code disponible |
|---|---|---|---|---|---|
| MySQL | Lecture/Écriture | JDBC au moyen du carnet Spark | Ingérez et exportez des données entre AI Data Platform Workbench et les bases de données MySQL à l'aide de connecteurs JDBC. | Non | Oui |
| PostgreSQL | Lecture/Écriture | JDBC au moyen du carnet Spark | Prend en charge le déplacement bidirectionnel des données avec PostgreSQL via JDBC. | Non | Oui |
| Serveur MS SQL | Lecture/Écriture | JDBC au moyen du carnet Spark | Connectez et transférez des données depuis Microsoft SQL Server à l'aide de Spark et JDBC. | Non | Oui |
| Kafka | Lecteur | Consommateur Kafka dans le carnet Spark | Ingestion de flux à partir de sujets Kafka | Non | Oui |
| Hive | Lecture/Écriture | JDBC au moyen du carnet Spark | Ingérer et exporter des données entre AI Data Platform Workbench et des bases de données Hive à l'aide de connecteurs JDBC | Non | Oui |