Utilisation de l'éditeur de code
Découvrez le service de flux de données et l'éditeur de code pour Oracle Cloud Infrastructure Code Editor.
- Créez, créez, modifiez et déployez des applications en Java, Scala et Python, sans passer de la console à l'environnement de développement local.
- Démarrer avec les modèles de flux de données inclus dans l'éditeur de code.
- Exécutez et testez votre code localement avec Cloud Shell, avant de le déployer dans le service de flux de données.
- Définissez les paramètres Spark.
- L'intégration avec Git vous permet de cloner tout référentiel basé sur Git, de suivre les modifications apportées aux fichiers et de valider, extraire et pousser du code directement à partir de l'éditeur de code, ce qui vous permet d'apporter votre contribution et d'annuler facilement les modifications de code. Pour plus d'informations sur l'utilisation de Git et GitHub, voir le guide du développeur.
-
Un état persistant entre les sessions enregistre automatiquement la progression et l'état persiste entre de nombreuses sessions d'utilisateur, de sorte que l'éditeur de code ouvre automatiquement la dernière page modifiée au démarrage.
- Accès direct à Apache Spark et à plus de 30 outils, y compris sbt, et Scala préinstallés avec Cloud Shell.
-
Plus d'une douzaine d'exemples de flux de données couvrant différentes fonctions regroupées sous forme de modèles pour vous aider à démarrer.
Pour plus d'informations sur les caractéristiques et les fonctionnalités de l'éditeur de code, consultez la documentation relative à l'éditeur de code.
Préalables
-
L'éditeur de code utilise les mêmes politiques IAM que Cloud Shell. Pour plus d'informations, voir Politique GIA requise pour Cloud Shell.
- Vérifiez que les langues et les outils nécessaires sont installés dans Cloud Shell.
- Si vous utilisez le magasin de métadonnées du catalogue de données, vous devez configurer les politiques appropriées.
| Outil | Version | Description |
|---|---|---|
| Scala | 2.12.15 | Utilisé pour écrire du code basé sur Scala dans l'éditeur de code. |
| sbt | 1.7 | Utilisé pour créer de manière interactive des applications Scala. |
| Python | 3.8 | Interpréteur Python |
| Git | 2.27 | GIT bash pour exécuter interactivement les commandes GIT. |
| JDK | 11 | Utilisé pour développer, créer et tester des applications Java de flux de données. |
| Apache Spark | 3.2.1 | Instance locale d'Apache Spark s'exécutant sur Cloud Shell. utilisée pour tester le code. |
Limitations
- Le service de flux de données ne peut accéder aux ressources par rapport à la région sélectionnée dans le menu de sélection de région de la console que lorsque Cloud Shell a été démarré.
- Seules les applications de flux de données basées sur Java, Python et Scala sont prises en charge
- L'éditeur de code ne prend pas en charge la compilation et le débogage. Vous devez effectuer ces opérations dans Cloud Shell.
- Le plugiciel n'est pris en charge qu'avec Apache Spark version 3.2.1.
- Toutes les limites de Cloud Shell s'appliquent.
Configuration du plugiciel Spark pour le service de flux de données
Suivez ces étapes pour configurer le plugiciel Spark du service de flux de données.