Utilisation de l'éditeur de code
Découvrez Data Flow et Oracle Cloud Infrastructure Code Editor.
- Créez, créez, modifiez et déployez des applications en Java, Scala et Python, sans basculer entre la console et l'environnement de développement local.
- Lancez-vous avec les modèles Data Flow inclus dans l'éditeur de code.
- Exécutez et testez votre code localement avec Cloud Shell, avant de le déployer vers Data Flow.
- Définissez les paramètres Spark.
- Intégration Git qui vous permet de cloner n'importe quel référentiel basé sur Git, de suivre les modifications apportées aux fichiers, et de valider, d'extraire et de propager du code directement à partir de l'éditeur de code, ce qui vous permet de contribuer au code et d'annuler les modifications de code facilement. Reportez-vous au guide du développeur pour plus d'informations sur l'utilisation de Git et de GitHub.
-
Un état persistant d'une session à l'autre enregistre automatiquement la progression et persiste dans de nombreuses sessions utilisateur. L'éditeur de code ouvre donc automatiquement la dernière page modifiée au démarrage.
- Accès direct à Apache Spark et à plus de 30 outils, y compris sbt, et Scala préinstallé avec Cloud Shell.
-
Plus d'une douzaine d'exemples Data Flow couvrant différentes fonctionnalités regroupées sous forme de modèles pour vous aider à démarrer.
Pour plus d'informations sur les fonctionnalités de l'éditeur de code, reportez-vous à la documentation de l'éditeur de code.
Prérequis
-
L'éditeur de code utilise les mêmes stratégies IAM que Cloud Shell. Pour plus d'informations, reportez-vous à Stratégie IAM requise pour Cloud Shell.
- Vérifiez que les langues et les outils nécessaires sont installés dans Cloud Shell.
- Si vous utilisez le metastore Data Catalog, vous devez configurer les stratégies appropriées.
Outil | Version | Description |
---|---|---|
Scala | 2.12.15 | Utilisé pour écrire du code basé sur Scala dans l'éditeur de code. |
sbt | 1,7 | Utilisé pour créer de manière interactive des applications Scala. |
Python | 3,8 | Interpréteur Python |
Git | 2,27 | GIT bash pour exécuter des commandes GIT de manière interactive. |
JDK | 11 | Utilisé pour développer, créer et tester des applications Java Data Flow. |
Apache Spark | 3.2.1 | Instance locale d'Apache Spark exécutée sur Cloud Shell, utilisée pour tester le code. |
Limites
- Data Flow ne peut accéder aux ressources que pour la région sélectionnée dans le menu de sélection Région de la console au démarrage de Cloud Shell.
- Seules les applications Data Flow basées sur Java, Python et Scala sont prises en charge
- L'éditeur de code ne prend pas en charge la compilation et le débogage. Vous devez effectuer ces opérations dans Cloud Shell.
- Le module d'extension est pris en charge uniquement avec Apache Spark version 3.2.1.
- Toutes les limitations de Cloud Shell s'appliquent.
Configuration du module d'extension Spark Data Flow
Suivez ces étapes pour configurer le module d'extension Spark Data Flow.