Utilisation de l'éditeur de code

Découvrez Data Flow et Oracle Cloud Infrastructure Code Editor.

L'éditeur de code fournit un environnement d'édition enrichi dans la console, notamment la coloration syntaxique, les fins intelligentes, la mise en correspondance de crochets, le lintage, la navigation dans le code (accéder à la définition de méthode, rechercher toutes les références) et la refactorisation. Vous pouvez :
  • Créez, créez, modifiez et déployez des applications en Java, Scala et Python, sans basculer entre la console et l'environnement de développement local.
  • Lancez-vous avec les modèles Data Flow inclus dans l'éditeur de code.
  • Exécutez et testez votre code localement avec Cloud Shell, avant de le déployer vers Data Flow.
  • Définissez les paramètres Spark.
Autres avantages :
  • Intégration Git qui vous permet de cloner n'importe quel référentiel basé sur Git, de suivre les modifications apportées aux fichiers, et de valider, d'extraire et de propager du code directement à partir de l'éditeur de code, ce qui vous permet de contribuer au code et d'annuler les modifications de code facilement. Reportez-vous au guide du développeur pour plus d'informations sur l'utilisation de Git et de GitHub.
  • Un état persistant d'une session à l'autre enregistre automatiquement la progression et persiste dans de nombreuses sessions utilisateur. L'éditeur de code ouvre donc automatiquement la dernière page modifiée au démarrage.

  • Accès direct à Apache Spark et à plus de 30 outils, y compris sbt, et Scala préinstallé avec Cloud Shell.
  • Plus d'une douzaine d'exemples Data Flow couvrant différentes fonctionnalités regroupées sous forme de modèles pour vous aider à démarrer.

Pour plus d'informations sur l'utilisation de l'éditeur de code pour créer des applications, reportez-vous à la rubrique Création d'une application avec l'éditeur de code.

Pour plus d'informations sur les fonctionnalités de l'éditeur de code, reportez-vous à la documentation de l'éditeur de code.

Prérequis

  • L'éditeur de code utilise les mêmes stratégies IAM que Cloud Shell. Pour plus d'informations, reportez-vous à Stratégie IAM requise pour Cloud Shell.

  • Vérifiez que les langues et les outils nécessaires sont installés dans Cloud Shell.
  • Si vous utilisez le metastore Data Catalog, vous devez configurer les stratégies appropriées.
Les outils et versions minimales suivants doivent être installés sur Cloud Shell :
Outils requis et version prise en charge
Outil Version Description
Scala 2.12.15 Utilisé pour écrire du code basé sur Scala dans l'éditeur de code.
sbt 1,7 Utilisé pour créer de manière interactive des applications Scala.
Python 3,8 Interpréteur Python
Git 2,27 GIT bash pour exécuter des commandes GIT de manière interactive.
JDK 11 Utilisé pour développer, créer et tester des applications Java Data Flow.
Apache Spark 3.2.1 Instance locale d'Apache Spark exécutée sur Cloud Shell, utilisée pour tester le code.

Limites

  • Data Flow ne peut accéder aux ressources que pour la région sélectionnée dans le menu de sélection Région de la console au démarrage de Cloud Shell.
  • Seules les applications Data Flow basées sur Java, Python et Scala sont prises en charge
  • L'éditeur de code ne prend pas en charge la compilation et le débogage. Vous devez effectuer ces opérations dans Cloud Shell.
  • Le module d'extension est pris en charge uniquement avec Apache Spark version 3.2.1.
  • Toutes les limitations de Cloud Shell s'appliquent.

Configuration du module d'extension Spark Data Flow

Suivez ces étapes pour configurer le module d'extension Spark Data Flow.

  1. A partir de la ligne de commande, accédez au répertoire HOME.
  2. Exécutez /opt/dataflow/df_artifacts/apache_spark_df_plugin_setup.sh.

    Le script est un processus automatisé permettant de configurer Spark dans l'annuaire des utilisateurs avec d'autres artefacts requis.