Documentation Oracle Cloud Infrastructure


Exercice 1 : Exécuter l'application Java Data Flow

Une fois l'application Java créée, exécutez-la.

  1. Si vous avez suivi scrupuleusement les étapes, il vous suffit de mettre en surbrillance l'application dans la liste, de cliquer sur l'icône à trois points, puis sur Exécuter.
  2. Vous pouvez personnaliser les paramètres avant d'exécuter l'application. Dans notre cas, les valeurs appropriées ont déjà été saisies. Nous pouvons donc commencer l'exécution en cliquant sur Exécuter.
  3. Pendant l'exécution de l'application, vous pouvez éventuellement charger l'interface utilisateur Spark afin de surveiller la progression. Dans le menu contextuel de l'exécution en question, sélectionnez Interface utilisateur Spark.

  4. Vous serez automatiquement redirigé vers l'interface utilisateur Apache Spark, qui est utile pour le débogage et le réglage des performances.
  5. Après environ une minute, votre exécution doit se terminer avec l'état Succeeded :

  6. Explorez l'exécution pour voir des détails supplémentaires et faites défiler vers le bas pour voir la liste des journaux.

  7. Lorsque vous cliquez sur le fichier spark_application_stdout.log.gz, vous devez voir la sortie de journal suivante :

  8. Vous pouvez également accéder au bucket de stockage d'objet de la sortie pour vérifier que des fichiers ont été créés. La sortie ressemblera à ce qui suit :

    Ces nouveaux fichiers seront utilisés par les applications suivantes. Assurez-vous qu'ils sont présents dans votre bucket avant de passer aux autres exercices.