Ejercicio 1: Ejecución de la aplicación Java de Data Flow
Una vez que hemos creado una aplicación Java, vamos a ejecutarla.
- Si ha seguido los pasos de la forma indicada, lo único que tendrá que hacer es resaltar la aplicación en la lista, hacer clic en el icono de kebab y hacer clic en Ejecutar.
- Tiene la opción de personalizar parámetros antes de ejecutar la aplicación. En nuestro caso, hemos introducido los valores precisos con antelación para poder empezar la ejecución haciendo clic en Ejecutar.
Si bien la aplicación se está ejecutando, también puede cargar la interfaz de usuario de Spark para controlar el progreso. En el menú de kebab de la ejecución en cuestión, seleccione IU de Spark.
- Se le redirigirá automáticamente a la interfaz de usuario de Apache Spark, que es útil para realizar la depuración y el ajuste del rendimiento.
Pasado aproximadamente un minuto, la ejecución debe mostrar un mensaje que indique que la ejecución ha terminado correctamente y el estado
Succeeded
:Aumente el detalle de la ejecución para ver más información y desplácese hasta la parte inferior para ver una lista de logs.
Al hacer clic en el archivo spark_application_stdout.log.gz, debería ver la siguiente salida del log:
- También puede desplazarse al cubo de almacenamiento de objetos de salida para confirmar que se han creado nuevos archivos. La salida tendrá un aspecto parecido a este:
Las aplicaciones posteriores utilizan estos nuevos archivos, por lo que debe asegurarse de que aparecen en el cubo antes de pasar a otros ejercicios.