Saltar al contenido principal
Creación y gestión de flujos de trabajo
Utilice la interfaz de usuario de Apache Hue para crear flujos de trabajo. Utilice la lista de programadores para crear paquetes, coordinadores o flujos de trabajo. Para los trabajos de Spark, utilice la acción de Spark. La siguiente tarea muestra el widget de acción de Spark con detalles sobre el trabajo de Spark y la ubicación en HDFS. La lista de opciones que se muestra es proporcionar parámetros de Spark adicionales al trabajo de Spark. Para los clusters de alta disponibilidad, debe proporcionar información XML relacionada con Ranger. A continuación se ofrece más información.
-
Inicia sesión en Hue.
-
Cree un archivo de script y cárguelo en Hue.
-
En el menú de navegación del extremo izquierdo, seleccione Scheduler (Programador).
-
Seleccione Flujo de trabajo y, a continuación, haga clic en Mi flujo de trabajo para crear un flujo de trabajo.
-
Seleccione el icono de programa de Spark para arrastrar la acción de Spark al área Borrar la acción aquí.
-
Seleccione el archivo Jar o el archivo Python de la lista desplegable Nombre de Jar/py.
-
Seleccione el flujo de trabajo en la lista desplegable FILES.
-
Para conectar Hive en un entorno de alta disponibilidad, seleccione el icono de engranaje y, a continuación, seleccione Credenciales.
-
Seleccione hcat.
-
Seleccione el icono Guardar.
-
Seleccione el flujo de trabajo en la estructura de carpetas y, a continuación, seleccione el icono de envío.