Vai al contenuto principale
Creazione e gestione dei workflow
Utilizzare l'interfaccia utente di Apache Hue per creare i workflow. Utilizzare l'elenco scheduler per creare bundle, coordinatori o flussi di lavoro. Per i job Spark, utilizzare l'azione Spark. Il task riportato di seguito mostra il widget di azione Spark con dettagli sul job e sulla posizione Spark in HDFS. La lista di opzioni visualizzata è quella di fornire eventuali parametri Spark aggiuntivi al job Spark. Per i cluster HA, è necessario fornire informazioni XML correlate a Ranger. Di seguito sono riportate ulteriori informazioni.
-
Accedi a Hue.
-
Creare un file di script e caricarlo in tonalità.
-
Nel menu di navigazione più a sinistra selezionare Scheduler.
-
Selezionare Workflow, quindi fare clic su Workflow personale per creare un workflow.
-
Selezionare l'icona del programma Spark per trascinare l'azione Spark nell'area Elimina l'azione qui.
-
Selezionare il file Jar o Python dall'elenco a discesa Nome Jar/py.
-
Selezionare il workflow dall'elenco a discesa FILES.
-
Per connettere Hive in un ambiente HA, selezionare l'icona a forma di ingranaggio, quindi selezionare Credenziali.
-
Selezionare hcat.
-
Selezionare l'icona Salva.
-
Selezionare il flusso di lavoro dalla struttura delle cartelle, quindi selezionare l'icona di sottomissione.