Creazione e gestione dei workflow
Utilizzare l'interfaccia utente di Apache Hue per creare i workflow. Utilizzare l'elenco scheduler per creare bundle, coordinatori o flussi di lavoro. Per i job Spark, utilizzare l'azione Spark. Il task riportato di seguito mostra il widget di azione Spark con dettagli sul job e sulla posizione Spark in HDFS. La lista di opzioni visualizzata è quella di fornire eventuali parametri Spark aggiuntivi al job Spark. Per i cluster HA, è necessario fornire informazioni XML correlate a Ranger. Di seguito sono riportate ulteriori informazioni.
- Accedi a Hue.
- Creare un file di script e caricarlo in tonalità.
- Nel menu di navigazione più a sinistra selezionare Scheduler.
- Selezionare Workflow, quindi fare clic su Workflow personale per creare un workflow.
- Selezionare l'icona del programma Spark per trascinare l'azione Spark nell'area Elimina l'azione qui.
- Selezionare il file Jar o Python dall'elenco a discesa Nome Jar/py.
- Selezionare il workflow dall'elenco a discesa FILES.
- Per connettere Hive in un ambiente HA, selezionare l'icona a forma di ingranaggio, quindi selezionare Credenziali.
- Selezionare hcat.
- Selezionare l'icona Salva.
- Selezionare il flusso di lavoro dalla struttura delle cartelle, quindi selezionare l'icona di sottomissione.