Creazione e gestione dei workflow

Utilizzare l'interfaccia utente di Apache Hue per creare i workflow. Utilizzare l'elenco scheduler per creare bundle, coordinatori o flussi di lavoro. Per i job Spark, utilizzare l'azione Spark. Il task riportato di seguito mostra il widget di azione Spark con dettagli sul job e sulla posizione Spark in HDFS. La lista di opzioni visualizzata è quella di fornire eventuali parametri Spark aggiuntivi al job Spark. Per i cluster HA, è necessario fornire informazioni XML correlate a Ranger. Di seguito sono riportate ulteriori informazioni.
  1. Accedi a Hue.
  2. Creare un file di script e caricarlo in tonalità.
  3. Nel menu di navigazione più a sinistra selezionare Scheduler.
  4. Selezionare Workflow, quindi fare clic su Workflow personale per creare un workflow.
  5. Selezionare l'icona del programma Spark per trascinare l'azione Spark nell'area Elimina l'azione qui.
  6. Selezionare il file Jar o Python dall'elenco a discesa Nome Jar/py.
  7. Selezionare il workflow dall'elenco a discesa FILES.
  8. Per connettere Hive in un ambiente HA, selezionare l'icona a forma di ingranaggio, quindi selezionare Credenziali.
  9. Selezionare hcat.
  10. Selezionare l'icona Salva.
  11. Selezionare il flusso di lavoro dalla struttura delle cartelle, quindi selezionare l'icona di sottomissione.