Criando e Gerenciando Workflows

Use a interface de usuário do Apache Hue para criar workflows. Use a lista do agendador para criar bundles, coordenadores ou workflows. Para jobs do Spark, use a ação do Spark. A tarefa a seguir mostra o widget de ação do Spark com detalhes sobre o job e o local do Spark no HDFS. A lista de opções mostrada é fornecer quaisquer parâmetros Spark extras ao job do Spark. Para clusters HA, é necessário fornecer informações XML relacionadas ao Ranger. Veja a seguir mais informações.
  1. Entre no Hue.
  2. Crie um arquivo de script e faça upload dele para o Hue.
  3. No menu de navegação mais à esquerda, selecione Scheduler.
  4. Selecione Workflow e clique em Meu Workflow para criar um workflow.
  5. Selecione o ícone do programa Spark para arrastar a ação do Spark para a área Eliminar sua ação aqui.
  6. Selecione o arquivo Jar ou o arquivo Python na lista drop-down Nome do Jar/py.
  7. Selecione o workflow na lista suspensa FILES.
  8. Para conectar o Hive em um ambiente HA, selecione o ícone de engrenagem e, em seguida, Credenciais.
  9. Selecione hcat.
  10. Selecione o ícone Salvar.
  11. Selecione o workflow na estrutura de pastas e, em seguida, selecione o ícone de envio.