Problemas de Apache Hue

Solucione problemas de Apache Hue para clusters de Big Data Service.

Configuración del nombre de nodo en el cluster de HA en caso de fallo de nodo en espera

Los servicios de nodo de nombre de HDFS, activos y en espera, se ejecutan en los dos nodos maestros de un cluster de HA.

Por defecto, el primer nodo maestro (mn0) se configura como nodo de nombre activo en Apache Hue. Sin embargo, cualquiera de los nodos maestros puede actuar como el namenode activo. Si el nodo en espera se configura como nodo activo, se encontrará un error de excepción de nodo en espera.

Ejemplo:

Captura de pantalla de Apache Ambari que muestra un mensaje de error de fallo de nodo de nombre.

Cambie la configuración de Hue en la interfaz de usuario de Ambari y reinicie el servidor Hue (en Ambari).

  1. Acceda a Apache Ambari.
  2. En la barra de herramientas lateral, en Servicios, seleccione Hue.
  3. Seleccione el separador Configs (Configuración) para modificar las configuración de Apache Hue.
  4. Seleccione Avanzado.
  5. En la sección Advanced hue-hadoop-site, cambie el valor del campo HDFS HttpsFS Host de mn0 a mn1 o viceversa.
  6. Seleccione Acciones y, a continuación, seleccione Reiniciar todo.
Ejecución del flujo de trabajo de shell de Spark mediante el flujo de trabajo de Oozie en Hue para un cluster sin HA

Ejecute el flujo de trabajo de shell de Spark mediante el flujo de trabajo de Oozie en Hue para clusters no HA de Big Data Service.

Los trabajos de Spark en el hilo iniciados mediante la acción de shell en el flujo de trabajo de Oozie siempre se ejecutan como hilo. Este problema solo se produce para los clusters sin HA.

Si el usuario "xyz" ejecuta un comando de Spark desde la acción de shell, el trabajo de Spark resultante en el gestor de recursos se ejecuta como el usuario "yarn". En este caso, el usuario "yarn" debe tener todos los permisos relevantes que el usuario "xyz" necesita para ejecutar el trabajo de Spark. Si el usuario "xyz" escribe en una ubicación de HDFS, el usuario "yarn" también debe tener permiso de escritura en ese directorio de HDFS.