Problemi noti per il servizio Big Data

I problemi noti sono stati identificati nel servizio Big Data.

L'elenco a discesa Interfaccia utente Ranger non elenca tutti gli utenti sincronizzati

Dettagli
Anche se un utente è sincronizzato, potrebbe non essere visualizzato nell'elenco a discesa Ricerca utente durante la creazione di un criterio nell'interfaccia utente di Ranger. Questo problema è in genere causato dal valore predefinito della proprietà ranger.db.maxrows.default.
Soluzione alternativa
Aumentare il valore di ranger.db.maxrows.default in modo che corrisponda o superi il numero di utenti nel sistema operativo o in Active Directory. Per ulteriori informazioni, vedere Configurazioni Advanced Ranger.

Task Sincronizza database Hive non riuscito durante la specifica del carattere jolly in Apache Ambari

Dettagli
Nei cluster del servizio Big Data che utilizzano Oracle Distribution, incluso Apache Hadoop, se si sincronizzano i database hive specificando il carattere jolly * per la proprietà Synchronize Hive Databases utilizzando Apache Ambari, si riceve un errore che indica che la sincronizzazione dei metadati Hive non è riuscita.
Soluzione alternativa
Siamo a conoscenza del problema e stiamo lavorando a una risoluzione. Nel frattempo, non utilizzare il carattere jolly * per la proprietà Synchronize Hive Databases, ma specificare in modo esplicito i database Hive che si desidera sincronizzare come elenco di spazi separati da virgole. Ad esempio: db1,db2.

Riavvio del broker Kafka non riuscito

Dettagli
Durante il riavvio del broker Kafka, il broker Kafka potrebbe non riuscire ad avviarsi.
Soluzione alternativa
Rimuovere manualmente il file .lock:
  1. SSH al nodo broker con errori.
  2. Esegui:

    rm rf /u01/kafka-logs/.lock

Il job Spark potrebbe non riuscire con un errore 401 durante il tentativo di scaricare i criteri Ranger-Spark

Dettagli
In un cluster HA di Big Data Service con il plugin Ranger-Spark abilitato, quando si tenta qualsiasi operazione sulle tabelle Hive utilizzando il comando spark-submit in modalità cluster, il job Spark potrebbe non riuscire con un errore 401 durante il tentativo di scaricare i criteri Ranger-Spark. Questo problema deriva da un noto problema di token di delega sul lato Ranger.
Soluzione alternativa
Si consiglia di includere la tabella chiavi e il nome principale dell'utente nel comando spark-submit. Questo approccio garantisce che Spark utilizzi la tabella chiavi e il principal forniti per l'autenticazione, consentendogli di comunicare con Ranger per scaricare i criteri senza fare affidamento sui token di delega.

esempio:

spark-submit --master yarn --deploy-mode cluster --name SparkHiveQueryJob --keytab <keytab-path> --principal <keytab-principal> --class com.oracle.SparkHiveQuery ./SparkTests-1.0-SNAPSHOT.jar
Nota

  • L'utente fornito (utente keytab/principal) deve disporre delle autorizzazioni necessarie per scaricare i criteri e le tag Ranger. Queste autorizzazioni possono essere configurate utilizzando l'interfaccia utente Ranger-admin.

    In Ranger, selezionare Modifica per il repository Spark e andare alla sezione Aggiungi nuove configurazioni. Assicurarsi che l'utente specificato venga aggiunto sia agli elenchi policy.download.auth.users che a quelli tag.download.auth.users. In caso contrario, aggiungere l'utente e salvare.

    esempio:

    scintilla, jupyterhub, tonalità, livy, trino

  • Concedere le autorizzazioni necessarie allo stesso utente nei criteri Ranger-Spark per accedere alle tabelle necessarie.

Per ulteriori informazioni sui plugin Ranger, vedere Utilizzo dei plugin Ranger.