Problemi noti per il servizio Big Data
I problemi noti sono stati identificati nel servizio Big Data.
L'elenco a discesa Interfaccia utente Ranger non elenca tutti gli utenti sincronizzati
- Dettagli
- Anche se un utente è sincronizzato, potrebbe non essere visualizzato nell'elenco a discesa Ricerca utente durante la creazione di un criterio nell'interfaccia utente di Ranger. Questo problema è in genere causato dal valore predefinito della proprietà
ranger.db.maxrows.default. - Soluzione alternativa
- Aumentare il valore di
ranger.db.maxrows.defaultin modo che corrisponda o superi il numero di utenti nel sistema operativo o in Active Directory. Per ulteriori informazioni, vedere Configurazioni Advanced Ranger.
Task Sincronizza database Hive non riuscito durante la specifica del carattere jolly in Apache Ambari
- Dettagli
- Nei cluster del servizio Big Data che utilizzano Oracle Distribution, incluso Apache Hadoop, se si sincronizzano i database hive specificando il carattere jolly
*per la proprietàSynchronize Hive Databasesutilizzando Apache Ambari, si riceve un errore che indica che la sincronizzazione dei metadati Hive non è riuscita. - Soluzione alternativa
- Siamo a conoscenza del problema e stiamo lavorando a una risoluzione. Nel frattempo, non utilizzare il carattere jolly
*per la proprietàSynchronize Hive Databases, ma specificare in modo esplicito i database Hive che si desidera sincronizzare come elenco di spazi separati da virgole. Ad esempio: db1,db2.
Riavvio del broker Kafka non riuscito
- Dettagli
- Durante il riavvio del broker Kafka, il broker Kafka potrebbe non riuscire ad avviarsi.
- Soluzione alternativa
- Rimuovere manualmente il file
.lock:- SSH al nodo broker con errori.
- Esegui:
rm rf /u01/kafka-logs/.lock
Il job Spark potrebbe non riuscire con un errore 401 durante il tentativo di scaricare i criteri Ranger-Spark
- Dettagli
- In un cluster HA di Big Data Service con il plugin Ranger-Spark abilitato, quando si tenta qualsiasi operazione sulle tabelle Hive utilizzando il comando
spark-submitin modalità cluster, il job Spark potrebbe non riuscire con un errore 401 durante il tentativo di scaricare i criteri Ranger-Spark. Questo problema deriva da un noto problema di token di delega sul lato Ranger. - Soluzione alternativa
- Si consiglia di includere la tabella chiavi e il nome principale dell'utente nel comando
spark-submit. Questo approccio garantisce che Spark utilizzi la tabella chiavi e il principal forniti per l'autenticazione, consentendogli di comunicare con Ranger per scaricare i criteri senza fare affidamento sui token di delega.esempio:
spark-submit --master yarn --deploy-mode cluster --name SparkHiveQueryJob --keytab <keytab-path> --principal <keytab-principal> --class com.oracle.SparkHiveQuery ./SparkTests-1.0-SNAPSHOT.jarNota
- L'utente fornito (utente keytab/principal) deve disporre delle autorizzazioni necessarie per scaricare i criteri e le tag Ranger. Queste autorizzazioni possono essere configurate utilizzando l'interfaccia utente Ranger-admin.
In Ranger, selezionare Modifica per il repository Spark e andare alla sezione Aggiungi nuove configurazioni. Assicurarsi che l'utente specificato venga aggiunto sia agli elenchi policy.download.auth.users che a quelli tag.download.auth.users. In caso contrario, aggiungere l'utente e salvare.
esempio:
scintilla, jupyterhub, tonalità, livy, trino
- Concedere le autorizzazioni necessarie allo stesso utente nei criteri Ranger-Spark per accedere alle tabelle necessarie.
Per ulteriori informazioni sui plugin Ranger, vedere Utilizzo dei plugin Ranger.
- L'utente fornito (utente keytab/principal) deve disporre delle autorizzazioni necessarie per scaricare i criteri e le tag Ranger. Queste autorizzazioni possono essere configurate utilizzando l'interfaccia utente Ranger-admin.