Bekannte Probleme mit Big Data Service
In Big Data Service wurden bekannte Probleme identifiziert.
Dropdown-Liste für Ranger-UI listet nicht alle synchronisierten Benutzer auf
- Details
- Obwohl ein Benutzer synchronisiert wird, wird er möglicherweise nicht in der Dropdown-Liste Benutzersuche angezeigt, während er eine Policy in der Ranger-UI erstellt. Dieses Problem wird in der Regel durch den Standardwert der Eigenschaft
ranger.db.maxrows.default
verursacht. - Zwischenlösung
- Erhöhen Sie den Wert von
ranger.db.maxrows.default
, um die Anzahl der Benutzer in Ihrem BS oder Active Directory abzugleichen oder zu überschreiten. Weitere Informationen finden Sie unter Erweiterte Ranger-Konfigurationen.
Aufgabe "Hive-Datenbanken synchronisieren" verläuft nicht erfolgreich, wenn Platzhalterzeichen in Apache Ambari angegeben werden
- Details
- Wenn Sie in Big Data Service-Clustern mit Oracle Distribution, einschließlich Apache Hadoop, die Hive-Datenbanken synchronisieren, indem Sie das Platzhalterzeichen
*
für die EigenschaftSynchronize Hive Databases
mit Apache Ambari angeben, wird ein Fehler angezeigt, der besagt, dass die Synchronisierung von Hive-Metadaten nicht erfolgreich war. - Zwischenlösung
- Dieses Problem ist bekannt, und wir arbeiten an einer Lösung. Verwenden Sie in der Zwischenzeit nicht das Platzhalterzeichen
*
für die EigenschaftSynchronize Hive Databases
, sondern geben Sie explizit die Hive-Datenbanken an, die Sie als kommagetrennte Liste ohne Leerzeichen synchronisieren möchten. Beispiel: db1,db2.
Neustart von Kafka Broker nicht erfolgreich
- Details
- Während des Neustarts des Kafka-Brokers kann der Kafka-Broker möglicherweise nicht gestartet werden.
- Zwischenlösung
- Entfernen Sie die Datei
.lock
manuell:- SSH auf den fehlerhaften Broker-Knoten.
- Ausführen:
rm rf /u01/kafka-logs/.lock
Spark-Job kann bei dem Versuch, die Ranger-Spark-Policys herunterzuladen, mit einem 401-Fehler fehlschlagen
- Details
- Wenn Sie in einem Big Data Service-HA-Cluster mit aktiviertem Ranger-Spark-Plug-in einen Vorgang in Hive-Tabellen mit dem Befehl
spark-submit
im Clustermodus ausführen, verläuft der Spark-Job beim Versuch, die Ranger-Spark-Policys herunterzuladen, möglicherweise mit einem 401-Fehler nicht erfolgreich. Dieses Problem ergibt sich aus einem bekannten Delegationstokenproblem auf der Ranger-Seite. - Workaround
- Es wird empfohlen, die Schlüsseltabelle und den Principal des Benutzers in den Befehl
spark-submit
aufzunehmen. Dieser Ansatz stellt sicher, dass Spark die angegebene Schlüsseltabelle und den angegebenen Principal für die Authentifizierung verwendet. So kann er mit Ranger kommunizieren, um Policys herunterzuladen, ohne sich auf Delegationstoken verlassen zu müssen.Beispiel::
spark-submit --master yarn --deploy-mode cluster --name SparkHiveQueryJob --keytab <keytab-path> --principal <keytab-principal> --class com.oracle.SparkHiveQuery ./SparkTests-1.0-SNAPSHOT.jar
Hinweis
- Der angegebene Benutzer (Keytab-Benutzer/Principal) muss über die erforderlichen Berechtigungen zum Herunterladen von Ranger-Policys und -Tags verfügen. Diese Berechtigungen können mit der Ranger-admin-UI konfiguriert werden.
Wählen Sie in Ranger die Option Bearbeiten für das Spark-Repository aus, und gehen Sie zum Abschnitt Neue Konfigurationen hinzufügen. Stellen Sie sicher, dass der angegebene Benutzer sowohl der Liste policy.download.auth.users als auch der Liste tag.download.auth.users hinzugefügt wird. Wenn nicht, fügen Sie den Benutzer hinzu, und speichern Sie.
Beispiel::
funken,jupyterhub,hue,livy,trino
- Erteilen Sie demselben Benutzer in Ranger-Spark-Policys die erforderlichen Berechtigungen für den Zugriff auf die erforderlichen Tabellen.
Weitere Informationen zu Ranger-Plug-ins finden Sie unter Ranger-Plug-ins verwenden.
- Der angegebene Benutzer (Keytab-Benutzer/Principal) muss über die erforderlichen Berechtigungen zum Herunterladen von Ranger-Policys und -Tags verfügen. Diese Berechtigungen können mit der Ranger-admin-UI konfiguriert werden.