Problemas conhecidos do Big Data Service
Foram identificados problemas conhecidos no Big Data Service.
A Lista Suspensa da IU do Ranger Não Lista Todos os Usuários Sincronizados
- Detalhes
- Mesmo que um usuário seja sincronizado, talvez ele não apareça no menu suspenso Pesquisa de usuário ao criar uma política na IU do Ranger. Esse problema geralmente é causado pelo valor padrão da propriedade
ranger.db.maxrows.default
. - Solução alternativa
- Aumente o valor de
ranger.db.maxrows.default
para corresponder ou exceder o número de usuários no seu SO ou Active Directory. Para obter mais informações, consulte Configurações Avançadas do Ranger.
A Tarefa Sincronizar Bancos de Dados Hive Falha ao Especificar o Caractere Curinga no Apache Ambari
- Detalhes
- Em clusters do Big Data Service que usam o Oracle Distribution, incluindo o Apache Hadoop, se você sincronizar os bancos de dados hive especificando o caractere curinga
*
para a propriedadeSynchronize Hive Databases
usando o Apache Ambari, receberá um erro informando que houve falha na sincronização dos metadados do Hive. - Solução alternativa
- Estamos cientes do problema e trabalhando em uma solução. Enquanto isso, não use o caractere curinga
*
para a propriedadeSynchronize Hive Databases
, mas especifique explicitamente os bancos de dados do Hive que você deseja sincronizar como uma lista de espaços separados por vírgulas. Por exemplo: db1,db2.
Falha na Reinicialização do Broker do Kafka
- Detalhes
- Durante a reinicialização do broker do Kafka, talvez o broker do Kafka não seja inicializado.
- Solução alternativa
- Remova o arquivo
.lock
manualmente:- Estabeleça SSH no nó do broker com falha.
- Execução:
rm rf /u01/kafka-logs/.lock
O Job do Spark pode falhar com um erro 401 ao tentar fazer download das políticas do Ranger-Spark
- Detalhes
- Em um cluster HA do Big Data Service com o plug-in Ranger-Spark ativado, quando você tenta qualquer operação em tabelas do Hive usando o comando
spark-submit
no modo de cluster, o job do Spark pode falhar com um erro 401 ao tentar fazer download das políticas do Ranger-Spark. Esta questão surge de um problema de token de delegação conhecido no lado Ranger. - Solução alternativa
- Recomendamos que você inclua o keytab e o principal do usuário no comando
spark-submit
. Essa abordagem garante que o Spark use o keytab e o principal fornecidos para autenticação, permitindo que ele se comunique com o Ranger para fazer download de políticas sem depender de tokens de delegação.Por exemplo:
spark-submit --master yarn --deploy-mode cluster --name SparkHiveQueryJob --keytab <keytab-path> --principal <keytab-principal> --class com.oracle.SparkHiveQuery ./SparkTests-1.0-SNAPSHOT.jar
Observação
- O usuário fornecido (usuário/principal da keytab) deve ter as permissões necessárias para fazer download de políticas e tags do Ranger. Essas permissões podem ser configuradas usando a interface de usuário Ranger-admin.
No Ranger, selecione Editar para o repositório Spark e vá para a seção Adicionar Novas Configurações. Certifique-se de que o usuário especificado esteja adicionado às listas policy.download.auth.users e tag.download.auth.users. Caso contrário, adicione o usuário e salve.
Por exemplo:
faísca, jupyterhub, matiz,livy,trino
- Conceda as permissões necessárias ao mesmo usuário nas políticas do Ranger-Spark para acessar as tabelas necessárias.
Para obter mais informações sobre plug-ins Ranger, consulte Usando Plug-ins Ranger.
- O usuário fornecido (usuário/principal da keytab) deve ter as permissões necessárias para fazer download de políticas e tags do Ranger. Essas permissões podem ser configuradas usando a interface de usuário Ranger-admin.