Connessione a cluster sicuri con Kerberos e SSL abilitati mediante Spark3 Thrift Server

  1. Creare una directory Kerberos in un sistema locale che sia un cluster ODH abilitato per SSL per Hive.
  2. Copiare spark.service.keytab dal nodo mn0 (nodo Spark3 Thrift Server) del cluster ODH nella directory Kerberos, quindi rinominarlo in oac.keytab.
  3. Copiare /etc/krb5.conf dal nodo mn0 del cluster ODH nella directory Kerberos e rinominarlo in krb5conf.
  4. Aggiornare le informazioni admin_server e kdc in krb5conf con l'IP pubblico del nodo mn0 del cluster anziché il nome host.
  5. Creare un file denominato service_details.json nella directory Kerberos. Esempio:
    {
     "Host" : "<Public IP of Spark3 Thrift Server node(mn0)>",
     "Port" : "10000",
     "ServicePrincipalName" : "spark/<FQDN of Spark3 Thrift Server node(mn0)>@<REALM_NAME>"
    }
  6. Creare un file zip per la directory Kerberos. Esempio:
    $ ls -1 kerberos
    krb5conf
    oac.keytab
    service_details.json
    $ zip -r spark3tskerb.zip kerberos/*
  7. Per creare una connessione per ODH abilitato per Kerberos, aprire il menu di navigazione e selezionare Analytics & AI. In Analytics, selezionare Analytics Cloud.
  8. Per connettersi a un'istanza di Oracle Analytics Cloud, selezionare il compartimento in cui è stata creata l'istanza.

    Se necessario, creare un'istanza. Vedere Creazione di un'istanza OAC.

  9. Selezionare il nome dell'istanza.
  10. Selezionare Home page Analitica.
  11. Selezionare Crea, quindi selezionare Connessione.
  12. Selezionare Spark.
  13. Immettere un nome per la connessione, quindi immettere i dettagli rimanenti con le seguenti specifiche:
    • Tipo di autenticazione: selezionare Kerberos
    • Credenziali client: selezionare spark3tskerb.zip dal sistema locale
    • Autenticazione: selezionare Utilizzare sempre queste credenziali
  14. Selezionare Salva.
  15. Per verificare la connessione, andare alla home page di OAC e selezionare Connetti ai dati.
  16. Selezionare la connessione creata.
    Se l'operazione riesce, vengono elencate le tabelle del database Apache Hive.