Note :

Utiliser un assistant d'intelligence artificielle avec Oracle Cloud Native Environment

Présentation

L'assistant d'intelligence artificielle pour Oracle Cloud Native Environment (Oracle CNE) est un plugiciel fourni avec l'interface utilisateur (IU) du CNE d'Oracle. AI Assistant aide les utilisateurs à gérer et à obtenir des informations sur le statut de leur grappe Kubernetes en utilisant le langage naturel (actuellement seulement l'anglais). Prise en compte du contexte, ce qui signifie que ses réponses sont pertinentes pour le statut de la grappe et l'emplacement dans l'interface utilisateur CNE d'Oracle lors du démarrage d'une interaction avec l'assistant d'intelligence artificielle. Par exemple, si un utilisateur n'est pas certain du nombre de noeuds dans la grappe, demandez à l'assistant d'intelligence artificielle "Combien de noeuds se trouvent dans ma grappe?" et il confirmera le nombre de noeuds dans la grappe. D'autres invites peuvent être publiées, ce qui permet à l'utilisateur de démarrer un flux conversationnel avec l'assistant d'intelligence artificielle. Les principales fonctionnalités fournies par l'assistant d'intelligence artificielle sont les suivantes :

Ce tutoriel explique comment configurer le plugiciel d'assistant d'intelligence artificielle, inclus dans l'interface utilisateur CNE d'Oracle avec une instance d'intelligence artificielle hébergée localement (Ollama).

Objectifs

Ce tutoriel décrit comment :

Préalables

Déployer l'environnement natif Oracle Cloud

Note : Si vous exécutez votre propre location, lisez les préalables du projet linux-virt-labs GitHub README.md et remplissez les conditions requises avant de déployer l'environnement de laboratoire.

  1. Ouvrez un terminal sur le Luna Desktop.

  2. Clonez le projet linux-virt-labs GitHub.

    git clone https://github.com/oracle-devrel/linux-virt-labs.git
  3. Accédez au répertoire de travail.

    cd linux-virt-labs/ocne2
  4. Installez les collections requises.

    ansible-galaxy collection install -r requirements.yml
  5. Déployez l'environnement de l'exercice.

    ansible-playbook create_instance.yml -e localhost_python_interpreter="/usr/bin/python3.6" -e install_ocne_rpm=true -e create_ocne_cluster=true -e "ocne_cluster_node_options='-n 1 -w 1'"

    L'environnement de laboratoire gratuit nécessite la variable supplémentaire local_python_interpreter, qui définit ansible_python_interpreter pour les lectures exécutées sur localhost. Cette variable est nécessaire car l'environnement installe l'ensemble RPM pour la trousse SDK Oracle Cloud Infrastructure pour Python, qui se trouve sous les modules python3.6.

    La forme de déploiement par défaut utilise le processeur AMD et Oracle Linux 8. Pour utiliser une unité centrale Intel ou Oracle Linux 9, ajoutez -e instance_shape="VM.Standard3.Flex" ou -e os_version="9" à la commande de déploiement.

    Important : Attendez que le livre de jeu s'exécute avec succès et atteignez la tâche Mettre en pause. À ce stade du livre de jeu, l'installation d'Oracle Cloud Native Environment est terminée et les instances sont prêtes. Prenez note de la lecture précédente, qui imprime les adresses IP publiques et privées des noeuds qu'il déploie et toutes les autres informations de déploiement nécessaires lors de l'exécution de l'exercice.

Confirmer le nombre de noeuds

Il est utile de connaître le nombre et le nom des noeuds de votre grappe Kubernetes.

  1. Ouvrez un terminal et connectez-vous via SSH à l'instance ocne.

    ssh oracle@<ip_address_of_node>
  2. Listez les noeuds de la grappe.

    kubectl get nodes

    La sortie affiche le plan de contrôle et les noeuds de travail à l'état Ready, ainsi que leur version courante de Kubernetes.

Créer un jeton d'accès

Oracle Cloud Native Environment déploie l'interface utilisateur dans la grappe Kubernetes à l'aide d'un service et d'un déploiement nommés UI, que vous utiliserez pour y accéder. Le déploiement et le service sont déployés dans l'espace de noms ocne-system. Pour vous connecter au service, vous devez générer un jeton d'accès.

  1. Générer un jeton d'accès.

    kubectl --namespace ocne-system create token ui

    Exemple de sortie :

    > [oracle@ocne ~]$ kubectl --namespace ocne-system create token ui
    > eyJhbGciOiJSUzI1NiIsImtpZCI6IjhfRWczUG13VWRfWjFkWDIxdkp6UUZlRzEwU2QxaExkbm9TME1CcS1rVFEifQ.eyJhdWQiOlsiaHR0cHM6Ly9rdWJlcm5ldGVzLmRlZmF1bHQuc3ZjLmNsdXN0ZXIubG9jYWwiXSwiZXhwIjoxNzI4Mzg3MTgwLCJpYXQiOjE3MjgzODM1ODAsImlzcyI6Imh0dHBzOi8va3ViZXJuZXRlcy5kZWZhdWx0LnN2Yy5jbHVzdGVyLmxvY2FsIiwianRpIjoiYzlmMWViZTctYzA1ZC00MTYxLTg2MzctOWNiZGFlNTI5MzFiIiwia3ViZXJuZXRlcy5pbyI6eyJuYW1lc3BhY2UiOiJvY25lLXN5c3RlbSIsInNlcnZpY2VhY2NvdW50Ijp7Im5hbWUiOiJ1aSIsInVpZCI6IjdjY2RjZGZlLTAzNzMtNGUwZS1hMzViLTc5MzdhM2NiZmYzMyJ9fSwibmJmIjoxNzI4MzgzNTgwLCJzdWIiOiJzeXN0ZW06c2VydmljZWFjY291bnQ6b2NuZS1zeXN0ZW06dWkifQ.WSLZFste1ggkE2GtjJ2cBrORNFgCzHOlALNXD_-6vLA9kIiDJHp44HshUcXvUFH1XdFM1SGbiCvITOwT8Y5_93IKVZLu1NRyGPZlo5l4JqwnJtqLn7J6e39OlC2SXqex6vLBCU-sBqiw_P9xksNa7fO_MzsryEo-5oMgsVVo9oJr9wv4LYLv2Obd8U5ukKjBeiRiwTu9MTK0r_GlhmZ9d7GHrYrgF1MJGMgzvqyTyviyIynD2F0OkKARIThghpEL6aou4F_DFFMy8t0qjiJG3rBTXL6fXxZ-3WxZUGdx920ZSHcqG2XOaLY7txRkKYbudIjyt-gODeR-FZCIthw5kw
    >

    Vous utiliserez le jeton affiché pour vous authentifier lorsque vous serez connecté à l'interface utilisateur.

Créer un port Forward pour afficher l'interface utilisateur

Le transfert de port offre un moyen rapide et facile d'exposer le service d'interface utilisateur sur votre système local afin que vous puissiez l'utiliser pour surveiller, dépanner et, si nécessaire, déboguer votre environnement de développement.

Important : Oracle ne recommande pas d'utiliser le transfert de port pour exposer l'interface utilisateur d'un environnement de production.

  1. Configurer le réacheminement de port.

    kubectl port-forward --namespace ocne-system service/ui 8443:443

    Exemple de sortie :

    > [oracle@ocne ~]$ kubectl port-forward --namespace ocne-system service/ui 8443:443
    > Forwarding from 127.0.0.1:8443 -> 4466
    > Forwarding from [::1]:8443 -> 4466
    >

    Note : La commande kubectl port-forward continuera à s'exécuter au premier plan. Laissez-le continuer pendant que vous accédez à l'interface utilisateur.

Installer Ollama

  1. Ouvrez un nouveau terminal et connectez-vous via SSH à l'instance ocne.

    ssh oracle@<ip_address_of_node>
  2. Installez une dépendance requise.

    sudo dnf install -y zstd
  3. Installez Ollama.

    curl -fsSL https://ollama.com/install.sh | sh
  4. Exécutez un modèle.

    ollama run llama3.2
  5. Ouvrez un nouveau terminal et créez un tunnel SSH.

    ssh -L 11434:127.0.0.1:11434 -L 9898:127.0.0.1:8443 oracle@<ip_address_of_node>

    Le tunnel permet l'accès d'un navigateur de votre système local à un port donné au système distant exécutant la grappe Kubernetes. Vous n'avez pas besoin de générer un tunnel si les deux se trouvent sur le même système. Lors de l'exécution sur le même système, vous pouvez accéder à l'interface utilisateur à l'aide de https://127.0.0.1:8443 et d'Ollama à l'aide de http://127.0.0.1:11434.

  6. Ouvrez un navigateur sur Luna Desktop et entrez l'URL pour confirmer qu'Ollama est en cours d'exécution.

    http://127.0.0.1:11434

    Le navigateur doit afficher un message texte similaire à celui-ci : Ollama is running.

Connexion à l'interface utilisateur

  1. Ouvrez un navigateur sur Luna Desktop et entrez l'URL.

    https://127.0.0.1:9898

    Approuvez l'avertissement de sécurité en fonction du navigateur utilisé. Pour Chrome, cliquez sur le bouton Advanced, puis sur le lien Accept the Risk and Continue.

  2. Entrez le jeton d'accès.

    Entrez le jeton d'accès que vous avez créé précédemment, puis cliquez sur le lien Authenticate.

    ocne-ui-login

  3. La page UI Overview s'affiche.

    ocne-ui-webui

    Cliquez sur le bouton Ouvrir les paramètres dans la fenêtre contextuelle Configurer l'assistant d'intelligence artificielle.

    Note : Vous pouvez voir certains avertissements répertoriés dans la section Événement de la page de renvoi. Ce comportement est normal et disparaîtra au bout de quelques minutes.

  4. La page de configuration ai-assistant s'ouvre dans la section Paramètres.

ocne-ui-webui

Note : Décochez le bouton Demande d'API Kubernetes dans la section Outils IA.

Configurer un fournisseur local.

  1. Cliquez sur le bouton Add Provider.

    ocne-ui-webui

  2. Accuser réception de la boîte de dialogue 'Conditions et informations importantes'.

    ocne-ui-login

  3. Cliquez sur l'option de menu Cluster, puis sur le lien Local Models.

    ocne-ui-login

    Note : Entrez les détails appropriés pour le modèle Ollama local que vous utilisez. Cet exemple présente le modèle llama3.2 configuré précédemment.

  4. Cliquez sur le bouton Save pour enregistrer les paramètres du fournisseur.

    L'assistant d'intelligence artificielle est maintenant configuré et prêt à être utilisé.

Vérifiez que l'assistant AI fonctionne.

  1. Cliquez sur l'élément de menu appelé Grappe et sur les 'Noeuds' pour accéder à la page Noeuds.

    ocne-ui-login

  2. Cliquez sur le bouton AI Assistant situé en haut à droite de l'écran principal.

    ocne-ui-login

  3. La fenêtre AI Assistant s'affiche.

    ocne-ui-login

  4. Cliquez dans la liste déroulante pour faire passer le modèle de l'option par défaut (llama2) au modèle local nouvellement configuré (llama3.2).

    ocne-ui-login

  5. Posez une question à l'assistant d'intelligence artificielle dans la zone de texte intitulée 'Demander à l'intelligence artificielle'.

    Collez cet exemple dans la zone de texte appelée Demander à l'intelligence artificielle.

    How many nodes are present?
  6. Cliquez sur le bouton Envoyer pour soumettre la question.

    ocne-ui-login

    Note : Le temps nécessaire à la réponse de l'assistant d'intelligence artificielle dépend de plusieurs facteurs, tels que les ressources disponibles pour le modèle de GML configuré et la complexité de la question posée.

  7. L'assistant d'intelligence artificielle retourne une réponse.

    ocne-ui-login

    Note : Le libellé exact utilisé dans la réponse peut varier légèrement d'une demande à l'autre.

  8. Cela confirme que l'assistant d'intelligence artificielle fonctionne.

Étapes suivantes

Au cours de ces étapes, vous savez maintenant comment activer l'accès à l'interface utilisateur d'Oracle Cloud Native Environment et la configurer pour utiliser un LLM. Vous pouvez explorer ses nombreuses fonctionnalités, que nous aborderons dans de futurs tutoriels.

Autres ressources d'apprentissage

Explorez d'autres laboratoires sur le site docs.oracle.com/learn ou accédez à plus de contenu d'apprentissage gratuit sur le canal Oracle Learning YouTube. De plus, visitez education.oracle.com/learning-explorer pour devenir un explorateur Oracle Learning.

Pour obtenir la documentation sur le produit, visitez Oracle Help Center.