Hinweis:

KI-Assistent mit Oracle Cloud Native Environment verwenden

Einführung

Oracle Cloud Native Environment-(Oracle CNE-)AI-Assistent ist ein Plug-in, das mit der Oracle CNE-Benutzeroberfläche (UI) bereitgestellt wird. AI Assistant unterstützt Benutzer bei der Verwaltung und Gewinnung von Einblicken in den Status ihres Kubernetes-Clusters in natürlicher Sprache (derzeit nur Englisch). Sie ist kontextbezogen, d.h. ihre Antworten sind für den Status des Clusters und den Speicherort in der Oracle CNE-UI relevant, wenn eine Interaktion mit dem KI-Assistenten gestartet wird. Beispiel: Wenn ein Benutzer sich nicht sicher ist, wie viele Knoten in dem Cluster vorhanden sind, fragen Sie den AI-Assistenten"Wie viele Knoten sind in meinem Cluster enthalten?", und er bestätigt die Anzahl der Knoten in dem Cluster. Weitere Prompts können gepostet werden, sodass der Benutzer einen Konversationsfluss mit dem AI-Assistenten starten kann. Zu den wichtigsten Features des AI-Assistenten gehören:

In diesem Tutorial wird gezeigt, wie Sie das AI Assistant-Plug-in konfigurieren, das in der Oracle CNE-UI mit einer lokal gehosteten AI-Instanz (Ollama) enthalten ist.

Ziele

In diesem Tutorial werden folgende Themen behandelt:

Voraussetzungen

Oracle Cloud Native Environment bereitstellen

Hinweis: Wenn Sie in Ihrem eigenen Mandanten ausgeführt werden, lesen Sie das Projekt linux-virt-labs GitHub README.md, und schließen Sie die Voraussetzungen ab, bevor Sie die Übungsumgebung bereitstellen.

  1. Öffnen Sie ein Terminal auf Luna Desktop.

  2. Klonen Sie das Projekt linux-virt-labs GitHub.

    git clone https://github.com/oracle-devrel/linux-virt-labs.git
  3. Wechseln Sie in das Arbeitsverzeichnis.

    cd linux-virt-labs/ocne2
  4. Installieren Sie die erforderlichen Sammlungen.

    ansible-galaxy collection install -r requirements.yml
  5. Bereitstellen der Übungsumgebung.

    ansible-playbook create_instance.yml -e localhost_python_interpreter="/usr/bin/python3.6" -e install_ocne_rpm=true -e create_ocne_cluster=true -e "ocne_cluster_node_options='-n 1 -w 1'"

    Die kostenlose Übungsumgebung erfordert die zusätzliche Variable local_python_interpreter, die ansible_python_interpreter für Wiedergaben festlegt, die auf localhost ausgeführt werden. Diese Variable ist erforderlich, da die Umgebung das RPM-Package für das Oracle Cloud Infrastructure-SDK für Python installiert, das sich unter den python3.6-Modulen befindet.

    Die Standard-Deployment-Ausprägung verwendet AMD-CPU und Oracle Linux 8. Um eine Intel CPU oder Oracle Linux 9 zu verwenden, fügen Sie dem Deployment-Befehl -e instance_shape="VM.Standard3.Flex" oder -e os_version="9" hinzu.

    Wichtig: Warten Sie, bis das Playbook erfolgreich ausgeführt wird, und erreichen Sie die Unterbrechungsaufgabe. In dieser Phase des Playbooks ist die Installation der Oracle Cloud Native Environment abgeschlossen, und die Instanzen sind bereit. Notieren Sie sich die vorherige Wiedergabe, in der die öffentlichen und privaten IP-Adressen der bereitgestellten Knoten und alle anderen Deployment-Informationen gedruckt werden, die während der Ausführung der Übung erforderlich sind.

Anzahl der Knoten bestätigen

Es hilft, die Anzahl und Namen der Knoten in Ihrem Kubernetes-Cluster zu kennen.

  1. Öffnen Sie ein Terminal, und verbinden Sie sich über SSH mit der OCNE-Instanz.

    ssh oracle@<ip_address_of_node>
  2. Listen Sie die Knoten im Cluster auf.

    kubectl get nodes

    In der Ausgabe werden die Control-Plane und die Worker-Knoten mit dem Status Ready zusammen mit der aktuellen Kubernetes-Version angezeigt.

Zugriffstoken erstellen

Oracle Cloud Native Environment stellt die UI mit einem Deployment und Service namens UI im Kubernetes-Cluster bereit, mit dem Sie darauf zugreifen können. Deployment und Service werden im Namespace ocne-system bereitgestellt. Um eine Verbindung zum Service herzustellen, müssen Sie ein Zugriffstoken generieren.

  1. Generieren Sie ein Zugriffstoken.

    kubectl --namespace ocne-system create token ui

    Beispielausgabe:

    > [oracle@ocne ~]$ kubectl --namespace ocne-system create token ui
    > eyJhbGciOiJSUzI1NiIsImtpZCI6IjhfRWczUG13VWRfWjFkWDIxdkp6UUZlRzEwU2QxaExkbm9TME1CcS1rVFEifQ.eyJhdWQiOlsiaHR0cHM6Ly9rdWJlcm5ldGVzLmRlZmF1bHQuc3ZjLmNsdXN0ZXIubG9jYWwiXSwiZXhwIjoxNzI4Mzg3MTgwLCJpYXQiOjE3MjgzODM1ODAsImlzcyI6Imh0dHBzOi8va3ViZXJuZXRlcy5kZWZhdWx0LnN2Yy5jbHVzdGVyLmxvY2FsIiwianRpIjoiYzlmMWViZTctYzA1ZC00MTYxLTg2MzctOWNiZGFlNTI5MzFiIiwia3ViZXJuZXRlcy5pbyI6eyJuYW1lc3BhY2UiOiJvY25lLXN5c3RlbSIsInNlcnZpY2VhY2NvdW50Ijp7Im5hbWUiOiJ1aSIsInVpZCI6IjdjY2RjZGZlLTAzNzMtNGUwZS1hMzViLTc5MzdhM2NiZmYzMyJ9fSwibmJmIjoxNzI4MzgzNTgwLCJzdWIiOiJzeXN0ZW06c2VydmljZWFjY291bnQ6b2NuZS1zeXN0ZW06dWkifQ.WSLZFste1ggkE2GtjJ2cBrORNFgCzHOlALNXD_-6vLA9kIiDJHp44HshUcXvUFH1XdFM1SGbiCvITOwT8Y5_93IKVZLu1NRyGPZlo5l4JqwnJtqLn7J6e39OlC2SXqex6vLBCU-sBqiw_P9xksNa7fO_MzsryEo-5oMgsVVo9oJr9wv4LYLv2Obd8U5ukKjBeiRiwTu9MTK0r_GlhmZ9d7GHrYrgF1MJGMgzvqyTyviyIynD2F0OkKARIThghpEL6aou4F_DFFMy8t0qjiJG3rBTXL6fXxZ-3WxZUGdx920ZSHcqG2XOaLY7txRkKYbudIjyt-gODeR-FZCIthw5kw
    >

    Sie verwenden das angezeigte Token zur Authentifizierung, wenn Sie eine Verbindung zur UI herstellen.

Portweiterleitung zum Bereitstellen der UI erstellen

Die Portweiterleitung bietet eine schnelle und einfache Möglichkeit, den UI-Service auf Ihrem lokalen System bereitzustellen, sodass Sie damit Ihre Entwicklungsumgebung überwachen, Fehler beheben und gegebenenfalls debuggen können.

Wichtig: Oracle empfiehlt nicht, die Benutzeroberfläche für eine Produktionsumgebung mit Portweiterleitung bereitzustellen.

  1. Portweiterleitung einrichten

    kubectl port-forward --namespace ocne-system service/ui 8443:443

    Beispielausgabe:

    > [oracle@ocne ~]$ kubectl port-forward --namespace ocne-system service/ui 8443:443
    > Forwarding from 127.0.0.1:8443 -> 4466
    > Forwarding from [::1]:8443 -> 4466
    >

    Hinweis: Der Befehl kubectl port-forward wird weiterhin im Vordergrund ausgeführt. Lassen Sie es weitergehen, während Sie auf die UI zugreifen.

Ollama installieren

  1. Öffnen Sie ein neues Terminal, und verbinden Sie sich über SSH mit der OCNE-Instanz.

    ssh oracle@<ip_address_of_node>
  2. Installieren Sie eine erforderliche Abhängigkeit.

    sudo dnf install -y zstd
  3. Installieren Sie Ollama.

    curl -fsSL https://ollama.com/install.sh | sh
  4. Starten Sie ein Modell.

    ollama run llama3.2
  5. Öffnen Sie ein neues Terminal, und erstellen Sie einen SSH-Tunnel.

    ssh -L 11434:127.0.0.1:11434 -L 9898:127.0.0.1:8443 oracle@<ip_address_of_node>

    Der Tunnel ermöglicht den Zugriff von einem Browser auf Ihrem lokalen System auf einen bestimmten Port auf das Remotesystem, auf dem das Kubernetes-Cluster ausgeführt wird. Sie müssen keinen Tunnel generieren, wenn sich beide auf demselben System befinden. Wenn Sie auf demselben System ausgeführt werden, können Sie mit https://127.0.0.1:8443 und Ollama über http://127.0.0.1:11434 auf die UI zugreifen.

  6. Öffnen Sie einen Browser auf dem Luna Desktop und geben Sie die URL ein, um zu bestätigen, dass Ollama ausgeführt wird.

    http://127.0.0.1:11434

    Der Browser sollte eine ähnliche Textnachricht anzeigen: Ollama is running.

Bei der Benutzeroberfläche anmelden

  1. Öffnen Sie einen Browser auf dem Luna Desktop und geben Sie die URL ein.

    https://127.0.0.1:9898

    Genehmigen Sie die Sicherheitswarnung je nach verwendetem Browser. Klicken Sie für Chrome auf die Schaltfläche Advanced und dann auf den Link Accept the Risk and Continue.

  2. Geben Sie das Zugriffstoken an.

    Geben Sie das zuvor erstellte Zugriffstoken ein, und klicken Sie auf den Link Authenticate.

    ocne-ui-login

  3. Die Seite "UI-Überblick" wird angezeigt.

    ocne-ui-webui

    Klicken Sie im Popup-Fenster KI-Assistent konfigurieren auf die Schaltfläche Einstellungen öffnen.

    Hinweis: Im Abschnitt Ereignis der Landingpage werden möglicherweise einige Warnungen aufgeführt. Dieses Verhalten ist normal und wird nach einigen Minuten gelöscht.

  4. Dadurch wird die Konfigurationsseite für den ai-assistant im Abschnitt Einstellungen geöffnet.

ocne-ui-webui

Hinweis: Deaktivieren Sie die Schaltfläche Kubernetes-API-Anforderung im Abschnitt KI-Tools.

Lokalen Provider konfigurieren

  1. Klicken Sie auf die Schaltfläche Add Provider.

    ocne-ui-webui

  2. Bestätigen Sie das Dialogfeld Bedingungen und wichtige Informationen.

    ocne-ui-login

  3. Klicken Sie auf die Menüoption Cluster und dann auf den Link Local Models.

    ocne-ui-login

    Hinweis: Geben Sie die korrekten Details für das lokale Ollama-Modell ein, das Sie verwenden. Dieses Beispiel zeigt das zuvor eingerichtete Modell llama3.2.

  4. Klicken Sie auf das Symbol Save, um die Providereinstellungen zu speichern.

    Der AI-Assistent ist jetzt konfiguriert und kann jetzt verwendet werden.

Bestätigen Sie, dass der AI-Assistent funktioniert.

  1. Klicken Sie auf die Menüoption Cluster und dann auf Knoten, um zur Seite Knoten zu gelangen.

    ocne-ui-login

  2. Klicken Sie auf die Schaltfläche AI Assistant oben rechts auf dem Hauptbildschirm.

    ocne-ui-login

  3. Das Fenster "AI-Assistent" wird angezeigt.

    ocne-ui-login

  4. Klicken Sie auf das Dropdown-Listenfeld, um das Modell von der Standardoption (llama2) in das neu konfigurierte lokale Modell (llama3.2) zu ändern.

    ocne-ui-login

  5. Stellen Sie dem KI-Assistenten eine Frage im Textfeld "Ask AI".

    Fügen Sie dieses Beispiel in das Textfeld Ask AI ein.

    How many nodes are present?
  6. Klicken Sie auf die Schaltfläche Senden, um die Frage weiterzuleiten.

    ocne-ui-login

    Hinweis: Die Zeit, die der KI-Assistent benötigt, um zu reagieren, hängt von mehreren Faktoren ab, wie den Ressourcen, die für das konfigurierte LLM-Modell verfügbar sind, und der Komplexität der Frage, die gestellt wird.

  7. Der KI-Assistent gibt eine Antwort zurück.

    ocne-ui-login

    Hinweis: Der genaue Wortlaut, der in der Antwort verwendet wird, kann zwischen Anforderungen leicht variieren.

  8. Dies bestätigt, dass der KI-Assistent funktioniert.

Nächste Schritte

Durch diese Schritte wissen Sie jetzt, wie Sie den Zugriff auf die Oracle Cloud Native Environment-Benutzeroberfläche (UI) aktivieren und für die Verwendung eines LLM konfigurieren. Sie können die vielen Funktionen und Funktionen erkunden, die wir in zukünftigen Tutorials behandeln werden.

Weitere Lernressourcen

Sehen Sie sich weitere Übungen zu docs.oracle.com/learn an, oder greifen Sie auf weitere kostenlose Lerninhalte im Oracle Learning YouTube-Kanal zu. Besuchen Sie außerdem education.oracle.com/learning-explorer, um ein Oracle Learning Explorer zu werden.

Die Produktdokumentation finden Sie im Oracle Help Center.