LangChain für generative KI einrichten
Richten Sie LangChain-Packages ein, einschließlich Packages für die Integration mit OCI Generative AI. Testen Sie anschließend die Installation, indem Sie mit einem auf OCI Generative AI gehosteten Modell chatten.
Überblick
Wichtige Aufgaben:
- Installieren Sie die OCI-Packages LangChain und LangChain.
- Führen Sie den Python-Code aus, und erhalten Sie eine Antwort vom Modell.
Weitere Informationen finden Sie in den folgenden Ressourcen:
Bevor Sie beginnen
Damit dieses Tutorial erfolgreich ausgeführt werden kann, benötigen Sie die folgende Konfiguration.
- Eine MacOS-, Linux- oder Windows-Umgebung mit einem Windows-Subsystem für Linux (WSL).
- Python 3 installiert. Die unterstützten Python-Versionen finden Sie in der Dokumentation zum Python-SDK.
- Die folgenden Tutorials wurden durchgeführt:
1. LangChain installieren
2. OCI-Package LangChain installieren
3. Erforderliche Informationen erfassen
Sammeln Sie alle Informationen, die Sie für die Fertigstellung dieses Tutorials brauchen. Kopieren Sie die erforderlichen Informationen in eine sichere Textdatei.
In diesem Tutorial wird eine Chatnachricht an das auf OCI Generative AI gehostete Meta Llama 4 Scout-Modell gesendet und eine Antwort erhalten. Die kosten für eine on-demand-chat-nachricht sind fast null dollar, aber es ist nicht kostenlos. Mit diesem Abschnitt möchten wir, dass Sie lernen, wie Sie Kosten berechnen und entscheiden, welches Modell Sie verwenden sollen, wenn Sie Tausende von Transaktionen haben.
3.1 Region und Modell-ID abrufen
Navigieren Sie zu Pretrained Foundational Models in Generative AI, und wählen Sie Meta Llama 4 Scout (New) aus.
- Kopieren Sie im Abschnitt In diesen Regionen verfügbar eine Region, die nicht aufgeführt ist (nur dediziertes KI-Cluster): US Midwest (Chicago)
- Kopieren Sie im Abschnitt On-Demand-Modus den OCI-Modellnamen aus der Tabelle:
meta.llama-4-scout-17b-16e-instruct
3.2 Compartment-Informationen abrufen
So rufen Sie die Compartment-OCID eines Compartments ab:
3.3 Pfad zur Konfigurationsdatei abrufen
Kopieren Sie im Tutorial API-Authentifizierung für OCI einrichten die folgenden Informationen:
- Pfad zur Konfigurationsdatei wie
<your-home-directory>/.oci/config - Authentifizierungsprofilname, der in der Konfigurationsdatei verwendet werden soll. Beispiel: Standard.
3.4 Inferenz-API-Endpunkt abrufen
3.5 Erfasste Informationen
Stellen Sie sicher, dass Sie die folgenden Informationen für das Tutorial notiert haben.
-
Compartment-ID:
<sandbox-compartment>Beispiel:
ocid1.compartment.oc1.aaaaaaa... -
Modell-ID:
meta.llama-4-scout-17b-16e-instruct -
API-Endpunkt:
https://inference.generativeai.us-chicago-1.oci.oraclecloud.com - Pfad der Konfigurationsdatei:
<path-to-config-fileBeispiel:
<your-home-directory>/.oci/config - Authentifizierungsprofilname in Konfigurationsdatei:
<auth-profile-name-in-config-file>Beispiel:
Default
4. Chat
Chatten Sie mit einem in OCI Generative AI gehosteten Modell. Erreichen Sie dieses Modell mit dem Package langchain-oci.
Stellen Sie sicher, dass Sie die Schritte in Ihrer <sandbox-compartment> ausführen. Möglicherweise sind Sie nicht berechtigt, Ressourcen im Mandanten oder in anderen Compartments anzuzeigen oder zu erstellen.