Configuration de LangChain pour l'IA générative
Configurez les packages LangChain, y compris les packages pour l'intégration à OCI Generative AI. Testez ensuite l'installation en discutant avec un modèle hébergé sur OCI Generative AI.
Généralités
Tâches clés :
- Installez les packages OCI LangChain et LangChain.
- Exécutez le code Python et recevez une réponse du modèle.
Pour plus d'informations, reportez-vous aux ressources suivantes :
Avant de commencer
Pour effectuer ce tutoriel, vous devez avoir la configuration suivante en place.
- Un environnement MacOS, Linux ou Windows avec le sous-système Windows pour Linux (WSL).
- Python 3 est installé. Pour connaître les versions de Python prises en charge, reportez-vous à la documentation du kit SDK Python.
- Vous avez effectué les tutoriels suivants :
1. Installer LangChain
2. Installation du package OCI LangChain
3. Collecte des informations requises
Collectez toutes les informations dont vous avez besoin pour effectuer ce tutoriel. Copiez les informations requises dans un fichier texte sécurisé.
Ce tutoriel envoie un message de discussion au modèle Meta Llama 4 Scout hébergé sur OCI Generative AI et reçoit une réponse. Le coût d'un message de chat à la demande est proche de zéro dollar, mais ce n'est pas gratuit. Avec cette section, nous voulons que vous appreniez à calculer les coûts et à décider quel modèle utiliser lorsque vous avez des milliers de transactions.
3.1 Obtenir l'ID de région et de modèle
Accédez à Modèles de base préentraînés dans l'IA générative et sélectionnez Meta Llama 4 Scout (Nouveau).
- Dans la section Disponible dans ces régions, copiez une région non répertoriée en tant que (cluster d'IA dédié uniquement) : US Midwest (Chicago)
- Dans la section Mode à la demande, copiez le nom de modèle OCI de la table :
meta.llama-4-scout-17b-16e-instruct
3.2 Obtention des informations sur les compartiments
Pour obtenir l'OCID d'un compartiment, procédez comme suit :
3.3 Obtenir le chemin d'accès au fichier de configuration
Dans le tutoriel Configuration de l'authentification d'API pour OCI, copiez les informations suivantes :
- Chemin d'accès au fichier de configuration, tel que
<your-home-directory>/.oci/config - Nom du profil d'authentification à utiliser dans le fichier de configuration. Par exemple, Par défaut.
3.4 Obtenir l'adresse d'API d'inférence
3.5 Informations collectées
Veillez à avoir noté les informations suivantes pour le tutoriel.
-
ID de compartiment :
<sandbox-compartment>Exemple :
ocid1.compartment.oc1.aaaaaaa... -
ID de modèle :
meta.llama-4-scout-17b-16e-instruct -
Adresse d'API :
https://inference.generativeai.us-chicago-1.oci.oraclecloud.com - Chemin du fichier de configuration :
<path-to-config-fileExemple :
<your-home-directory>/.oci/config - Nom du profil d'authentification dans le fichier de configuration :
<auth-profile-name-in-config-file>Exemple :
Default
4. Discussion
Discutez à l'aide d'un modèle hébergé dans OCI Generative AI. Atteignez ce modèle avec le package langchain-oci.
Veillez à effectuer les étapes de <sandbox-compartment>. Vous n'êtes peut-être pas autorisé à visualiser ou à créer des ressources dans la location ou dans d'autres compartiments.