Configurer LangChain pour l'IA générative

Configurez des ensembles LangChain, y compris des ensembles pour l'intégration avec le service d'intelligence artificielle générative pour OCI. Testez ensuite l'installation en clavardant avec un modèle hébergé sur le service d'intelligence artificielle générative pour OCI.

1. Installer LangChain

  1. Installez l'ensemble langchain à l'aide de pip :
    pip install -U langchain

    Cette commande installe ou met à niveau l'ensemble langchain vers la dernière version disponible. Si une version plus ancienne est déjà installée, pip remplace l'ensemble par la version la plus récente.

  2. Vérifiez que l'ensemble langchain est installé. Entrez la commande suivante .
    pip show langchain

    La commande affiche les détails de l'ensemble langchain, y compris les ensembles requis pour l'utilisation de cet ensemble. Par exemple :

    Requires: langchain-core, langchain-text-splitters, 
    langsmith, pydantic, PyYAML, requests, SQLAlchemy
  3. Vérifiez que les ensembles requis sont installés. Entrez la commande suivante :
    pip list

    Installez les ensembles manquants.

  4. Vérifiez que l'installation fonctionne.
    python3 -c "import langchain; 
    print(langchain.__version__)"

    Cette commande imprime la version de l'ensemble langchain.

2. Installer l'ensemble OCI LangChain

  1. Installez l'ensemble langchain-oci à l'aide de pip :
    pip install -U langchain-oci
    Important

    Les fonctions d'intégration OCI disponibles dans l'ensemble langchain-community sont maintenant obsolètes. Assurez-vous d'installer l'ensemble langchain-oci à l'aide de la commande précédente.
  2. Vérifiez que l'ensemble langchain-oci est installé. Entrez la commande suivante .
    pip show langchain-oci

    Recherchez les ensembles requis pour l'utilisation de l'ensemble langchain-oci. Par exemple :

    Requires: aiohttp, langchain, langchain-core, oci, pydantic
  3. Vérifiez que les ensembles requis sont installés. Entrez la commande suivante :
    pip list

    Installez les ensembles manquants.

3. Collecter les informations requises

Collectez toutes les informations dont vous aurez besoin pour suivre ce tutoriel. Copiez les informations requises dans un fichier texte sécurisé.

Rechercher le coût du clavardage (facultatif)

Ce tutoriel envoie un message de clavardage au modèle Meta Llama 4 Scout hébergé dans l'IA générative d'OCI et reçoit une réponse. Le coût d'un message de clavardage à la demande est proche de zéro dollar, mais ce n'est pas gratuit. Cette section vous permet d'apprendre à calculer le coût et de décider du modèle à utiliser lorsque vous avez des milliers de transactions.

  1. Naviguez jusqu'à la page Tarification et sélectionnez un modèle en fonction de son prix pour 10 000 transactions (10 000 caractères). Au lieu de 10 000 transactions, certains prix sont indiqués pour 1 000 000 jetons. Estimation de 3 à 4 caractères par jeton.

    Ce tutoriel utilise environ 200 caractères ou 53 jetons pour l'entrée et à peu près la même quantité pour sa sortie, ce qui équivaut à environ 400 caractères ou 106 jetons, alors arrondissons-le jusqu'à environ 500 caractères.

  2. Si votre organisation approuve le coût d'Oracle Cloud Infrastructure Generative AI - Meta Llama 4 Scout pour 500 caractères, utilisez les informations fournies dans ce tutoriel. Sinon, dans les étapes du tutoriel, remplacez le modèle Scout Meta Llama 4 par un modèle approuvé.
  3. Pour les transactions plus importantes, vous pouvez également accéder à l'outil d'estimation des coûts en sélectionnant la catégorie IA et apprentissage automatique et en chargeant l'estimateur de coûts pour l'IA générative d'OCI. Voici des exemples de valeurs pour ce tutoriel :
    • Mesure de service : sur demande
    • Fournisseur de modèle : Meta
    • Modèle : Llama 4 Scout
    • Nombre prévu de demandes par mois : 5 (Supposons que vous exécutiez le fichier Python 5 fois)
    • Longueur de l'invite (en caractères) : 200 (pour ce tutoriel)
    • Longueur de la réponse (en caractères) : 200 (pour ce tutoriel)

3.2 Obtenir des informations sur le compartiment

Pour obtenir l'OCID d'un compartiment :

  1. Ouvrez le menu de navigation et sélectionnez Identité et sécurité. Sous Identité, sélectionnez Compartiments.
  2. Sélectionnez le compartiment que vous avez créé pour le tutoriel Créer un utilisateur de bac à sable pour les tutoriels.
  3. Sélectionnez le lien Copier pour le champ OCID.

    Enregistrez l'OCID du compartiment.

    Exemple : ocid1.compartment.oc1..xxx

3.3 Obtenir le chemin d'accès au fichier de configuration

Dans le tutoriel Configurer l'authentification d'API pour OCI, copiez les informations suivantes :

  • Chemin d'accès au fichier de configuration tel que <your-home-directory>/.oci/config
  • Nom du profil d'authentification à utiliser dans le fichier de configuration. Par exemple, Par défaut.

3.4 Obtenir le point d'extrémité de l'API d'inférence

  1. Allez à API d'inférence d'IA générative.
  2. Dans les points d'extrémité d'API listés, copiez le point d'extrémité pour la région de Chicago :
    https://inference.generativeai.us-chicago-1.oci.oraclecloud.com

3.5 Informations collectées

Notez les informations suivantes pour le tutoriel.

  • ID compartiment : <sandbox-compartment>

    Exemple : ocid1.compartment.oc1.aaaaaaa...

  • ID modèle : meta.llama-4-scout-17b-16e-instruct
  • Point d'extrémité d'API : https://inference.generativeai.us-chicago-1.oci.oraclecloud.com
  • Chemin du fichier de configuration : <path-to-config-file

    Exemple : <your-home-directory>/.oci/config

  • Authentication Profile Name in config File (Nom du profil d'authentification dans le fichier de configuration) : <auth-profile-name-in-config-file>

    Exemple : Default

4. Clavarder

Clavarder à l'aide d'un modèle hébergé dans le service d'intelligence artificielle générative pour OCI. Atteignez ce modèle avec l'ensemble langchain-oci.

Important

Assurez-vous d'effectuer les étapes de votre <sandbox-compartment>. Vous n'êtes peut-être pas autorisé à voir ou à créer des ressources dans la location ou dans d'autres compartiments.
  1. Créez un fichier nommé langchain-1-translate.py.
  2. Ajoutez le code suivant à langchain-1-translate.py.
    from langchain.prompts import ChatPromptTemplate
    from langchain_oci.chat_models import ChatOCIGenAI
    from langchain.schema.output_parser import StrOutputParser
    
    prompt = ChatPromptTemplate.from_template("""Translate the following text into French. 
    If the text is a question, first translate the question 
    and then answer the question in French.: {text}""")
    
    llm = ChatOCIGenAI(
        model_id="meta.llama-4-scout-17b-16e-instruct",
        service_endpoint="https://inference.generativeai.us-chicago-1.oci.oraclecloud.com",
        compartment_id="<sandbox-compartment>",
        model_kwargs={"temperature": 0, "max_tokens": 500},
        auth_profile="<auth-profile-name-in-config-file>",  
        auth_file_location="<path-to-config-file>",
        )
    
    output_parser = StrOutputParser()
    
    chain = prompt | llm | output_parser
    input_data = {"text": "What are the four seasons in a year?"}
    
    result = chain.invoke(input_data)
    print(result)
    
  3. Exécutez le fichier Python langchain-1-translate.py avec la commande suivante.
    python3 langchain-1-translate.py

    Exemple de réponse :

    The translation of the question is:
    
    Quelles sont les quatre saisons dans une année ?
    
    And the answer is:
    
    Les quatre saisons dans une année sont : le printemps, l'été, l'automne et l'hiver.