Configurar LangChain para IA generativa
Configura paquetes LangChain, incluidos paquetes para la integración con OCI Generative AI. A continuación, prueba la instalación chateando con un modelo alojado en OCI Generative AI.
Descripción general
Tareas clave:
- Instale los paquetes de OCI LangChain y LangChain.
- Ejecute el código Python y reciba una respuesta del modelo.
Para obtener más información, consulte los siguientes recursos:
Antes de empezar
Para realizar correctamente este tutorial, debe tener la siguiente configuración.
- Un entorno MacOS, Linux o Windows con el subsistema Windows para Linux (WSL).
- Python 3 instalado. Para conocer las versiones de Python soportadas, consulte la documentación del SDK de Python.
- Han realizado los siguientes tutoriales:
1. Instalar LangChain
2. Instalar el paquete OCI LangChain
3. Recopilación de la información necesaria
Recopile toda la información que necesita para completar este tutorial. Copie la información necesaria en un archivo de texto seguro.
Este tutorial envía un mensaje de chat al modelo Meta Llama 4 Scout alojado en OCI Generative AI y recibe una respuesta. El costo de un mensaje de chat bajo demanda es cercano a cero dólares, pero no es gratuito. Con esta sección, queremos que aprendas a calcular el coste y decidir qué modelo utilizar cuando tengas miles de transacciones.
3.1 Obtener ID de modelo y región
Vaya a Offered Pretrained Foundational Models in Generative AI y seleccione Meta Llama 4 Scout.
- En la sección Regiones para este modelo, copie una región que no aparezca como (solo el cluster de IA dedicado): Medio oeste de EE. UU. (Chicago)
- En la sección Modo bajo demanda, copie el nombre de modelo de OCI de la tabla:
meta.llama-4-scout-17b-16e-instruct
3.2 Obtención de la información de compartimento
Para obtener el OCID de compartimento de un compartimento:
3.3 Obtener ruta al archivo de configuración
En el tutorial Configuración de autenticación de API para OCI, copie la siguiente información:
- Ruta al archivo de configuración, como
<your-home-directory>/.oci/config - Nombre de perfil de autenticación que se utilizará en el archivo de configuración. Por ejemplo, Default.
3.4 Obtener punto final de API de inferencia
3.5 Información recopilada
Asegúrese de escribir la siguiente información para el tutorial.
-
ID de compartimento:
<sandbox-compartment>Ejemplo:
ocid1.compartment.oc1.aaaaaaa... -
ID de modelo:
meta.llama-4-scout-17b-16e-instruct -
Punto final de API:
https://inference.generativeai.us-chicago-1.oci.oraclecloud.com - Ruta de archivo de configuración:
<path-to-config-fileEjemplo:
<your-home-directory>/.oci/config - Nombre de perfil de autenticación en el archivo de configuración:
<auth-profile-name-in-config-file>Ejemplo:
Default
4. Chat
Chatea con un modelo alojado en OCI Generative AI. Llegue a este modelo con el paquete langchain-oci.
Asegúrese de realizar los pasos de <sandbox-compartment>. Puede que no tenga permiso para ver o crear recursos en el arrendamiento o en otros compartimentos.