Configurar o LangChain para IA Generativa
Configure pacotes LangChain, incluindo pacotes para integração com o OCI Generative AI. Em seguida, teste a instalação conversando com um modelo hospedado no OCI Generative AI.
Visão Geral
Tarefas principais:
- Instale os pacotes do OCI LangChain e LangChain.
- Execute o código Python e receba uma resposta do modelo.
Para obter mais informações, consulte os recursos a seguir:
Antes de Começar
Para executar este tutorial com sucesso, você deve ter a seguinte configuração em vigor.
- Um ambiente MacOS, Linux ou Windows com o Windows Subsystem for Linux (WSL).
- Python 3 instalado. Para obter as versões do Python suportadas, consulte a documentação do Python SDK.
- Executou os seguintes tutoriais:
1. Instalar LangChain
2. Instalar o Pacote do OCI LangChain
3. Reunir as Informações Necessárias
Colete todas as informações que você precisa para completar este tutorial. Copie as informações necessárias em um arquivo de texto seguro.
Este tutorial envia uma mensagem de chat ao modelo Meta Llama 4 Scout hospedado no OCI Generative AI e recebe uma resposta. O custo de uma mensagem de chat sob demanda é quase zero, mas não é gratuito. Nesta seção, queremos que você aprenda a calcular o custo e decida qual modelo usar quando tiver milhares de transações.
3.1 Obter Região e ID do Modelo
Navegue até Modelos Básicos Pré-treinados Oferecidos no Serviço Generative AI e selecione Meta Llama 4 Scout.
- Na seção Regiões para este Modelo, copie uma região não listada como (somente cluster de IA dedicado): US Midwest (Chicago)
- Na seção Modo sob Demanda, copie o Nome do Modelo do OCI da tabela:
meta.llama-4-scout-17b-16e-instruct
3.2 Obter Informações do Compartimento
Para obter o OCID do compartimento de um compartimento:
3.3 Obter Caminho para o Arquivo de Configuração
No tutorial Configurar Autenticação de API para o OCI, copie as seguintes informações:
- Caminho para o arquivo de configuração, como
<your-home-directory>/.oci/config - Nome do perfil de autenticação a ser usado no arquivo de configuração. Por exemplo, Padrão.
3.4 Obter Ponto Final da API de Inferência
3.5 Informações Coletadas
Verifique se você tem as seguintes informações anotadas para o tutorial.
-
ID do Compartimento:
<sandbox-compartment>Exemplo:
ocid1.compartment.oc1.aaaaaaa... -
ID do Modelo:
meta.llama-4-scout-17b-16e-instruct -
Ponto Final da API:
https://inference.generativeai.us-chicago-1.oci.oraclecloud.com - Caminho do Arquivo de Configuração:
<path-to-config-fileExemplo:
<your-home-directory>/.oci/config - Nome do Perfil de Autenticação no Arquivo de configuração:
<auth-profile-name-in-config-file>Exemplo:
Default
4. Chat
Converse usando um modelo hospedado na OCI Generative AI. Alcance esse modelo com o pacote langchain-oci.
Certifique-se de executar as etapas no <sandbox-compartment>. Talvez você não tenha permissão para exibir ou criar recursos na tenancy ou em outros compartimentos.