API de Respostas do OCI
A API de Respostas da OCI é a API nativa da OCI para workflows agênticos.
Instalação
Python
Instale o pacote Python de Autenticação do OCI GenAI:
pip install oci-genai-authConsulte Pacote de autenticação GenAI do OCI em GitHub.
Java
Consulte OCI GenAI Auth Java SDK em GitHub .
Sobre a API de Respostas do OCI
A API OCI Responses permite compor primitivas modulares para suportar cargas de trabalho agênticas. Você pode configurar esses recursos no nível de solicitação:
- Orquestração para executar workflows agênticos em uma única etapa ou em várias etapas
- Razão para ativar ou desativar o argumento
- Ferramentas para usar ferramentas gerenciadas pela plataforma, ferramentas de função do lado do cliente, ou ambas
- Estado da conversa para gerenciar o estado no lado do serviço ou no aplicativo cliente
Essa abordagem fornece:
- Flexibilidade para criar assistentes simples ou agentes de várias etapas mais complexos usando a mesma API
- Precisão para controlar custo, latência e comportamento
- Simplicidade porque você não precisa criar e gerenciar ferramentas como recursos de nuvem separados
URL Base
Use a API de Respostas do OCI no seguinte URL base:
https://inference.generativeai.<available-region>.oci.oraclecloud.com/openai/v1Substitua <available-region> por um identificador de região, como generativeai.us-chicago-1.
Para obter as regiões disponíveis, consulte Regiões Disponíveis da API Autentic.
SDKs e frameworks suportados
Você pode usar a API de Respostas do OCI com o OpenAI SDK. Você também pode usá-lo com estruturas de agente compatíveis do lado do cliente.
O SDK OpenAI suporta estes idiomas:
- Python
- Java
- TypeScript
- Go
- .NET
Mais suporte a idiomas está disponível através de bibliotecas comunitárias.
As estruturas de agentes compatíveis incluem:
- OpenAI SDK dos Agentes (recomendado)
- OpenAI Codex SDK
- Estrutura do Microsoft Agent
- LangChain
- LangGraph
- CrewAI
- AutoGen
- LlamaIndex
- Pydantic
Comparar a API de Respostas do OCI e as Conclusões do Chat
| Dimensão | API de Respostas do OCI | API do OCI Chat usando a API de Conclusões de Chat |
|---|---|---|
| Uso principal | API unificada para interação de modelo e recursos agênticos | API para interação de modelo |
| Melhor ajuste | Chat interativo, cargas de trabalho ágeis e tarefas de longa execução | Chatbots interativos e conclusão de texto |
| Orquestração | Raciocínio integrado de várias etapas e várias chamadas de ferramentas | Inferência ou geração de etapa única; fluxos de várias etapas exigem orquestração externa |
| Gerenciamento de contexto | Com monitoramento de estado por padrão, com uso sem monitoramento de estado opcional | Somente sem estado; o cliente gerencia o histórico de conversas |
| Suporte a ferramentas | Ferramentas integradas, como File Search, Code Interpreter e MCP remoto | Limitado a ferramentas do lado do cliente por meio de chamada de função |
| Suporte multimodal | Suporte nativo para texto, imagens, arquivos e blocos de conteúdo estruturado | Principalmente texto, com suporte multimodal limitado dependendo da versão do modelo |
| Streaming | Streaming baseado em eventos com eventos refinados | Streaming baseado em token |
| Saída estruturada | Saídas estruturadas nativas e aplicação de esquema JSON | O modo JSON é suportado, mas é menos composível |
| Integração de arquivos e vetores | Integração direta com API de Arquivos e API de Armazenamentos de Vetores | Requer orquestração separada |
| Extensibilidade | Projetado para agentes hospedados, ferramentas de MCP, memória e contêineres | Projetado principalmente para aplicativos de chat |
Comparar a API de Respostas do OCI e a API de Respostas do OpenAI
| Capacidade | API de Respostas do OCI | OpenAI API de Respostas |
|---|---|---|
| Escolha do modelo | Suporta modelos hospedados na OCI e modelos não OpenAI | Somente modelos OpenAI |
| Infraestrutura de serviço de modelo | Infraestrutura compartilhada OCI ou clusters de IA dedicados | OpenAI infraestrutura compartilhada |
| Autenticação | Chaves de API ou IAM do OCI | Chaves de API |
| Retenção de dados | Seus dados permanecem na OCI | Seus dados são armazenados em OpenAI |
| Rede privada | Suporta integração de VCN do OCI e pontos finais privados | Não disponível |
| Modelo de ponto final | Pontos finais regionais | Ponto final global |
Recomendações
Use o SDK OpenAI quando:
- Você não precisa de uma estrutura do lado do cliente para orquestrar ferramentas de função
- Suas ferramentas são executadas no lado do servidor, incluindo ferramentas MCP remotas
- Você usa a API de Conversas para gerenciar a memória da sessão
- Seu aplicativo é uma interface mais simples, como um aplicativo móvel ou site estático, sem um backend complexo
Use uma estrutura de agente com o SDK OpenAI quando:
- Você precisa orquestrar ferramentas de função do lado do cliente
- Você precisa de recursos de execução no lado do cliente, como shell local ou acesso ao sistema de arquivos
- Você precisa coordenar vários agentes no lado do cliente
- Você gerencia a memória de sessão usando sua própria solução ou um sistema de terceiros