API de Respostas do OCI

A API de Respostas da OCI é a API nativa da OCI para workflows agênticos.

Sobre a API de Respostas do OCI

A API OCI Responses permite compor primitivas modulares para suportar cargas de trabalho agênticas. Você pode configurar esses recursos no nível de solicitação:

  • Orquestração para executar workflows agênticos em uma única etapa ou em várias etapas
  • Razão para ativar ou desativar o argumento
  • Ferramentas para usar ferramentas gerenciadas pela plataforma, ferramentas de função do lado do cliente, ou ambas
  • Estado da conversa para gerenciar o estado no lado do serviço ou no aplicativo cliente

Essa abordagem fornece:

  • Flexibilidade para criar assistentes simples ou agentes de várias etapas mais complexos usando a mesma API
  • Precisão para controlar custo, latência e comportamento
  • Simplicidade porque você não precisa criar e gerenciar ferramentas como recursos de nuvem separados

URL Base

Use a API de Respostas do OCI no seguinte URL base:

https://inference.generativeai.<available-region>.oci.oraclecloud.com/openai/v1

Substitua <available-region> por um identificador de região, como generativeai.us-chicago-1.

Para obter as regiões disponíveis, consulte Regiões Disponíveis da API Autentic.

SDKs e frameworks suportados

Você pode usar a API de Respostas do OCI com o OpenAI SDK. Você também pode usá-lo com estruturas de agente compatíveis do lado do cliente.

O SDK OpenAI suporta estes idiomas:

  • Python
  • Java
  • TypeScript
  • Go
  • .NET

Mais suporte a idiomas está disponível através de bibliotecas comunitárias.

As estruturas de agentes compatíveis incluem:

  • OpenAI SDK dos Agentes (recomendado)
  • OpenAI Codex SDK
  • Estrutura do Microsoft Agent
  • LangChain
  • LangGraph
  • CrewAI
  • AutoGen
  • LlamaIndex
  • Pydantic

Comparar a API de Respostas do OCI e as Conclusões do Chat

Dimensão API de Respostas do OCI API do OCI Chat usando a API de Conclusões de Chat
Uso principal API unificada para interação de modelo e recursos agênticos API para interação de modelo
Melhor ajuste Chat interativo, cargas de trabalho ágeis e tarefas de longa execução Chatbots interativos e conclusão de texto
Orquestração Raciocínio integrado de várias etapas e várias chamadas de ferramentas Inferência ou geração de etapa única; fluxos de várias etapas exigem orquestração externa
Gerenciamento de contexto Com monitoramento de estado por padrão, com uso sem monitoramento de estado opcional Somente sem estado; o cliente gerencia o histórico de conversas
Suporte a ferramentas Ferramentas integradas, como File Search, Code Interpreter e MCP remoto Limitado a ferramentas do lado do cliente por meio de chamada de função
Suporte multimodal Suporte nativo para texto, imagens, arquivos e blocos de conteúdo estruturado Principalmente texto, com suporte multimodal limitado dependendo da versão do modelo
Streaming Streaming baseado em eventos com eventos refinados Streaming baseado em token
Saída estruturada Saídas estruturadas nativas e aplicação de esquema JSON O modo JSON é suportado, mas é menos composível
Integração de arquivos e vetores Integração direta com API de Arquivos e API de Armazenamentos de Vetores Requer orquestração separada
Extensibilidade Projetado para agentes hospedados, ferramentas de MCP, memória e contêineres Projetado principalmente para aplicativos de chat

Comparar a API de Respostas do OCI e a API de Respostas do OpenAI

Capacidade API de Respostas do OCI OpenAI API de Respostas
Escolha do modelo Suporta modelos hospedados na OCI e modelos não OpenAI Somente modelos OpenAI
Infraestrutura de serviço de modelo Infraestrutura compartilhada OCI ou clusters de IA dedicados OpenAI infraestrutura compartilhada
Autenticação Chaves de API ou IAM do OCI Chaves de API
Retenção de dados Seus dados permanecem na OCI Seus dados são armazenados em OpenAI
Rede privada Suporta integração de VCN do OCI e pontos finais privados Não disponível
Modelo de ponto final Pontos finais regionais Ponto final global

Recomendações

Use o SDK OpenAI quando:

  • Você não precisa de uma estrutura do lado do cliente para orquestrar ferramentas de função
  • Suas ferramentas são executadas no lado do servidor, incluindo ferramentas MCP remotas
  • Você usa a API de Conversas para gerenciar a memória da sessão
  • Seu aplicativo é uma interface mais simples, como um aplicativo móvel ou site estático, sem um backend complexo

Use uma estrutura de agente com o SDK OpenAI quando:

  • Você precisa orquestrar ferramentas de função do lado do cliente
  • Você precisa de recursos de execução no lado do cliente, como shell local ou acesso ao sistema de arquivos
  • Você precisa coordenar vários agentes no lado do cliente
  • Você gerencia a memória de sessão usando sua própria solução ou um sistema de terceiros