API de Respostas do OCI

Use a API do OCI Responses para chamar modelos suportados, gerar saídas de modelo e criar workflows baseados em ferramentas ou em várias etapas por meio de uma única API compatível com OpenAI e compatível com Open Responses. Ele suporta entradas de texto e imagem e saídas de texto. Você pode usá-lo para criar interações com monitoramento de estado com o histórico de conversas, adicionar ferramentas suportadas, como Pesquisa de Arquivos e Interpretador de Códigos, e conectar o modelo a sistemas externos por meio de Chamada de Função e Chamada MCP.

Como a API de Respostas se Encaixa no Agent Building

Use a API de Respostas com os seguintes componentes de criação de agente no OCI Generative AI:

Componente Finalidade
API de Respostas A principal API compatível com OpenAI para interagir com modelos suportados e fluxos de trabalho agênticos.
Ferramentas do Agente Ferramentas para a API de Respostas, incluindo Pesquisa de Arquivo, Intérprete de Código, Chamada de Função e Chamada MCP.
Memória do Agente Memória para a API Conversations, incluindo acesso à memória de longo prazo e compactação de contexto de memória de curto prazo.
Blocos de Construção de Agentes Fundamentais API básica compatível com OpenAI, como Files, Vector Stores e Containers API, que você pode usar com a API Responses para controle direto sobre recursos.

Se necessário, você pode usar os blocos de construção básicos de baixo nível com a API de Respostas.

O que você pode fazer com a API de respostas

Use a API de Respostas para:

  • Chamar modelos hospedados suportados e modelos importados.
  • Envie entradas de texto e imagem e receba saídas de texto.
  • Gerar texto ou saídas estruturadas.
  • Execute prompts de uma única etapa ou fluxos de trabalho de várias etapas.
  • Adicione as ferramentas suportadas na solicitação.
  • Transmita respostas de volta para o cliente.
  • Usar o estado de conversa gerenciado pelo OCI por meio da API de Conversas.
  • Reutilize o histórico de conversas ou as saídas anteriores como contexto para solicitações posteriores.
  • Conecte o modelo a sistemas e dados externos por meio de Chamada de Função e Chamada MCP.
  • Combine solicitações de modelo com arquivos, armazenamentos de vetores ou contêineres quando necessário.

Isso permite que você comece com um prompt simples e expanda para fluxos de trabalho mais avançados sem alternar para uma API diferente.

Quando Usar a API de Respostas

Para a maioria dos novos aplicativos, comece com a API de Respostas.

Use-o quando quiser:

  • Use uma API para interação de modelo e recursos agentic.
  • Adicionar ferramentas suportadas a uma solicitação de modelo.
  • Usar histórico de conversas gerenciado pelo OCI.
  • Gerar saídas estruturadas.
  • Crie fluxos de trabalho que também possam usar arquivos, armazenamentos de vetores ou contêineres quando necessário.

Ponto Final de API Suportado

URL Base Caminho do Ponto Final Autenticação
https://inference.generativeai.${region}.oci.oraclecloud.com/openai/v1 /responses Chave de API ou sessão do IAM

Substitua ${region} por uma região suportada, como us-chicago-1.

Embora o formato de solicitação seja compatível com OpenAI, a autenticação usa credenciais da OCI, as solicitações são roteadas por meio de pontos finais de inferência da OCI Generative AI e os recursos e a execução permanecem na OCI.

Observação

A API de Respostas do OCI usa o mesmo formato da API de Respostas do OpenAI com o ponto final compatível com o OCI OpenAI. Para obter detalhes de sintaxe e solicitação, consulte a documentação da API OpenAI Responses. Se você usar ferramentas, certifique-se de usar apenas os tipos de ferramentas suportados pelo ponto final compatível com o OCI OpenAI.

Autenticação

Você pode acessar os pontos finais compatíveis com o OCI OpenAI de duas maneiras:

Use chaves de API para teste e desenvolvimento antecipado. Usar autenticação baseada em IAM para cargas de trabalho de produção e ambientes gerenciados pela OCI.

Antes de Começar

Antes de chamar a API de Respostas:

  • Crie um projeto do OCI Generative AI. As chamadas de API compatíveis com o OCI OpenAI exigem um projeto.
  • Configure o cliente com o URL base compatível com o OCI OpenAI.
  • Configure a autenticação.
  • Use um modelo suportado em uma região suportada.

Para obter as etapas de configuração, consulte Início Rápido, Autenticação e Modelos e Regiões Suportados.

Para chamar a API de Respostas pelo código, recomendamos usar o OpenAI SDK. Consulte o QuickStart.

Crie sua primeira resposta

O exemplo a seguir usa o OpenAI SDK com o ponto final compatível com o OCI OpenAI, uma chave de API do OCI Generative AI e um OCID de projeto:

from openai import OpenAI

client = OpenAI(
    base_url="https://inference.generativeai.us-chicago-1.oci.oraclecloud.com/openai/v1",
    api_key="sk-xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx",
    project="ocid1.generativeaiproject.oc1.us-chicago-1.xxxxxxxx",
)

response = client.responses.create(
    model="<supported-model-id>",
    input="Write a one-sentence explanation of what a database is."
)

print(response.output_text)

Neste exemplo:

  • base_url aponta para o ponto final compatível com o OCI OpenAI.
  • O client.responses.create(...) chama a API de Respostas do OCI.
  • O project identifica o projeto do OCI Generative AI para a solicitação.

Usar Memória do Agente com API de Respostas

Para permitir que a OCI gerencie o histórico de conversas em várias turnos, primeiro crie uma conversa:

conversation = client.conversations.create()

Em seguida, inclua o ID da conversa na solicitação da API de Respostas:


response = client.responses.create(
  model="<supported-model-id>",
  input=[
        {
            "role": "user",
            "content": "Recommend a restaurant based on the food I like."
        }
    ],
    conversation=conversation.id,
)

Use esse padrão quando quiser que o OCI gerencie o estado da conversa entre as solicitações.

Para obter mais informações sobre recursos de memória, consulte API de Conversas, Memória de Curto Prazo, Memória de Longo Prazo e Compação de Memória de Curto Prazo.

Usar Ferramentas com a API de Respostas

A API Respostas suporta workflows ativados por ferramenta por meio da propriedade tools. Para muitos casos de uso, você pode declarar as ferramentas na solicitação e permitir que a OCI Generative AI coordene a execução do modelo e o uso da ferramenta.

O suporte à ferramenta está disponível somente por meio da API.

Tipos de Ferramenta Suportados

O OCI Generative AI oferece suporte aos seguintes tipos de ferramentas com a API de Respostas:

Ferramenta tools[].type Descrição
Pesquisa de Arquivo "file_search" Permite que a pesquisa de modelo faça upload de arquivos e do conteúdo de armazenamento de vetores para respostas baseadas em recuperação.
Interpretador de códigos "code_interpreter" Permite que o código de execução do modelo seja executado em um ambiente sandbox gerenciado pela OCI.
Função de chamada "function" Permite que o usuário defina funções locais e que o aplicativo execute as funções e retorne os resultados ao modelo.
Chamada MCP "mcp" Dá ao modelo acesso a métodos expostos por um servidor MCP remoto.

Para etapas de definição e exemplos, selecione o link para cada ferramenta na tabela.

Observação

O OpenAI documenta outros tipos de ferramentas, mas o OCI Generative AI suporta apenas os tipos de ferramentas listados aqui para a API de Respostas. Outros recursos do OCI, como NL2SQL, são documentados separadamente e não são configurados por meio do campo tools da API de Respostas.

Exemplo: Chamada MCP

O exemplo a seguir define uma ferramenta MCP na solicitação:

response = client.responses.create(
    model="openai.gpt-oss-120b",
    tools=[
        {
            "type": "mcp",
            "server_url": "https://example.com/mcp",
        }
    ],
    input="What events are scheduled for 2026-04-02?"
)

Neste exemplo, a API de Respostas chama o modelo e passa a definição da ferramenta MCP como parte da mesma solicitação. Você não precisa de uma API específica de MCP separada.

Quando Usar a API Básica

Você pode usar os blocos de construção do agente básico de baixo nível com a API Respostas quando seu workflow precisar de controle direto sobre arquivos, armazenamentos de vetores ou contêineres.

Exemplos comuns incluem:

  • Fazendo upload de arquivos antes de enviar uma solicitação de modelo
  • Gerenciando o conteúdo do armazenamento de vetores diretamente
  • Reutilização de arquivos ou recursos em várias solicitações
  • Trabalhando com contêineres sandbox como parte de um fluxo de trabalho mais amplo

A API a seguir é comumente usada com a API de Respostas:

API Caminho do Ponto Final Uso Típico com a API Respostas
API de Arquivos /files Carregue e gerencie arquivos que você referencia posteriormente em uma solicitação de resposta.
API de Lojas de Vetores /vector_stores/... Gerencie o conteúdo do armazenamento de vetores usado para workflows de recuperação, como Pesquisa de Arquivo.
API de Contêineres /containers e /containers/{id}/files Gerencie recursos de sandbox usados em fluxos de trabalho habilitados para ferramentas.

Exemplo: Faça upload de um arquivo primeiro e use-o na API de Respostas

Primeiro carregue um arquivo:

file_response = client.files.create(
    file=open("example-document.pdf", "rb"),
    purpose="assistants"
)

file_id = file_response.id

Em seguida, faça referência ao arquivo carregado na solicitação da API de Respostas:

response = client.responses.create(
    model="<model-id>",
    input=[
        {
            "role": "user",
            "content": [
                { "type": "input_file", "file_id": file_id },
                { "type": "input_text", "text": "List all the cities mentioned in this document." }
            ]
        }
    ]
)

Neste exemplo, a API de Arquivos e a API de Respostas trabalham juntas em um workflow.

SDKs e Frameworks

Você pode usar a API de Respostas do OCI com o OpenAI SDK. Você também pode usá-lo com estruturas de agente compatíveis do lado do cliente.

O OpenAI SDK suporta estes idiomas:

  • Python
  • Java
  • TypeScript
  • Go
  • .NET

Mais suporte a idiomas está disponível através de bibliotecas comunitárias.

As estruturas de agentes compatíveis incluem:

  • SDK de Agentes OpenAI (recomendado)
  • OpenAI Codex SDK
  • Estrutura do Microsoft Agent
  • LangChain
  • LangGraph
  • IA da Equipe
  • Geração Automática
  • LamaÍndice
  • Pydantic

API de Respostas do OCI e API de Respostas do OpenAI

Recurso API de Respostas do OCI API de respostas OpenAI
Escolha do modelo Suporta modelos hospedados na OCI e modelos não OpenAI Somente modelos OpenAI
Infraestrutura de serviço de modelo Infraestrutura compartilhada OCI ou clusters de IA dedicados Infraestrutura compartilhada OpenAI
Autenticação Chaves de API ou IAM do OCI Chaves de API
Retenção de dados Os dados permanecem no OCI Os dados são armazenados na OpenAI
Rede privada Suporta integração de VCN do OCI e pontos finais privados Não disponível
Modelo de ponto final Pontos finais regionais Ponto final global