API de Respostas do OCI
Use a API do OCI Responses para chamar modelos suportados, gerar saídas de modelo e criar workflows baseados em ferramentas ou em várias etapas por meio de uma única API compatível com OpenAI e compatível com Open Responses. Ele suporta entradas de texto e imagem e saídas de texto. Você pode usá-lo para criar interações com monitoramento de estado com o histórico de conversas, adicionar ferramentas suportadas, como Pesquisa de Arquivos e Interpretador de Códigos, e conectar o modelo a sistemas externos por meio de Chamada de Função e Chamada MCP.
Como a API de Respostas se Encaixa no Agent Building
Use a API de Respostas com os seguintes componentes de criação de agente no OCI Generative AI:
| Componente | Finalidade |
|---|---|
| API de Respostas | A principal API compatível com OpenAI para interagir com modelos suportados e fluxos de trabalho agênticos. |
| Ferramentas do Agente | Ferramentas para a API de Respostas, incluindo Pesquisa de Arquivo, Intérprete de Código, Chamada de Função e Chamada MCP. |
| Memória do Agente | Memória para a API Conversations, incluindo acesso à memória de longo prazo e compactação de contexto de memória de curto prazo. |
| Blocos de Construção de Agentes Fundamentais | API básica compatível com OpenAI, como Files, Vector Stores e Containers API, que você pode usar com a API Responses para controle direto sobre recursos. |
Se necessário, você pode usar os blocos de construção básicos de baixo nível com a API de Respostas.
O que você pode fazer com a API de respostas
Use a API de Respostas para:
- Chamar modelos hospedados suportados e modelos importados.
- Envie entradas de texto e imagem e receba saídas de texto.
- Gerar texto ou saídas estruturadas.
- Execute prompts de uma única etapa ou fluxos de trabalho de várias etapas.
- Adicione as ferramentas suportadas na solicitação.
- Transmita respostas de volta para o cliente.
- Usar o estado de conversa gerenciado pelo OCI por meio da API de Conversas.
- Reutilize o histórico de conversas ou as saídas anteriores como contexto para solicitações posteriores.
- Conecte o modelo a sistemas e dados externos por meio de Chamada de Função e Chamada MCP.
- Combine solicitações de modelo com arquivos, armazenamentos de vetores ou contêineres quando necessário.
Isso permite que você comece com um prompt simples e expanda para fluxos de trabalho mais avançados sem alternar para uma API diferente.
Quando Usar a API de Respostas
Para a maioria dos novos aplicativos, comece com a API de Respostas.
Use-o quando quiser:
- Use uma API para interação de modelo e recursos agentic.
- Adicionar ferramentas suportadas a uma solicitação de modelo.
- Usar histórico de conversas gerenciado pelo OCI.
- Gerar saídas estruturadas.
- Crie fluxos de trabalho que também possam usar arquivos, armazenamentos de vetores ou contêineres quando necessário.
Ponto Final de API Suportado
| URL Base | Caminho do Ponto Final | Autenticação |
|---|---|---|
https://inference.generativeai.${region}.oci.oraclecloud.com/openai/v1 |
/responses |
Chave de API ou sessão do IAM |
Substitua ${region} por uma região suportada, como us-chicago-1.
Embora o formato de solicitação seja compatível com OpenAI, a autenticação usa credenciais da OCI, as solicitações são roteadas por meio de pontos finais de inferência da OCI Generative AI e os recursos e a execução permanecem na OCI.
A API de Respostas do OCI usa o mesmo formato da API de Respostas do OpenAI com o ponto final compatível com o OCI OpenAI. Para obter detalhes de sintaxe e solicitação, consulte a documentação da API OpenAI Responses. Se você usar ferramentas, certifique-se de usar apenas os tipos de ferramentas suportados pelo ponto final compatível com o OCI OpenAI.
Autenticação
Você pode acessar os pontos finais compatíveis com o OCI OpenAI de duas maneiras:
Use chaves de API para teste e desenvolvimento antecipado. Usar autenticação baseada em IAM para cargas de trabalho de produção e ambientes gerenciados pela OCI.
Antes de Começar
Antes de chamar a API de Respostas:
- Crie um projeto do OCI Generative AI. As chamadas de API compatíveis com o OCI OpenAI exigem um projeto.
- Configure o cliente com o URL base compatível com o OCI OpenAI.
- Configure a autenticação.
- Use um modelo suportado em uma região suportada.
Para obter as etapas de configuração, consulte Início Rápido, Autenticação e Modelos e Regiões Suportados.
Para chamar a API de Respostas pelo código, recomendamos usar o OpenAI SDK. Consulte o QuickStart.
Crie sua primeira resposta
O exemplo a seguir usa o OpenAI SDK com o ponto final compatível com o OCI OpenAI, uma chave de API do OCI Generative AI e um OCID de projeto:
from openai import OpenAI
client = OpenAI(
base_url="https://inference.generativeai.us-chicago-1.oci.oraclecloud.com/openai/v1",
api_key="sk-xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx",
project="ocid1.generativeaiproject.oc1.us-chicago-1.xxxxxxxx",
)
response = client.responses.create(
model="<supported-model-id>",
input="Write a one-sentence explanation of what a database is."
)
print(response.output_text)
Neste exemplo:
base_urlaponta para o ponto final compatível com o OCI OpenAI.- O
client.responses.create(...)chama a API de Respostas do OCI. - O
projectidentifica o projeto do OCI Generative AI para a solicitação.
Usar Memória do Agente com API de Respostas
Para permitir que a OCI gerencie o histórico de conversas em várias turnos, primeiro crie uma conversa:
conversation = client.conversations.create()
Em seguida, inclua o ID da conversa na solicitação da API de Respostas:
response = client.responses.create(
model="<supported-model-id>",
input=[
{
"role": "user",
"content": "Recommend a restaurant based on the food I like."
}
],
conversation=conversation.id,
)
Use esse padrão quando quiser que o OCI gerencie o estado da conversa entre as solicitações.
Para obter mais informações sobre recursos de memória, consulte API de Conversas, Memória de Curto Prazo, Memória de Longo Prazo e Compação de Memória de Curto Prazo.
Usar Ferramentas com a API de Respostas
A API Respostas suporta workflows ativados por ferramenta por meio da propriedade tools. Para muitos casos de uso, você pode declarar as ferramentas na solicitação e permitir que a OCI Generative AI coordene a execução do modelo e o uso da ferramenta.
O suporte à ferramenta está disponível somente por meio da API.
Tipos de Ferramenta Suportados
O OCI Generative AI oferece suporte aos seguintes tipos de ferramentas com a API de Respostas:
| Ferramenta | tools[].type |
Descrição |
|---|---|---|
| Pesquisa de Arquivo | "file_search" |
Permite que a pesquisa de modelo faça upload de arquivos e do conteúdo de armazenamento de vetores para respostas baseadas em recuperação. |
| Interpretador de códigos | "code_interpreter" |
Permite que o código de execução do modelo seja executado em um ambiente sandbox gerenciado pela OCI. |
| Função de chamada | "function" |
Permite que o usuário defina funções locais e que o aplicativo execute as funções e retorne os resultados ao modelo. |
| Chamada MCP | "mcp" |
Dá ao modelo acesso a métodos expostos por um servidor MCP remoto. |
Para etapas de definição e exemplos, selecione o link para cada ferramenta na tabela.
O OpenAI documenta outros tipos de ferramentas, mas o OCI Generative AI suporta apenas os tipos de ferramentas listados aqui para a API de Respostas. Outros recursos do OCI, como NL2SQL, são documentados separadamente e não são configurados por meio do campo tools da API de Respostas.
Exemplo: Chamada MCP
O exemplo a seguir define uma ferramenta MCP na solicitação:
response = client.responses.create(
model="openai.gpt-oss-120b",
tools=[
{
"type": "mcp",
"server_url": "https://example.com/mcp",
}
],
input="What events are scheduled for 2026-04-02?"
)Neste exemplo, a API de Respostas chama o modelo e passa a definição da ferramenta MCP como parte da mesma solicitação. Você não precisa de uma API específica de MCP separada.
Quando Usar a API Básica
Você pode usar os blocos de construção do agente básico de baixo nível com a API Respostas quando seu workflow precisar de controle direto sobre arquivos, armazenamentos de vetores ou contêineres.
Exemplos comuns incluem:
- Fazendo upload de arquivos antes de enviar uma solicitação de modelo
- Gerenciando o conteúdo do armazenamento de vetores diretamente
- Reutilização de arquivos ou recursos em várias solicitações
- Trabalhando com contêineres sandbox como parte de um fluxo de trabalho mais amplo
A API a seguir é comumente usada com a API de Respostas:
| API | Caminho do Ponto Final | Uso Típico com a API Respostas |
|---|---|---|
| API de Arquivos | /files |
Carregue e gerencie arquivos que você referencia posteriormente em uma solicitação de resposta. |
| API de Lojas de Vetores | /vector_stores/... |
Gerencie o conteúdo do armazenamento de vetores usado para workflows de recuperação, como Pesquisa de Arquivo. |
| API de Contêineres | /containers e /containers/{id}/files |
Gerencie recursos de sandbox usados em fluxos de trabalho habilitados para ferramentas. |
Exemplo: Faça upload de um arquivo primeiro e use-o na API de Respostas
Primeiro carregue um arquivo:
file_response = client.files.create(
file=open("example-document.pdf", "rb"),
purpose="assistants"
)
file_id = file_response.id
Em seguida, faça referência ao arquivo carregado na solicitação da API de Respostas:
response = client.responses.create(
model="<model-id>",
input=[
{
"role": "user",
"content": [
{ "type": "input_file", "file_id": file_id },
{ "type": "input_text", "text": "List all the cities mentioned in this document." }
]
}
]
)
Neste exemplo, a API de Arquivos e a API de Respostas trabalham juntas em um workflow.
SDKs e Frameworks
Você pode usar a API de Respostas do OCI com o OpenAI SDK. Você também pode usá-lo com estruturas de agente compatíveis do lado do cliente.
O OpenAI SDK suporta estes idiomas:
- Python
- Java
- TypeScript
- Go
- .NET
Mais suporte a idiomas está disponível através de bibliotecas comunitárias.
As estruturas de agentes compatíveis incluem:
- SDK de Agentes OpenAI (recomendado)
- OpenAI Codex SDK
- Estrutura do Microsoft Agent
- LangChain
- LangGraph
- IA da Equipe
- Geração Automática
- LamaÍndice
- Pydantic
API de Respostas do OCI e API de Respostas do OpenAI
| Recurso | API de Respostas do OCI | API de respostas OpenAI |
|---|---|---|
| Escolha do modelo | Suporta modelos hospedados na OCI e modelos não OpenAI | Somente modelos OpenAI |
| Infraestrutura de serviço de modelo | Infraestrutura compartilhada OCI ou clusters de IA dedicados | Infraestrutura compartilhada OpenAI |
| Autenticação | Chaves de API ou IAM do OCI | Chaves de API |
| Retenção de dados | Os dados permanecem no OCI | Os dados são armazenados na OpenAI |
| Rede privada | Suporta integração de VCN do OCI e pontos finais privados | Não disponível |
| Modelo de ponto final | Pontos finais regionais | Ponto final global |