Pontos Finais Compatíveis com OCI OpenAI

Use endpoints compatíveis com OpenAI da OCI Generative AI para chamar modelos de IA empresarial e criar agentes de IA empresarial por meio de uma API familiar no estilo OpenAI. Chame esses pontos finais para atingir padrões de solicitação OpenAI suportados, mantendo a autenticação, a execução e o gerenciamento de recursos no OCI.

Modelos de IA corporativos
Chame modelos hospedados suportados ou modelos importados com a API de Respostas ou Conclusões de Chat.
Agentes de IA corporativos

Use a API Responses como a principal API compatível com OpenAI para cargas de trabalho agentic. Você pode usá-lo junto com ferramentas suportadas do agente, recursos de memória do agente e blocos de construção fundamentais de baixo nível, como Arquivos, Armazenamentos de Vetores e Contêineres.

Além dos pontos finais compatíveis com OpenAI, a OCI Generative AI também fornece API de inferência nativa da OCI por meio de um ponto final separado para tarefas de bate-papo, incorporação e reclassificação.

Compreendendo Pontos Finais Compatíveis com o OCI OpenAI

O ponto final base compatível com OpenAI é:

https://inference.generativeai.${region}.oci.oraclecloud.com/openai/v1

Você pode usar o ponto final base com caminhos de estilo OpenAI suportados pelo OCI.

Exemplo de caminhos:

  • /responses
  • /conversations
  • /containers
  • /files

Principais Benefícios

Embora o formato da API seja compatível com a OpenAI, a implementação é totalmente integrada à OCI:

  • A autenticação usa chaves de API do OCI Generative AI ou autenticação baseada no OCI IAM, não credenciais OpenAI.
  • As solicitações são roteadas para pontos finais de inferência do OCI Generative AI em uma região do OCI suportada.
  • Recursos como arquivos e contêineres são criados e gerenciados no OCI.
  • O processamento de dados permanece na infraestrutura da OCI.
  • Os aplicativos existentes criados para a API OpenAI geralmente podem ser adaptados com alterações mínimas de código, geralmente atualizando o URL base, o método de autenticação e o nome do modelo.

Por exemplo, uma solicitação para /openai/v1/containers cria e gerencia um recurso de contêiner no OCI Generative AI.

Autenticação

Você pode acessar os pontos finais compatíveis com o OCI OpenAI de duas maneiras:

Use chaves de API para teste e desenvolvimento antecipado. Usar autenticação baseada em IAM para cargas de trabalho de produção e ambientes gerenciados pela OCI.

Pontos Finais Suportados

Importante

Use pontos finais compatíveis com o OCI OpenAI somente com modelos suportados em regiões suportadas.

Para Workflows Agênticos e de Inferência de Modelo

Para acessar modelos hospedados e importados suportados por meio da API compatível com o OCI OpenAI para inferência de modelo e fluxos de trabalho agênticos, use os pontos finais a seguir.

URL Base: https://inference.generativeai.${region}.oci.oraclecloud.com/openai/v1

API Caminho do Ponto Final Uso Sugerido
API de Respostas /responses Use esta interface principal para chamar modelos e gerar respostas. Opcionalmente, inclua ferramentas e IDs de conversa compatíveis para contexto.
API de Conversas /conversations Use esta interface persistente e com monitoramento de estado para gerenciar o histórico de conversas de vários turnos. Inclua o ID da conversa na API de Respostas, que permanece como o ponto final principal para gerar respostas ao modelo.
API de Conclusões de Chat /chat/completions Use essa interface de estilo de bate-papo sem estado e predecessora da API de Conversas com monitoramento de estado se você já tiver um código de aplicativo criado em torno da API de Conclusões de Bate-papo ou se precisar de uma interface apenas de bate-papo mais simples. Caso contrário, use a API de Conversas com a API de Respostas.

Componentes de Criação de Agentes

Para cargas de trabalho agênticas, as APIs compatíveis com OCI OpenAI incluem os seguintes blocos de construção:

API Caminho do Ponto Final Uso Sugerido
API de Arquivos /files Para fazer upload e gerenciar arquivos
API de Arquivos do Vector Store /vector_stores/{id}/files Para gerenciar arquivos anexados a um armazenamento de vetores.
API de Lotes de Arquivos de Armazenamento de Vetores /vector_stores/{id}/file_batches Para adicionar e gerenciar um lote de arquivos de armazenamento de vetores ao mesmo tempo.
API de Pesquisa do Vector Store /vector_stores/{id}/search Para executar pesquisas diretas em um armazenamento de vetores.
API de Contêineres /containers Para criar e gerenciar contêineres de sandbox para usar em workflows do agente.
API de arquivos contêiner /containers/{id}/files Para gerenciar arquivos em um contêiner de sandbox.

Recomendação

Para a maioria das novas cargas de trabalho agênticas, use a API de Respostas como o ponto de entrada principal.

Em muitos casos, você pode selecionar um modelo suportado, opcionalmente incluir contexto de conversa, declarar ferramentas suportadas na solicitação e enviar a solicitação por meio da API de Respostas. A OCI Generative AI então lida com a execução do modelo e o uso de ferramentas como parte desse fluxo de trabalho.

Se necessário, você também pode combinar a API de Respostas com APIs básicas de nível inferior, como Arquivos, Armazenamentos de Vetores e Contêineres.

Esta abordagem é útil quando você deseja:

  • Use modelos suportados por meio de uma única API.
  • Declare as ferramentas diretamente na solicitação.
  • Crie fluxos de trabalho agênticos com execução gerenciada pela OCI.
  • Adicione o contexto da conversa por meio da API de Conversas.
  • Combine solicitações de modelo com arquivos, armazenamentos de vetores ou contêineres quando necessário.

Exemplo: Usando Ferramentas

Por exemplo, para usar a Chamada MCP, especifique um modelo e declare a ferramenta MCP na solicitação da API de Respostas. Você não precisa de uma API específica de MCP separada.

response = client.responses.create(
    model="openai.gpt-oss-120b",
    tools=[
        {
            "type": "mcp",
            "server_url": "https://example.com/mcp",
        }
    ],
    input="What events are scheduled for 2026-04-02?"
)

Exemplo: Usando o Histórico de Conversas

Para o contexto da conversa, primeiro crie uma conversa.

conversation = client.conversations.create()

Em seguida, envie o id da conversa na solicitação da API de Respostas para uma conversa de vários turnos.

response = client.responses.create(
    model="openai.gpt-oss-120b",
    input=[
        {
            "role": "user",
            "content": "Recommend a restaurant based on the food that I like."
        }
    ],
    conversation=conversation.id,
)