Pontos Finais Compatíveis com OCI OpenAI
Use endpoints compatíveis com OpenAI da OCI Generative AI para chamar modelos de IA empresarial e criar agentes de IA empresarial por meio de uma API familiar no estilo OpenAI. Chame esses pontos finais para atingir padrões de solicitação OpenAI suportados, mantendo a autenticação, a execução e o gerenciamento de recursos no OCI.
- Modelos de IA corporativos
- Chame modelos hospedados suportados ou modelos importados com a API de Respostas ou Conclusões de Chat.
- Agentes de IA corporativos
-
Use a API Responses como a principal API compatível com OpenAI para cargas de trabalho agentic. Você pode usá-lo junto com ferramentas suportadas do agente, recursos de memória do agente e blocos de construção fundamentais de baixo nível, como Arquivos, Armazenamentos de Vetores e Contêineres.
Além dos pontos finais compatíveis com OpenAI, a OCI Generative AI também fornece API de inferência nativa da OCI por meio de um ponto final separado para tarefas de bate-papo, incorporação e reclassificação.
Compreendendo Pontos Finais Compatíveis com o OCI OpenAI
O ponto final base compatível com OpenAI é:
https://inference.generativeai.${region}.oci.oraclecloud.com/openai/v1
Você pode usar o ponto final base com caminhos de estilo OpenAI suportados pelo OCI.
Exemplo de caminhos:
/responses/conversations/containers/files
Principais Benefícios
Embora o formato da API seja compatível com a OpenAI, a implementação é totalmente integrada à OCI:
- A autenticação usa chaves de API do OCI Generative AI ou autenticação baseada no OCI IAM, não credenciais OpenAI.
- As solicitações são roteadas para pontos finais de inferência do OCI Generative AI em uma região do OCI suportada.
- Recursos como arquivos e contêineres são criados e gerenciados no OCI.
- O processamento de dados permanece na infraestrutura da OCI.
- Os aplicativos existentes criados para a API OpenAI geralmente podem ser adaptados com alterações mínimas de código, geralmente atualizando o URL base, o método de autenticação e o nome do modelo.
Por exemplo, uma solicitação para /openai/v1/containers cria e gerencia um recurso de contêiner no OCI Generative AI.
Autenticação
Você pode acessar os pontos finais compatíveis com o OCI OpenAI de duas maneiras:
Use chaves de API para teste e desenvolvimento antecipado. Usar autenticação baseada em IAM para cargas de trabalho de produção e ambientes gerenciados pela OCI.
Pontos Finais Suportados
Use pontos finais compatíveis com o OCI OpenAI somente com modelos suportados em regiões suportadas.
Para Workflows Agênticos e de Inferência de Modelo
Para acessar modelos hospedados e importados suportados por meio da API compatível com o OCI OpenAI para inferência de modelo e fluxos de trabalho agênticos, use os pontos finais a seguir.
URL Base: https://inference.generativeai.${region}.oci.oraclecloud.com/openai/v1
| API | Caminho do Ponto Final | Uso Sugerido |
|---|---|---|
| API de Respostas | /responses |
Use esta interface principal para chamar modelos e gerar respostas. Opcionalmente, inclua ferramentas e IDs de conversa compatíveis para contexto. |
| API de Conversas | /conversations |
Use esta interface persistente e com monitoramento de estado para gerenciar o histórico de conversas de vários turnos. Inclua o ID da conversa na API de Respostas, que permanece como o ponto final principal para gerar respostas ao modelo. |
| API de Conclusões de Chat | /chat/completions |
Use essa interface de estilo de bate-papo sem estado e predecessora da API de Conversas com monitoramento de estado se você já tiver um código de aplicativo criado em torno da API de Conclusões de Bate-papo ou se precisar de uma interface apenas de bate-papo mais simples. Caso contrário, use a API de Conversas com a API de Respostas. |
Componentes de Criação de Agentes
Para cargas de trabalho agênticas, as APIs compatíveis com OCI OpenAI incluem os seguintes blocos de construção:
| API | Caminho do Ponto Final | Uso Sugerido |
|---|---|---|
| API de Arquivos | /files |
Para fazer upload e gerenciar arquivos |
| API de Arquivos do Vector Store | /vector_stores/{id}/files |
Para gerenciar arquivos anexados a um armazenamento de vetores. |
| API de Lotes de Arquivos de Armazenamento de Vetores | /vector_stores/{id}/file_batches |
Para adicionar e gerenciar um lote de arquivos de armazenamento de vetores ao mesmo tempo. |
| API de Pesquisa do Vector Store | /vector_stores/{id}/search |
Para executar pesquisas diretas em um armazenamento de vetores. |
| API de Contêineres | /containers |
Para criar e gerenciar contêineres de sandbox para usar em workflows do agente. |
| API de arquivos contêiner | /containers/{id}/files |
Para gerenciar arquivos em um contêiner de sandbox. |
Modelos e Regiões Suportados
Recomendação
Para a maioria das novas cargas de trabalho agênticas, use a API de Respostas como o ponto de entrada principal.
Em muitos casos, você pode selecionar um modelo suportado, opcionalmente incluir contexto de conversa, declarar ferramentas suportadas na solicitação e enviar a solicitação por meio da API de Respostas. A OCI Generative AI então lida com a execução do modelo e o uso de ferramentas como parte desse fluxo de trabalho.
Se necessário, você também pode combinar a API de Respostas com APIs básicas de nível inferior, como Arquivos, Armazenamentos de Vetores e Contêineres.
Esta abordagem é útil quando você deseja:
- Use modelos suportados por meio de uma única API.
- Declare as ferramentas diretamente na solicitação.
- Crie fluxos de trabalho agênticos com execução gerenciada pela OCI.
- Adicione o contexto da conversa por meio da API de Conversas.
- Combine solicitações de modelo com arquivos, armazenamentos de vetores ou contêineres quando necessário.
Exemplo: Usando Ferramentas
Por exemplo, para usar a Chamada MCP, especifique um modelo e declare a ferramenta MCP na solicitação da API de Respostas. Você não precisa de uma API específica de MCP separada.
response = client.responses.create(
model="openai.gpt-oss-120b",
tools=[
{
"type": "mcp",
"server_url": "https://example.com/mcp",
}
],
input="What events are scheduled for 2026-04-02?"
)Exemplo: Usando o Histórico de Conversas
Para o contexto da conversa, primeiro crie uma conversa.
conversation = client.conversations.create()Em seguida, envie o id da conversa na solicitação da API de Respostas para uma conversa de vários turnos.
response = client.responses.create(
model="openai.gpt-oss-120b",
input=[
{
"role": "user",
"content": "Recommend a restaurant based on the food that I like."
}
],
conversation=conversation.id,
)