Puntos finales compatibles con OpenAI de OCI
Utiliza puntos finales compatibles con OCI Generative AI OpenAI para llamar a modelos de IA empresarial y crear agentes de IA empresarial a través de una API de estilo OpenAI familiar. Llama a estos puntos finales para alcanzar los patrones de solicitud de OpenAI admitidos mientras mantienes la autenticación, la ejecución y la gestión de recursos dentro de OCI.
- Modelos de IA empresarial
- Llame a los modelos alojados soportados o a los modelos importados con la API de respuestas o finalizaciones de chat.
- Agentes de IA empresariales
-
Utilice la API Responses como la API principal compatible con OpenAI para cargas de trabajo agentic. Puede utilizarlo junto con las herramientas de agente soportadas, las capacidades de memoria de agente y los bloques de creación de agentes fundamentales de bajo nivel, como archivos, almacenes vectoriales y contenedores.
Además de los puntos finales compatibles con OpenAI, OCI Generative AI también proporciona API de inferencia nativa de OCI a través de un punto final independiente para tareas de chat, incrustación y reprogramación.
Descripción de puntos finales compatibles con OpenAI de OCI
El punto final base compatible con OpenAI es:
https://inference.generativeai.${region}.oci.oraclecloud.com/openai/v1
Puede utilizar el punto final base con rutas de estilo OpenAI soportadas por OCI.
Rutas de ejemplo:
/responses/conversations/containers/files
Beneficios clave
Aunque el formato de API es compatible con OpenAI, la implantación está totalmente integrada con OCI:
- La autenticación utiliza claves de API de OCI Generative AI o autenticación basada en OCI IAM, no credenciales de OpenAI.
- Las solicitudes se envían a los puntos finales de inferencia de OCI Generative AI en una región de OCI soportada.
- Los recursos, como archivos y contenedores, se crean y gestionan en OCI.
- El procesamiento de datos permanece en la infraestructura de OCI.
- Las aplicaciones existentes creadas para la API de OpenAI a menudo se pueden adaptar con cambios de código mínimos, generalmente actualizando la URL base, el método de autenticación y el nombre del modelo.
Por ejemplo, una solicitud a /openai/v1/containers crea y gestiona un recurso de contenedor en OCI Generative AI.
Autenticación
Puede acceder a los puntos finales compatibles con OpenAI de OCI de dos formas:
Utilice claves de API para las pruebas y el desarrollo temprano. Utiliza la autenticación basada en IAM para cargas de trabajo de producción y entornos gestionados por OCI.
Puntos finales admitidos
Utilice puntos finales compatibles con OCI OpenAI solo con modelos soportados en regiones soportadas.
Para flujos de trabajo de inferencia de modelos y Agentic
Para acceder a los modelos alojados e importados soportados a través de la API compatible con OpenAI de OCI para flujos de trabajo de inferencia de modelos y autenticación, utilice los siguientes puntos finales.
URL base: https://inference.generativeai.${region}.oci.oraclecloud.com/openai/v1
| API | Ruta de punto final | Uso sugerido |
|---|---|---|
| API de respuestas | /responses |
Utilice esta interfaz principal para llamar a modelos y generar respuestas. Opcionalmente, incluya herramientas admitidas e Id. de conversación para contexto. |
| API de Conversaciones | /conversations |
Utilice esta interfaz persistente con estado para gestionar el historial de conversaciones de varias vueltas. Incluya el ID de conversación en la API de respuestas, que sigue siendo el punto final principal para generar respuestas de modelo. |
| API de finalización de chat | /chat/completions |
Utilice esta interfaz de estilo de chat sin estado y predecesora de la API de conversaciones con estado si ya tiene código de aplicación creado en torno a la API de finalizaciones de chat o si necesita una interfaz de solo chat más sencilla. De lo contrario, utilice la API Conversations junto con la API Responses. |
Componentes de creación de agentes
Para cargas de trabajo ágentes, las API compatibles con OpenAI de OCI incluyen los siguientes bloques de creación:
| API | Ruta de punto final | Uso sugerido |
|---|---|---|
| API de archivos | /files |
Para cargar y gestionar archivos |
| API de archivos de almacenamiento vectorial | /vector_stores/{id}/files |
Para gestionar archivos adjuntos a un almacén de vectores. |
| API de lotes de archivos de almacén de vectores | /vector_stores/{id}/file_batches |
Para agregar y gestionar un lote de archivos de almacenamiento vectorial al mismo tiempo. |
| API de búsqueda de tienda vectorial | /vector_stores/{id}/search |
Para ejecutar búsquedas directas en un almacén de vectores. |
| API de contenedores | /containers |
Para crear y gestionar contenedores de sandbox para utilizarlos en flujos de trabajo de agentes. |
| API de archivos de contenedor | /containers/{id}/files |
Para gestionar archivos en un contenedor de sandbox. |
Regiones y modelos soportados
Recomendación
Para la mayoría de las cargas de trabajo nuevas, utilice la API Responses como punto de entrada principal.
En muchos casos, puede seleccionar un modelo soportado, incluir opcionalmente el contexto de conversación, declarar las herramientas soportadas en la solicitud y enviar la solicitud a través de la API de respuestas. OCI Generative AI luego maneja la ejecución de modelos y el uso de herramientas como parte de ese flujo de trabajo.
Si es necesario, también puede combinar la API Responses con API básicas de nivel inferior, como Files, Vector Stores y Containers.
Este enfoque resulta útil cuando se desea:
- Utilice modelos soportados a través de una única API.
- Declarar herramientas directamente en la solicitud.
- Crea flujos de trabajo ágiles con la ejecución gestionada por OCI.
- Agregue contexto de conversación a través de la API Conversations.
- Combine solicitudes de modelo con archivos, almacenes de vectores o contenedores cuando sea necesario.
Ejemplo: uso de herramientas
Por ejemplo, para utilizar llamadas MCP, especifique un modelo y declare la herramienta MCP en la solicitud de API de respuestas. No necesita una API específica de MCP independiente.
response = client.responses.create(
model="openai.gpt-oss-120b",
tools=[
{
"type": "mcp",
"server_url": "https://example.com/mcp",
}
],
input="What events are scheduled for 2026-04-02?"
)Ejemplo: uso del historial de conversaciones
Para el contexto de la conversación, cree primero una conversación.
conversation = client.conversations.create()A continuación, envíe el ID de conversación en la solicitud de API de respuestas para una conversación de varias vueltas.
response = client.responses.create(
model="openai.gpt-oss-120b",
input=[
{
"role": "user",
"content": "Recommend a restaurant based on the food that I like."
}
],
conversation=conversation.id,
)