API de respuestas de OCI
Utiliza la API de respuestas de OCI para llamar a los modelos soportados, generar salidas de modelos y crear flujos de trabajo basados en herramientas o de varios pasos a través de una única API compatible con OpenAI y compatible con Open Responses. Soporta entradas de texto e imagen y salidas de texto. Puede utilizarlo para crear interacciones con estado con el historial de conversaciones, agregar herramientas admitidas como la búsqueda de archivos y el intérprete de código, y conectar el modelo a sistemas externos mediante llamadas de función y llamadas MCP.
Cómo la API de respuestas se adapta a la creación de agentes
Utilice la API Responses junto con los siguientes componentes de creación de agentes en OCI Generative AI:
| Componente | Finalidad |
|---|---|
| API de respuestas | La principal API compatible con OpenAI para interactuar con modelos soportados y flujos de trabajo ágentes. |
| Herramientas del agente | Herramientas para la API de respuestas, incluidas la búsqueda de archivos, el intérprete de código, las llamadas de función y las llamadas MCP. |
| Memoria del agente | Memoria para la API Conversations, incluido el acceso a memoria a largo plazo y la compactación de contexto de memoria a corto plazo. |
| Bloques de creación de agentes básicos | API básica compatible con OpenAI, como la API de archivos, almacenes vectoriales y contenedores, que puede utilizar con la API de respuestas para controlar directamente los recursos. |
Si es necesario, puede utilizar los bloques de creación básicos de bajo nivel con la API Responses.
Qué puede hacer con la API de respuestas
Utilice la API Responses para:
- Llamar a modelos alojados y modelos importados compatibles.
- Envía entradas de texto e imagen y recibe salidas de texto.
- Generar texto o salidas estructuradas.
- Ejecute peticiones de datos de un solo paso o flujos de trabajo de varios pasos.
- Agregue las herramientas admitidas en la solicitud.
- Vuelva a enviar las respuestas al cliente.
- Utilizar el estado de conversación gestionado por OCI a través de la API Conversations.
- Reutilice el historial de conversaciones o las salidas anteriores como contexto para solicitudes posteriores.
- Conecte el modelo a sistemas y datos externos a través de llamadas de función y llamadas MCP.
- Combine solicitudes de modelo con archivos, almacenes de vectores o contenedores cuando sea necesario.
Esto le permite empezar con una petición de datos simple y ampliar a flujos de trabajo más avanzados sin cambiar a una API diferente.
Cuándo utilizar la API de respuestas
Para la mayoría de las aplicaciones nuevas, comience con la API de respuestas.
Utilícelo cuando desee:
- Utilice una API para la interacción del modelo y las capacidades ágentes.
- Agregar herramientas soportadas a una solicitud de modelo.
- Utilizar el historial de conversaciones gestionadas por OCI.
- Generar salidas estructuradas.
- Cree flujos de trabajo que también puedan utilizar archivos, almacenes vectoriales o contenedores cuando sea necesario.
Punto final de API soportado
| URL Base | Ruta de punto final | Autenticación |
|---|---|---|
https://inference.generativeai.${region}.oci.oraclecloud.com/openai/v1 |
/responses |
Clave de API o sesión de IAM |
Sustituya ${region} por una región de OCI soportada como us-chicago-1.
Aunque el formato de solicitud es compatible con OpenAI, la autenticación utiliza credenciales de OCI, las solicitudes se enrutan a través de puntos finales de inferencia de OCI Generative AI y los recursos y la ejecución permanecen en OCI.
La API de respuestas de OCI utiliza el mismo formato que la API de respuestas de OpenAI con el punto final compatible con OCI OpenAI. Para obtener información sobre la sintaxis y las solicitudes, consulte la documentación de la API de respuestas de OpenAI. Si utiliza herramientas, asegúrese de utilizar solo los tipos de herramientas soportados por el punto final compatible con OpenAI de OCI.
Autenticación
Puede acceder a los puntos finales compatibles con OpenAI de OCI de dos formas:
Utilice claves de API para las pruebas y el desarrollo temprano. Utiliza la autenticación basada en IAM para cargas de trabajo de producción y entornos gestionados por OCI.
Antes de empezar
Antes de llamar a la API de respuestas:
- Crea un proyecto de OCI Generative AI. Las llamadas de API compatibles con OpenAI de OCI requieren un proyecto.
- Configure el cliente con la URL base compatible con OpenAI de OCI.
- Configurar la autenticación.
- Utilizar un modelo soportado en una región soportada.
Para conocer los pasos de configuración, consulte Inicio rápido, Autenticación y Modelos y regiones soportados.
Para llamar a la API de respuestas desde el código, recomendamos utilizar el SDK de OpenAI. Consulte QuickStart.
Cree su primera respuesta
En el siguiente ejemplo se utiliza el SDK de OpenAI con el punto final compatible con OCI OpenAI, una clave de API de OCI Generative AI y un OCID de proyecto:
from openai import OpenAI
client = OpenAI(
base_url="https://inference.generativeai.us-chicago-1.oci.oraclecloud.com/openai/v1",
api_key="sk-xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx",
project="ocid1.generativeaiproject.oc1.us-chicago-1.xxxxxxxx",
)
response = client.responses.create(
model="<supported-model-id>",
input="Write a one-sentence explanation of what a database is."
)
print(response.output_text)
En este ejemplo:
base_urlapunta al punto final compatible con OpenAI de OCI.client.responses.create(...)llama a la API de respuestas de OCI.projectidentifica el proyecto de OCI Generative AI para la solicitud.
Uso de la memoria del agente con la API de respuestas
Para permitir que OCI gestione el historial de conversaciones de varios giros, primero cree una conversación:
conversation = client.conversations.create()
A continuación, incluya el ID de conversación en la solicitud de API de respuestas:
response = client.responses.create(
model="<supported-model-id>",
input=[
{
"role": "user",
"content": "Recommend a restaurant based on the food I like."
}
],
conversation=conversation.id,
)
Utilice este patrón cuando desee que OCI gestione el estado de la conversación entre solicitudes.
Para obtener más información sobre las capacidades de memoria, consulte la API de conversaciones, la memoria a corto plazo, la memoria a largo plazo y la compactación de memoria a corto plazo.
Uso de herramientas con la API de respuestas
La API Responses soporta flujos de trabajo activados para herramientas mediante la propiedad tools. En muchos casos de uso, puedes declarar las herramientas de la solicitud y permitir que OCI Generative AI coordine la ejecución del modelo y el uso de herramientas.
El soporte de herramientas solo está disponible a través de la API.
Tipos de herramientas admitidos
OCI Generative AI soporta los siguientes tipos de herramientas con la API Responses:
| Herramienta | tools[].type |
Descripción |
|---|---|---|
| Búsqueda de Archivo | "file_search" |
Permite que los archivos cargados de búsqueda de modelo y el contenido del almacén de vectores obtengan respuestas basadas en la recuperación. |
| Intérprete de código | "code_interpreter" |
Permite el código de ejecución del modelo en un entorno sandbox gestionado por OCI. |
| Llamada de función | "function" |
Permite al usuario definir funciones locales y hacer que la aplicación ejecute las funciones y devuelva los resultados al modelo. |
| Llamadas de MCP | "mcp" |
Proporciona al modelo acceso a los métodos expuestos por un servidor MCP remoto. |
Para ver ejemplos y pasos de configuración, seleccione el vínculo para cada herramienta de la tabla.
OpenAI documenta otros tipos de herramientas, pero OCI Generative AI solo admite los tipos de herramientas que se muestran aquí para la API Responses. Otras capacidades de OCI, como NL2SQL, se documentan por separado y no se configuran mediante el campo tools de la API de respuestas.
Ejemplo: llamada de MCP
En el siguiente ejemplo, se define una herramienta MCP en la solicitud:
response = client.responses.create(
model="openai.gpt-oss-120b",
tools=[
{
"type": "mcp",
"server_url": "https://example.com/mcp",
}
],
input="What events are scheduled for 2026-04-02?"
)En este ejemplo, la API Responses llama al modelo y transfiere la definición de la herramienta MCP como parte de la misma solicitud. No necesita una API específica de MCP independiente.
Cuándo utilizar la API básica
Puede utilizar los bloques de creación de agentes fundamentales de bajo nivel con la API de respuestas cuando su flujo de trabajo necesite control directo sobre archivos, almacenes de vectores o contenedores.
Entre los ejemplos comunes se incluyen:
- Carga de archivos antes de enviar una solicitud de modelo
- Gestión directa del contenido del almacén de vectores
- Reutilización de archivos o recursos en varias solicitudes
- Trabajar con contenedores de sandbox como parte de un flujo de trabajo más amplio
La siguiente API se suele utilizar con la API de respuestas:
| API | Ruta de punto final | Uso típico con la API de respuestas |
|---|---|---|
| API de archivos | /files |
Cargue y gestione los archivos a los que haga referencia posteriormente en una solicitud de respuesta. |
| API de tiendas de vectores | /vector_stores/... |
Permite gestionar el contenido del almacén de vectores utilizado para flujos de trabajo de recuperación, como la búsqueda de archivos. |
| API de contenedores | /containers y /containers/{id}/files |
Gestione los recursos de sandbox utilizados en flujos de trabajo activados para herramientas. |
Ejemplo: cargue primero un archivo y, a continuación, utilícelo en la API Responses
Primero, cargue un archivo:
file_response = client.files.create(
file=open("example-document.pdf", "rb"),
purpose="assistants"
)
file_id = file_response.id
A continuación, haga referencia al archivo cargado en la solicitud de API de respuestas:
response = client.responses.create(
model="<model-id>",
input=[
{
"role": "user",
"content": [
{ "type": "input_file", "file_id": file_id },
{ "type": "input_text", "text": "List all the cities mentioned in this document." }
]
}
]
)
En este ejemplo, la API de archivos y la API de respuestas funcionan conjuntamente en un flujo de trabajo.
SDK y marcos
Puede utilizar la API de respuestas de OCI con el SDK de OpenAI. También puede utilizarlo con marcos de agente de cliente compatibles.
El SDK de OpenAI soporta estos lenguajes:
- Python
- Java
- TypeScript
- Ir
- .NET
Más apoyo lingüístico está disponible a través de bibliotecas comunitarias.
Los marcos de agentes compatibles incluyen:
- SDK de agentes de OpenAI (recomendado)
- SDK de OpenAI Codex
- Marco de Microsoft Agent
- LangChain
- LangGraph
- CrewAI
- Generación automática
- Índice de Llama
- Pirata
API de respuestas de OCI y API de respuestas de OpenAI
| Función | API de respuestas de OCI | API de respuestas de OpenAI |
|---|---|---|
| Selección de modelo | Admite modelos alojados en OCI y modelos que no son OpenAI | Solo modelos OpenAI |
| Modelo que sirve a la infraestructura | Infraestructura compartida de OCI o clusters de IA dedicados | Infraestructura compartida de OpenAI |
| Autenticación | OCI IAM o claves de API | Claves de API |
| Conservación de datos | Los datos permanecen en OCI | Los datos se almacenan en OpenAI. |
| Redes privadas | Soporta la integración de VCN de OCI y los puntos finales privados | No disponible |
| Modelo de punto final | Puntos finales regionales | Punto final global |