API de respuestas de OCI

La API de respuestas de OCI es la API nativa de OCI para flujos de trabajo ágentic.

Acerca de la API de respuestas de OCI

La API de respuestas de OCI te permite componer primitivos modulares para soportar cargas de trabajo ágentes. Puede configurar estas capacidades en el nivel de solicitud:

  • Orquestación para realizar flujos de trabajo de inferencia de un solo paso o de autenticación de varios pasos
  • Motivo para activar o desactivar el razonamiento
  • Herramientas para utilizar herramientas gestionadas por plataforma, herramientas de funciones del cliente o ambas
  • Estado de conversación para gestionar el estado en el servicio o en la aplicación cliente

Este enfoque proporciona:

  • Flexibilidad para crear asistentes simples o agentes de varios pasos más complejos mediante la misma API
  • Precisión para controlar el costo, latencia y comportamiento
  • Simplicidad porque no necesita crear y gestionar herramientas como recursos en la nube independientes

URL Base

Utilice la API de respuestas de OCI en la siguiente URL base:

https://inference.generativeai.<available-region>.oci.oraclecloud.com/openai/v1

Sustituya <available-region> por un identificador de región como generativeai.us-chicago-1.

Para obtener más información sobre las regiones disponibles, consulte Regiones disponibles de API genéticas.

SDK y marcos soportados

Puede utilizar la API de respuestas de OCI con el SDK de OpenAI. También puede utilizarlo con marcos de agente de cliente compatibles.

El SDK OpenAI soporta estos idiomas:

  • Python
  • Java
  • TypeScript
  • Ir
  • .NET

Más apoyo lingüístico está disponible a través de bibliotecas comunitarias.

Los marcos de agentes compatibles incluyen:

  • OpenAI SDK de agentes (recomendado)
  • OpenAI SDK del Codex
  • Marco de Microsoft Agent
  • LangChain
  • LangGraph
  • CrewAI
  • AutoGen
  • LlamaIndex
  • Pirata

Comparación de la API de respuestas de OCI y las finalizaciones de chat

Dimensión API de respuestas de OCI API de chat de OCI con API de finalización de chat
Uso principal API unificada para la interacción de modelos y capacidades ágentes API para la interacción de modelos
Coincidencia óptima Chat interactivo, cargas de trabajo ágentes y tareas de larga ejecución Bots conversacionales interactivos y finalización de texto
Orquestación Razonamiento integrado en varios pasos y llamadas a varias herramientas Inferencia o generación de un solo paso; los flujos de varios pasos requieren orquestación externa
Gestión de contexto Con estado de manera predeterminada, con uso opcional sin estado Sólo sin estado; el cliente gestiona el historial de conversaciones
Soporte de herramientas Herramientas incorporadas como la búsqueda de archivos, el intérprete de código y el MCP remoto Limitado a herramientas del lado del cliente a través de llamadas de función
Soporte multimodal Soporte nativo para texto, imágenes, archivos y bloques de contenido estructurado Principalmente texto, con soporte multimodal limitado según la versión del modelo
Streaming Transmisión basada en eventos con eventos detallados Transmisión basada en token
Salida estructurada Salidas estructuradas nativas y aplicación de esquemas JSON El modo JSON está soportado, pero es menos componible
Integración de archivos y vectores Integración directa con la API de archivos y la API de almacenes vectoriales Requiere orquestación independiente
Extensibilidad Diseñado para agentes alojados, herramientas MCP, memoria y contenedores Diseñado principalmente para aplicaciones de chat

Comparación de la API de respuestas de OCI y la API de respuestas de OpenAI

Capacidad API de respuestas de OCI OpenAI API de respuestas
Selección de modelo Soporta modelos alojados en OCI y modelos no OpenAI Solo modelos OpenAI
Modelo que sirve a la infraestructura Infraestructura compartida de OCI o clusters de IA dedicados Infraestructura compartida OpenAI
Autenticación OCI IAM o claves de API Claves de API
Conservación de datos Sus datos permanecen en OCI Sus datos se almacenan en OpenAI
Redes privadas Soporta la integración de VCN de OCI y los puntos finales privados No disponible
Modelo de punto final Puntos finales regionales Punto final global

Recomendaciones

Utilice el SDK OpenAI cuando:

  • No necesita un marco del cliente para orquestar herramientas de función
  • Las herramientas se ejecutan en el servidor, incluidas las herramientas MCP remotas
  • Puede utilizar la API Conversations para gestionar la memoria de la sesión
  • La aplicación es una interfaz más sencilla, como una aplicación móvil o un sitio estático, sin un backend complejo

Utilice un marco de agente con el SDK OpenAI cuando:

  • Debe orquestar herramientas de función del cliente
  • Necesita capacidades de ejecución del cliente, como shell local o acceso al sistema de archivos
  • Debe coordinar varios agentes en el cliente
  • La memoria de sesión se gestiona mediante su propia solución o un sistema de terceros