API de respuestas de OCI
La API de respuestas de OCI es la API nativa de OCI para flujos de trabajo ágentic.
Instalación
Python
Instale el paquete de Python de autenticación GenAI de OCI:
pip install oci-genai-authConsulte Paquete de autenticación GenAI de OCI en GitHub.
Java
Consulte SDK de Java de autenticación GenAI de OCI en GitHub.
Acerca de la API de respuestas de OCI
La API de respuestas de OCI te permite componer primitivos modulares para soportar cargas de trabajo ágentes. Puede configurar estas capacidades en el nivel de solicitud:
- Orquestación para realizar flujos de trabajo de inferencia de un solo paso o de autenticación de varios pasos
- Motivo para activar o desactivar el razonamiento
- Herramientas para utilizar herramientas gestionadas por plataforma, herramientas de funciones del cliente o ambas
- Estado de conversación para gestionar el estado en el servicio o en la aplicación cliente
Este enfoque proporciona:
- Flexibilidad para crear asistentes simples o agentes de varios pasos más complejos mediante la misma API
- Precisión para controlar el costo, latencia y comportamiento
- Simplicidad porque no necesita crear y gestionar herramientas como recursos en la nube independientes
URL Base
Utilice la API de respuestas de OCI en la siguiente URL base:
https://inference.generativeai.<available-region>.oci.oraclecloud.com/openai/v1Sustituya <available-region> por un identificador de región como generativeai.us-chicago-1.
Para obtener más información sobre las regiones disponibles, consulte Regiones disponibles de API genéticas.
SDK y marcos soportados
Puede utilizar la API de respuestas de OCI con el SDK de OpenAI. También puede utilizarlo con marcos de agente de cliente compatibles.
El SDK OpenAI soporta estos idiomas:
- Python
- Java
- TypeScript
- Ir
- .NET
Más apoyo lingüístico está disponible a través de bibliotecas comunitarias.
Los marcos de agentes compatibles incluyen:
- OpenAI SDK de agentes (recomendado)
- OpenAI SDK del Codex
- Marco de Microsoft Agent
- LangChain
- LangGraph
- CrewAI
- AutoGen
- LlamaIndex
- Pirata
Comparación de la API de respuestas de OCI y las finalizaciones de chat
| Dimensión | API de respuestas de OCI | API de chat de OCI con API de finalización de chat |
|---|---|---|
| Uso principal | API unificada para la interacción de modelos y capacidades ágentes | API para la interacción de modelos |
| Coincidencia óptima | Chat interactivo, cargas de trabajo ágentes y tareas de larga ejecución | Bots conversacionales interactivos y finalización de texto |
| Orquestación | Razonamiento integrado en varios pasos y llamadas a varias herramientas | Inferencia o generación de un solo paso; los flujos de varios pasos requieren orquestación externa |
| Gestión de contexto | Con estado de manera predeterminada, con uso opcional sin estado | Sólo sin estado; el cliente gestiona el historial de conversaciones |
| Soporte de herramientas | Herramientas incorporadas como la búsqueda de archivos, el intérprete de código y el MCP remoto | Limitado a herramientas del lado del cliente a través de llamadas de función |
| Soporte multimodal | Soporte nativo para texto, imágenes, archivos y bloques de contenido estructurado | Principalmente texto, con soporte multimodal limitado según la versión del modelo |
| Streaming | Transmisión basada en eventos con eventos detallados | Transmisión basada en token |
| Salida estructurada | Salidas estructuradas nativas y aplicación de esquemas JSON | El modo JSON está soportado, pero es menos componible |
| Integración de archivos y vectores | Integración directa con la API de archivos y la API de almacenes vectoriales | Requiere orquestación independiente |
| Extensibilidad | Diseñado para agentes alojados, herramientas MCP, memoria y contenedores | Diseñado principalmente para aplicaciones de chat |
Comparación de la API de respuestas de OCI y la API de respuestas de OpenAI
| Capacidad | API de respuestas de OCI | OpenAI API de respuestas |
|---|---|---|
| Selección de modelo | Soporta modelos alojados en OCI y modelos no OpenAI | Solo modelos OpenAI |
| Modelo que sirve a la infraestructura | Infraestructura compartida de OCI o clusters de IA dedicados | Infraestructura compartida OpenAI |
| Autenticación | OCI IAM o claves de API | Claves de API |
| Conservación de datos | Sus datos permanecen en OCI | Sus datos se almacenan en OpenAI |
| Redes privadas | Soporta la integración de VCN de OCI y los puntos finales privados | No disponible |
| Modelo de punto final | Puntos finales regionales | Punto final global |
Recomendaciones
Utilice el SDK OpenAI cuando:
- No necesita un marco del cliente para orquestar herramientas de función
- Las herramientas se ejecutan en el servidor, incluidas las herramientas MCP remotas
- Puede utilizar la API Conversations para gestionar la memoria de la sesión
- La aplicación es una interfaz más sencilla, como una aplicación móvil o un sitio estático, sin un backend complejo
Utilice un marco de agente con el SDK OpenAI cuando:
- Debe orquestar herramientas de función del cliente
- Necesita capacidades de ejecución del cliente, como shell local o acceso al sistema de archivos
- Debe coordinar varios agentes en el cliente
- La memoria de sesión se gestiona mediante su propia solución o un sistema de terceros