API OCI Réponses
L'API OCI Responses est l'API OCI-native pour les workflows agentiques.
Installation
Python
Installez le package Python d'authentification GenAI OCI :
pip install oci-genai-authReportez-vous à Package d'authentification OCI GenAI sur GitHub.
Java
Reportez-vous à Kit SDK Java d'authentification OCI GenAI sur GitHub.
A propos de l'API OCI Responses
L'API OCI Responses vous permet de créer des primitives modulaires pour prendre en charge les charges globales agénétiques. Vous pouvez configurer les fonctionnalités suivantes au niveau de la demande :
- Orchestration pour effectuer des workflows d'inférence en une étape ou agénétiques en plusieurs étapes
- Motif pour activer ou désactiver le raisonnement
- Outils pour utiliser des outils gérés par la plate-forme, des outils de fonction côté client ou les deux
- Etat de la conversation pour gérer l'état côté service ou dans l'application client
Cette approche fournit :
- Flexibilité pour créer des assistants simples ou des agents à plusieurs étapes plus complexes à l'aide de la même API
- Précision pour contrôler les coûts, la latence et le comportement
- Simplicité car vous n'avez pas besoin de créer et de gérer des outils en tant que ressources cloud distinctes
URL de base
Utilisez l'API OCI Responses à l'URL de base suivante :
https://inference.generativeai.<available-region>.oci.oraclecloud.com/openai/v1Remplacez <available-region> par un identificateur de région tel que generativeai.us-chicago-1.
Pour connaître les régions disponibles, reportez-vous à Régions disponibles de l'API Agentic.
SDK et structures pris en charge
Vous pouvez utiliser l'API OCI Responses avec le kit SDK OpenAI. Vous pouvez également l'utiliser avec des structures d'agent côté client compatibles.
Le kit SDK OpenAI prend en charge les langages suivants :
- Python
- Java
- TypeScript
- Accéder
- .NET
Plus de soutien linguistique est disponible dans les bibliothèques communautaires.
Les structures d'agent compatibles incluent :
- Kit SDK OpenAI Agents (recommandé)
- OpenAI SDK Codex
- Structure d'agent Microsoft
- LangChain
- LangGraph
- CrewAI
- AutoGen
- LlamaIndex
- Pydantique
Comparaison de l'API OCI Responses et des transactions de discussion
| Dimensions | API OCI Réponses | API de discussion OCI utilisant l'API d'achèvement des discussions |
|---|---|---|
| Utilisation principale | API unifiée pour l'interaction des modèles et les fonctionnalités agénétiques | API pour l'interaction de modèle |
| Choix optimal | Chat interactif, charges de travail agentiques et tâches à longue durée d'exécution | Chatbots interactifs et saisie de texte |
| Orchestration | Raisonnement intégré en plusieurs étapes et appels d'outils multiples | Inférence ou génération en une seule étape ; les flux en plusieurs étapes nécessitent une orchestration externe |
| Gestion du contexte | Avec conservation de statut par défaut, avec utilisation facultative sans conservation de statut | Sans conservation de statut uniquement ; le client gère l'historique des conversations |
| Prise en charge des outils | Outils intégrés tels que la recherche de fichiers, l'interpréteur de code et le MCP distant | Limité aux outils côté client via l'appel de fonction |
| Support multimodal | Prise en charge native du texte, des images, des fichiers et des blocs de contenu structuré | Principalement du texte, avec une prise en charge multimodale limitée selon la version du modèle |
| Transmission en continu | Streaming basé sur les événements avec des événements précis | Transmission en continu par jeton |
| Sortie structurée | Sorties structurées natives et application de schéma JSON | Le mode JSON est pris en charge, mais moins composable |
| Intégration de fichiers et de vecteurs | Intégration directe avec l'API Files et l'API Vector Stores | requiert une orchestration distincte |
| Extensibilité | Conçu pour les agents hébergés, les outils MCP, la mémoire et les conteneurs | Conçu principalement pour les applications de chat |
Comparer l'API des réponses OCI et l'API des réponses OpenAI
| Capacité | API OCI Réponses | API des réponses OpenAI |
|---|---|---|
| Choix du modèle | Prend en charge les modèles hébergés par OCI et les modèles non OpenAI | Modèles OpenAI uniquement |
| Infrastructure de service de modèle | Infrastructure partagée OCI ou clusters d'IA dédiés | Infrastructure partagée OpenAI |
| Authentification | Clés d'API ou OCI IAM | Clés d'API |
| Conservation des données | Vos données restent dans OCI | Vos données sont stockées dans OpenAI |
| Réseau privé | Prend en charge l'intégration OCI VCN et les adresses privées | Non disponibles |
| Modèle d'adresse | Adresses régionales | Adresse globale |
Recommandations
Utilisez le kit SDK OpenAI dans les cas suivants :
- Vous n'avez pas besoin d'une structure côté client pour orchestrer les outils de fonction
- Vos outils s'exécutent côté serveur, y compris les outils MCP distants
- Vous utilisez l'API Conversations pour gérer la mémoire de session
- Votre application est une interface plus simple, telle qu'une application mobile ou un site statique, sans back-end complexe
Utilisez une structure d'agent avec le kit SDK OpenAI dans les cas suivants :
- Vous devez orchestrer les outils de fonction côté client
- Vous avez besoin de fonctionnalités d'exécution côté client telles que l'accès au shell local ou au système de fichiers
- Vous devez coordonner plusieurs agents côté client
- Vous gérez la mémoire de session à l'aide de votre propre solution ou d'un système tiers