API de réponses OCI
L'API des réponses OCI est l'API OCI native pour les flux de travail agéntiques.
Installation
Python
Installez l'ensemble Python d'authentification GenAI pour OCI :
pip install oci-genai-authVoir Ensemble d'authentification OCI GenAI sur GitHub.
Java
Voir Trousse SDK Java d'authentification pour OCI GenAI sur GitHub .
À propos de l'API de réponses OCI
L'API OCI Responses vous permet de créer des primitives modulaires pour prendre en charge les charges de travail agéntiques. Vous pouvez configurer ces fonctions au niveau de la demande :
- Orchestration pour effectuer des flux de travail d'inférence en une seule étape ou agéntiques en plusieurs étapes
- Motif pour activer ou désactiver le motif
- Outils pour utiliser des outils gérés par la plate-forme, des outils de fonctions côté client, ou les deux
- État de conversation pour gérer l'état côté service ou dans l'application client
Cette approche prévoit :
- Flexibilité pour créer des assistants simples ou des agents à plusieurs étapes plus complexes à l'aide de la même API
- Précision pour contrôler le coût, la latence et le comportement
- Simplicité car vous n'avez pas besoin de créer et de gérer des outils en tant que ressources en nuage distinctes
URL de base
Utilisez l'API des réponses OCI à l'URL de base suivante :
https://inference.generativeai.<available-region>.oci.oraclecloud.com/openai/v1Remplacez <available-region> par un identificateur de région tel que generativeai.us-chicago-1.
Pour les régions disponibles, voir Régions disponibles d'API Agentic.
Trousses SDK et cadres pris en charge
Vous pouvez utiliser l'API des réponses OCI avec la trousse SDK OpenAI. Vous pouvez également l'utiliser avec des cadres d'agent côté client compatibles.
La trousse SDK OpenAI prend en charge les langages suivants :
- Python
- Java
- TypeScript
- Go
- .NET
Plus de soutien linguistique est disponible via les bibliothèques communautaires.
Les cadres d'agent compatibles incluent :
- OpenAI Trousse SDK d'agent (recommandée)
- OpenAI Trousse SDK Codex
- Cadre d'agent Microsoft
- LangChain
- LangGraph
- CrewAI
- AutoGen
- LlamaIndex
- Pydantique
Comparer les achèvements d'API et de clavardage pour les réponses OCI
| Dimension | API de réponses OCI | API de clavardage OCI utilisant l'API de terminaisons de clavardage |
|---|---|---|
| Utilisation principale | API unifiée pour les interactions avec les modèles et les capacités agéntiques | API pour l'interaction de modèle |
| Ajustement optimal | Clavardage interactif, charges de travail agéntiques et tâches de longue durée | Agents conversationnels interactifs et saisie de texte |
| Orchestration | Raisonnement en plusieurs étapes intégré et appels à outils multiples | Inférence ou génération en une seule étape; les flux en plusieurs étapes nécessitent une orchestration externe |
| Gestion de contexte | Avec état par défaut, avec utilisation facultative sans état | Sans état seulement; le client gère l'historique de conversation |
| Prise en charge des outils | Outils intégrés tels que la recherche de fichiers, l'interpréteur de code et MCP distant | Limité aux outils côté client par appel de fonction |
| Soutien multimodal | Prise en charge native des blocs de texte, d'images, de fichiers et de contenu structuré | Principalement du texte, avec une prise en charge multimodale limitée en fonction de la version du modèle |
| Flux | Diffusion en continu basée sur les événements avec des événements détaillés | Flux basé sur un jeton |
| Sortie structurée | Sorties structurées natives et application de schéma JSON | Le mode JSON est pris en charge, mais il est moins composable |
| Intégration de fichiers et de vecteurs | Intégration directe avec l'API Files et l'API Vector Stores | Nécessite une orchestration distincte |
| Extensibilité | Conçu pour les agents hébergés, les outils MCP, la mémoire et les conteneurs | Conçu principalement pour les applications de clavardage |
Comparer l'API des réponses OCI et l'API des réponses OpenAI
| Fonction | API de réponses OCI | API de réponses OpenAI |
|---|---|---|
| Choix du modèle | Prend en charge les modèles hébergés par OCI et les modèles non OpenAI | Modèles OpenAI uniquement |
| Infrastructure de service de modèle | Infrastructure partagée OCI ou grappes d'IA dédiées | OpenAI infrastructure partagée |
| Authentication | Clés OCI IAM ou API | Clés d'API |
| Conservation des données | Vos données restent dans OCI | Vos données sont stockées dans OpenAI |
| Réseau privé | Prend en charge l'intégration du VCN OCI et les points d'extrémité privés | Non disponible |
| Modèle de point d'extrémité | Points d'extrémité régionaux | Point d'extrémité global |
Recommandations
Utilisez la trousse SDK OpenAI dans les cas suivants :
- Vous n'avez pas besoin d'un cadre côté client pour orchestrer les outils fonctionnels
- Vos outils s'exécutent côté serveur, y compris les outils MCP distants
- Vous utilisez l'API Conversations pour gérer la mémoire de session
- Votre application est une interface plus simple, telle qu'une application mobile ou un site statique, sans système dorsal complexe
Utilisez un cadre d'agent avec la trousse SDK OpenAI lorsque :
- Vous devez orchestrer les outils de fonction côté client
- Vous avez besoin de fonctionnalités d'exécution côté client telles que l'interpréteur de commandes local ou l'accès au système de fichiers
- Vous devez coordonner plusieurs agents côté client
- Vous gérez la mémoire de session à l'aide de votre propre solution ou d'un système tiers