Points d'extrémité compatibles avec OCI OpenAI
Utiliser des points d'extrémité compatibles avec OCI Generative AI OpenAI pour appeler des modèles d'IA d'entreprise et créer des agents d'IA d'entreprise au moyen d'une API de style OpenAI familière. Appelez ces points d'extrémité pour atteindre les modèles de demande OpenAI pris en charge tout en assurant l'authentification, l'exécution et la gestion des ressources dans OCI.
- Modèles d'IA d'entreprise
- Appeler des modèles hébergés pris en charge ou des modèles importés à l'aide de l'API Réponses ou Achèvements de clavardage.
- Agents d'IA d'entreprise
-
Utilisez l'API Responses en tant qu'API principale compatible OpenAI pour les charges de travail agéntiques. Vous pouvez l'utiliser avec les outils d'agent pris en charge, les capacités de mémoire d'agent et les blocs fonctionnels d'agent de base de bas niveau tels que les fichiers, les magasins de vecteurs et les conteneurs.
En plus des points d'extrémité compatibles avec OpenAI, OCI Generative AI fournit également une API d'inférence native OCI au moyen d'un point d'extrémité distinct pour les tâches de clavardage, d'intégration et de reclassement.
Présentation des points d'extrémité compatibles avec OCI OpenAI
Le point d'extrémité de base compatible OpenAI est :
https://inference.generativeai.${region}.oci.oraclecloud.com/openai/v1
Vous pouvez utiliser le point d'extrémité de base avec des chemins de style OpenAI pris en charge par OCI.
Exemples de chemins :
/responses/conversations/containers/files
Principaux avantages
Bien que le format d'API soit compatible avec OpenAI, l'implémentation est entièrement intégrée à OCI :
- L'authentification utilise des clés d'API du service d'intelligence artificielle générative pour OCI ou l'authentification basée sur OCI IAM, et non des données d'identification OpenAI.
- Les demandes sont acheminées vers les points d'extrémité d'inférence du service d'intelligence artificielle générative pour OCI dans une région OCI prise en charge.
- Des ressources telles que des fichiers et des conteneurs sont créées et gérées dans OCI.
- Le traitement des données reste dans l'infrastructure OCI.
- Les applications existantes créées pour l'API OpenAI peuvent souvent être adaptées avec des modifications de code minimes, généralement en mettant à jour l'URL de base, la méthode d'authentification et le nom du modèle.
Par exemple, une demande à /openai/v1/containers crée et gère une ressource de conteneur dans l'intelligence artificielle générative pour OCI.
Authentification
Vous pouvez accéder aux points d'extrémité compatibles avec OCI OpenAI de deux façons :
- Clés d'API du service d'intelligence artificielle générative pour OCI
- Authentification basée sur OCI IAM
Utilisez des clés d'API pour les tests et le développement anticipé. Utiliser l'authentification basée sur IAM pour les charges de travail de production et les environnements OCI gérés.
Points d'extrémité pris en charge
Utilisez des points d'extrémité compatibles avec OCI OpenAI uniquement avec les modèles pris en charge dans les régions prises en charge.
Pour l'inférence de modèle et les flux de travail agéntiques
Pour accéder aux modèles hébergés et importés pris en charge au moyen de l'API compatible OCI OpenAI pour l'inférence de modèle et les flux de travail agéntiques, utilisez les points d'extrémité suivants.
URL de base : https://inference.generativeai.${region}.oci.oraclecloud.com/openai/v1
| API | Chemin du point d'extrémité | Utilisation suggérée |
|---|---|---|
| API de réponses | /responses |
Utilisez cette interface principale pour appeler des modèles et générer des réponses. Facultativement, inclure les outils et les ID conversation pris en charge pour le contexte. |
| API Conversations | /conversations |
Utilisez cette interface persistante avec état pour gérer l'historique de conversation à plusieurs tours. Incluez l'ID conversation dans l'API Réponses, qui reste le point d'extrémité principal pour la génération des réponses de modèle. |
| API d'achèvement de clavardage | /chat/completions |
Utilisez cette interface de type clavardage sans état et prédécesseur de l'API de conversations avec état si vous disposez déjà d'un code d'application basé sur l'API de fin de clavardage ou si vous avez besoin d'une interface de clavardage simple. Sinon, utilisez l'API Conversations avec l'API Réponses. |
Composants de création d'agent
Pour les charges de travail agéntiques, les API compatibles avec OCI OpenAI comprennent les composants de base suivants :
| API | Chemin du point d'extrémité | Utilisation suggérée |
|---|---|---|
| API Fichiers | /files |
Pour charger et gérer des fichiers |
| API de fichiers de magasin de vecteurs | /vector_stores/{id}/files |
Pour gérer les fichiers attachés à un magasin de vecteurs. |
| API de lots de fichiers du magasin de vecteurs | /vector_stores/{id}/file_batches |
Pour ajouter et gérer un lot de fichiers de stockage vectoriel en même temps. |
| API de recherche de magasin de vecteurs | /vector_stores/{id}/search |
Pour exécuter des recherches directes sur un magasin de vecteurs. |
| API Conteneurs | /containers |
Pour créer et gérer des conteneurs de bac à sable à utiliser dans les flux de travail d'agent. |
| API de fichiers conteneur | /containers/{id}/files |
Pour gérer les fichiers dans un conteneur de bac à sable. |
Modèles et régions pris en charge
Recommandation
Pour la plupart des nouvelles charges de travail agéntiques, utilisez l'API Réponses comme point d'entrée principal.
Dans de nombreux cas, vous pouvez sélectionner un modèle pris en charge, éventuellement inclure un contexte de conversation, déclarer des outils pris en charge dans la demande et envoyer la demande au moyen de l'API Réponses. OCI Generative AI gère ensuite l'exécution du modèle et l'utilisation des outils dans le cadre de ce flux de travail.
Si nécessaire, vous pouvez également combiner l'API Réponses avec des API de base de niveau inférieur telles que Fichiers, Magasins de vecteurs et Conteneurs.
Cette approche est utile lorsque vous souhaitez :
- Utiliser des modèles pris en charge au moyen d'une seule API.
- Déclarez les outils directement dans la demande.
- Créez des flux de travail agéntiques avec une exécution gérée par OCI.
- Ajouter un contexte de conversation au moyen de l'API Conversations.
- Combinez les demandes de modèle avec des fichiers, des magasins vectoriels ou des conteneurs, au besoin.
Exemple : Utilisation des outils
Par exemple, pour utiliser l'appel MCP, spécifiez un modèle et déclarez l'outil MCP dans la demande d'API Responses. Vous n'avez pas besoin d'une API propre à MCP distincte.
response = client.responses.create(
model="openai.gpt-oss-120b",
tools=[
{
"type": "mcp",
"server_url": "https://example.com/mcp",
}
],
input="What events are scheduled for 2026-04-02?"
)Exemple : Utilisation de l'historique des conversations
Pour le contexte de conversation, créez d'abord une conversation.
conversation = client.conversations.create()Ensuite, envoyez l'ID conversation dans la demande d'API Réponses pour une conversation à plusieurs tours.
response = client.responses.create(
model="openai.gpt-oss-120b",
input=[
{
"role": "user",
"content": "Recommend a restaurant based on the food that I like."
}
],
conversation=conversation.id,
)