Adresses compatibles avec OCI OpenAI
Utilisez des adresses compatibles avec OCI Generative AI OpenAI pour appeler des modèles d'IA d'entreprise et créer des agents d'IA d'entreprise via une API familière de type OpenAI. Appelez ces adresses pour atteindre les modèles de demande OpenAI pris en charge tout en conservant l'authentification, l'exécution et la gestion des ressources dans OCI.
- Modèles d'IA d'entreprise
- Appelez les modèles hébergés pris en charge ou les modèles importés avec l'API Réponses ou Achèvements de discussion.
- Agents d'IA d'entreprise
-
Utilisez l'API de réponses comme API principale compatible OpenAI pour les charges globales agentiques. Vous pouvez l'utiliser avec les outils d'agent pris en charge, les fonctionnalités de mémoire d'agent et les blocs de construction d'agent de base de bas niveau tels que les fichiers, les magasins de vecteurs et les conteneurs.
En plus des adresses compatibles OpenAI, OCI Generative AI fournit également une API d'inférence native OCI via une adresse distincte pour les tâches de discussion, d'intégration et de reclassement.
Comprendre les adresses compatibles avec OCI OpenAI
L'adresse de base compatible OpenAI est :
https://inference.generativeai.${region}.oci.oraclecloud.com/openai/v1
Vous pouvez utiliser l'adresse de base avec des chemins de type OpenAI pris en charge par OCI.
Exemples de chemin :
/responses/conversations/containers/files
Avantages principaux
Bien que le format d'API soit compatible avec OpenAI, l'implémentation est entièrement intégrée à OCI :
- L'authentification utilise des clés d'API OCI Generative AI ou une authentification basée sur OCI IAM, et non des informations d'identification OpenAI.
- Les demandes sont acheminées vers les adresses d'inférence OCI Generative AI dans une région OCI prise en charge.
- Les ressources telles que les fichiers et les conteneurs sont créées et gérées dans OCI.
- Le traitement des données reste dans l'infrastructure OCI.
- Les applications existantes créées pour l'API OpenAI peuvent souvent être adaptées avec un minimum de modifications de code, généralement en mettant à jour l'URL de base, la méthode d'authentification et le nom du modèle.
Par exemple, une demande adressée à /openai/v1/containers crée et gère une ressource de conteneur dans OCI Generative AI.
Authentification
Vous pouvez accéder aux adresses compatibles avec OCI OpenAI de deux manières :
Utiliser des clés d'API pour les tests et le développement anticipé. Utilisez l'authentification basée sur IAM pour les workloads de production et les environnements gérés par OCI.
Adresses prises en charge
Utilisez des adresses compatibles avec OCI OpenAI uniquement avec des modèles pris en charge dans les régions prises en charge.
Pour les workflows d'inférence de modèle et agénétique
Pour accéder aux modèles hébergés et importés pris en charge via l'API compatible OCI OpenAI pour les workflows d'inférence de modèle et agénétiques, utilisez les adresses suivantes.
URL de base : https://inference.generativeai.${region}.oci.oraclecloud.com/openai/v1
| API | Chemin de l'adresse | Utilisation suggérée |
|---|---|---|
| API de réponses | /responses |
Utilisez cette interface principale pour appeler des modèles et générer des réponses. Vous pouvez éventuellement inclure des outils et des ID de conversation pris en charge pour le contexte. |
| API de conversations | /conversations |
Utilisez cette interface persistante avec conservation de statut pour gérer l'historique des conversations à plusieurs tours. Incluez l'ID de conversation dans l'API des réponses, qui reste l'adresse principale pour la génération des réponses de modèle. |
| API des fins de discussion | /chat/completions |
Utilisez cette interface de type discussion sans état et le prédécesseur de l'API Conversations avec conservation de statut si vous disposez déjà d'un code d'application construit autour de l'API de fin de discussion ou si vous avez besoin d'une interface de discussion uniquement plus simple. Sinon, utilisez l'API Conversations avec l'API Réponses. |
Composants de création d'agent
Pour les charges globales agentiques, les API compatibles avec OCI OpenAI incluent les éléments de base suivants :
| API | Chemin de l'adresse | Utilisation suggérée |
|---|---|---|
| API de fichiers | /files |
Pour charger et gérer des fichiers |
| API de fichiers de banque de vecteurs | /vector_stores/{id}/files |
Pour la gestion des fichiers joints à une banque de vecteurs. |
| API de lots de fichiers de banque de vecteurs | /vector_stores/{id}/file_batches |
Pour ajouter et gérer un lot de fichiers de stockage vectoriel en même temps. |
| API de recherche de magasin de vecteurs | /vector_stores/{id}/search |
Pour exécuter des recherches directes sur une banque de vecteurs. |
| API Containers | /containers |
Permet de créer et de gérer des conteneurs de modèle d'environnement restreint à utiliser dans les workflows d'agent. |
| API Container Files | /containers/{id}/files |
Pour gérer les fichiers dans un conteneur Sandbox. |
Modèles et régions pris en charge
Reportez-vous à Modèles et régions d'IA générative pour l'API compatible OpenAI.
Recommandation
Pour la plupart des nouvelles charges globales agénétiques, utilisez l'API Responses comme point d'entrée principal.
Dans de nombreux cas, vous pouvez sélectionner un modèle pris en charge, éventuellement inclure un contexte de conversation, déclarer des outils pris en charge dans la demande et envoyer la demande via l'API des réponses. OCI Generative AI gère ensuite l'exécution des modèles et l'utilisation des outils dans le cadre de ce workflow.
Si nécessaire, vous pouvez également combiner l'API Responses avec des API de base de niveau inférieur telles que les fichiers, les magasins de vecteurs et les conteneurs.
Cette approche est utile lorsque vous souhaitez :
- Utiliser les modèles pris en charge via une seule API.
- Déclarez les outils directement dans la demande.
- Créez des workflows agénétiques avec une exécution gérée par OCI.
- Ajoutez un contexte de conversation via l'API Conversations.
- Combinez les demandes de modèle avec des fichiers, des banques de vecteurs ou des conteneurs si nécessaire.
Exemple : utilisation des outils
Par exemple, pour utiliser l'appel MCP, indiquez un modèle et déclarez l'outil MCP dans la demande d'API Réponses. Vous n'avez pas besoin d'une API distincte propre à MCP.
response = client.responses.create(
model="openai.gpt-oss-120b",
tools=[
{
"type": "mcp",
"server_url": "https://example.com/mcp",
}
],
input="What events are scheduled for 2026-04-02?"
)Exemple : utilisation de l'historique des conversations
Pour le contexte de conversation, commencez par créer une conversation.
conversation = client.conversations.create()Envoyez ensuite l'ID de conversation dans la demande d'API Réponses pour une conversation à plusieurs tours.
response = client.responses.create(
model="openai.gpt-oss-120b",
input=[
{
"role": "user",
"content": "Recommend a restaurant based on the food that I like."
}
],
conversation=conversation.id,
)