Points d'extrémité compatibles avec OCI OpenAI

Utiliser des points d'extrémité compatibles avec OCI Generative AI OpenAI pour appeler des modèles d'IA d'entreprise et créer des agents d'IA d'entreprise au moyen d'une API de style OpenAI familière. Appelez ces points d'extrémité pour atteindre les modèles de demande OpenAI pris en charge tout en assurant l'authentification, l'exécution et la gestion des ressources dans OCI.

Modèles d'IA d'entreprise
Appeler des modèles hébergés pris en charge ou des modèles importés à l'aide de l'API Réponses ou Achèvements de clavardage.
Agents d'IA d'entreprise

Utilisez l'API Responses en tant qu'API principale compatible OpenAI pour les charges de travail agéntiques. Vous pouvez l'utiliser avec les outils d'agent pris en charge, les capacités de mémoire d'agent et les blocs fonctionnels d'agent de base de bas niveau tels que les fichiers, les magasins de vecteurs et les conteneurs.

En plus des points d'extrémité compatibles avec OpenAI, OCI Generative AI fournit également une API d'inférence native OCI au moyen d'un point d'extrémité distinct pour les tâches de clavardage, d'intégration et de reclassement.

Présentation des points d'extrémité compatibles avec OCI OpenAI

Le point d'extrémité de base compatible OpenAI est :

https://inference.generativeai.${region}.oci.oraclecloud.com/openai/v1

Vous pouvez utiliser le point d'extrémité de base avec des chemins de style OpenAI pris en charge par OCI.

Exemples de chemins :

  • /responses
  • /conversations
  • /containers
  • /files

Principaux avantages

Bien que le format d'API soit compatible avec OpenAI, l'implémentation est entièrement intégrée à OCI :

  • L'authentification utilise des clés d'API du service d'intelligence artificielle générative pour OCI ou l'authentification basée sur OCI IAM, et non des données d'identification OpenAI.
  • Les demandes sont acheminées vers les points d'extrémité d'inférence du service d'intelligence artificielle générative pour OCI dans une région OCI prise en charge.
  • Des ressources telles que des fichiers et des conteneurs sont créées et gérées dans OCI.
  • Le traitement des données reste dans l'infrastructure OCI.
  • Les applications existantes créées pour l'API OpenAI peuvent souvent être adaptées avec des modifications de code minimes, généralement en mettant à jour l'URL de base, la méthode d'authentification et le nom du modèle.

Par exemple, une demande à /openai/v1/containers crée et gère une ressource de conteneur dans l'intelligence artificielle générative pour OCI.

Points d'extrémité pris en charge

Important

Utilisez des points d'extrémité compatibles avec OCI OpenAI uniquement avec les modèles pris en charge dans les régions prises en charge.

Pour l'inférence de modèle et les flux de travail agéntiques

Pour accéder aux modèles hébergés et importés pris en charge au moyen de l'API compatible OCI OpenAI pour l'inférence de modèle et les flux de travail agéntiques, utilisez les points d'extrémité suivants.

URL de base : https://inference.generativeai.${region}.oci.oraclecloud.com/openai/v1

API Chemin du point d'extrémité Utilisation suggérée
API de réponses /responses Utilisez cette interface principale pour appeler des modèles et générer des réponses. Facultativement, inclure les outils et les ID conversation pris en charge pour le contexte.
API Conversations /conversations Utilisez cette interface persistante avec état pour gérer l'historique de conversation à plusieurs tours. Incluez l'ID conversation dans l'API Réponses, qui reste le point d'extrémité principal pour la génération des réponses de modèle.
API d'achèvement de clavardage /chat/completions Utilisez cette interface de type clavardage sans état et prédécesseur de l'API de conversations avec état si vous disposez déjà d'un code d'application basé sur l'API de fin de clavardage ou si vous avez besoin d'une interface de clavardage simple. Sinon, utilisez l'API Conversations avec l'API Réponses.

Composants de création d'agent

Pour les charges de travail agéntiques, les API compatibles avec OCI OpenAI comprennent les composants de base suivants :

API Chemin du point d'extrémité Utilisation suggérée
API Fichiers /files Pour charger et gérer des fichiers
API de fichiers de magasin de vecteurs /vector_stores/{id}/files Pour gérer les fichiers attachés à un magasin de vecteurs.
API de lots de fichiers du magasin de vecteurs /vector_stores/{id}/file_batches Pour ajouter et gérer un lot de fichiers de stockage vectoriel en même temps.
API de recherche de magasin de vecteurs /vector_stores/{id}/search Pour exécuter des recherches directes sur un magasin de vecteurs.
API Conteneurs /containers Pour créer et gérer des conteneurs de bac à sable à utiliser dans les flux de travail d'agent.
API de fichiers conteneur /containers/{id}/files Pour gérer les fichiers dans un conteneur de bac à sable.

Recommandation

Pour la plupart des nouvelles charges de travail agéntiques, utilisez l'API Réponses comme point d'entrée principal.

Dans de nombreux cas, vous pouvez sélectionner un modèle pris en charge, éventuellement inclure un contexte de conversation, déclarer des outils pris en charge dans la demande et envoyer la demande au moyen de l'API Réponses. OCI Generative AI gère ensuite l'exécution du modèle et l'utilisation des outils dans le cadre de ce flux de travail.

Si nécessaire, vous pouvez également combiner l'API Réponses avec des API de base de niveau inférieur telles que Fichiers, Magasins de vecteurs et Conteneurs.

Cette approche est utile lorsque vous souhaitez :

  • Utiliser des modèles pris en charge au moyen d'une seule API.
  • Déclarez les outils directement dans la demande.
  • Créez des flux de travail agéntiques avec une exécution gérée par OCI.
  • Ajouter un contexte de conversation au moyen de l'API Conversations.
  • Combinez les demandes de modèle avec des fichiers, des magasins vectoriels ou des conteneurs, au besoin.

Exemple : Utilisation des outils

Par exemple, pour utiliser l'appel MCP, spécifiez un modèle et déclarez l'outil MCP dans la demande d'API Responses. Vous n'avez pas besoin d'une API propre à MCP distincte.

response = client.responses.create(
    model="openai.gpt-oss-120b",
    tools=[
        {
            "type": "mcp",
            "server_url": "https://example.com/mcp",
        }
    ],
    input="What events are scheduled for 2026-04-02?"
)

Exemple : Utilisation de l'historique des conversations

Pour le contexte de conversation, créez d'abord une conversation.

conversation = client.conversations.create()

Ensuite, envoyez l'ID conversation dans la demande d'API Réponses pour une conversation à plusieurs tours.

response = client.responses.create(
    model="openai.gpt-oss-120b",
    input=[
        {
            "role": "user",
            "content": "Recommend a restaurant based on the food that I like."
        }
    ],
    conversation=conversation.id,
)