Adresses compatibles avec OCI OpenAI

Utilisez des adresses compatibles avec OCI Generative AI OpenAI pour appeler des modèles d'IA d'entreprise et créer des agents d'IA d'entreprise via une API familière de type OpenAI. Appelez ces adresses pour atteindre les modèles de demande OpenAI pris en charge tout en conservant l'authentification, l'exécution et la gestion des ressources dans OCI.

Modèles d'IA d'entreprise
Appelez les modèles hébergés pris en charge ou les modèles importés avec l'API Réponses ou Achèvements de discussion.
Agents d'IA d'entreprise

Utilisez l'API de réponses comme API principale compatible OpenAI pour les charges globales agentiques. Vous pouvez l'utiliser avec les outils d'agent pris en charge, les fonctionnalités de mémoire d'agent et les blocs de construction d'agent de base de bas niveau tels que les fichiers, les magasins de vecteurs et les conteneurs.

En plus des adresses compatibles OpenAI, OCI Generative AI fournit également une API d'inférence native OCI via une adresse distincte pour les tâches de discussion, d'intégration et de reclassement.

Comprendre les adresses compatibles avec OCI OpenAI

L'adresse de base compatible OpenAI est :

https://inference.generativeai.${region}.oci.oraclecloud.com/openai/v1

Vous pouvez utiliser l'adresse de base avec des chemins de type OpenAI pris en charge par OCI.

Exemples de chemin :

  • /responses
  • /conversations
  • /containers
  • /files

Avantages principaux

Bien que le format d'API soit compatible avec OpenAI, l'implémentation est entièrement intégrée à OCI :

  • L'authentification utilise des clés d'API OCI Generative AI ou une authentification basée sur OCI IAM, et non des informations d'identification OpenAI.
  • Les demandes sont acheminées vers les adresses d'inférence OCI Generative AI dans une région OCI prise en charge.
  • Les ressources telles que les fichiers et les conteneurs sont créées et gérées dans OCI.
  • Le traitement des données reste dans l'infrastructure OCI.
  • Les applications existantes créées pour l'API OpenAI peuvent souvent être adaptées avec un minimum de modifications de code, généralement en mettant à jour l'URL de base, la méthode d'authentification et le nom du modèle.

Par exemple, une demande adressée à /openai/v1/containers crée et gère une ressource de conteneur dans OCI Generative AI.

Authentification

Vous pouvez accéder aux adresses compatibles avec OCI OpenAI de deux manières :

Utiliser des clés d'API pour les tests et le développement anticipé. Utilisez l'authentification basée sur IAM pour les workloads de production et les environnements gérés par OCI.

Adresses prises en charge

Important

Utilisez des adresses compatibles avec OCI OpenAI uniquement avec des modèles pris en charge dans les régions prises en charge.

Pour les workflows d'inférence de modèle et agénétique

Pour accéder aux modèles hébergés et importés pris en charge via l'API compatible OCI OpenAI pour les workflows d'inférence de modèle et agénétiques, utilisez les adresses suivantes.

URL de base : https://inference.generativeai.${region}.oci.oraclecloud.com/openai/v1

API Chemin de l'adresse Utilisation suggérée
API de réponses /responses Utilisez cette interface principale pour appeler des modèles et générer des réponses. Vous pouvez éventuellement inclure des outils et des ID de conversation pris en charge pour le contexte.
API de conversations /conversations Utilisez cette interface persistante avec conservation de statut pour gérer l'historique des conversations à plusieurs tours. Incluez l'ID de conversation dans l'API des réponses, qui reste l'adresse principale pour la génération des réponses de modèle.
API des fins de discussion /chat/completions Utilisez cette interface de type discussion sans état et le prédécesseur de l'API Conversations avec conservation de statut si vous disposez déjà d'un code d'application construit autour de l'API de fin de discussion ou si vous avez besoin d'une interface de discussion uniquement plus simple. Sinon, utilisez l'API Conversations avec l'API Réponses.

Composants de création d'agent

Pour les charges globales agentiques, les API compatibles avec OCI OpenAI incluent les éléments de base suivants :

API Chemin de l'adresse Utilisation suggérée
API de fichiers /files Pour charger et gérer des fichiers
API de fichiers de banque de vecteurs /vector_stores/{id}/files Pour la gestion des fichiers joints à une banque de vecteurs.
API de lots de fichiers de banque de vecteurs /vector_stores/{id}/file_batches Pour ajouter et gérer un lot de fichiers de stockage vectoriel en même temps.
API de recherche de magasin de vecteurs /vector_stores/{id}/search Pour exécuter des recherches directes sur une banque de vecteurs.
API Containers /containers Permet de créer et de gérer des conteneurs de modèle d'environnement restreint à utiliser dans les workflows d'agent.
API Container Files /containers/{id}/files Pour gérer les fichiers dans un conteneur Sandbox.

Recommandation

Pour la plupart des nouvelles charges globales agénétiques, utilisez l'API Responses comme point d'entrée principal.

Dans de nombreux cas, vous pouvez sélectionner un modèle pris en charge, éventuellement inclure un contexte de conversation, déclarer des outils pris en charge dans la demande et envoyer la demande via l'API des réponses. OCI Generative AI gère ensuite l'exécution des modèles et l'utilisation des outils dans le cadre de ce workflow.

Si nécessaire, vous pouvez également combiner l'API Responses avec des API de base de niveau inférieur telles que les fichiers, les magasins de vecteurs et les conteneurs.

Cette approche est utile lorsque vous souhaitez :

  • Utiliser les modèles pris en charge via une seule API.
  • Déclarez les outils directement dans la demande.
  • Créez des workflows agénétiques avec une exécution gérée par OCI.
  • Ajoutez un contexte de conversation via l'API Conversations.
  • Combinez les demandes de modèle avec des fichiers, des banques de vecteurs ou des conteneurs si nécessaire.

Exemple : utilisation des outils

Par exemple, pour utiliser l'appel MCP, indiquez un modèle et déclarez l'outil MCP dans la demande d'API Réponses. Vous n'avez pas besoin d'une API distincte propre à MCP.

response = client.responses.create(
    model="openai.gpt-oss-120b",
    tools=[
        {
            "type": "mcp",
            "server_url": "https://example.com/mcp",
        }
    ],
    input="What events are scheduled for 2026-04-02?"
)

Exemple : utilisation de l'historique des conversations

Pour le contexte de conversation, commencez par créer une conversation.

conversation = client.conversations.create()

Envoyez ensuite l'ID de conversation dans la demande d'API Réponses pour une conversation à plusieurs tours.

response = client.responses.create(
    model="openai.gpt-oss-120b",
    input=[
        {
            "role": "user",
            "content": "Recommend a restaurant based on the food that I like."
        }
    ],
    conversation=conversation.id,
)