API de réponses OCI

Utilisez l'API de réponses d'OCI pour appeler des modèles pris en charge, générer des sorties de modèle et créer des flux de travail basés sur des outils ou en plusieurs étapes au moyen d'une seule API compatible OpenAI et conforme à Open Responses. Il prend en charge les entrées de texte et d'image et les sorties de texte. Vous pouvez l'utiliser pour créer des interactions avec l'historique des conversations, ajouter des outils pris en charge tels que la recherche de fichiers et l'interpréteur de code, et connecter le modèle à des systèmes externes au moyen de l'appel de fonction et de l'appel MCP.

Comment l'API Réponses s'adapte à la création d'agent

Utilisez l'API Réponses avec les composants de création d'agent suivants dans le service d'intelligence artificielle générative pour OCI :

Composant Objectif
API de réponses API principale compatible OpenAI permettant d'interagir avec les modèles pris en charge et les flux de travail agéntiques.
Outils d'agent Outils pour l'API Réponses, y compris la recherche de fichiers, l'interpréteur de code, l'appel de fonction et l'appel MCP.
Mémoire de l'agent Mémoire pour l'API Conversations, y compris l'accès à la mémoire à long terme et le compactage du contexte de mémoire à court terme.
Composants de base de l'agent API de base compatible OpenAI, telle que Fichiers, Magasins de vecteurs et API de conteneurs, que vous pouvez utiliser avec l'API Réponses pour un contrôle direct sur les ressources.

Si nécessaire, vous pouvez utiliser les blocs fonctionnels de bas niveau avec l'API Responses.

Ce que vous pouvez faire avec l'API Réponses

Utilisez l'API Réponses pour :

  • Appeler les modèles hébergés et les modèles importés pris en charge.
  • Envoyer des entrées de texte et d'image et recevoir des sorties de texte.
  • Générer du texte ou des sorties structurées.
  • Exécuter des invites en une seule étape ou des flux de travail en plusieurs étapes.
  • Ajoutez les outils pris en charge dans la demande.
  • Transmettre les réponses au client.
  • Utilisez l'état de conversation géré par OCI au moyen de l'API Conversations.
  • Réutiliser l'historique de conversation ou les sorties précédentes comme contexte pour les demandes ultérieures.
  • Connectez le modèle aux systèmes et données externes via l'appel de fonction et l'appel MCP.
  • Combinez les demandes de modèle avec des fichiers, des magasins vectoriels ou des conteneurs, au besoin.

Cela vous permet de commencer par une invite simple et de passer à des flux de travail plus avancés sans passer à une autre API.

Quand utiliser l'API Réponses

Pour la plupart des nouvelles applications, commencez par l'API Responses.

Utilisez-le lorsque vous souhaitez :

  • Utiliser une API unique pour les interactions et les capacités agéntiques du modèle.
  • Ajouter des outils pris en charge à une demande de modèle.
  • Utilisez l'historique de conversation géré par OCI.
  • Générer des sorties structurées.
  • Créez des flux de travail qui peuvent également utiliser des fichiers, des magasins vectoriels ou des conteneurs, au besoin.

Point d'extrémité d'API pris en charge

URL de base Chemin du point d'extrémité Authentification
https://inference.generativeai.${region}.oci.oraclecloud.com/openai/v1 /responses Clé d'API ou session IAM

Remplacez ${region} par une région OCI prise en charge telle que us-chicago-1.

Bien que le format de la demande soit compatible avec OpenAI, l'authentification utilise les données d'identification OCI, les demandes sont acheminées au moyen des points d'extrémité d'inférence du service d'intelligence artificielle générative pour OCI et les ressources et l'exécution restent dans OCI.

Note

L'API des réponses OCI utilise le même format que l'API des réponses OpenAI avec le point d'extrémité compatible OCI OpenAI. Pour plus de détails sur la syntaxe et les demandes, consultez la documentation relative à l'API OpenAI Responses. Si vous utilisez des outils, assurez-vous d'utiliser uniquement les types d'outil pris en charge par le point d'extrémité compatible OCI OpenAI.

Avant de commencer

Avant d'appeler l'API Réponses :

  • Créez un projet OCI Generative AI. Les appels d'API compatibles avec OCI OpenAI nécessitent un projet.
  • Configurez le client avec l'URL de base compatible OCI OpenAI.
  • définition de l'authentification;
  • Utiliser un modèle pris en charge dans une région prise en charge.

Pour les étapes de configuration, voir QuickStart, Authentication et Modèles et régions pris en charge.

Pour appeler l'API de réponses à partir du code, nous vous recommandons d'utiliser la trousse SDK OpenAI. Voir QuickStart.

Créer votre première réponse

L'exemple suivant utilise la trousse SDK OpenAI avec le point d'extrémité compatible OCI OpenAI, une clé d'API OCI Generative AI et un OCID de projet :

from openai import OpenAI

client = OpenAI(
    base_url="https://inference.generativeai.us-chicago-1.oci.oraclecloud.com/openai/v1",
    api_key="sk-xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx",
    project="ocid1.generativeaiproject.oc1.us-chicago-1.xxxxxxxx",
)

response = client.responses.create(
    model="<supported-model-id>",
    input="Write a one-sentence explanation of what a database is."
)

print(response.output_text)

Dans cet exemple :

  • base_url pointe vers le point d'extrémité compatible OCI OpenAI.
  • client.responses.create(...) appelle l'API de réponses OCI.
  • project identifie le projet OCI Generative AI pour la demande.

Utiliser la mémoire de l'agent avec l'API de réponses

Pour permettre à OCI de gérer l'historique de conversation à plusieurs tours, créez d'abord une conversation :

conversation = client.conversations.create()

Incluez ensuite l'ID conversation dans la demande d'API Réponses :


response = client.responses.create(
  model="<supported-model-id>",
  input=[
        {
            "role": "user",
            "content": "Recommend a restaurant based on the food I like."
        }
    ],
    conversation=conversation.id,
)

Utilisez ce modèle lorsque vous voulez qu'OCI gère l'état de conversation entre les demandes.

Pour plus d'informations sur les capacités de mémoire, voir API de conversations, Mémoire à court terme, Mémoire à long terme et Compaction de mémoire à court terme.

Utiliser des outils avec l'API de réponses

L'API Réponses prend en charge les flux de travail activés pour l'outil au moyen de la propriété tools. Pour de nombreux cas d'utilisation, vous pouvez déclarer les outils dans la demande et laisser OCI Generative AI coordonner l'exécution du modèle et l'utilisation de l'outil.

La prise en charge des outils est disponible uniquement au moyen de l'API.

Types d'outils pris en charge

OCI Generative AI prend en charge les types d'outil suivants avec l'API Responses :

Outil tools[].type Description
Recherche de fichier "file_search" Permet de rechercher les fichiers chargés du modèle et le contenu du magasin vectoriel pour les réponses basées sur l'extraction.
Interpréteur de code "code_interpreter" Permet au modèle d'exécuter le code dans un environnement de bac à sable géré par OCI.
Appel de fonction "function" Permet à l'utilisateur de définir des fonctions locales et à l'application d'exécuter les fonctions et de retourner les résultats au modèle.
Appel MCP "mcp" Permet au modèle d'accéder aux méthodes exposées par un serveur MCP distant.

Pour les étapes de configuration et les exemples, sélectionnez le lien correspondant à chaque outil de la table.

Note

OpenAI documente d'autres types d'outil, mais OCI Generative AI prend en charge uniquement les types d'outil répertoriés ici pour l'API Responses. D'autres fonctions OCI, telles que NL2SQL, sont documentées séparément et ne sont pas configurées au moyen du champ API Responses tools.

Exemple : Appel MCP

L'exemple suivant définit un outil MCP dans la demande :

response = client.responses.create(
    model="openai.gpt-oss-120b",
    tools=[
        {
            "type": "mcp",
            "server_url": "https://example.com/mcp",
        }
    ],
    input="What events are scheduled for 2026-04-02?"
)

Dans cet exemple, l'API Responses appelle le modèle et transmet la définition de l'outil MCP dans le cadre de la même demande. Vous n'avez pas besoin d'une API propre à MCP distincte.

Quand utiliser l'API fondamentale

Vous pouvez utiliser les blocs fonctionnels d'agent de base de bas niveau avec l'API Réponses lorsque votre flux de travail a besoin d'un contrôle direct sur les fichiers, les magasins vectoriels ou les conteneurs.

Exemples courants :

  • Chargement de fichiers avant l'envoi d'une demande de modèle
  • Gestion directe du contenu du magasin vectoriel
  • Réutilisation de fichiers ou de ressources pour plusieurs demandes
  • Utilisation de conteneurs de bac à sable dans le cadre d'un flux de travail plus large

L'API suivante est couramment utilisée avec l'API Responses :

API Chemin du point d'extrémité Utilisation typique avec l'API Responses
API Fichiers /files Chargez et gérez les fichiers que vous référencerez ultérieurement dans une demande de réponse.
API de magasins de vecteurs /vector_stores/... Gérer le contenu du magasin vectoriel utilisé pour les flux de travail d'extraction tels que la recherche de fichiers.
API Conteneurs /containers et /containers/{id}/files Gérer les ressources de bac à sable utilisées dans les flux de travail avec outils.

Exemple : Chargez d'abord un fichier, puis utilisez-le dans l'API Responses

Chargez d'abord un fichier :

file_response = client.files.create(
    file=open("example-document.pdf", "rb"),
    purpose="assistants"
)

file_id = file_response.id

Référencez ensuite le fichier chargé dans la demande d'API Responses :

response = client.responses.create(
    model="<model-id>",
    input=[
        {
            "role": "user",
            "content": [
                { "type": "input_file", "file_id": file_id },
                { "type": "input_text", "text": "List all the cities mentioned in this document." }
            ]
        }
    ]
)

Dans cet exemple, l'API Fichiers et l'API Réponses fonctionnent ensemble dans un seul flux de travail.

Trousses SDK et cadres

Vous pouvez utiliser l'API de réponses OCI avec la trousse SDK OpenAI. Vous pouvez également l'utiliser avec des cadres d'agent côté client compatibles.

La trousse SDK OpenAI prend en charge ces langages :

  • Python
  • Java
  • TypeScript
  • Aller
  • .NET

Plus de soutien linguistique est disponible via les bibliothèques communautaires.

Les cadres d'agent compatibles incluent :

  • Trousse SDK pour agents OpenAI (recommandée)
  • OpenAI Codex SDK
  • Cadre d'agent Microsoft
  • LangChain
  • LangGraph
  • Équipage
  • Génération automatique
  • LlamaIndex
  • Pydantique

API de réponses OCI et API de réponses OpenAI

Fonction API de réponses OCI API de réponses OpenAI
Choix du modèle Prend en charge les modèles hébergés par OCI et les modèles non OpenAI Modèles OpenAI uniquement
Infrastructure de service de modèle Infrastructure partagée OCI ou grappes d'IA dédiées Infrastructure partagée OpenAI
Authentification Clés OCI IAM ou API Clés d'API
Conservation des données Les données restent dans OCI Les données sont stockées dans OpenAI
Réseau privé Prend en charge l'intégration du VCN OCI et les points d'extrémité privés Non disponible
Modèle de point d'extrémité Points d'extrémité régionaux Point d'extrémité global