API OCI Réponses

Utilisez l'API OCI Responses pour appeler des modèles pris en charge, générer des sorties de modèle et créer des workflows basés sur des outils ou en plusieurs étapes via une seule API compatible OpenAI et compatible Open Responses. Il prend en charge les entrées de texte et d'image et les sorties de texte. Vous pouvez l'utiliser pour créer des interactions avec l'historique des conversations, ajouter des outils pris en charge tels que la recherche de fichiers et l'interpréteur de code, et connecter le modèle à des systèmes externes via l'appel de fonction et l'appel MCP.

Comment l'API de réponses s'adapte à la création d'agent

Utilisez l'API de réponses avec les composants de création d'agent suivants dans OCI Generative AI :

Composant Objet
API de réponses API principale compatible OpenAI pour interagir avec les modèles et les workflows agénétiques pris en charge.
Outils d'agent Outils pour l'API Réponses, notamment la recherche de fichier, l'interpréteur de code, l'appel de fonction et l'appel MCP.
Mémoire d'agent Mémoire pour l'API Conversations, y compris l'accès à la mémoire à long terme et la compression du contexte de mémoire à court terme.
Blocs de construction des agents de base API de base compatible OpenAI, telle que l'API Fichiers, Magasins de vecteurs et Conteneurs, que vous pouvez utiliser avec l'API Réponses pour contrôler directement les ressources.

Si nécessaire, vous pouvez utiliser les blocs de base de bas niveau avec l'API Réponses.

Ce que vous pouvez faire avec l'API de réponses

Utilisez l'API des réponses pour :

  • Appelez les modèles hébergés pris en charge et les modèles importés.
  • Envoyer des entrées de texte et d'image et recevoir des sorties de texte.
  • Générer du texte ou des sorties structurées.
  • Exécuter des invites en une seule étape ou des workflows en plusieurs étapes.
  • Ajoutez les outils pris en charge dans la demande.
  • Diffusez les réponses vers le client.
  • Utilisez l'état de conversation géré par OCI via l'API Conversations.
  • Réutiliser l'historique des conversations ou les sorties précédentes comme contexte pour les demandes ultérieures.
  • Connectez le modèle aux systèmes et données externes via l'appel de fonction et l'appel MCP.
  • Combinez les demandes de modèle avec des fichiers, des banques de vecteurs ou des conteneurs si nécessaire.

Vous pouvez ainsi commencer par une simple invite et passer à des workflows plus avancés sans passer à une autre API.

Quand utiliser l'API des réponses

Pour la plupart des nouvelles applications, commencez par l'API Réponses.

Utilisez-le lorsque vous souhaitez :

  • Utiliser une API pour les fonctionnalités d'interaction de modèle et agénétiques.
  • Ajoutez les outils pris en charge à une demande de modèle.
  • Utilisez l'historique des conversations géré par OCI.
  • Générer des sorties structurées.
  • Créez des workflows qui peuvent également utiliser des fichiers, des banques de vecteurs ou des conteneurs si nécessaire.

Adresse d'API prise en charge

URL de base Chemin de l'adresse Authentification
https://inference.generativeai.${region}.oci.oraclecloud.com/openai/v1 /responses Clé d'API ou session IAM

Remplacez ${region} par une région OCI prise en charge telle que us-chicago-1.

Bien que le format de demande soit compatible avec OpenAI, l'authentification utilise les informations d'identification OCI, les demandes sont acheminées via les adresses d'inférence OCI Generative AI et les ressources et l'exécution restent dans OCI.

Remarque

L'API de réponses OCI utilise le même format que l'API de réponses OpenAI avec l'adresse compatible OCI OpenAI. Pour plus d'informations sur la syntaxe et les demandes, reportez-vous à la documentation de l'API OpenAI Responses. Si vous utilisez des outils, assurez-vous d'utiliser uniquement les types d'outil pris en charge par l'adresse compatible avec OCI OpenAI.

Authentification

Vous pouvez accéder aux adresses compatibles avec OCI OpenAI de deux manières :

Utiliser des clés d'API pour les tests et le développement anticipé. Utilisez l'authentification basée sur IAM pour les workloads de production et les environnements gérés par OCI.

Avant de commencer

Avant d'appeler l'API des réponses :

  • Créez un projet OCI Generative AI. Les appels d'API compatibles avec OCI OpenAI nécessitent un projet.
  • Configurez le client à l'aide de l'URL de base compatible OCI OpenAI.
  • Configurez l'authentification.
  • Utilisez un modèle pris en charge dans une région prise en charge.

Pour connaître les étapes de configuration, reportez-vous à QuickStart, à Authentification et à Modèles et régions pris en charge.

Pour appeler l'API des réponses à partir du code, nous vous recommandons d'utiliser le kit SDK OpenAI. Reportez-vous à Démarrage rapide.

Créez votre première réponse

L'exemple suivant utilise le kit SDK OpenAI avec l'adresse compatible OCI OpenAI, une clé d'API OCI Generative AI et un OCID de projet :

from openai import OpenAI

client = OpenAI(
    base_url="https://inference.generativeai.us-chicago-1.oci.oraclecloud.com/openai/v1",
    api_key="sk-xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx",
    project="ocid1.generativeaiproject.oc1.us-chicago-1.xxxxxxxx",
)

response = client.responses.create(
    model="<supported-model-id>",
    input="Write a one-sentence explanation of what a database is."
)

print(response.output_text)

Dans cet exemple :

  • base_url pointe vers l'adresse compatible avec OCI OpenAI.
  • client.responses.create(...) appelle l'API OCI Responses.
  • project identifie le projet OCI Generative AI pour la demande.

Utiliser la mémoire de l'agent avec l'API de réponses

Pour permettre à OCI de gérer l'historique des conversations multi-tours, commencez par créer une conversation :

conversation = client.conversations.create()

Incluez ensuite l'ID de conversation dans la demande d'API des réponses :


response = client.responses.create(
  model="<supported-model-id>",
  input=[
        {
            "role": "user",
            "content": "Recommend a restaurant based on the food I like."
        }
    ],
    conversation=conversation.id,
)

Utilisez ce modèle lorsque vous voulez qu'OCI gère l'état des conversations entre les demandes.

Pour plus d'informations sur les fonctionnalités de mémoire, reportez-vous à API Conversations, Mémoire à court terme, Mémoire à long terme et Compaction de mémoire à court terme.

Utiliser des outils avec l'API des réponses

L'API Réponses prend en charge les workflows avec outils via la propriété tools. Pour de nombreux cas d'utilisation, vous pouvez déclarer les outils de la demande et laisser OCI Generative AI coordonner l'exécution du modèle et l'utilisation des outils.

La prise en charge des outils n'est disponible que via l'API.

Types d'outils pris en charge

OCI Generative AI prend en charge les types d'outil suivants avec l'API Responses :

Outil tools[].type Description
Recherche de fichier "file_search" Permet à la recherche de modèle de télécharger des fichiers et du contenu de stockage vectoriel pour les réponses basées sur l'extraction.
Interpréteur de code "code_interpreter" Permet au modèle d'exécuter le code dans un environnement de modèle d'environnement restreint géré par OCI.
Appel de fonction "function" Permet à l'utilisateur de définir des fonctions locales et à l'application d'exécuter les fonctions et de renvoyer les résultats au modèle.
Appel MCP "mcp" Donne au modèle l'accès aux méthodes exposées par un serveur MCP distant.

Pour les étapes de configuration et les exemples, sélectionnez le lien pour chaque outil du tableau.

Remarque

OpenAI documente d'autres types d'outil, mais OCI Generative AI ne prend en charge que les types d'outil répertoriés ici pour l'API des réponses. D'autres fonctionnalités OCI, telles que NL2SQL, sont documentées séparément et ne sont pas configurées via le champ tools de l'API des réponses.

Exemple : appel MCP

L'exemple suivant définit un outil MCP dans la demande :

response = client.responses.create(
    model="openai.gpt-oss-120b",
    tools=[
        {
            "type": "mcp",
            "server_url": "https://example.com/mcp",
        }
    ],
    input="What events are scheduled for 2026-04-02?"
)

Dans cet exemple, l'API Responses appelle le modèle et transmet la définition de l'outil MCP dans le cadre de la même demande. Vous n'avez pas besoin d'une API distincte propre à MCP.

Quand utiliser l'API de base

Vous pouvez utiliser les blocs de base de l'agent de bas niveau avec l'API Responses lorsque votre workflow a besoin d'un contrôle direct sur les fichiers, les banques de vecteurs ou les conteneurs.

Exemples courants :

  • Chargement des fichiers avant l'envoi d'une demande de modèle
  • Gestion directe du contenu de la banque de vecteurs
  • Réutilisation de fichiers ou de ressources sur plusieurs demandes
  • Utiliser des conteneurs de modèle d'environnement restreint dans le cadre d'un workflow plus large

L'API suivante est couramment utilisée avec l'API Réponses :

API Chemin de l'adresse Utilisation standard avec l'API de réponses
API de fichiers /files Chargez et gérez les fichiers auxquels vous faites référence ultérieurement dans une demande de réponse.
API des magasins de vecteurs /vector_stores/... Gérer le contenu de banque de vecteurs utilisé pour les workflows d'extraction, tels que la recherche de fichiers.
API Containers /containers et /containers/{id}/files Gérer les ressources de modèle d'environnement restreint utilisées dans les workflows avec outils.

Exemple : chargez d'abord un fichier, puis utilisez-le dans l'API des réponses

Chargez d'abord un fichier :

file_response = client.files.create(
    file=open("example-document.pdf", "rb"),
    purpose="assistants"
)

file_id = file_response.id

Référencez ensuite le fichier téléchargé dans la demande d'API des réponses :

response = client.responses.create(
    model="<model-id>",
    input=[
        {
            "role": "user",
            "content": [
                { "type": "input_file", "file_id": file_id },
                { "type": "input_text", "text": "List all the cities mentioned in this document." }
            ]
        }
    ]
)

Dans cet exemple, l'API Fichiers et l'API Réponses fonctionnent ensemble dans un seul workflow.

SDK et structures

Vous pouvez utiliser l'API OCI Responses avec le kit SDK OpenAI. Vous pouvez également l'utiliser avec des structures d'agent côté client compatibles.

Le kit SDK OpenAI prend en charge les langages suivants :

  • Python
  • Java
  • TypeScript
  • Accéder
  • .NET

Plus de soutien linguistique est disponible dans les bibliothèques communautaires.

Les structures d'agent compatibles incluent :

  • SDK d'agents OpenAI (recommandé)
  • SDK OpenAI Codex
  • Structure d'agent Microsoft
  • LangChain
  • Langgraph
  • IAEquipe
  • Génération automatique
  • LlamaIndex
  • Pydantique

API de réponses OCI et API de réponses OpenAI

Fonction API OCI Réponses API des réponses OpenAI
Choix du modèle Prend en charge les modèles hébergés par OCI et les modèles non OpenAI Modèles OpenAI uniquement
Infrastructure de service de modèle Infrastructure partagée OCI ou clusters d'IA dédiés Infrastructure partagée OpenAI
Authentification Clés d'API ou OCI IAM Clés d'API
Conservation des données Les données restent dans OCI Les données sont stockées dans OpenAI
Réseau privé Prend en charge l'intégration OCI VCN et les adresses privées Non disponibles
Modèle d'adresse Adresses régionales Adresse globale