OCI-Antwort-API

Mit der OCI Responses API können Sie unterstützte Modelle aufrufen, Modellausgaben generieren und toolbasierte oder mehrstufige Workflows über eine einzige OpenAI-kompatible, Open Responses-kompatible API erstellen. Es unterstützt Text- und Bildeingaben und Textausgaben. Sie können damit zustandsbehaftete Interaktionen mit der Unterhaltungshistorie erstellen, unterstützte Tools wie Dateisuche und Codeinterpreter hinzufügen und das Modell über Funktionsaufrufe und MCP-Aufrufe mit externen Systemen verbinden.

So passt die Responses-API in die Agent-Erstellung

Verwenden Sie die Responses-API zusammen mit den folgenden Agent-Building-Komponenten in OCI Generative AI:

Komponente Zweck
Antwort-API Die primäre OpenAI-kompatible API für die Interaktion mit unterstützten Modellen und Agent-Workflows.
Agent-Tools Tools für die Responses API, einschließlich Dateisuche, Code-Interpreter, Funktionsaufruf und MCP-Aufruf.
Agent-Speicher Arbeitsspeicher für die Conversations-API, einschließlich Langzeitgedächtniszugriff und Kurzzeitgedächtniskontextverdichtung.
Grundlegende Agent-Bausteine OpenAI-kompatible grundlegende API wie Dateien, Vektorspeicher und Container-API, die Sie mit der Responses-API zur direkten Kontrolle über Ressourcen verwenden können.

Bei Bedarf können Sie die grundlegenden Bausteine der unteren Ebene mit der Responses-API verwenden.

Was Sie mit der Responses API tun können

Mit der Antwort-API können Sie:

  • Unterstützte gehostete Modelle und importierte Modelle aufrufen.
  • Senden Sie Text- und Bildeingaben und empfangen Sie Textausgaben.
  • Text oder strukturierte Ausgaben generieren
  • Führen Sie Prompts in einem Schritt oder Workflows in mehreren Schritten aus.
  • Fügen Sie unterstützte Tools in der Anforderung hinzu.
  • Streamen Sie Antworten zurück an den Client.
  • Verwenden Sie den OCI-verwalteten Unterhaltungsstatus über die Conversations-API.
  • Unterhaltungshistorie oder vorherige Ausgaben als Kontext für spätere Anfragen wiederverwenden.
  • Verbinden Sie das Modell mit externen Systemen und Daten über Funktionsaufrufe und MCP-Aufrufe.
  • Kombinieren Sie Modellanforderungen bei Bedarf mit Dateien, Vektorspeichern oder Containern.

So können Sie mit einer einfachen Eingabeaufforderung beginnen und auf erweiterte Workflows erweitern, ohne zu einer anderen API zu wechseln.

Wann wird die Responses-API verwendet?

Beginnen Sie bei den meisten neuen Anwendungen mit der Responses-API.

Verwenden Sie es, wenn Sie:

  • Verwenden Sie eine API für Modellinteraktionen und Agentikfunktionen.
  • Unterstützte Tools zu einer Modellanforderung hinzufügen.
  • Verwenden Sie die OCI-verwaltete Unterhaltungshistorie.
  • Strukturierte Ausgaben generieren
  • Erstellen Sie Workflows, die bei Bedarf auch Dateien, Vektorspeicher oder Container verwenden können.

Unterstützter API-Endpunkt

Basis-URL Endpunktpfad Authentifizierung
https://inference.generativeai.${region}.oci.oraclecloud.com/openai/v1 /responses API-Schlüssel oder IAM-Session

Ersetzen Sie ${region} durch eine unterstützte OCI-Region, wie us-chicago-1.

Obwohl das Anforderungsformat OpenAI-kompatibel ist, verwendet die Authentifizierung OCI-Zugangsdaten, Anforderungen werden über OCI Generative AI-Inferenzendpunkte weitergeleitet, und Ressourcen und Ausführung bleiben in OCI.

Hinweis

Die OCI-Antworten-API verwendet dasselbe Format wie die OpenAI-Antworten-API mit dem OCI OpenAI-kompatiblen Endpunkt. Syntax- und Anforderungsdetails finden Sie in der Dokumentation zur OpenAI-Antworten-API. Wenn Sie Tools verwenden, stellen Sie sicher, dass Sie nur die vom OCI OpenAI-kompatiblen Endpunkt unterstützten Tools verwenden.

Authentifizierung

Sie können auf zwei Arten auf OCI OpenAI-kompatible Endpunkte zugreifen:

Verwenden Sie API-Schlüssel für Tests und frühe Entwicklung. Verwenden Sie die IAM-basierte Authentifizierung für Produktions-Workloads und OCI-verwaltete Umgebungen.

Bevor Sie beginnen

Vor dem Aufrufen der Responses-API:

  • Ein OCI Generative AI-Projekt erstellen. OCI OpenAI-kompatible API-Aufrufe erfordern ein Projekt.
  • Richten Sie den Client mit der OCI OpenAI-kompatiblen Basis-URL ein.
  • Authentifizierung einrichten
  • Verwenden Sie ein unterstütztes Modell in einer unterstützten Region.

Einrichtungsschritte finden Sie unter QuickStart, Authentifizierung und Unterstützte Modelle und Regionen.

Um die Responses-API aus Code aufzurufen, wird empfohlen, das OpenAI-SDK zu verwenden. Siehe QuickStart.

Erste Antwort erstellen

Im folgenden Beispiel wird das OpenAI-SDK mit dem OCI OpenAI-kompatiblen Endpunkt, einem OCI Generative AI-API-Schlüssel und einer Projekt-OCID verwendet:

from openai import OpenAI

client = OpenAI(
    base_url="https://inference.generativeai.us-chicago-1.oci.oraclecloud.com/openai/v1",
    api_key="sk-xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx",
    project="ocid1.generativeaiproject.oc1.us-chicago-1.xxxxxxxx",
)

response = client.responses.create(
    model="<supported-model-id>",
    input="Write a one-sentence explanation of what a database is."
)

print(response.output_text)

In diesem Beispiel gilt:

  • base_url verweist auf den OCI OpenAI-kompatiblen Endpunkt.
  • client.responses.create(...) ruft die OCI-Antwort-API auf.
  • project gibt das OCI Generative AI-Projekt für die Anforderung an.

Agent-Speicher mit Antwort-API verwenden

Um OCI die Multiturn-Unterhaltungshistorie verwalten zu lassen, erstellen Sie zunächst eine Unterhaltung:

conversation = client.conversations.create()

Fügen Sie dann die Unterhaltungs-ID in die Antwort-API-Anforderung ein:


response = client.responses.create(
  model="<supported-model-id>",
  input=[
        {
            "role": "user",
            "content": "Recommend a restaurant based on the food I like."
        }
    ],
    conversation=conversation.id,
)

Verwenden Sie dieses Muster, wenn OCI den Unterhaltungsstatus über Anforderungen hinweg verwalten soll.

Weitere Informationen zu Speicherfunktionen finden Sie unter Conversations API, Short-Term Memory, Long-Term Memory und Short-Term Memory Compaction.

Tools mit der Responses-API verwenden

Die Responses-API unterstützt werkzeugfähige Workflows über die Eigenschaft tools. In vielen Anwendungsfällen können Sie die Tools in der Anforderung deklarieren und die Modellausführung und Toolverwendung von OCI Generative AI koordinieren lassen.

Toolunterstützung ist nur über die API verfügbar.

Unterstützte Tooltypen

OCI Generative AI unterstützt die folgenden Tooltypen mit der Responses-API:

Tool tools[].type Beschreibung
Dateisuche "file_search" Lässt die hochgeladenen Dateien der Modellsuche und den Vektorspeicherinhalt für Retrieval-basierte Antworten zu.
Code-Interpreter "code_interpreter" Lässt den Modellausführungscode in einer OCI-verwalteten Sandbox-Umgebung zu.
Funktionsaufrufe "function" Lässt den Benutzer lokale Funktionen definieren und lässt die Anwendung die Funktionen ausführen und die Ergebnisse an das Modell zurückgeben.
MCP - Aufruf "mcp" Erteilt dem Modell Zugriff auf Methoden, die von einem Remote-MCP-Server bereitgestellt werden.

Für Einrichtungsschritte und Beispiele wählen Sie den Link für jedes Tool in der Tabelle aus.

Hinweis

OpenAI dokumentiert andere Tooltypen, OCI Generative AI unterstützt jedoch nur die hier für die Responses-API aufgeführten Tooltypen. Andere OCI-Funktionen, wie NL2SQL, werden separat dokumentiert und nicht über das Feld "Responses API tools" konfiguriert.

Beispiel: MCP-Aufrufe

Im folgenden Beispiel wird ein MCP-Tool in der Anforderung definiert:

response = client.responses.create(
    model="openai.gpt-oss-120b",
    tools=[
        {
            "type": "mcp",
            "server_url": "https://example.com/mcp",
        }
    ],
    input="What events are scheduled for 2026-04-02?"
)

In diesem Beispiel ruft die Responses-API das Modell auf und übergibt die MCP-Tooldefinition als Teil derselben Anforderung. Sie benötigen keine separate MCP-spezifische API.

Wann wird die grundlegende API verwendet?

Sie können die grundlegenden Agent-Bausteine mit der Responses-API verwenden, wenn Ihr Workflow eine direkte Kontrolle über Dateien, Vektorspeicher oder Container benötigt.

Häufige Beispiele:

  • Dateien vor dem Senden einer Modellanforderung hochladen
  • Verwalten von Vektorspeicherinhalten direkt
  • Wiederverwendung von Dateien oder Ressourcen über mehrere Anforderungen hinweg
  • Arbeiten mit Sandbox-Containern als Teil eines umfassenderen Workflows

Die folgende API wird häufig mit der Responses-API verwendet:

API Endpunktpfad Typische Verwendung mit der Responses-API
Datei-API /files Laden Sie Dateien hoch, die Sie später in einer Antwortanforderung referenzieren, und verwalten Sie sie.
Vector Stores-API /vector_stores/... Verwalten Sie Vektorspeicherinhalte, die für Abrufworkflows wie Dateisuche verwendet werden.
Container-API /containers und /containers/{id}/files Verwalten Sie Sandbox-Ressourcen, die in toolfähigen Workflows verwendet werden.

Beispiel: Laden Sie zuerst eine Datei hoch, und verwenden Sie sie dann in der Responses-API

Erstes Hochladen einer Datei:

file_response = client.files.create(
    file=open("example-document.pdf", "rb"),
    purpose="assistants"
)

file_id = file_response.id

Referenzieren Sie dann die hochgeladene Datei in der API-Anforderung "Antworten":

response = client.responses.create(
    model="<model-id>",
    input=[
        {
            "role": "user",
            "content": [
                { "type": "input_file", "file_id": file_id },
                { "type": "input_text", "text": "List all the cities mentioned in this document." }
            ]
        }
    ]
)

In diesem Beispiel arbeiten die Files-API und die Responses-API in einem Workflow zusammen.

SDKs und Frameworks

Sie können die OCI-Antworten-API mit dem OpenAI-SDK verwenden. Sie können sie auch mit kompatiblen clientseitigen Agent-Frameworks verwenden.

Das OpenAI SDK unterstützt folgende Sprachen:

  • Python
  • Java
  • TypeScript
  • Gehe zu
  • .NET

Mehr Sprachunterstützung ist über Community-Bibliotheken verfügbar.

Compatible Agent Frameworks umfassen:

  • OpenAI-Agent-SDK (empfohlen)
  • OpenAI Codex-SDK
  • Microsoft Agent-Framework
  • LangChain
  • Langgrafik
  • TeamKI
  • Automatisch generieren
  • Lama-Index
  • Pydantik

API für OCI-Antworten und OpenAI-Antworten

Feature OCI-Antwort-API API für OpenAI-Antworten
Modellauswahl Unterstützt von OCI gehostete Modelle und Nicht-OpenAI-Modelle Nur OpenAI-Modelle
Modell-Serving-Infrastruktur Gemeinsame OCI-Infrastruktur oder dedizierte KI-Cluster Gemeinsame OpenAI-Infrastruktur
Authentifizierung OCI IAM- oder API-Schlüssel API-Schlüssel
Datenaufbewahrung Daten bleiben in OCI Daten werden in OpenAI gespeichert
Privates Networking Unterstützt OCI-VCN-Integration und private Endpunkte Nicht verfügbar
Endpunktmodell Regionale Endpunkte Globaler Endpunkt