OCI OpenAI-kompatible Endpunkte

Verwenden Sie OpenAI-kompatible OCI Generative AI-Endpunkte, um KI-Modelle von Unternehmen aufzurufen und KI-Agenten von Unternehmen über eine vertraute OpenAI-ähnliche API zu erstellen. Rufen Sie diese Endpunkte auf, um unterstützte OpenAI-Anforderungsmuster zu erreichen und gleichzeitig Authentifizierung, Ausführung und Ressourcenmanagement in OCI beizubehalten.

KI-Modelle für Unternehmen
Rufen Sie unterstützte gehostete Modelle oder importierte Modelle mit der API für Antworten oder Chatabschlüsse auf.
KI-Agents für Unternehmen

Verwenden Sie die Responses-API als primäre OpenAI-kompatible API für Agent-Workloads. Sie können es zusammen mit unterstützten Agent-Tools, Agent-Speicherfunktionen und grundlegenden Agent-Bausteinen wie Dateien, Vektorspeicher und Container verwenden.

Neben OpenAI-kompatiblen Endpunkten bietet OCI Generative AI auch eine OCI-native Inferenz-API über einen separaten Endpunkt für Chat-, Einbettungs- und Rangfolgeaufgaben.

OCI OpenAI-kompatible Endpunkte verstehen

Der OpenAI-kompatible Basisendpunkt ist:

https://inference.generativeai.${region}.oci.oraclecloud.com/openai/v1

Sie können den Basisendpunkt mit OCI-unterstützten OpenAI-ähnlichen Pfaden verwenden.

Beispielpfade:

  • /responses
  • /conversations
  • /containers
  • /files

Wichtige Vorteile

Obwohl das API-Format OpenAI-kompatibel ist, ist die Implementierung vollständig in OCI integriert:

  • Bei der Authentifizierung werden OCI Generative AI-API-Schlüssel oder OCI IAM-basierte Authentifizierung verwendet, nicht OpenAI-Zugangsdaten.
  • Anforderungen werden an OCI Generative AI-Inferenzendpunkte in einer unterstützten OCI-Region weitergeleitet.
  • Ressourcen wie Dateien und Container werden in OCI erstellt und verwaltet.
  • Die Datenverarbeitung verbleibt innerhalb der OCI-Infrastruktur.
  • Vorhandene Anwendungen, die für die OpenAI-API erstellt wurden, können oft mit minimalen Codeänderungen angepasst werden, in der Regel indem die Basis-URL, die Authentifizierungsmethode und der Modellname aktualisiert werden.

Beispiel: Eine Anforderung an /openai/v1/containers erstellt und verwaltet eine Containerressource in OCI Generative AI.

Authentifizierung

Sie können auf zwei Arten auf OCI OpenAI-kompatible Endpunkte zugreifen:

Verwenden Sie API-Schlüssel für Tests und frühe Entwicklung. Verwenden Sie die IAM-basierte Authentifizierung für Produktions-Workloads und OCI-verwaltete Umgebungen.

Unterstützte Endpunkte

Wichtig

Verwenden Sie OCI OpenAI-kompatible Endpunkte nur mit unterstützten Modellen in unterstützten Regionen.

Für Modellinferenz- und Agent-Workflows

Um über die OCI OpenAI-kompatible API auf unterstützte gehostete und importierte Modelle für Modellinferenz- und Agent-Workflows zuzugreifen, verwenden Sie die folgenden Endpunkte.

Basis-URL: https://inference.generativeai.${region}.oci.oraclecloud.com/openai/v1

API Endpunktpfad Empfohlene Verwendung
Antwort-API /responses Verwenden Sie diese primäre Schnittstelle, um Modelle aufzurufen und Antworten zu generieren. Optional können Sie unterstützte Tools und Konversations-IDs für den Kontext einschließen.
Unterhaltungs-API /conversations Verwenden Sie diese persistente, zustandsbehaftete Schnittstelle für die Verwaltung der Unterhaltungshistorie mit mehreren Turns. Fügen Sie die Unterhaltungs-ID in die Responses-API ein, die weiterhin der primäre Endpunkt für die Generierung von Modellantworten bleibt.
API für Chatabschlüsse /chat/completions Verwenden Sie diese zustandslose Chat-Oberfläche und den Vorgänger der zustandsbehafteten Conversations API, wenn Sie bereits Anwendungscode auf der Chat Completions API erstellt haben oder wenn Sie eine einfachere Chat-only-Oberfläche benötigen. Verwenden Sie andernfalls die Conversations-API zusammen mit der Responses-API.

Agent-Building-Komponenten

Bei Agent-Workloads umfassen die OCI OpenAI-kompatiblen APIs die folgenden Bausteine:

API Endpunktpfad Empfohlene Verwendung
Datei-API /files Zum Hochladen und Verwalten von Dateien
Vector Store-Dateien-API /vector_stores/{id}/files Zum Verwalten von Dateien, die an einen Vektorspeicher angehängt sind.
Vector Store Datei Batches API /vector_stores/{id}/file_batches Zum gleichzeitigen Hinzufügen und Verwalten eines Batches von Vektorspeicherdateien.
Vector Store-Such-API /vector_stores/{id}/search Für direkte Suchen in einem Vektorspeicher.
Container-API /containers Zum Erstellen und Verwalten von Sandbox-Containern zur Verwendung in Agent-Workflows.
Containerdateien-API /containers/{id}/files Zum Verwalten von Dateien in einem Sandbox-Container.

Empfehlung

Verwenden Sie für die meisten neuen Agent-Workloads die Responses-API als primären Einstiegspunkt.

In vielen Fällen können Sie ein unterstütztes Modell auswählen, optional Unterhaltungskontext einschließen, unterstützte Tools in der Anforderung deklarieren und die Anforderung über die Antwort-API senden. OCI Generative AI verarbeitet dann die Modellausführung und die Verwendung von Tools als Teil dieses Workflows.

Bei Bedarf können Sie auch die Responses-API mit grundlegenden APIs auf niedrigerer Ebene wie Dateien, Vektorspeicher und Container kombinieren.

Dieser Ansatz ist nützlich, wenn Sie:

  • Unterstützte Modelle über eine einzelne API verwenden.
  • Deklarieren Sie Tools direkt in der Anforderung.
  • Erstellen Sie Agent-Workflows mit OCI-verwalteter Ausführung.
  • Fügen Sie über die Konversations-API Konversationskontext hinzu.
  • Kombinieren Sie Modellanforderungen bei Bedarf mit Dateien, Vektorspeichern oder Containern.

Beispiel: Verwenden von Tools

Beispiel: Um MCP-Aufrufe zu verwenden, geben Sie ein Modell an und deklarieren das MCP-Tool in der Antwort-API-Anforderung. Sie benötigen keine separate MCP-spezifische API.

response = client.responses.create(
    model="openai.gpt-oss-120b",
    tools=[
        {
            "type": "mcp",
            "server_url": "https://example.com/mcp",
        }
    ],
    input="What events are scheduled for 2026-04-02?"
)

Beispiel: Gesprächshistorie verwenden

Erstellen Sie für den Konversationskontext zunächst eine Konversation.

conversation = client.conversations.create()

Senden Sie dann die Unterhaltungs-ID in der Responses-API-Anforderung für eine Multiturn-Unterhaltung.

response = client.responses.create(
    model="openai.gpt-oss-120b",
    input=[
        {
            "role": "user",
            "content": "Recommend a restaurant based on the food that I like."
        }
    ],
    conversation=conversation.id,
)