OCI OpenAI-kompatible Endpunkte
Verwenden Sie OpenAI-kompatible OCI Generative AI-Endpunkte, um KI-Modelle von Unternehmen aufzurufen und KI-Agenten von Unternehmen über eine vertraute OpenAI-ähnliche API zu erstellen. Rufen Sie diese Endpunkte auf, um unterstützte OpenAI-Anforderungsmuster zu erreichen und gleichzeitig Authentifizierung, Ausführung und Ressourcenmanagement in OCI beizubehalten.
- KI-Modelle für Unternehmen
- Rufen Sie unterstützte gehostete Modelle oder importierte Modelle mit der API für Antworten oder Chatabschlüsse auf.
- KI-Agents für Unternehmen
-
Verwenden Sie die Responses-API als primäre OpenAI-kompatible API für Agent-Workloads. Sie können es zusammen mit unterstützten Agent-Tools, Agent-Speicherfunktionen und grundlegenden Agent-Bausteinen wie Dateien, Vektorspeicher und Container verwenden.
Neben OpenAI-kompatiblen Endpunkten bietet OCI Generative AI auch eine OCI-native Inferenz-API über einen separaten Endpunkt für Chat-, Einbettungs- und Rangfolgeaufgaben.
OCI OpenAI-kompatible Endpunkte verstehen
Der OpenAI-kompatible Basisendpunkt ist:
https://inference.generativeai.${region}.oci.oraclecloud.com/openai/v1
Sie können den Basisendpunkt mit OCI-unterstützten OpenAI-ähnlichen Pfaden verwenden.
Beispielpfade:
/responses/conversations/containers/files
Wichtige Vorteile
Obwohl das API-Format OpenAI-kompatibel ist, ist die Implementierung vollständig in OCI integriert:
- Bei der Authentifizierung werden OCI Generative AI-API-Schlüssel oder OCI IAM-basierte Authentifizierung verwendet, nicht OpenAI-Zugangsdaten.
- Anforderungen werden an OCI Generative AI-Inferenzendpunkte in einer unterstützten OCI-Region weitergeleitet.
- Ressourcen wie Dateien und Container werden in OCI erstellt und verwaltet.
- Die Datenverarbeitung verbleibt innerhalb der OCI-Infrastruktur.
- Vorhandene Anwendungen, die für die OpenAI-API erstellt wurden, können oft mit minimalen Codeänderungen angepasst werden, in der Regel indem die Basis-URL, die Authentifizierungsmethode und der Modellname aktualisiert werden.
Beispiel: Eine Anforderung an /openai/v1/containers erstellt und verwaltet eine Containerressource in OCI Generative AI.
Authentifizierung
Sie können auf zwei Arten auf OCI OpenAI-kompatible Endpunkte zugreifen:
Verwenden Sie API-Schlüssel für Tests und frühe Entwicklung. Verwenden Sie die IAM-basierte Authentifizierung für Produktions-Workloads und OCI-verwaltete Umgebungen.
Unterstützte Endpunkte
Verwenden Sie OCI OpenAI-kompatible Endpunkte nur mit unterstützten Modellen in unterstützten Regionen.
Für Modellinferenz- und Agent-Workflows
Um über die OCI OpenAI-kompatible API auf unterstützte gehostete und importierte Modelle für Modellinferenz- und Agent-Workflows zuzugreifen, verwenden Sie die folgenden Endpunkte.
Basis-URL: https://inference.generativeai.${region}.oci.oraclecloud.com/openai/v1
| API | Endpunktpfad | Empfohlene Verwendung |
|---|---|---|
| Antwort-API | /responses |
Verwenden Sie diese primäre Schnittstelle, um Modelle aufzurufen und Antworten zu generieren. Optional können Sie unterstützte Tools und Konversations-IDs für den Kontext einschließen. |
| Unterhaltungs-API | /conversations |
Verwenden Sie diese persistente, zustandsbehaftete Schnittstelle für die Verwaltung der Unterhaltungshistorie mit mehreren Turns. Fügen Sie die Unterhaltungs-ID in die Responses-API ein, die weiterhin der primäre Endpunkt für die Generierung von Modellantworten bleibt. |
| API für Chatabschlüsse | /chat/completions |
Verwenden Sie diese zustandslose Chat-Oberfläche und den Vorgänger der zustandsbehafteten Conversations API, wenn Sie bereits Anwendungscode auf der Chat Completions API erstellt haben oder wenn Sie eine einfachere Chat-only-Oberfläche benötigen. Verwenden Sie andernfalls die Conversations-API zusammen mit der Responses-API. |
Agent-Building-Komponenten
Bei Agent-Workloads umfassen die OCI OpenAI-kompatiblen APIs die folgenden Bausteine:
| API | Endpunktpfad | Empfohlene Verwendung |
|---|---|---|
| Datei-API | /files |
Zum Hochladen und Verwalten von Dateien |
| Vector Store-Dateien-API | /vector_stores/{id}/files |
Zum Verwalten von Dateien, die an einen Vektorspeicher angehängt sind. |
| Vector Store Datei Batches API | /vector_stores/{id}/file_batches |
Zum gleichzeitigen Hinzufügen und Verwalten eines Batches von Vektorspeicherdateien. |
| Vector Store-Such-API | /vector_stores/{id}/search |
Für direkte Suchen in einem Vektorspeicher. |
| Container-API | /containers |
Zum Erstellen und Verwalten von Sandbox-Containern zur Verwendung in Agent-Workflows. |
| Containerdateien-API | /containers/{id}/files |
Zum Verwalten von Dateien in einem Sandbox-Container. |
Unterstützte Modelle und Regionen
Empfehlung
Verwenden Sie für die meisten neuen Agent-Workloads die Responses-API als primären Einstiegspunkt.
In vielen Fällen können Sie ein unterstütztes Modell auswählen, optional Unterhaltungskontext einschließen, unterstützte Tools in der Anforderung deklarieren und die Anforderung über die Antwort-API senden. OCI Generative AI verarbeitet dann die Modellausführung und die Verwendung von Tools als Teil dieses Workflows.
Bei Bedarf können Sie auch die Responses-API mit grundlegenden APIs auf niedrigerer Ebene wie Dateien, Vektorspeicher und Container kombinieren.
Dieser Ansatz ist nützlich, wenn Sie:
- Unterstützte Modelle über eine einzelne API verwenden.
- Deklarieren Sie Tools direkt in der Anforderung.
- Erstellen Sie Agent-Workflows mit OCI-verwalteter Ausführung.
- Fügen Sie über die Konversations-API Konversationskontext hinzu.
- Kombinieren Sie Modellanforderungen bei Bedarf mit Dateien, Vektorspeichern oder Containern.
Beispiel: Verwenden von Tools
Beispiel: Um MCP-Aufrufe zu verwenden, geben Sie ein Modell an und deklarieren das MCP-Tool in der Antwort-API-Anforderung. Sie benötigen keine separate MCP-spezifische API.
response = client.responses.create(
model="openai.gpt-oss-120b",
tools=[
{
"type": "mcp",
"server_url": "https://example.com/mcp",
}
],
input="What events are scheduled for 2026-04-02?"
)Beispiel: Gesprächshistorie verwenden
Erstellen Sie für den Konversationskontext zunächst eine Konversation.
conversation = client.conversations.create()Senden Sie dann die Unterhaltungs-ID in der Responses-API-Anforderung für eine Multiturn-Unterhaltung.
response = client.responses.create(
model="openai.gpt-oss-120b",
input=[
{
"role": "user",
"content": "Recommend a restaurant based on the food that I like."
}
],
conversation=conversation.id,
)