Generative KI-Modelle und -Regionen für KI-Agents in Unternehmen

Enterprise AI Agents in OCI Generative AI unterstützen eine Teilmenge von vorab trainierten OCI Generative AI-Modellen und -Regionen. Auf dieser Seite werden die unterstützten Modelle und Regionen für Laufzeit-Agent-Inferenz und Projektspeicher aufgeführt.

So rufen Sie Modelle auf

Für OCI-OpenAI-kompatible Endpunkte und Tools
Hinweis

Die folgenden Modelle werden für die OCI OpenAI-kompatiblen Endpunkte und OpenAI-kompatiblen Tools unterstützt.

Verfügbare Chatmodelle

Agents können die folgenden Chatmodelle für Anwendungsfälle für Agentic Inference aufrufen:

Google Vertex AI-Plattform
OpenAI Open Source
xAI-Plattform
Wichtig

Externe Aufrufe von xAI Grok-Modellen

Die xAI Grok-Modelle werden in einem OCI-Data Center in einem Mandanten gehostet, der für xAI bereitgestellt wird. Die xAI Grok-Modelle, auf die über den OCI Generative AI-Service zugegriffen werden kann, werden von xAI verwaltet.

Verfügbare Handelsregionen (OC1)

Sie können in mindestens einer der folgenden OC1-Regionen auf agentenbezogene Inferenzmodelle zugreifen:

Regionsname Standort Regions-ID Regionsschlüssel
Brazil East (Sao Paulo) São Paulo sa-saopaulo-1 GRU
Germany Central (Frankfurt) Frankfurt am Main eu-frankfurt-1 FRA
India South (Hyderabad) Hyderabad ap-hyderabad-1 HYD
Japan Central (Osaka) Ōsaka ap-osaka-1 KIX
Saudi Arabia Central (Riad) Riad me-riyadh-1 RUH
UK South (London) London uk-london-1 LHR
US East (Ashburn) Ashburn us-ashburn-1 IAD
US Midwest (Chicago) Chicago us-chicago-1 ORD
US West (Phoenix) Phoenix us-phoenix-1 PHX

Lernen Sie Regionen und Availability-Domains kennen.

Hinweis

  • UAE East (Dubai): OCI-OpenAI-kompatible Endpunkte und Tools sind in dieser Region nicht verfügbar.
  • Verfügbarkeit: Nicht jedes aufgelistete Modell ist in den oben aufgeführten Regionen verfügbar. Unterstützte Regionen und Deployment-Details für jedes Modell finden Sie auf der Seite Modelle nach Region.
  • Externe Anrufe: Hinweise zu Modellen mit externen Aufrufen finden Sie unter Externe Anrufe.

So aktivieren Sie den Projektspeicher

Für Kurzzeitspeicher (Konversationshistorie) Verdichtung

Wenn Sie ein Projekt erstellen, können Sie die Kurzzeitgedächtniskomprimierung für Unterhaltungen und Antworten im Zusammenhang mit diesem Projekt aktivieren. In der folgenden Tabelle sind die verfügbaren Modelle und Regionen für die Speicherkomprimierung aufgeführt.

Region Regions-Code Kurzfristiges Speichermodell
Brazil East (Sao Paulo) sa-saopaulo-1
Germany Central (Frankfurt) eu-frankfurt-1
UK South (London) uk-london-1
India South (Hyderabad) ap-hyderabad-1
US East (Ashburn) (regional zu US Midwest (Chicago) us-ahsburn-1 (regionsübergreifend zu us-chicago-1)
Japan Central (Osaka) ap-osaka-1
Saudi Arabia Central (Riad) me-riyadh-1
US Midwest (Chicago) us-chicago-1
US West (Phoenix) (regional zu US Midwest (Chicago) us-phoenix-1(regionsübergreifend nach us-chicago-1)

Zum Extrahieren von Schlüsselinformationen für Langzeitspeicher

hat

Wenn Sie ein Projekt erstellen, können Sie die Informationsextraktion aus Unterhaltungen und Antworten für eine Langzeitgedächtnisfunktion aktivieren. Sie wählen ein Extraktionsmodell aus, das wichtige Informationen aus Unterhaltungen extrahieren soll. In der folgenden Tabelle finden Sie Regionen und Modelle, die zum Extrahieren von Schlüsselinformationen für den Langzeitgedächtnis unterstützt werden.

Region Verfügbares Extraktionsmodell
Querverweis zu Available Commercial Regions (OC1) mit Regionen, in denen OpenAI gpt-oss-120b verfügbar ist OpenAI gpt-oss-120b
Für die Speicherung von Schlüsselinformationen als Einbettung für langfristigen Speicher

Wenn Sie ein Projekt erstellen, können Sie ein Einbettungsmodell auswählen, um extrahierte Speicher als durchsuchbare Vektoren zu speichern. Das verfügbare Einbettungsmodell hängt von der Projektregion ab. In der folgenden Tabelle finden Sie das Einbettungsmodell, das in jeder Region verfügbar ist:

Region Regions-Code Verfügbares Einbettungsmodell
Brazil East (Sao Paulo) sa-saopaulo-1 Cohere Einbettung Mehrsprachig 3
Germany Central (Frankfurt) eu-frankfurt-1 Cohere Einbettung Mehrsprachig 3
UK South (London) uk-london-1 Cohere Einbettung Mehrsprachig 3
India South (Hyderabad) ap-hyderabad-1 Cohere Einbettung Mehrsprachiges Bild 3
US East (Ashburn) (regional zu US Midwest (Chicago) us-ahsburn-1 Cohere Embed 4
Japan Central (Osaka) ap-osaka-1 Cohere Embed 4
Saudi Arabia Central (Riad) me-riyadh-1 Cohere Embed 4
US Midwest (Chicago) us-chicago-1 Cohere Embed 4
US West (Phoenix) (regional zu US Midwest (Chicago) us-phoenix-1 Cohere Embed 4

Externe Aufrufe

Externe Aufrufe von xAI Grok-Modellen

Wichtig

Externe Aufrufe von xAI Grok-Modellen

Die xAI Grok-Modelle werden in einem OCI-Data Center in einem Mandanten gehostet, der für xAI bereitgestellt wird. Die xAI Grok-Modelle, auf die über den OCI Generative AI-Service zugegriffen werden kann, werden von xAI verwaltet.

Externe Anrufe zu Google-Modellen

Wichtig

Externe Aufrufe an Google Gemini 2.5 Pro für US-Regionen

Das Google Gemini 2.5 Pro-Modell, auf das über den OCI Generative AI-Service in US-Regionen zugegriffen werden kann, wird extern von Google gehostet. Daher führt ein Aufruf an ein Google Gemini 2.5 Pro-Modell (über den OCI Generative AI-Service) zu einem Aufruf an einen Google-Standort. Für Google Gemini 2.5 Pro wird ein regionaler Standort von Google Americas verwendet, der die Anforderung nur an einen Standort von Google Americas weiterleitet. Machine Learning Processing findet an einem Standort in Google Americas statt.

Wichtig

Externe Aufrufe an Gemini 2.5 Flash für US-Regionen

Das Gemini 2.5 Flash-Modell, auf das über den OCI Generative AI-Service in US-Regionen zugegriffen werden kann, wird extern von Google gehostet. Daher führt ein Aufruf an ein Gemini 2.5 Flash-Modell (über den OCI Generative AI-Service) zu einem Aufruf an einen Google-Standort. Für Gemini 2.5 Flash wird ein regionaler Standort von Google Americas verwendet, der die Anforderung nur an einen Standort von Google Americas weiterleitet. Machine Learning Processing findet an einem Standort in Google Americas statt.

Wichtig

Externe Aufrufe an Gemini 2.5 Flash-Lite für US-Regionen

Das Gemini 2.5 Flash-Lite-Modell, auf das über den OCI Generative AI-Service in US-Regionen zugegriffen werden kann, wird extern von Google gehostet. Daher führt ein Aufruf an ein Gemini 2.5 Flash-Lite-Modell (über den OCI Generative AI-Service) zu einem Aufruf an einen Google-Standort. Für Gemini 2.5 Flash-Lite wird ein regionaler Standort von Google Americas verwendet, der die Anforderung nur an einen Standort von Google Americas weiterleitet. Machine Learning Processing findet an einem Standort in Google Americas statt.