Generative KI-Modelle und -Regionen für KI-Agents in Unternehmen
Enterprise AI Agents in OCI Generative AI unterstützen eine Teilmenge von vorab trainierten OCI Generative AI-Modellen und -Regionen. Auf dieser Seite werden die unterstützten Modelle und Regionen für Laufzeit-Agent-Inferenz und Projektspeicher aufgeführt.
So rufen Sie Modelle auf
Die folgenden Modelle werden für die OCI OpenAI-kompatiblen Endpunkte und OpenAI-kompatiblen Tools unterstützt.
Verfügbare Chatmodelle
Agents können die folgenden Chatmodelle für Anwendungsfälle für Agentic Inference aufrufen:
- Google Vertex AI-Plattform
- OpenAI Open Source
- xAI-Plattform
Externe Aufrufe von xAI Grok-Modellen
Die xAI Grok-Modelle werden in einem OCI-Data Center in einem Mandanten gehostet, der für xAI bereitgestellt wird. Die xAI Grok-Modelle, auf die über den OCI Generative AI-Service zugegriffen werden kann, werden von xAI verwaltet.
Verfügbare Handelsregionen (OC1)
Sie können in mindestens einer der folgenden OC1-Regionen auf agentenbezogene Inferenzmodelle zugreifen:
| Regionsname | Standort | Regions-ID | Regionsschlüssel |
|---|---|---|---|
| Brazil East (Sao Paulo) | São Paulo |
sa-saopaulo-1
|
GRU
|
| Germany Central (Frankfurt) | Frankfurt am Main |
eu-frankfurt-1
|
FRA
|
| India South (Hyderabad) | Hyderabad |
ap-hyderabad-1
|
HYD
|
| Japan Central (Osaka) | Ōsaka |
ap-osaka-1
|
KIX
|
| Saudi Arabia Central (Riad) | Riad |
me-riyadh-1
|
RUH
|
| UK South (London) | London |
uk-london-1
|
LHR
|
| US East (Ashburn) | Ashburn |
us-ashburn-1
|
IAD
|
| US Midwest (Chicago) | Chicago |
us-chicago-1
|
ORD
|
| US West (Phoenix) | Phoenix |
us-phoenix-1
|
PHX
|
Lernen Sie Regionen und Availability-Domains kennen.
- UAE East (Dubai): OCI-OpenAI-kompatible Endpunkte und Tools sind in dieser Region nicht verfügbar.
- Verfügbarkeit: Nicht jedes aufgelistete Modell ist in den oben aufgeführten Regionen verfügbar. Unterstützte Regionen und Deployment-Details für jedes Modell finden Sie auf der Seite Modelle nach Region.
- Externe Anrufe: Hinweise zu Modellen mit externen Aufrufen finden Sie unter Externe Anrufe.
So aktivieren Sie den Projektspeicher
Wenn Sie ein Projekt erstellen, können Sie die Kurzzeitgedächtniskomprimierung für Unterhaltungen und Antworten im Zusammenhang mit diesem Projekt aktivieren. In der folgenden Tabelle sind die verfügbaren Modelle und Regionen für die Speicherkomprimierung aufgeführt.
| Region | Regions-Code | Kurzfristiges Speichermodell |
|---|---|---|
| Brazil East (Sao Paulo) | sa-saopaulo-1 |
|
| Germany Central (Frankfurt) | eu-frankfurt-1 |
|
| UK South (London) | uk-london-1 |
|
| India South (Hyderabad) | ap-hyderabad-1 |
|
| US East (Ashburn) (regional zu US Midwest (Chicago) | us-ahsburn-1 (regionsübergreifend zu us-chicago-1) |
|
| Japan Central (Osaka) | ap-osaka-1 |
|
| Saudi Arabia Central (Riad) | me-riyadh-1 |
|
| US Midwest (Chicago) | us-chicago-1 |
|
| US West (Phoenix) (regional zu US Midwest (Chicago) | us-phoenix-1(regionsübergreifend nach us-chicago-1) |
Zum Extrahieren von Schlüsselinformationen für Langzeitspeicher
hat
Wenn Sie ein Projekt erstellen, können Sie die Informationsextraktion aus Unterhaltungen und Antworten für eine Langzeitgedächtnisfunktion aktivieren. Sie wählen ein Extraktionsmodell aus, das wichtige Informationen aus Unterhaltungen extrahieren soll. In der folgenden Tabelle finden Sie Regionen und Modelle, die zum Extrahieren von Schlüsselinformationen für den Langzeitgedächtnis unterstützt werden.
| Region | Verfügbares Extraktionsmodell |
|---|---|
| Querverweis zu Available Commercial Regions (OC1) mit Regionen, in denen OpenAI gpt-oss-120b verfügbar ist | OpenAI gpt-oss-120b |
Wenn Sie ein Projekt erstellen, können Sie ein Einbettungsmodell auswählen, um extrahierte Speicher als durchsuchbare Vektoren zu speichern. Das verfügbare Einbettungsmodell hängt von der Projektregion ab. In der folgenden Tabelle finden Sie das Einbettungsmodell, das in jeder Region verfügbar ist:
| Region | Regions-Code | Verfügbares Einbettungsmodell |
|---|---|---|
| Brazil East (Sao Paulo) | sa-saopaulo-1 |
Cohere Einbettung Mehrsprachig 3 |
| Germany Central (Frankfurt) | eu-frankfurt-1 |
Cohere Einbettung Mehrsprachig 3 |
| UK South (London) | uk-london-1 |
Cohere Einbettung Mehrsprachig 3 |
| India South (Hyderabad) | ap-hyderabad-1 |
Cohere Einbettung Mehrsprachiges Bild 3 |
| US East (Ashburn) (regional zu US Midwest (Chicago) | us-ahsburn-1 |
Cohere Embed 4 |
| Japan Central (Osaka) | ap-osaka-1 |
Cohere Embed 4 |
| Saudi Arabia Central (Riad) | me-riyadh-1 |
Cohere Embed 4 |
| US Midwest (Chicago) | us-chicago-1 |
Cohere Embed 4 |
| US West (Phoenix) (regional zu US Midwest (Chicago) | us-phoenix-1
|
Cohere Embed 4 |
Externe Aufrufe
Externe Aufrufe von xAI Grok-Modellen
Externe Aufrufe von xAI Grok-Modellen
Die xAI Grok-Modelle werden in einem OCI-Data Center in einem Mandanten gehostet, der für xAI bereitgestellt wird. Die xAI Grok-Modelle, auf die über den OCI Generative AI-Service zugegriffen werden kann, werden von xAI verwaltet.
Externe Anrufe zu Google-Modellen
Externe Aufrufe an Google Gemini 2.5 Pro für US-Regionen
Das Google Gemini 2.5 Pro-Modell, auf das über den OCI Generative AI-Service in US-Regionen zugegriffen werden kann, wird extern von Google gehostet. Daher führt ein Aufruf an ein Google Gemini 2.5 Pro-Modell (über den OCI Generative AI-Service) zu einem Aufruf an einen Google-Standort. Für Google Gemini 2.5 Pro wird ein regionaler Standort von Google Americas verwendet, der die Anforderung nur an einen Standort von Google Americas weiterleitet. Machine Learning Processing findet an einem Standort in Google Americas statt.
Externe Aufrufe an Gemini 2.5 Flash für US-Regionen
Das Gemini 2.5 Flash-Modell, auf das über den OCI Generative AI-Service in US-Regionen zugegriffen werden kann, wird extern von Google gehostet. Daher führt ein Aufruf an ein Gemini 2.5 Flash-Modell (über den OCI Generative AI-Service) zu einem Aufruf an einen Google-Standort. Für Gemini 2.5 Flash wird ein regionaler Standort von Google Americas verwendet, der die Anforderung nur an einen Standort von Google Americas weiterleitet. Machine Learning Processing findet an einem Standort in Google Americas statt.
Externe Aufrufe an Gemini 2.5 Flash-Lite für US-Regionen
Das Gemini 2.5 Flash-Lite-Modell, auf das über den OCI Generative AI-Service in US-Regionen zugegriffen werden kann, wird extern von Google gehostet. Daher führt ein Aufruf an ein Gemini 2.5 Flash-Lite-Modell (über den OCI Generative AI-Service) zu einem Aufruf an einen Google-Standort. Für Gemini 2.5 Flash-Lite wird ein regionaler Standort von Google Americas verwendet, der die Anforderung nur an einen Standort von Google Americas weiterleitet. Machine Learning Processing findet an einem Standort in Google Americas statt.