Dedizierte Clusterausprägungen für generative KI nach Region
Diese Seite enthält eine Liste der Regionen, in denen OCI Generative AI-Modelle verfügbar sind. Außerdem werden die dedizierten AI-Clustereinheitenausprägungen für das Hosting dieser Modelle in jeder Region angezeigt. Wählen Sie jedes Modell für seine Details aus.
Jeder Bereich in der Tabelle hat eines der folgenden Symbole:
| Symbol | Beschreibung |
|---|---|
| ✓ | verfügbar (On-Demand- und dedizierte KI-Cluster) |
| ✓o | nur On-Demand |
| ✓d | Nur dedizierte KI-Cluster |
| ✓G | nur über Oracle Interconnect for Google Cloud verfügbar |
| - | Nicht verfügbar |
|
<Cluster-Ausprägung> |
Die dedizierte AI-Clusterausprägung zum Hosten des Modells |
Nordamerika (NA)
| Modellname | US East (Ashburn) (OC1) |
US Midwest (Chicago) (OC1) |
US West (Phoenix) (OC1) |
Notizen |
|---|---|---|---|---|
| Cohere Command A Reasoning | ✓d LARGE_COHERE_V2_2 |
✓d LARGE_COHERE_V2_2 |
✓d LARGE_COHERE_V2_2 |
- |
| Cohere Command A Vision | ✓d LARGE_COHERE_V3 |
✓
LARGE_COHERE_V3 |
✓d LARGE_COHERE_V3 |
- |
| Cohere-Befehl A | ✓d LARGE_COHERE_V3 |
✓
LARGE_COHERE_V3 |
- | - |
| Cohere-Kommando R (08-2024) | ✓d Kleines Cohere-Modell V2 |
✓
Kleines Cohere-Modell V2 |
- | - |
| Cohere-Befehl R+ (08-2024) | ✓d Großes Cohere-Modell V2_2 |
✓
Großes Cohere-Modell V2_2 |
- | - |
| Cohere-Befehl R 16K | - |
✓
Kleines Cohere-Modell V2 |
- | - |
| Cohere-Befehl R+ | - |
✓
Großes Cohere-Modell V2_2 |
- | - |
| Cohere Einbettung 4 |
✓
Cohere einbetten |
✓
Cohere einbetten |
- | - |
| Cohere Einbettung Englisch Bild 3 | ✓d Cohere einbetten |
✓d Cohere einbetten |
- | - |
| Cohere Einbettung Englisch Lichtbild 3 | ✓d Cohere einbetten |
✓d Cohere einbetten |
- | - |
| Cohere Einbettung Mehrsprachiges Bild 3 | ✓d Cohere einbetten |
✓
Cohere einbetten |
- | - |
| Cohere Einbettung Mehrsprachiges Lichtbild 3 | ✓d Cohere einbetten |
✓d Cohere einbetten |
- | - |
| Cohere Einbettung Englisch 3 | - |
✓
Cohere einbetten |
- | - |
| Cohere Einbettung Englisch Licht 3 | - |
✓
Cohere einbetten |
- | - |
| Cohere Einbettung Mehrsprachig 3 | ✓d Cohere einbetten |
✓ | ✓ | - |
| Cohere Einbettung Mehrsprachiges Licht 3 | - |
✓
Cohere einbetten |
- | - |
| Cohere Rerank 3.5 | ✓d RERANK_COHERE |
✓d RERANK_COHERE |
- | - |
| Google Gemini 2.5 Pro | ✓o + G | ✓o | ✓o | Siehe Externe Anrufe. |
| Google Gemini 2.5 Flash herunterladen | ✓o + G | ✓o | ✓o | Siehe Externe Anrufe. |
| Google Gemini 2.5 Flash-Lite | ✓o + G | ✓o | ✓o | Siehe Externe Anrufe. |
| Meta Llama 4 Maverick | - |
✓
Großes generisches 2 |
- | - |
| Meta Llama 4 Pfadfinder | - |
✓
Großes generisches Modell V2 |
- | - |
| Meta-Llama 3.3 70B (Standard) | - |
✓
Großes generisches |
- | - |
| Meta Llama 3.3 70B (Dynamisch FP8) | - |
✓
Großes generisches |
✓
Großes generisches |
- |
| Meta Llama 3.2 90B | - |
✓
Großes generisches Modell V2 |
- | - |
| Meta Llama 3.2 11B Vision | - | ✓d Kleines generisches Modell V2 |
- | - |
| Meta Llama 3.1 405B | - |
✓
Großes generisches 2 |
- | - |
| Meta Llama 3.1 70B | - |
✓
Großes generisches |
- | - |
| Meta Llama 3 70B | - |
✓
Großes generisches |
- | - |
| OpenAI gpt-oss-120b | ✓d OAI_H100_X2 |
✓
OAI_A100_80G_X2 OAI_H100_X2 |
✓d OAI_A100_80G_X2 |
- |
| OpenAI gpt-oss-20b | ✓d OAI_A10_X2 OAI_H100_X1 |
✓
OAI_A10_X2 OAI_H100_X1 |
✓d OAI_A100_80G_X1 |
- |
| xAI Grok 4.20 Multi-Agent | ✓o | ✓o | ✓o | Siehe Externe Anrufe. |
| xAI Grok 4,20 | ✓o | ✓o | ✓o | Siehe Externe Anrufe. |
| xAI Grok Code - Schnell 1 | ✓o | ✓o | ✓o | Siehe Externe Anrufe. |
| xAI Grok 4.1 Schnell | ✓o | ✓o | ✓o | Siehe Externe Anrufe. |
| xAI Grok 4 Schnell | ✓o | ✓o | ✓o | Siehe Externe Anrufe. |
| xAI Grok 4 | ✓o | ✓o | ✓o | Siehe Externe Anrufe. |
| xAI Grok 3 | ✓o | ✓o | ✓o | Siehe Externe Anrufe. |
| xAI Grok 3 Mini | ✓o | ✓o | ✓o | Siehe Externe Anrufe. |
| xAI Grok 3 Schnell | ✓o | ✓o | ✓o | Siehe Externe Anrufe. |
| xAI Grok 3 Mini Schnell | ✓o | ✓o | ✓o | Siehe Externe Anrufe. |
Südamerika (SA)
Europa (EU)
| Modellname | Germany Central (Frankfurt) (OC1) |
EU Sovereign Central (Frankfurt) (OC19) |
UK South (London) (OC1) |
UK Gov South (London) (OC4) |
Notizen |
|---|---|---|---|---|---|
| Cohere Command A Reasoning | ✓d LARGE_COHERE_V2_2 |
- | ✓d LARGE_COHERE_V2_2 |
- | - |
| Cohere Command A Vision |
✓
LARGE_COHERE_V3 |
- | ✓d LARGE_COHERE_V3 |
- | - |
| Cohere-Befehl A |
✓
LARGE_COHERE_V3 |
✓d LARGE_COHERE_V3 |
✓
LARGE_COHERE_V3 |
- | - |
| Cohere-Kommando R (08-2024) |
✓
Kleines Cohere-Modell V2 |
- |
✓
Kleines Cohere-Modell V2 |
- | - |
| Cohere-Befehl R+ (08-2024) |
✓
Großes Cohere-Modell V2_2 |
- |
✓
Großes Cohere-Modell V2_2 |
- | - |
| Cohere-Befehl R 16K |
✓
Kleines Cohere-Modell V2 |
- |
✓
Kleines Cohere-Modell V2 |
- | - |
| Cohere-Befehl R+ |
✓
Großes Cohere-Modell V2_2 |
- |
✓
Großes Cohere-Modell V2_2 |
- | - |
| Cohere Einbettung 4 | ✓d Cohere einbetten |
- | ✓d Cohere einbetten |
- | - |
| Cohere Einbettung Englisch Bild 3 | ✓d Cohere einbetten |
- | ✓d Cohere einbetten |
- | - |
| Cohere Einbettung Englisch Lichtbild 3 | ✓d Cohere einbetten |
- | ✓d Cohere einbetten |
- | - |
| Cohere Einbettung Mehrsprachiges Bild 3 | ✓d Cohere einbetten |
- | ✓d Cohere einbetten |
- | - |
| Cohere Einbettung Mehrsprachiges Lichtbild 3 | ✓d Cohere einbetten |
- | ✓d Cohere einbetten |
- | - |
| Cohere Einbettung Englisch 3 |
✓
Cohere einbetten |
- |
✓
Cohere einbetten |
- | - |
| Cohere Einbettung Englisch Licht 3 | - | - | - | - | - |
| Cohere Einbettung Mehrsprachig 3 |
✓
Cohere einbetten |
✓d Cohere einbetten |
✓
Cohere einbetten |
✓d Cohere einbetten |
- |
| Cohere Einbettung Mehrsprachiges Licht 3 | - | - | - | - | - |
| Cohere Rerank 3.5 | ✓d RERANK_COHERE |
✓d RERANK_COHERE |
✓d RERANK_COHERE |
✓d RERANK_COHERE |
- |
| Google Gemini 2.5 Pro | ✓o + G | - | - | - | Siehe Externe Anrufe. |
| Google Gemini 2.5 Flash herunterladen | ✓o + G | - | - | - | Siehe Externe Anrufe. |
| Google Gemini 2.5 Flash-Lite | ✓o + G | - | - | - | Siehe Externe Anrufe. |
| Meta Llama 4 Maverick | - | - | ✓d Großes generisches 2 |
- | - |
| Meta Llama 4 Pfadfinder | - | - | ✓d Großes generisches Modell V2 |
- | - |
| Meta-Llama 3.3 70B (Standard) |
✓
Großes generisches |
✓d Großes generisches |
✓
Großes generisches |
✓d Großes generisches |
- |
| Meta Llama 3.3 70B (Dynamisch FP8) |
✓
Großes generisches |
✓
Großes generisches |
✓
Großes generisches |
✓
Großes generisches |
- |
| Meta Llama 3.2 90B | - | - |
✓
Großes generisches Modell V2 |
- | - |
| Meta Llama 3.2 11B Vision | - | - | ✓d Kleines generisches Modell V2 |
✓d Kleines generisches Modell V2 |
- |
| Meta Llama 3.1 405B | ✓d Großes generisches 2 |
- | ✓d Großes generisches 2 |
- | - |
| Meta Llama 3.1 70B | - | - |
✓
Großes generisches |
- | - |
| Meta Llama 3 70B |
✓
Großes generisches |
- |
✓
Großes generisches |
- | - |
| OpenAI gpt-oss-120b |
✓
OAI_H100_X2 |
✓d OAI_H100_X2 |
✓d OAI_H100_X2 |
✓d OAI_H100_X2 |
- |
| OpenAI gpt-oss-20b |
✓
OAI_A10_X2 OAI_H100_X1 |
✓d OAI_A10_X2 OAI_H100_X1 |
✓d OAI_H100_X1 |
✓d OAI_H100_X1 |
- |
| xAI Grok 4.20 Multi-Agent | - | - | - | - | - |
| xAI Grok 4,20 | - | - | - | - | - |
| xAI Grok Code - Schnell 1 | - | - | - | - | - |
| xAI Grok 4.1 Schnell | - | - | - | - | - |
| xAI Grok 4 Schnell | - | - | - | - | - |
| xAI Grok 4 | - | - | - | - | - |
| xAI Grok 3 | - | - | - | - | - |
| xAI Grok 3 Mini | - | - | - | - | - |
| xAI Grok 3 Schnell | - | - | - | - | - |
| xAI Grok 3 Mini Schnell | - | - | - | - | - |
Naher Osten (ME)
Asien-Pazifik (AP)
| Modellname | India South (Hyderabad) (OC1) |
Japan Central (Osaka) (OC1) |
Notizen |
|---|---|---|---|
| Cohere Command A Reasoning | ✓d LARGE_COHERE_V2_2 |
✓d LARGE_COHERE_V2_2 |
- |
| Cohere Command A Vision | ✓d LARGE_COHERE_V3 |
✓d LARGE_COHERE_V3 |
- |
| Cohere-Befehl A |
✓
LARGE_COHERE_V3 |
✓
LARGE_COHERE_V3 |
- |
| Cohere-Kommando R (08-2024) | - |
✓
Kleines Cohere-Modell V2 |
- |
| Cohere-Befehl R+ (08-2024) | - |
✓
Großes Cohere-Modell V2_2 |
- |
| Cohere-Befehl R 16K | - | ✓d Kleines Cohere-Modell V2 |
- |
| Cohere Command R+ (Eingestellt) | - | - | - |
| Cohere Einbettung 4 | ✓d Cohere einbetten |
✓
Cohere einbetten |
- |
| Cohere Einbettung Englisch Bild 3 | - | ✓d Cohere einbetten |
- |
| Cohere Einbettung Englisch Lichtbild 3 | - | ✓d Cohere einbetten |
- |
| Cohere Einbettung Mehrsprachiges Bild 3 |
✓
Cohere einbetten |
✓d Cohere einbetten |
- |
| Cohere Einbettung Mehrsprachiges Lichtbild 3 | - | ✓d Cohere einbetten |
- |
| Cohere Einbettung Englisch 3 | - |
✓
Cohere einbetten |
- |
| Cohere Einbettung Englisch Licht 3 | - | - Cohere einbetten |
- |
| Cohere Einbettung Mehrsprachig 3 | - | ✓ | - |
| Cohere Einbettung Mehrsprachiges Licht 3 | - | - | - |
| Cohere Rerank 3.5 | - | ✓d RERANK_COHERE |
- |
| Google Gemini 2.5 Pro | - | ✓o | Siehe Externe Anrufe. |
| Google Gemini 2.5 Flash herunterladen | ✓o | ✓o | Siehe Externe Anrufe. |
| Google Gemini 2.5 Flash-Lite | - | - | - |
| Meta Llama 4 Maverick | ✓d Großes generisches 2 |
✓d Großes generisches 2 |
- |
| Meta Llama 4 Pfadfinder | ✓d Großes generisches Modell V2 |
✓d Großes generisches Modell V2 |
- |
| Meta-Llama 3.3 70B (Standard) | ✓d Großes generisches |
✓
Großes generisches |
- |
| Meta Llama 3.3 70B (Dynamisch FP8) | ✓d Großes generisches |
✓
Großes generisches |
- |
| Meta Llama 3.2 90B | - |
✓
Großes generisches Modell V2 |
- |
| Meta Llama 3.2 11B Vision | - | ✓d Kleines generisches Modell V2 |
- |
| Meta Llama 3.1 405B | - | ✓d Großes generisches 2 |
- |
| Meta Llama 3.1 70B | - |
✓
Großes generisches |
- |
| Meta Llama 3 70B | - | - | - |
| OpenAI gpt-oss-120b | ✓d OAI_H100_X2 |
✓
OAI_H100_X2 |
- |
| OpenAI gpt-oss-20b | ✓d OAI_H100_X1 |
✓
OAI_H100_X1 |
- |
| xAI Grok 4.20 Multi-Agent | - | - | - |
| xAI Grok 4,20 | - | - | - |
| xAI Grok Code - Schnell 1 | - | - | - |
| xAI Grok 4.1 Schnell | - | - | - |
| xAI Grok 4 Schnell | - | - | - |
| xAI Grok 4 | - | - | - |
| xAI Grok 3 | - | - | - |
| xAI Grok 3 Mini | - | - | - |
| xAI Grok 3 Schnell | - | - | - |
| xAI Grok 3 Mini Schnell | - | - | - |
Hinweise für externe Anrufe
Google-Modelle
Externe Aufrufe an Google Gemini 2.5 Pro für US-Regionen
Das Google Gemini 2.5 Pro-Modell, auf das über den OCI Generative AI-Service in US-Regionen zugegriffen werden kann, wird extern von Google gehostet. Daher führt ein Aufruf an ein Google Gemini 2.5 Pro-Modell (über den OCI Generative AI-Service) zu einem Aufruf an einen Google-Standort. Für Google Gemini 2.5 Pro wird ein regionaler Standort von Google Americas verwendet, der die Anforderung nur an einen Standort von Google Americas weiterleitet. Machine Learning Processing findet an einem Standort in Google Americas statt.
Externe Aufrufe an Google Gemini 2.5 Pro für EU-Regionen
Das Google Gemini 2.5 Pro-Modell, auf das über den OCI Generative AI-Service in der Region Frankfurt zugegriffen werden kann, wird extern von Google gehostet. Daher führt ein Aufruf an ein Google Gemini 2.5 Pro-Modell (über den OCI Generative AI-Service) zu einem Aufruf an einen Google-Standort. Für Gemini 2.5 Pro wird ein regionaler Standort der Google Europäischen Union (EU) verwendet, der die Anfrage nur an einen Standort der Google EU weiterleitet. Machine Learning Processing findet innerhalb eines Google-Standorts in der EU statt.
Externe Aufrufe an Google Gemini 2.5 Pro für KR-Regionen
Das Modell Google Gemini 2.5 Pro, auf das über den OCI Generative AI-Service in der Region Osaka zugegriffen werden kann, wird extern von Google gehostet. Daher führt ein Aufruf an ein Google Gemini 2.5 Pro-Modell (über den OCI Generative AI-Service) zu einem Aufruf an einen Google-Standort. Für Gemini 2.5 Pro wird ein regionaler Standort von Google Asia Pacific verwendet, der die Anforderung nur an einen Standort von Google Asia Pacific weiterleitet. Machine Learning Processing kann an jedem Google-Standort weltweit stattfinden.
Externe Aufrufe an Gemini 2.5 Flash für US-Regionen
Das Gemini 2.5 Flash-Modell, auf das über den OCI Generative AI-Service in US-Regionen zugegriffen werden kann, wird extern von Google gehostet. Daher führt ein Aufruf an ein Gemini 2.5 Flash-Modell (über den OCI Generative AI-Service) zu einem Aufruf an einen Google-Standort. Für Gemini 2.5 Flash wird ein regionaler Standort von Google Americas verwendet, der die Anforderung nur an einen Standort von Google Americas weiterleitet. Machine Learning Processing findet an einem Standort in Google Americas statt.
Externe Aufrufe an Gemini 2.5 Flash für EU-Regionen
Das Gemini 2.5 Flash-Modell, auf das über den OCI Generative AI-Service in der Region Frankfurt zugegriffen werden kann, wird extern von Google gehostet. Daher führt ein Aufruf an ein Gemini 2.5 Flash-Modell (über den OCI Generative AI-Service) zu einem Aufruf an einen Google-Standort. Für Gemini 2.5 Flash wird ein regionaler Standort der Google Europäischen Union (EU) verwendet, der die Anfrage nur an einen Standort der Google EU weiterleitet. Machine Learning Processing findet innerhalb eines Google-Standorts in der EU statt.
Externe Aufrufe an Gemini 2.5 Flash für KR-Regionen
Das Modell Gemini 2.5 Flash, auf das über den OCI Generative AI-Service in der Region Osaka und in der Region Hyderabad zugegriffen werden kann, wird extern von Google gehostet. Daher führt ein Aufruf an ein Gemini 2.5 Flash-Modell (über den OCI Generative AI-Service) zu einem Aufruf an einen Google-Standort. Für Gemini 2.5 Flash wird ein regionaler Standort von Google Asia Pacific verwendet, der die Anforderung nur an einen Standort von Google Asia Pacific weiterleitet. Machine Learning Processing kann an jedem Google-Standort weltweit stattfinden.
Externe Aufrufe an Gemini 2.5 Flash-Lite für US-Regionen
Das Gemini 2.5 Flash-Lite-Modell, auf das über den OCI Generative AI-Service in US-Regionen zugegriffen werden kann, wird extern von Google gehostet. Daher führt ein Aufruf an ein Gemini 2.5 Flash-Lite-Modell (über den OCI Generative AI-Service) zu einem Aufruf an einen Google-Standort. Für Gemini 2.5 Flash-Lite wird ein regionaler Standort von Google Americas verwendet, der die Anforderung nur an einen Standort von Google Americas weiterleitet. Machine Learning Processing findet an einem Standort in Google Americas statt.
Externe Aufrufe an Gemini 2.5 Flash-Lite für EU-Regionen
Das Gemini 2.5 Flash-Lite-Modell, auf das über den OCI Generative AI-Service in der Region Frankfurt zugegriffen werden kann, wird extern von Google gehostet. Daher führt ein Aufruf an ein Gemini 2.5 Flash-Lite-Modell (über den OCI Generative AI-Service) zu einem Aufruf an einen Google-Standort. Für Gemini 2.5 Pro wird ein regionaler Standort der Google Europäischen Union (EU) verwendet, der die Anfrage nur an einen Standort der Google EU weiterleitet. Machine Learning Processing findet innerhalb eines Google-Standorts in der EU statt.
xAI-Modelle
Externe Aufrufe von xAI Grok-Modellen
Die xAI Grok-Modelle werden in einem OCI-Data Center in einem Mandanten gehostet, der für xAI bereitgestellt wird. Die xAI Grok-Modelle, auf die über den OCI Generative AI-Service zugegriffen werden kann, werden von xAI verwaltet.