Unterstützte Alibaba-Modelle

Sie können große Sprachmodelle aus Hugging Face- und OCI Object Storage-Buckets in OCI Generative AI importieren, Endpunkte für diese Modelle erstellen und im generativen KI-Service verwenden.

Alibaba Qwen Modellfamilie, verfügen über erweiterte mehrsprachige und multimodale Funktionen. Modellkarten in Hugging Face finden Sie unter den Links in den folgenden Tabellen.

Qwen-Bild

Unterstützte Qwen Image-Modelle
Hugging Face-Modell-ID Modellfähigkeit Empfohlene Ausprägung der dedizierten KI-Clustereinheit
Qwen/Qwen-Bild TEXT_TO_IMAGE A100_80G_X1
Qwen/Qwen-Image-Bearbeiten IMAGE_TEXT_TO_IMAGE A100_80G_X1
Qwen/Qwen-Bild-2512 TEXT_TO_IMAGE A100_80G_X1
Qwen/Qwen-Image-Edit-2511 IMAGE_TEXT_TO_IMAGE A100_80G_X1
Qwen/Qwen-Image-Edit-2509 IMAGE_TEXT_TO_IMAGE A100_80G_X1
Hinweis

  • response_format: "url" wird nicht unterstützt (HTTP 400).
  • n (Anzahl der Images): Nur 0 oder 1 wird unterstützt.
  • Streaming wird nicht unterstützt.
  • Nicht standardmäßige Bildgrößen können gerundet werden (z.B. 999x999992x992), anstatt HTTP 400 (im Gegensatz zur OpenAI-API) zurückzugeben.
  • Transparenz ist aufgrund von Modellbeschränkungen nicht gewährleistet.

Qwen Q (Grundsatz)

Unterstützte Qwen Q-Modelle
Hugging Face-Modell-ID Modellfähigkeit Empfohlene Ausprägung der dedizierten KI-Clustereinheit
Qwen/QwQ-32B TEXT_TO_TEXT A100_80G_X2

Qwen 3

Unterstützte Qwen 3-Modelle
Hugging Face-Modell-ID Modellfähigkeit Empfohlene Ausprägung der dedizierten KI-Clustereinheit
Qwen/Qwen3-Einbettung-0.6B EINBETTEN A10_X1
Qwen/Qwen3-Einbettung-4B EINBETTEN A10_X2
Qwen/Qwen3-Einbettung-8B EINBETTEN A100_80G_X1
Qwen/Qwen3-0.6B TEXT_TO_TEXT A100_80G_X1
Qwen/Qwen3-1.7B TEXT_TO_TEXT A100_80G_X1
Qwen/Qwen3-4B TEXT_TO_TEXT A100_80G_X1
Qwen/Qwen3-8B TEXT_TO_TEXT A100_80G_X1
Qwen/Qwen3-14B TEXT_TO_TEXT A100_80G_X1
Qwen/Qwen3-32B TEXT_TO_TEXT A100_80G_X2
Qwen/Qwen3-4B-Instanz-2507 TEXT_TO_TEXT A100_80G_X1
Qwen/Qwen3-30B-A3B-Instanz-2507 TEXT_TO_TEXT A100_80G_X2
Qwen/Qwen3-235B-A22B-Instanz-2507 TEXT_TO_TEXT H100_X8
Qwen/Qwen3-VL-30B-A3B-Instanz IMAGE_TEXT_TO_TEXT H100_X2
Qwen/Qwen3-VL-235B-A22B-Instanz IMAGE_TEXT_TO_TEXT H100_X8

Qwen 2,5

Unterstützte Qwen2.5-Modelle
Hugging Face-Modell-ID Modellfähigkeit Empfohlene Ausprägung der dedizierten KI-Clustereinheit
Qwen/Qwen2.5-Coder-32B-Instruct TEXT_TO_TEXT A100_80G_X2
Qwen/Qwen2.5-0.5B-Instanz TEXT_TO_TEXT A100_80G_X1
Qwen/Qwen2.5-1.5B-Instanz TEXT_TO_TEXT A100_80G_X1
Qwen/Qwen2.5-3B-Instanz TEXT_TO_TEXT A100_80G_X1
Qwen/Qwen2.5-7B-Instanz TEXT_TO_TEXT A100_80G_X1
Qwen/Qwen2.5-14B-Instanz TEXT_TO_TEXT A100_80G_X1
Qwen/Qwen2.5-32B-Instanz TEXT_TO_TEXT A100_80G_X2
Qwen/Qwen2.5-72B-Instanz TEXT_TO_TEXT A100_80G_X4
Qwen/Qwen2.5-VL-3B-Instanz IMAGE_TEXT_TO_TEXT A100_80G_X1
Qwen/Qwen2.5-VL-7B-Instanz IMAGE_TEXT_TO_TEXT A100_80G_X1
Qwen/Qwen2.5-VL-32B-Instanz IMAGE_TEXT_TO_TEXT A100_80G_X2
Qwen/Qwen2.5-VL-72B-Instanz IMAGE_TEXT_TO_TEXT A100_80G_X4

Qwen 2

Unterstützte Qwen2-Modelle
Hugging Face-Modell-ID Modellfähigkeit Empfohlene Ausprägung der dedizierten KI-Clustereinheit
Qwen/Qwen2-0.5B-Instanz TEXT_TO_TEXT A100_80G_X1
Qwen/Qwen2-1.5B-Instanz TEXT_TO_TEXT A100_80G_X1
Qwen/Qwen2-7B-Instanz TEXT_TO_TEXT A100_80G_X1
Qwen/Qwen2-72B-Instanz TEXT_TO_TEXT A100_80G_X4
Qwen/Qwen2-VL-2B-Instanz IMAGE_TEXT_TO_TEXT A100_80G_X1
Qwen/Qwen2-VL-7B-Instanz IMAGE_TEXT_TO_TEXT A100_80G_X1
Qwen/Qwen2-VL-72B-Instanz IMAGE_TEXT_TO_TEXT A100_80G_X4
Wichtig

  • Sie können zwar beliebige Chats, Einbettungs- und Feinoptimierungsmodelle importieren, die von der Open Model Engine (mit vLLM- oder SGLang-Laufzeit) unterstützt werden, nur explizit aufgeführte Modelle auf dieser Seite werden für diese Modellfamilie unterstützt. Nicht aufgelistete Modelle können Kompatibilitätsprobleme aufweisen. Wir empfehlen, alle nicht aufgelisteten Modelle vor der Verwendung in der Produktion zu testen. Erfahren Sie mehr über die importierte Modellarchitektur von OCI Generative AI.

  • Importierte Modelle unterstützen die vom Modellprovider angegebene native Kontextlänge. Die effektive maximale Kontextlänge ist jedoch auch durch das zugrunde liegende Hardwaresetup von OCI Generative AI begrenzt. Um die native Kontextlänge eines Modells voll auszuschöpfen, müssen Sie möglicherweise mehr Hardwareressourcen bereitstellen.
  • Fein abgestimmte Modelle werden nur unterstützt, wenn sie mit der Transformatorversion des unterstützten Basismodells übereinstimmen und eine Parameteranzahl innerhalb von ±10% des Originals aufweisen.
  • Verfügbare Hardware und Schritte zum Deployment der importierten Modelle finden Sie unter Importierte Modelle verwalten.
  • Wenn die empfohlene Einheitenausprägung in der Region nicht verfügbar ist, wählen Sie eine übergeordnete Option aus. Beispiel: Wenn A100 nicht verfügbar ist, wählen Sie H100 aus.