Kompatible Alibaba Modelle
Sie können große Sprachmodelle aus Hugging Face- und OCI Object Storage-Buckets in OCI Generative AI importieren, Endpunkte für diese Modelle erstellen und im generativen KI-Service verwenden.
Alibaba Qwen Modellfamilie, verfügen über erweiterte mehrsprachige und multimodale Funktionen. Modellkarten in Hugging Face finden Sie unter den Links in den folgenden Tabellen.
Qwen-Bild
| Hugging Face-Modell-ID | Modellfähigkeit | Empfohlene Ausprägung der dedizierten KI-Clustereinheit |
|---|---|---|
| Qwen/Qwen-Bild | TEXT_TO_IMAGE | A100_80G_X1 |
| Qwen/Qwen-Image-Bearbeiten | IMAGE_TEXT_TO_IMAGE | A100_80G_X1 |
| Qwen/Qwen-Bild-2512 | TEXT_TO_IMAGE | A100_80G_X1 |
| Qwen/Qwen-Image-Edit-2511 | IMAGE_TEXT_TO_IMAGE | A100_80G_X1 |
| Qwen/Qwen-Image-Edit-2509 | IMAGE_TEXT_TO_IMAGE | A100_80G_X1 |
response_format: "url"funktioniert nicht und gibt einen HTTP 400-Fehler bei einer ungültigen Anforderung zurück.n(Anzahl der Images): Nur0oder1funktionieren.- Streaming ist nicht kompatibel.
- Nicht standardmäßige Bildgrößen können gerundet werden (z.B.
999x999→992x992), anstatt eine HTTP 400 (im Gegensatz zur OpenAI-API) zurückzugeben. - Transparenz funktioniert möglicherweise aufgrund von Modellbeschränkungen nicht.
Qwen Q (Grundsatz)
| Hugging Face-Modell-ID | Modellfähigkeit | Empfohlene Ausprägung der dedizierten KI-Clustereinheit |
|---|---|---|
| Qwen/QwQ-32B | TEXT_TO_TEXT | A100_80G_X2 |
Qwen 3
| Hugging Face-Modell-ID | Modellfähigkeit | Empfohlene Ausprägung der dedizierten KI-Clustereinheit |
|---|---|---|
| Qwen/Qwen3-Einbettung-0.6B | EINBETTEN | A10_X1 |
| Qwen/Qwen3-Einbettung-4B | EINBETTEN | A10_X2 |
| Qwen/Qwen3-Einbettung-8B | EINBETTEN | A100_80G_X1 |
| Qwen/Qwen3-0.6B | TEXT_TO_TEXT | A100_80G_X1 |
| Qwen/Qwen3-1.7B | TEXT_TO_TEXT | A100_80G_X1 |
| Qwen/Qwen3-4B | TEXT_TO_TEXT | A100_80G_X1 |
| Qwen/Qwen3-8B | TEXT_TO_TEXT | A100_80G_X1 |
| Qwen/Qwen3-14B | TEXT_TO_TEXT | A100_80G_X1 |
| Qwen/Qwen3-32B | TEXT_TO_TEXT | A100_80G_X2 |
| Qwen/Qwen3-4B-Instanz-2507 | TEXT_TO_TEXT | A100_80G_X1 |
| Qwen/Qwen3-30B-A3B-Instanz-2507 | TEXT_TO_TEXT | A100_80G_X2 |
| Qwen/Qwen3-235B-A22B-Instanz-2507 | TEXT_TO_TEXT | H100_X8 |
| Qwen/Qwen3-VL-30B-A3B-Instanz | IMAGE_TEXT_TO_TEXT | H100_X2 |
| Qwen/Qwen3-VL-235B-A22B-Instanz | IMAGE_TEXT_TO_TEXT | H100_X8 |
Qwen 2,5
| Hugging Face-Modell-ID | Modellfähigkeit | Empfohlene Ausprägung der dedizierten KI-Clustereinheit |
|---|---|---|
| Qwen/Qwen2.5-Coder-32B-Instruct | TEXT_TO_TEXT | A100_80G_X2 |
| Qwen/Qwen2.5-0.5B-Instanz | TEXT_TO_TEXT | A100_80G_X1 |
| Qwen/Qwen2.5-1.5B-Instanz | TEXT_TO_TEXT | A100_80G_X1 |
| Qwen/Qwen2.5-3B-Instanz | TEXT_TO_TEXT | A100_80G_X1 |
| Qwen/Qwen2.5-7B-Instanz | TEXT_TO_TEXT | A100_80G_X1 |
| Qwen/Qwen2.5-14B-Instanz | TEXT_TO_TEXT | A100_80G_X1 |
| Qwen/Qwen2.5-32B-Instanz | TEXT_TO_TEXT | A100_80G_X2 |
| Qwen/Qwen2.5-72B-Instanz | TEXT_TO_TEXT | A100_80G_X4 |
| Qwen/Qwen2.5-VL-3B-Instanz | IMAGE_TEXT_TO_TEXT | A100_80G_X1 |
| Qwen/Qwen2.5-VL-7B-Instanz | IMAGE_TEXT_TO_TEXT | A100_80G_X1 |
| Qwen/Qwen2.5-VL-32B-Instanz | IMAGE_TEXT_TO_TEXT | A100_80G_X2 |
| Qwen/Qwen2.5-VL-72B-Instanz | IMAGE_TEXT_TO_TEXT | A100_80G_X4 |
Qwen 2
| Hugging Face-Modell-ID | Modellfähigkeit | Empfohlene Ausprägung der dedizierten KI-Clustereinheit |
|---|---|---|
| Qwen/Qwen2-0.5B-Instanz | TEXT_TO_TEXT | A100_80G_X1 |
| Qwen/Qwen2-1.5B-Instanz | TEXT_TO_TEXT | A100_80G_X1 |
| Qwen/Qwen2-7B-Instanz | TEXT_TO_TEXT | A100_80G_X1 |
| Qwen/Qwen2-72B-Instanz | TEXT_TO_TEXT | A100_80G_X4 |
| Qwen/Qwen2-VL-2B-Instanz | IMAGE_TEXT_TO_TEXT | A100_80G_X1 |
| Qwen/Qwen2-VL-7B-Instanz | IMAGE_TEXT_TO_TEXT | A100_80G_X1 |
| Qwen/Qwen2-VL-72B-Instanz | IMAGE_TEXT_TO_TEXT | A100_80G_X4 |
-
Während Sie alle Chats, Einbettungs- und Feinoptimierungsmodelle importieren können, die über die Open Model Engine (mit vLLM- oder SGLang-Laufzeit) validiert wurden, wurden nur explizit aufgeführte Modelle auf dieser Seite von Oracle anhand von Open-Source-Modelllaufzeiten für diese Modellfamilie bewertet und auf von Oracle unterstützten GPU-Konfigurationen getestet. Ungeachtet des Vorstehenden ist Oracle nicht für Probleme im Zusammenhang mit der Leistung, Verfügbarkeit, dem Betrieb oder der Sicherheit kompatibler Modelle verantwortlich. Nicht aufgelistete Modelle können Kompatibilitätsprobleme aufweisen. Wir empfehlen, alle nicht aufgelisteten Modelle vor der Verwendung in der Produktion zu testen. Erfahren Sie mehr über die importierte Modellarchitektur von OCI Generative AI.
- Bei importierten Modellen können Sie die vom Modellprovider angegebene native Kontextlänge verwenden. Die effektive maximale Kontextlänge wird jedoch durch das zugrunde liegende Hardwaresetup begrenzt, das Sie für das Hosting dedizierter KI-Cluster in OCI Generative AI auswählen. Um die native Kontextlänge eines Modells voll auszuschöpfen, müssen Sie möglicherweise mehr Hardwareressourcen bereitstellen.
- Verwenden Sie die fein abgestimmten Modelle nur, wenn sie mit der Transformatorversion des kompatiblen Basismodells übereinstimmen und eine Parameteranzahl innerhalb von ±10% des Originals aufweisen.
- Verfügbare Hardware und Schritte zum Deployment der importierten Modelle finden Sie unter Importierte Modelle verwalten.
- Wenn die kompatible Einheitenausprägung in der Region nicht verfügbar ist, wählen Sie eine übergeordnete Option aus. Beispiel: Wenn A100 nicht verfügbar ist, wählen Sie H100 aus.