Modèles Alibaba validés

Vous pouvez importer des modèles de langage volumineux à partir de buckets Hugging Face et OCI Object Storage dans OCI Generative AI, créer des adresses pour ces modèles et les utiliser dans le service d'IA générative.

La famille de modèles Alibaba Qwen offre des fonctionnalités multilingues et multimodales avancées. Pour les cartes modèle sur Hugging Face, reportez-vous aux liens des tableaux suivants.

Qwen Image

Modèles Qwen Image validés
ID modèle Hugging Face Capacité du modèle Forme d'unité de cluster d'IA dédiée recommandée
Qwen-Image TEXT_TO_IMAGE A100_80G_X1
Qwen/Qwen-Image-Edit IMAGE_TEXT_TO_IMAGE A100_80G_X1
Qwen/Qwen-Image-2512 TEXT_TO_IMAGE A100_80G_X1
Qwen/Qwen-Édition-Image-2511 IMAGE_TEXT_TO_IMAGE A100_80G_X1
Qwen/Qwen-Édition-Image-2509 IMAGE_TEXT_TO_IMAGE A100_80G_X1
Remarque

  • response_format: "url" ne fonctionne pas et renvoie une erreur de demande HTTP 400 incorrecte.
  • n (nombre d'images) : ne fonctionne que 0 ou 1.
  • Le streaming n'est pas validé.
  • Les tailles d'image non standard peuvent être arrondies (par exemple, 999x999992x992) au lieu de renvoyer un code HTTP 400 (contrairement à l'API OpenAI).
  • La transparence peut ne pas fonctionner en raison des limites du modèle.

Qwen Q (raisonnement)

Modèles Qwen Q validés
ID modèle Hugging Face Capacité du modèle Forme d'unité de cluster d'IA dédiée recommandée
Qwen/QwQ-32B TEXT_TO_TEXT A100_80G_X2

Qwen 3

Modèles Qwen 3 validés
ID modèle Hugging Face Capacité du modèle Forme d'unité de cluster d'IA dédiée recommandée
Qwen/Qwen3-Incorporation-0.6B INCORPORATION A10_X1
Qwen/Qwen3-Incorporation-4B INCORPORATION A10_X2
Qwen/Qwen3-Incorporation-8B INCORPORATION A100_80G_X1
Qwen/Qwen3-0.6B TEXT_TO_TEXT A100_80G_X1
Qwen/Qwen3-1.7B TEXT_TO_TEXT A100_80G_X1
Qwen/Qwen3-4B TEXT_TO_TEXT A100_80G_X1
Qwen/Qwen3-8B TEXT_TO_TEXT A100_80G_X1
Qwen/Qwen3-14B TEXT_TO_TEXT A100_80G_X1
Qwen/Qwen3-32B TEXT_TO_TEXT A100_80G_X2
Qwen/Qwen3-4B-Instruction-2507 TEXT_TO_TEXT A100_80G_X1
Qwen/Qwen3-30B-A3B-Instruction-2507 TEXT_TO_TEXT A100_80G_X2
Qwen/Qwen3-235B-A22B-Instruction-2507 TEXT_TO_TEXT H100_X8
Qwen/Qwen3-VL-30B-A3B-Instruction IMAGE_TEXT_TO_TEXT H100_X2
Qwen/Qwen3-VL-235B-A22B-Instruction IMAGE_TEXT_TO_TEXT H100_X8

Qwen 2.5

Modèles Qwen2.5 validés
ID modèle Hugging Face Capacité du modèle Forme d'unité de cluster d'IA dédiée recommandée
Qwen/Qwen2.5-Coder-32B-Instruction TEXT_TO_TEXT A100_80G_X2
Qwen/Qwen2.5-0.5B-Instruction TEXT_TO_TEXT A100_80G_X1
Qwen/Qwen2.5-1.5B-Instruction TEXT_TO_TEXT A100_80G_X1
Qwen/Qwen2.5-3B-Instruction TEXT_TO_TEXT A100_80G_X1
Qwen/Qwen2.5-7B-Instruction TEXT_TO_TEXT A100_80G_X1
Qwen/Qwen2.5-14B-Instruction TEXT_TO_TEXT A100_80G_X1
Qwen/Qwen2.5-32B-Instruction TEXT_TO_TEXT A100_80G_X2
Qwen/Qwen2.5-72B-Instruction TEXT_TO_TEXT A100_80G_X4
Qwen/Qwen2.5-VL-3B-Instruction IMAGE_TEXT_TO_TEXT A100_80G_X1
Qwen/Qwen2.5-VL-7B-Instruction IMAGE_TEXT_TO_TEXT A100_80G_X1
Qwen/Qwen2.5-VL-32B-Instruction IMAGE_TEXT_TO_TEXT A100_80G_X2
Qwen/Qwen2.5-VL-72B-Instruction IMAGE_TEXT_TO_TEXT A100_80G_X4

Qwen 2

Modèles Qwen2 validés
ID modèle Hugging Face Capacité du modèle Forme d'unité de cluster d'IA dédiée recommandée
Qwen/Qwen2-0.5B-Instruction TEXT_TO_TEXT A100_80G_X1
Qwen/Qwen2-1.5B-Instruction TEXT_TO_TEXT A100_80G_X1
Qwen/Qwen2-7B-Instruction TEXT_TO_TEXT A100_80G_X1
Qwen/Qwen2-72B-Instruction TEXT_TO_TEXT A100_80G_X4
Qwen/Qwen2-VL-2B-Instruction IMAGE_TEXT_TO_TEXT A100_80G_X1
Qwen/Qwen2-VL-7B-Instruction IMAGE_TEXT_TO_TEXT A100_80G_X1
Qwen/Qwen2-VL-72B-Instruction IMAGE_TEXT_TO_TEXT A100_80G_X4
Important

  • Bien que vous puissiez importer n'importe quel modèle de discussion, d'intégration (et de réglage fin) validé via Open Model Engine (avec exécution vLLM ou SGLang), seuls les modèles explicitement répertoriés sur cette page sont validés pour cette famille de modèles. Les modèles non répertoriés peuvent présenter des problèmes de compatibilité et nous vous recommandons de tester tous les modèles non répertoriés avant leur utilisation en production. Découvrez l'architecture de modèle importée d'OCI Generative AI.

  • Pour les modèles importés, vous pouvez utiliser la longueur de contexte native indiquée par le fournisseur de modèle. Cependant, la longueur de contexte maximale effective est limitée par la configuration matérielle sous-jacente que vous sélectionnez pour l'hébergement de clusters d'IA dédiés dans OCI Generative AI. Pour tirer pleinement parti de la longueur du contexte natif d'un modèle, vous devrez peut-être provisionner davantage de ressources matérielles.
  • Utilisez les modèles affinés uniquement s'ils correspondent à la version du transformateur du modèle de base validé et ont un nombre de paramètres inférieur à ±10 % de l'original.
  • Pour connaître le matériel disponible et connaître les étapes de déploiement des modèles importés, reportez-vous à Gestion des modèles importés.
  • Si la forme d'unité validée n'est pas disponible dans la région, sélectionnez une option de niveau supérieur. Par exemple, si A100 n'est pas disponible, sélectionnez H100.