Modelos de Alibaba soportados
Puede importar modelos de lenguaje grandes de cubos de Hugging Face y OCI Object Storage a OCI Generative AI, crear puntos finales para esos modelos y utilizarlos en el servicio Generative AI.
La familia de modelos Alibaba Qwen cuenta con capacidades multilingües y multimodales avanzadas. Para las tarjetas modelo en Hugging Face, consulte los enlaces en las siguientes tablas.
Imagen de Qwen
| ID de modelo facial de abrazo | Capacidad del modelo | Unidad de cluster de IA dedicada recomendada |
|---|---|---|
| Qwen/Qwen-Imagen | TEXT_TO_IMAGE | A100_80G_X1 |
| Qwen/Qwen-Imagen-Editar | IMAGE_TEXT_TO_IMAGE | A100_80G_X1 |
| Qwen/Qwen-Imagen-2512 | TEXT_TO_IMAGE | A100_80G_X1 |
| Qwen/Qwen-Image-Edit-2511 | IMAGE_TEXT_TO_IMAGE | A100_80G_X1 |
| Qwen/Qwen-Imagen-Edit-2509 | IMAGE_TEXT_TO_IMAGE | A100_80G_X1 |
response_format: "url"no está soportado (HTTP 400).n(número de imágenes): solo se admite0o1.- Streaming no está soportado.
- Los tamaños de imagen no estándar pueden redondearse (por ejemplo,
999x999→992x992) en lugar de devolver HTTP 400 (a diferencia de la API OpenAI). - La transparencia no está garantizada debido a las limitaciones del modelo.
Qwen Q (razonamiento)
| ID de modelo facial de abrazo | Capacidad del modelo | Unidad de cluster de IA dedicada recomendada |
|---|---|---|
| Qwen/QwQ-32B | TEXT_TO_TEXT | A100_80G_X2 |
Qwen 3
| ID de modelo facial de abrazo | Capacidad del modelo | Unidad de cluster de IA dedicada recomendada |
|---|---|---|
| Qwen/Qwen3-Embedding-0.6B | INCRUSTAR | A10_X1 |
| Qwen/Qwen3-Embedding-4B | INCRUSTAR | A10_X2 |
| Qwen/Qwen3-Embedding-8B | INCRUSTAR | A100_80G_X1 |
| Qwen/Qwen3-0.6B | TEXT_TO_TEXT | A100_80G_X1 |
| Qwen/Qwen3-1.7B | TEXT_TO_TEXT | A100_80G_X1 |
| Qwen/Qwen3-4B | TEXT_TO_TEXT | A100_80G_X1 |
| Qwen/Qwen3-8B | TEXT_TO_TEXT | A100_80G_X1 |
| Qwen/Qwen3-14B | TEXT_TO_TEXT | A100_80G_X1 |
| Qwen/Qwen3-32B | TEXT_TO_TEXT | A100_80G_X2 |
| Qwen/Qwen3-4B-Instruct-2507 | TEXT_TO_TEXT | A100_80G_X1 |
| Qwen/Qwen3-30B-A3B-Instruct-2507 | TEXT_TO_TEXT | A100_80G_X2 |
| Qwen/Qwen3-235B-A22B-Instruct-2507 | TEXT_TO_TEXT | H100_X8 |
| Qwen/Qwen3-VL-30B-A3B-Instruct | IMAGE_TEXT_TO_TEXT | H100_X2 |
| Qwen/Qwen3-VL-235B-A22B-Instruct | IMAGE_TEXT_TO_TEXT | H100_X8 |
Qwen 2,5
| ID de modelo facial de abrazo | Capacidad del modelo | Unidad de cluster de IA dedicada recomendada |
|---|---|---|
| Qwen/Qwen2.5-Codificador-32B-Instruct | TEXT_TO_TEXT | A100_80G_X2 |
| Qwen/Qwen2.5-0.5B-Instruct | TEXT_TO_TEXT | A100_80G_X1 |
| Qwen/Qwen2.5-1.5B-Instruct | TEXT_TO_TEXT | A100_80G_X1 |
| Qwen/Qwen2.5-3B-Instruct | TEXT_TO_TEXT | A100_80G_X1 |
| Qwen/Qwen2.5-7B-Instruct | TEXT_TO_TEXT | A100_80G_X1 |
| Qwen/Qwen2.5-14B-Instruct | TEXT_TO_TEXT | A100_80G_X1 |
| Qwen/Qwen2.5-32B-Instruct | TEXT_TO_TEXT | A100_80G_X2 |
| Qwen/Qwen2.5-72B-Instruct | TEXT_TO_TEXT | A100_80G_X4 |
| Qwen/Qwen2.5-VL-3B-Instruct | IMAGE_TEXT_TO_TEXT | A100_80G_X1 |
| Qwen/Qwen2.5-VL-7B-Instruct | IMAGE_TEXT_TO_TEXT | A100_80G_X1 |
| Qwen/Qwen2.5-VL-32B-Instruct | IMAGE_TEXT_TO_TEXT | A100_80G_X2 |
| Qwen/Qwen2.5-VL-72B-Instruct | IMAGE_TEXT_TO_TEXT | A100_80G_X4 |
Qwen 2
| ID de modelo facial de abrazo | Capacidad del modelo | Unidad de cluster de IA dedicada recomendada |
|---|---|---|
| Qwen/Qwen2-0.5B-Instruct | TEXT_TO_TEXT | A100_80G_X1 |
| Qwen/Qwen2-1.5B-Instruct | TEXT_TO_TEXT | A100_80G_X1 |
| Qwen/Qwen2-7B-Instruct | TEXT_TO_TEXT | A100_80G_X1 |
| Qwen/Qwen2-72B-Instruct | TEXT_TO_TEXT | A100_80G_X4 |
| Qwen/Qwen2-VL-2B-Instruct | IMAGE_TEXT_TO_TEXT | A100_80G_X1 |
| Qwen/Qwen2-VL-7B-Instruct | IMAGE_TEXT_TO_TEXT | A100_80G_X1 |
| Qwen/Qwen2-VL-72B-Instruct | IMAGE_TEXT_TO_TEXT | A100_80G_X4 |
-
Aunque puede importar cualquier modelo de chat, incrustación (y ajuste) soportado a través de Open Model Engine (con tiempo de ejecución vLLM o SGLang), solo los modelos que se muestran explícitamente en esta página están soportados para esta familia de modelos. Los modelos no listados pueden tener problemas de compatibilidad y le recomendamos que pruebe cualquier modelo no listado antes de su uso en producción. Obtén más información sobre la arquitectura de modelo importada de IA generativa de OCI.
- Los modelos importados soportan la longitud de contexto nativo especificada por el proveedor del modelo. Sin embargo, la longitud máxima efectiva del contexto también está limitada por la configuración de hardware subyacente de OCI Generative AI. Para aprovechar al máximo la longitud del contexto nativo de un modelo, puede que necesite aprovisionar más recursos de hardware.
- Los modelos ajustados solo se admiten si coinciden con la versión del transformador del modelo base soportado y tienen un recuento de parámetros dentro del ±10% del original.
- Para obtener información sobre el hardware disponible y los pasos para desplegar los modelos importados, consulte Gestión de modelos importados.
- Si la unidad recomendada no está disponible en la región, seleccione una opción de nivel superior. Por ejemplo, si A100 no está disponible, seleccione H100.