Modelli Alibaba supportati

Puoi importare modelli di linguaggio di grandi dimensioni dai bucket di storage degli oggetti Hugging Face e OCI nell'AI generativa OCI, creare endpoint per tali modelli e utilizzarli nel servizio AI generativa.

Famiglia di modelli Alibaba Qwen, dotata di avanzate capacità multilingue e multimodali. Per le schede modello su Hugging Face, vedere i collegamenti nelle tabelle seguenti.

Immagine Qwen

Modelli Qwen Image supportati
ID modello viso abbraccio Capacità modello Forma unità cluster AI dedicata consigliata
Qwen/Qwen-Image TEXT_TO_IMAGE A100_80G_X1
Qwen/Qwen-Image-Modifica IMAGE_TEXT_TO_IMAGE A100_80G_X1
Qwen/Qwen-Image-2512 TEXT_TO_IMAGE A100_80G_X1
Qwen/Qwen-Image-Edit-2511 IMAGE_TEXT_TO_IMAGE A100_80G_X1
Qwen/Qwen-Image-Edit-2509 IMAGE_TEXT_TO_IMAGE A100_80G_X1
Nota

  • response_format: "url" non è supportato (HTTP 400).
  • n (numero di immagini): è supportato solo 0 o 1.
  • Streaming non supportato.
  • Le dimensioni delle immagini non standard potrebbero essere arrotondate (ad esempio, 999x999992x992) anziché restituire HTTP 400 (a differenza dell'API OpenAI).
  • La trasparenza non è garantita a causa delle limitazioni del modello.

Qwen Q (motivazione)

Modelli Qwen Q supportati
ID modello viso abbraccio Capacità modello Forma unità cluster AI dedicata consigliata
Qwen/QwQ-32B TEXT_TO_TEXT A100_80G_X2

Qwen 3

Modelli Qwen 3 supportati
ID modello viso abbraccio Capacità modello Forma unità cluster AI dedicata consigliata
Qwen/Qwen3-Incorporazione-0.6B INTEGRAZIONE A10_X1
Qwen/Qwen3-Incorporazione-4B INTEGRAZIONE A10_X2
Qwen/Qwen3-Incorporazione-8B INTEGRAZIONE A100_80G_X1
Qwen/Qwen3-0.6B TEXT_TO_TEXT A100_80G_X1
Qwen/Qwen3-1.7B TEXT_TO_TEXT A100_80G_X1
Qwen/Qwen3-4B TEXT_TO_TEXT A100_80G_X1
Qwen/Qwen3-8B TEXT_TO_TEXT A100_80G_X1
Qwen/Qwen3-14B TEXT_TO_TEXT A100_80G_X1
Qwen/Qwen3-32B TEXT_TO_TEXT A100_80G_X2
Qwen/Qwen3-4B-Instruct-2507 TEXT_TO_TEXT A100_80G_X1
Qwen/Qwen3-30B-A3B-Instruct-2507 TEXT_TO_TEXT A100_80G_X2
Qwen/Qwen3-235B-A22B-Instruct-2507 TEXT_TO_TEXT H100_X8
Qwen/Qwen3-VL-30B-A3B-Istruzioni IMAGE_TEXT_TO_TEXT H100_X2
Qwen/Qwen3-VL-235B-A22B-Istruzioni IMAGE_TEXT_TO_TEXT H100_X8

Qwen 2.5

Modelli Qwen2.5 supportati
ID modello viso abbraccio Capacità modello Forma unità cluster AI dedicata consigliata
Qwen/Qwen2.5-Coder-32B-Istruzioni TEXT_TO_TEXT A100_80G_X2
Qwen/Qwen2.5-0.5B-Istruzioni TEXT_TO_TEXT A100_80G_X1
Qwen/Qwen2.5-1.5B-Istruzioni TEXT_TO_TEXT A100_80G_X1
Qwen/Qwen2.5-3B-Istruzioni TEXT_TO_TEXT A100_80G_X1
Qwen/Qwen2.5-7B-Istruzioni TEXT_TO_TEXT A100_80G_X1
Qwen/Qwen2.5-14B-Istruzioni TEXT_TO_TEXT A100_80G_X1
Qwen/Qwen2.5-32B-Istruzioni TEXT_TO_TEXT A100_80G_X2
Qwen/Qwen2.5-72B-Istruzioni TEXT_TO_TEXT A100_80G_X4
Qwen/Qwen2.5-VL-3B-Istruzioni IMAGE_TEXT_TO_TEXT A100_80G_X1
Qwen/Qwen2.5-VL-7B-Istruzioni IMAGE_TEXT_TO_TEXT A100_80G_X1
Qwen/Qwen2.5-VL-32B-Istruzioni IMAGE_TEXT_TO_TEXT A100_80G_X2
Qwen/Qwen2.5-VL-72B-Istruzioni IMAGE_TEXT_TO_TEXT A100_80G_X4

Qwen 2

Modelli Qwen2 supportati
ID modello viso abbraccio Capacità modello Forma unità cluster AI dedicata consigliata
Qwen/Qwen2-0.5B-Istruzioni TEXT_TO_TEXT A100_80G_X1
Qwen/Qwen2-1.5B-Istruzioni TEXT_TO_TEXT A100_80G_X1
Qwen/Qwen2-7B-Istruzioni TEXT_TO_TEXT A100_80G_X1
Qwen/Qwen2-72B-Istruzioni TEXT_TO_TEXT A100_80G_X4
Qwen/Qwen2-VL-2B-Istruzioni IMAGE_TEXT_TO_TEXT A100_80G_X1
Qwen/Qwen2-VL-7B-Istruzioni IMAGE_TEXT_TO_TEXT A100_80G_X1
Qwen/Qwen2-VL-72B-Istruzioni IMAGE_TEXT_TO_TEXT A100_80G_X4
Importante

  • Sebbene sia possibile importare qualsiasi modello di chat, incorporamento (e ottimizzato) supportato da Open Model Engine (con runtime vLLM o SGLang), solo i modelli elencati in modo esplicito in questa pagina sono supportati per questa famiglia di modelli. I modelli non elencati potrebbero presentare problemi di compatibilità e si consiglia di testare qualsiasi modello non elencato prima dell'uso in produzione. Scopri di più sull'architettura del modello importato dall'AI generativa OCI.

  • I modelli importati supportano la lunghezza del contesto nativo specificata dal provider del modello. Tuttavia, la lunghezza massima effettiva del contesto è limitata anche dalla configurazione hardware di base di OCI Generative AI. Per sfruttare appieno la lunghezza del contesto nativo di un modello, potrebbe essere necessario eseguire il provisioning di più risorse hardware.
  • I modelli ottimizzati sono supportati solo se corrispondono alla versione del trasformatore del modello di base supportato e hanno un conteggio dei parametri entro ±10% dell'originale.
  • Per informazioni sull'hardware disponibile e sulla procedura per distribuire i modelli importati, vedere Gestione dei modelli importati.
  • Se la forma di unità consigliata non è disponibile nell'area, selezionare un'opzione di livello superiore. Ad esempio, se A100 non è disponibile, selezionare H100.