検証済Alibabaモデル

大規模言語モデルをHugging FaceおよびOCI Object StorageバケットからOCI生成AIにインポートし、それらのモデルのエンドポイントを作成して生成AIサービスで使用できます。

Alibaba Qwenモデルファミリは、高度な多言語およびマルチモーダル機能を備えています。Hugging Faceのモデル・カードについては、次の表のリンクを参照してください。

Qwenイメージ

検証済Qwen Imageモデル
Hugging FaceモデルID モデル機能 推奨される専用AIクラスタ・ユニット・シェイプ
Qwen/Qwen-Image TEXT_TO_IMAGE A100_80G_X1
Qwen/Qwen-Image-Edit IMAGE_TEXT_TO_IMAGE A100_80G_X1
クウェン/クウェンイメージ-2512 TEXT_TO_IMAGE A100_80G_X1
Qwen/Qwen-Image-Edit-2511 IMAGE_TEXT_TO_IMAGE A100_80G_X1
Qwen/Qwen-Image-Edit-2509 IMAGE_TEXT_TO_IMAGE A100_80G_X1
ノート

  • response_format: "url"は機能せず、HTTP 400不正なリクエスト・エラーを返します。
  • n (イメージ数): 0または1のみが動作します。
  • ストリーミングが検証されていません。
  • 標準以外のイメージ・サイズは、(OpenAI APIとは異なり)HTTP 400を返すのではなく、丸められる場合があります(たとえば、999x999992x992)。
  • モデル制限のため、透過性が機能しない場合があります。

クウェンQ(Reasoning)

検証済Qwen Qモデル
Hugging FaceモデルID モデル機能 推奨される専用AIクラスタ・ユニット・シェイプ
クウェン/QwQ-32B TEXT_TO_TEXT A100_80G_X2

Qwen 3

検証済Qwen 3モデル
Hugging FaceモデルID モデル機能 推奨される専用AIクラスタ・ユニット・シェイプ
クウェン/Qwen3- 埋め込み-0.6B 埋込み A10_X1
クウェン/Qwen3- 埋め込み-4B 埋込み A10_X2
クウェン/Qwen3- 埋め込み-8B 埋込み A100_80G_X1
クウェン/Qwen3-0.6B TEXT_TO_TEXT A100_80G_X1
クウェン/Qwen3-1.7B TEXT_TO_TEXT A100_80G_X1
クウェン/Qwen3-4B TEXT_TO_TEXT A100_80G_X1
クウェン/Qwen3-8B TEXT_TO_TEXT A100_80G_X1
クウェン/Qwen3-14B TEXT_TO_TEXT A100_80G_X1
クウェン/Qwen3-32B TEXT_TO_TEXT A100_80G_X2
クウェン/Qwen3-4B-Instruct-2507 TEXT_TO_TEXT A100_80G_X1
クウェン/Qwen3-30B-A3B-Instruct-2507 TEXT_TO_TEXT A100_80G_X2
クウェン/Qwen3-235B-A22B-Instruct-2507 TEXT_TO_TEXT H100_X8
Qwen/Qwen3-VL-30B-A3B-Instruct IMAGE_TEXT_TO_TEXT H100_X2
Qwen/Qwen3-VL-235B-A22B-Instruct IMAGE_TEXT_TO_TEXT H100_X8

クウェン2.5

検証済Qwen2.5モデル
Hugging FaceモデルID モデル機能 推奨される専用AIクラスタ・ユニット・シェイプ
Qwen/Qwen2.5-Coder-32B-Instruct TEXT_TO_TEXT A100_80G_X2
Qwen/Qwen2.5-0.5B-Instruct TEXT_TO_TEXT A100_80G_X1
Qwen/Qwen2.5-1.5B-Instruct TEXT_TO_TEXT A100_80G_X1
Qwen/Qwen2.5-3B-Instruct TEXT_TO_TEXT A100_80G_X1
Qwen/Qwen2.5-7B-Instruct TEXT_TO_TEXT A100_80G_X1
Qwen/Qwen2.5-14B-Instruct TEXT_TO_TEXT A100_80G_X1
Qwen/Qwen2.5-32B-Instruct TEXT_TO_TEXT A100_80G_X2
Qwen/Qwen2.5-72B-Instruct TEXT_TO_TEXT A100_80G_X4
Qwen/Qwen2.5-VL-3B-Instruct IMAGE_TEXT_TO_TEXT A100_80G_X1
Qwen/Qwen2.5-VL-7B-Instruct IMAGE_TEXT_TO_TEXT A100_80G_X1
Qwen/Qwen2.5-VL-32B-Instruct IMAGE_TEXT_TO_TEXT A100_80G_X2
Qwen/Qwen2.5-VL-72B-Instruct IMAGE_TEXT_TO_TEXT A100_80G_X4

Qwen 2

検証済Qwen2モデル
Hugging FaceモデルID モデル機能 推奨される専用AIクラスタ・ユニット・シェイプ
Qwen/Qwen2-0.5B-Instruct TEXT_TO_TEXT A100_80G_X1
Qwen/Qwen2-1.5B-Instruct TEXT_TO_TEXT A100_80G_X1
Qwen/Qwen2-7B-Instruct TEXT_TO_TEXT A100_80G_X1
Qwen/Qwen2-72B-Instruct TEXT_TO_TEXT A100_80G_X4
Qwen/Qwen2-VL-2B-Instruct IMAGE_TEXT_TO_TEXT A100_80G_X1
Qwen/Qwen2-VL-7B-Instruct IMAGE_TEXT_TO_TEXT A100_80G_X1
Qwen/Qwen2-VL-72B-Instruct IMAGE_TEXT_TO_TEXT A100_80G_X4
重要

  • オープン・モデル・エンジン(vLLMまたはSGLangランタイムを使用)を介して検証された任意のチャット、埋込み(およびファインチューニング)モデルをインポートできますが、このページに明示的にリストされたモデルのみがこのモデル・ファミリについて検証されます。非リスト・モデルには互換性に問題がある可能性があり、本番で使用する前にリストされていないモデルをテストすることをお薦めします。OCI Generative AI Imported Model Architectureについて学習します。

  • インポートされたモデルの場合は、モデル・プロバイダによって指定されたネイティブ・コンテキスト長を使用できます。ただし、効果的な最大コンテキスト長は、OCI生成AIでホスティング専用AIクラスタに選択する基礎となるハードウェア設定によって制限されます。モデルのネイティブ・コンテキスト長を最大限に活用するには、より多くのハードウェア・リソースをプロビジョニングする必要がある場合があります。
  • ファインチューニング・モデルは、検証済のベース・モデルのトランスフォーマ・バージョンと一致し、パラメータ数が元のモデルの±10%以内である場合にのみ使用します。
  • インポートされたモデルのデプロイ方法に関する使用可能なハードウェアおよびステップは、インポートされたモデルの管理を参照してください。
  • 検証されたユニット・シェイプがリージョンで使用できない場合は、上位層オプションを選択します。たとえば、A100を使用できない場合は、「H100」を選択します。