検証済Microsoftモデル

大規模言語モデルをHugging FaceおよびOCI Object StorageバケットからOCI生成AIにインポートし、それらのモデルのエンドポイントを作成して生成AIサービスで使用できます。

Microsoft Phi-3モデルは、その効率性とコンパクトさで知られており、スケーラブルで柔軟なパフォーマンスのために設計されています。Hugging Faceの Phi-3ドキュメントを参照してください。

Phi 3

検証済Phi 3モデル
Hugging FaceモデルID モデル機能 推奨専用AIクラスタ・ユニット・サイズ
マイクロソフト/phi-4 TEXT_TO_TEXT A100_80G_X1
microsoft/Phi-3-mini-4k-instruct TEXT_TO_TEXT A100_80G_X1
microsoft/Phi-3-mini-128k-instruct TEXT_TO_TEXT A100_80G_X1
microsoft/Phi-3-small-8k-instruct TEXT_TO_TEXT A100_80G_X1
microsoft/Phi-3-small-128k-instruct TEXT_TO_TEXT A100_80G_X1
microsoft/Phi-3-medium-4k-instruct TEXT_TO_TEXT A100_80G_X1
microsoft/Phi-3-medium-128k-instruct TEXT_TO_TEXT A100_80G_X1
microsoft/Phi-3-vision-128k-instruct IMAGE_TEXT_TO_TEXT H100_X1
重要

  • オープン・モデル・エンジン(vLLMまたはSGLangランタイムを使用)を介して検証された任意のチャット、埋込み(およびファインチューニング)モデルをインポートできますが、このページに明示的にリストされたモデルのみがこのモデル・ファミリについて検証されます。非リスト・モデルには互換性に問題がある可能性があり、本番で使用する前にリストされていないモデルをテストすることをお薦めします。OCI Generative AI Imported Model Architectureについて学習します。

  • インポートされたモデルの場合は、モデル・プロバイダによって指定されたネイティブ・コンテキスト長を使用できます。ただし、効果的な最大コンテキスト長は、OCI生成AIでホスティング専用AIクラスタに選択する基礎となるハードウェア設定によって制限されます。モデルのネイティブ・コンテキスト長を最大限に活用するには、より多くのハードウェア・リソースをプロビジョニングする必要がある場合があります。
  • ファインチューニング・モデルは、検証済のベース・モデルのトランスフォーマ・バージョンと一致し、パラメータ数が元のモデルの±10%以内である場合にのみ使用します。
  • インポートされたモデルのデプロイ方法に関する使用可能なハードウェアおよびステップは、インポートされたモデルの管理を参照してください。
  • 検証されたユニット・シェイプがリージョンで使用できない場合は、上位層オプションを選択します。たとえば、A100を使用できない場合は、「H100」を選択します。