検証済Mistralモデル
大規模言語モデルをHugging FaceおよびOCI Object StorageバケットからOCI生成AIにインポートし、それらのモデルのエンドポイントを作成して生成AIサービスで使用できます。
これらのモデルには、効率的な長文処理を行うためのSliding Window Attention (SWA)と、スケーラビリティを向上させるためのオプションのGrouped Query Attention (GQA)を備えた、高パフォーマンスでデコーダ専用のTransformerアーキテクチャがあります。詳細は、Hugging FaceドキュメントのMistralを参照してください。
Mistral
| Hugging FaceモデルID | モデル機能 | 推奨される専用AIクラスタ・ユニット・シェイプ |
|---|---|---|
| mistralai/Mixtral-8x7B-Instruct-v0.1 | TEXT_TO_TEXT | A100_80G_X2 |
| ミストラライ/Mistral-Nemo-Instruct-2407 | TEXT_TO_TEXT | A100_80G_X1 |
| mistralai/Mistral-7B-Instruct-v0.3 | TEXT_TO_TEXT | A100_80G_X1 |
| mistralai/Mistral-7B-Instruct-v0.2 | TEXT_TO_TEXT | A100_80G_X1 |
| mistralai/Mistral-7B-Instruct-v0.1 | TEXT_TO_TEXT | A100_80G_X1 |
| intfloat/e5-mistral-7b-instruct | 埋込み | A10_X1 |
重要
-
オープン・モデル・エンジン(vLLMまたはSGLangランタイムを使用)を介して検証された任意のチャット、埋込み(およびファインチューニング)モデルをインポートできますが、このページに明示的にリストされたモデルのみがこのモデル・ファミリについて検証されます。非リスト・モデルには互換性に問題がある可能性があり、本番で使用する前に、リストされていないモデルをテストすることをお薦めします。OCI Generative AI Imported Model Architectureについて学習します。
- インポートされたモデルの場合は、モデル・プロバイダによって指定されたネイティブ・コンテキスト長を使用できます。ただし、効果的な最大コンテキスト長は、OCI生成AIでホスティング専用AIクラスタに選択する基礎となるハードウェア設定によって制限されます。モデルのネイティブ・コンテキスト長を最大限に活用するには、より多くのハードウェア・リソースをプロビジョニングする必要がある場合があります。
- ファインチューニング・モデルは、検証済のベース・モデルのトランスフォーマ・バージョンと一致し、パラメータ数が元のモデルの±10%以内である場合にのみ使用します。
- インポートされたモデルのデプロイ方法に関する使用可能なハードウェアおよびステップは、インポートされたモデルの管理を参照してください。
- 検証されたユニット・シェイプがリージョンで使用できない場合は、上位層オプションを選択します。たとえば、A100を使用できない場合は、「H100」を選択します。