インポートでサポートされているモデル
大規模言語モデルをHugging FaceおよびOCI Object StorageバケットからOCI生成AIにインポートし、それらのモデルのエンドポイントを作成して生成AIサービスで使用できます。
インポートされたモデルは、モデル・プロバイダによって指定されたネイティブ・コンテキスト長をサポートします。ただし、使用できるコンテキストの最大長は、OCI生成AIの基礎となるハードウェア構成によっても制限されます。モデルのネイティブ・コンテキスト長を最大限に活用するには、追加のハードウェア・リソースをプロビジョニングする必要がある場合があります。
サポートされているモデル・アーキテクチャ
生成AIサービスは、AIイニシアチブを高速化するために、主要なオープンソースおよびサードパーティ言語モデルのインポートとデプロイをサポートします。次のモデル・アーキテクチャがサポートされています。
チャットモデル
チャット・モデルを使用すると、質問をしたり、AIから会話型のコンテキスト内回答を得ることができます。次のモデル・ファミリから選択して、ユース・ケースの速度、品質およびコストのバランスを取ります。モデルID、モデル機能および推奨される専用AIクラスタ・ユニット・シェイプでサポートされているモデルのリストには、各リンクを選択します。
- Alibaba Qwen 3およびQwen 2
高度な多言語およびマルチモーダル機能を提供します。
- Google Gemma
幅広い言語処理ニーズと高い汎用性を実現します。
- Llama2、Llama3、Llama3.1、Llama3.2、Llama3.3、Llama4
Grouped Query Attention (GQA)を使用したMeta Llamaモデルの改良版。
- Microsoft Phi
スケーラブルで柔軟なパフォーマンスのために設計された、効率性とコンパクトさのために知られています。
- OpenAI GptOss
Mixture-of-Experts(MoE)アーキテクチャを備えた高度なオープンウェイト変圧器アーキテクチャで、効率的で高品質な言語推論と大規模なコンテキスト処理に最適化されています。
埋込みモデル
埋込みモデルは、入力データ(単語やイメージなど)を、セマンティックの意味または関係をキャプチャする数値ベクトルに変換します。これにより、機械はデータ内の類似性、関係およびパターンをより効果的に理解できます。モデルID、モデル機能および推奨される専用AIクラスタ・ユニット・シェイプについて、次のリンクを選択します。
- ミストラル
効率的な長文処理を行うためのSliding Window Attention (SWA)と、スケーラビリティを向上させるためのオプションのGrouped Query Attention (GQA)を備えた、高パフォーマンスでデコーダ専用のTransformerアーキテクチャ。