サポートされているOpenAIモデル

大規模言語モデルをHugging FaceおよびOCI Object StorageバケットからOCI生成AIにインポートし、それらのモデルのエンドポイントを作成して生成AIサービスで使用できます。

これらのモデルは、効率的で高品質な言語推論と大規模なコンテキスト処理のために最適化されたMixture-of-Experts (MoE)アーキテクチャを備えた高度なオープンウェイト変圧器アーキテクチャを備えています。詳細は、Hugging FaceドキュメントのGptOssを参照してください。

GptOss

サポートされているOpenAIモデル
Hugging FaceモデルID モデル機能 推奨される専用AIクラスタ・ユニット・シェイプ
openai/gpt-oss-20b TEXT_TO_TEXT H100_X1
openai/gpt-oss-120b TEXT_TO_TEXT H100_X2
重要

  • オープン・モデル・エンジン(vLLMまたはSGLangランタイムを使用)でサポートされている任意のチャット、埋込み(およびファインチューニング)モデルをインポートできますが、このモデル・ファミリでは、このページに明示的にリストされたモデルのみがサポートされます。非リスト・モデルには互換性に問題がある可能性があり、本番で使用する前にリストされていないモデルをテストすることをお薦めします。OCI Generative AI Imported Model Architectureについて学習します。

  • インポートされたモデルは、モデル・プロバイダによって指定されたネイティブ・コンテキスト長をサポートします。ただし、効果的な最大コンテキスト長は、OCI生成AIの基礎となるハードウェア設定によっても制限されます。モデルのネイティブ・コンテキスト長を最大限に活用するには、より多くのハードウェア・リソースをプロビジョニングする必要がある場合があります。
  • ファインチューニング・モデルは、サポートされているベース・モデルのトランスフォーマ・バージョンと一致し、パラメータ数が元のモデルの±10%以内である場合にのみサポートされます。
  • インポートされたモデルのデプロイ方法に関する使用可能なハードウェアおよびステップは、インポートされたモデルの管理を参照してください。
  • 推奨単位形状がリージョンで使用できない場合は、上位層オプションを選択します。たとえば、A100を使用できない場合は、H100を選択します。