サポートされているGoogleモデル

大規模言語モデルをHugging FaceおよびOCI Object StorageバケットからOCI生成AIにインポートし、それらのモデルのエンドポイントを作成して生成AIサービスで使用できます。

Gemma2およびGemma3オープン・ソース・モデルを含むGoogle Gemmaシリーズは、幅広い言語処理ニーズと高い汎用性のために構築されています。詳細は、Hugging FaceドキュメントのGemma2およびGemma3を参照してください。

Gemma

サポートされているGemmaモデル
Hugging FaceモデルID モデル機能 推奨される専用AIクラスタ・ユニット・シェイプ
google/gemma-2-2b-it TEXT_TO_TEXT A100_80G_X1
google/gemma-2-9b-it TEXT_TO_TEXT A100_80G_X1
google/gemma-2-27b-it TEXT_TO_TEXT A100_80G_X2
google/gemma-3-1b-it TEXT_TO_TEXT A100_80G_X1
google/gemma-3-4b-it IMAGE_TEXT_TO_TEXT A100_80G_X1
google/gemma-3-12b-it IMAGE_TEXT_TO_TEXT A100_80G_X1
google/gemma-3-27b-it IMAGE_TEXT_TO_TEXT A100_80G_X2
google/gemma-3-270m-it TEXT_TO_TEXT A100_80G_X1
重要

  • インポートされたモデルは、モデル・プロバイダによって指定されたネイティブ・コンテキスト長をサポートします。ただし、使用できるコンテキストの最大長は、OCI生成AIの基礎となるハードウェア構成によっても制限されます。モデルのネイティブ・コンテキスト長を最大限に活用するには、追加のハードウェア・リソースをプロビジョニングする必要がある場合があります。
  • モデルのファインチューニング・バージョンをインポートするには、元のモデルと同じトランスフォーマ・バージョンを使用し、元のモデルの±10%以内にパラメータ数を持つファインチューニング・モデルのみがサポートされます。
  • 推奨ユニット・シェイプのインスタンス・タイプがリージョンで使用できない場合は、上位インスタンスを選択します(たとえば、A100-80GシェイプではなくH100シェイプを選択します)。
  • 前提条件およびモデルのインポート方法については、インポートされたモデルの管理(新規)を参照してください。