生成AIでのモデルの制限事項

OCI生成AIカスタム・モデルとベース・モデルの次のモデル要件を確認し、モデルを最大限に活用してください。

ノート

事前トレーニング済ベース・モデルの主な機能については、生成AIの事前トレーニング済基本モデルを参照してください。

ベース・モデルのクラスタへの照合

ホスティング専用AIクラスタでOCI生成AIの事前トレーニング済モデルまたはカスタム・モデルをホストするには、生成AIの事前トレーニング済基本モデルに移動します。次に、事前トレーニング済モデルまたはカスタム・モデルのベース・モデルを選択します。ページの「モデルの専用AIクラスタ」セクションで、その基本モデルをホストするためのユニット・サイズおよび必要なユニットを参照してください。

ホスティング・クラスタへのエンドポイントの追加

ホスティング専用AIクラスタで推論のモデルをホストするには、そのモデルのエンドポイントを作成する必要があります。次に、カスタム・モデルまたは事前トレーニング済の基礎モデルをそのエンドポイントに追加できます。

エンドポイント別名およびスタック・サービスについて

ホスティング専用AIクラスタには、最大50のエンドポイントを含めることができます。これらのエンドポイントは、次のユースケースに使用します。

エンドポイント別名の作成

多数のエンドポイントを含む別名を作成します。これらの50のエンドポイントは、同じベース・モデルまたはカスタム・モデルの同じバージョンを指す必要があります。同じモデルを指すエンドポイントを多数作成すると、エンドポイントの管理が容易になります。これは、エンドポイントを異なるユーザーまたは異なる目的に使用できるためです。

スタック・サービング

1つのクラスタで複数のバージョンのカスタム・モデルをホストします。これは、T-Fewトレーニング・メソッドで微調整されたcohere.commandおよびcohere.command-lightモデルに適用されます。ファインチューニング・モデルの様々なバージョンをホストすると、様々なユース・ケースのカスタム・モデルの評価に役立ちます。

ヒント

ホスティング・クラスタでサポートされているコール・ボリュームを増やすには、インスタンス数を増やすことができます。

次の項を展開して、同じクラスタでモデルをホストするための要件を確認します。

チャット
重要

専用サービング・モードでサポートされている一部のOCI生成AI基盤の事前トレーニング済ベース・モデルは非推奨となり、1番目の代替モデルのリリース後6か月以内に廃止されます。ベース・モデルをホストするか、ベース・モデルを微調整して、ベース・モデルが廃止されるまで専用AIクラスタ(専用サービング・モード)でファインチューニング・モデルをホストできます。専用サービング・モード・リタイア日については、モデルのリタイアを参照してください。

事前トレーニング済ベース・チャット・モデルをホストする場合、またはホスティング専用AIクラスタでファインチューニング・チャット・モデルをホストする場合は、各ベース・モデルに一致する次のクラスタ・ユニット・サイズおよびエンドポイント・ルールを使用します。

ホスティング・クラスタ・ユニット・サイズ 一致ルール
ベース・モデルの場合はLarge Generic 2meta.llama-4-maverick-17b-128e-instruct-fp8

ホスティング・ベース・モデル

同じクラスタ上の複数のエンドポイントを介して同じ事前トレーニング済ベース・モデルをホストするには:

  • 同じホスティング・クラスタで、meta.llama-4-maverick-17b-128e-instruct-fp8モデルに必要な数のエンドポイントを作成します。

カスタム・モデルのホスティング

meta.llama-4-maverick-17b-128e-instruct-fp8モデルでは、ファインチューニングは使用できません。

ベース・モデルの場合はLarge Generic V2meta.llama-4-scout-17b-16e-instruct

ホスティング・ベース・モデル

同じクラスタ上の複数のエンドポイントを介して同じ事前トレーニング済ベース・モデルをホストするには:

  • 同じホスティング・クラスタで、meta.llama-4-scout-17b-16e-instructモデルに必要な数のエンドポイントを作成します。

カスタム・モデルのホスティング

meta.llama-4-scout-17b-16e-instructモデルでは、ファインチューニングは使用できません。

ベース・モデルの場合はLARGE_COHERE_V3cohere.command-a-03-2025

ホスティング・ベース・モデル

同じクラスタ上の複数のエンドポイントを介して同じ事前トレーニング済ベース・モデルをホストするには:

  • 同じホスティング・クラスタで、cohere.command-a-03-2025モデルに必要な数のエンドポイントを作成します。

カスタム・モデルのホスティング

cohere.command-a-03-2025モデルでは、ファインチューニングは使用できません。

ベース・モデルの場合はSmall Generic V2meta.llama-3.2-11b-vision-instruct

ホスティング・ベース・モデル

同じクラスタ上の複数のエンドポイントを介して同じ事前トレーニング済ベース・モデルをホストするには:

  • 同じホスティング・クラスタで、meta.llama-3.2-11b-vision-instructモデルに必要な数のエンドポイントを作成します。

カスタム・モデルのホスティング

meta.llama-3.2-11b-vision-instructモデルでは、ファインチューニングは使用できません。

ベース・モデルの場合はLarge Genericmeta.llama-3.3-70b-instruct

ホスティング・ベース・モデル

同じクラスタ上の複数のエンドポイントを介して同じ事前トレーニング済ベース・モデルをホストするには:

  • 同じホスティング・クラスタで、meta.llama-3.3-70b-instructモデルに必要な数のエンドポイントを作成します。

カスタム・モデルのホスティング

同じクラスタで複数のカスタム・モデルをホストするには:

  • LoRAトレーニング・メソッドを使用して1つのモデルを微調整します。
  • ベースとしてmeta.llama-3.3-70b-instructモデルを使用します。
  • カスタム・モデル(同じバージョン)に必要な数のエンドポイントを作成します。
ベース・モデルの場合はLarge Genericmeta.llama-3.1-70b-instruct

ホスティング・ベース・モデル

同じクラスタ上の複数のエンドポイントを介して同じ事前トレーニング済ベース・モデルをホストするには:

  • 同じホスティング・クラスタで、meta.llama-3.1-70b-instructモデルに必要な数のエンドポイントを作成します。

カスタム・モデルのホスティング

同じクラスタで複数のカスタム・モデルをホストするには:

  • LoRAトレーニング・メソッドを使用して1つのモデルを微調整します。
  • ベースとしてmeta.llama-3.1-70b-instructモデルを使用します。
  • カスタム・モデル(同じバージョン)に必要な数のエンドポイントを作成します。
ベース・モデルの場合はLarge Genericmeta.llama-3-70b-instruct

ホスティング・ベース・モデル

同じクラスタ上の複数のエンドポイントを介して同じ事前トレーニング済ベース・モデルをホストするには:

  • 同じホスティング・クラスタで、meta.llama-3-70b-instructモデルに必要な数のエンドポイントを作成します。

カスタム・モデルのホスティング

同じクラスタで複数のカスタム・モデルをホストするには:

  • LoRAトレーニング・メソッドを使用して1つのモデルを微調整します。
  • ベースとしてmeta.llama-3-70b-instructモデルを使用します。
  • カスタム・モデル(同じバージョン)に必要な数のエンドポイントを作成します。
ベース・モデルの場合はLarge Generic V2meta.llama-3.2-90b-vision-instruct

ホスティング・ベース・モデル

同じクラスタ上の複数のエンドポイントを介して同じ事前トレーニング済ベース・モデルをホストするには:

  • 同じホスティング・クラスタで、meta.llama-3.2-90b-vision-instructモデルに必要な数のエンドポイントを作成します。

カスタム・モデルのホスティング

meta.llama-3.2-90b-vision-instructモデルではファインチューニングを使用できません。

ベース・モデルの場合はLarge Generic 2meta.llama-3.1-405b-instruct

ホスティング・ベース・モデル

同じクラスタ上の複数のエンドポイントを介して同じ事前トレーニング済ベース・モデルをホストするには:

  • 同じホスティング・クラスタで、meta.llama-3.1-405b-instructモデルに必要な数のエンドポイントを作成します。

カスタム・モデルのホスティング

meta.llama-3.1-405b-instructモデルではファインチューニングを使用できません。

ベース・モデルの場合はSmall Cohere V2cohere.command-r-16k (非推奨)

ホスティング・ベース・モデル

同じクラスタ上の複数のエンドポイントを介して同じ事前トレーニング済ベース・モデルをホストするには:

  • 同じホスティング・クラスタで、cohere.command-r-16kモデルに必要な数のエンドポイントを作成します。

カスタム・モデルのホスティング

同じクラスタで複数のカスタム・モデルをホストするには:

  • T-FewまたはVanillaトレーニング・メソッドを使用して1つのモデルを微調整します。
  • ベースとしてcohere.command-r-16kモデルを使用します。
  • カスタム・モデル(同じバージョン)に必要な数のエンドポイントを作成します。

スタック・サービングがサポートされていないため、同じクラスタ上のcohere.command-r-16kベース・モデルでトレーニングされたカスタム・モデルの異なるバージョンをホストすることはできません。

ベース・モデルの場合はSmall Cohere V2cohere.command-r-08-2024

ホスティング・ベース・モデル

同じクラスタ上の複数のエンドポイントを介して同じ事前トレーニング済ベース・モデルをホストするには:

  • 同じホスティング・クラスタで、cohere.command-r-08-2024モデルに必要な数のエンドポイントを作成します。

カスタム・モデルのホスティング

同じクラスタで複数のカスタム・モデルをホストするには:

  • T-FewまたはVanillaトレーニング・メソッドを使用して1つのモデルを微調整します。
  • ベースとしてcohere.command-r-08-2024モデルを使用します。
  • カスタム・モデル(同じバージョン)に必要な数のエンドポイントを作成します。

スタック・サービングがサポートされていないため、同じクラスタ上のcohere.command-r-16kベース・モデルでトレーニングされたカスタム・モデルの異なるバージョンをホストすることはできません。

ベース・モデルの場合はLarge Cohere V2_2cohere.command-r-plus (非推奨)

ホスティング・ベース・モデル

同じクラスタ上の複数のエンドポイントを介して同じ事前トレーニング済ベース・モデルをホストするには:

  • 同じホスティング・クラスタで、cohere.command-r-plusモデルに必要な数のエンドポイントを作成します。

カスタム・モデルのホスティング

cohere.command-r-plusモデルではファインチューニングを使用できません。

ベース・モデルの場合はLarge Cohere V2_2cohere.command-r-plus-08-2024

ホスティング・ベース・モデル

同じクラスタ上の複数のエンドポイントを介して同じ事前トレーニング済ベース・モデルをホストするには:

  • 同じホスティング・クラスタで、cohere.command-r-plus-08-2024モデルに必要な数のエンドポイントを作成します。

カスタム・モデルのホスティング

cohere.command-r-plus-08-2024モデルではファインチューニングを使用できません。

再ランク

ホスティング専用AIクラスタでランク・モデルをホストするには、次のクラスタ・ユニット・サイズおよびエンドポイント・ルールを使用します。

ホスティング・クラスタ・ユニット・サイズ 一致ルール
RERANK_COHERE

ホスティング・ベース・モデル

同じクラスタ上の複数のエンドポイントを介して同じ事前トレーニング済ベース・モデルをホストするには:

  • 同じホスティング・クラスタで、cohere.rerank.3-5モデルに必要な数のエンドポイントを作成します。

カスタム・モデルのホスティング

Cohere Rerankモデルではファインチューニングは使用できません。

埋込み

ホスティング専用AIクラスタに埋込みモデルをホストするには、次のクラスタ・ユニット・サイズおよびエンドポイント・ルールを使用します。

ホスティング・クラスタ・ユニット・サイズ 一致ルール
Embed Cohere

ホスティング・ベース・モデル

同じクラスタ上の複数のエンドポイントを介して同じ事前トレーニング済ベース・モデルをホストするには:

  • 同じホスティング・クラスタ上の事前トレーニング済Cohere Embedモデルの1つに必要な数のエンドポイントを作成します。

カスタム・モデルのホスティング

Cohere Embedモデルではファインチューニングを使用できません。

テキスト生成(非推奨)
重要

  • オンデマンドで使用不可:テキスト生成および集計API (プレイグラウンドを含む)を使用するオンデマンド・サービング・モードでサポートされているすべてのOCI生成AI基礎事前トレーニング済モデルが廃止されました。かわりにチャット・モデルを使用することをお薦めします。
  • クラスタでホスト可能:専用AIクラスタ(専用サービング・モード)でサマリーまたは生成モデル(cohere.commandなど)をホストする場合、そのモデルが廃止されるまで引き続き使用できます。これらのモデルは、専用AIクラスタでホストされている場合、米国中西部(シカゴ)でのみ使用できます。除・売却日および定義は、モデルの除・売却を参照してください。

ホスティング専用AIクラスタでテキスト生成モデルをホストするには、ベース・モデルに一致する次のクラスタ・ユニット・サイズおよびエンドポイント・ルールを使用します。

ホスティング・クラスタ・ユニット・サイズ 一致ルール
ベース・モデルの場合はSmall Coherecohere.command-light

ホスト・ベース・モデル

同じクラスタ上の複数のエンドポイントを介して同じ事前トレーニング済ベース・モデルをホストするには:
  • 同じホスティング・クラスタで、cohere.command-lightモデルに必要な数のエンドポイントを作成します。

カスタム・モデルのホスティング

同じクラスタで異なるカスタム・モデルをホストするには:

  • T-Fewトレーニング・メソッドを使用して、すべてのモデルを微調整します。
  • ベースとしてcohere.command-lightモデルを使用します。
  • すべてのベース・モデルのバージョンが同じであることを確認します。
  • 同じホスティング・クラスタ上の各モデルのエンドポイントを作成します。
ベース・モデルの場合はLarge Coherecohere.command

ホスト・ベース・モデル

同じクラスタ上の複数のエンドポイントを介して同じ事前トレーニング済ベース・モデルをホストするには:

  • 同じホスティング・クラスタで同じバージョンのcohere.commandモデルに必要な数のエンドポイントを作成します。

カスタム・モデルのホスティング

同じクラスタで異なるカスタム・モデルをホストするには:

  • T-Fewトレーニング・メソッドを使用して、すべてのモデルを微調整します。
  • ベースとしてcohere.commandモデルを使用します。
  • すべてのベース・モデルのバージョンが同じであることを確認します。
  • 各モデルのホスティング・クラスタにエンドポイントを追加します。
ベース・モデルの場合はLlama2 70meta.llama-2-70b-chat

ホスト・ベース・モデル

同じクラスタ上の複数のエンドポイントを介して同じ事前トレーニング済ベース・モデルをホストするには:
  • 同じホスティング・クラスタで、meta.llama-2-70b-chatモデルに必要な数のエンドポイントを作成します。
集計(非推奨)
重要

オンデマンド・サービング・モードでサポートされているcohere.commandモデルが廃止され、このモデルは専用サービング・モードでは非推奨になりました。専用AIクラスタ(専用サービング・モード)でcohere.commandをサマリー用にホストしている場合は、このホスト・モデル・レプリカをサマリーAPIとプレイグラウンドで引き続き使用し、cohere.commandモデルが専用サービング・モード用にリタイアされるまで使用できます。これらのモデルは、専用AIクラスタでホストされている場合、米国中西部(シカゴ)でのみ使用できます。除・売却日および定義は、モデルの除・売却を参照してください。かわりに、要約の長さおよびスタイルの管理など、同じ要約機能を提供するチャット・モデルを使用することをお薦めします。

事前トレーニング済cohere.commandサマリー・モデルをホスト専用AIクラスタにホストするには、次のクラスタ・ユニット・サイズおよびエンドポイント・ルールを使用します。

ホスト・クラスタ・ユニット・サイズ 一致ルール
ベース・モデルの場合はLarge Coherecohere.command

ホスト・ベース・モデル

同じクラスタ上の複数のエンドポイントを介して同じ事前トレーニング済ベース・モデルをホストするには:

  • 同じホスティング・クラスタで同じバージョンのcohere.commandモデルに必要な数のエンドポイントを作成します。

カスタム・モデルのホスティング

同じクラスタで異なるカスタム・モデルをホストするには:

  • T-Fewトレーニング・メソッドを使用して、すべてのモデルを微調整します。
  • ベースとしてcohere.commandモデルを使用します。
  • すべてのベース・モデルのバージョンが同じであることを確認します。
  • 各モデルのホスティング・クラスタにエンドポイントを追加します。

トレーニング・データ

カスタム・モデルをトレーニングするためのデータセットには、次の要件があります。

  • カスタム・モデルごとに最大1つのファインチューニング・データセットが許可されます。このデータセットは、トレーニングおよび検証用に80:20の比率にランダムに分割されます。
  • 各ファイルには、少なくとも32のプロンプト/完了ペアの例が必要です。
  • ファイル形式はJSONLです。
  • JSONLファイルの各行の形式は次のとおりです。

    {"prompt": "<a prompt>", "completion": "<expected response given the prompt>"}\n

  • ファイルはOCIオブジェクト・ストレージ・バケットに格納する必要があります。

生成AIでのトレーニング・データ要件について学習します。

テキスト埋込みの入力データ

テキスト埋込みを作成するための入力データには、次の要件があります。

  • 埋込み用の文、フレーズまたは段落は、一度に1つのフレーズを追加するか、ファイルをアップロードして追加できます。
  • .txt拡張子のファイルのみが許可されます。
  • 入力ファイルを使用する場合は、ファイル内の各入力文、フレーズまたは段落を改行文字で区切る必要があります。
  • 実行ごとに最大96個の入力が許可されます。
  • コンソールでは、テキストのみのモデルの各入力は512トークン未満である必要があります。
  • 入力が長すぎる場合は、「切捨て」パラメータを「開始」または「終了」に設定して、テキストの開始または終了をトークン制限内に収めるかどうかを選択します。入力が512トークン制限を超え、「切捨て」パラメータが「なし」に設定されている場合、エラー・メッセージが表示されます。
  • テキスト・モデルおよびイメージ・モデルでは、最大128,000個のトークンを追加するファイルおよび入力を使用できます。
  • Cohere Embed English Image V3などのテキストおよびイメージ埋込みモデルでは、テキストを追加するか、1つのイメージのみを追加できます。イメージには、APIを使用できます。イメージ入力はコンソールで使用できません。APIの場合は、実行ごとにbase64エンコード・イメージを入力します。たとえば、512 x 512イメージは、約1,610トークンに変換されます。

OCI生成AIでのテキスト埋込みの作成について学習します。