生成AIでのモデルの制限事項
OCI生成AIカスタム・モデルとベース・モデルの次のモデル要件を確認し、モデルを最大限に活用してください。
ベース・モデルのクラスタへの照合
ホスティング専用AIクラスタでOCI生成AIの事前トレーニング済モデルまたはカスタム・モデルをホストするには、生成AIの事前トレーニング済基本モデルに移動します。次に、事前トレーニング済モデルまたはカスタム・モデルのベース・モデルを選択します。ページの「モデルの専用AIクラスタ」セクションで、その基本モデルをホストするためのユニット・サイズおよび必要なユニットを参照してください。
ホスティング・クラスタへのエンドポイントの追加
ホスティング専用AIクラスタで推論のモデルをホストするには、そのモデルのエンドポイントを作成する必要があります。次に、カスタム・モデルまたは事前トレーニング済の基礎モデルをそのエンドポイントに追加できます。
エンドポイント別名およびスタック・サービスについて
ホスティング専用AIクラスタには、最大50のエンドポイントを含めることができます。これらのエンドポイントは、次のユースケースに使用します。
- エンドポイント別名の作成
-
多数のエンドポイントを含む別名を作成します。これらの50のエンドポイントは、同じベース・モデルまたはカスタム・モデルの同じバージョンを指す必要があります。同じモデルを指すエンドポイントを多数作成すると、エンドポイントの管理が容易になります。これは、エンドポイントを異なるユーザーまたは異なる目的に使用できるためです。
- スタック・サービング
-
1つのクラスタで複数のバージョンのカスタム・モデルをホストします。これは、
T-Few
トレーニング・メソッドで微調整されたcohere.command
およびcohere.command-light
モデルに適用されます。ファインチューニング・モデルの様々なバージョンをホストすると、様々なユース・ケースのカスタム・モデルの評価に役立ちます。
ホスティング・クラスタでサポートされているコール・ボリュームを増やすには、インスタンス数を増やすことができます。
次の項を展開して、同じクラスタでモデルをホストするための要件を確認します。
専用サービング・モードでサポートされている一部のOCI生成AI基盤の事前トレーニング済ベース・モデルは非推奨となり、1番目の代替モデルのリリース後6か月以内に廃止されます。ベース・モデルをホストするか、ベース・モデルを微調整して、ベース・モデルが廃止されるまで専用AIクラスタ(専用サービング・モード)でファインチューニング・モデルをホストできます。専用サービング・モード・リタイア日については、モデルのリタイアを参照してください。
事前トレーニング済ベース・チャット・モデルをホストする場合、またはホスティング専用AIクラスタでファインチューニング・チャット・モデルをホストする場合は、各ベース・モデルに一致する次のクラスタ・ユニット・サイズおよびエンドポイント・ルールを使用します。
ホスティング・クラスタ・ユニット・サイズ | 一致ルール |
---|---|
ベース・モデルの場合はLarge Generic 2、meta.llama-4-maverick-17b-128e-instruct-fp8 |
ホスティング・ベース・モデル 同じクラスタ上の複数のエンドポイントを介して同じ事前トレーニング済ベース・モデルをホストするには:
カスタム・モデルのホスティング
|
ベース・モデルの場合はLarge Generic V2、meta.llama-4-scout-17b-16e-instruct |
ホスティング・ベース・モデル 同じクラスタ上の複数のエンドポイントを介して同じ事前トレーニング済ベース・モデルをホストするには:
カスタム・モデルのホスティング
|
ベース・モデルの場合はLARGE_COHERE_V3、cohere.command-a-03-2025 |
ホスティング・ベース・モデル 同じクラスタ上の複数のエンドポイントを介して同じ事前トレーニング済ベース・モデルをホストするには:
カスタム・モデルのホスティング
|
ベース・モデルの場合はSmall Generic V2、meta.llama-3.2-11b-vision-instruct |
ホスティング・ベース・モデル 同じクラスタ上の複数のエンドポイントを介して同じ事前トレーニング済ベース・モデルをホストするには:
カスタム・モデルのホスティング
|
ベース・モデルの場合はLarge Generic、meta.llama-3.3-70b-instruct |
ホスティング・ベース・モデル 同じクラスタ上の複数のエンドポイントを介して同じ事前トレーニング済ベース・モデルをホストするには:
カスタム・モデルのホスティング 同じクラスタで複数のカスタム・モデルをホストするには:
|
ベース・モデルの場合はLarge Generic、meta.llama-3.1-70b-instruct |
ホスティング・ベース・モデル 同じクラスタ上の複数のエンドポイントを介して同じ事前トレーニング済ベース・モデルをホストするには:
カスタム・モデルのホスティング 同じクラスタで複数のカスタム・モデルをホストするには:
|
ベース・モデルの場合はLarge Generic、meta.llama-3-70b-instruct |
ホスティング・ベース・モデル 同じクラスタ上の複数のエンドポイントを介して同じ事前トレーニング済ベース・モデルをホストするには:
カスタム・モデルのホスティング 同じクラスタで複数のカスタム・モデルをホストするには:
|
ベース・モデルの場合はLarge Generic V2、meta.llama-3.2-90b-vision-instruct |
ホスティング・ベース・モデル 同じクラスタ上の複数のエンドポイントを介して同じ事前トレーニング済ベース・モデルをホストするには:
カスタム・モデルのホスティング
|
ベース・モデルの場合はLarge Generic 2、meta.llama-3.1-405b-instruct |
ホスティング・ベース・モデル 同じクラスタ上の複数のエンドポイントを介して同じ事前トレーニング済ベース・モデルをホストするには:
カスタム・モデルのホスティング
|
ベース・モデルの場合はSmall Cohere V2、cohere.command-r-16k (非推奨) |
ホスティング・ベース・モデル 同じクラスタ上の複数のエンドポイントを介して同じ事前トレーニング済ベース・モデルをホストするには:
カスタム・モデルのホスティング 同じクラスタで複数のカスタム・モデルをホストするには:
スタック・サービングがサポートされていないため、同じクラスタ上の |
ベース・モデルの場合はSmall Cohere V2、cohere.command-r-08-2024 |
ホスティング・ベース・モデル 同じクラスタ上の複数のエンドポイントを介して同じ事前トレーニング済ベース・モデルをホストするには:
カスタム・モデルのホスティング 同じクラスタで複数のカスタム・モデルをホストするには:
スタック・サービングがサポートされていないため、同じクラスタ上の |
ベース・モデルの場合はLarge Cohere V2_2、cohere.command-r-plus (非推奨) |
ホスティング・ベース・モデル 同じクラスタ上の複数のエンドポイントを介して同じ事前トレーニング済ベース・モデルをホストするには:
カスタム・モデルのホスティング
|
ベース・モデルの場合はLarge Cohere V2_2、cohere.command-r-plus-08-2024 |
ホスティング・ベース・モデル 同じクラスタ上の複数のエンドポイントを介して同じ事前トレーニング済ベース・モデルをホストするには:
カスタム・モデルのホスティング
|
ホスティング専用AIクラスタでランク・モデルをホストするには、次のクラスタ・ユニット・サイズおよびエンドポイント・ルールを使用します。
ホスティング・クラスタ・ユニット・サイズ | 一致ルール |
---|---|
RERANK_COHERE |
ホスティング・ベース・モデル 同じクラスタ上の複数のエンドポイントを介して同じ事前トレーニング済ベース・モデルをホストするには:
カスタム・モデルのホスティング Cohere Rerankモデルではファインチューニングは使用できません。 |
ホスティング専用AIクラスタに埋込みモデルをホストするには、次のクラスタ・ユニット・サイズおよびエンドポイント・ルールを使用します。
ホスティング・クラスタ・ユニット・サイズ | 一致ルール |
---|---|
Embed Cohere |
ホスティング・ベース・モデル 同じクラスタ上の複数のエンドポイントを介して同じ事前トレーニング済ベース・モデルをホストするには:
カスタム・モデルのホスティング Cohere Embedモデルではファインチューニングを使用できません。 |
- オンデマンドで使用不可:テキスト生成および集計API (プレイグラウンドを含む)を使用するオンデマンド・サービング・モードでサポートされているすべてのOCI生成AI基礎事前トレーニング済モデルが廃止されました。かわりにチャット・モデルを使用することをお薦めします。
- クラスタでホスト可能:専用AIクラスタ(専用サービング・モード)でサマリーまたは生成モデル(
cohere.command
など)をホストする場合、そのモデルが廃止されるまで引き続き使用できます。これらのモデルは、専用AIクラスタでホストされている場合、米国中西部(シカゴ)でのみ使用できます。除・売却日および定義は、モデルの除・売却を参照してください。
ホスティング専用AIクラスタでテキスト生成モデルをホストするには、ベース・モデルに一致する次のクラスタ・ユニット・サイズおよびエンドポイント・ルールを使用します。
ホスティング・クラスタ・ユニット・サイズ | 一致ルール |
---|---|
ベース・モデルの場合はSmall Cohere、cohere.command-light |
ホスト・ベース・モデル 同じクラスタ上の複数のエンドポイントを介して同じ事前トレーニング済ベース・モデルをホストするには:
カスタム・モデルのホスティング 同じクラスタで異なるカスタム・モデルをホストするには:
|
ベース・モデルの場合はLarge Cohere、cohere.command |
ホスト・ベース・モデル 同じクラスタ上の複数のエンドポイントを介して同じ事前トレーニング済ベース・モデルをホストするには:
カスタム・モデルのホスティング 同じクラスタで異なるカスタム・モデルをホストするには:
|
ベース・モデルの場合はLlama2 70、meta.llama-2-70b-chat |
ホスト・ベース・モデル 同じクラスタ上の複数のエンドポイントを介して同じ事前トレーニング済ベース・モデルをホストするには:
|
オンデマンド・サービング・モードでサポートされている
cohere.command
モデルが廃止され、このモデルは専用サービング・モードでは非推奨になりました。専用AIクラスタ(専用サービング・モード)でcohere.command
をサマリー用にホストしている場合は、このホスト・モデル・レプリカをサマリーAPIとプレイグラウンドで引き続き使用し、cohere.command
モデルが専用サービング・モード用にリタイアされるまで使用できます。これらのモデルは、専用AIクラスタでホストされている場合、米国中西部(シカゴ)でのみ使用できます。除・売却日および定義は、モデルの除・売却を参照してください。かわりに、要約の長さおよびスタイルの管理など、同じ要約機能を提供するチャット・モデルを使用することをお薦めします。事前トレーニング済cohere.command
サマリー・モデルをホスト専用AIクラスタにホストするには、次のクラスタ・ユニット・サイズおよびエンドポイント・ルールを使用します。
ホスト・クラスタ・ユニット・サイズ | 一致ルール |
---|---|
ベース・モデルの場合はLarge Cohere、cohere.command |
ホスト・ベース・モデル 同じクラスタ上の複数のエンドポイントを介して同じ事前トレーニング済ベース・モデルをホストするには:
カスタム・モデルのホスティング 同じクラスタで異なるカスタム・モデルをホストするには:
|
トレーニング・データ
カスタム・モデルをトレーニングするためのデータセットには、次の要件があります。
- カスタム・モデルごとに最大1つのファインチューニング・データセットが許可されます。このデータセットは、トレーニングおよび検証用に80:20の比率にランダムに分割されます。
- 各ファイルには、少なくとも32のプロンプト/完了ペアの例が必要です。
- ファイル形式は
JSONL
です。 JSONL
ファイルの各行の形式は次のとおりです。{"prompt": "<a prompt>", "completion": "<expected response given the prompt>"}\n
- ファイルはOCIオブジェクト・ストレージ・バケットに格納する必要があります。
生成AIでのトレーニング・データ要件について学習します。
テキスト埋込みの入力データ
テキスト埋込みを作成するための入力データには、次の要件があります。
- 埋込み用の文、フレーズまたは段落は、一度に1つのフレーズを追加するか、ファイルをアップロードして追加できます。
.txt
拡張子のファイルのみが許可されます。- 入力ファイルを使用する場合は、ファイル内の各入力文、フレーズまたは段落を改行文字で区切る必要があります。
- 実行ごとに最大96個の入力が許可されます。
- コンソールでは、テキストのみのモデルの各入力は512トークン未満である必要があります。
- 入力が長すぎる場合は、「切捨て」パラメータを「開始」または「終了」に設定して、テキストの開始または終了をトークン制限内に収めるかどうかを選択します。入力が512トークン制限を超え、「切捨て」パラメータが「なし」に設定されている場合、エラー・メッセージが表示されます。
- テキスト・モデルおよびイメージ・モデルでは、最大128,000個のトークンを追加するファイルおよび入力を使用できます。
- Cohere Embed English Image V3などのテキストおよびイメージ埋込みモデルでは、テキストを追加するか、1つのイメージのみを追加できます。イメージには、APIを使用できます。イメージ入力はコンソールで使用できません。APIの場合は、実行ごとにbase64エンコード・イメージを入力します。たとえば、512 x 512イメージは、約1,610トークンに変換されます。
OCI生成AIでのテキスト埋込みの作成について学習します。