Cohere Embed Multilingual Light 3

cohere.embed-multilingual-light-v3.0モデルは、入力する各句、文または段落を配列に変換します。

埋込みモデルを使用して、コンテキストまたはカテゴリに類似したフレーズで類似性を検出できます。埋込みは通常、ベクトル・データベースに格納されます。埋込みは、キーワードに基づいて結果を検索するのではなく、検索機能が検索するテキストの意味に重点を置いたセマンティック検索に使用されます。

このリージョンで使用可能

  • 米国中西部(シカゴ)

主な機能

  • ライトモデルは、元のモデルよりも小さく高速です。
  • 英語または多言語
  • モデルは、埋込みごとに384ディメンション・ベクトルを作成します。
  • 実行当たりの最大96文。
  • 入力ごとに最大512個のトークン。
  • 次の場合に最適です。

オンデマンドモード

価格設定ページのこのモデルのオンデマンド製品名については、次の表を参照してください。

モデル名 OCIモデル名 価格設定ページ製品名
Cohere Embed Multilingual Light 3 cohere.embed-multilingual-light-v3.0 Embed Cohere
オンデマンド専用の2つのモードを使用して、生成AIで事前にトレーニングされた基本モデルにアクセスできます。オンデマンド・モードの主な機能は次のとおりです。
  • プレイグラウンドでモデルを使用する場合、またはAPIを介してモデルをコールする場合に、推論コールごとに支払いをするようにします。

  • 生成AIの使用を開始するための障壁が低くなります。
  • 実験、概念実証、モデル評価に最適です。
  • リストされていないリージョンの事前トレーニング済モデルで使用可能です(専用AIクラスタのみ)。
重要

オンデマンド・モードの動的スロットル制限調整

OCI Generative AIは、モデル需要とシステム容量に基づいてアクティブ・テナンシのリクエスト・スロットル制限を動的に調整して、リソース割当てを最適化し、公平なアクセスを確保します。

この調整は、次の要因によって異なります。

  • ターゲット・モデルでサポートされている現在の最大スループット。
  • 調整時点における未使用のシステム容量。
  • 各テナンシの履歴スループットの使用量と、そのテナンシに設定された指定されたオーバーライド制限。

ノート: 動的スロットルのため、レート制限は文書化されず、システム全体の需要を満たすように変更できます。

ヒント

スロットル制限の動的調整のため、拒否後のリクエストの遅延を含むバックオフ戦略を実装することをお薦めします。これがないと、迅速なリクエストを繰り返すことで、時間の経過とともにさらに拒否され、レイテンシが増加し、生成AIサービスによるクライアントの一時的なブロックが発生する可能性があります。指数関数的なバックオフ戦略などのバックオフ戦略を使用することで、業界のベスト・プラクティスに従い、サービスとの統合の全体的な安定性とパフォーマンスを向上させ、より均等にリクエストを配分し、負荷を削減し、再試行の成功を向上させることができます。

モデルの専用AIクラスタ

リストされているリージョン内の専用AIクラスタを介してモデルに到達するには、専用AIクラスタ上でそのモデルのエンドポイントを作成する必要があります。このモデルに一致するクラスタユニットサイズについては、次の表を参照してください。

ベース・モデル クラスタのファインチューニング ホスト・クラスタ 価格設定ページ情報 クラスタ制限の引上げのリクエスト
  • モデル名: Cohere Embed Multilingual Light 3
  • OCIモデル名: cohere.embed-multilingual-light-v3.0
ファインチューニングに使用できません
  • 単位サイズ: Embed Cohere
  • 必須単位: 1
  • 価格設定ページ製品名: Embed Cohere - Dedicated
  • ホスティングの場合は、単価を乗算します: x1
  • 制限名: dedicated-unit-embed-cohere-count
  • ホスティングの場合、リクエスト制限の引上げ単位: 1
ヒント

  • Cohere Embed Multilingual Light 3モデルには、オンデマンドAIクラスタ・オプションと専用AIクラスタ・オプションの両方があります。オンデマンド・モードの場合、クラスタは必要なく、コンソール・プレイグラウンドまたはAPIを介してモデルに到達できます。

  • 専用AIクラスタで埋込みモデルをホストするための十分なクラスタ制限がテナンシにない場合は、dedicated-unit-embed-cohere-count制限をリクエストして1増やします。

クラスタのエンドポイント・ルール

  • 専用AIクラスタには、最大50のエンドポイントを保持できます。
  • これらのエンドポイントを使用して、同じベース・モデルまたは同じバージョンのカスタム・モデルのいずれかを指し示すが、両方の型を指さない別名を作成します。
  • 同じモデルの複数のエンドポイントにより、それらを異なるユーザーまたは目的に簡単に割り当てることができます。
ホスト・クラスタ・ユニット・サイズ エンドポイント・ルール
Embed Cohere
  • ベース・モデル: 複数のエンドポイントで ⁇ cohere.embed-multilingual-light-v3.0⁇modelを実行するには、必要な数のエンドポイントをEmbed Cohereクラスタ(単位サイズ)に作成します。
  • カスタム・モデル: cohere.embed-multilingual-light-v3.0を微調整できないため、そのベースから構築されたカスタム・モデルを作成およびホストできません。
ヒント

クラスタ・パフォーマンス・ベンチマーク

様々なユース・ケースについて、Cohere Embed Multilingual Light 3クラスタのパフォーマンス・ベンチマークを確認します。

リリースおよび除・売却日

モデル リリース日 オンデマンド除・売却日 専用モード除・売却日
cohere.embed-multilingual-light-v3.0 2024-02-07 2026-02-26 2026-02-26
重要

すべてのモデル時間明細および除・売却詳細のリストは、モデルの除・売却を参照してください。

テキスト埋込みの入力データ

テキスト埋込みを作成するための入力データには、次の要件があります。

  • 埋込み用の文、フレーズまたは段落は、一度に1つのフレーズを追加するか、ファイルをアップロードして追加できます。
  • .txt拡張子を持つファイルのみが許可されます。
  • 入力ファイルを使用する場合、ファイル内の各入力文、フレーズまたは段落は、改行文字で区切る必要があります。
  • 各実行で最大96の入力が許可されます。
  • コンソールでは、テキストのみのモデルの各入力が512トークン未満である必要があります。
  • 入力が長すぎる場合は、「切捨て」パラメータを「開始」または「終了」に設定して、トークン制限内に収まるようにテキストの開始または終了を切り捨てるかどうかを選択します。入力が512トークン制限を超え、Truncateパラメータが Noneに設定されている場合、エラーメッセージが表示されます。
  • テキスト・モデルおよびイメージ・モデルでは、すべてのトークンが最大128,000個になるファイルおよび入力を設定できます。
  • Cohere Embed English Image V3などのテキストおよびイメージの埋込みモデルの場合は、テキストを追加するか、1つのイメージのみを追加できます。イメージには、APIを使用できます。イメージ入力はコンソールで使用できません。APIの場合は、各実行でbase64エンコード・イメージを入力します。たとえば、512 x 512イメージは約1,610トークンに変換されます。

OCI Generative AIでのテキスト埋込みの作成について学習します。

埋込モデル・パラメータ

埋込みモデルを使用する場合、次のパラメータを変更して別の出力を取得できます。

切捨て

文の開始トークンと終了トークンを切り捨てるかどうか(その文が許容されるトークンの最大数を超える場合)。たとえば、文には516個のトークンがありますが、最大トークン・サイズは512です。終端を切り捨てるように選択すると、その文の最後の4つのトークンが切り捨てられます。