汎用AIの世代モデルについて
テキストを生成するようにOCI Generative AI生成モデルにプロンプトを表示します。
cohere.command v15.6
およびcohere.command-light v15.6
モデルが廃止されると、テキスト生成機能がOCI Generative AIプレイグラウンド、APIおよびCLIから削除されます。かわりに、チャット・モデルを使用できます。除・売却日は、「モデルの除・売却」を参照してください。自然言語で質問したり、必要に応じて、文書、Eメール、製品レビューなどのテキストを生成モデルに送信したり、テキストに対する各モデル事由を送信したり、インテリジェントな回答を提供したりできます。
プロンプト・スタイル: Write an email to Susan thanking her for...
前回のプロンプトの出力スタイル: Dearスーザン、ありがとうございました...
チャット・モデルとは異なり、テキスト生成モデルは以前のプロンプトのコンテキストを保持しません。世代モデルのフォローアップ質問については、前の回答を次のプロンプトに含めることができます。
テキスト生成モデルのユースケースの例を次に示します。
- コピー生成:マーケティング・コピー、電子メール、ブログ投稿、製品の説明、ドキュメントなどのドラフトを作成します。
- 質問:モデルに、概念の説明、アイデアのブレーンストーミング、問題の解決、モデルのトレーニングが完了した情報に関する質問への回答を依頼します。
- スタイル変換:テキストを編集するか、別のスタイルまたは言語でコンテンツをリライトします。
世代モデルの選択
モデル・サイズ、プロジェクト目標、コストおよびモデルのレスポンスに基づいてテキストを生成するモデルを選択します。リストされている各モデルとともにプレイグラウンドで提供されている例を使用して、各モデルが同じプロンプトにどのように反応するかを把握し、どのモデルのレスポンス・スタイルがユースケースに合うかを判断します。
cohere.command
-
500億パラメータと世界に関する優れた一般知識を備えた高性能な世代モデル。ブレーンストーミングからテキスト抽出やセンチメント分析などの正確性を最適化し、マーケティング・コピー、Eメール、ブログ投稿、製品説明を起草する複雑な指示のためにこのモデルを使用し、レビューして使用します。
cohere.command-light
-
迅速で軽量な生成モデル。このモデルは、速度とコストが重要な場合に、世界の基本的な知識と簡単な指示を必要とするタスクに使用します。最適な結果を得るには、モデルに明確な指示を与える必要があります。プロンプトが細かくなるほど、このモデルのパフォーマンスが向上します。たとえば、「次のトーンは何ですか。」というプロンプトのかわりに、「この製品レビューのトーンは何ですか。正または負のいずれかの単語で答えます。」と記述します。
meta.llama-2-70b-chat
-
この700億パラメータ・モデルは、インターネット、書籍、その他のソースからのテキストを含む1.2兆トークンのデータセットでトレーニングされました。このモデルは、テキスト生成、言語翻訳、要約、特定のテキストまたはトピックのコンテンツに基づく質問回答、および記事、ブログ投稿、ソーシャル・メディア更新などのコンテンツ生成に使用します。
-
生成モデルがユース・ケースに適切に対応しない場合は、独自のデータセットを使用して事前トレーニング済の生成モデルを微調整できます。ファインチューニングに使用できるモデルを確認するには、各生成モデルの主要機能を参照してください。
- 例を使用してコストを計算する方法を学習します。
生成モデル・パラメータ
生成モデルを使用する場合は、次のパラメータを変更して出力を変更できます。
- 最大出力トークン
-
レスポンスごとにモデルで生成するトークンの最大数。トークンあたり4文字を推定します。
- 温度
-
出力テキストの生成に使用されるランダム性のレベル。
ヒント
温度を0以下に設定して開始し、より創造的な出力のプロンプトを再生成するときに温度を上げます。高温は幻覚や事実上間違った情報をもたらす可能性があります。 - 上位K
-
モデルが
top k
の最も可能性の高いトークンから次のトークンをランダムに選択するサンプリング・メソッド。k
の値を大きくすると、より多くのランダム出力が生成され、出力テキストがより自然な印象になります。kのデフォルト値は、command
モデルの場合は0、Llama
モデルの場合は-1です。これは、モデルがすべてのトークンを考慮し、このメソッドを使用しないことを意味します。 - 上位P
-
次のトークンで考慮する上位トークンの累積確率を制御するサンプリング方法。確率として、
p
に0から1までの小数を割り当てます。たとえば、考慮する上位75パーセントに0.75と入力します。すべてのトークンを考慮するには、p
を1に設定します。 - ストップ・シーケンス
-
生成された出力をいつ停止するかをモデルに指示する、単語、フレーズ、改行
(\n)
または期間など、一連の文字。複数の停止シーケンスがある場合、これらのシーケンスのいずれかに達すると、モデルは停止します。 - 頻度ペナルティ
-
トークンが頻繁に表示される場合にトークンに割り当てられるペナルティ。高い罰則により、繰り返されるトークンが少なくなり、よりランダムな出力が生成されます。
- 存在罰
-
出力に表示されたときに各トークンに割り当てられるペナルティによって、使用されていないトークンを使用した出力の生成が促進されます。
- 尤度の表示
-
新しいトークンが生成されるたびに、-15から0までの数値がすべてのトークンに割り当てられ、この数値が大きいトークンは、現在のトークンの後に続く可能性が高くなります。たとえば、単語 favoriteの後に単語 zebraではなく foodまたは bookという単語が続く可能性が高くなります。このパラメータは、
cohere
モデルでのみ使用できます。