xAI Grok 3 Fast
xai.grok-3-fast
モデルは、データの抽出、コーディング、要約テキストなどのエンタープライズ・ユース・ケースに優れています。このモデルには、財務、医療、法律、科学に関する深い知識があります。
xai.grok-3
モデルとxai.grok-3-fast
モデルはどちらも、同じ基礎となるモデルを使用し、同じレスポンス品質を提供します。違いは、サービスの提供方法にあります。xai.grok-3-fast
モデルは、より高速なインフラストラクチャで提供され、標準のxai.grok-3
モデルよりも大幅に高速なレスポンス時間を提供します。増加した速度は、出力トークン当たりのコストが高くなります。
xai.grok-3
モデルとxai.grok-3-fast
モデルは、同じ基礎となるモデルを指します。レイテンシ依存アプリケーションにはxai.grok-3-fast
を選択し、コストを削減するにはxai.grok-3
を選択します。
このリージョンで使用可能
- 米国中西部(シカゴ) (オンデマンドのみ)
リージョン間のコール
ユーザーがシカゴでこのモデルに推論リクエストを入力すると、シカゴの生成AIサービスは、ソルトレイクシティでホストされているこのモデルにリクエストを行い、ユーザーの推論リクエスト元のシカゴにモデルのレスポンスを返します。リージョン間コールを含む事前トレーニング済モデルを参照してください。
主な機能
- OCI生成AIのモデル名:
xai.grok-3-fast
- オンデマンドで利用可能:コンソール・プレイグラウンドまたはAPIを使用して、このモデルにオンデマンドでアクセスできます。
- テキスト・モードのみ:テキストを入力し、テキスト出力を取得します。(画像サポートなし)
- ナレッジ:財務、医療、法律、科学に関する深い知識を持っています。
- コンテキスト長: 131,072個のトークン(最大プロンプト+レスポンス長は、実行ごとに131,072個のトークン)。プレイグラウンドでは、各実行の応答長は16,000トークンに制限されます。
- 次のユースケースでのExcel:テキストの抽出、コーディングおよび要約
- ファンクション・コール:はい(APIを使用)。
- 構造化出力:はい。
- 推論あり:いいえ。
- ナレッジ・カットオフ: 2024年11月
リリース日
モデル | ベータ・リリース日 | 一般提供リリース日 | オンデマンド処分日 | 専用モード除・売却日 |
---|---|---|---|---|
xai.grok-3-fast |
2025-05-22 | 2025-06-24 | 仮 | このモデルは専用モードには使用できません。 |
モデル・パラメータ
モデル・レスポンスを変更するには、プレイグラウンドまたはAPIで次のパラメータの値を変更できます。
- 最大出力トークン
-
各レスポンスに対してモデルで生成するトークンの上限数。トークンごとに4文字を推定します。チャット・モデルを要求するため、レスポンスはプロンプトに依存し、各レスポンスは必ずしも最大割当てトークンを使用するわけではありません。最大プロンプト+出力長は、実行ごとに131,072トークンです。プレイグラウンドでは、最大出力トークンは実行ごとに16,000トークンに制限されます。
- 温度
-
出力テキストの生成に使用されるランダム性のレベル。最小: 0、最大: 2
ヒント
温度の設定を0で開始し、出力を改良のためにプロンプトを再生成するときに温度を上げます高温は、幻覚や事実上誤った情報をもたらす可能性があります。 - 上位p
-
次のトークンで考慮する上位トークンの累積確率を制御するサンプリング方法。確率に
p
に0から1までの小数を割り当てます。たとえば、上位75パーセントを考慮するには、0.75と入力します。すべてのトークンを考慮するには、p
を1に設定します。 - 頻度ペナルティ
-
トークンが頻繁に表示される場合にトークンに割り当てられるペナルティ。高いペナルティにより、繰り返されるトークンが少なくなり、よりランダムな出力が生成されます。
このペナルティは、正または負のいずれかになります。正の数は、モデルが新しいトークンを使用することを推奨し、負の数はモデルがトークンを繰り返すことを推奨します。最小: -2、最大: 2。無効にするには、0に設定します。
- プレゼンス・ペナルティ
-
出力に表示されている各トークンにペナルティが割り当てられ、使用されていないトークンを使用した出力の生成を促します。最小: -2、最大: 2。無効にするには、0に設定します。