xAI Grok 4.1 Fast
xAI Grok 4.1 Fastモデルは、主にエージェント・ワークフローの専門的なトレーニングを通じてxAI Grok 4 Fastを改善し、幻覚の低減(~3xでカット)、ツール・コールの改善、並列処理、および200万のトークン・コンテキスト・ウィンドウを提供することで、このモデルを、カスタマ・サポートやリサーチなどの複雑で現実的なタスクよりも優れているだけでなく、高速で事実上の精度も向上します。このモデルは、自律型エージェント・システムのパフォーマンスと信頼性のために最適化されています。
これらのリージョンで使用可能
- 米国東部(アッシュバーン)(オンデマンドのみ)
- 米国中西部(シカゴ)(オンデマンドのみ)
- 米国西部(フェニックス)(オンデマンドのみ)
外部コール
xAI Grokモデルは、xAI用にプロビジョニングされたテナンシ内のOCIデータ・センターでホストされます。OCI Generative AIサービスを介してアクセスできるxAI Grokモデルは、xAIによって管理されます。
このモデルへのアクセス
概要
xAI Grok 4 Fastモデルには、2つの異なるモデルで提供される2つのモードがあります。ReasoningモデルとNon‑Reasoningモデル。選択するモデルを決定するには、次の表を参照してください。
| モード | モデル名 | 機能 | 使用する状況 |
|---|---|---|---|
| 推論 | xai.grok-4-1-fast-reasoning |
シンキング・トークンを生成して、段階的なチェーン・オブ・思考分析を行い、より深い論理的推論を(以前の推論モデルより少ない)待機時間で提供します。 | 慎重で分析的なソリューションを必要とする複雑な複数ステップの問題。 |
| 非理由 | xai.grok-4-1-fast-non-reasoning |
シンキング・トークン・フェーズをスキップし、パターン一致の即時回答を返します。 | 速度が優先される、シンプルで簡単なクエリー。 |
主な機能
- OCI生成AIのモデル名:
xai.grok-4-1-fast-reasoningxai.grok-4-1-fast-non-reasoning
- 使用可能なオンデマンド:コンソール・プレイグラウンドまたはAPIを介して、このモデルにオンデマンドでアクセスします。
- マルチモーダル・サポート:テキストおよびイメージを入力し、テキスト出力を取得します。
- ナレッジ:財務、医療、法律、科学に関する深いドメイン知識を持っています。
- Context Length: 200万のトークン(最大プロンプト+レスポンス長は、コンテキストを維持するために200万のトークンです)。プレイグラウンドでは、レスポンスの長さは実行ごとに16,000トークンに制限されますが、コンテキストは200万のままです。
- モード:複雑なタスクに対する「理由付け」と、スピード・クリティカルで簡単なリクエストに対する「非理由付け」の2つのモードで動作します。
- ファンクション・コール: APIを介してはい。
- 構造化出力:はい。
-
キャッシュされた入力トークン:はい
- トークン数: PromptTokensDetailsリファレンスAPIの
cachedTokens属性を参照してください。 - 価格: 価格ページを参照してください。
重要なノート:キャッシュされた入力機能は、プレイグラウンドとAPIの両方で使用できます。ただし、その情報はAPIを介してのみ取得できます。
- トークン数: PromptTokensDetailsリファレンスAPIの
- ナレッジ・カットオフ:使用不可
制限
- トークン/分(TPM)
- TPM制限の引き上げには、次の制限名を使用します。
- 推論モデルの場合:
grok-4-1-fast-reasoning-chat-tokens-per-minute-count(200,000トークンの場合) - 非理由モデルの場合:
grok-4-1-fast-non-reasoning-chat-tokens-per-minute-count(200,000トークンの場合)
サービス制限の引き上げのリクエストを参照してください。
- 推論モデルの場合:
- イメージ入力
-
- コンソール: 1つ以上の
.pngまたは.jpgイメージ(それぞれ5MB以下)をアップロードします。 - API: JPG/JPEGおよびPNGファイル形式のみがサポートされています。
base64エンコード・バージョンのイメージを送信し、各変換済イメージが256を超え、1,792トークン未満であることを確認します。たとえば、512 x 512イメージは通常、約1,610トークンに変換されます。アップロードできるイメージの最大数は指定されていません。テキストとイメージの両方の合計トークン数は、200万トークンのモデルの全体的なコンテキスト・ウィンドウ内にある必要があります。
- コンソール: 1つ以上の
オンデマンドモード
Grokモデルは、オンデマンド・モードでのみ使用できます。
| モデル名 | OCIモデル名 | 価格設定ページ製品名 |
|---|---|---|
| xAI Grok 4.1 Fast |
|
xAI - Grok 4.1 Fast 価格:
|
-
プレイグラウンドでモデルを使用する場合、またはAPIを介してモデルをコールする場合に、推論コールごとに支払いをするようにします。
- 生成AIの使用を開始するための障壁が低くなります。
- 実験、概念実証、モデル評価に最適です。
- リストされていないリージョンの事前トレーニング済モデルで使用可能です(専用AIクラスタのみ)。
リリース日
| モデル | 一般提供リリース日 | オンデマンド除・売却日 | 専用モード除・売却日 |
|---|---|---|---|
xai.grok-4-1-fast-reasoning |
2026-01-21 | 暫定 | このモデルは専用モードには使用できません。 |
xai.grok-4-1-fast-non-reasoning |
2026-01-21 | 暫定 | このモデルは専用モードには使用できません。 |
モデル・パラメータ
モデル・レスポンスを変更するには、プレイグラウンドまたはAPIで次のパラメータの値を変更できます。
- 最大出力トークン
-
各レスポンスに対してモデルで生成するトークンのの最大数。トークンごとに4文字を見積もります。チャット・モデルを要求するため、レスポンスはプロンプトに依存し、各レスポンスは必ずしも最大割当てトークンを使用する必要はありません。
- 温度
-
出力テキストの生成に使用されるランダム性のレベル。最小: 0、最大: 2
ヒント
温度の設定を0で開始し、出力を改良のためにプロンプトを再生成するときに温度を上げます高温は幻覚をもたらし、事実上誤った情報をもたらす可能性があります。 - 上位p
-
次のトークンで考慮する上位トークンの累積確率を制御するサンプリング・メソッド。確率として、
pに0から1までの小数を割り当てます。たとえば、上位75パーセントが考慮される場合は0.75と入力します。すべてのトークンを考慮するには、pを1に設定します。
トラブルシューティング
問題: Grok 4.1 Fastモデルが応答しません。
原因:プレイグラウンドの「最大出力トークン」パラメータまたはAPIのmax_tokensパラメータが低すぎる可能性があります。たとえば、デフォルトでは、このパラメータはプレイグラウンドで600トークンに設定されており、複雑なタスクでは低い場合があります。
処置:最大出力トークン・パラメータを増やしてください。