xAI Grok 4.1 Fast

xAI Grok 4.1 Fastモデルは、主にエージェント・ワークフローの専門的なトレーニングを通じてxAI Grok 4 Fastを改善し、幻覚の低減(~3xでカット)、ツール・コールの改善、並列処理、および200万のトークン・コンテキスト・ウィンドウを提供することで、このモデルを、カスタマ・サポートやリサーチなどの複雑で現実的なタスクよりも優れているだけでなく、高速で事実上の精度も向上します。このモデルは、自律型エージェント・システムのパフォーマンスと信頼性のために最適化されています。

これらのリージョンで使用可能

  • 米国東部(アッシュバーン)(オンデマンドのみ)
  • 米国中西部(シカゴ)(オンデマンドのみ)
  • 米国西部(フェニックス)(オンデマンドのみ)
重要

外部コール

xAI Grokモデルは、xAI用にプロビジョニングされたテナンシ内のOCIデータ・センターでホストされます。OCI Generative AIサービスを介してアクセスできるxAI Grokモデルは、xAIによって管理されます。

概要

xAI Grok 4 Fastモデルには、2つの異なるモデルで提供される2つのモードがあります。ReasoningモデルとNon‑Reasoningモデル。選択するモデルを決定するには、次の表を参照してください。

モード モデル名 機能 使用する状況
推論 xai.grok-4-1-fast-reasoning シンキング・トークンを生成して、段階的なチェーン・オブ・思考分析を行い、より深い論理的推論を(以前の推論モデルより少ない)待機時間で提供します。 慎重で分析的なソリューションを必要とする複雑な複数ステップの問題。
非理由 xai.grok-4-1-fast-non-reasoning シンキング・トークン・フェーズをスキップし、パターン一致の即時回答を返します。 速度が優先される、シンプルで簡単なクエリー。

主な機能

  • OCI生成AIのモデル名:
    • xai.grok-4-1-fast-reasoning
    • xai.grok-4-1-fast-non-reasoning
  • 使用可能なオンデマンド:コンソール・プレイグラウンドまたはAPIを介して、このモデルにオンデマンドでアクセスします。
  • マルチモーダル・サポート:テキストおよびイメージを入力し、テキスト出力を取得します。
  • ナレッジ:財務、医療、法律、科学に関する深いドメイン知識を持っています。
  • Context Length: 200万のトークン(最大プロンプト+レスポンス長は、コンテキストを維持するために200万のトークンです)。プレイグラウンドでは、レスポンスの長さは実行ごとに16,000トークンに制限されますが、コンテキストは200万のままです。
  • モード:複雑なタスクに対する「理由付け」と、スピード・クリティカルで簡単なリクエストに対する「非理由付け」の2つのモードで動作します。
  • ファンクション・コール: APIを介してはい。
  • 構造化出力:はい。
  • キャッシュされた入力トークン:はい

    重要なノート:キャッシュされた入力機能は、プレイグラウンドとAPIの両方で使用できます。ただし、その情報はAPIを介してのみ取得できます。

  • ナレッジ・カットオフ:使用不可

制限

トークン/分(TPM)
TPM制限の引き上げには、次の制限名を使用します。
  • 推論モデルの場合: grok-4-1-fast-reasoning-chat-tokens-per-minute-count (200,000トークンの場合)
  • 非理由モデルの場合: grok-4-1-fast-non-reasoning-chat-tokens-per-minute-count (200,000トークンの場合)

サービス制限の引き上げのリクエストを参照してください。

イメージ入力
  • コンソール: 1つ以上の.pngまたは.jpgイメージ(それぞれ5MB以下)をアップロードします。
  • API: JPG/JPEGおよびPNGファイル形式のみがサポートされています。base64エンコード・バージョンのイメージを送信し、各変換済イメージが256を超え、1,792トークン未満であることを確認します。たとえば、512 x 512イメージは通常、約1,610トークンに変換されます。アップロードできるイメージの最大数は指定されていません。テキストとイメージの両方の合計トークン数は、200万トークンのモデルの全体的なコンテキスト・ウィンドウ内にある必要があります。

オンデマンドモード

ノート

Grokモデルは、オンデマンド・モードでのみ使用できます。
モデル名 OCIモデル名 価格設定ページ製品名
xAI Grok 4.1 Fast
  • xai.grok-4-1-fast-reasoning
  • xai.grok-4-1-fast-non-reasoning
xAI - Grok 4.1 Fast
価格:
  • 入力トークンの
  • 出力のトークン
  • キャッシュされた入力トークン
オンデマンド専用の2つのモードを使用して、生成AIで事前にトレーニングされた基本モデルにアクセスできます。 オンデマンド・モードの主な機能は次のとおりです。
  • プレイグラウンドでモデルを使用する場合、またはAPIを介してモデルをコールする場合に、推論コールごとに支払いをするようにします。

  • 生成AIの使用を開始するための障壁が低くなります。
  • 実験、概念実証、モデル評価に最適です。
  • リストされていないリージョンの事前トレーニング済モデルで使用可能です(専用AIクラスタのみ)。

リリース日

モデル 一般提供リリース日 オンデマンド除・売却日 専用モード除・売却日
xai.grok-4-1-fast-reasoning 2026-01-21 暫定 このモデルは専用モードには使用できません。
xai.grok-4-1-fast-non-reasoning 2026-01-21 暫定 このモデルは専用モードには使用できません。
重要

すべてのモデル時間明細および除・売却詳細のリストは、モデルの除・売却を参照してください。

モデル・パラメータ

モデル・レスポンスを変更するには、プレイグラウンドまたはAPIで次のパラメータの値を変更できます。

最大出力トークン

レスポンスに対してモデルで生成するトークンのの最大数。トークンごとに4文字を見積もります。チャット・モデルを要求するため、レスポンスはプロンプトに依存し、各レスポンスは必ずしも最大割当てトークンを使用する必要はありません。

ヒント

困難な問題がある大きな入力の場合は、最大出力トークン・パラメータに高い値を設定します。「トラブルシューティング」を参照してください。
温度

出力テキストの生成に使用されるランダム性のレベル。最小: 0、最大: 2

ヒント

温度の設定を0で開始し、出力を改良のためにプロンプトを再生成するときに温度を上げます高温は幻覚をもたらし、事実上誤った情報をもたらす可能性があります。
上位p

次のトークンで考慮する上位トークンの累積確率を制御するサンプリング・メソッド。確率として、pに0から1までの小数を割り当てます。たとえば、上位75パーセントが考慮される場合は0.75と入力します。すべてのトークンを考慮するには、pを1に設定します。

トラブルシューティング

問題: Grok 4.1 Fastモデルが応答しません。

原因:プレイグラウンドの「最大出力トークン」パラメータまたはAPIのmax_tokensパラメータが低すぎる可能性があります。たとえば、デフォルトでは、このパラメータはプレイグラウンドで600トークンに設定されており、複雑なタスクでは低い場合があります。

処置:最大出力トークン・パラメータを増やしてください。