xAI Grok 4.20
xAI Grok 4.20は、業界をリードするスピードとエージェント・ツール・コール・サポートにより、推論および非推論バリアントを提供します。これは、幻覚を減らし、プロンプトに密接に従うように設計されており、より信頼性が高く正確な応答を生成します。
Grok 4.20について学習
このモデルのリージョン
このモデルへのアクセス
概要
xAI Grok 4.20モデルには、2つの異なるモデルで提供される2つのモードがあります。ReasoningモデルとNon‑Reasoningモデル。選択するモデルを決定するには、次の表を参照してください。
| モード | モデル名 | 使用する状況 |
|---|---|---|
| 推論 | xai.grok-4.20-0309-reasoning |
複雑なロジックと数学、科学/技術分析、マルチステップ調査、または精度が最小レイテンシよりも重要である高ステークスのタスク。 |
| 非理由 | xai.grok-4.20-0309-non-reasoning |
定期的なQ&A、一般情報の取得、および応答速度が優先される高スループットのシナリオ。 |
主な機能
- OCI生成AIのモデル名:
- 推論
-
xai.grok-4.20-0309-reasoningxai.grok-4.20-reasoning(xai.grok-4.20-0309-reasoningを指す別名)
- 非理由
-
xai.grok-4.20-0309-non-reasoningxai.grok-4.20-non-reasoning(xai.grok-4.20-0309-non-reasoningを指す別名)
- 使用可能なオンデマンド:コンソール・プレイグラウンドまたはAPIを介して、このモデルにオンデマンドでアクセスします。
- マルチモーダル・サポート:テキストおよびイメージを入力し、テキスト出力を取得します。
- Context Length: 200万のトークン(最大プロンプト+レスポンス長は、コンテキストを維持するために200万のトークンです)。プレイグラウンドでは、レスポンスの長さは実行ごとに131,000トークンに制限されますが、コンテキストは200万のままです。
- モード:複雑なタスクに対する「理由付け」と、スピード・クリティカルで簡単なリクエストに対する「非理由付け」の2つのモードで動作します。
- ファンクション・コール: APIを介してはい。
- 構造化出力:はい。
-
キャッシュされた入力トークン:はい
- トークン数: PromptTokensDetailsリファレンスAPIの
cachedTokens属性を参照してください。 - 価格: 価格ページを参照してください。
重要なノート:キャッシュされた入力機能は、プレイグラウンドとAPIの両方で使用できます。ただし、その情報はAPIを介してのみ取得できます。
- トークン数: PromptTokensDetailsリファレンスAPIの
- ナレッジ・カットオフ:使用不可
制限
- トークン/分(TPM)
- TPM制限の引き上げには、次の制限名を使用します。
- 推論モデルの場合:
grok-4-2-reasoning-tokens-per-minute-count(200,000トークンの場合) - 非理由モデルの場合:
grok-4-2-non-reasoning-tokens-per-minute-count(200,000トークンの場合)
サービス制限の引き上げのリクエストを参照してください。
- 推論モデルの場合:
- イメージ入力
-
- コンソール: 1つ以上の
.pngまたは.jpgイメージ(それぞれ5MB以下)をアップロードします。 - API: JPG/JPEGおよびPNGファイル形式のみがサポートされています。
base64エンコード・バージョンのイメージを送信し、各変換済イメージが256を超え、1,792トークン未満であることを確認します。たとえば、512 x 512イメージは通常、約1,610トークンに変換されます。アップロードできるイメージの最大数は指定されていません。テキストとイメージの両方の合計トークン数は、200万トークンのモデルの全体的なコンテキスト・ウィンドウ内にある必要があります。
- コンソール: 1つ以上の
オンデマンドモード
Grokモデルは、オンデマンド・モードでのみ使用できます。
| モデル名 | OCIモデル名 |
|---|---|
| xAI Grok 4.20 |
|
OCIのリリース日および除・売却日
リリース日およびリタイア日および置換モデル・オプションについては、モデル・リタイア日(オンデマンド・モード)を参照してください。
モデル・パラメータ
モデル・レスポンスを変更するには、プレイグラウンドまたはAPIで次のパラメータの値を変更できます。
- 最大出力トークン
-
各レスポンスに対してモデルで生成するトークンのの最大数。トークンごとに4文字を見積もります。チャット・モデルを要求するため、レスポンスはプロンプトに依存し、各レスポンスは必ずしも最大割当てトークンを使用する必要はありません。
- 温度
-
出力テキストの生成に使用されるランダム性のレベル。最小: 0、最大: 2
- 上位p
-
次のトークンで考慮する上位トークンの累積確率を制御するサンプリング・メソッド。確率として、
pに0.05から1までの10進数を割り当てます。たとえば、上位75パーセントが考慮される場合は0.75と入力します。すべてのトークンを考慮するには、pを1に設定します。
トラブルシューティング
問題: Grok 4.20モデルが応答しません。
原因:プレイグラウンドの「最大出力トークン」パラメータまたはAPIのmax_tokensパラメータが低すぎる可能性があります。たとえば、デフォルトでは、このパラメータはプレイグラウンドで600トークンに設定されており、複雑なタスクでは低い場合があります。
処置:最大出力トークン・パラメータを増やしてください。