xAI Grok 4
xai.grok-4モデルは、先行するGrok 3よりも優れたパフォーマンスを発揮し、データの抽出、コーディング、テキストの要約などのエンタープライズ・ユース・ケースに優れています。このモデルは、金融、医療、法律、科学に関する深いドメイン知識を持っています。
このモデルのリージョン
このモデルへのアクセス
主な機能
- OCI生成AIのモデル名:
xai.grok-4 - 使用可能なオンデマンド:コンソール・プレイグラウンドまたはAPIを介して、このモデルにオンデマンドでアクセスします。
- マルチモーダル・サポート:テキストおよびイメージを入力し、テキスト出力を取得します。
- ナレッジ:財務、医療、法律、科学に関する深いドメイン知識を持っています。
- コンテキスト長: 128,000トークン(最大プロンプト+レスポンス長は、コンテキストを保持するための128,000トークンです)。プレイグラウンドでは、レスポンスの長さは実行ごとに16,000トークンに制限されますが、コンテキストは128,000トークンのままです。
- これらのユースケースでのエクセル:データの抽出、コーディングおよび要約テキスト
- ファンクション・コール: APIを介してはい。
- 構造化出力:はい。
- 推論あり:はい。理由付けの問題により、最大出力トークンが増加します。モデル・パラメータを参照してください。
-
キャッシュされた入力トークン:はい
- トークン数: PromptTokensDetailsリファレンスAPIの
cachedTokens属性を参照してください。 - 価格: 価格ページを参照してください。
重要なノート:キャッシュされた入力機能は、プレイグラウンドとAPIの両方で使用できます。ただし、その情報はAPIを介してのみ取得できます。
- トークン数: PromptTokensDetailsリファレンスAPIの
- ナレッジ・カットオフ: 2024年11月
制限
- トークン/分(TPM)
- TPM制限の引き上げには、
grok-4-chat-tokens-per-minute-count(200,000トークンの場合)という制限名を使用します。サービス制限の引き上げのリクエストを参照してください。 - イメージ入力
-
- コンソール: 1つ以上の
.pngまたは.jpgイメージ(それぞれ5MB以下)をアップロードします。 - API:
base64でエンコードされたバージョンのイメージを送信し、変換された各イメージが512より大きく、1,792未満のトークンであることを確認します。たとえば、512 x 512イメージは通常、約1,610トークンに変換されます。
- コンソール: 1つ以上の
オンデマンドモード
Grokモデルは、オンデマンド・モードでのみ使用できます。
| モデル名 | OCIモデル名 | 価格設定ページ製品名 |
|---|---|---|
| xAI Grok 4 | xai.grok-4 |
xAI – Grok 4 価格:
|
-
プレイグラウンドでモデルを使用する場合、またはAPIを介してモデルをコールする場合に、推論コールごとに支払いをするようにします。
- 生成AIの使用を開始するための障壁が低くなります。
- 実験、概念実証、モデル評価に最適です。
- リストされていないリージョンの事前トレーニング済モデルで使用可能です(専用AIクラスタのみ)。
OCIのリリース日および除・売却日
リリース日およびリタイア日および置換モデル・オプションについては、モデル・リタイア日(オンデマンド・モード)を参照してください。
モデル・パラメータ
モデル・レスポンスを変更するには、プレイグラウンドまたはAPIで次のパラメータの値を変更できます。
- 最大出力トークン
-
各レスポンスに対してモデルで生成するトークンのの最大数。トークンごとに4文字を見積もります。チャット・モデルを要求するため、レスポンスはプロンプトに依存し、各レスポンスは必ずしも最大割当てトークンを使用する必要はありません。プロンプト+出力の最大長は、実行ごとに128,000トークンです。
- 温度
-
出力テキストの生成に使用されるランダム性のレベル。最小: 0、最大: 2
ヒント
温度の設定を0で開始し、出力を改良のためにプロンプトを再生成するときに温度を上げます高温は幻覚をもたらし、事実上誤った情報をもたらす可能性があります。 - 上位p
-
次のトークンで考慮する上位トークンの累積確率を制御するサンプリング・メソッド。確率として、
pに0から1までの小数を割り当てます。たとえば、上位75パーセントが考慮される場合は0.75と入力します。すべてのトークンを考慮するには、pを1に設定します。
xai.grok-4モデルには推論がありますが、Grok 3 miniおよびGrok 3 mini fastモデルで使用されるreasoning_effortパラメータはサポートしていません。xai.grok-4モデルのAPIでreasoning_effortパラメータを指定すると、エラー・レスポンスが返されます。
トラブルシューティング
問題: Grok 4モデルが応答しません。
原因:プレイグラウンドの「最大出力トークン」パラメータまたはAPIのmax_tokensパラメータが低すぎる可能性があります。
処置:最大出力トークン・パラメータを増やしてください。
理由:推論と問題解決を必要とする困難な問題、および大規模な高度な入力の場合、xai.grok-4モデルは多くのトークンを考えて消費する傾向があるため、max_tokensパラメータが低すぎる場合、モデルは割り当てられたトークンを使用し、最終的なレスポンスを返しません。