xAI Grok Code Fast 1
2025年8月下旬にリリースされたxAI Grok Code Fast 1モデルは、コーディングに焦点を当てたAIモデルであり、一般的な大量のコーディング・タスクに優れ、特にエージェント・コーディング・ワークフロー用に設計されています。このモデルは、その速度、効率性、低コストで、最新のソフトウェア開発(計画、記述、テストおよびデバッグ)のループを処理するように構築されており、その推論のリアルタイムで要約されたトレースを提供し、TypeScript、Python、Java、Rust、C++およびGoに精通しています。このモデルは、ゼロから1までのプロジェクトの構築、コードベースの質問への回答、バグ修正の実行、およびエージェント・コーディングに使用します。
主な特長および機能
これらのリージョンで使用可能
- 米国東部(アッシュバーン)(オンデマンドのみ)
- 米国中西部(シカゴ)(オンデマンドのみ)
- 米国西部(フェニックス)(オンデマンドのみ)
外部コール
xAI Grokモデルは、xAI用にプロビジョニングされたテナンシ内のOCIデータ・センターでホストされます。OCI Generative AIサービスを介してアクセスできるxAI Grokモデルは、xAIによって管理されます。
主な機能
- OCI生成AIのモデル名:
xai.grok-code-fast-1 - 使用可能なオンデマンド:コンソール・プレイグラウンドまたはAPIを介して、このモデルにオンデマンドでアクセスします。
- テキスト・モードのみ:テキスト入力を入力し、テキスト出力を取得します。オーディオ、ビデオ、ドキュメント・ファイルなどのイメージおよびファイル入力はサポートされていません。
- ナレッジ:財務、医療、法律、科学に関する深いドメイン知識を持っています。
- コンテキスト長: 256,000トークン(最大プロンプト+レスポンス長は、コンテキストを保持するための256,000トークンです)。プレイグラウンドでは、実行ごとにレスポンスの長さが16,000トークンに制限されますが、コンテキストは256,000トークンのままです。
- これらのユースケースでのエクセル:エージェント・コーディング- コードのみを記述するようにトレーニングされた一般的なモデルとは異なり、このモデルはツール用に最適化されています。たとえば、
grepコマンドを実行してファイルを検索し、リポジトリ全体で複数ステップ編集を実行するなど、端末を自律的に使用するようにトレーニングされています。 - 一括スループット:リリース当時、このモデルはクラスで最も高速なモデルの1つであり、約90–100トークン/秒を実現しました。CursorやGitHub Copilotなどの多くのIDE統合では、初期計画の読取りが終了する前に、このモデルで多数のツール・コールおよび編集を実行できます。
- Summarized Thinking Traces:その際立った特徴の1つは、その心の可視性です。動作すると、その推論のリアルタイムで要約されたトレースが提供されます。修正の記述を開始する前にバグを通して考えることができ、ロジック・エラーを早期に捕捉するのに役立ちます。
- ファンクション・コール: APIを介してはい。
- 構造化出力:はい。
- 推論あり:はい。
-
キャッシュされた入力トークン:はい
- トークン数: PromptTokensDetailsリファレンスAPIの
cachedTokens属性を参照してください。 - 価格: 価格ページを参照してください。
重要なノート:キャッシュされた入力機能は、プレイグラウンドとAPIの両方で使用できます。ただし、その情報はAPIを介してのみ取得できます。
- トークン数: PromptTokensDetailsリファレンスAPIの
- ナレッジ・カットオフ:既知の締め日がありません
- 低コスト:リリース当時は、他のフラグシップ・モデルよりも低コストでした。
オンデマンドモード
オンデマンドと専用の2つのモードを使用して、生成AIで事前にトレーニングされた基本モデルにアクセスできます。
Grokモデルは、オンデマンド・モードでのみ使用できます。
オンデマンド・モードの主な機能は次のとおりです。
-
プレイグラウンドでモデルを使用する場合、またはAPIを介してモデルをコールする場合に、推論コールごとに支払いをするようにします。
- 生成AIの使用を開始するための障壁が低くなります。
- 実験、概念実証、モデル評価に最適です。
- リストされていないリージョンの事前トレーニング済モデルで使用可能です(専用AIクラスタのみ)。
| モデル名 | OCIモデル名 | 価格設定ページ製品名 |
|---|---|---|
| xAI Grok Code Fast 1 | xai.grok-code-fast-1 |
xAI – Grok-Code-Fast-1 価格:
|
リリース日
| モデル | 一般提供リリース日 | オンデマンド除・売却日 | 専用モード除・売却日 |
|---|---|---|---|
xai.grok-code-fast-1 |
2025-10-01 | 暫定 | このモデルは専用モードには使用できません。 |
モデル・パラメータ
モデル・レスポンスを変更するには、プレイグラウンドまたはAPIで次のパラメータの値を変更できます。
- 最大出力トークン
-
各レスポンスに対してモデルで生成するトークンのの最大数。トークンごとに4文字を見積もります。チャット・モデルを要求するため、レスポンスはプロンプトに依存し、各レスポンスは必ずしも最大割当てトークンを使用する必要はありません。プロンプト+出力の最大長は、実行ごとに256,000トークンです。
ヒント
困難な問題がある大きな入力の場合は、最大出力トークン・パラメータに高い値を設定します。 - 温度
-
出力テキストの生成に使用されるランダム性のレベル。最小: 0、最大: 2
ヒント
温度の設定を0で開始し、出力を改良のためにプロンプトを再生成するときに温度を上げます高温は幻覚をもたらし、事実上誤った情報をもたらす可能性があります。 - 上位p
-
次のトークンで考慮する上位トークンの累積確率を制御するサンプリング・メソッド。確率として、
pに0から1までの小数を割り当てます。たとえば、上位75パーセントが考慮される場合は0.75と入力します。すべてのトークンを考慮するには、pを1に設定します。
集計済思考トレースのAPIパラメータ
- reasoning_content
-
xAI APIで「Summarized Thinking Traces」を使用するには、主に
reasoning_contentフィールドを使用します。最終回答とは異なり、このフィールドにはモデルの内部ロジックが含まれ、リアルタイムでユーザーに返送されます。その思考トレースは、ストリーミング・モードでchunk.choices[0].delta.reasoning_contentを介して取得できます。xAI APIを介してコーディング・エージェントを構築する開発者向けを参照してください。
要約された思考トレースは、ストリーミング・モードを使用する場合にのみ使用できます。