xAI Grok Code Fast 1
Das Ende August 2025 veröffentlichte xAI Grok Code Fast 1-Modell ist ein kodierungsorientiertes KI-Modell, das sich durch gängige, großvolumige Codierungsaufgaben auszeichnet und speziell für agentenbasierte Codierungsworkflows entwickelt wurde. Mit seiner Geschwindigkeit, Effizienz und niedrigen Kosten wurde dieses Modell entwickelt, um die Schleife der modernen Softwareentwicklung (Planung, Schreiben, Testen und Debugging) zu bewältigen, bietet Echtzeit, eine zusammengefasste Spur seiner Argumentation und verfügt über umfassende Kenntnisse in TypeScript, Python, Java, Rust, C++ und Go. Verwenden Sie dieses Modell zum Erstellen von Null-zu-Eins-Projekten, Beantworten von Codebase-Fragen, Durchführen von Bugfixes und Agentic Coding.
Regionen für dieses Modell
Informationen zu unterstützten Regionen, Endpunkttypen (On-Demand- oder dedizierte KI-Cluster) und Hosting (OCI Generative AI oder externe Aufrufe) für dieses Modell finden Sie auf der Seite Modelle nach Region. Details zu den Regionen finden Sie auf der Seite Regionen für generative KI.
Wichtige Features
- Modellname in OCI Generative AI:
xai.grok-code-fast-1 - On-Demand verfügbar: Greifen Sie auf dieses Modell On-Demand über den Playground der Konsole oder die API zu.
- Nur Textmodus: Geben Sie die Texteingabe ein, und rufen Sie die Textausgabe ab. Bilder und Dateieingaben wie Audio-, Video- und Dokumentdateien werden nicht unterstützt.
- Wissen: Verfügt über umfassende Kenntnisse in den Bereichen Finanzen, Gesundheitswesen, Recht und Wissenschaft.
- Kontextlänge: 256.000 Token (maximale Prompt- und Antwortlänge beträgt 256.000 Token, um den Kontext beizubehalten). Im Playground wird die Antwortlänge für jede Ausführung auf 16.000 Token begrenzt, der Kontext bleibt jedoch 256.000 Token.
- Excels in diesen Anwendungsfällen: Agentisches Codieren – Im Gegensatz zu allgemeinen Modellen, die nur zum Schreiben von Code trainiert werden, ist dieses Modell für die Verwendung mit Tools optimiert. Es wird trainiert, das Terminal autonom zu verwenden. Führen Sie beispielsweise einen
grep-Befehl aus, um Dateien zu suchen, und führen Sie mehrstufige Bearbeitungen in einem Repository aus. - Massiver Durchsatz: Zum Zeitpunkt seiner Veröffentlichung war dieses Modell eines der schnellsten Modelle seiner Klasse und lieferte etwa 90–100 Token pro Sekunde. In vielen IDE-Integrationen wie Cursor oder GitHub Copilot kann dieses Modell Dutzende von Toolaufrufen und -bearbeitungen ausführen, bevor Sie den ursprünglichen Plan lesen.
- Zusammengefasste Denkspuren: Eine seiner herausragenden Funktionen ist die Sichtbarkeit seines Geistes. Während es funktioniert, bietet es eine in Echtzeit zusammengefasste Spur seiner Argumentation. Sie können sehen, wie es einen Bug durchdacht, bevor es mit dem Schreiben der Korrektur beginnt, was Ihnen hilft, Logikfehler frühzeitig zu erkennen.
- Funktionsaufruf: Ja, über die API.
- Strukturierte Ausgaben: Ja.
- Hat Argumentation: Ja.
-
Gecachte Eingabetoken: Ja
- Tokenanzahl: Siehe das Attribut
cachedTokensin der API der PromptTokensDetails-Referenz. - Preisfindung: Siehe Seite "Preisfindung".
Wichtiger Hinweis: Die Eingabefunktion im Cache ist sowohl im Playground als auch in der API verfügbar. Diese Informationen können jedoch nur über die API abgerufen werden.
- Tokenanzahl: Siehe das Attribut
- Wissensstichtag: Kein bekanntes Stichtag
- Niedrige Kosten: Zum Zeitpunkt der Veröffentlichung war es günstiger als andere Flaggschiff-Modelle.
Limits
- Token pro Minute (TPM)
- Für die Erhöhung des TPM-Limits verwenden Sie den folgenden Grenzwertnamen:
grok-code-fast-tokens-per-minute-count(für 200.000 Token). Siehe Limiterhöhungsanforderungen erstellen.
Bedarfsgesteuerter Modus
Sie können die vortrainierten Basismodelle in generativer KI über zwei Modi erreichen: On-Demand und dediziert.
Die Grok-Modelle sind nur im On-Demand-Modus verfügbar.
Im Folgenden werden die wichtigsten Features für den On-Demand-Modus aufgeführt:
-
Sie zahlen unterwegs für jeden Inferenzaufruf, wenn Sie die Modelle im Playground verwenden oder die Modelle über die API aufrufen.
- Geringe Barriere für den Einsatz generativer KI.
- Ideal für Experimente, Proof of Concept und Modellauswertung.
- Verfügbar für die vortrainierten Modelle in Regionen, die nicht als (nur dediziertes KI-Cluster) aufgeführt sind.
| Modellname | OCI-Modellname | Preisfindungsseite - Produktname |
|---|---|---|
| xAI Grok Code Fast 1 | xai.grok-code-fast-1 |
xAI – Grok-Code-Fast-1 Preise sind aufgeführt für:
|
OCI-Release- und -Abgangsdaten
Informationen zu Freigabe- und Abgangsdaten und Ersatzmodelloptionen finden Sie unter Abgangsdatumsangaben für Modelle (On-Demand-Modus).
Modellparameter
Um die Modellantworten zu ändern, können Sie die Werte der folgenden Parameter im Playground oder in der API ändern.
- Maximale Ausgabetoken
-
Die maximale Anzahl an Token, die das Modell für jede Antwort generieren soll. Schätzen Sie vier Zeichen pro Token. Da Sie ein Chatmodell anfordern, hängt die Antwort von der Eingabeaufforderung ab, und jede Antwort verwendet nicht unbedingt die maximal zugewiesenen Token. Die maximale Länge für Prompt + Ausgabe beträgt 256.000 Token für jede Ausführung.
Tipp
Legen Sie für große Eingaben mit schwierigen Problemen einen hohen Wert für den Parameter "Maximale Ausgabetoken" fest. - Temperatur
-
Der Grad der Zufälligkeit, mit dem der Ausgabetext generiert wird. Min.: 0, Max.: 2
Tipp
Stellen Sie die Temperatur auf 0 oder weniger als eins ein, und erhöhen Sie die Temperatur, wenn Sie die Prompts für eine kreativere Ausgabe neu generieren. Hohe Temperaturen können Halluzinationen und sachlich falsche Informationen verursachen. - Top p
-
Eine Samplingmethode, mit der die kumulative Wahrscheinlichkeit der Top-Token gesteuert wird, die für das nächste Token zu berücksichtigen sind. Weisen Sie
peine Dezimalzahl zwischen 0 und 1 für die Wahrscheinlichkeit zu. Beispiel: Geben Sie 0,75 für die Top 75 Prozent ein, die berücksichtigt werden sollen. Setzen Siepauf 1, um alle Token zu berücksichtigen.
API-Parameter für zusammengefasste Denkspuren
- reasoning_content
-
Um Zusammengefasste Thinking Traces in der xAI-API zu verwenden, interagieren Sie hauptsächlich mit dem Feld
reasoning_content. Im Gegensatz zur letzten Antwort enthält dieses Feld die interne Logik des Modells und wird in Echtzeit an Sie zurückgesendet. Im Streaming-Modus können Sie sein Thinking-Trace überchunk.choices[0].delta.reasoning_contentabrufen. Siehe Entwickler, die Codierungs-Agents über die xAI-API erstellen.
Zusammengefasste Denk-Traces sind nur verfügbar, wenn Sie den Streaming-Modus verwenden.