xAI Grok Code Fast 1

Das Ende August 2025 veröffentlichte xAI Grok Code Fast 1-Modell ist ein kodierungsorientiertes KI-Modell, das sich durch gängige, großvolumige Codierungsaufgaben auszeichnet und speziell für agentenbasierte Codierungsworkflows entwickelt wurde. Mit seiner Geschwindigkeit, Effizienz und niedrigen Kosten wurde dieses Modell entwickelt, um die Schleife der modernen Softwareentwicklung (Planung, Schreiben, Testen und Debugging) zu bewältigen, bietet Echtzeit, eine zusammengefasste Spur seiner Argumentation und verfügt über umfassende Kenntnisse in TypeScript, Python, Java, Rust, C++ und Go. Verwenden Sie dieses Modell zum Erstellen von Null-zu-Eins-Projekten, Beantworten von Codebase-Fragen, Durchführen von Bugfixes und Agentic Coding.

Regionen für dieses Modell

Wichtig

Informationen zu unterstützten Regionen, Endpunkttypen (On-Demand- oder dedizierte KI-Cluster) und Hosting (OCI Generative AI oder externe Aufrufe) für dieses Modell finden Sie auf der Seite Modelle nach Region. Details zu den Regionen finden Sie auf der Seite Regionen für generative KI.

Wichtige Features

  • Modellname in OCI Generative AI: xai.grok-code-fast-1
  • On-Demand verfügbar: Greifen Sie auf dieses Modell On-Demand über den Playground der Konsole oder die API zu.
  • Nur Textmodus: Geben Sie die Texteingabe ein, und rufen Sie die Textausgabe ab. Bilder und Dateieingaben wie Audio-, Video- und Dokumentdateien werden nicht unterstützt.
  • Wissen: Verfügt über umfassende Kenntnisse in den Bereichen Finanzen, Gesundheitswesen, Recht und Wissenschaft.
  • Kontextlänge: 256.000 Token (maximale Prompt- und Antwortlänge beträgt 256.000 Token, um den Kontext beizubehalten). Im Playground wird die Antwortlänge für jede Ausführung auf 16.000 Token begrenzt, der Kontext bleibt jedoch 256.000 Token.
  • Excels in diesen Anwendungsfällen: Agentisches Codieren – Im Gegensatz zu allgemeinen Modellen, die nur zum Schreiben von Code trainiert werden, ist dieses Modell für die Verwendung mit Tools optimiert. Es wird trainiert, das Terminal autonom zu verwenden. Führen Sie beispielsweise einen grep-Befehl aus, um Dateien zu suchen, und führen Sie mehrstufige Bearbeitungen in einem Repository aus.
  • Massiver Durchsatz: Zum Zeitpunkt seiner Veröffentlichung war dieses Modell eines der schnellsten Modelle seiner Klasse und lieferte etwa 90–100 Token pro Sekunde. In vielen IDE-Integrationen wie Cursor oder GitHub Copilot kann dieses Modell Dutzende von Toolaufrufen und -bearbeitungen ausführen, bevor Sie den ursprünglichen Plan lesen.
  • Zusammengefasste Denkspuren: Eine seiner herausragenden Funktionen ist die Sichtbarkeit seines Geistes. Während es funktioniert, bietet es eine in Echtzeit zusammengefasste Spur seiner Argumentation. Sie können sehen, wie es einen Bug durchdacht, bevor es mit dem Schreiben der Korrektur beginnt, was Ihnen hilft, Logikfehler frühzeitig zu erkennen.
  • Funktionsaufruf: Ja, über die API.
  • Strukturierte Ausgaben: Ja.
  • Hat Argumentation: Ja.
  • Gecachte Eingabetoken: Ja

    Wichtiger Hinweis: Die Eingabefunktion im Cache ist sowohl im Playground als auch in der API verfügbar. Diese Informationen können jedoch nur über die API abgerufen werden.

  • Wissensstichtag: Kein bekanntes Stichtag
  • Niedrige Kosten: Zum Zeitpunkt der Veröffentlichung war es günstiger als andere Flaggschiff-Modelle.

Limits

Token pro Minute (TPM)
Für die Erhöhung des TPM-Limits verwenden Sie den folgenden Grenzwertnamen: grok-code-fast-tokens-per-minute-count (für 200.000 Token). Siehe Limiterhöhungsanforderungen erstellen.

Bedarfsgesteuerter Modus

Sie können die vortrainierten Basismodelle in generativer KI über zwei Modi erreichen: On-Demand und dediziert.

Hinweis

Die Grok-Modelle sind nur im On-Demand-Modus verfügbar.

Im Folgenden werden die wichtigsten Features für den On-Demand-Modus aufgeführt:

  • Sie zahlen unterwegs für jeden Inferenzaufruf, wenn Sie die Modelle im Playground verwenden oder die Modelle über die API aufrufen.

  • Geringe Barriere für den Einsatz generativer KI.
  • Ideal für Experimente, Proof of Concept und Modellauswertung.
  • Verfügbar für die vortrainierten Modelle in Regionen, die nicht als (nur dediziertes KI-Cluster) aufgeführt sind.
Modellname OCI-Modellname Preisfindungsseite - Produktname
xAI Grok Code Fast 1 xai.grok-code-fast-1 xAI – Grok-Code-Fast-1
Preise sind aufgeführt für:
  • Eingabetoken
  • Ausgabetoken
  • Zwischengespeicherte Eingabetoken

Modellparameter

Um die Modellantworten zu ändern, können Sie die Werte der folgenden Parameter im Playground oder in der API ändern.

Maximale Ausgabetoken

Die maximale Anzahl an Token, die das Modell für jede Antwort generieren soll. Schätzen Sie vier Zeichen pro Token. Da Sie ein Chatmodell anfordern, hängt die Antwort von der Eingabeaufforderung ab, und jede Antwort verwendet nicht unbedingt die maximal zugewiesenen Token. Die maximale Länge für Prompt + Ausgabe beträgt 256.000 Token für jede Ausführung.

Tipp

Legen Sie für große Eingaben mit schwierigen Problemen einen hohen Wert für den Parameter "Maximale Ausgabetoken" fest.
Temperatur

Der Grad der Zufälligkeit, mit dem der Ausgabetext generiert wird. Min.: 0, Max.: 2

Tipp

Stellen Sie die Temperatur auf 0 oder weniger als eins ein, und erhöhen Sie die Temperatur, wenn Sie die Prompts für eine kreativere Ausgabe neu generieren. Hohe Temperaturen können Halluzinationen und sachlich falsche Informationen verursachen.
Top p

Eine Samplingmethode, mit der die kumulative Wahrscheinlichkeit der Top-Token gesteuert wird, die für das nächste Token zu berücksichtigen sind. Weisen Sie p eine Dezimalzahl zwischen 0 und 1 für die Wahrscheinlichkeit zu. Beispiel: Geben Sie 0,75 für die Top 75 Prozent ein, die berücksichtigt werden sollen. Setzen Sie p auf 1, um alle Token zu berücksichtigen.

API-Parameter für zusammengefasste Denkspuren

reasoning_content

Um Zusammengefasste Thinking Traces in der xAI-API zu verwenden, interagieren Sie hauptsächlich mit dem Feld reasoning_content. Im Gegensatz zur letzten Antwort enthält dieses Feld die interne Logik des Modells und wird in Echtzeit an Sie zurückgesendet. Im Streaming-Modus können Sie sein Thinking-Trace über chunk.choices[0].delta.reasoning_content abrufen. Siehe Entwickler, die Codierungs-Agents über die xAI-API erstellen.

Hinweis

Zusammengefasste Denk-Traces sind nur verfügbar, wenn Sie den Streaming-Modus verwenden.