xAI Grok 4.20
Die xAI Grok 4.20 bietet Argumentations- und Nicht-Grundvarianten mit branchenführender Geschwindigkeit und agentenbasierter Tool-Calling-Unterstützung. Es wurde entwickelt, um Halluzinationen zu reduzieren und Prompts genau zu befolgen und zuverlässigere und präzisere Reaktionen zu erzeugen.
Weitere Informationen zu Grok 4.20
Regionen für dieses Modell
Informationen zu unterstützten Regionen, Endpunkttypen (On-Demand- oder dedizierte KI-Cluster) und Hosting (OCI Generative AI oder externe Aufrufe) für dieses Modell finden Sie auf der Seite Modelle nach Region. Details zu den Regionen finden Sie auf der Seite Regionen für generative KI.
Zugriff auf dieses Modell
Überblick
Das xAI Grok 4.20-Modell ist in zwei Modi erhältlich, die in zwei separaten Modellen angeboten werden. Ein Grundmodell und ein Nicht-Grundmodell. In der folgenden Tabelle können Sie entscheiden, welches Modell Sie auswählen möchten.
| Modus | Modellname | Wann verwendet |
|---|---|---|
| Grund | xai.grok-4.20-0309-reasoning |
Komplexe Logik und Mathematik, wissenschaftliche/technische Analysen, mehrstufige Untersuchungen oder Aufgaben, bei denen Genauigkeit mehr als die niedrigste Latenz zählt. |
| Keine Gründe | xai.grok-4.20-0309-non-reasoning |
Routine-Fragen und Antworten, allgemeiner Informationsabruf und Szenarien mit hohem Durchsatz, in denen die Reaktionsgeschwindigkeit die Priorität hat. |
Wichtige Features
- Modellnamen in OCI Generative AI:
- Grund
-
xai.grok-4.20-0309-reasoningxai.grok-4.20-reasoning(ein Alias, der aufxai.grok-4.20-0309-reasoningverweist)
- Keine Gründe
-
xai.grok-4.20-0309-non-reasoningxai.grok-4.20-non-reasoning(ein Alias, der aufxai.grok-4.20-0309-non-reasoningverweist)
- On-Demand verfügbar: Greifen Sie auf dieses Modell On-Demand über den Playground der Konsole oder die API zu.
- Multimodale Unterstützung: Geben Sie Text und Bilder ein, und rufen Sie eine Textausgabe ab.
- Kontextlänge: 2 Millionen Token (maximale Prompt- und Antwortlänge beträgt 2 Millionen Token, um den Kontext beizubehalten). Auf dem Spielplatz wird die Antwortlänge für jeden Lauf auf 131.000 Token begrenzt, der Kontext bleibt jedoch 2 Millionen.
- Modi: Funktioniert in zwei Modi: "Grundlagen" für komplexe Aufgaben und "Nicht-Grundlagen" für geschwindigkeitskritische, einfache Anforderungen.
- Funktionsaufruf: Ja, über die API.
- Strukturierte Ausgaben: Ja.
-
Gecachte Eingabetoken: Ja
- Tokenanzahl: Siehe das Attribut
cachedTokensin der API der PromptTokensDetails-Referenz. - Preisfindung: Siehe Seite "Preisfindung".
Wichtiger Hinweis: Die Eingabefunktion im Cache ist sowohl im Playground als auch in der API verfügbar. Diese Informationen können jedoch nur über die API abgerufen werden.
- Tokenanzahl: Siehe das Attribut
- Knowledge Cutoff: Nicht verfügbar
Limits
- Token pro Minute (TPM)
- Für die Erhöhung des TPM-Grenzwerts verwenden Sie die folgenden Begrenzungsnamen:
- Für das Argumentationsmodell:
grok-4-2-reasoning-tokens-per-minute-count(für 200.000 Token) - Für das nicht begründende Modell:
grok-4-2-non-reasoning-tokens-per-minute-count(für 200.000 Token)
- Für das Argumentationsmodell:
- Bildeingaben
-
- Konsole: Laden Sie mindestens ein
.png- oder.jpg-Image mit jeweils 5 MB oder weniger hoch. - API: Nur JPG/JPEG- und PNG-Dateiformate werden unterstützt. Leiten Sie eine
base64-codierte Version eines Images weiter, und stellen Sie sicher, dass jedes konvertierte Image mehr als 256 und weniger als 1.792 Token aufweist. Beispiel: Ein 512 x 512-Bild konvertiert in der Regel in etwa 1.610 Token. Es gibt keine angegebene maximale Anzahl von Bildern, die hochgeladen werden können. Die kombinierte Tokenanzahl für Text und Bilder muss sich im gesamten Kontextfenster des Modells mit 2 Millionen Token befinden.
- Konsole: Laden Sie mindestens ein
Bedarfsgesteuerter Modus
Die Grok-Modelle sind nur im On-Demand-Modus verfügbar.
| Modellname | OCI-Modellname |
|---|---|
| xAI Grok 4.20 |
|
OCI-Release- und -Abgangsdaten
Informationen zu Freigabe- und Abgangsdaten und Ersatzmodelloptionen finden Sie unter Abgangsdatumsangaben für Modelle (On-Demand-Modus).
Modellparameter
Um die Modellantworten zu ändern, können Sie die Werte der folgenden Parameter im Playground oder in der API ändern.
- Maximale Ausgabetoken
-
Die maximale Anzahl an Token, die das Modell für jede Antwort generieren soll. Schätzen Sie vier Zeichen pro Token. Da Sie ein Chatmodell anfordern, hängt die Antwort von der Eingabeaufforderung ab, und jede Antwort verwendet nicht unbedingt die maximal zugewiesenen Token.
Tipp
Legen Sie für große Eingaben mit schwierigen Problemen einen hohen Wert für den Parameter "Maximale Ausgabetoken" fest. Siehe Fehlerbehebung. - Temperatur
-
Der Grad der Zufälligkeit, mit dem der Ausgabetext generiert wird. Min.: 0, Max.: 2
- Top p
-
Eine Samplingmethode, mit der die kumulative Wahrscheinlichkeit der Top-Token gesteuert wird, die für das nächste Token zu berücksichtigen sind. Weisen Sie
peine Dezimalzahl zwischen 0,05 und 1 für die Wahrscheinlichkeit zu. Beispiel: Geben Sie 0,75 für die Top 75 Prozent ein, die berücksichtigt werden sollen. Setzen Siepauf 1, um alle Token zu berücksichtigen.
Fehlerbehebung
Problem: Das Modell Grok 4.20 reagiert nicht.
Ursache: Der Parameter Maximale Ausgabetoken im Playground oder der Parameter max_tokens in der API ist wahrscheinlich zu niedrig. Beispiel: Standardmäßig ist dieser Parameter auf 600 Token im Playground gesetzt, was für komplexe Aufgaben niedrig sein kann.
Aktion: Erhöhen Sie den Parameter für die maximalen Ausgabetoken.