xAI Grok Code Fast 1

Publié fin août 2025, le modèle xAI Grok Code Fast 1 est un modèle d'IA axé sur le codage qui excelle dans une tâche de codage commune à haut volume et est conçu spécialement pour les flux de travail de codage agéntique. Avec sa vitesse, son efficacité et son faible coût, ce modèle est conçu pour gérer la boucle du développement logiciel moderne (planification, écriture, test et débogage), offre une trace résumée en temps réel de son raisonnement et est compétent en TypeScript, Python, Java, Rust, C++ et Go. Utilisez ce modèle pour créer des projets zéro-à-un, répondre aux questions de la base de code, effectuer des corrections de bogues et codage agentique.

Principales fonctions

  • Nom du modèle dans le service d'intelligence artificielle générative pour OCI : xai.grok-code-fast-1
  • Disponible sur demande : Accédez à ce modèle sur demande au moyen du terrain de jeu de la console ou de l'API.
  • Mode texte seulement : Entrez une entrée de texte et obtenez une sortie de texte. Les images et les entrées de fichier telles que les fichiers audio, vidéo et document ne sont pas prises en charge.
  • Connaissance : A une connaissance approfondie du domaine en finance, soins de santé, droit et science.
  • Longueur de contexte : 256 000 jetons (invite maximale + longueur de réponse est de 256 000 jetons pour conserver le contexte). Dans le terrain de jeu, la longueur de réponse est plafonnée à 16 000 jetons pour chaque course, mais le contexte reste de 256 000 jetons.
  • Excelle dans ces cas d'utilisation : Codage agentique - Contrairement aux modèles généraux entraînés à écrire uniquement du code, ce modèle est optimisé pour l'utilisation des outils. Il est formé pour utiliser de manière autonome le terminal, par exemple, exécuter une commande grep pour rechercher des fichiers et effectuer des modifications en plusieurs étapes dans un référentiel.
  • Débit massif : Au moment de sa sortie, ce modèle était l'un des modèles les plus rapides de sa catégorie, fournissant environ 90 à 100 jetons par seconde. Dans de nombreuses intégrations IDE telles que Cursor ou GitHub Copilot, ce modèle peut effectuer des dizaines d'appels d'outils et de modifications avant de terminer la lecture de son plan initial.
  • Traces de pensée résumées : Une de ses caractéristiques principales est la visibilité de son esprit. Comme il fonctionne, il fournit une trace résumée en temps réel de son raisonnement. Vous pouvez le voir réfléchir à un bogue avant qu'il ne commence à écrire le correctif, ce qui vous aide à détecter les erreurs de logique tôt.
  • Appel de fonction : Oui, au moyen de l'API.
  • Sorties structurées : Oui.
  • A un motif : Oui.
  • Jetons d'entrée mis en cache : Oui

    Note importante : La fonction d'entrée en mémoire cache est disponible à la fois dans le terrain de jeu et dans l'API. Toutefois, ces informations ne peuvent être extraites qu'au moyen de l'API.

  • Date limite de connaissance : Aucune date limite connue
  • Faible coût : Au moment de sa publication, il était moins cher que les autres modèles phares.

Mode sur demande

Vous pouvez accéder aux modèles fondamentaux préentraînés dans l'IA générative au moyen de deux modes : sur demande et dédié.

Note

Les modèles Grok sont disponibles uniquement en mode sur demande.

Voici les principales fonctions du mode sur demande :

  • Vous payez à l'utilisation pour chaque appel d'inférence lorsque vous utilisez les modèles dans le terrain de jeu ou lorsque vous appelez les modèles au moyen de l'API.

  • Faible barrière pour commencer à utiliser l'IA générative.
  • Idéal pour l'expérimentation, la preuve de concept et l'évaluation de modèle.
  • Disponible pour les modèles préentraînés dans les régions non listées (grappe dédiée à l'IA uniquement).
Nom de modèle Nom du modèle OCI Nom du produit de la page de tarification
xAI Grok Code Fast 1 xai.grok-code-fast-1 xAI – Grok-Code-Fast-1
Les prix sont indiqués pour :
  • Jetons d'entrée
  • Jetons de sortie
  • Jetons d'entrée en mémoire cache

Paramètres du modèle

Pour modifier les réponses du modèle, vous pouvez modifier les valeurs des paramètres suivants dans le terrain de jeu ou l'API.

Nombre maximal de jetons de sortie

Nombre maximal de marqueurs que le modèle doit générer pour chaque réponse. Estimer quatre caractères par jeton. Comme vous demandez un modèle de clavardage, la réponse dépend de l'invite et chaque réponse n'utilise pas nécessairement le nombre maximal de jetons alloués. La longueur maximale de l'invite et de la sortie est de 256 000 jetons pour chaque exécution.

Conseil

Pour les entrées volumineuses présentant des problèmes difficiles, définissez une valeur élevée pour le paramètre de nombre maximal de jetons de sortie.
Température

Niveau de caractère aléatoire utilisé pour générer le texte de sortie. Min. : 0, Max. : 2

Conseil

Commencez avec la température réglée à 0 ou moins d'un, puis augmentez la température au fur et à mesure que vous régénérez les invites pour une sortie plus créative. Les températures élevées peuvent introduire des hallucinations et des informations factuellement incorrectes.
Haut p

Méthode d'échantillonnage qui contrôle la probabilité cumulative des jetons supérieurs à prendre en compte pour le jeton suivant. Affectez à p un nombre décimal compris entre 0 et 1 pour la probabilité. Par exemple, entrez 0,75 pour les 75 % principaux à prendre en compte. Réglez p à 1 pour prendre en compte tous les jetons.

Paramètre d'API pour les traces de pensée récapitulées

reasoning_content

Pour utiliser des traces de pensée résumées dans l'API xAI, vous interagissez principalement avec le champ reasoning_content. Contrairement à la réponse finale, ce champ contient la logique interne du modèle et vous est transmis en temps réel. Vous pouvez obtenir sa trace de pensée via chunk.choices[0].delta.reasoning_content en mode streaming. Voir Pour les développeurs qui créent des agents de codage au moyen de l'API xAI.

Note

Les traces de pensée récapitulées ne sont disponibles que lorsque vous utilisez le mode de diffusion en continu.