xAI Grok Code Fast 1
Publié fin août 2025, le modèle xAI Grok Code Fast 1 est un modèle d'IA axé sur le codage qui excelle dans une tâche de codage commune à haut volume et est conçu spécialement pour les flux de travail de codage agéntique. Avec sa vitesse, son efficacité et son faible coût, ce modèle est conçu pour gérer la boucle du développement logiciel moderne (planification, écriture, test et débogage), offre une trace résumée en temps réel de son raisonnement et est compétent en TypeScript, Python, Java, Rust, C++ et Go. Utilisez ce modèle pour créer des projets zéro-à-un, répondre aux questions de la base de code, effectuer des corrections de bogues et codage agentique.
Régions pour ce modèle
Pour les régions prises en charge, les types de point d'extrémité (grappes d'IA sur demande ou dédiées) et l'hébergement (IA générative pour OCI ou appels externes) pour ce modèle, voir la page Modèles par région. Pour plus de détails sur les régions, consultez la page Régions du service d'intelligence artificielle générative.
Principales fonctions
- Nom du modèle dans le service d'intelligence artificielle générative pour OCI :
xai.grok-code-fast-1 - Disponible sur demande : Accédez à ce modèle sur demande au moyen du terrain de jeu de la console ou de l'API.
- Mode texte seulement : Entrez une entrée de texte et obtenez une sortie de texte. Les images et les entrées de fichier telles que les fichiers audio, vidéo et document ne sont pas prises en charge.
- Connaissance : A une connaissance approfondie du domaine en finance, soins de santé, droit et science.
- Longueur de contexte : 256 000 jetons (invite maximale + longueur de réponse est de 256 000 jetons pour conserver le contexte). Dans le terrain de jeu, la longueur de réponse est plafonnée à 16 000 jetons pour chaque course, mais le contexte reste de 256 000 jetons.
- Excelle dans ces cas d'utilisation : Codage agentique - Contrairement aux modèles généraux entraînés à écrire uniquement du code, ce modèle est optimisé pour l'utilisation des outils. Il est formé pour utiliser de manière autonome le terminal, par exemple, exécuter une commande
greppour rechercher des fichiers et effectuer des modifications en plusieurs étapes dans un référentiel. - Débit massif : Au moment de sa sortie, ce modèle était l'un des modèles les plus rapides de sa catégorie, fournissant environ 90 à 100 jetons par seconde. Dans de nombreuses intégrations IDE telles que Cursor ou GitHub Copilot, ce modèle peut effectuer des dizaines d'appels d'outils et de modifications avant de terminer la lecture de son plan initial.
- Traces de pensée résumées : Une de ses caractéristiques principales est la visibilité de son esprit. Comme il fonctionne, il fournit une trace résumée en temps réel de son raisonnement. Vous pouvez le voir réfléchir à un bogue avant qu'il ne commence à écrire le correctif, ce qui vous aide à détecter les erreurs de logique tôt.
- Appel de fonction : Oui, au moyen de l'API.
- Sorties structurées : Oui.
- A un motif : Oui.
-
Jetons d'entrée mis en cache : Oui
- Nombre de jetons : Voir l'attribut
cachedTokensdans l'API de référence PromptTokensDetails. - Tarifs : Voir la page Tarifs.
Note importante : La fonction d'entrée en mémoire cache est disponible à la fois dans le terrain de jeu et dans l'API. Toutefois, ces informations ne peuvent être extraites qu'au moyen de l'API.
- Nombre de jetons : Voir l'attribut
- Date limite de connaissance : Aucune date limite connue
- Faible coût : Au moment de sa publication, il était moins cher que les autres modèles phares.
Limites
- Jetons par minute (TPM)
- Pour l'augmentation de limite TPM, utilisez le nom de limite suivant :
grok-code-fast-tokens-per-minute-count(pour 200 000 jetons). Voir Demande d'une augmentation de limite de service.
Mode sur demande
Vous pouvez accéder aux modèles fondamentaux préentraînés dans l'IA générative au moyen de deux modes : sur demande et dédié.
Les modèles Grok sont disponibles uniquement en mode sur demande.
Voici les principales fonctions du mode sur demande :
-
Vous payez à l'utilisation pour chaque appel d'inférence lorsque vous utilisez les modèles dans le terrain de jeu ou lorsque vous appelez les modèles au moyen de l'API.
- Faible barrière pour commencer à utiliser l'IA générative.
- Idéal pour l'expérimentation, la preuve de concept et l'évaluation de modèle.
- Disponible pour les modèles préentraînés dans les régions non listées (grappe dédiée à l'IA uniquement).
| Nom de modèle | Nom du modèle OCI | Nom du produit de la page de tarification |
|---|---|---|
| xAI Grok Code Fast 1 | xai.grok-code-fast-1 |
xAI – Grok-Code-Fast-1 Les prix sont indiqués pour :
|
Dates de version et de mise hors service OCI
Pour les dates de lancement et de mise hors service et les options de modèle de remplacement, voir : Dates de mise hors service de modèle (mode sur demande).
Paramètres du modèle
Pour modifier les réponses du modèle, vous pouvez modifier les valeurs des paramètres suivants dans le terrain de jeu ou l'API.
- Nombre maximal de jetons de sortie
-
Nombre maximal de marqueurs que le modèle doit générer pour chaque réponse. Estimer quatre caractères par jeton. Comme vous demandez un modèle de clavardage, la réponse dépend de l'invite et chaque réponse n'utilise pas nécessairement le nombre maximal de jetons alloués. La longueur maximale de l'invite et de la sortie est de 256 000 jetons pour chaque exécution.
Conseil
Pour les entrées volumineuses présentant des problèmes difficiles, définissez une valeur élevée pour le paramètre de nombre maximal de jetons de sortie. - Température
-
Niveau de caractère aléatoire utilisé pour générer le texte de sortie. Min. : 0, Max. : 2
Conseil
Commencez avec la température réglée à 0 ou moins d'un, puis augmentez la température au fur et à mesure que vous régénérez les invites pour une sortie plus créative. Les températures élevées peuvent introduire des hallucinations et des informations factuellement incorrectes. - Haut p
-
Méthode d'échantillonnage qui contrôle la probabilité cumulative des jetons supérieurs à prendre en compte pour le jeton suivant. Affectez à
pun nombre décimal compris entre 0 et 1 pour la probabilité. Par exemple, entrez 0,75 pour les 75 % principaux à prendre en compte. Réglezpà 1 pour prendre en compte tous les jetons.
Paramètre d'API pour les traces de pensée récapitulées
- reasoning_content
-
Pour utiliser des traces de pensée résumées dans l'API xAI, vous interagissez principalement avec le champ
reasoning_content. Contrairement à la réponse finale, ce champ contient la logique interne du modèle et vous est transmis en temps réel. Vous pouvez obtenir sa trace de pensée viachunk.choices[0].delta.reasoning_contenten mode streaming. Voir Pour les développeurs qui créent des agents de codage au moyen de l'API xAI.
Les traces de pensée récapitulées ne sont disponibles que lorsque vous utilisez le mode de diffusion en continu.