xAI Grok Code Fast 1 (Nouveau)

Le modèle xAI Grok Code Fast 1 est un modèle d'IA axé sur le codage qui excelle dans les tâches de codage courantes et volumineuses telles que le débogage et l'édition. Il est conçu spécifiquement pour les workflows de codage agénétique. Avec sa vitesse, son efficacité et son faible coût, ce modèle est polyvalent dans la pile de développement logiciel et compétent en TypeScript, Python, Java, Rust, C++ et Go. Utilisez ce modèle pour créer des projets zéro à un, répondre à des questions de base de code, effectuer des corrections de bogues et coder agénétiquement.

Disponible dans ces régions

  • Est des Etats-Unis (Ashburn) (à la demande uniquement)
  • Midwest des Etats-Unis (Chicago) (à la demande uniquement)
  • Ouest des Etats-Unis (Phoenix) (à la demande uniquement)
Important

Appels externes

Les modèles xAI Grok sont hébergés dans un centre de données OCI, dans une location provisionnée pour xAI. Les modèles xAI Grok, accessibles via le service OCI Generative AI, sont gérés par xAI.

Principales fonctionnalités

  • Nom du modèle dans OCI Generative AI : xai.grok-code-fast-1
  • Disponible à la demande : accédez à ce modèle à la demande, via le playground de test de la console ou l'API.
  • Mode texte uniquement : saisissez une entrée de texte et obtenez une sortie de texte. Les images et les entrées de fichier telles que les fichiers audio, vidéo et de document ne sont pas prises en charge.
  • Connaissances : possède une connaissance approfondie du domaine de la finance, des soins de santé, du droit et de la science.
  • Longueur du contexte : 256 000 jetons (la longueur maximale de l'invite + de la réponse est de 256 000 jetons pour conserver le contexte). Dans le terrain de jeu, la longueur de la réponse est plafonnée à 16 000 jetons pour chaque exécution, mais le contexte reste 256 000 jetons.
  • Excelle dans les cas d'utilisation suivants : codage agénétique
  • Appel de fonction : Oui, via l'API.
  • Sorties structurées : Oui.
  • A un raisonnement : Non.
  • Jetons d'entrée en cache : Oui

    Remarque importante : La fonctionnalité d'entrée en cache est disponible à la fois dans le playground de test et dans l'API. Cependant, ces informations ne peuvent être extraites que via l'API.

  • Limite de la connaissance : Aucune date limite connue

Pour plus d'informations sur les principales fonctionnalités, reportez-vous à la documentation Grok Code Fast 1 et à la carte modèle.

Mode à la demande

Vous pouvez atteindre les modèles de base préentraînés dans l'IA générative via deux modes : à la demande et dédié.

Remarque

Les modèles Grok sont disponibles uniquement en mode à la demande.

Voici les principales fonctionnalités du mode à la demande :

  • Vous payez au fur et à mesure pour chaque appel d'inférence lorsque vous utilisez les modèles dans le playground de test ou lorsque vous appelez les modèles via l'API.

  • Faible barrière pour commencer à utiliser l'IA générative.
  • Idéal pour l'expérimentation, la preuve de concept et l'évaluation de modèle.
  • Disponible pour les modèles préentraînés dans les régions non répertoriées en tant que (cluster d'IA dédié uniquement).
Nom du modèle Nom du modèle OCI Nom du produit de la page de tarification
xAI Grok Code Fast 1 xai.grok-code-fast-1 xAI – Grok-Code-Fast-1
Les prix sont indiqués pour :
  • Jetons d'entrée
  • Jetons de sortie
  • Jetons d'entrée en cache

Date de lancement

Modèle Date de publication de la disponibilité générale Date de sortie à la demande Date de retrait du mode dédié
xai.grok-code-fast-1 2025-10-01 Provisoire Ce modèle n'est pas disponible pour le mode dédié.
Important

Pour obtenir la liste de toutes les lignes de temps du modèle et des détails de sortie, voir Mettre hors service les modèles.

Paramètres de modèle

Pour modifier les réponses du modèle, vous pouvez modifier les valeurs des paramètres suivants dans le playground de test ou l'API.

Nombre maximal de sèmes de sortie

Nombre maximal de sèmes que le modèle doit générer pour chaque réponse. Estimez quatre caractères par jeton. Comme vous demandez un modèle de discussion, la réponse dépend de l'invite et chaque réponse n'utilise pas nécessairement le nombre maximal de jetons alloués. La longueur maximale de l'invite + de la sortie est de 256 000 jetons pour chaque exécution.

Conseil

Pour les entrées volumineuses présentant des problèmes difficiles, définissez une valeur élevée pour le paramètre de jetons de sortie maximum.
Température

Niveau de randomité utilisé pour générer le texte de sortie. Min : 0, Max : 2

Conseil

Commencez par définir la température sur 0 et augmentez-la à mesure que vous régénérez les invitations pour affiner les sorties. Les températures élevées peuvent introduire des hallucinations et des informations factuellement incorrectes.
Valeur Top p

Méthode d'échantillonnage qui contrôle la probabilité cumulée des jetons supérieurs à prendre en compte pour le jeton suivant. Affectez à p un nombre décimal compris entre 0 et 1 pour la probabilité. Par exemple, entrez 0,75 pour les 75 % les plus importants à prendre en compte. Définissez p sur 1 pour prendre en compte tous les jetons.