xAI Grok Code Fast 1 (Nuevo)

El modelo xAI Grok Code Fast 1 es un modelo de IA centrado en la codificación que sobresale en tareas de codificación comunes y de alto volumen, como la depuración y la edición, y está diseñado específicamente para flujos de trabajo de codificación ágentes. Con su velocidad, eficiencia y bajo costo, este modelo es versátil en toda la pila de desarrollo de software y es competente en TypeScript, Python, Java, Rust, C++ y Go. Utilice este modelo para crear proyectos de cero a uno, responder preguntas de base de código, realizar correcciones de bugs y codificar de forma automática.

Disponible en estas regiones

  • Este de EE. UU. (Ashburn) (solo bajo demanda)
  • Medio oeste de EE. UU. (Chicago) (solo bajo demanda)
  • Oeste de EE. UU. (Phoenix) (solo bajo demanda)
Importante

Llamadas Externas

Los modelos de xAI Grok se alojan en un centro de datos de OCI, en un arrendamiento aprovisionado para xAI. Los modelos de xAI Grok, a los que se puede acceder a través del servicio OCI Generative AI, están gestionados por xAI.

Características clave

  • Nombre del modelo en OCI Generative AI: xai.grok-code-fast-1
  • Disponible bajo demanda: acceda a este modelo bajo demanda, a través del patio de la consola o la API.
  • Solo modo de texto: introduzca la entrada de texto y obtenga la salida de texto. No se admiten imágenes ni entradas de archivos, como archivos de audio, vídeo y documentos.
  • Conocimiento: tiene un profundo conocimiento de dominio en finanzas, salud, derecho y ciencia.
  • Longitud de contexto: 256 000 tokens (la petición de datos máxima + la longitud de respuesta es de 256 000 tokens para mantener el contexto). En el patio de recreo, la longitud de respuesta se limita a 16.000 tokens por cada ejecución, pero el contexto sigue siendo de 256.000 tokens.
  • Excels en estos casos de uso: codificación de Agentic
  • Llamadas a funciones: sí, a través de la API.
  • Salidas estructuradas: sí.
  • Tiene razonamiento: no.
  • Tokens de entrada almacenados en caché:

    Nota importante: La función de entrada en caché está disponible tanto en el patio de juegos como en la API. Sin embargo, esa información solo se puede recuperar a través de la API.

  • Cierre de conocimiento: sin fecha de corte conocida

Para obtener más información sobre las funciones clave, consulte la documentación de Grok Code Fast 1 y la tarjeta modelo.

Modo bajo demanda

Puede acceder a los modelos fundamentales previamente entrenados en IA generativa mediante dos modos: bajo demanda y dedicado.

Nota

Los modelos Grok solo están disponibles en el modo bajo demanda.

A continuación, se muestran las funciones clave para el modo bajo demanda:

  • Paga sobre la marcha por cada llamada de inferencia cuando utiliza los modelos en el patio de recreo o cuando llama a los modelos a través de la API.

  • Baja barrera para empezar a utilizar la IA generativa.
  • Ideal para la experimentación, la prueba de concepto y la evaluación de modelos.
  • Disponible para los modelos preentrenados en regiones que no se muestran como (solo cluster de IA dedicado).
Nombre de modelo Nombre de modelo de OCI Nombre de producto de página de asignación de precios
xAI Grok Code Fast 1 xai.grok-code-fast-1 xAI – Grok-Code-Fast-1
Los precios se muestran para:
  • Tokens de entrada
  • Tokens de salida
  • Tokens de entrada en caché

Fecha de liberación

Modelo Fecha de liberación de disponibilidad general Fecha de baja bajo demanda Fecha de baja en modo dedicado
xai.grok-code-fast-1 2025-10-01 Provisional Este modelo no está disponible para el modo dedicado.
Importante

Para obtener una lista de todas las líneas de tiempo de modelo y los detalles de baja, consulte Baja de los modelos.

Parámetros de Modelo

Para cambiar las respuestas del modelo, puede cambiar los valores de los siguientes parámetros en el patio de juegos o en la API.

Máximo de tokens de salida

Número máximo de tokens que se desea que el modelo genere para cada respuesta. Estimar cuatro caracteres por token. Debido a que está solicitando un modelo de chat, la respuesta depende de la petición de datos y cada respuesta no utiliza necesariamente el máximo de tokens asignados. La longitud máxima de petición de datos + salida es de 256.000 tokens para cada ejecución.

Consejo

Para entradas grandes con problemas difíciles, defina un valor alto para el parámetro de tokens de salida máximo.
Temperatura

Nivel de aleatoriedad utilizado para generar el texto de salida. Mínimo: 0, Máximo: 2

Consejo

Comience con la temperatura establecida en 0 o menos de uno y aumente la temperatura a medida que vuelve a generar las peticiones de datos para obtener una salida más creativa. Las altas temperaturas pueden introducir alucinaciones e información objetivamente incorrecta.
p principales

Método de muestreo que controla la probabilidad acumulada de los tokens principales que se deben tener en cuenta para el siguiente token. Asigne a p un número decimal entre 0 y 1 para la probabilidad. Por ejemplo, introduzca 0,75 para que se tenga en cuenta el 75 por ciento superior. Defina p en 1 para considerar todos los tokens.