xAI Grok 4.20

La xAI Grok 4.20 ofrece variantes de razonamiento y no razonamiento con una velocidad líder en la industria y un soporte ágil para llamadas a herramientas. Está diseñado para reducir las alucinaciones y seguir de cerca las indicaciones, produciendo respuestas más confiables y precisas.

Más información sobre Grok 4.20

Regiones para este modelo

Importante

Para las regiones soportadas, los tipos de punto final (clusters de IA dedicados o bajo demanda) y el alojamiento (OCI Generative AI o llamadas externas) para este modelo, consulte la página Modelos por región. Para obtener más información sobre las regiones, consulte la página Regiones de IA generativa.

Descripción general

El modelo xAI Grok 4.20 viene en dos modos que se ofrecen en dos modelos separados. Un modelo Reasoning y un modelo Non-Reasoning. Consulte la siguiente tabla para ayudarle a decidir qué modelo seleccionar.

Modo Nombre de modelo Cuándo se Utiliza
Razonamiento xai.grok-4.20-0309-reasoning Lógica y matemáticas complejas, análisis científico/técnico, investigaciones de varios pasos o tareas de mayor riesgo donde la precisión importa más que la latencia más baja.
Sin razonamiento xai.grok-4.20-0309-non-reasoning Preguntas y respuestas rutinarias, recuperación de información general y escenarios de alto rendimiento en los que la velocidad de respuesta es la prioridad.

Características clave

  • Nombres de modelos en OCI Generative AI:
    Razones
    • xai.grok-4.20-0309-reasoning
    • xai.grok-4.20-reasoning (un alias que apunta a xai.grok-4.20-0309-reasoning)
    Sin razonamiento
    • xai.grok-4.20-0309-non-reasoning
    • xai.grok-4.20-non-reasoning (un alias que apunta a xai.grok-4.20-0309-non-reasoning)
  • Disponible bajo demanda: acceda a este modelo bajo demanda, a través del patio de la consola o la API.
  • Soporte multimodal: introduzca texto e imágenes y obtenga una salida de texto.
  • Longitud de contexto: 2 millones de tokens (la longitud máxima de petición de datos + respuesta es de 2 millones de tokens para mantener el contexto). En el patio de recreo, la longitud de respuesta se limita a 131.000 tokens por cada ejecución, pero el contexto sigue siendo de 2 millones.
  • Modos: funciona en dos modos: "razonamiento" para tareas complejas y "no razonamiento" para solicitudes sencillas y críticas para la velocidad.
  • Llamadas a funciones: sí, a través de la API.
  • Salidas estructuradas: sí.
  • Tokens de entrada almacenados en caché:

    Nota importante: La función de entrada en caché está disponible tanto en el patio de juegos como en la API. Sin embargo, esa información solo se puede recuperar a través de la API.

  • Cierre de conocimiento: no disponible

Límites

Tokens por minuto (TPM)
Para aumentar el límite de TPM, use los siguientes nombres de límite:
  • Para el modelo de razonamiento: grok-4-2-reasoning-tokens-per-minute-count (para 200.000 tokens)
  • Para el modelo sin razonamiento: grok-4-2-non-reasoning-tokens-per-minute-count (para 200 000 tokens)

Consulte Creación de una solicitud de aumento de límite.

Entradas de imagen
  • Consola: cargue una o más imágenes .png o .jpg, cada una de 5 MB o menos.
  • API: solo se admiten los formatos de archivo JPG/JPEG y PNG. Envíe una versión codificada base64 de una imagen, asegurándose de que cada imagen convertida tenga más de 256 tokens y menos de 1.792 tokens. Por ejemplo, una imagen de 512 x 512 normalmente se convierte en alrededor de 1.610 tokens. No hay un número máximo de imágenes que se puedan cargar. El recuento combinado de tokens para texto e imágenes debe estar dentro de la ventana de contexto general del modelo de 2 millones de tokens.

Modo bajo demanda

Nota

Los modelos Grok solo están disponibles en el modo bajo demanda.
Nombre de modelo Nombre de modelo de OCI
xAI Grok 4.20
  • xai.grok-4.20-0309-reasoning
  • xai.grok-4.20-0309-non-reasoning

Parámetros de Modelo

Para cambiar las respuestas del modelo, puede cambiar los valores de los siguientes parámetros en el patio de juegos o en la API.

Máximo de tokens de salida

Número máximo de tokens que se desea que el modelo genere para cada respuesta. Estimar cuatro caracteres por token. Debido a que está solicitando un modelo de chat, la respuesta depende de la petición de datos y cada respuesta no utiliza necesariamente el máximo de tokens asignados.

Consejo

Para entradas grandes con problemas difíciles, defina un valor alto para el parámetro de tokens de salida máximo. Consulte Solución de problemas.
Temperatura

Nivel de aleatoriedad utilizado para generar el texto de salida. Mínimo: 0, Máximo: 2

p principales

Método de muestreo que controla la probabilidad acumulada de los tokens principales que se deben tener en cuenta para el siguiente token. Asigne a p un número decimal entre 0,05 y 1 para la probabilidad. Por ejemplo, introduzca 0,75 para que se tenga en cuenta el 75 por ciento superior. Defina p en 1 para considerar todos los tokens.

Solución de problemas

Problema: el modelo Grok 4.20 no responde.

Causa: el parámetro Máximo de tokens de salida en el patio de recreo o el parámetro max_tokens en la API probablemente sea demasiado bajo. Por ejemplo, por defecto, este parámetro se establece en 600 tokens en el patio de recreo, lo que puede ser bajo para tareas complejas.

Acción: aumente el parámetro de tokens de salida máximo.