xAI Grok 4 (New)
El modelo xai.grok-4
tiene un mejor rendimiento que su predecesor, Grok 3, y destaca en casos de uso empresarial como la extracción de datos, la codificación y el resumen de texto. Este modelo tiene un profundo conocimiento de dominio en finanzas, salud, derecho y ciencia.
Disponible en estas regiones
- Este de EE. UU. (Ashburn) (solo bajo demanda)
- Medio oeste de EE. UU. (Chicago) (solo bajo demanda)
- Oeste de EE. UU. (Phoenix) (solo bajo demanda)
Llamadas externas
Los modelos de xAI Grok a los que se puede acceder a través del servicio OCI Generative AI, se alojan externamente mediante xAI. Por lo tanto, una llamada a un modelo de xAI Grok (a través del servicio OCI Generative AI) puede provocar una llamada a una ubicación de xAI.
Características clave
- Nombre del modelo en OCI Generative AI:
xai.grok-4
- Disponible bajo demanda: acceda a este modelo bajo demanda, a través del patio de la consola o la API.
- Soporte multimodal: introduzca texto e imágenes y obtenga una salida de texto.
- Conocimiento: tiene un profundo conocimiento de dominio en finanzas, salud, derecho y ciencia.
- Longitud de contexto: 128 000 tokens (la petición de datos máxima + la longitud de respuesta es de 128 000 tokens por cada ejecución). En el patio de recreo, la longitud de respuesta se limita a 16.000 tokens por cada ejecución.
- Excels en estos casos de uso: extracción de datos, codificación y resumen de texto
- Llamadas a funciones: sí, a través de la API.
- Salidas estructuradas: sí.
- Tiene razonamiento: Sí. Para problemas de razonamiento, aumente el número máximo de tokens de salida. Consulte Parámetros de modelo.
- Cierre de conocimiento: noviembre de 2024
Límites
- Entradas de imagen
-
- Consola: cargue una o más imágenes
.png
o.jpg
, cada una de 5 MB o menos. - API: envíe una versión codificada
base64
de una imagen, lo que garantiza que cada imagen convertida tenga más de 512 tokens y menos de 1.792 tokens. Por ejemplo, una imagen de 512 x 512 normalmente se convierte en alrededor de 1.610 tokens.
- Consola: cargue una o más imágenes
Modo bajo demanda
-
Paga sobre la marcha por cada llamada de inferencia cuando utiliza los modelos en el patio de recreo o cuando llama a los modelos a través de la API.
- Baja barrera para empezar a utilizar la IA generativa.
- Ideal para experimentar, probar conceptos y evaluar los modelos.
- Disponible para los modelos preentrenados en regiones que no se muestran como (solo cluster de IA dedicado).
Para garantizar un acceso fiable a los modelos de IA generativa en el modo bajo demanda, recomendamos implementar una estrategia de retroceso, que implica retrasar las solicitudes después de un rechazo. Sin una, las solicitudes rápidas repetidas pueden provocar más rechazos a lo largo del tiempo, una mayor latencia y un posible bloqueo temporal del cliente por parte del servicio de IA generativa. Al utilizar una estrategia de retroceso, como una estrategia de retroceso exponencial, puede distribuir las solicitudes de manera más uniforme, reducir la carga y mejorar el éxito de los reintentos, siguiendo las mejores prácticas del sector y mejorando la estabilidad y el rendimiento generales de su integración en el servicio.
Los modelos Grok solo están disponibles en el modo bajo demanda.
Consulte la siguiente tabla para ver el nombre del producto de este modelo en la página de precios.
Nombre de modelo | Nombre de modelo de OCI | Nombre de producto de página de asignación de precios |
---|---|---|
xAI Grok 4 | xai.grok-4 |
xAI – Grok 4 |
Fecha de liberación
Modelo | Fecha de liberación de disponibilidad general | Fecha de baja bajo demanda | Fecha de baja en modo dedicado |
---|---|---|---|
xai.grok-4 |
2.025-7-23 | Provisional | Este modelo no está disponible para el modo dedicado. |
Para obtener una lista de todas las líneas de tiempo de modelo y los detalles de baja, consulte Baja de los modelos.
Parámetros de Modelo
Para cambiar las respuestas del modelo, puede cambiar los valores de los siguientes parámetros en el patio de juegos o en la API.
- Máximo de tokens de salida
-
Número máximo de tokens que se desea que el modelo genere para cada respuesta. Estimar cuatro caracteres por token. Debido a que está solicitando un modelo de chat, la respuesta depende de la petición de datos y cada respuesta no utiliza necesariamente el máximo de tokens asignados. La longitud máxima de petición de datos + salida es de 128.000 tokens para cada ejecución.
Consejo
Para entradas grandes con problemas difíciles, defina un valor alto para el parámetro de tokens de salida máximo. Consulte Solución de problemas. - Temperatura
-
Nivel de aleatoriedad utilizado para generar el texto de salida. Mínimo: 0, Máximo: 2
Consejo
Comience con la temperatura establecida en 0 o menos de uno y aumente la temperatura a medida que vuelve a generar las peticiones de datos para obtener una salida más creativa. Las altas temperaturas pueden introducir alucinaciones e información objetivamente incorrecta. - p principales
-
Método de muestreo que controla la probabilidad acumulada de los tokens principales que se deben tener en cuenta para el siguiente token. Asigne a
p
un número decimal entre 0 y 1 para la probabilidad. Por ejemplo, introduzca 0,75 para que se tenga en cuenta el 75 por ciento superior. Definap
en 1 para considerar todos los tokens.
El modelo xai.grok-4
tiene razonamiento, pero no admite el parámetro reasoning_effort
utilizado en los modelos Grok 3 mini y Grok 3 mini fast. Si especifica el parámetro reasoning_effort
en la API para el modelo xai.grok-4
, obtendrá una respuesta de error.
Solución de problemas
Problema: el modelo Grok 4 no responde.
Causa: el parámetro Máximo de tokens de salida en el patio de recreo o el parámetro max_tokens
en la API probablemente sea demasiado bajo.
Acción: aumente el parámetro de tokens de salida máximo.
Motivo: para problemas difíciles que requieren razonamiento y resolución de problemas, y para entradas sofisticadas grandes, el modelo xai.grok-4
tiende a pensar y consume muchos tokens, por lo que si el parámetro max_tokens
es demasiado bajo, el modelo utiliza los tokens asignados y no devuelve una respuesta final.