xAI Grok 4.20
O xAI Grok 4.20 oferece variantes de raciocínio e não raciocínio com velocidade líder do setor e suporte ágil para chamadas de ferramentas. Ele é projetado para reduzir as alucinações e seguir os prompts de perto, produzindo respostas mais confiáveis e precisas.
Saiba mais sobre o Grok 4.20
Regiões para este Modelo
Para regiões suportadas, tipos de ponto final (clusters de IA sob demanda ou dedicados) e hospedagem (OCI Generative AI ou chamadas externas) para esse modelo, consulte a página Modelos por Região. Para obter detalhes sobre as regiões, consulte a página Regiões de IA Generativa.
Acessar este Modelo
Visão Geral
O modelo xAI Grok 4.20 vem em dois modos oferecidos em dois modelos separados. Um modelo Razão e um modelo Não‑Razão. Consulte a tabela a seguir para ajudá-lo a decidir qual modelo selecionar.
| Modo | Nome do Modelo | Quando usar |
|---|---|---|
| Motivo | xai.grok-4.20-0309-reasoning |
Lógica complexa e matemática, análise científica/técnica, investigações em várias etapas ou tarefas de alto risco em que a precisão importa mais do que a menor latência. |
| Sem raciocínio | xai.grok-4.20-0309-non-reasoning |
Perguntas e respostas de rotina, recuperação geral de informações e cenários de alto rendimento em que a velocidade de resposta é a prioridade. |
Principais Recursos
- Nomes de modelos na OCI Generative AI:
- Motivo
-
xai.grok-4.20-0309-reasoningxai.grok-4.20-reasoning(um alias que aponta paraxai.grok-4.20-0309-reasoning)
- Sem raciocínio
-
xai.grok-4.20-0309-non-reasoningxai.grok-4.20-non-reasoning(um alias que aponta paraxai.grok-4.20-0309-non-reasoning)
- Disponível sob Demanda: Acesse esse modelo sob demanda, por meio do playground da Console ou da API.
- Suporte multimodal: insira texto e imagens e obtenha uma saída de texto.
- Tamanho do Contexto: 2 milhões de tokens (o tamanho máximo do prompt + da resposta é de 2 milhões de tokens para manter o contexto). No playground, a duração da resposta é limitada a 131.000 tokens para cada execução, mas o contexto permanece em 2 milhões.
- Modos: Opera em dois modos: "raciocínio" para tarefas complexas e "não-raciocínio" para solicitações diretas e de alta velocidade.
- Chamada de Função: Sim, por meio da API.
- Saídas Estruturadas: Sim.
-
Tokens de Entrada em Cache: Sim
- Contagem de tokens: Consulte o atributo
cachedTokensna API de Referência PromptTokensDetails. - Preço: Consulte a Página Precificação.
Observação importante: O recurso de entrada em cache está disponível no playground e na API. No entanto, essas informações só podem ser recuperadas por meio da API.
- Contagem de tokens: Consulte o atributo
- Limite de Conhecimento: Não disponível
Limites
- Tokens por minuto (TPM)
- Para o aumento do limite de TPM, use os seguintes nomes de limite:
- Para o modelo de raciocínio:
grok-4-2-reasoning-tokens-per-minute-count(para 200.000 tokens) - Para o modelo sem razão:
grok-4-2-non-reasoning-tokens-per-minute-count(para 200.000 tokens)
- Para o modelo de raciocínio:
- Entradas de Imagem
-
- Console: Faça upload de uma ou mais imagens
.pngou.jpg, cada uma com 5 MB ou menos. - API: Somente os formatos de arquivo JPG/JPEG e PNG são suportados. Envie uma versão codificada em
base64de uma imagem, garantindo que cada imagem convertida tenha mais de 256 e menos de 1.792 tokens. Por exemplo, uma imagem 512 x 512 normalmente é convertida em cerca de 1.610 tokens. Não há número máximo declarado de imagens que podem ser carregadas. A contagem de tokens combinada para texto e imagens deve estar dentro da janela de contexto geral do modelo de 2 milhões de tokens.
- Console: Faça upload de uma ou mais imagens
Modo sob Demanda
Os modelos Grok só estão disponíveis no modo sob demanda.
| Nome do Modelo | Nome do Modelo do OCI |
|---|---|
| xAI Grok 4.20 |
|
Datas de Lançamento e Baixa do OCI
Para datas de liberação e baixa e opções de modelo de substituição, consulte Datas de Baixa do Modelo (Modo Sob Demanda).
Parâmetros de Modelo
Para alterar as respostas do modelo, você pode alterar os valores dos parâmetros a seguir no playground ou na API.
- Máximo de tokens de saída
-
O número máximo de tokens que você deseja que o modelo gere para cada resposta. Estime quatro caracteres por token. Como você está solicitando um modelo de chat, a resposta depende do prompt e cada resposta não necessariamente usa o máximo de tokens alocados.
Dica
Para entradas grandes com problemas difíceis, defina um valor alto para o parâmetro de tokens de saída máxima. Consulte Diagnóstico e Solução de Problemas. - Temperatura
-
O nível de aleatoriedade usado para gerar o texto de saída. Mín.: 0, Máx.: 2
- Top p
-
Um método de amostragem que controla a probabilidade cumulativa dos principais tokens a serem considerados para o próximo token. Atribua a
pum número decimal entre 0,05 e 1 para a probabilidade. Por exemplo, insira 0,75 para os 75% principais a serem considerados. Definapcomo 1 para considerar todos os tokens.
Diagnóstico e Solução de Problemas
Problema: O modelo Grok 4.20 não responde.
Causa: O parâmetro Máximo de tokens de saída no playground ou o parâmetro max_tokens na API provavelmente é muito baixo. Por exemplo, por padrão, esse parâmetro é definido como 600 tokens no playground, o que pode ser baixo para tarefas complexas.
Ação: Aumente o parâmetro máximo de tokens de saída.