xAI Grok 4.20

O xAI Grok 4.20 oferece variantes de raciocínio e não raciocínio com velocidade líder do setor e suporte ágil para chamadas de ferramentas. Ele é projetado para reduzir as alucinações e seguir os prompts de perto, produzindo respostas mais confiáveis e precisas.

Saiba mais sobre o Grok 4.20

Regiões para este Modelo

Importante

Para regiões suportadas, tipos de ponto final (clusters de IA sob demanda ou dedicados) e hospedagem (OCI Generative AI ou chamadas externas) para esse modelo, consulte a página Modelos por Região. Para obter detalhes sobre as regiões, consulte a página Regiões de IA Generativa.

Visão Geral

O modelo xAI Grok 4.20 vem em dois modos oferecidos em dois modelos separados. Um modelo Razão e um modelo Não‑Razão. Consulte a tabela a seguir para ajudá-lo a decidir qual modelo selecionar.

Modo Nome do Modelo Quando usar
Motivo xai.grok-4.20-0309-reasoning Lógica complexa e matemática, análise científica/técnica, investigações em várias etapas ou tarefas de alto risco em que a precisão importa mais do que a menor latência.
Sem raciocínio xai.grok-4.20-0309-non-reasoning Perguntas e respostas de rotina, recuperação geral de informações e cenários de alto rendimento em que a velocidade de resposta é a prioridade.

Principais Recursos

  • Nomes de modelos na OCI Generative AI:
    Motivo
    • xai.grok-4.20-0309-reasoning
    • xai.grok-4.20-reasoning (um alias que aponta para xai.grok-4.20-0309-reasoning)
    Sem raciocínio
    • xai.grok-4.20-0309-non-reasoning
    • xai.grok-4.20-non-reasoning (um alias que aponta para xai.grok-4.20-0309-non-reasoning)
  • Disponível sob Demanda: Acesse esse modelo sob demanda, por meio do playground da Console ou da API.
  • Suporte multimodal: insira texto e imagens e obtenha uma saída de texto.
  • Tamanho do Contexto: 2 milhões de tokens (o tamanho máximo do prompt + da resposta é de 2 milhões de tokens para manter o contexto). No playground, a duração da resposta é limitada a 131.000 tokens para cada execução, mas o contexto permanece em 2 milhões.
  • Modos: Opera em dois modos: "raciocínio" para tarefas complexas e "não-raciocínio" para solicitações diretas e de alta velocidade.
  • Chamada de Função: Sim, por meio da API.
  • Saídas Estruturadas: Sim.
  • Tokens de Entrada em Cache: Sim

    Observação importante: O recurso de entrada em cache está disponível no playground e na API. No entanto, essas informações só podem ser recuperadas por meio da API.

  • Limite de Conhecimento: Não disponível

Limites

Tokens por minuto (TPM)
Para o aumento do limite de TPM, use os seguintes nomes de limite:
  • Para o modelo de raciocínio: grok-4-2-reasoning-tokens-per-minute-count (para 200.000 tokens)
  • Para o modelo sem razão: grok-4-2-non-reasoning-tokens-per-minute-count (para 200.000 tokens)

Consulte Criando uma Solicitação de Aumento de Limite.

Entradas de Imagem
  • Console: Faça upload de uma ou mais imagens .png ou .jpg, cada uma com 5 MB ou menos.
  • API: Somente os formatos de arquivo JPG/JPEG e PNG são suportados. Envie uma versão codificada em base64 de uma imagem, garantindo que cada imagem convertida tenha mais de 256 e menos de 1.792 tokens. Por exemplo, uma imagem 512 x 512 normalmente é convertida em cerca de 1.610 tokens. Não há número máximo declarado de imagens que podem ser carregadas. A contagem de tokens combinada para texto e imagens deve estar dentro da janela de contexto geral do modelo de 2 milhões de tokens.

Modo sob Demanda

Observação

Os modelos Grok só estão disponíveis no modo sob demanda.
Nome do Modelo Nome do Modelo do OCI
xAI Grok 4.20
  • xai.grok-4.20-0309-reasoning
  • xai.grok-4.20-0309-non-reasoning

Parâmetros de Modelo

Para alterar as respostas do modelo, você pode alterar os valores dos parâmetros a seguir no playground ou na API.

Máximo de tokens de saída

O número máximo de tokens que você deseja que o modelo gere para cada resposta. Estime quatro caracteres por token. Como você está solicitando um modelo de chat, a resposta depende do prompt e cada resposta não necessariamente usa o máximo de tokens alocados.

Dica

Para entradas grandes com problemas difíceis, defina um valor alto para o parâmetro de tokens de saída máxima. Consulte Diagnóstico e Solução de Problemas.
Temperatura

O nível de aleatoriedade usado para gerar o texto de saída. Mín.: 0, Máx.: 2

Top p

Um método de amostragem que controla a probabilidade cumulativa dos principais tokens a serem considerados para o próximo token. Atribua a p um número decimal entre 0,05 e 1 para a probabilidade. Por exemplo, insira 0,75 para os 75% principais a serem considerados. Defina p como 1 para considerar todos os tokens.

Diagnóstico e Solução de Problemas

Problema: O modelo Grok 4.20 não responde.

Causa: O parâmetro Máximo de tokens de saída no playground ou o parâmetro max_tokens na API provavelmente é muito baixo. Por exemplo, por padrão, esse parâmetro é definido como 600 tokens no playground, o que pode ser baixo para tarefas complexas.

Ação: Aumente o parâmetro máximo de tokens de saída.