xAI Grok 4
O modelo xai.grok-4 tem melhor desempenho do que seu antecessor, Grok 3, e se destaca em casos de uso empresarial, como extração de dados, codificação e resumo de texto. Este modelo tem um profundo conhecimento de domínio em finanças, saúde, direito e ciência.
Regiões para este Modelo
Para regiões suportadas, tipos de ponto final (clusters de IA sob demanda ou dedicados) e hospedagem (OCI Generative AI ou chamadas externas) para esse modelo, consulte a página Modelos por Região. Para obter detalhes sobre as regiões, consulte a página Regiões de IA Generativa.
Acessar este Modelo
Principais Recursos
- Nome do modelo na OCI Generative AI:
xai.grok-4 - Disponível sob Demanda: Acesse esse modelo sob demanda, por meio do playground da Console ou da API.
- Suporte multimodal: insira texto e imagens e obtenha uma saída de texto.
- Conhecimento: Tem um profundo conhecimento em finanças, assistência médica, direito e ciência.
- Tamanho do Contexto: 128.000 tokens (o tamanho máximo do prompt + da resposta é de 128.000 tokens para manter o contexto). No playground, a duração da resposta é limitada a 16.000 tokens para cada execução, mas o contexto permanece em 128.000 tokens.
- Excels em Estes Casos de Uso: Extração de dados, codificação e resumo de texto
- Chamada de Função: Sim, por meio da API.
- Saídas Estruturadas: Sim.
- Tem Argumento: Sim. Para problemas de raciocínio, aumente o máximo de tokens de saída. Consulte Parâmetros de Modelo.
-
Tokens de Entrada em Cache: Sim
- Contagem de tokens: Consulte o atributo
cachedTokensna API de Referência PromptTokensDetails. - Preço: Consulte a Página Precificação.
Observação importante: O recurso de entrada em cache está disponível no playground e na API. No entanto, essas informações só podem ser recuperadas por meio da API.
- Contagem de tokens: Consulte o atributo
- Knowledge Cutoff: novembro de 2024
Limites
- Tokens por minuto (TPM)
- Para o aumento do limite de TPM, use o seguinte nome de limite:
grok-4-chat-tokens-per-minute-count(para 200.000 tokens). Consulte Solicitando um Aumento do Limite de Serviço. - Entradas de Imagem
-
- Console: Faça upload de uma ou mais imagens
.pngou.jpg, cada uma com 5 MB ou menos. - API: Submeta uma versão codificada
base64de uma imagem, garantindo que cada imagem convertida tenha mais de 512 e menos de 1.792 tokens. Por exemplo, uma imagem 512 x 512 normalmente é convertida em cerca de 1.610 tokens.
- Console: Faça upload de uma ou mais imagens
Modo sob Demanda
Os modelos Grok só estão disponíveis no modo sob demanda.
| Nome do Modelo | Nome do Modelo do OCI | Nome do Produto da Página de Precificação |
|---|---|---|
| xAI Grok 4 | xai.grok-4 |
xAI – Grok 4 Os preços são listados para:
|
-
Você paga conforme usa para cada chamada de inferência quando usa os modelos no playground ou quando chama os modelos por meio da API.
- Baixa barreira para começar a usar IA generativa.
- Ótimo para experimentação, prova de conceito e avaliação de modelo.
- Disponível para os modelos pré-treinados em regiões não listadas como (somente cluster de IA dedicado).
Datas de Lançamento e Baixa do OCI
Para datas de liberação e baixa e opções de modelo de substituição, consulte Datas de Baixa do Modelo (Modo Sob Demanda).
Parâmetros de Modelo
Para alterar as respostas do modelo, você pode alterar os valores dos parâmetros a seguir no playground ou na API.
- Máximo de tokens de saída
-
O número máximo de tokens que você deseja que o modelo gere para cada resposta. Estime quatro caracteres por token. Como você está solicitando um modelo de chat, a resposta depende do prompt e cada resposta não necessariamente usa o máximo de tokens alocados. O comprimento máximo de prompt + saída é de 128.000 tokens para cada execução.
Dica
Para entradas grandes com problemas difíceis, defina um valor alto para o parâmetro de tokens de saída máxima. Consulte Diagnóstico e Solução de Problemas. - Temperatura
-
O nível de aleatoriedade usado para gerar o texto de saída. Mín.: 0, Máx.: 2
Dica
Comece com a temperatura definida como 0 ou menos de um e aumente a temperatura conforme você gera novamente os prompts para uma saída mais criativa. As altas temperaturas podem introduzir alucinações e informações factualmente incorretas. - Top p
-
Um método de amostragem que controla a probabilidade cumulativa dos principais tokens a serem considerados para o próximo token. Atribua a
pum número decimal entre 0 e 1 para a probabilidade. Por exemplo, insira 0,75 para os 75% principais a serem considerados. Definapcomo 1 para considerar todos os tokens.
O modelo xai.grok-4 tem raciocínio, mas não suporta o parâmetro reasoning_effort usado nos modelos Grok 3 mini e Grok 3 mini rápido. Se você especificar o parâmetro reasoning_effort na API para o modelo xai.grok-4, obterá uma resposta de erro.
Diagnóstico e Solução de Problemas
Problema: O modelo Grok 4 não responde.
Causa: O parâmetro Máximo de tokens de saída no playground ou o parâmetro max_tokens na API provavelmente é muito baixo.
Ação: Aumente o parâmetro máximo de tokens de saída.
Motivo: Para problemas difíceis que exigem raciocínio e solução de problemas, e para entradas sofisticadas de grande porte, o modelo xai.grok-4 tende a pensar e consome muitos tokens; portanto, se o parâmetro max_tokens for muito baixo, o modelo usará os tokens alocados e não retornará uma resposta final.