xAI Grok 4 (New)

O modelo xai.grok-4 tem melhor desempenho do que seu antecessor, Grok 3, e se destaca em casos de uso empresarial, como extração de dados, codificação e resumo de texto. Este modelo tem um profundo conhecimento de domínio em finanças, saúde, direito e ciência.

Disponível nestas regiões

  • Leste dos EUA (Ashburn) (somente sob demanda)
  • Centro-Oeste dos EUA (Chicago) (somente sob demanda)
  • Oeste dos EUA (Phoenix) (somente sob demanda)
Importante

Chamadas Externas

Os modelos xAI Grok que podem ser acessados por meio do serviço OCI Generative AI são hospedados externamente pelo xAI. Portanto, uma chamada para um modelo xAI Grok (por meio do serviço OCI Generative AI) pode resultar em uma chamada para um local xAI.

Principais Recursos

  • Nome do modelo na OCI Generative AI: xai.grok-4
  • Disponível sob Demanda: Acesse esse modelo sob demanda, por meio do playground da Console ou da API.
  • Suporte multimodal: insira texto e imagens e obtenha uma saída de texto.
  • Conhecimento: Tem um profundo conhecimento em finanças, assistência médica, direito e ciência.
  • Tamanho do Contexto: 128.000 tokens (o tamanho máximo do prompt + da resposta é de 128.000 tokens para cada execução). No playground, o comprimento da resposta é limitado a 16.000 tokens para cada execução.
  • Excels em Estes Casos de Uso: Extração de dados, codificação e resumo de texto
  • Chamada de Função: Sim, por meio da API.
  • Saídas Estruturadas: Sim.
  • Tem Motivo:Sim. Para problemas de raciocínio, aumente o máximo de tokens de saída. Consulte Parâmetros de Modelo.
  • Knowledge Cutoff: novembro de 2024

Limites

Entradas de Imagem
  • Console: Faça upload de uma ou mais imagens .png ou .jpg, cada uma com 5 MB ou menos.
  • API: Submeta uma versão codificada base64 de uma imagem, garantindo que cada imagem convertida tenha mais de 512 e menos de 1.792 tokens. Por exemplo, uma imagem 512 x 512 normalmente é convertida em cerca de 1.610 tokens.

Modo sob Demanda

Você pode alcançar os modelos básicos pré-treinados no serviço Generative AI por meio de dois modos: sob demanda e dedicado. Veja a seguir os principais recursos do modo sob demanda:
  • Você paga conforme usa para cada chamada de inferência quando usa os modelos no playground ou quando chama os modelos por meio da API.

  • Baixa barreira para começar a usar IA generativa.
  • Ótimo para experimentar, comprovar conceitos e avaliar os modelos.
  • Disponível para os modelos pré-treinados em regiões não listadas como (somente cluster de IA dedicado).
Dica

Para garantir acesso confiável aos modelos de IA generativa no modo sob demanda, recomendamos implementar uma estratégia de back-off, que envolve atrasar as solicitações após uma rejeição. Sem um, as solicitações rápidas repetidas podem levar a novas rejeições ao longo do tempo, maior latência e possível bloqueio temporário do cliente pelo serviço de IA generativa. Ao usar uma estratégia de back-off, como uma estratégia de back-off exponencial, você pode distribuir solicitações de forma mais uniforme, reduzir a carga e melhorar o sucesso de novas tentativas, seguindo as melhores práticas do setor e aprimorando a estabilidade e o desempenho gerais de sua integração ao serviço.

Observação

Os modelos Grok só estão disponíveis no modo sob demanda.

Consulte a tabela a seguir para obter o nome do produto deste modelo na página de preços.

Nome do Modelo Nome do Modelo do OCI Nome do Produto da Página de Precificação
xAI Grok 4 xai.grok-4 xAI – Grok 4

Data de Liberação

Modelo Data de Liberação da Disponibilidade Geral Data de Aposentadoria Sob Demanda Data de Baixa do Modo Dedicado
xai.grok-4 2,025-7-23 Provisório Este modelo não está disponível para o modo dedicado.
Importante

Para obter uma lista de todas as linhas de tempo do modelo e detalhes de baixa, consulte Desativando os Modelos.

Parâmetros de Modelo

Para alterar as respostas do modelo, você pode alterar os valores dos parâmetros a seguir no playground ou na API.

Máximo de tokens de saída

O número máximo de tokens que você deseja que o modelo gere para cada resposta. Estime quatro caracteres por token. Como você está solicitando um modelo de chat, a resposta depende do prompt e cada resposta não necessariamente usa o máximo de tokens alocados. O comprimento máximo de prompt + saída é de 128.000 tokens para cada execução.

Dica

Para entradas grandes com problemas difíceis, defina um valor alto para o parâmetro de tokens de saída máxima. Consulte Diagnóstico e Solução de Problemas.
Temperatura

O nível de aleatoriedade usado para gerar o texto de saída. Mín.: 0, Máx.: 2

Dica

Comece com a temperatura definida como 0 ou menos de um e aumente a temperatura conforme você gera novamente os prompts para uma saída mais criativa. As altas temperaturas podem introduzir alucinações e informações factualmente incorretas.
Top p

Um método de amostragem que controla a probabilidade cumulativa dos principais tokens a serem considerados para o próximo token. Atribua a p um número decimal entre 0 e 1 para a probabilidade. Por exemplo, insira 0,75 para os 75% principais a serem considerados. Defina p como 1 para considerar todos os tokens.

Observação

O modelo xai.grok-4 tem raciocínio, mas não suporta o parâmetro reasoning_effort usado nos modelos Grok 3 mini e Grok 3 mini rápido. Se você especificar o parâmetro reasoning_effort na API para o modelo xai.grok-4, obterá uma resposta de erro.

Diagnóstico e Solução de Problemas

Problema: O modelo Grok 4 não responde.

Causa: O parâmetro Máximo de tokens de saída no playground ou o parâmetro max_tokens na API provavelmente é muito baixo.

Ação: Aumente o parâmetro máximo de tokens de saída.

Motivo: Para problemas difíceis que exigem raciocínio e solução de problemas, e para entradas sofisticadas de grande porte, o modelo xai.grok-4 tende a pensar e consome muitos tokens; portanto, se o parâmetro max_tokens for muito baixo, o modelo usará os tokens alocados e não retornará uma resposta final.