Google Gemini 2.5 Pro (Beta)

Importante

Pré-Disponibilidade Geral: 2025-08-29

O modelo Gemini 2.5 Pro (google.gemini-2.5-pro) é um modelo de raciocínio, multimodal que se destaca na resolução de problemas complexos e é o modelo de raciocínio Gemini mais avançado até o momento. Este modelo é a próxima iteração e pré-forma melhor do que a série Gemini 2.0. O modelo Gemini 2.5 Pro é ótimo para entender grandes conjuntos de dados e problemas complexos de diferentes tipos de entrada, como texto, imagens e código.

Disponível nesta região

  • Leste dos EUA (Ashburn) (somente sob demanda)
Importante

Chamadas Externas

Os modelos do Google Gemini 2.5 que podem ser acessados por meio do serviço OCI Generative AI são hospedados externamente pelo Google. Portanto, uma chamada para um modelo Google Gemini (por meio do serviço OCI Generative AI) resulta em uma chamada para um local do Google.

Principais Recursos

  • Nome do modelo na OCI Generative AI: google.gemini-2.5-pro
  • Disponível sob Demanda: Acesse esse modelo sob demanda, por meio do playground da Console ou da API.
  • Suporte a Multimodais: insira texto, código e imagens e obtenha uma saída de texto. Não há suporte para entradas de arquivo, como arquivos de áudio, vídeo e documento. Consulte Limites para obter os tipos e tamanhos de entradas de imagem.
  • Conhecimento: Tem um profundo conhecimento de domínio em ciência, matemática e código.
  • Tamanho do Contexto: Um milhão de tokens
  • Máximo de Tokens de Entrada: 1.048.576 (Console e API)
  • Máximo de Tokens de Saída: 65.536 (padrão) (Console e API)
  • Excels em Estes Casos de Uso: Aplicativos que exigem um pensamento avançado e profundo, raciocínio aprimorado, explicações detalhadas e compreensão profunda, como codificação avançada, análise científica e extração de conteúdo complexo.
  • Tem Argumento: Sim. Também forte em raciocínio visual e compreensão de imagem. Para problemas de raciocínio, aumente o máximo de tokens de saída. Consulte Parâmetros de Modelo.
  • Knowledge Cutoff: janeiro de 2025

Consulte a tabela a seguir para ver os recursos suportados no Google Vertex AI Platform (Beta) para OCI Generative, com links para cada recurso.

Recursos compatíveis do Gemini 2.5 Pro
Recurso Suportado?
Execução do código Sim
Ajuste Não
Instruções do sistema Sim
Saída estruturada Sim
Previsão do lote Não
Chamada de função Sim
Tokens de Contagem Não
Pensando Sim, mas desativar o processo de pensamento não é suportado.
Cache de contexto Sim, o modelo pode armazenar em cache os tokens de entrada, mas esse recurso não é controlado por meio da API.
Mecanismo RAG da Vertex AI Não
Conclusões de chat Sim

Para obter detalhes sobre os principais recursos, consulte a documentação do Google Gemini 2.5 Pro e o plano de modelo do Google Gemini 2.5 Pro.

Limites

Entradas de Imagem
  • Console: Faça upload de uma ou mais imagens .png ou .jpg, cada uma com 5 MB ou menos.
  • API: Submeta uma versão codificada base64 de uma imagem. Por exemplo, uma imagem 512 x 512 normalmente é convertida em cerca de 1.610 tokens. Os tipos de MIME suportados são image/png, image/jpeg e image/webp.
    • Máximo de imagens por prompt: 3.000
    • Tamanho máximo da imagem antes da codificação: 7 MB

Modo sob Demanda

Você pode alcançar os modelos básicos pré-treinados no serviço Generative AI por meio de dois modos: sob demanda e dedicado. Veja a seguir os principais recursos do modo sob demanda:
  • Você paga conforme usa para cada chamada de inferência quando usa os modelos no playground ou quando chama os modelos por meio da API.

  • Baixa barreira para começar a usar IA generativa.
  • Ótimo para experimentar, comprovar conceitos e avaliar os modelos.
  • Disponível para os modelos pré-treinados em regiões não listadas como (somente cluster de IA dedicado).
Dica

Para garantir acesso confiável aos modelos de IA generativa no modo sob demanda, recomendamos implementar uma estratégia de back-off, que envolve atrasar as solicitações após uma rejeição. Sem um, as solicitações rápidas repetidas podem levar a novas rejeições ao longo do tempo, maior latência e possível bloqueio temporário do cliente pelo serviço de IA generativa. Ao usar uma estratégia de back-off, como uma estratégia de back-off exponencial, você pode distribuir solicitações de forma mais uniforme, reduzir a carga e melhorar o sucesso de novas tentativas, seguindo as melhores práticas do setor e aprimorando a estabilidade e o desempenho gerais de sua integração ao serviço.

Observação

Os modelos do Gemini só estão disponíveis no modo sob demanda.
Nome do Modelo Nome do Modelo do OCI Obtendo Acesso
Gemini 2.5 Pro (Beta) google.gemini-2.5-pro Contact Oracle Beta Programs

Data de Liberação

Modelo Data de lançamento beta Data de Aposentadoria Sob Demanda Data de Baixa do Modo Dedicado
google.gemini-2.5-pro 2,025-8-29 Provisório Este modelo não está disponível para o modo dedicado.
Importante

Para saber mais sobre a descontinuação e a desativação do modelo do OCI Generative AI, consulte Desativando os Modelos.

Parâmetros de Modelo

Para alterar as respostas do modelo, você pode alterar os valores dos parâmetros a seguir no playground ou na API.

Máximo de tokens de saída

O número máximo de tokens que você deseja que o modelo gere para cada resposta. Estime quatro caracteres por token. Como você está solicitando um modelo de chat, a resposta depende do prompt e cada resposta não necessariamente usa o máximo de tokens alocados. O comprimento máximo de prompt + saída é de 128.000 tokens para cada execução.

Dica

Para entradas grandes com problemas difíceis, defina um valor alto para o parâmetro de tokens de saída máxima.
Temperatura

O nível de aleatoriedade usado para gerar o texto de saída. Mín.: 0, Máx.: 2, Padrão: 1

Dica

Comece com a temperatura definida como 0 ou menos de um e aumente a temperatura conforme você gera novamente os prompts para uma saída mais criativa. As altas temperaturas podem introduzir alucinações e informações factualmente incorretas.
Top p

Um método de amostragem que controla a probabilidade cumulativa dos principais tokens a serem considerados para o próximo token. Atribua a p um número decimal entre 0 e 1 para a probabilidade. Por exemplo, insira 0,75 para os 75% principais a serem considerados. Defina p como 1 para considerar todos os tokens.

Top k

Um método de amostragem no qual o modelo escolhe o próximo token aleatoriamente dos tokens mais prováveis do top k. Nos modelos Gemini 2.5, o top k tem um valor fixo de 64, o que significa que o modelo considera apenas os 64 tokens mais prováveis (palavras ou partes de palavras) para cada etapa da geração. O token final é então escolhido nesta lista.

Número de Gerações (apenas API)

O parâmetro numGenerations na API controla quantas opções de resposta diferentes o modelo gera para cada prompt.

  • Quando você envia um prompt, o modelo Gemini gera um conjunto de respostas possíveis. Por padrão, ele retorna apenas a resposta com a maior probabilidade (numGenerations = 1).
  • Se você aumentar o parâmetro numGenerations para um número entre 2 e 8, poderá fazer com que o modelo gere de 2 a 8 respostas distintas.