Google Gemini 2.5 Pro

Importante

Para garantir o alinhamento adequado com os requisitos da Oracle, o acesso a esse modelo é limitado a clientes aprovados. Para ativar esse modelo em sua tenancy, entre em contato com o representante da Oracle.

O modelo Gemini 2.5 Pro (google.gemini-2.5-pro) é um modelo de raciocínio, multimodal que se destaca na resolução de problemas complexos e é o modelo de raciocínio Gemini mais avançado até o momento. Este modelo é a próxima iteração e pré-forma melhor do que a série Gemini 2.0. O modelo Gemini 2.5 Pro é ótimo para entender grandes conjuntos de dados e problemas complexos de diferentes tipos de entrada, como texto, imagens e código.

Disponível nesta região

  • Leste dos EUA (Ashburn) (somente Oracle Interconnect for Google Cloud) e (somente sob demanda)
  • Centro-Oeste dos EUA (Chicago) (somente sob demanda)
  • Oeste dos EUA (Phoenix) (somente sob demanda)
Importante

Chamadas Externas

Os modelos do Google Gemini 2.5 que podem ser acessados por meio do serviço OCI Generative AI são hospedados externamente pelo Google. Portanto, uma chamada para um modelo Google Gemini (por meio do serviço OCI Generative AI) resulta em uma chamada para um local do Google.

Principais Recursos

  • Nome do modelo na OCI Generative AI: google.gemini-2.5-pro
  • Disponível sob Demanda: Acesse esse modelo sob demanda, por meio do playground da Console ou da API.
  • Suporte a Multimodais: insira texto, código e imagens e obtenha uma saída de texto. As entradas de arquivos de áudio e vídeo são suportadas apenas por meio da API. Consulte Entendimento de Imagem, Audio Understanding e Video Understanding.
  • Conhecimento: Tem um profundo conhecimento de domínio em ciência, matemática e código.
  • Tamanho do Contexto: Um milhão de tokens
  • Máximo de Tokens de Entrada: 1.048.576 (Console e API)
  • Máximo de Tokens de Saída: 65.536 (padrão) (Console e API)
  • Excels em Estes Casos de Uso: Aplicativos que exigem um pensamento avançado e profundo, raciocínio aprimorado, explicações detalhadas e compreensão profunda, como codificação avançada, análise científica e extração de conteúdo complexo.
  • Tem Argumento: Sim. Também forte em raciocínio visual e compreensão de imagem. Para problemas de raciocínio, aumente o máximo de tokens de saída. Consulte Parâmetros de Modelo.
  • Knowledge Cutoff: janeiro de 2025

Consulte a tabela a seguir para ver os recursos suportados na Plataforma Google Vertex AI para OCI Generative, com links para cada recurso.

Recursos compatíveis do Gemini 2.5 Pro
Recurso Suportado?
Execução do código Sim
Ajuste Não
Instruções do sistema Sim
Saída estruturada Sim
Previsão do lote Não
Chamada de função Sim
Tokens de Contagem Não
Pensando Sim, mas desativar o processo de pensamento não é suportado.
Cache de contexto Sim, o modelo pode armazenar em cache os tokens de entrada, mas esse recurso não é controlado por meio da API.
Mecanismo RAG da Vertex AI Não
Conclusões de chat Sim

Para obter detalhes sobre os principais recursos, consulte a documentação do Google Gemini 2.5 Pro e o plano de modelo do Google Gemini 2.5 Pro.

Compreensão da Imagem

Tamanho da Imagem
  • Console: Tamanho máximo da imagem: 5 MB
  • API: Máximo de imagens por prompt: 3.000 e tamanho máximo da imagem antes da codificação: 7 MB
Entradas de Imagem Suportadas
  • Formatos da console: png e jpeg
  • API: Na operação Chat, submeta uma versão codificada base64 de uma imagem. Por exemplo, uma imagem 512 x 512 normalmente é convertida em cerca de 1.610 tokens. Os tipos de MIME suportados são: image/png, image/jpeg, image/webp, image/heic e image/heif. Para o formato, consulte Referência ImageContent.
Detalhes Técnicos
Suporta detecção de objeto e segmentação. Consulte Image Understanding na documentação da API Gemini.

Compreensão de Áudio

Formatos de Áudio Suportados
  • Console: não disponível
  • API: Os arquivos de mídia suportados são audio/wav, audio/mp3, audio/aiff, audio/aac, audio/ogg e audio/flac.
Entradas de Áudio Suportadas para a API
  • URL: Converta um formato de áudio suportado em uma versão codificada em base64 do arquivo de áudio.
  • URI: Envie o áudio em um formato Uniform Resource Identifier (URI) para que, sem fazer upload do arquivo, o modelo possa acessar o áudio.

Para o formato, consulte Referência AudioContent.

Detalhes Técnicos
  • Conversão de Token Cada segundo de áudio representa 32 tokens, portanto, um minuto de áudio corresponde a 1.920 tokens.
  • Detecção de Não-Fala: O modelo pode reconhecer componentes que não são de fala, como canções de pássaros e sirenes.
  • Comprimento Máximo: O comprimento máximo de áudio suportado em um único prompt é 9.5 ⁇ hours. Você pode enviar vários arquivos, desde que sua duração combinada permaneça abaixo de 9,5 horas.
  • Redução da amostra: O modelo reduz os arquivos de áudio para uma resolução de 16 ⁇ kbps.
  • Mesclagem de Canais: Se uma origem de áudio tiver vários canais, o modelo os mesclará em um único canal.

Consulte Audio Understanding na documentação da API Gemini.

Compreensão de vídeo

Formatos de Áudio Suportados
  • Console: não disponível
  • API: Os arquivos de mídia suportados são video/mp4, video/mpeg, video/mov, video/avi, video/x-flv, video/mpg, video/webm, video/wmv e video/3gpp.
Entradas de Vídeo Suportadas para a API
  • URL: Converta um formato de vídeo suportado para uma versão codificada em base64 do arquivo de vídeo.
  • URI: Envie o vídeo em um formato Uniform Resource Identifier (URI) para que, sem fazer upload do arquivo, o modelo possa acessar o vídeo.

Para o formato, consulte Referência VideoContent.

Detalhes Técnicos

Consulte Video Understanding na documentação da API Gemini.

Modo sob Demanda

Observação

Os modelos do Gemini só estão disponíveis no modo sob demanda.
Nome do Modelo Nome do Modelo do OCI Nome do Produto da Página de Precificação
Gemini 2.5 Pro google.gemini-2.5-pro Google - Gemini 2.5 Pro
Você pode alcançar os modelos básicos pré-treinados no serviço Generative AI por meio de dois modos: sob demanda e dedicado. Veja a seguir os principais recursos do modo sob demanda:
  • Você paga conforme usa para cada chamada de inferência quando usa os modelos no playground ou quando chama os modelos por meio da API.

  • Baixa barreira para começar a usar IA generativa.
  • Ótimo para experimentação, prova de conceito e avaliação de modelo.
  • Disponível para os modelos pré-treinados em regiões não listadas como (somente cluster de IA dedicado).
Dica

Recomendamos a implementação de uma estratégia de back-off, que envolve o atraso de solicitações após uma rejeição. Sem um, as solicitações rápidas repetidas podem levar a novas rejeições ao longo do tempo, maior latência e possível bloqueio temporário do cliente pelo serviço de IA generativa. Ao usar uma estratégia de back-off, como uma estratégia de back-off exponencial, você pode distribuir solicitações de forma mais uniforme, reduzir a carga e melhorar o sucesso de novas tentativas, seguindo as melhores práticas do setor e aprimorando a estabilidade e o desempenho gerais de sua integração ao serviço.

Data de Liberação

Modelo Data de Liberação Data de Aposentadoria Sob Demanda Data de Baixa do Modo Dedicado
google.gemini-2.5-pro 2025-10-01 Provisório Este modelo não está disponível para o modo dedicado.
Importante

Para saber mais sobre a descontinuação e a desativação do modelo do OCI Generative AI, consulte Desativando os Modelos.

Parâmetros de Modelo

Para alterar as respostas do modelo, você pode alterar os valores dos parâmetros a seguir no playground ou na API.

Máximo de tokens de saída

O número máximo de tokens que você deseja que o modelo gere para cada resposta. Estime quatro caracteres por token. Como você está solicitando um modelo de chat, a resposta depende do prompt e cada resposta não necessariamente usa o máximo de tokens alocados. O comprimento máximo de prompt + saída é de 128.000 tokens para cada execução.

Dica

Para entradas grandes com problemas difíceis, defina um valor alto para o parâmetro de tokens de saída máxima.
Temperatura

O nível de aleatoriedade usado para gerar o texto de saída. Mín.: 0, Máx.: 2, Padrão: 1

Dica

Comece com a temperatura definida como 0 ou menos de um e aumente a temperatura conforme você gera novamente os prompts para uma saída mais criativa. As altas temperaturas podem introduzir alucinações e informações factualmente incorretas.
Top p

Um método de amostragem que controla a probabilidade cumulativa dos principais tokens a serem considerados para o próximo token. Atribua a p um número decimal entre 0 e 1 para a probabilidade. Por exemplo, insira 0,75 para os 75% principais a serem considerados. Defina p como 1 para considerar todos os tokens.

Top k

Um método de amostragem no qual o modelo escolhe o próximo token aleatoriamente dos tokens mais prováveis do top k. Nos modelos Gemini 2.5, o top k tem um valor fixo de 64, o que significa que o modelo considera apenas os 64 tokens mais prováveis (palavras ou partes de palavras) para cada etapa da geração. O token final é então escolhido nesta lista.

Número de Gerações (apenas API)

O parâmetro numGenerations na API controla quantas opções de resposta diferentes o modelo gera para cada prompt.

  • Quando você envia um prompt, o modelo Gemini gera um conjunto de respostas possíveis. Por padrão, ele retorna apenas a resposta com a maior probabilidade (numGenerations = 1).
  • Se você aumentar o parâmetro numGenerations para um número entre 2 e 8, poderá fazer com que o modelo gere de 2 a 8 respostas distintas.