Google Gemini 2.5 Pro
Para garantir o alinhamento adequado com os requisitos da Oracle, o acesso a esse modelo é limitado a clientes aprovados. Para ativar esse modelo em sua tenancy, entre em contato com o representante da Oracle.
O modelo Gemini 2.5 Pro (google.gemini-2.5-pro
) é um modelo de raciocínio, multimodal que se destaca na resolução de problemas complexos e é o modelo de raciocínio Gemini mais avançado até o momento. Este modelo é a próxima iteração e pré-forma melhor do que a série Gemini 2.0. O modelo Gemini 2.5 Pro é ótimo para entender grandes conjuntos de dados e problemas complexos de diferentes tipos de entrada, como texto, imagens e código.
Disponível nesta região
- Leste dos EUA (Ashburn) (somente Oracle Interconnect for Google Cloud) e (somente sob demanda)
- Centro-Oeste dos EUA (Chicago) (somente sob demanda)
- Oeste dos EUA (Phoenix) (somente sob demanda)
Chamadas Externas
Os modelos do Google Gemini 2.5 que podem ser acessados por meio do serviço OCI Generative AI são hospedados externamente pelo Google. Portanto, uma chamada para um modelo Google Gemini (por meio do serviço OCI Generative AI) resulta em uma chamada para um local do Google.
Principais Recursos
- Nome do modelo na OCI Generative AI:
google.gemini-2.5-pro
- Disponível sob Demanda: Acesse esse modelo sob demanda, por meio do playground da Console ou da API.
- Suporte a Multimodais: insira texto, código e imagens e obtenha uma saída de texto. As entradas de arquivos de áudio e vídeo são suportadas apenas por meio da API. Consulte Entendimento de Imagem, Audio Understanding e Video Understanding.
- Conhecimento: Tem um profundo conhecimento de domínio em ciência, matemática e código.
- Tamanho do Contexto: Um milhão de tokens
- Máximo de Tokens de Entrada: 1.048.576 (Console e API)
- Máximo de Tokens de Saída: 65.536 (padrão) (Console e API)
- Excels em Estes Casos de Uso: Aplicativos que exigem um pensamento avançado e profundo, raciocínio aprimorado, explicações detalhadas e compreensão profunda, como codificação avançada, análise científica e extração de conteúdo complexo.
- Tem Argumento: Sim. Também forte em raciocínio visual e compreensão de imagem. Para problemas de raciocínio, aumente o máximo de tokens de saída. Consulte Parâmetros de Modelo.
- Knowledge Cutoff: janeiro de 2025
Consulte a tabela a seguir para ver os recursos suportados na Plataforma Google Vertex AI para OCI Generative, com links para cada recurso.
Recurso | Suportado? |
---|---|
Execução do código | Sim |
Ajuste | Não |
Instruções do sistema | Sim |
Saída estruturada | Sim |
Previsão do lote | Não |
Chamada de função | Sim |
Tokens de Contagem | Não |
Pensando | Sim, mas desativar o processo de pensamento não é suportado. |
Cache de contexto | Sim, o modelo pode armazenar em cache os tokens de entrada, mas esse recurso não é controlado por meio da API. |
Mecanismo RAG da Vertex AI | Não |
Conclusões de chat | Sim |
Para obter detalhes sobre os principais recursos, consulte a documentação do Google Gemini 2.5 Pro e o plano de modelo do Google Gemini 2.5 Pro.
Compreensão da Imagem
- Tamanho da Imagem
-
- Console: Tamanho máximo da imagem: 5 MB
- API: Máximo de imagens por prompt: 3.000 e tamanho máximo da imagem antes da codificação: 7 MB
- Entradas de Imagem Suportadas
-
- Formatos da console:
png
ejpeg
- API: Na operação Chat, submeta uma versão codificada
base64
de uma imagem. Por exemplo, uma imagem 512 x 512 normalmente é convertida em cerca de 1.610 tokens. Os tipos de MIME suportados são:image/png
,image/jpeg
,image/webp
,image/heic
eimage/heif
. Para o formato, consulte Referência ImageContent.
- Formatos da console:
- Detalhes Técnicos
- Suporta detecção de objeto e segmentação. Consulte Image Understanding na documentação da API Gemini.
Compreensão de Áudio
- Formatos de Áudio Suportados
-
- Console: não disponível
- API: Os arquivos de mídia suportados são
audio/wav
,audio/mp3
,audio/aiff
,audio/aac
,audio/ogg
eaudio/flac
.
- Entradas de Áudio Suportadas para a API
-
- URL: Converta um formato de áudio suportado em uma versão codificada em
base64
do arquivo de áudio. - URI: Envie o áudio em um formato Uniform Resource Identifier (URI) para que, sem fazer upload do arquivo, o modelo possa acessar o áudio.
- URL: Converta um formato de áudio suportado em uma versão codificada em
- Detalhes Técnicos
-
- Conversão de Token Cada segundo de áudio representa 32 tokens, portanto, um minuto de áudio corresponde a 1.920 tokens.
- Detecção de Não-Fala: O modelo pode reconhecer componentes que não são de fala, como canções de pássaros e sirenes.
- Comprimento Máximo: O comprimento máximo de áudio suportado em um único prompt é 9.5 ⁇ hours. Você pode enviar vários arquivos, desde que sua duração combinada permaneça abaixo de 9,5 horas.
- Redução da amostra: O modelo reduz os arquivos de áudio para uma resolução de 16 ⁇ kbps.
- Mesclagem de Canais: Se uma origem de áudio tiver vários canais, o modelo os mesclará em um único canal.
Consulte Audio Understanding na documentação da API Gemini.
Compreensão de vídeo
- Formatos de Áudio Suportados
-
- Console: não disponível
- API: Os arquivos de mídia suportados são
video/mp4
,video/mpeg
,video/mov
,video/avi
,video/x-flv
,video/mpg
,video/webm
,video/wmv
evideo/3gpp
.
- Entradas de Vídeo Suportadas para a API
-
- URL: Converta um formato de vídeo suportado para uma versão codificada em
base64
do arquivo de vídeo. - URI: Envie o vídeo em um formato Uniform Resource Identifier (URI) para que, sem fazer upload do arquivo, o modelo possa acessar o vídeo.
- URL: Converta um formato de vídeo suportado para uma versão codificada em
- Detalhes Técnicos
-
Consulte Video Understanding na documentação da API Gemini.
Modo sob Demanda
Os modelos do Gemini só estão disponíveis no modo sob demanda.
Nome do Modelo | Nome do Modelo do OCI | Nome do Produto da Página de Precificação |
---|---|---|
Gemini 2.5 Pro | google.gemini-2.5-pro |
Google - Gemini 2.5 Pro |
-
Você paga conforme usa para cada chamada de inferência quando usa os modelos no playground ou quando chama os modelos por meio da API.
- Baixa barreira para começar a usar IA generativa.
- Ótimo para experimentação, prova de conceito e avaliação de modelo.
- Disponível para os modelos pré-treinados em regiões não listadas como (somente cluster de IA dedicado).
Recomendamos a implementação de uma estratégia de back-off, que envolve o atraso de solicitações após uma rejeição. Sem um, as solicitações rápidas repetidas podem levar a novas rejeições ao longo do tempo, maior latência e possível bloqueio temporário do cliente pelo serviço de IA generativa. Ao usar uma estratégia de back-off, como uma estratégia de back-off exponencial, você pode distribuir solicitações de forma mais uniforme, reduzir a carga e melhorar o sucesso de novas tentativas, seguindo as melhores práticas do setor e aprimorando a estabilidade e o desempenho gerais de sua integração ao serviço.
Data de Liberação
Modelo | Data de Liberação | Data de Aposentadoria Sob Demanda | Data de Baixa do Modo Dedicado |
---|---|---|---|
google.gemini-2.5-pro |
2025-10-01 | Provisório | Este modelo não está disponível para o modo dedicado. |
Para saber mais sobre a descontinuação e a desativação do modelo do OCI Generative AI, consulte Desativando os Modelos.
Parâmetros de Modelo
Para alterar as respostas do modelo, você pode alterar os valores dos parâmetros a seguir no playground ou na API.
- Máximo de tokens de saída
-
O número máximo de tokens que você deseja que o modelo gere para cada resposta. Estime quatro caracteres por token. Como você está solicitando um modelo de chat, a resposta depende do prompt e cada resposta não necessariamente usa o máximo de tokens alocados. O comprimento máximo de prompt + saída é de 128.000 tokens para cada execução.
Dica
Para entradas grandes com problemas difíceis, defina um valor alto para o parâmetro de tokens de saída máxima. - Temperatura
-
O nível de aleatoriedade usado para gerar o texto de saída. Mín.: 0, Máx.: 2, Padrão: 1
Dica
Comece com a temperatura definida como 0 ou menos de um e aumente a temperatura conforme você gera novamente os prompts para uma saída mais criativa. As altas temperaturas podem introduzir alucinações e informações factualmente incorretas. - Top p
-
Um método de amostragem que controla a probabilidade cumulativa dos principais tokens a serem considerados para o próximo token. Atribua a
p
um número decimal entre 0 e 1 para a probabilidade. Por exemplo, insira 0,75 para os 75% principais a serem considerados. Definap
como 1 para considerar todos os tokens. - Top k
-
Um método de amostragem no qual o modelo escolhe o próximo token aleatoriamente dos tokens mais prováveis do
top k
. Nos modelos Gemini 2.5, o top k tem um valor fixo de 64, o que significa que o modelo considera apenas os 64 tokens mais prováveis (palavras ou partes de palavras) para cada etapa da geração. O token final é então escolhido nesta lista. - Número de Gerações (apenas API)
-
O parâmetro
numGenerations
na API controla quantas opções de resposta diferentes o modelo gera para cada prompt.- Quando você envia um prompt, o modelo Gemini gera um conjunto de respostas possíveis. Por padrão, ele retorna apenas a resposta com a maior probabilidade (
numGenerations = 1
). - Se você aumentar o parâmetro
numGenerations
para um número entre 2 e 8, poderá fazer com que o modelo gere de 2 a 8 respostas distintas.
- Quando você envia um prompt, o modelo Gemini gera um conjunto de respostas possíveis. Por padrão, ele retorna apenas a resposta com a maior probabilidade (