Google Gemini 2.5 Pro (Beta)
Pré-Disponibilidade Geral: 2025-08-29
Esta documentação está em um status de Pré-disponibilidade Geral (Pré-GA) e destina-se somente a fins de demonstração e uso preliminar. O documento pode não ser específico para o equipamento ("hardware") no qual você está usando o programa de computador ("software"). A Oracle Corporation e suas empresas afiliadas não fornecem quaisquer garantias relacionadas à documentação e estão isentas de qualquer responsabilidade decorrente de perdas, despesas ou danos incorridos no uso desta documentação.
Esta documentação não é um compromisso da Oracle em entregar qualquer material, código, funcionalidade ou serviços. Esta documentação e os programas e serviços Pré-GA da Oracle estão sujeitos a alterações a qualquer momento sem aviso prévio e, portanto, não devem ser considerados na tomada de decisões de compra. O desenvolvimento, a liberação e a data de disponibilidade de quaisquer recursos ou funcionalidades para programas e serviços Pré-GA da Oracle são de critério exclusivo da Oracle. Todas as datas de lançamento ou outras previsões de eventos futuros estão sujeitas a alterações. A disponibilidade futura de qualquer programa ou serviço futuro da Oracle não deverá ser considerada na celebração de qualquer contrato de licença ou de serviço com a Oracle.
O modelo Gemini 2.5 Pro (google.gemini-2.5-pro
) é um modelo de raciocínio, multimodal que se destaca na resolução de problemas complexos e é o modelo de raciocínio Gemini mais avançado até o momento. Este modelo é a próxima iteração e pré-forma melhor do que a série Gemini 2.0. O modelo Gemini 2.5 Pro é ótimo para entender grandes conjuntos de dados e problemas complexos de diferentes tipos de entrada, como texto, imagens e código.
Disponível nesta região
- Leste dos EUA (Ashburn) (somente sob demanda)
Chamadas Externas
Os modelos do Google Gemini 2.5 que podem ser acessados por meio do serviço OCI Generative AI são hospedados externamente pelo Google. Portanto, uma chamada para um modelo Google Gemini (por meio do serviço OCI Generative AI) resulta em uma chamada para um local do Google.
Principais Recursos
- Nome do modelo na OCI Generative AI:
google.gemini-2.5-pro
- Disponível sob Demanda: Acesse esse modelo sob demanda, por meio do playground da Console ou da API.
- Suporte a Multimodais: insira texto, código e imagens e obtenha uma saída de texto. Não há suporte para entradas de arquivo, como arquivos de áudio, vídeo e documento. Consulte Limites para obter os tipos e tamanhos de entradas de imagem.
- Conhecimento: Tem um profundo conhecimento de domínio em ciência, matemática e código.
- Tamanho do Contexto: Um milhão de tokens
- Máximo de Tokens de Entrada: 1.048.576 (Console e API)
- Máximo de Tokens de Saída: 65.536 (padrão) (Console e API)
- Excels em Estes Casos de Uso: Aplicativos que exigem um pensamento avançado e profundo, raciocínio aprimorado, explicações detalhadas e compreensão profunda, como codificação avançada, análise científica e extração de conteúdo complexo.
- Tem Argumento: Sim. Também forte em raciocínio visual e compreensão de imagem. Para problemas de raciocínio, aumente o máximo de tokens de saída. Consulte Parâmetros de Modelo.
- Knowledge Cutoff: janeiro de 2025
Consulte a tabela a seguir para ver os recursos suportados no Google Vertex AI Platform (Beta) para OCI Generative, com links para cada recurso.
Recurso | Suportado? |
---|---|
Execução do código | Sim |
Ajuste | Não |
Instruções do sistema | Sim |
Saída estruturada | Sim |
Previsão do lote | Não |
Chamada de função | Sim |
Tokens de Contagem | Não |
Pensando | Sim, mas desativar o processo de pensamento não é suportado. |
Cache de contexto | Sim, o modelo pode armazenar em cache os tokens de entrada, mas esse recurso não é controlado por meio da API. |
Mecanismo RAG da Vertex AI | Não |
Conclusões de chat | Sim |
Para obter detalhes sobre os principais recursos, consulte a documentação do Google Gemini 2.5 Pro e o plano de modelo do Google Gemini 2.5 Pro.
Limites
- Entradas de Imagem
-
- Console: Faça upload de uma ou mais imagens
.png
ou.jpg
, cada uma com 5 MB ou menos. - API: Submeta uma versão codificada
base64
de uma imagem. Por exemplo, uma imagem 512 x 512 normalmente é convertida em cerca de 1.610 tokens. Os tipos de MIME suportados sãoimage/png
,image/jpeg
eimage/webp
.- Máximo de imagens por prompt: 3.000
- Tamanho máximo da imagem antes da codificação: 7 MB
- Console: Faça upload de uma ou mais imagens
Modo sob Demanda
-
Você paga conforme usa para cada chamada de inferência quando usa os modelos no playground ou quando chama os modelos por meio da API.
- Baixa barreira para começar a usar IA generativa.
- Ótimo para experimentar, comprovar conceitos e avaliar os modelos.
- Disponível para os modelos pré-treinados em regiões não listadas como (somente cluster de IA dedicado).
Para garantir acesso confiável aos modelos de IA generativa no modo sob demanda, recomendamos implementar uma estratégia de back-off, que envolve atrasar as solicitações após uma rejeição. Sem um, as solicitações rápidas repetidas podem levar a novas rejeições ao longo do tempo, maior latência e possível bloqueio temporário do cliente pelo serviço de IA generativa. Ao usar uma estratégia de back-off, como uma estratégia de back-off exponencial, você pode distribuir solicitações de forma mais uniforme, reduzir a carga e melhorar o sucesso de novas tentativas, seguindo as melhores práticas do setor e aprimorando a estabilidade e o desempenho gerais de sua integração ao serviço.
Os modelos do Gemini só estão disponíveis no modo sob demanda.
Nome do Modelo | Nome do Modelo do OCI | Obtendo Acesso |
---|---|---|
Gemini 2.5 Pro (Beta) | google.gemini-2.5-pro |
Contact Oracle Beta Programs |
Data de Liberação
Modelo | Data de lançamento beta | Data de Aposentadoria Sob Demanda | Data de Baixa do Modo Dedicado |
---|---|---|---|
google.gemini-2.5-pro |
2,025-8-29 | Provisório | Este modelo não está disponível para o modo dedicado. |
Para saber mais sobre a descontinuação e a desativação do modelo do OCI Generative AI, consulte Desativando os Modelos.
Parâmetros de Modelo
Para alterar as respostas do modelo, você pode alterar os valores dos parâmetros a seguir no playground ou na API.
- Máximo de tokens de saída
-
O número máximo de tokens que você deseja que o modelo gere para cada resposta. Estime quatro caracteres por token. Como você está solicitando um modelo de chat, a resposta depende do prompt e cada resposta não necessariamente usa o máximo de tokens alocados. O comprimento máximo de prompt + saída é de 128.000 tokens para cada execução.
Dica
Para entradas grandes com problemas difíceis, defina um valor alto para o parâmetro de tokens de saída máxima. - Temperatura
-
O nível de aleatoriedade usado para gerar o texto de saída. Mín.: 0, Máx.: 2, Padrão: 1
Dica
Comece com a temperatura definida como 0 ou menos de um e aumente a temperatura conforme você gera novamente os prompts para uma saída mais criativa. As altas temperaturas podem introduzir alucinações e informações factualmente incorretas. - Top p
-
Um método de amostragem que controla a probabilidade cumulativa dos principais tokens a serem considerados para o próximo token. Atribua a
p
um número decimal entre 0 e 1 para a probabilidade. Por exemplo, insira 0,75 para os 75% principais a serem considerados. Definap
como 1 para considerar todos os tokens. - Top k
-
Um método de amostragem no qual o modelo escolhe o próximo token aleatoriamente dos tokens mais prováveis do
top k
. Nos modelos Gemini 2.5, o top k tem um valor fixo de 64, o que significa que o modelo considera apenas os 64 tokens mais prováveis (palavras ou partes de palavras) para cada etapa da geração. O token final é então escolhido nesta lista. - Número de Gerações (apenas API)
-
O parâmetro
numGenerations
na API controla quantas opções de resposta diferentes o modelo gera para cada prompt.- Quando você envia um prompt, o modelo Gemini gera um conjunto de respostas possíveis. Por padrão, ele retorna apenas a resposta com a maior probabilidade (
numGenerations = 1
). - Se você aumentar o parâmetro
numGenerations
para um número entre 2 e 8, poderá fazer com que o modelo gere de 2 a 8 respostas distintas.
- Quando você envia um prompt, o modelo Gemini gera um conjunto de respostas possíveis. Por padrão, ele retorna apenas a resposta com a maior probabilidade (