Google Gemini 2.5 Pro (Beta)

Importante

Disponibilità provvisoria: 2025-08-29

Il modello Gemini 2.5 Pro (google.gemini-2.5-pro) è un modello di ragionamento multimodale che eccelle nella risoluzione di problemi complessi ed è il modello di ragionamento Gemini più avanzato finora. Questo modello è la prossima iterazione e preforma meglio della serie Gemini 2.0. Il modello Gemini 2.5 Pro è ottimo per comprendere set di dati di grandi dimensioni e problemi complessi da diversi tipi di input, come testo, immagini e codice.

Disponibile in quest'area

  • US East (Ashburn) (solo on-demand)
Importante

Chiamate esterne

I modelli Google Gemini 2.5 a cui è possibile accedere tramite il servizio OCI Generative AI sono ospitati esternamente da Google. Pertanto, una chiamata a un modello Google Gemini (tramite il servizio OCI Generative AI) comporta una chiamata a una posizione Google.

Caratteristiche principali

  • Nome del modello nell'AI generativa OCI: google.gemini-2.5-pro
  • Disponibile su richiesta: accedi a questo modello on-demand tramite l'area di gioco della console o l'API.
  • Supporto multimodale: inserire testo, codice e immagini e ottenere un output di testo. Gli input di file come file audio, video e documenti non sono supportati. Vedere Limiti per informazioni sui tipi e le dimensioni degli input di immagine.
  • Knowledge: dispone di una conoscenza approfondita del dominio in scienza, matematica e codice.
  • Lunghezza contesto: un milione di token
  • Numero massimo di token di input: 1.048.576 (console e API)
  • Numero massimo di token di output: 65.536 (impostazione predefinita) (console e API)
  • Escelte in questi casi d'uso: applicazioni che richiedono un pensiero approfondito potente, un ragionamento avanzato, spiegazioni dettagliate e una comprensione approfondita, come la codifica avanzata, l'analisi scientifica e l'estrazione di contenuti complessi.
  • Motivo: Sì. Forte anche nel ragionamento visivo e nella comprensione dell'immagine. Per i problemi di ragionamento aumentare il numero massimo di token di output. Vedere Parametri del modello.
  • Knowledge Cutoff: gennaio 2025

Vedere la tabella seguente per le funzioni supportate nella piattaforma AI di Google Vertex (Beta) per OCI Generative, con collegamenti a ciascuna funzione.

Caratteristiche di Gemini 2.5 Pro
Funzione Supportato?
Esecuzione codice
Tuning N
Istruzioni di sistema
Output strutturato
Previsione batch N
Chiamata alla funzione
Token inventario N
Pensieroso Sì, ma disattivare il processo di pensiero non è supportato.
Inserimento nella cache del contesto Sì, il modello può inserire nella cache i token di input, ma questa funzione non è controllata tramite l'API.
Motore RAG AI Vertex N
Completamenti chat

Per i dettagli sulle funzionalità principali, consulta la documentazione di Google Gemini 2.5 Pro e la scheda modello di Google Gemini 2.5 Pro.

Limiti

Input immagine
  • Console: caricare una o più immagini .png o .jpg, ciascuna di 5 MB o inferiore.
  • API: inviare una versione codificata base64 di un'immagine. Ad esempio, un'immagine 512 x 512 in genere converte in circa 1.610 token. I tipi MIME supportati sono image/png, image/jpeg e image/webp.
    • Numero massimo di immagini per prompt: 3.000
    • Dimensione massima dell'immagine prima della codifica: 7 MB

Modalità su richiesta

Puoi raggiungere i modelli di base pre-addestrati nell'intelligenza artificiale generativa attraverso due modalità: on-demand e dedicato. Di seguito sono riportate le funzioni principali per la modalità on-demand.
  • È possibile pagare man mano per ogni chiamata di inferenza quando si utilizzano i modelli nell'area di gioco o quando si chiamano i modelli tramite l'API.

  • Barriera bassa per iniziare a utilizzare l'intelligenza artificiale generativa.
  • Ottimo per sperimentare, dimostrare i concetti e valutare i modelli.
  • Disponibile per i modelli pre-addestrati in aree non elencate come (solo cluster AI dedicato).
Suggerimento

Per garantire un accesso affidabile AI modelli di intelligenza artificiale generativa in modalità on-demand, si consiglia di implementare una strategia di back-off, che prevede il ritardo delle richieste dopo un rifiuto. Senza una richiesta, le ripetute richieste rapide possono portare a ulteriori rifiuti nel tempo, a una maggiore latenza e a un potenziale blocco temporaneo del client da parte del servizio di intelligenza artificiale generativa. Utilizzando una strategia di back-off, ad esempio una strategia di back-off esponenziale, puoi distribuire le richieste in modo più uniforme, ridurre il carico e migliorare il successo dei nuovi tentativi, seguendo le best practice del settore e migliorando la stabilità e le prestazioni complessive della tua integrazione nel servizio.

Nota

I modelli Gemelli sono disponibili solo in modalità su richiesta.
Nome modello Nome modello OCI Recupero dell'accesso
Gemini 2.5 Pro (Beta) google.gemini-2.5-pro Contact Oracle Beta Programs

Data di rilascio

Modello Data rilascio beta Data smobilizzo su richiesta Data smobilizzo modalità dedicata
google.gemini-2.5-pro 2.025-8-29 Provvisorio Questo modello non è disponibile per la modalità dedicata.
Importante

Per ulteriori informazioni sull'obsolescenza e lo smobilizzo del modello di AI generativa OCI, vedere Ritiro dei modelli.

Parametri modello

Per modificare le risposte del modello, è possibile modificare i valori dei seguenti parametri nell'area di gioco o nell'API.

Numero massimo di token di output

Numero massimo di token che si desidera venga generato dal modello per ogni risposta. Ogni risposta. Stima quattro caratteri per token. Poiché si sta richiedendo un modello di chat, la risposta dipende dal prompt e ogni risposta non utilizza necessariamente il numero massimo di token allocati. La lunghezza massima del prompt + output è di 128.000 token per ogni esecuzione.

Suggerimento

Per input di grandi dimensioni con problemi difficili, impostare un valore elevato per il parametro del numero massimo di token di output.
Temperatura

Livello di casualità utilizzato per generare il testo di output. Min: 0, Max: 2, Predefinito: 1

Suggerimento

Iniziare con la temperatura impostata su 0 o meno e aumentare la temperatura quando si rigenerano i prompt per ottenere un output più creativo. Le alte temperature possono introdurre allucinazioni e informazioni di fatto errate.
Top p

Metodo di campionamento che controlla la probabilità cumulativa dei primi token da considerare per il token successivo. Assegnare a p un numero decimale compreso tra 0 e 1 per la probabilità. Ad esempio, immettere 0,75 per il primo 75% da considerare. Impostare p su 1 per considerare tutti i token.

Top k

Metodo di campionamento in cui il modello sceglie il token successivo in modo casuale dai token top k con maggiore probabilità. Nei modelli Gemini 2.5, la top k ha un valore fisso di 64, il che significa che il modello considera solo i 64 token più probabili (parole o parti di parole) per ogni fase della generazione. Il token finale viene quindi scelto da questa lista.

Numero di generazioni (solo API)

Il parametro numGenerations nell'API controlla il numero di opzioni di risposta diverse generate dal modello per ogni prompt.

  • Quando si invia un prompt, il modello Gemelli genera una serie di possibili risposte. Per impostazione predefinita, restituisce solo la risposta con la probabilità più alta (numGenerations = 1).
  • Se si aumenta il parametro numGenerations a un numero compreso tra 2 e 8, è possibile fare in modo che il modello generi da 2 a 8 risposte distinte.