Google Gemini 2.5 Pro
Pour assurer un alignement correct avec les exigences d'Oracle, l'accès à ce modèle est limité aux clients approuvés. Pour activer ce modèle dans votre location, communiquez avec votre représentant Oracle.
Le modèle Gemini 2.5 Pro (google.gemini-2.5-pro
) est un modèle de raisonnement multimodal qui excelle dans la résolution de problèmes complexes et est le modèle Gemini de raisonnement le plus avancé à ce jour. Ce modèle est la prochaine itération et se présente mieux que la série Gemini 2.0. Le modèle Gemini 2.5 Pro est idéal pour comprendre les grands ensembles de données et les problèmes complexes de différents types d'entrée, tels que le texte, les images et le code.
Disponible dans cette région
- États-Unis - Est (Ashburn) (Oracle Interconnect for Google Cloud uniquement) et (sur demande uniquement)
- Midwest des États-Unis (Chicago) (sur demande seulement)
- États-Unis - Ouest (Phoenix) (sur demande seulement)
Appels externes
Les modèles Google Gemini 2.5 accessibles au moyen du service d'intelligence artificielle générative pour OCI sont hébergés en externe par Google. Par conséquent, un appel à un modèle Google Gemini (au moyen du service d'intelligence artificielle générative pour OCI) entraîne un appel à un emplacement Google.
Principales fonctions
- Nom du modèle dans le service d'intelligence artificielle générative pour OCI :
google.gemini-2.5-pro
- Disponible sur demande : Accédez à ce modèle sur demande au moyen du terrain de jeu de la console ou de l'API.
- Prise en charge multimodale : Entrez du texte, du code et des images et obtenez une sortie de texte. Les entrées de fichiers audio et vidéo ne sont prises en charge que par l'API. Voir Compréhension d'images, Compréhension audio et Compréhension vidéo.
- Connaissance : A une connaissance approfondie du domaine en sciences, mathématiques et code.
- Longueur de contexte : Un million de jetons
- Nombre maximal de jetons d'entrée : 1 048 576 (console et API)
- Jetons de sortie maximum : 65 536 (par défaut) (console et API)
- Excelle dans ces cas d'utilisation : Applications qui nécessitent une réflexion approfondie puissante, un raisonnement amélioré, des explications détaillées et une compréhension approfondie, telles que le codage avancé, l'analyse scientifique et l'extraction de contenu complexe.
- A un motif : Oui. Aussi fort au raisonnement visuel et à la compréhension de l'image. Pour les problèmes de raisonnement augmenter les jetons de sortie maximum. Voir Paramètres de modèle.
- Arrêt des connaissances : Janvier 2025
Voir le tableau suivant pour les fonctions prises en charge dans la plate-forme d'intelligence artificielle de Google Vertex pour OCI Generative, avec des liens vers chaque fonction.
Fonction | Prise en charge? |
---|---|
Exécution de code | Oui |
Réglage | Nombre |
Instructions système | Oui |
Sortie structurée | Oui |
Prévisions par lot | Nombre |
Appel de fonction | Oui |
Compter les jetons | Nombre |
Penser | Oui, mais la désactivation du processus de réflexion n'est pas prise en charge. |
Mise en cache du contexte | Oui, le modèle peut mettre en mémoire cache les jetons d'entrée, mais cette fonction n'est pas contrôlée par l'API. |
Moteur RAG IA Vertex | Nombre |
Achèvements de clavardage | Oui |
Pour plus de détails sur les fonctions clés, consultez la documentation sur Google Gemini 2.5 Pro et la carte de modèle Google Gemini 2.5 Pro.
Présentation des images
- Taille de l'image
-
- Console : Taille maximale de l'image : 5 Mo
- API : Nombre maximal d'images par invite : 3 000 et taille maximale d'image avant encodage : 7 Mo
- Entrées d'image prises en charge
-
- Console : Formats
png
etjpeg
- API : Dans l'opération Clavardage, soumettez une version encodée
base64
d'une image. Par exemple, une image 512 x 512 se convertit généralement en environ 1 610 jetons. Les types MIME pris en charge sont :image/png
,image/jpeg
,image/webp
,image/heic
etimage/heif
. Pour le format, voir Informations de référence sur le site ImageContent.
- Console : Formats
- Détails techniques
- Prend en charge la détection d'objet et la segmentation. Voir Compréhension d'images dans la documentation sur l'API Gemini.
Compréhension audio
- Formats audio pris en charge
-
- Console : non disponible
- API : Les fichiers multimédias pris en charge sont
audio/wav
,audio/mp3
,audio/aiff
,audio/aac
,audio/ogg
etaudio/flac
.
- Entrées audio prises en charge pour l'API
-
- URL : Convertissez un format audio pris en charge en une version encodée
base64
du fichier audio. - URI : Soumettez l'audio au format URI (Uniform Resource Identifier) afin que sans charger le fichier, le modèle puisse accéder à l'audio.
- URL : Convertissez un format audio pris en charge en une version encodée
- Détails techniques
-
- Conversion de jeton Chaque seconde d'audio représente 32 jetons, donc une minute d'audio correspond à 1 920 jetons.
- Détection de non-parole : Le modèle peut reconnaître des composants non vocaux tels que des chansons d'oiseaux et des sirènes.
- Longueur maximale : La longueur audio maximale prise en charge dans une seule invite est de 9,5 heures. Vous pouvez soumettre plusieurs fichiers tant que leur durée combinée reste inférieure à 9,5 heures.
- Rééchantillonnage : Le modèle réduit les échantillons de fichiers audio à une résolution de 16 kbit/s.
- Fusion de canal : Si une source audio comporte plusieurs canaux, le modèle les fusionne en un seul canal.
Voir Compréhension audio dans la documentation sur l'API Gemini.
Présentation vidéo
- Formats audio pris en charge
-
- Console : non disponible
- API : Les fichiers multimédias pris en charge sont
video/mp4
,video/mpeg
,video/mov
,video/avi
,video/x-flv
,video/mpg
,video/webm
,video/wmv
etvideo/3gpp
.
- Entrées vidéo prises en charge pour l'API
-
- URL : Convertissez un format de vidéo pris en charge en une version encodée en
base64
du fichier vidéo. - URI : Soumettez la vidéo au format URI (Uniform Resource Identifier) afin que sans charger le fichier, le modèle puisse accéder à la vidéo.
- URL : Convertissez un format de vidéo pris en charge en une version encodée en
- Détails techniques
-
Voir Compréhension vidéo dans la documentation sur l'API Gemini.
Mode sur demande
Les modèles Gemini sont disponibles uniquement en mode sur demande.
Nom de modèle | Nom du modèle OCI | Nom du produit de la page de tarification |
---|---|---|
Gemini 2.5 Pro | google.gemini-2.5-pro |
Google - Gemini 2.5 Pro |
-
Vous payez à l'utilisation pour chaque appel d'inférence lorsque vous utilisez les modèles dans le terrain de jeu ou lorsque vous appelez les modèles au moyen de l'API.
- Faible barrière pour commencer à utiliser l'IA générative.
- Idéal pour l'expérimentation, la preuve de concept et l'évaluation de modèle.
- Disponible pour les modèles préentraînés dans les régions non listées (grappe dédiée à l'IA uniquement).
Nous recommandons la mise en œuvre d'une stratégie d'attente, qui implique de retarder les demandes après un rejet. Sans cela, des demandes rapides répétées peuvent entraîner d'autres rejets au fil du temps, une latence accrue et un blocage temporaire potentiel du client par le service d'IA générative. En utilisant une stratégie d'attente, telle qu'une stratégie d'attente exponentielle, vous pouvez répartir les demandes plus uniformément, réduire la charge et améliorer le succès des tentatives, en suivant les meilleures pratiques du secteur et en améliorant la stabilité et la performance globales de votre intégration au service.
Date de version
Modèle | Date de version | Date de mise hors service sur demande | Date de mise hors service en mode dédié |
---|---|---|---|
google.gemini-2.5-pro |
2025-10-01 | Provisoire | Ce modèle n'est pas disponible pour le mode dédié. |
Pour en savoir plus sur l'abandon et la mise hors service du modèle d'IA générative pour OCI, voir Mise hors service des modèles.
Paramètres du modèle
Pour modifier les réponses du modèle, vous pouvez modifier les valeurs des paramètres suivants dans le terrain de jeu ou l'API.
- Nombre maximal de jetons de sortie
-
Nombre maximal de marqueurs que le modèle doit générer pour chaque réponse. Estimer quatre caractères par jeton. Comme vous demandez un modèle de clavardage, la réponse dépend de l'invite et chaque réponse n'utilise pas nécessairement le nombre maximal de jetons alloués. La longueur maximale de l'invite et de la sortie est de 128 000 jetons pour chaque exécution.
Conseil
Pour les entrées volumineuses présentant des problèmes difficiles, définissez une valeur élevée pour le paramètre de nombre maximal de jetons de sortie. - Température
-
Niveau de caractère aléatoire utilisé pour générer le texte de sortie. Min : 0, Max : 2, Par défaut : 1
Conseil
Commencez avec la température réglée à 0 ou moins d'un, puis augmentez la température au fur et à mesure que vous régénérez les invites pour une sortie plus créative. Les températures élevées peuvent introduire des hallucinations et des informations factuellement incorrectes. - Haut p
-
Méthode d'échantillonnage qui contrôle la probabilité cumulative des jetons supérieurs à prendre en compte pour le jeton suivant. Affectez à
p
un nombre décimal compris entre 0 et 1 pour la probabilité. Par exemple, entrez 0,75 pour les 75 % principaux à prendre en compte. Réglezp
à 1 pour prendre en compte tous les jetons. - Échantillonnage k premier
-
Méthode d'échantillonnage dans laquelle le modèle choisit le jeton suivant de manière aléatoire à partir des jetons
top k
les plus probables. Dans les modèles Gemini 2.5, le top k a une valeur fixe de 64, ce qui signifie que le modèle ne considère que les 64 jetons les plus probables (mots ou parties de mot) pour chaque étape de génération. Le jeton final est ensuite choisi dans cette liste. - Nombre de générations (API seulement)
-
Le paramètre
numGenerations
dans l'API contrôle le nombre d'options de réponse différentes générées par le modèle pour chaque invite.- Lorsque vous envoyez une invite, le modèle Gémeaux génère un ensemble de réponses possibles. Par défaut, il retourne uniquement la réponse avec la probabilité la plus élevée (
numGenerations = 1
). - Si vous augmentez le paramètre
numGenerations
à un nombre compris entre ou égal à 2 et 8, le modèle peut générer de 2 à 8 réponses distinctes.
- Lorsque vous envoyez une invite, le modèle Gémeaux génère un ensemble de réponses possibles. Par défaut, il retourne uniquement la réponse avec la probabilité la plus élevée (