Google Gemini 2.5 Pro (Beta)
Pre-General Availability: 2025-08-29
Cette documentation est fournie dans la Version préliminaire de Disponibilité Générale ("Pre-GA") et uniquement à des fins de démonstration et d'usage à titre préliminaire de la version finale. Celle-ci n'est pas toujours spécifique du matériel informatique sur lequel vous utilisez ce logiciel. Oracle Corporation et ses affiliés déclinent toute responsabilité et excluent toute garantie expresse ou implicite quant au contenu de cette documentation. Oracle Corporation et ses affiliés ne sauraient en aucun cas être tenus pour responsables des pertes subies, des coûts occasionnés ou des dommages causés par l'utilisation de cette documentation.
Cette documentation ne constitue en aucun cas un engagement d'Oracle à fournir des composants, du code, des fonctionnalités ou des services. Cette documentation ainsi que la Version préliminaire de Disponibilité Générale ("Pre-GA") des programmes et services Oracle sont susceptibles d'être modifiées à tout moment et ne doivent pas être retenues comme une base d'une quelconque décision d'achat. Le développement, la publication et la mise à disposition des caractéristiques ou fonctionnalités pour la Version préliminaire de Disponibilité Générale ("Pre-GA") des programmes et services Oracle relèvent de la seule discrétion d'Oracle. Toutes les dates de publication et autres prévisions d'événements futurs sont susceptibles de modification. Vous ne devez pas compter sur la disponibilité future de programmes ou services Oracle à venir pour la souscription d'une licence ou d'un contrat de services avec Oracle.
Reportez-vous à Mentions légales Oracle.
Le modèle Gemini 2.5 Pro (google.gemini-2.5-pro
) est un modèle raisonné et multimodal qui excelle dans la résolution de problèmes complexes et est le modèle Gemini le plus avancé à ce jour. Ce modèle est la prochaine itération et préforme mieux que la série Gemini 2.0. Le modèle Gemini 2.5 Pro est idéal pour comprendre de grands ensembles de données et des problèmes complexes de différents types d'entrée, tels que le texte, les images et le code.
Disponible dans cette région
- Est des Etats-Unis (Ashburn) (à la demande uniquement)
Appels externes
Les modèles Google Gemini 2.5 accessibles via le service OCI Generative AI sont hébergés en externe par Google. Par conséquent, un appel à un modèle Google Gemini (via le service OCI Generative AI) entraîne un appel vers un emplacement Google.
Principales fonctionnalités
- Nom du modèle dans OCI Generative AI :
google.gemini-2.5-pro
- Disponible à la demande : accédez à ce modèle à la demande, via le playground de test de la console ou l'API.
- Prise en charge multimodale : saisissez du texte, du code et des images et obtenez une sortie texte. Les entrées de fichier telles que les fichiers audio, vidéo et de document ne sont pas prises en charge. Reportez-vous à Limites pour connaître les types et les tailles des entrées d'image.
- Connaissances : possède une connaissance approfondie du domaine en sciences, en mathématiques et en code.
- Longueur de contexte : un million de jetons
- Nombre maximal de jetons d'entrée : 1 048 576 (console et API)
- Nombre maximal de jetons de sortie : 65 536 (valeur par défaut) (console et API)
- Excelle dans ces cas d'utilisation : applications nécessitant une réflexion approfondie, un raisonnement amélioré, des explications détaillées et une compréhension approfondie, telles que le codage avancé, l'analyse scientifique et l'extraction de contenu complexe.
- A un raisonnement : Oui. Aussi fort dans le raisonnement visuel et la compréhension d'image. Les problèmes de raisonnement augmentent le nombre maximal de jetons de sortie. Reportez-vous à Paramètres de modèle.
- Limite de connaissances : janvier 2025
Reportez-vous au tableau suivant pour connaître les fonctionnalités prises en charge dans Google Vertex AI Platform (Beta) pour OCI Generative, avec des liens vers chaque fonctionnalité.
Fonction | Pris en charge ? |
---|---|
Exécution de code | Oui |
Réglage | Non |
Instructions système | Oui |
Sortie structurée | Oui |
Prédiction par lots | Non |
Appel de fonction | Oui |
Compter les jetons | Non |
Réflexion | Oui, mais la désactivation du processus de réflexion n'est pas prise en charge. |
Mise en cache du contexte | Oui, le modèle peut mettre en cache les jetons d'entrée, mais cette fonctionnalité n'est pas contrôlée via l'API. |
Moteur Vertex AI RAG | Non |
Achèvements de discussion | Oui |
Pour plus d'informations sur les fonctionnalités clés, reportez-vous à la documentation Google Gemini 2.5 Pro et à la carte modèle Google Gemini 2.5 Pro.
Limites
- Entrées d'image
-
- Console : téléchargez des images
.png
ou.jpg
, de 5 Mo ou moins. - API : soumettez une version d'image encodée en
base64
. Par exemple, une image 512 x 512 convertit généralement en environ 1 610 jetons. Les types MIME pris en charge sontimage/png
,image/jpeg
etimage/webp
.- Nombre maximal d'images par invite : 3 000
- Taille maximale de l'image avant le codage : 7 Mo
- Console : téléchargez des images
Mode à la demande
-
Vous payez au fur et à mesure pour chaque appel d'inférence lorsque vous utilisez les modèles dans le playground de test ou lorsque vous appelez les modèles via l'API.
- Faible barrière pour commencer à utiliser l'IA générative.
- Idéal pour l'expérimentation, la preuve de concepts et l'évaluation des modèles.
- Disponible pour les modèles préentraînés dans les régions non répertoriées en tant que (cluster d'IA dédié uniquement).
Pour garantir un accès fiable aux modèles d'IA générative en mode à la demande, nous vous recommandons d'implémenter une stratégie de back-off, qui implique de retarder les demandes après un rejet. Sans cela, des demandes rapides répétées peuvent entraîner d'autres rejets au fil du temps, une latence accrue et un blocage temporaire potentiel du client par le service d'IA générative. En utilisant une stratégie de back-off, telle qu'une stratégie de back-off exponentielle, vous pouvez répartir les demandes plus uniformément, réduire la charge et améliorer le succès des nouvelles tentatives, en respectant les meilleures pratiques du secteur et en améliorant la stabilité et les performances globales de votre intégration au service.
Les modèles Gemini sont disponibles uniquement en mode à la demande.
Nom du modèle | Nom du modèle OCI | Obtenir l'accès |
---|---|---|
Gemini 2.5 Pro (Beta) | google.gemini-2.5-pro |
Contact Oracle Beta Programs |
Date de lancement
Modèle | Date de version bêta | Date de sortie à la demande | Date de retrait du mode dédié |
---|---|---|---|
google.gemini-2.5-pro |
2 025-8-29 | Provisoire | Ce modèle n'est pas disponible pour le mode dédié. |
Pour en savoir plus sur l'abandon et la mise hors service du modèle OCI Generative AI, reportez-vous à Mise hors service des modèles.
Paramètres de modèle
Pour modifier les réponses du modèle, vous pouvez modifier les valeurs des paramètres suivants dans le playground de test ou l'API.
- Nombre maximal de sèmes de sortie
-
Nombre maximal de sèmes que le modèle doit générer pour chaque réponse. Estimez quatre caractères par jeton. Comme vous demandez un modèle de discussion, la réponse dépend de l'invite et chaque réponse n'utilise pas nécessairement le nombre maximal de jetons alloués. La longueur maximale de l'invite + de la sortie est de 128 000 jetons pour chaque exécution.
Conseil
Pour les entrées volumineuses présentant des problèmes difficiles, définissez une valeur élevée pour le paramètre de jetons de sortie maximum. - Température
-
Niveau de randomité utilisé pour générer le texte de sortie. Min : 0, Max : 2, Valeur par défaut : 1
Conseil
Commencez par définir la température sur 0 et augmentez-la à mesure que vous régénérez les invitations pour affiner les sorties. Les températures élevées peuvent introduire des hallucinations et des informations factuellement incorrectes. - Valeur Top p
-
Méthode d'échantillonnage qui contrôle la probabilité cumulée des jetons supérieurs à prendre en compte pour le jeton suivant. Affectez à
p
un nombre décimal compris entre 0 et 1 pour la probabilité. Par exemple, entrez 0,75 pour les 75 % les plus importants à prendre en compte. Définissezp
sur 1 pour prendre en compte tous les jetons. - Valeur Top k
-
Méthode d'échantillonnage dans laquelle le modèle choisit le jeton suivant de manière aléatoire parmi les jetons
top k
les plus probables. Dans les modèles Gemini 2.5, le k supérieur a une valeur fixe de 64, ce qui signifie que le modèle ne prend en compte que les 64 jetons (mots ou parties de mots) les plus probables pour chaque étape de génération. Le jeton final est ensuite choisi dans cette liste. - Nombre de générations (API uniquement)
-
Le paramètre
numGenerations
de l'API contrôle le nombre d'options de réponse différentes générées par le modèle pour chaque invite.- Lorsque vous envoyez une invite, le modèle Gemini génère un ensemble de réponses possibles. Par défaut, elle renvoie uniquement la réponse avec la probabilité la plus élevée (
numGenerations = 1
). - Si vous augmentez le paramètre
numGenerations
à un nombre compris entre 2 et 8, vous pouvez demander au modèle de générer 2 à 8 réponses distinctes.
- Lorsque vous envoyez une invite, le modèle Gemini génère un ensemble de réponses possibles. Par défaut, elle renvoie uniquement la réponse avec la probabilité la plus élevée (