Google Gemini 2.5 Pro (Beta)

Important

Reportez-vous à Mentions légales Oracle.

Le modèle Gemini 2.5 Pro (google.gemini-2.5-pro) est un modèle raisonné et multimodal qui excelle dans la résolution de problèmes complexes et est le modèle Gemini le plus avancé à ce jour. Ce modèle est la prochaine itération et préforme mieux que la série Gemini 2.0. Le modèle Gemini 2.5 Pro est idéal pour comprendre de grands ensembles de données et des problèmes complexes de différents types d'entrée, tels que le texte, les images et le code.

Disponible dans cette région

  • Est des Etats-Unis (Ashburn) (à la demande uniquement)
Important

Appels externes

Les modèles Google Gemini 2.5 accessibles via le service OCI Generative AI sont hébergés en externe par Google. Par conséquent, un appel à un modèle Google Gemini (via le service OCI Generative AI) entraîne un appel vers un emplacement Google.

Principales fonctionnalités

  • Nom du modèle dans OCI Generative AI : google.gemini-2.5-pro
  • Disponible à la demande : accédez à ce modèle à la demande, via le playground de test de la console ou l'API.
  • Prise en charge multimodale : saisissez du texte, du code et des images et obtenez une sortie texte. Les entrées de fichier telles que les fichiers audio, vidéo et de document ne sont pas prises en charge. Reportez-vous à Limites pour connaître les types et les tailles des entrées d'image.
  • Connaissances : possède une connaissance approfondie du domaine en sciences, en mathématiques et en code.
  • Longueur de contexte : un million de jetons
  • Nombre maximal de jetons d'entrée : 1 048 576 (console et API)
  • Nombre maximal de jetons de sortie : 65 536 (valeur par défaut) (console et API)
  • Excelle dans ces cas d'utilisation : applications nécessitant une réflexion approfondie, un raisonnement amélioré, des explications détaillées et une compréhension approfondie, telles que le codage avancé, l'analyse scientifique et l'extraction de contenu complexe.
  • A un raisonnement : Oui. Aussi fort dans le raisonnement visuel et la compréhension d'image. Les problèmes de raisonnement augmentent le nombre maximal de jetons de sortie. Reportez-vous à Paramètres de modèle.
  • Limite de connaissances : janvier 2025

Reportez-vous au tableau suivant pour connaître les fonctionnalités prises en charge dans Google Vertex AI Platform (Beta) pour OCI Generative, avec des liens vers chaque fonctionnalité.

Fonctionnalités prises en charge de Gemini 2.5 Pro
Fonction Pris en charge ?
Exécution de code Oui
Réglage Non
Instructions système Oui
Sortie structurée Oui
Prédiction par lots Non
Appel de fonction Oui
Compter les jetons Non
Réflexion Oui, mais la désactivation du processus de réflexion n'est pas prise en charge.
Mise en cache du contexte Oui, le modèle peut mettre en cache les jetons d'entrée, mais cette fonctionnalité n'est pas contrôlée via l'API.
Moteur Vertex AI RAG Non
Achèvements de discussion Oui

Pour plus d'informations sur les fonctionnalités clés, reportez-vous à la documentation Google Gemini 2.5 Pro et à la carte modèle Google Gemini 2.5 Pro.

Limites

Entrées d'image
  • Console : téléchargez des images .png ou .jpg, de 5 Mo ou moins.
  • API : soumettez une version d'image encodée en base64. Par exemple, une image 512 x 512 convertit généralement en environ 1 610 jetons. Les types MIME pris en charge sont image/png, image/jpeg et image/webp.
    • Nombre maximal d'images par invite : 3 000
    • Taille maximale de l'image avant le codage : 7 Mo

Mode à la demande

Vous pouvez atteindre les modèles de base préentraînés dans l'IA générative via deux modes : à la demande et dédié. Voici les principales fonctionnalités du mode à la demande :
  • Vous payez au fur et à mesure pour chaque appel d'inférence lorsque vous utilisez les modèles dans le playground de test ou lorsque vous appelez les modèles via l'API.

  • Faible barrière pour commencer à utiliser l'IA générative.
  • Idéal pour l'expérimentation, la preuve de concepts et l'évaluation des modèles.
  • Disponible pour les modèles préentraînés dans les régions non répertoriées en tant que (cluster d'IA dédié uniquement).
Conseil

Pour garantir un accès fiable aux modèles d'IA générative en mode à la demande, nous vous recommandons d'implémenter une stratégie de back-off, qui implique de retarder les demandes après un rejet. Sans cela, des demandes rapides répétées peuvent entraîner d'autres rejets au fil du temps, une latence accrue et un blocage temporaire potentiel du client par le service d'IA générative. En utilisant une stratégie de back-off, telle qu'une stratégie de back-off exponentielle, vous pouvez répartir les demandes plus uniformément, réduire la charge et améliorer le succès des nouvelles tentatives, en respectant les meilleures pratiques du secteur et en améliorant la stabilité et les performances globales de votre intégration au service.

Remarque

Les modèles Gemini sont disponibles uniquement en mode à la demande.
Nom du modèle Nom du modèle OCI Obtenir l'accès
Gemini 2.5 Pro (Beta) google.gemini-2.5-pro Contact Oracle Beta Programs

Date de lancement

Modèle Date de version bêta Date de sortie à la demande Date de retrait du mode dédié
google.gemini-2.5-pro 2 025-8-29 Provisoire Ce modèle n'est pas disponible pour le mode dédié.
Important

Pour en savoir plus sur l'abandon et la mise hors service du modèle OCI Generative AI, reportez-vous à Mise hors service des modèles.

Paramètres de modèle

Pour modifier les réponses du modèle, vous pouvez modifier les valeurs des paramètres suivants dans le playground de test ou l'API.

Nombre maximal de sèmes de sortie

Nombre maximal de sèmes que le modèle doit générer pour chaque réponse. Estimez quatre caractères par jeton. Comme vous demandez un modèle de discussion, la réponse dépend de l'invite et chaque réponse n'utilise pas nécessairement le nombre maximal de jetons alloués. La longueur maximale de l'invite + de la sortie est de 128 000 jetons pour chaque exécution.

Conseil

Pour les entrées volumineuses présentant des problèmes difficiles, définissez une valeur élevée pour le paramètre de jetons de sortie maximum.
Température

Niveau de randomité utilisé pour générer le texte de sortie. Min : 0, Max : 2, Valeur par défaut : 1

Conseil

Commencez par définir la température sur 0 et augmentez-la à mesure que vous régénérez les invitations pour affiner les sorties. Les températures élevées peuvent introduire des hallucinations et des informations factuellement incorrectes.
Valeur Top p

Méthode d'échantillonnage qui contrôle la probabilité cumulée des jetons supérieurs à prendre en compte pour le jeton suivant. Affectez à p un nombre décimal compris entre 0 et 1 pour la probabilité. Par exemple, entrez 0,75 pour les 75 % les plus importants à prendre en compte. Définissez p sur 1 pour prendre en compte tous les jetons.

Valeur Top k

Méthode d'échantillonnage dans laquelle le modèle choisit le jeton suivant de manière aléatoire parmi les jetons top k les plus probables. Dans les modèles Gemini 2.5, le k supérieur a une valeur fixe de 64, ce qui signifie que le modèle ne prend en compte que les 64 jetons (mots ou parties de mots) les plus probables pour chaque étape de génération. Le jeton final est ensuite choisi dans cette liste.

Nombre de générations (API uniquement)

Le paramètre numGenerations de l'API contrôle le nombre d'options de réponse différentes générées par le modèle pour chaque invite.

  • Lorsque vous envoyez une invite, le modèle Gemini génère un ensemble de réponses possibles. Par défaut, elle renvoie uniquement la réponse avec la probabilité la plus élevée (numGenerations = 1).
  • Si vous augmentez le paramètre numGenerations à un nombre compris entre 2 et 8, vous pouvez demander au modèle de générer 2 à 8 réponses distinctes.