Google Gemini 2.5 Flash-Lite (Beta)

Important

Voir Oracle Avis juridiques.

Le modèle Gemini 2.5 Flash-Lite (google.gemini-2.5-flash-lite) est le modèle de raisonnement multimodal le plus rapide et le plus économique de la famille 2.5, optimisé pour une faible latence. Les modèles Gemini 2.5 Flash et Gemini 2.5 Flash-Lite sont tous deux des modèles efficaces. Flash-Lite est optimisé pour des coûts réduits et des performances plus rapides sur des tâches à volume élevé et moins complexes. Gemini 2.5 Flash offre un équilibre de vitesse et d'intelligence pour des applications plus complexes.

Disponible dans cette région

  • États-Unis - Est (Ashburn) (sur demande seulement)
Important

Appels externes

Les modèles Google Gemini 2.5 accessibles au moyen du service d'intelligence artificielle générative pour OCI sont hébergés en externe par Google. Par conséquent, un appel à un modèle Google Gemini (au moyen du service d'intelligence artificielle générative pour OCI) entraîne un appel à un emplacement Google.

Principales fonctions

  • Nom du modèle dans le service d'intelligence artificielle générative pour OCI : google.gemini-2.5-flash-lite
  • Disponible sur demande : Accédez à ce modèle sur demande au moyen du terrain de jeu de la console ou de l'API.
  • Prise en charge multimodale : Entrez du texte, du code et des images et obtenez une sortie de texte. Les entrées de fichier telles que les fichiers audio, vidéo et document ne sont pas prises en charge. Voir Limites pour connaître les types et les tailles des entrées d'image.
  • Connaissance : A une connaissance approfondie du domaine en sciences, mathématiques et code.
  • Longueur de contexte : Un million de jetons
  • Nombre maximal de jetons d'entrée : 1 048 576 (console et API)
  • Jetons de sortie maximum : 65 536 (par défaut) (console et API)
  • Excelle dans ces cas d'utilisation : Pour les tâches à usage général à haut débit et sensibles au coût qui ne nécessitent pas de raisonnement complexe, telles que la classification, la traduction et l'acheminement intelligent. Par exemple, les demandes de soutien à la clientèle et la synthèse de documents à grande échelle.
  • A un motif : Oui. Comprend le texte et le raisonnement visuel et la compréhension de l'image. Pour les problèmes de raisonnement augmenter les jetons de sortie maximum. Voir Paramètres de modèle.
  • Arrêt des connaissances : Janvier 2025

Voir le tableau suivant pour les fonctions prises en charge dans la plate-forme d'intelligence artificielle (bêta) de Google Vertex pour OCI Generative, avec des liens vers chaque fonction.

Fonctions Gemini 2.5 Pro prises en charge
Fonction Prise en charge?
Exécution de code Oui
Réglage Nombre
Instructions système Oui
Sortie structurée Oui
Prévisions par lot Nombre
Appel de fonction Oui
Compter les jetons Nombre
Penser Nombre
Mise en cache du contexte Oui, le modèle peut mettre en mémoire cache les jetons d'entrée, mais cette fonction n'est pas contrôlée par l'API.
Moteur RAG IA Vertex Nombre
Achèvements de clavardage Oui
Mise à la terre Nombre

Pour plus de détails sur les fonctions clés, consultez la documentation sur Flash-Lite Google Gemini 2.5.

Limites

Invites complexes
Le modèle Gemini 2.5 Flash-Lite (Beta) a son processus de réflexion désactivé pour prioriser la vitesse et le coût, il n'est donc pas adapté aux tâches complexes. Pour les tâches complexes, nous vous recommandons d'utiliser le modèle Google Gemini 2.5 Pro (bêta).
Entrées d'image
  • Console : Chargez une ou plusieurs images .png ou .jpg, chacune de 5 Mo ou moins.
  • API : Soumettez une version encodée base64 d'une image. Par exemple, une image 512 x 512 se convertit généralement en environ 1 610 jetons. Les types MIME pris en charge sont image/png, image/jpeg et image/webp.
    • Nombre maximal d'images par invite : 3 000
    • Taille maximale de l'image avant encodage : 7 Mo

Mode sur demande

Vous pouvez accéder aux modèles fondamentaux préentraînés dans l'IA générative au moyen de deux modes : sur demande et dédié. Voici les principales fonctions du mode sur demande :
  • Vous payez à l'utilisation pour chaque appel d'inférence lorsque vous utilisez les modèles dans le terrain de jeu ou lorsque vous appelez les modèles au moyen de l'API.

  • Faible barrière pour commencer à utiliser l'IA générative.
  • Idéal pour l'expérimentation, la preuve de concepts et l'évaluation des modèles.
  • Disponible pour les modèles préentraînés dans les régions non listées (grappe dédiée à l'IA uniquement).
Conseil

Pour garantir un accès fiable aux modèles d'IA générative en mode sur demande, nous recommandons de mettre en oeuvre une stratégie de secours, qui implique de retarder les demandes après un rejet. Sans cela, des demandes rapides répétées peuvent entraîner d'autres rejets au fil du temps, une latence accrue et un blocage temporaire potentiel du client par le service d'IA générative. En utilisant une stratégie d'attente, telle qu'une stratégie d'attente exponentielle, vous pouvez répartir les demandes plus uniformément, réduire la charge et améliorer le succès des tentatives, en suivant les meilleures pratiques du secteur et en améliorant la stabilité et la performance globales de votre intégration au service.

Note

Les modèles Gemini sont disponibles uniquement en mode sur demande.
Nom de modèle Nom du modèle OCI Obtention de l'accès
Gemini 2.5 Flash-Lite (Beta) google.gemini-2.5-flash-lite Contact Oracle Beta Programs

Date de version

Modèle Date de lancement de la version bêta Date de mise hors service sur demande Date de mise hors service en mode dédié
google.gemini-2.5-flash-lite 2,025-8-29 Provisoire Ce modèle n'est pas disponible pour le mode dédié.
Important

Pour en savoir plus sur l'abandon et la mise hors service du modèle d'IA générative pour OCI, voir Mise hors service des modèles.

Paramètres du modèle

Pour modifier les réponses du modèle, vous pouvez modifier les valeurs de certains paramètres dans le terrain de jeu ou l'API.

Nombre maximal de jetons de sortie

Nombre maximal de marqueurs que le modèle doit générer pour chaque réponse. Estimer quatre caractères par jeton. Comme vous demandez un modèle de clavardage, la réponse dépend de l'invite et chaque réponse n'utilise pas nécessairement le nombre maximal de jetons alloués. Le jeton de sortie maximal pour la série de modèles Gemini 2.5 est de 65 536 jetons (par défaut) pour chaque exécution.

Conseil

Pour les entrées volumineuses présentant des problèmes difficiles, définissez une valeur élevée pour le paramètre de nombre maximal de jetons de sortie.
Température

Niveau de caractère aléatoire utilisé pour générer le texte de sortie. Min : 0, Max : 2, Par défaut : 1

Conseil

Commencez avec la température réglée à 0 ou moins d'un, puis augmentez la température au fur et à mesure que vous régénérez les invites pour une sortie plus créative. Les températures élevées peuvent introduire des hallucinations et des informations factuellement incorrectes.
Haut p

Méthode d'échantillonnage qui contrôle la probabilité cumulative des jetons supérieurs à prendre en compte pour le jeton suivant. Affectez à p un nombre décimal compris entre 0 et 1 pour la probabilité. Par exemple, entrez 0,75 pour les 75 % principaux à prendre en compte. Réglez p à 1 pour prendre en compte tous les jetons.

Échantillonnage k premier

Méthode d'échantillonnage dans laquelle le modèle choisit le jeton suivant de manière aléatoire à partir des jetons top k les plus probables. Dans les modèles Gemini 2.5, le top k a une valeur fixe de 64, ce qui signifie que le modèle ne considère que les 64 jetons les plus probables (mots ou parties de mot) pour chaque étape de génération. Le jeton final est ensuite choisi dans cette liste.

Nombre de générations (API seulement)

Le paramètre numGenerations dans l'API contrôle le nombre d'options de réponse différentes générées par le modèle pour chaque invite.

  • Lorsque vous envoyez une invite, le modèle Gémeaux génère un ensemble de réponses possibles. Par défaut, il retourne uniquement la réponse avec la probabilité la plus élevée (numGenerations = 1).
  • Si vous augmentez le paramètre numGenerations à un nombre compris entre ou égal à 2 et 8, le modèle peut générer de 2 à 8 réponses distinctes.