Meta Llama 4 Maverick (Nouveau)

Les modèles Llama 4 s'appuient sur une architecture Mixture of Experts (MoE), ce qui permet des capacités de traitement efficaces et puissantes. Ces modèles sont optimisés pour la compréhension multimodale, les tâches multilingues, le codage, l'appel à outils et l'alimentation des systèmes agénétiques. Pour plus d'informations sur le modèle meta.llama-4-maverick-17b-128e-instruct-fp8, reportez-vous aux sections suivantes.

Disponible dans ces régions

  • Est du Brésil (São Paulo) (cluster d'IA dédié uniquement)
  • Sud de l'Inde (Hyderabad) (cluster d'IA dédié uniquement)
  • Japan Central (Osaka) (cluster d'IA dédié uniquement)
  • Centre de l'Arabie saoudite (Riyad) (cluster d'IA dédié uniquement)
  • Sud du Royaume-Uni (Londres) (cluster d'IA dédié uniquement)
  • Midwest des Etats-Unis (Chicago)

Principales fonctionnalités

Meta Llama 4 Series
  • Capacités multimodales : les modèles Llama 4 sont nativement multimodaux, capables de traiter et d'intégrer différents types de données, y compris le texte et les images. Entrez du texte et des images et obtenez une sortie texte.
  • Support multilingue : Formé sur les données couvrant 200 langues, avec une prise en charge affinée de 12 langues, notamment l'arabe, l'anglais, le français, l'allemand, l'hindi, l'indonésien, l'italien, le portugais, l'espagnol, le tagalog, le thaï et le vietnamien. La compréhension des images est limitée à l'anglais.
  • Déploiement efficace : faible encombrement de GPU.
  • Limite de connaissances : août 2024
  • Restrictions d'utilisation : la politique d'utilisation acceptable de Llama 4 limite leur utilisation dans l'Union européenne (UE).
Meta Llama 4 Maverick
  • Architecture : semblable à Meta Llama Scout, ce modèle comporte 17 milliards de paramètres actifs, mais dans un cadre plus large d'environ 400 milliards de paramètres, en utilisant 128 experts.
  • Fenêtre de contexte : prend en charge une longueur de contexte de 512 000 jetons. (La longueur maximale de l'invite + de la réponse est de 512 000 jetons pour chaque exécution.)
  • Performances : correspond aux modèles avancés dans les tâches de codage et de raisonnement.
Autres fonctionnalités
  • Inférence à la demande disponible à Chicago.
  • Pour l'inférence à la demande, la longueur de la réponse est limitée à 4 000 jetons pour chaque exécution.
  • Pour le mode dédié, la longueur de la réponse n'est pas limitée et la longueur du contexte est de 512 000 jetons.
  • Dans la console, entrez une image .png ou .jpg de 5 Mo ou moins.
  • Pour l'API, entrez une image encodée base64 à chaque exécution. Une image 512 x 512 est convertie en environ 1 610 jetons.

Mode à la demande

Vous pouvez atteindre les modèles de base préentraînés dans l'IA générative via deux modes : à la demande et dédié. Voici les principales fonctionnalités du mode à la demande :
  • Vous payez au fur et à mesure pour chaque appel d'inférence lorsque vous utilisez les modèles dans le playground de test ou lorsque vous appelez les modèles via l'API.

  • Faible barrière pour commencer à utiliser l'IA générative.
  • Idéal pour l'expérimentation, la preuve de concepts et l'évaluation des modèles.
  • Disponible pour les modèles préentraînés dans les régions non répertoriées en tant que (cluster d'IA dédié uniquement).
Conseil

Pour garantir un accès fiable aux modèles d'IA générative en mode à la demande, nous vous recommandons d'implémenter une stratégie de back-off, qui implique de retarder les demandes après un rejet. Sans cela, des demandes rapides répétées peuvent entraîner d'autres rejets au fil du temps, une latence accrue et un blocage temporaire potentiel du client par le service d'IA générative. En utilisant une stratégie de back-off, telle qu'une stratégie de back-off exponentielle, vous pouvez répartir les demandes plus uniformément, réduire la charge et améliorer le succès des nouvelles tentatives, en respectant les meilleures pratiques du secteur et en améliorant la stabilité et les performances globales de votre intégration au service.

Reportez-vous au tableau suivant pour connaître le nom de produit de ce modèle sur la page de tarification.

Nom du modèle Nom du modèle OCI Nom du produit de la page de tarification
Meta Llama 4 Maverick meta.llama-4-maverick-17b-128e-instruct-fp8 Meta Llama 4 Maverick

Cluster d'IA dédié pour le modèle

Dans la liste de régions précédente, les régions qui ne sont pas marquées par (cluster d'IA dédié uniquement) ont à la fois des options de cluster d'IA à la demande et dédié. Pour l'option à la demande, vous n'avez pas besoin de clusters et vous pouvez accéder au modèle dans le playground de test de la console ou via l'API. Découvrez le mode dédié.

Pour atteindre un modèle via un cluster d'IA dédié dans une région répertoriée, vous devez créer une adresse pour ce modèle sur un cluster d'IA dédié. Pour connaître la taille d'unité de cluster correspondant à ce modèle, reportez-vous au tableau suivant.

Modèle de base Cluster de réglage fin Cluster d'hébergement Informations sur la page de tarification Demander une augmentation de limite de cluster
  • Nom du modèle : Meta Llama 4 Maverick
  • Nom du modèle OCI : meta.llama-4-maverick-17b-128e-instruct-fp8
Non disponible pour le réglage fin
  • Taille d'unité : Large Generic 2
  • Unités obligatoires : 1
  • Nom du produit de la page de tarification : Large Meta - Dedicated
  • Pour l'Hébergement, Multiplier le Prix Unitaire : x4
  • Nom de la limite : dedicated-unit-llama2-70-count
  • Pour l'hébergement, demandez une augmentation de limite de : 4
Conseil

Si votre location ne dispose pas de suffisamment de limites de cluster pour héberger le modèle Meta Llama 4 Maverick sur un cluster d'IA dédié, demandez une augmentation de 4 de la limite dedicated-unit-llama2-70-count.

Tests de performances du cluster

Consultez les tests d'évaluation des performances du cluster Meta Llama 4 Maverick pour différents cas d'utilisation.

Dates de déblocage et de sortie

Modèle Date de lancement Date de sortie à la demande Date de retrait du mode dédié
meta.llama-4-maverick-17b-128e-instruct-fp8 2 025-5-14 Au moins un mois après la publication du 1er modèle de remplacement. Au moins 6 mois après la publication du 1er modèle de remplacement.
Important

Pour obtenir la liste de toutes les lignes de temps du modèle et des détails de sortie, voir Mettre hors service les modèles.

Paramètres de modèle

Pour modifier les réponses du modèle, vous pouvez modifier les valeurs des paramètres suivants dans le playground de test ou l'API.

Nombre maximal de sèmes de sortie

Nombre maximal de sèmes que le modèle doit générer pour chaque réponse. Estimez quatre caractères par jeton. Comme vous demandez un modèle de discussion, la réponse dépend de l'invite et chaque réponse n'utilise pas nécessairement le nombre maximal de jetons alloués.

Température

Niveau de randomité utilisé pour générer le texte de sortie.

Conseil

Commencez par définir la température sur 0 et augmentez-la à mesure que vous régénérez les invitations pour affiner les sorties. Les températures élevées peuvent introduire des hallucinations et des informations factuellement incorrectes.
Valeur Top p

Méthode d'échantillonnage qui contrôle la probabilité cumulée des jetons supérieurs à prendre en compte pour le jeton suivant. Affectez à p un nombre décimal positif compris entre 0 et 1 pour la probabilité. Par exemple, entrez 0,75 pour les 75 % les plus importants à prendre en compte. Définissez p sur 1 pour prendre en compte tous les jetons.

Valeur Top k

Méthode d'échantillonnage dans laquelle le modèle choisit le jeton suivant de manière aléatoire parmi les jetons top k les plus probables. Une valeur élevée pour k génère une sortie plus aléatoire, ce qui rend le texte de sortie plus naturel. La valeur par défaut de k est 0 pour les modèles Cohere Command et -1 pour les modèles Meta Llama, ce qui signifie que le modèle doit prendre en compte tous les jetons et ne pas utiliser cette méthode.

Pénalité de fréquence

Pénalité affectée à un jeton lorsque ce dernier apparaît fréquemment. Les pénalités élevées encouragent moins de jetons répétés et produisent un résultat plus aléatoire.

Pour les modèles de la famille Meta Llama, cette pénalité peut être positive ou négative. Les nombres positifs encouragent le modèle à utiliser de nouveaux jetons et les nombres négatifs encouragent le modèle à répéter les jetons. Définissez la valeur sur 0 pour désactiver.

Pénalité de présence

Pénalité affectée à chaque jeton lorsqu'il apparaît dans la sortie pour encourager les sorties avec des jetons qui n'ont pas été utilisés. Pour les modèles de la famille Meta Llama, cette pénalité peut être positive ou négative. Définissez la valeur sur 0 pour désactiver.

Prédéfinir

Paramètre qui fait le meilleur effort pour échantillonner les jetons de manière déterministe. Lorsqu'une valeur est affectée à ce paramètre, le modèle de langage volumineux vise à renvoyer le même résultat pour les demandes répétées lorsque vous affectez les mêmes valeurs initiales et paramètres aux demandes.

Les valeurs autorisées sont des entiers et l'affectation d'une valeur de départ élevée ou faible n'affecte pas le résultat. L'affectation d'un nombre au paramètre prédéfini est similaire à l'étiquetage de la demande avec un nombre. Le modèle de langage volumineux vise à générer le même ensemble de jetons pour le même entier dans des demandes consécutives. Cette fonctionnalité est particulièrement utile pour le débogage et le test. Le paramètre prédéfini n'a pas de valeur maximale pour l'API et, dans la console, sa valeur maximale est 9999. Si la valeur de départ n'est pas indiquée dans la console ou si elle est NULL dans l'API, cette fonctionnalité est désactivée.

Avertissement

Le paramètre prédéfini risque de ne pas produire le même résultat à long terme, car les mises à jour de modèle dans le service OCI Generative AI risquent d'invalider la valeur prédéfinie.