Meta Llama 4 Maverick (Nouveau)
Les modèles Llama 4 tirent parti d'une architecture Mixture of Experts (MoE), permettant des capacités de traitement efficaces et puissantes. Ces modèles sont optimisés pour la compréhension multimodale, les tâches multilingues, le codage, l'appel d'outils et l'alimentation des systèmes agéntiques. Voir les sections suivantes pour plus de détails sur le modèle meta.llama-4-maverick-17b-128e-instruct-fp8
.
Disponible dans ces régions
- Brésil - Est (Sao Paulo) (grappe dédiée à l'IA uniquement)
- Inde - Sud (Hyderabad) (grappe dédiée à l'IA uniquement)
- Japon - Centre (Osaka) (grappe dédiée à l'IA uniquement)
- Arabie saoudite - Centre (Riyad) (grappe dédiée à l'IA uniquement)
- Royaume-Uni - Sud (Londres) (grappe dédiée à l'IA uniquement)
- États-Unis - Midwest (Chicago)
Principales fonctions
- Meta Llama Série 4
-
- Capacités multimodales : Les modèles Llama 4 sont nativement multimodaux, capables de traiter et d'intégrer divers types de données, y compris le texte et les images. Entrez du texte et des images et obtenez une sortie de texte.
- Soutien multilingue : Formation sur des données couvrant 200 langues, avec prise en charge du réglage de précision pour 12 langues, y compris l'arabe, l'anglais, le français, l'allemand, l'hindi, l'indonésien, l'italien, le portugais, l'espagnol, le tagalog, le thaï et le vietnamien. La compréhension de l'image est limitée à l'anglais.
- Déploiement efficace : Encombrement réduit des processeurs graphiques.
- Date limite des connaissances : août 2024
- Restrictions d'utilisation : La politique d'utilisation acceptable de Lama 4 limite leur utilisation dans l'Union européenne (UE).
- Meta Llama 4 Maverick
-
- Architecture : Semblable à Meta Llama Scout, ce modèle présente 17 milliards de paramètres actifs, mais dans un cadre plus large d'environ 400 milliards de paramètres, en utilisant 128 experts.
- Fenêtre contextuelle : Prend en charge une longueur de contexte de 512 000 jetons. (L'invite maximale + la longueur de la réponse est de 512 000 jetons pour chaque exécution.)
- Performance : Correspond aux modèles avancés dans les tâches de codage et de raisonnement.
- Autres fonctions
-
- L'inférence à la demande est disponible à Chicago.
- Pour l'inférence sur demande, la longueur de la réponse est plafonnée à 4 000 jetons pour chaque exécution.
- Pour le mode dédié, la longueur de la réponse n'est pas plafonnée et la longueur du contexte est de 512 000 jetons.
- Dans la console, entrez une image
.png
ou.jpg
de 5 Mo ou moins. - Pour l'API, entrez une image encodée
base64
à chaque exécution. Une image 512 x 512 est convertie en environ 1 610 jetons.
Mode sur demande
-
Vous payez à l'utilisation pour chaque appel d'inférence lorsque vous utilisez les modèles dans le terrain de jeu ou lorsque vous appelez les modèles au moyen de l'API.
- Faible barrière pour commencer à utiliser l'IA générative.
- Idéal pour l'expérimentation, la preuve de concepts et l'évaluation des modèles.
- Disponible pour les modèles préentraînés dans les régions non listées (grappe dédiée à l'IA uniquement).
Pour garantir un accès fiable aux modèles d'IA générative en mode sur demande, nous recommandons de mettre en oeuvre une stratégie de secours, qui implique de retarder les demandes après un rejet. Sans cela, des demandes rapides répétées peuvent entraîner d'autres rejets au fil du temps, une latence accrue et un blocage temporaire potentiel du client par le service d'IA générative. En utilisant une stratégie d'attente, telle qu'une stratégie d'attente exponentielle, vous pouvez répartir les demandes plus uniformément, réduire la charge et améliorer le succès des tentatives, en suivant les meilleures pratiques du secteur et en améliorant la stabilité et la performance globales de votre intégration au service.
Voir le tableau suivant pour le nom du produit de ce modèle dans la page de tarification.
Nom de modèle | Nom du modèle OCI | Nom du produit de la page de tarification |
---|---|---|
Meta Llama 4 Maverick | meta.llama-4-maverick-17b-128e-instruct-fp8 |
Meta Llama 4 Maverick |
Grappe d'IA dédiée pour le modèle
Dans la liste de régions précédente, les régions qui ne sont pas marquées avec (grappe dédiée à l'IA uniquement) ont des options de grappe dédiée à l'IA à la demande et . Pour l'option sur demande, vous n'avez pas besoin de grappes et vous pouvez accéder au modèle dans le terrain de jeu de la console ou au moyen de l'API. En savoir plus sur le mode dédié.
Pour atteindre un modèle au moyen d'une grappe dédiée à l'IA dans n'importe quelle région répertoriée, vous devez créer un point d'extrémité pour ce modèle sur une grappe dédiée à l'IA. Pour connaître la taille d'unité de grappe correspondant à ce modèle, voir le tableau suivant.
Modèle de base | Cluster de réglage fin | Grappe d'hébergement | Informations sur la page de tarification | Demander une augmentation de limite de grappe |
---|---|---|---|---|
|
Non disponible pour le réglage fin |
|
|
|
Si vous n'avez pas suffisamment de limites de grappe dans votre location pour héberger le modèle Meta Llama 4 Maverick sur une grappe dédiée à l'IA, demandez que la limite dedicated-unit-llama2-70-count
augmente de 4.
Tests de performance des grappes
Consultez les tests de performance de grappe Meta Llama 4 Maverick pour différents cas d'utilisation.
Dates de lancement et de mise hors service
Modèle | Date de version | Date de mise hors service sur demande | Date de mise hors service en mode dédié |
---|---|---|---|
meta.llama-4-maverick-17b-128e-instruct-fp8
|
2,025-5-14 | Au moins un mois après le lancement du 1er modèle de remplacement. | Au moins 6 mois après la publication du 1er modèle de remplacement. |
Pour obtenir la liste de toutes les lignes de temps du modèle et les détails de mise hors service, voir Mise hors service des modèles.
Paramètres du modèle
Pour modifier les réponses du modèle, vous pouvez modifier les valeurs des paramètres suivants dans le terrain de jeu ou l'API.
- Nombre maximal de jetons de sortie
-
Nombre maximal de marqueurs que le modèle doit générer pour chaque réponse. Estimer quatre caractères par jeton. Comme vous demandez un modèle de clavardage, la réponse dépend de l'invite et chaque réponse n'utilise pas nécessairement le nombre maximal de jetons alloués.
- Température
-
Niveau de caractère aléatoire utilisé pour générer le texte de sortie.
Conseil
Commencez avec la température réglée à 0 ou moins d'un, puis augmentez la température au fur et à mesure que vous régénérez les invites pour une sortie plus créative. Les températures élevées peuvent introduire des hallucinations et des informations factuellement incorrectes. - p premiers
-
Méthode d'échantillonnage qui contrôle la probabilité cumulative des jetons supérieurs à prendre en compte pour le jeton suivant. Affectez à
p
un nombre décimal positif compris entre 0 et 1 pour la probabilité. Par exemple, entrez 0,75 pour les 75 % principaux à prendre en compte. Réglezp
à 1 pour prendre en compte tous les jetons. - k premiers
-
Méthode d'échantillonnage dans laquelle le modèle choisit le jeton suivant de manière aléatoire à partir des jetons
top k
les plus probables. Une valeur élevée pourk
génère une sortie plus aléatoire, ce qui rend le texte de sortie plus naturel. La valeur par défaut pour k est 0 pour les modèlesCohere Command
et -1 pour les modèlesMeta Llama
, ce qui signifie que le modèle doit prendre en compte tous les jetons et ne pas utiliser cette méthode. - Pénalité de fréquence
-
Pénalité affectée à un jeton lorsque ce jeton apparaît fréquemment. Les pénalités élevées encouragent moins de jetons répétés et produisent un résultat plus aléatoire.
Pour les modèles de la famille Meta Llama, cette pénalité peut être positive ou négative. Les nombres positifs encouragent le modèle à utiliser de nouveaux jetons et les nombres négatifs encouragent le modèle à répéter les jetons. Réglez à 0 pour désactiver.
- Pénalité de présence
-
Pénalité affectée à chaque jeton lorsqu'il apparaît dans la sortie pour favoriser la génération de sorties contenant des jetons qui n'ont pas été utilisés. Pour les modèles de la famille Meta Llama, cette pénalité peut être positive ou négative. Réglez à 0 pour désactiver.
- Prédéfinir
-
Paramètre qui fait le meilleur effort pour échantillonner les jetons de manière déterministe. Lorsqu'une valeur est affectée à ce paramètre, le grand modèle de langage vise à renvoyer le même résultat pour les demandes répétées lorsque vous affectez les mêmes valeurs de départ et les mêmes paramètres pour les demandes.
Les valeurs autorisées sont des nombres entiers et l'affectation d'une valeur de départ grande ou petite n'a aucune incidence sur le résultat. L'affectation d'un nombre au paramètre de départ est similaire au marquage de la demande par un nombre. Le grand modèle de langage vise à générer le même ensemble de jetons pour le même entier dans des demandes consécutives. Cette fonction est particulièrement utile pour le débogage et les tests. Le paramètre de départ n'a pas de valeur maximale pour l'API. Dans la console, sa valeur maximale est 9999. Le fait de laisser la valeur de départ vide dans la console ou nulle dans l'API désactive cette fonction.
Avertissement
Il est possible que le paramètre de départ ne produise pas le même résultat à long terme, car les mises à jour du modèle dans le service d'intelligence artificielle générative pour OCI risquent d'invalider la valeur de départ.