Meta Llama 4 Maverick

Consultez les points de référence de performance pour le modèle meta.llama-4-maverick-17b-128e-instruct-fp8 (Meta Llama 4 Scout) hébergé sur une unité Large Generic 2 d'une grappe dédiée à l'IA dans l'IA générative OCI.

  • Voir les détails du modèle et consulter les sections suivantes :
    • Régions disponibles pour ce modèle.
    • Grappes dédiées à l'IA pour l'hébergement de ce modèle.
  • Vérifiez les mesures.

Longueur aléatoire

Ce scénario imite les cas d'utilisation de génération de texte où la taille de l'invite et de la réponse sont inconnues à l'avance. En raison de l'invite inconnue et des longueurs de réponse, nous avons utilisé une approche stochastique où l'invite et la longueur de réponse suivent une distribution normale. La longueur rapide suit une distribution normale avec une moyenne de 480 jetons et un écart-type de 240 jetons. La longueur de réponse suit une distribution normale avec une moyenne de 300 jetons et un écart-type de 150 jetons.

Concurrence Vitesse d'inférence au niveau du jeton (jeton/seconde) Débit au niveau du jeton (jeton/seconde) Latence au niveau de la demande (seconde) Débit au niveau de la demande (demande par seconde) (RPS)
1 160.92 156.72 1.88 0.53
2 144.6 282.14 2.14 0.93
4 130.72 508.33 2.3 1.73
8 115.38 891.47 2.76 2.85
16 93.39 1,415.86 3.27 4.73
32 69.48 2,040.86 4.28 7.02
64 49.96 2,709.44 5.82 9.55
128 35.25 3,300.96 8 12.39
256 16.01 2,302.47 16.04 9.58

Clavarder

Ce scénario couvre les cas d'utilisation de clavardage et de dialogue où l'invite et les réponses sont courtes. L'invite et la longueur de la réponse sont chacune fixées à 100 jetons.

Concurrence Vitesse d'inférence au niveau du jeton (jeton/seconde) Débit au niveau du jeton (jeton/seconde) Latence au niveau de la demande (seconde) Débit au niveau de la demande (demande par seconde) (RPS)
1 164.93 153.48 0.65 1.53
2 144.84 265.33 0.75 2.65
4 137.8 499.68 0.79 5
8 125.67 896.43 0.89 8.96
16 112.67 1,598.32 0.98 15.98
32 93.28 2,454.19 1.19 24.54
64 81.8 3,984.66 1.42 39.85
128 62.56 6,152.13 1.9 61.52
256 21.94 4,642.28 5.03 46.42

Génération lourde

Ce scénario concerne les cas d'utilisation lourds de génération et de réponse de modèle. Par exemple, une description d'emploi longue générée à partir d'une courte liste à puces d'éléments. Dans ce cas, la longueur de l'invite est fixée à 100 jetons et la longueur de réponse est fixée à 1 000 jetons.

Concurrence Vitesse d'inférence au niveau du jeton (jeton/seconde) Débit au niveau du jeton (jeton/seconde) Latence au niveau de la demande (seconde) Débit au niveau de la demande (demande par seconde) (RPS)
1 161.55 159.91 6.24 0.16
2 145.3 286.51 6.95 0.29
4 136.6 541.22 7.38 0.54
8 127.96 1,009.45 7.89 1.01
16 111.65 1,750.32 9.06 1.75
32 90.76 2,855.66 11.14 2.86
64 75.55 4,702.83 13.41 4.7
128 59.49 7,378.83 17.11 7.38
256 22.47 5,622.02 44.94 5.62

Génération augmentée par extraction (RAG)

Le scénario de génération augmentée par récupération (RAG) a une invite très longue et une réponse courte, telle que la récapitulation des cas d'utilisation. La longueur de l'invite est fixée à 2 000 jetons et la longueur de réponse à 200 jetons.

Concurrence Vitesse d'inférence au niveau du jeton (jeton/seconde) Débit au niveau du jeton (jeton/seconde) Latence au niveau de la demande (seconde) Débit au niveau de la demande (demande par seconde) (RPS)
1 161.27 149.17 1.33 0.75
2 142.81 266.51 1.49 1.33
4 132.11 475.77 1.65 2.38
8 121.12 819.25 1.91 4.1
16 103.7 1,288.25 2.36 6.44
32 79.09 1,806 3.29 9.03
64 60.38 2,453.36 4.73 12.27
128 42.01 2,970.15 7.53 14.85
256 17.37 2,601.33 16.93 13.01