Meta Llama 4 Scout
Rivedere i benchmark delle prestazioni per il modello meta.llama-4-scout-17b-16e-instruct
(Meta Llama 4 Scout) ospitato su un'unità Large Generic V2 di un cluster AI dedicato in OCI Generative AI.
Lunghezza casuale
Questo scenario imita i casi d'uso di generazione testo in cui la dimensione del prompt e della risposta è sconosciuta in anticipo. A causa della lunghezza del prompt e della risposta sconosciuta, abbiamo utilizzato un approccio stocastico in cui sia la lunghezza del prompt che la lunghezza della risposta seguono una distribuzione normale. La lunghezza del prompt segue una distribuzione normale con una media di 480 token e una deviazione standard di 240 token. La lunghezza della risposta segue una distribuzione normale con una media di 300 token e una deviazione standard di 150 token.
Concorrenza | Velocità di inferenza a livello di token (token/secondo) | Throughput a livello di token (token/secondo) | Latenza a livello di richiesta (secondo) | Throughput a livello di richiesta (richiesta al secondo) (RPS) |
---|---|---|---|---|
1 | 92,72 | 90,52 | 3,27 | 0,3 |
2 | 88,13 | 172,6 | 3,45 | 0,58 |
4 | 79,93 | 312,02 | 3,73 | 1,06 |
8 | 68,97 | 535,5 | 4,37 | 1,8 |
16 | 56,5 | 858,8 | 5,35 | 2,88 |
32 | 42,99 | 1.257,61 | 7,08 | 4,19 |
64 | 34,16 | 1.892,06 | 8,16 | 6,9 |
128 | 26,42 | 2.466,57 | 10,87 | 9,05 |
256 | 18,93 | 2.681,16 | 14,86 | 10,98 |
Chat
Questo scenario copre i casi d'uso di chat e finestre di dialogo in cui il prompt e le risposte sono brevi. La lunghezza del prompt e della risposta è fissata a 100 token.
Concorrenza | Velocità di inferenza a livello di token (token/secondo) | Throughput a livello di token (token/secondo) | Latenza a livello di richiesta (secondo) | Throughput a livello di richiesta (richiesta al secondo) (RPS) |
---|---|---|---|---|
1 | 92,91 | 90,04 | 1,11 | 0,9 |
2 | 88,13 | 169,96 | 1,17 | 1,7 |
4 | 82,43 | 315,6 | 1,26 | 3,16 |
8 | 71,26 | 542,5 | 1,46 | 5,42 |
16 | 61,21 | 920,58 | 1,72 | 9,21 |
32 | 46,96 | 1.390,24 | 2,24 | 13,9 |
64 | 38,84 | 2.154,82 | 2,76 | 21,55 |
128 | 30,96 | 2.985,03 | 3,62 | 29,85 |
256 | 24,12 | 3.206,01 | 5,19 | 32,06 |
Generazione pesante
Questo scenario si riferisce a casi d'uso intensi di generazione e risposta modello. Ad esempio, una descrizione lunga del lavoro generata da un breve elenco puntato di elementi. In questo caso, la lunghezza del prompt è fissata a 100 token e la lunghezza della risposta è fissata a 1.000 token.
Concorrenza | Velocità di inferenza a livello di token (token/secondo) | Throughput a livello di token (token/secondo) | Latenza a livello di richiesta (secondo) | Throughput a livello di richiesta (richiesta al secondo) (RPS) |
---|---|---|---|---|
1 | 92,86 | 92,17 | 10,8 | 0,09 |
2 | 88,78 | 175,46 | 11,3 | 0,18 |
4 | 82,03 | 324,26 | 12,24 | 0,32 |
8 | 72,13 | 573,25 | 13,92 | 0,57 |
16 | 61,02 | 967,61 | 16,47 | 0,97 |
32 | 47,76 | 1.515,78 | 21,07 | 1,52 |
64 | 40,09 | 2.538,03 | 25,13 | 2,54 |
128 | 32,14 | 4.039,3 | 31,46 | 4,04 |
256 | 23,74 | 4.208,18 | 43,48 | 4,21 |
RAG
Lo scenario di retrieval-augmented generation (RAG) ha un prompt molto lungo e una risposta breve, ad esempio il riepilogo dei casi d'uso. La lunghezza del prompt è fissata a 2.000 token e la lunghezza della risposta è fissata a 200 token.
Concorrenza | Velocità di inferenza a livello di token (token/secondo) | Throughput a livello di token (token/secondo) | Latenza a livello di richiesta (secondo) | Throughput a livello di richiesta (richiesta al secondo) (RPS) |
---|---|---|---|---|
1 | 92,63 | 88,45 | 2,25 | 0,44 |
2 | 87,44 | 164,27 | 2,42 | 0,82 |
4 | 80,56 | 291,06 | 2,73 | 1,46 |
8 | 69,78 | 482,27 | 3,28 | 2,41 |
16 | 52,24 | 740,45 | 4,27 | 3,7 |
32 | 38,5 | 1.044,96 | 6,04 | 5,22 |
64 | 26,35 | 1.305,62 | 8,98 | 6,53 |
128 | 16 | 1.348,21 | 16,19 | 6,74 |
256 | 16 | 1.303,9 | 26,68 | 6,52 |