Meta Llama 3.1 (405B)
Rivedere i benchmark delle prestazioni per il modello meta.llama-3.1-405b-instruct
(Meta Llama 3.1 (405B)) ospitato su un'unità Large Generic 2 di un cluster AI dedicato in OCI Generative AI.
- Vedere i dettagli del modello ed esaminare le sezioni riportate di seguito.
- Aree disponibili per questo modello.
- Cluster AI dedicati per l'hosting di questo modello.
- Esaminare le metriche.
È possibile ospitare il modello meta.llama-3.1-405b-instruct
solo su un cluster AI dedicato di tipo Generico grande 2. Questo tipo di dati ha lo scopo di fornire un throughput migliore con meno hardware e un costo inferiore rispetto al precedente, Generico grande 4.
Le tabelle seguenti forniscono i benchmark eseguiti per il modello meta.llama-3.1-405b-instruct
ospitato su un'unità Generica grande 2 e su un'unità Generica grande 4. Se il modello è ospitato nel tipo di cluster predecessore Generico grande 4, confrontare le tabelle riportate di seguito per decidere se ospitare il modello nella nuova unità.
Lunghezza casuale
Questo scenario imita i casi d'uso di generazione testo in cui la dimensione del prompt e della risposta è sconosciuta in anticipo. A causa della lunghezza del prompt e della risposta sconosciuta, abbiamo utilizzato un approccio stocastico in cui sia la lunghezza del prompt che la lunghezza della risposta seguono una distribuzione normale. La lunghezza del prompt segue una distribuzione normale con una media di 480 token e una deviazione standard di 240 token. La lunghezza della risposta segue una distribuzione normale con una media di 300 token e una deviazione standard di 150 token.
- Il modello
meta.llama-3.1-405b-instruct
ospitato su un'unità Large Generic 2 di un cluster AI dedicato -
Concorrenza Velocità di inferenza a livello di token (token/secondo) Throughput a livello di token (token/secondo) Latenza a livello di richiesta (secondo) Throughput a livello di richiesta (richiesta al minuto) (RPM) 1 27,44 26,84 11,66 5,1 2 26,56 51,93 11,44 10,39 4 25,66 100,31 11,97 19,89 8 24,98 193,34 11,96 39,48 16 20,73 322,99 14,86 63,76 32 18,39 562,55 16,5 114,21 64 15,05 877,61 20,42 180,76 128 10,79 1.210,61 29,53 241,73 256 8,67 1.301,65 47,22 282,78 - Il modello
meta.llama-3.1-405b-instruct
ospitato su un'unità Large Generic 4 predecessore di un cluster AI dedicato -
Concorrenza Velocità di inferenza a livello di token (token/secondo) Throughput a livello di token (token/secondo) Latenza a livello di richiesta (secondo) Throughput a livello di richiesta (richiesta al minuto) (RPM) 1 32,66 25,79 10,78 5,56 2 31,36 50,81 10,06 11,68 4 29,86 96,01 10,87 21,52 8 27,89 170,45 10,87 34,09 16 24,74 282,52 13,51 60,35 32 21,51 457,24 16,73 91,42 64 17,68 676,9 18,29 152,47 128 13,06 1.035,08 25,59 222,67 256 7,82 1.302,71 41,88 289,08
Chat
Questo scenario copre i casi d'uso di chat e finestre di dialogo in cui il prompt e le risposte sono brevi. La lunghezza del prompt e della risposta è fissata a 100 token.
- Il modello
meta.llama-3.1-405b-instruct
ospitato su un'unità Large Generic 2 di un cluster AI dedicato -
Concorrenza Velocità di inferenza a livello di token (token/secondo) Throughput a livello di token (token/secondo) Latenza a livello di richiesta (secondo) Throughput a livello di richiesta (richiesta al minuto) (RPM) 1 27,38 26,65 3,74 15,99 2 26,43 51,3 3,88 30,78 4 25,92 100,61 3,96 60,36 8 25,52 196,72 4,06 118,03 16 21,24 328,32 4,84 196,99 32 19,32 588,59 5,36 353,15 64 16,73 1.003,22 6,29 601,93 128 12,56 1.433,27 8,59 859,96 256 8,6 1.586,86 8,59 952,11 - Il modello
meta.llama-3.1-405b-instruct
ospitato su un'unità Large Generic 4 predecessore di un cluster AI dedicato -
Concorrenza Velocità di inferenza a livello di token (token/secondo) Throughput a livello di token (token/secondo) Latenza a livello di richiesta (secondo) Throughput a livello di richiesta (richiesta al minuto) (RPM) 1 28,93 21,65 4,6 13,01 2 31,72 50,89 3,9 30,54 4 30,86 91,23 4,17 54,74 8 29,61 163,06 4,33 97,84 16 27,66 277,48 4,49 166,49 32 26,01 615,83 4,77 369,5 64 22,49 1.027,87 5,67 616,77 128 17,22 1.527,06 7,37 616,77 256 10,67 1.882,65 11,44 1.131,71
Generazione pesante
Questo scenario si riferisce a casi d'uso intensi di generazione e risposta modello. Ad esempio, una descrizione lunga del lavoro generata da un breve elenco puntato di elementi. In questo caso, la lunghezza del prompt è fissata a 100 token e la lunghezza della risposta è fissata a 1.000 token.
- Il modello
meta.llama-3.1-405b-instruct
ospitato su un'unità Large Generic 2 di un cluster AI dedicato -
Concorrenza Velocità di inferenza a livello di token (token/secondo) Throughput a livello di token (token/secondo) Latenza a livello di richiesta (secondo) Throughput a livello di richiesta (richiesta al minuto) (RPM) 1 27,35 26,65 36,65 1,6 2 26,72 49,97 37,53 3 4 26,21 99,94 38,27 6 8 26,42 199,89 38 11,99 16 22,6 346,45 44,45 20,79 32 21,97 692,91 45,77 41,57 64 20,1 1.177,63 50,14 70,66 128 17,06 2.086,85 60,7 125,21 256 11,05 2.024,72 109,59 121,48 - Il modello
meta.llama-3.1-405b-instruct
ospitato su un'unità Large Generic 4 predecessore di un cluster AI dedicato -
Concorrenza Velocità di inferenza a livello di token (token/secondo) Throughput a livello di token (token/secondo) Latenza a livello di richiesta (secondo) Throughput a livello di richiesta (richiesta al minuto) (RPM) 1 31,28 26,55 18,5 3,24 2 30,79 50,88 16,14 7,12 4 29,46 93,36 18,15 12,09 8 28,2 170,2 19,4 21,4 16 26,37 271,8 17,73 40,56 32 25,24 419,13 21,06 55,06 64 22,19 755,43 24,38 98,29 128 17,43 1.248,19 29,45 168 256 11,27 1.794,88 44,85 236,65
RAG
Lo scenario di retrieval-augmented generation (RAG) ha un prompt molto lungo e una risposta breve, ad esempio il riepilogo dei casi d'uso. La lunghezza del prompt è fissata a 2.000 token e la lunghezza della risposta è fissata a 200 token.
- Il modello
meta.llama-3.1-405b-instruct
ospitato su un'unità Large Generic 2 di un cluster AI dedicato -
Concorrenza Velocità di inferenza a livello di token (token/secondo) Throughput a livello di token (token/secondo) Latenza a livello di richiesta (secondo) Throughput a livello di richiesta (richiesta al minuto) (RPM) 1 27,3 25,65 7,74 7,69 2 25,7 48,3 8,21 14,49 4 23,48 88,27 8,96 26,48 8 20,09 150,57 10,52 45,17 16 14,89 223,85 14,1 67,15 32 10,97 330,1 19,1 99,03 64 8,8 386,54 32,06 115,96 128 8,82 386,74 62,04 116,02 256 8,82 375,21 119,99 112,56 - Il modello
meta.llama-3.1-405b-instruct
ospitato su un'unità Large Generic 4 predecessore di un cluster AI dedicato -
Concorrenza Velocità di inferenza a livello di token (token/secondo) Throughput a livello di token (token/secondo) Latenza a livello di richiesta (secondo) Throughput a livello di richiesta (richiesta al minuto) (RPM) 1 32,94 25,28 7,91 7,58 2 31,31 49,05 8,15 14,71 4 28,85 87,28 8,85 26,18 8 24,24 141,04 10,42 42,31 16 20,31 219,48 12,52 65,85 32 15,99 366,75 16,7 110,03 64 11,03 485,78 24,63 145,74 128 8,27 560,24 41,22 168,07 256 8,01 583,97 74,21 175,19