Cohere Command R 08-2024

Rivedere i benchmark delle prestazioni per il modello cohere.command-r-08-2024 (Cohere Command R 08-2024) ospitato su un'unità Small Cohere V2 di un cluster AI dedicato in OCI Generative AI.

  • Vedere i dettagli del modello ed esaminare le sezioni riportate di seguito.
    • Aree disponibili per questo modello.
    • Cluster AI dedicati per l'hosting di questo modello.
  • Esaminare le metriche.

Lunghezza casuale

Questo scenario imita i casi d'uso di generazione testo in cui la dimensione del prompt e della risposta è sconosciuta in anticipo. A causa della lunghezza del prompt e della risposta sconosciuta, abbiamo utilizzato un approccio stocastico in cui sia la lunghezza del prompt che la lunghezza della risposta seguono una distribuzione normale. La lunghezza del prompt segue una distribuzione normale con una media di 480 token e una deviazione standard di 240 token. La lunghezza della risposta segue una distribuzione normale con una media di 300 token e una deviazione standard di 150 token.

Concorrenza Velocità di inferenza a livello di token (token/secondo) Throughput a livello di token (token/secondo) Latenza a livello di richiesta (secondo) Throughput a livello di richiesta (richiesta al secondo) (RPS)
1 66,43 52,84 2,68 0,37
2 64,11 105,8 3,01 0,66
4 59,66 198,97 3,27 1,2
8 53,36 357,07 3,62 2,16
16 44,39 583,18 3,88 3,92
32 35,61 906,21 5,03 5,81
64 24,01 1.073,21 6,86 7,67
128 15,89 1.034,44 12,18 7,96
256 16,24 1.052,12 19,47 8,19

Chat

Questo scenario copre i casi d'uso di chat e finestre di dialogo in cui il prompt e le risposte sono brevi. La lunghezza del prompt e della risposta è fissata a 100 token.

Concorrenza Velocità di inferenza a livello di token (token/secondo) Throughput a livello di token (token/secondo) Latenza a livello di richiesta (secondo) Throughput a livello di richiesta (richiesta al secondo) (RPS)
1 67,4 46,63 1,58 0,63
2 65,55 90,56 1,59 1,24
4 61,38 173,89 1,71 2,31
8 55,53 317,1 1,81 4,32
16 49,01 555,54 2,03 7,49
32 41,59 843,26 2,53 11,59
64 29,63 1.231,41 3,31 16,86
128 19,64 1.340,32 5,57 18,54
256 20,1 1.313,56 9,41 17,91

Generazione pesante

Questo scenario si riferisce a casi d'uso intensi di generazione e risposta modello. Ad esempio, una descrizione lunga del lavoro generata da un breve elenco puntato di elementi. In questo caso, la lunghezza del prompt è fissata a 100 token e la lunghezza della risposta è fissata a 1.000 token.

Concorrenza Velocità di inferenza a livello di token (token/secondo) Throughput a livello di token (token/secondo) Latenza a livello di richiesta (secondo) Throughput a livello di richiesta (richiesta al secondo) (RPS)
1 67,35 54,93 2,82 0,35
2 65,72 106,49 2,96 0,67
4 62,54 205,55 2,99 1,32
8 57,08 361,81 2,99 2,56
16 51,99 668,26 3,44 4,41
32 44,49 1.060,46 3,79 7,52
64 35,05 1.633,24 4,89 11,02
128 25,59 1.676,8 7,09 13,5
256 26,23 1.609,94 11,96 12,5

RAG

Lo scenario di retrieval-augmented generation (RAG) ha un prompt molto lungo e una risposta breve, ad esempio il riepilogo dei casi d'uso. La lunghezza del prompt è fissata a 2.000 token e la lunghezza della risposta è fissata a 200 token.

Concorrenza Velocità di inferenza a livello di token (token/secondo) Throughput a livello di token (token/secondo) Latenza a livello di richiesta (secondo) Throughput a livello di richiesta (richiesta al secondo) (RPS)
1 65,07 48,27 2,62 0,38
2 59,6 89,68 2,84 0,7
4 50,85 156,94 3,23 1,22
8 40,68 247,23 4,06 1,93
16 28,73 351,66 5,6 2,76
32 18,19 425,94 8,82 3,37
64 9,78 440,59 15,46 3,61
128 5,86 392,06 29,1 3,55
256 6,13 425,79 48,52 3,47