Cohere Command R+

Prüfen Sie Performancebenchmarks für das cohere.command-r-plus-08-2024 (Cohere Command R+ 08-2024)-Modell, das auf einer Large Cohere V2-Einheit eines dedizierten KI-Clusters in OCI Generative AI gehostet wird.

  • Siehe Details für das Modell, und prüfen Sie die folgenden Abschnitte:
    • Verfügbare Regionen für dieses Modell.
    • Dedizierte KI-Cluster für das Hosting dieses Modells.
  • Prüfen Sie die Metriken.

Zufällige Länge

Dieses Szenario ahmt Anwendungsfälle für die Textgenerierung nach, bei denen die Größe der Eingabeaufforderung und der Antwort im Voraus unbekannt ist. Aufgrund der unbekannten Prompt- und Response-Längen haben wir einen stochastischen Ansatz verwendet, bei dem sowohl die Prompt- als auch die Response-Länge einer normalen Verteilung folgen. Die Prompt-Länge folgt einer Normalverteilung mit einem Mittelwert von 480 Token und einer Standardabweichung von 240 Token. Die Antwortlänge folgt einer Normalverteilung mit einem Mittelwert von 300 Token und einer Standardabweichung von 150 Token.

Nebenläufigkeit Inferenzgeschwindigkeit auf Tokenebene (Token/Sekunde) Durchsatz auf Tokenebene (Token/Sekunde) Latenz auf Anforderungsebene (Sekunden) Durchsatz auf Anforderungsebene (Anforderung pro Minute) (RPM)
1 122,46 101,28 4,31 13,21
2 114,38 177,67 5,7 17,78
4 107,48 367,88 5,09 45,22
8 95,32 644,56 7,23 62,61
16 82,42 1.036,84 7,91 62,61
32 66,46 1.529,28 10,12 145,82
64 45,7 1.924,84 12,43 206,26
128 33,96 2.546,35 18,22 272,53
256 23,86 2.914,77 30,75 298,88

Chat

In diesem Szenario werden Chat- und Dialoganwendungsfälle behandelt, bei denen die Eingabeaufforderung und die Antworten kurz sind. Die Prompt- und Antwortlänge sind jeweils auf 100 Token festgelegt.

Nebenläufigkeit Inferenzgeschwindigkeit auf Tokenebene (Token/Sekunde) Durchsatz auf Tokenebene (Token/Sekunde) Latenz auf Anforderungsebene (Sekunden) Durchsatz auf Anforderungsebene (Anforderung pro Minute) (RPM)
1 112,29 95,11 1,82 31,65
2 109,27 186,61 1,91 60,55
4 104,19 350,17 1,98 115,7
8 93,66 625,1 2,24 200,55
16 84,6 1.087,14 2,46 354,44
32 68,8 1.718,2 2,96 557,7
64 53,25 2.455,21 3,53 827,78
128 38,02 3.366,97 5,48 1.113,31
256 25,19 3.983,61 8,35 1.322,15

Generation Schwer

Dieses Szenario gilt für Anwendungsfälle für die Generierung und Modellreaktion. Beispiel: Eine lange Jobbeschreibung, die aus einer kurzen Aufzählungsliste mit Artikeln generiert wird. In diesem Fall wird die Prompt-Länge auf 100 Token und die Antwortlänge auf 1.000 Token festgelegt.

Nebenläufigkeit Inferenzgeschwindigkeit auf Tokenebene (Token/Sekunde) Durchsatz auf Tokenebene (Token/Sekunde) Latenz auf Anforderungsebene (Sekunden) Durchsatz auf Anforderungsebene (Anforderung pro Minute) (RPM)
1 126,4 110,9 13,07 4,57
2 122,93 213,92 13,33 8,87
4 117,03 403,27 15,32 15,26
8 106,11 707,45 16,86 26,78
16 98,06 1.258,94 18,22 47,94
32 86,74 2.147,82 21,04 79,38
64 72,43 3.011,59 25,5 107,48
128 55,8 5.058,49 32,38 191,22
256 36,56 5.025,93 52,34 189,68

RAG

Das Retrieval-Augmented Generation-(RAG-)Szenario hat einen sehr langen Prompt und eine kurze Antwort, beispielsweise bei der Zusammenfassung von Anwendungsfällen. Die Prompt-Länge ist auf 2.000 Token festgelegt, und die Antwortlänge ist auf 200 Token festgelegt.

Nebenläufigkeit Inferenzgeschwindigkeit auf Tokenebene (Token/Sekunde) Durchsatz auf Tokenebene (Token/Sekunde) Latenz auf Anforderungsebene (Sekunden) Durchsatz auf Anforderungsebene (Anforderung pro Minute) (RPM)
1 107,17 94,33 4,17 14,12
2 100,71 176,04 4,44 26,35
4 90,03 310,18 4,96 46,44
8 70,71 493,3 6,26 73,86
16 53,45 716,66 8,2 108,07
32 35,6 929,63 12,22 139,13
64 21,75 1.150,16 18,41 172,14
128 17,99 1.209,36 31,93 181,05
256 9,19 1.213,82 53,31 181,7