Commande Cohere R+ (obsolète)
Le modèle Command R+ est optimisé pour les tâches complexes, offre une compréhension avancée du langage, une capacité supérieure et des réponses plus nuancées que cohere.command-r-16k
. Également idéal pour répondre à des questions, analyser des sentiments et extraire des informations.
Disponible dans ces régions
- Brésil - Est (Sao Paulo)
- Allemagne - Centre (Francfort)
- Royaume-Uni - Sud (Londres)
- États-Unis - Midwest (Chicago)
Principales fonctions
- Pour l'inférence dédiée, créez une grappe dédiée à l'IA et un point d'extrémité et hébergez le modèle sur la grappe.
- Invite maximale + longueur de réponse : 16 000 jetons pour chaque exécution.
- Pour l'inférence sur demande, la longueur de la réponse est plafonnée à 4 000 jetons pour chaque exécution.
- Pour le mode dédié, la longueur de la réponse n'est pas plafonnée et la longueur du contexte est de 16 000 jetons.
- Optimisé pour les tâches complexes, offre une compréhension avancée du langage, une capacité supérieure et des réponses plus nuancées que
cohere.command-r-16k
. Également idéal pour répondre à des questions, analyser des sentiments et extraire des informations.
Command R Par rapport à R+
- Taille et performance du modèle : Command R est un modèle de langage à plus petite échelle que Command R+. Bien que Command R offre des réponses de haute qualité, les réponses peuvent ne pas avoir le même niveau de sophistication et de profondeur que les réponses Command R+. Command R+ est un modèle plus volumineux, offrant des performances améliorées et des compréhensions plus sophistiquées.
- Cas d'utilisation : Command R convient à diverses applications, notamment la génération de texte, la récapitulation, la traduction et la classification basée sur le texte. C'est un choix idéal pour créer des agents d'IA conversationnelle et des applications basées sur le clavardage. Command R+, d'autre part, est conçu pour les tâches linguistiques plus complexes qui nécessitent une compréhension et une nuance plus approfondies, telles que la génération de texte, la réponse aux questions, l'analyse des sentiments et la récupération d'informations.
- Capacité et évolutivité : Command R peut gérer un nombre modéré d'utilisateurs concurrents par rapport à Command R+. Command R+, cependant, est conçu pour traiter un volume plus élevé de demandes et prendre en charge des cas d'utilisation plus complexes, ce qui pourrait entraîner des prix plus élevés en raison de sa capacité et de ses performances accrues.
En résumé, Command R est un excellent choix pour ceux qui recherchent une option plus abordable et flexible pour les tâches linguistiques générales. D'autre part, Command R+ est conçu pour les utilisateurs expérimentés qui ont besoin d'une compréhension avancée du langage, d'une capacité supérieure et de réponses plus nuancées. Le choix entre les deux dépendrait des exigences spécifiques et du budget de votre application.
Grappe d'IA dédiée pour le modèle
Dans la liste de régions précédente, les modèles des régions qui ne sont pas marquées avec (grappe dédiée à l'IA uniquement) ont des options de grappe dédiée à l'IA et à la demande. Pour l'option sur demande, vous n'avez pas besoin de grappes et vous pouvez accéder au modèle dans le terrain de jeu de la console ou au moyen de l'API.
Pour atteindre un modèle au moyen d'une grappe dédiée à l'IA dans n'importe quelle région répertoriée, vous devez créer un point d'extrémité pour ce modèle sur une grappe dédiée à l'IA. Pour connaître la taille d'unité de grappe correspondant à ce modèle, voir le tableau suivant.
Modèle de base | Cluster de réglage fin | Grappe d'hébergement | Informations sur la page de tarification | Demander une augmentation de limite de grappe |
---|---|---|---|---|
|
Non disponible pour le réglage fin |
|
|
|
-
Si vous n'avez pas suffisamment de limites de grappe dans votre location pour héberger le modèle Cohere Command R+ (obsolète) sur une grappe dédiée à l'IA, demandez à la limite
dedicated-unit-large-cohere-count
d'augmenter de 2. - Consultez les tests de performance de grappe Cohere Command R+ pour différents cas d'utilisation.
Dates de lancement et de mise hors service
Modèle | Date de version | Date de mise hors service sur demande | Date de mise hors service en mode dédié |
---|---|---|---|
cohere.command-r-plus
|
2,024-6-18 | 2,025-1-16 | 2,025-8-7 |
Pour obtenir la liste de toutes les lignes de temps du modèle et les détails de mise hors service, voir Mise hors service des modèles.
Paramètres du modèle
Pour modifier les réponses du modèle, vous pouvez modifier les valeurs des paramètres suivants dans le terrain de jeu ou l'API.
- Nombre maximal de jetons de sortie
-
Nombre maximal de marqueurs que le modèle doit générer pour chaque réponse. Estimer quatre caractères par jeton. Comme vous demandez un modèle de clavardage, la réponse dépend de l'invite et chaque réponse n'utilise pas nécessairement le nombre maximal de jetons alloués.
- Remplacement du préambule
-
Contexte initial ou message de guidage pour un modèle de clavardage. Lorsque vous ne donnez pas de préambule à un modèle de clavardage, le préambule par défaut de ce modèle est utilisé. Vous pouvez affecter un préambule au paramètre Remplacement de préambule pour les modèles. Le préambule par défaut de la famille Cohere est :
You are Command. You are an extremely capable large language model built by Cohere. You are given instructions programmatically via an API that you follow to the best of your ability.
Le remplacement du préambule par défaut est facultatif. Lorsque cette option est spécifiée, le remplacement de modèle remplace le préambule Cohere par défaut. Lors de l'ajout d'un préambule, pour obtenir de meilleurs résultats, indiquez le contexte du modèle, des instructions et un style de conversation.
Conseil
Pour les modèles de clavardage sans le paramètre Remplacement de modèle, vous pouvez inclure un préambule dans la conversation de clavardage et demander directement au modèle de répondre d'une certaine manière. - Mode de sécurité
- Ajoute une instruction de sécurité à utiliser pour le modèle lors de la génération des réponses. Les options sont les suivantes :
- Contextuel : (Par défaut) Met moins de contraintes sur la sortie. Il maintient des protections de base en visant à rejeter les suggestions nuisibles ou illégales, mais il permet la profanation et certains contenus toxiques, des contenus sexuellement explicites et violents, et des contenus qui contiennent des informations médicales, financières ou juridiques. Le mode contextuel est adapté au divertissement, à la créativité ou à l'enseignement.
- Strict : vise à éviter des sujets sensibles, tels que les actes violents ou sexuels et la profanation. Ce mode vise à fournir une expérience plus sûre en interdisant les réponses ou les recommandations qu'il juge inappropriées. Le mode strict est adapté à une utilisation d'entreprise, par exemple pour les communications d'entreprise et le service à la clientèle.
- Désactivé : Aucun mode de sécurité n'est appliqué.
- Température
-
Niveau de caractère aléatoire utilisé pour générer le texte de sortie.
Conseil
Commencez avec la température réglée à 0 ou moins d'un, puis augmentez la température au fur et à mesure que vous régénérez les invites pour une sortie plus créative. Les températures élevées peuvent introduire des hallucinations et des informations factuellement incorrectes. - p premiers
-
Méthode d'échantillonnage qui contrôle la probabilité cumulative des jetons supérieurs à prendre en compte pour le jeton suivant. Affectez à
p
un nombre décimal compris entre 0 et 1 pour la probabilité. Par exemple, entrez 0,75 pour les 75 % principaux à prendre en compte. Réglezp
à 1 pour prendre en compte tous les jetons. - k premiers
-
Méthode d'échantillonnage dans laquelle le modèle choisit le jeton suivant de manière aléatoire à partir des jetons
top k
les plus probables. Une valeur élevée pourk
génère une sortie plus aléatoire, ce qui rend le texte de sortie plus naturel. La valeur par défaut pour k est 0 pour les modèlesCohere Command
et -1 pour les modèlesMeta Llama
, ce qui signifie que le modèle doit prendre en compte tous les jetons et ne pas utiliser cette méthode. - Pénalité de fréquence
-
Pénalité affectée à un jeton lorsque ce jeton apparaît fréquemment. Les pénalités élevées encouragent moins de jetons répétés et produisent un résultat plus aléatoire.
Pour les modèles de la famille Meta Llama, cette pénalité peut être positive ou négative. Les nombres positifs encouragent le modèle à utiliser de nouveaux jetons et les nombres négatifs encouragent le modèle à répéter les jetons. Réglez à 0 pour désactiver.
- Pénalité de présence
-
Pénalité affectée à chaque jeton lorsqu'il apparaît dans la sortie pour favoriser la génération de sorties contenant des jetons qui n'ont pas été utilisés.
- Prédéfinir
-
Paramètre qui fait le meilleur effort pour échantillonner les jetons de manière déterministe. Lorsqu'une valeur est affectée à ce paramètre, le grand modèle de langage vise à renvoyer le même résultat pour les demandes répétées lorsque vous affectez les mêmes valeurs de départ et les mêmes paramètres pour les demandes.
Les valeurs autorisées sont des nombres entiers et l'affectation d'une valeur de départ grande ou petite n'a aucune incidence sur le résultat. L'affectation d'un nombre au paramètre de départ est similaire au marquage de la demande par un nombre. Le grand modèle de langage vise à générer le même ensemble de jetons pour le même entier dans des demandes consécutives. Cette fonction est particulièrement utile pour le débogage et les tests. Le paramètre de départ n'a pas de valeur maximale pour l'API. Dans la console, sa valeur maximale est 9999. Le fait de laisser la valeur de départ vide dans la console ou nulle dans l'API désactive cette fonction.
Avertissement
Il est possible que le paramètre de départ ne produise pas le même résultat à long terme, car les mises à jour du modèle dans le service d'intelligence artificielle générative pour OCI risquent d'invalider la valeur de départ.