Commande Cohere R (en phase d'abandon)
Le modèle cohere.command-r-16k
(Command R) est un excellent choix pour ceux qui recherchent une option plus abordable et plus flexible pour les tâches linguistiques générales. D'autre part, Command R+ est conçu pour les utilisateurs expérimentés qui ont besoin d'une compréhension avancée du langage, d'une capacité supérieure et de réponses plus nuancées. Le choix entre les deux dépendra des exigences et du budget spécifiques de votre demande.
Disponible dans ces régions
- Est du Brésil (São Paulo)
- Allemagne centrale (Francfort)
- Japan Central (Osaka) (cluster d'IA dédié uniquement)
- Sud du Royaume-Uni (Londres)
- Midwest des Etats-Unis (Chicago)
Principales fonctionnalités
- Pour l'inférence dédiée, créez un cluster d'IA dédié et une adresse et hébergez le modèle sur le cluster.
- Invite maximale + longueur de réponse : 16 000 jetons pour chaque exécution.
- Pour l'inférence à la demande, la longueur de la réponse est limitée à 4 000 jetons pour chaque exécution.
- Lorsque vous affinez ce modèle, la longueur de réponse du modèle est plafonnée à 4 000 jetons pour chaque exécution.
- Pour le mode dédié, la longueur de la réponse n'est pas limitée et la longueur du contexte est de 16 000 jetons.
- Optimisé pour les interactions conversationnelles et les tâches contextuelles longues. Idéal pour la génération de texte, la synthèse, la traduction et la classification basée sur le texte.
- Vous pouvez affiner ce modèle avec votre ensemble de données.
Command R comparé à R+
- Taille et performances du modèle : Command R est un modèle de langage à plus petite échelle que Command R+. Alors que Command R offre des réponses de haute qualité, les réponses peuvent ne pas avoir le même niveau de sophistication et de profondeur que les réponses R+ de la commande. Command R+ est un modèle plus large, ce qui permet d'améliorer les performances et d'améliorer les connaissances.
- Cas d'emploi : Command R convient à diverses applications, notamment la génération de texte, la synthèse, la traduction et la classification basée sur le texte. Il s'agit d'un choix idéal pour créer des agents d'IA conversationnelle et des applications basées sur le chat. Command R+, d'autre part, est conçu pour les tâches linguistiques plus complexes qui nécessitent une compréhension et une nuance plus profondes, telles que la génération de texte, l'analyse des questions, l'analyse des sentiments et la récupération d'informations.
- Capacité et évolutivité : Command R peut gérer un nombre modéré d'utilisateurs simultanés par rapport à Command R+. Command R+, cependant, est conçu pour gérer un volume plus élevé de demandes et prendre en charge des cas d'utilisation plus complexes, ce qui pourrait entraîner des prix plus élevés en raison de sa capacité et de ses performances accrues.
En résumé, Command R est un excellent choix pour ceux qui recherchent une option plus abordable et flexible pour les tâches linguistiques générales. D'autre part, Command R+ est conçu pour les utilisateurs expérimentés qui ont besoin d'une compréhension avancée du langage, d'une capacité supérieure et de réponses plus nuancées. Le choix entre les deux dépendra des exigences et du budget spécifiques de votre demande.
Cluster d'IA dédié pour le modèle
Dans la liste des régions précédente, les modèles des régions qui ne sont pas marquées par (cluster d'IA dédié uniquement) disposent d'options de cluster d'IA à la demande et dédiées. Pour l'option à la demande, vous n'avez pas besoin de clusters et vous pouvez accéder au modèle dans le playground de test de la console ou via l'API.
Pour atteindre un modèle via un cluster d'IA dédié dans une région répertoriée, vous devez créer une adresse pour ce modèle sur un cluster d'IA dédié. Pour connaître la taille d'unité de cluster correspondant à ce modèle, reportez-vous au tableau suivant.
Modèle de base | Cluster de réglage fin | Cluster d'hébergement | Informations sur la page de tarification | Demander une augmentation de limite de cluster |
---|---|---|---|---|
|
|
|
|
|
-
Si votre location ne dispose pas de suffisamment de limites de cluster pour héberger le modèle Cohere Command R (en phase d'abandon) sur un cluster d'IA dédié, demande une augmentation de 1 de la limite
dedicated-unit-small-cohere-count
. -
Pour affiner un modèle Cohere Command R (en phase d'abandon), vous devez demander à
dedicated-unit-small-cohere-count
d'augmenter de 8. - Consultez les tests d'évaluation des performances du cluster Cohere Command R pour différents cas d'utilisation.
Dates de déblocage et de sortie
Modèle | Date de lancement | Date de sortie à la demande | Date de retrait du mode dédié |
---|---|---|---|
cohere.command-r-08-2024
|
2 024-6-4 | 2 025-1-16 | 2 025-8-7 |
Pour obtenir la liste de toutes les lignes de temps du modèle et des détails de sortie, voir Mettre hors service les modèles.
Paramètres de modèle
Pour modifier les réponses du modèle, vous pouvez modifier les valeurs des paramètres suivants dans le playground de test ou l'API.
- Nombre maximal de sèmes de sortie
-
Nombre maximal de sèmes que le modèle doit générer pour chaque réponse. Estimez quatre caractères par jeton. Comme vous demandez un modèle de discussion, la réponse dépend de l'invite et chaque réponse n'utilise pas nécessairement le nombre maximal de jetons alloués.
- Remplacement de préambule
-
Contexte initial ou message de guidage pour un modèle de discussion. Lorsque vous ne donnez pas de préambule à un modèle de discussion, le préambule par défaut de ce modèle est utilisé. Vous pouvez affecter un préambule dans le paramètre Remplacement de préambule pour les modèles. Le préambule par défaut de la famille Cohere est :
You are Command. You are an extremely capable large language model built by Cohere. You are given instructions programmatically via an API that you follow to the best of your ability.
Le remplacement du préambule par défaut est facultatif. Une fois spécifié, le preamble Override remplace le préambule Cohere par défaut. Lors de l'ajout d'un préambule, donnez au modèle un contexte, des instructions et un style de conversation.
Conseil
Pour les modèles de discussion sans le paramètre de remplacement de préambule, vous pouvez inclure un préambule dans la conversation de discussion et demander directement au modèle de répondre d'une certaine manière. - Mode de sécurité
- Ajoute une instruction de sécurité pour le modèle à utiliser lors de la génération des réponses. Les options disponibles sont les suivantes :
- Contextuel : (valeur par défaut) insère moins de contraintes sur la sortie. Il maintient des protections de base en visant à rejeter les suggestions nuisibles ou illégales, mais il permet la profanation et certains contenus toxiques, le contenu sexuellement explicite et violent, et le contenu qui contient des informations médicales, financières ou légales. Le mode contextuel est adapté au divertissement, à la création ou à l'enseignement.
- Stricte : vise à éviter les sujets sensibles, tels que les actes violents ou sexuels et le blasphème. Ce mode vise à offrir une expérience plus sûre en interdisant les réponses ou les recommandations qu'il juge inappropriées. Le mode strict est adapté à un usage professionnel, par exemple pour les communications d'entreprise et le service client.
- Désactivé : aucun mode de sécurité n'est appliqué.
- Température
-
Niveau de randomité utilisé pour générer le texte de sortie.
Conseil
Commencez par définir la température sur 0 et augmentez-la à mesure que vous régénérez les invitations pour affiner les sorties. Les températures élevées peuvent introduire des hallucinations et des informations factuellement incorrectes. - Valeur Top p
-
Méthode d'échantillonnage qui contrôle la probabilité cumulée des jetons supérieurs à prendre en compte pour le jeton suivant. Affectez à
p
un nombre décimal compris entre 0 et 1 pour la probabilité. Par exemple, entrez 0,75 pour les 75 % les plus importants à prendre en compte. Définissezp
sur 1 pour prendre en compte tous les jetons. - Valeur Top k
-
Méthode d'échantillonnage dans laquelle le modèle choisit le jeton suivant de manière aléatoire parmi les jetons
top k
les plus probables. Une valeur élevée pourk
génère une sortie plus aléatoire, ce qui rend le texte de sortie plus naturel. La valeur par défaut de k est 0 pour les modèlesCohere Command
et -1 pour les modèlesMeta Llama
, ce qui signifie que le modèle doit prendre en compte tous les jetons et ne pas utiliser cette méthode. - Pénalité de fréquence
-
Pénalité affectée à un jeton lorsque ce dernier apparaît fréquemment. Les pénalités élevées encouragent moins de jetons répétés et produisent un résultat plus aléatoire.
Pour les modèles de la famille Meta Llama, cette pénalité peut être positive ou négative. Les nombres positifs encouragent le modèle à utiliser de nouveaux jetons et les nombres négatifs encouragent le modèle à répéter les jetons. Définissez la valeur sur 0 pour désactiver.
- Pénalité de présence
-
Pénalité affectée à chaque jeton lorsqu'il apparaît dans la sortie pour encourager les sorties avec des jetons qui n'ont pas été utilisés.
- Prédéfinir
-
Paramètre qui fait le meilleur effort pour échantillonner les jetons de manière déterministe. Lorsqu'une valeur est affectée à ce paramètre, le modèle de langage volumineux vise à renvoyer le même résultat pour les demandes répétées lorsque vous affectez les mêmes valeurs initiales et paramètres aux demandes.
Les valeurs autorisées sont des entiers et l'affectation d'une valeur de départ élevée ou faible n'affecte pas le résultat. L'affectation d'un nombre au paramètre prédéfini est similaire à l'étiquetage de la demande avec un nombre. Le modèle de langage volumineux vise à générer le même ensemble de jetons pour le même entier dans des demandes consécutives. Cette fonctionnalité est particulièrement utile pour le débogage et le test. Le paramètre prédéfini n'a pas de valeur maximale pour l'API et, dans la console, sa valeur maximale est 9999. Si la valeur de départ n'est pas indiquée dans la console ou si elle est NULL dans l'API, cette fonctionnalité est désactivée.
Avertissement
Le paramètre prédéfini risque de ne pas produire le même résultat à long terme, car les mises à jour de modèle dans le service OCI Generative AI risquent d'invalider la valeur prédéfinie.