Cohere Command A Reasoning
Publié en août 2025, Cohere Command A Reasoning (cohere.command-a-reasoning) est le modèle phare de langage de paramètres de Cohere de 111 milliards conçu pour le raisonnement d'entreprise avancé, les flux de travail agéntiques et l'utilisation d'outils. Ce modèle est conçu pour les tâches nécessitant un traitement logique avancé, une analyse approfondie et un raisonnement en plusieurs étapes, telles que des questions et réponses complètes, une révision complexe des documents et la création d'arguments structurés. Le modèle prend en charge une fenêtre de contexte de jeton de 256 000, ce qui le rend idéal pour l'analyse de données à grande échelle et les flux de travail agéntiques.
Régions pour ce modèle
Pour les régions prises en charge, les types de point d'extrémité (grappes d'IA sur demande ou dédiées) et l'hébergement (IA générative pour OCI ou appels externes) pour ce modèle, voir la page Modèles par région. Pour plus de détails sur les régions, consultez la page Régions du service d'intelligence artificielle générative.
Accéder à ce modèle
Les points d'extrémité d'API pour toutes les régions commerciales, souveraines et gouvernementales prises en charge sont listés dans les liens API de gestion et API d'inférence. Vous ne pouvez accéder à chaque modèle qu'au moyen de ses régions prises en charge.
Principales fonctions
- Objectif du modèle : Contrairement aux modèles à usage général, la commande A est spécialement conçue pour les scénarios d'entreprise, en donnant la priorité à l'exactitude, au raisonnement et à la sécurité. Les principaux cas d'utilisation sont les suivants :
- Agents autonomes : Gestion des flux de travail complexes, agissant en tant qu'agent de recherche et interagissant avec les environnements.
- RAG avancée : Analyse approfondie des documents, génération de rapports financiers et extraction de données avec des citations précises.
- Agents conversationnels à plusieurs tournants : Maintenir la cohérence et la cohérence logique sur des conversations longues et complexes.
- Fenêtre contextuelle : Prend en charge une fenêtre de 256 000 jetons avec jusqu'à 32 000 jetons de sortie, ce qui permet l'analyse de documents étendus et tient à jour le contexte à partir de son long historique de conversation de 256 000 jetons. Pour l'inférence sur demande, la longueur de la réponse est plafonnée à 4 000 jetons pour chaque exécution. Pour le mode dédié, la longueur de la réponse n'est pas plafonnée et la longueur du contexte est de 256 000 jetons.
- Cas d'utilisation générative : Excelle chez les agents ReAct (Raisonnement + Acting), en divisant les questions complexes en plusieurs étapes en sous-objectifs, en utilisant des outils externes, en prenant des actions autonomes et en interagissant avec l'environnement pour résoudre les problèmes.
- Utilisation des outils et RAG : Conçu pour interagir avec des API externes et tirer parti de divers outils tels que les moteurs de recherche et les bases de données, avec une prise en charge intégrée pour la mise à la terre des citations.
- Soutien multilingue : Peut raisonner nativement dans 23 langues, dont l'anglais, l'espagnol, le chinois, l'arabe et l'allemand.
- Architecture et efficacité : Utilise une architecture de transformateur à quatre couches avec une attention hybride (fenêtre coulissante + globale) pour gérer un contexte long et peut s'exécuter sur un ou deux processeurs graphiques.
- Configuration : Les utilisateurs peuvent définir des budgets de raisonnement pour équilibrer la latence, l'exactitude et le débit.
- Arrêt des connaissances : 1er juin 2024
Voir la documentation de Cohere pour Command A Reasoning Model et Reasoning Guide.
Points d'extrémité d'API
Le modèle Cohere Command A Reasoning est compatible uniquement avec la version 2 de l'API de clavardage d'IA générative OCI pour les modèles Cohere. Pour plus de détails sur la mise en oeuvre, voir l'API CohereChatRequestV2 et les autres points d'extrémité connexes qui se terminent dans V2. Par exemple, CohereChatResponseV2.
Grappe d'IA dédiée pour le modèle
Dans la liste de régions précédente, les modèles des régions qui ne sont pas marquées avec (grappe dédiée à l'IA uniquement) ont des options de grappe dédiée à l'IA et à la demande. Pour le mode sur demande, vous n'avez pas besoin de grappes et vous pouvez accéder au modèle dans le terrain de jeu de la console ou au moyen de l'API.
Pour atteindre un modèle au moyen d'une grappe dédiée à l'IA dans n'importe quelle région répertoriée, vous devez créer un point d'extrémité pour ce modèle sur une grappe dédiée à l'IA. Pour connaître la taille d'unité de grappe correspondant à ce modèle, voir le tableau suivant.
| Modèle de base | Cluster de réglage fin | Grappe d'hébergement | Informations sur la page de tarification | Demander une augmentation de limite de grappe |
|---|---|---|---|---|
|
Non disponible pour le réglage fin |
|
|
|
|
Non disponible pour le réglage fin |
|
|
|
-
Si vous n'avez pas suffisamment de limites de grappe dans la location pour héberger le modèle Cohere Command A Reasoning sur une grappe dédiée à l'IA,
Règles de point d'extrémité pour les grappes
- Une grappe dédiée à l'IA peut contenir jusqu'à 50 points d'extrémité.
- Utilisez ces points d'extrémité pour créer des alias qui pointent tous vers le même modèle de base ou vers la même version d'un modèle personnalisé, mais pas vers les deux types.
- Plusieurs points d'extrémité pour le même modèle permettent de les affecter facilement à différents utilisateurs ou objectifs.
| Taille d'unité de la grappe d'hébergement | Règles de point d'extrémité |
|---|---|
| LARGE_COHERE_V2_2 |
|
| SMALL_COHERE_4
(uniquement pour UAE East (Dubai)) |
|
-
Pour augmenter le volume d'appels pris en charge par une grappe d'hébergement, augmentez le nombre d'instances en modifiant la grappe dédiée à l'IA. Voir Mise à jour d'une grappe d'intelligence artificielle dédiée.
-
Pour plus de 50 points d'extrémité par grappe, demandez une augmentation de la limite,
endpoint-per-dedicated-unit-count. Voir Demande d'une augmentation de limite de service et Limites de service pour l'IA générative.
Dates de version et de mise hors service OCI
Pour connaître les dates de sortie et de mise hors service et les options de modèle de remplacement, consultez les pages suivantes en fonction du mode (sur demande ou dédié) :
Paramètres du modèle
Pour modifier les réponses du modèle, vous pouvez modifier les valeurs des paramètres suivants dans le terrain de jeu ou l'API.
- Nombre maximal de jetons de sortie
-
Nombre maximal de marqueurs que le modèle doit générer pour chaque réponse. Estimer quatre caractères par jeton. Comme vous demandez un modèle de clavardage, la réponse dépend de l'invite et chaque réponse n'utilise pas nécessairement le nombre maximal de jetons alloués.
- Remplacement du préambule
-
Contexte initial ou message de guidage pour un modèle de clavardage. Lorsque vous ne donnez pas de préambule à un modèle de clavardage, le préambule par défaut de ce modèle est utilisé. Vous pouvez affecter un préambule au paramètre Remplacement de préambule pour les modèles. Le préambule par défaut de la famille Cohere est :
You are Command. You are an extremely capable large language model built by Cohere. You are given instructions programmatically via an API that you follow to the best of your ability.Le remplacement du préambule par défaut est facultatif. Lorsque cette option est spécifiée, le remplacement de modèle remplace le préambule Cohere par défaut. Lors de l'ajout d'un préambule, pour obtenir de meilleurs résultats, indiquez le contexte du modèle, des instructions et un style de conversation.
Conseil
Pour les modèles de clavardage sans le paramètre Remplacement de modèle, vous pouvez inclure un préambule dans la conversation de clavardage et demander directement au modèle de répondre d'une certaine manière. - Mode de sécurité
- Ajoute une instruction de sécurité à utiliser pour le modèle lors de la génération des réponses. Les options sont les suivantes :
- Contextuel : (Par défaut) Met moins de contraintes sur la sortie. Il maintient des protections de base en visant à rejeter les suggestions nuisibles ou illégales, mais il permet la profanation et certains contenus toxiques, des contenus sexuellement explicites et violents, et des contenus qui contiennent des informations médicales, financières ou juridiques. Le mode contextuel est adapté au divertissement, à la créativité ou à l'enseignement.
- Strict : vise à éviter des sujets sensibles, tels que les actes violents ou sexuels et la profanation. Ce mode vise à fournir une expérience plus sûre en interdisant les réponses ou les recommandations qu'il juge inappropriées. Le mode strict est adapté à une utilisation d'entreprise, par exemple pour les communications d'entreprise et le service à la clientèle.
- Désactivé : Aucun mode de sécurité n'est appliqué.
- Température
-
Niveau de caractère aléatoire utilisé pour générer le texte de sortie.
Conseil
Commencez avec la température réglée à 0 ou moins d'un, puis augmentez la température au fur et à mesure que vous régénérez les invites pour une sortie plus créative. Les températures élevées peuvent introduire des hallucinations et des informations factuellement incorrectes. - Haut p
-
Méthode d'échantillonnage qui contrôle la probabilité cumulative des jetons supérieurs à prendre en compte pour le jeton suivant. Affectez à
pun nombre décimal compris entre 0 et 1 pour la probabilité. Par exemple, entrez 0,75 pour les 75 % principaux à prendre en compte. Réglezpà 1 pour prendre en compte tous les jetons. - Échantillonnage k premier
-
Méthode d'échantillonnage dans laquelle le modèle choisit le jeton suivant de manière aléatoire à partir des jetons
top kles plus probables. Une valeur élevée pourkgénère une sortie plus aléatoire, ce qui rend le texte de sortie plus naturel. La valeur par défaut pour k est 0 pour les modèlesCohere Commandet -1 pour les modèlesMeta Llama, ce qui signifie que le modèle doit prendre en compte tous les jetons et ne pas utiliser cette méthode. - Pénalité de fréquence
-
Pénalité affectée à un jeton lorsque ce jeton apparaît souvent. Les pénalités élevées encouragent moins de jetons répétés et produisent un résultat plus aléatoire.
Pour les modèles de la famille Meta Llama, cette pénalité peut être positive ou négative. Les nombres positifs encouragent le modèle à utiliser de nouveaux jetons et les nombres négatifs encouragent le modèle à répéter les jetons. Réglez à 0 pour désactiver.
- Pénalité de présence
-
Pénalité affectée à chaque jeton lorsqu'il apparaît dans la sortie pour favoriser la génération de sorties contenant des jetons qui n'ont pas été utilisés.
- Prédéfinir
-
Paramètre qui fait le meilleur effort pour échantillonner les jetons de manière déterministe. Lorsqu'une valeur est affectée à ce paramètre, le grand modèle de langage vise à renvoyer le même résultat pour les demandes répétées lorsque vous affectez les mêmes valeurs de départ et les mêmes paramètres pour les demandes.
Les valeurs autorisées sont des nombres entiers et l'affectation d'une valeur de départ grande ou petite n'a aucune incidence sur le résultat. L'affectation d'un nombre au paramètre de départ est similaire au marquage de la demande par un nombre. Le grand modèle de langage vise à générer le même ensemble de jetons pour le même entier dans des demandes consécutives. Cette fonction est particulièrement utile pour le débogage et les tests. Le paramètre de départ n'a pas de valeur maximale pour l'API. Dans la console, sa valeur maximale est 9999. Le fait de laisser la valeur de départ vide dans la console ou nulle dans l'API désactive cette fonction.
Avertissement
Il est possible que le paramètre de départ ne produise pas le même résultat à long terme, car les mises à jour du modèle dans le service d'intelligence artificielle générative pour OCI risquent d'invalider la valeur de départ.
Paramètre d'API pour le motif
- pensée
-
Par défaut, la fonction de raisonnement pour le modèle
cohere.command-a-reasoningest activée au moyen du paramètrethinking. Voir CohereThinkingV2Lorsque le paramètre
thinkingest activé, le modèle traite les problèmes complexes étape par étape, en répartissant les problèmes en interne, avant de fournir une réponse finale. Vous pouvez contrôler cette fonction de plusieurs façons :La pensée est activée par défaut, mais vous pouvez la désactiver. Lorsque cette option est désactivée, le modèle de raisonnement fonctionne comme tout autre GML sans l'étape de raisonnement interne.
- token_budget
-
Vous pouvez spécifier un budget de jetons avec le paramètre
token_budgetpour limiter le nombre de jetons réfléchis produits par le modèle. Lorsque le budget est dépassé, le modèle passe immédiatement avec la réponse finale.Lors de l'utilisation de budgets réfléchis, Cohere recommande :
- Utiliser une pensée illimitée quand c'est possible
- Si vous utilisez un budget, laissez au moins 1000 jetons pour la réponse
- Pour un raisonnement maximal, un budget de 31 000 jetons est recommandé.
Voir Informations de référence sur le type CohereThinkingContentV2 et Informations de référence sur le type CohereThinkingV2 dans la documentation sur les API et Guide de raisonnement dans la documentation sur Cohere.