Cohere Command A Reasoning

Publié en août 2025, Cohere Command A Reasoning (cohere.command-a-reasoning) est le modèle phare de langage volumineux de 111 milliards de paramètres de Cohere, conçu pour le raisonnement d'entreprise avancé, les workflows agénétiques et l'utilisation d'outils. Ce modèle est conçu pour les tâches qui exigent un traitement logique avancé, une analyse approfondie et un raisonnement en plusieurs étapes, telles que des questions/réponses complètes, une révision complexe des documents et la création d'arguments structurés. Le modèle prend en charge une fenêtre de contexte de 256 000 jetons, ce qui le rend idéal pour les analyses de données à grande échelle et les workflows agénétiques.

Régions pour ce modèle

Important

Pour les régions prises en charge, les types d'adresse (clusters d'IA dédiés ou à la demande) et l'hébergement (appels externes ou OCI Generative AI) pour ce modèle, reportez-vous à la page Modèles par région. Pour plus de détails sur les régions, reportez-vous à la page Régions d'IA générative.

Principales fonctionnalités

  • Objectif du modèle : contrairement aux modèles à usage général, Command A est spécialement conçu pour les scénarios d'entreprise, en donnant la priorité à la précision, au raisonnement et à la sécurité. Exemples d'utilisation principaux :
    • Agents autonomes : gestion des workflows complexes, agissant en tant qu'agent de recherche et interagissant avec les environnements.
    • RAG avancée : analyse approfondie des documents, génération de rapports financiers et extraction de données avec des citations précises.
    • Chatbots multi-tours : maintien de la cohérence et de la cohérence logique au cours de conversations longues et complexes.
  • Fenêtre de contexte : prend en charge une fenêtre de 256 000 jetons avec jusqu'à 32 000 jetons de sortie, ce qui permet d'analyser des documents complets et de tenir à jour le contexte à partir de son long historique de conversation de 256 000 jetons. Pour l'inférence à la demande, la longueur de la réponse est limitée à 4 000 jetons pour chaque exécution. Pour le mode dédié, la longueur de la réponse n'est pas limitée et la longueur du contexte est de 256 000 jetons.
  • Cas d'utilisation agentic : excelle chez les agents ReAct (raisonnement + acte), divisant les questions complexes en plusieurs étapes en sous-objectifs, en utilisant des outils externes, en prenant des actions autonomes et en interagissant avec l'environnement pour résoudre les problèmes.
  • Utilisation des outils et RAG : conçu pour interagir avec des API externes et tirer parti de divers outils tels que les moteurs de recherche et les bases de données, avec une prise en charge intégrée des citations de mise à la terre.
  • Support multilingue : peut raisonner de manière native dans 23 langues, y compris l'anglais, l'espagnol, le chinois, l'arabe et l'allemand.
  • Architecture et efficacité : utilise une architecture de transformateur à quatre couches avec une attention hybride (fenêtre coulissante + globale) pour gérer un contexte long et peut s'exécuter sur un ou deux GPU.
  • Configuration : les utilisateurs peuvent définir des budgets de raisonnement pour équilibrer la latence, la précision et le débit.
  • Limite de connaissances : 1er juin 2024

Reportez-vous à la documentation de Cohere pour les manuels Command A Reasoning Model et Reasoning Guide.

Adresses d'API

Important

Le modèle Cohere Command A Reasoning est compatible uniquement avec la version 2 de l'API de discussion OCI Generative AI pour les modèles Cohere. Pour plus de détails sur l'implémentation, reportez-vous à l'API CohereChatRequestV2 et aux autres adresses associées qui se terminent par V2. Par exemple, CohereChatResponseV2.

Cluster d'IA dédié pour le modèle

Dans la liste des régions précédente, les modèles des régions qui ne sont pas marquées par (cluster d'IA dédié uniquement) disposent d'options de cluster d'IA à la demande et dédiées. En mode à la demande, vous n'avez pas besoin de clusters et vous pouvez accéder au modèle dans le playground de test de la console ou via l'API.

Pour atteindre un modèle via un cluster d'IA dédié dans une région répertoriée, vous devez créer une adresse pour ce modèle sur un cluster d'IA dédié. Pour connaître la taille d'unité de cluster correspondant à ce modèle, reportez-vous au tableau suivant.

Modèle de base Cluster de réglage fin Cluster d'hébergement Informations sur la page de tarification Demander une augmentation de limite de cluster
  • Nom du modèle : Cohere Command A Reasoning
  • Nom du modèle OCI : cohere.command-a-reasoning
Non disponible pour le réglage fin
  • Taille d'unité : LARGE_COHERE_V2_2
  • Unités obligatoires : 1
  • Nom du produit de la page de tarification : Large Cohere - Dedicated
  • Pour l'Hébergement, Multiplier le Prix Unitaire : x2
  • Nom de la limite : dedicated-unit-large-cohere-count
  • Pour l'hébergement, demandez une augmentation de limite de : 2
  • Nom du modèle : Cohere Command A Reasoning

    (UAE East (Dubai) uniquement)

  • Nom du modèle OCI : cohere.command-a-reasoning
Non disponible pour le réglage fin
  • Taille d'unité : SMALL_COHERE_4
  • Unités obligatoires : 1
  • Nom du produit de la page de tarification : Small Cohere - Dedicated
  • Pour l'Hébergement, Multiplier le Prix Unitaire : x4
  • Nom de la limite : dedicated-unit-small-cohere-count
  • Pour l'hébergement, demandez une augmentation de limite de : 4
Conseil

  • Si vous ne disposez pas de suffisamment de limites de cluster dans la location pour héberger le modèle Cohere Command A Reasoning sur un cluster d'IA dédié,
    • Pour la région UAE East (Dubai), demandez l'augmentation de la limite dedicated-unit-small-cohere-count de 4.
    • Pour toutes les autres régions, demandez l'augmentation de la limite dedicated-unit-large-cohere-count de 2.

    Reportez-vous à Création d'une demande d'augmentation de limite.

Règles d'adresse pour les clusters

  • Un cluster d'IA dédié peut contenir jusqu'à 50 adresses.
  • Utilisez ces adresses pour créer des alias qui pointent tous vers le même modèle de base ou vers la même version d'un modèle personnalisé, mais pas les deux types.
  • Plusieurs points d'extrémité pour le même modèle facilitent leur affectation à différents utilisateurs ou objectifs.
Taille de l'unité de cluster d'hébergement Règles d'adresse
LARGE_COHERE_V2_2
  • Modèle de base : pour exécuter le modèle ⁇ cohere.command-a-reasoning ⁇ sur plusieurs adresses, créez autant d'adresses que nécessaire sur un cluster LARGE_COHERE_V2_2 (taille d'unité).
  • Modèle personnalisé : vous ne pouvez pas affiner ⁇ cohere.command-a-reasoning, de sorte que vous ne pouvez pas créer et héberger des modèles personnalisés créés à partir de cette base.
SMALL_COHERE_4

(UAE East (Dubai) uniquement)

  • Modèle de base : pour exécuter le modèle ⁇ cohere.command-a-reasoning ⁇ sur plusieurs adresses dans UAE East (Dubai), créez autant d'adresses que nécessaire sur un cluster SMALL_COHERE_4 (taille unitaire).
  • Modèle personnalisé : vous ne pouvez pas affiner ⁇ cohere.command-a-reasoning, de sorte que vous ne pouvez pas créer et héberger des modèles personnalisés créés à partir de cette base.
Conseil

Paramètres de modèle

Pour modifier les réponses du modèle, vous pouvez modifier les valeurs des paramètres suivants dans le playground de test ou l'API.

Nombre maximal de sèmes de sortie

Nombre maximal de sèmes que le modèle doit générer pour chaque réponse. Estimez quatre caractères par jeton. Comme vous demandez un modèle de discussion, la réponse dépend de l'invite et chaque réponse n'utilise pas nécessairement le nombre maximal de jetons alloués.

Remplacement de préambule

Contexte initial ou message de guidage pour un modèle de discussion. Lorsque vous ne donnez pas de préambule à un modèle de discussion, le préambule par défaut de ce modèle est utilisé. Vous pouvez affecter un préambule dans le paramètre Remplacement de préambule pour les modèles. Le préambule par défaut de la famille Cohere est :

You are Command.
            You are an extremely capable large language model built by Cohere. 
            You are given instructions programmatically via an API
            that you follow to the best of your ability.

Le remplacement du préambule par défaut est facultatif. Une fois spécifié, le preamble Override remplace le préambule Cohere par défaut. Lors de l'ajout d'un préambule, donnez au modèle un contexte, des instructions et un style de conversation.

Conseil

Pour les modèles de discussion sans le paramètre de remplacement de préambule, vous pouvez inclure un préambule dans la conversation de discussion et demander directement au modèle de répondre d'une certaine manière.
Mode de sécurité
Ajoute une instruction de sécurité pour le modèle à utiliser lors de la génération des réponses. Les options disponibles sont les suivantes :
  • Contextuel : (valeur par défaut) insère moins de contraintes sur la sortie. Il maintient des protections de base en visant à rejeter les suggestions nuisibles ou illégales, mais il permet la profanation et certains contenus toxiques, le contenu sexuellement explicite et violent, et le contenu qui contient des informations médicales, financières ou légales. Le mode contextuel est adapté au divertissement, à la création ou à l'enseignement.
  • Stricte : vise à éviter les sujets sensibles, tels que les actes violents ou sexuels et le blasphème. Ce mode vise à offrir une expérience plus sûre en interdisant les réponses ou les recommandations qu'il juge inappropriées. Le mode strict est adapté à un usage professionnel, par exemple pour les communications d'entreprise et le service client.
  • Désactivé : aucun mode de sécurité n'est appliqué.
Température

Niveau de randomité utilisé pour générer le texte de sortie.

Conseil

Commencez par définir la température sur 0 et augmentez-la à mesure que vous régénérez les invitations pour affiner les sorties. Les températures élevées peuvent introduire des hallucinations et des informations factuellement incorrectes.
Valeur Top p

Méthode d'échantillonnage qui contrôle la probabilité cumulée des jetons supérieurs à prendre en compte pour le jeton suivant. Affectez à p un nombre décimal compris entre 0 et 1 pour la probabilité. Par exemple, entrez 0,75 pour les 75 % les plus importants à prendre en compte. Définissez p sur 1 pour prendre en compte tous les jetons.

Valeur Top k

Méthode d'échantillonnage dans laquelle le modèle choisit le jeton suivant de manière aléatoire parmi les jetons top k les plus probables. Une valeur élevée pour k génère une sortie plus aléatoire, ce qui rend le texte de sortie plus naturel. La valeur par défaut de k est 0 pour les modèles Cohere Command et -1 pour les modèles Meta Llama, ce qui signifie que le modèle doit prendre en compte tous les jetons et ne pas utiliser cette méthode.

Pénalité de fréquence

Pénalité affectée à un jeton lorsque ce dernier apparaît souvent. Les pénalités élevées encouragent moins de jetons répétés et produisent un résultat plus aléatoire.

Pour les modèles de la famille Meta Llama, cette pénalité peut être positive ou négative. Les nombres positifs encouragent le modèle à utiliser de nouveaux jetons et les nombres négatifs encouragent le modèle à répéter les jetons. Définissez la valeur sur 0 pour désactiver.

Pénalité de présence

Pénalité affectée à chaque jeton lorsqu'il apparaît dans la sortie pour encourager les sorties avec des jetons qui n'ont pas été utilisés.

Prédéfinir

Paramètre qui fait le meilleur effort pour échantillonner les jetons de manière déterministe. Lorsqu'une valeur est affectée à ce paramètre, le modèle de langage volumineux vise à renvoyer le même résultat pour les demandes répétées lorsque vous affectez les mêmes valeurs initiales et paramètres aux demandes.

Les valeurs autorisées sont des entiers et l'affectation d'une valeur de départ élevée ou faible n'affecte pas le résultat. L'affectation d'un nombre au paramètre prédéfini est similaire à l'étiquetage de la demande avec un nombre. Le modèle de langage volumineux vise à générer le même ensemble de jetons pour le même entier dans des demandes consécutives. Cette fonctionnalité est particulièrement utile pour le débogage et le test. Le paramètre prédéfini n'a pas de valeur maximale pour l'API et, dans la console, sa valeur maximale est 9999. Si la valeur de départ n'est pas indiquée dans la console ou si elle est NULL dans l'API, cette fonctionnalité est désactivée.

Avertissement

Le paramètre prédéfini risque de ne pas produire le même résultat à long terme, car les mises à jour de modèle dans le service OCI Generative AI risquent d'invalider la valeur prédéfinie.

Paramètre API pour le raisonnement

réflexion

Par défaut, la fonctionnalité de raisonnement pour le modèle cohere.command-a-reasoning est activée via le paramètre thinking. Reportez-vous à CohereThinkingV2

Lorsque le paramètre thinking est activé, le modèle traite les problèmes complexes étape par étape, en les décomposant en interne, avant de fournir une réponse finale. Vous pouvez contrôler cette fonctionnalité de plusieurs manières :

L'option de réflexion est activée par défaut, mais vous pouvez le désactiver. Lorsqu'il est désactivé, le modèle de raisonnement fonctionne comme n'importe quel autre LLM sans l'étape de raisonnement interne.

token_budget

Vous pouvez indiquer un budget de jetons avec le paramètre token_budget pour limiter le nombre de jetons de pensée produits par le modèle. Lorsque le budget est dépassé, le modèle procède immédiatement à la réponse finale.

En utilisant des budgets de réflexion, Cohere recommande :

  • Utiliser une pensée illimitée si possible
  • Si vous utilisez un budget, laissez au moins 1000 jetons pour la réponse
  • Pour un raisonnement maximum, un budget de 31 000 jetons est recommandé

Reportez-vous à Référence CohereThinkingContentV2 et à Référence CohereThinkingV2 dans la documentation de l'API et au Guide de raisonnement dans la documentation Cohere.