Cohere Command A Vision

Publié en juillet 2025, Cohere Command A Vision (cohere.command-a-vision) est un modèle de grand langage multimodal axé sur l'entreprise qui excelle dans la compréhension et l'interprétation des données visuelles (images, graphiques, documents) à côté du texte.

Accéder à ce modèle

Accédez à ce modèle au moyen de la console, de l'API et de l'interface de ligne de commande :
Note

Les points d'extrémité d'API pour toutes les régions commerciales, souveraines et gouvernementales prises en charge sont listés dans les liens API de gestion et API d'inférence. Vous ne pouvez accéder à chaque modèle qu'au moyen de ses régions prises en charge.

Principales fonctions

  • Prise en charge multimodale : Entrez du texte et des images et obtenez une sortie de texte. Convient pour les tâches axées sur la vision axées sur l'entreprise, telles que l'analyse de documents et les synthèses d'images.
    • Dans la console, entrez une image .png ou .jpg de 5 Mo ou moins.
    • Pour l'API, entrez une image encodée base64 à chaque exécution. Une image 512 x 512 est convertie en environ 1 610 jetons.
  • Longueur de contexte : 128 000 jetons (invite maximale + longueur de réponse : 128 000 jetons pour chaque exécution)
  • Modèle de base : Basé sur le modèle de langage LLM de commande A Cohere.
  • Taille du modèle : Le modèle comporte 112 milliards de paramètres.
  • Efficacité : Optimisée pour s'exécuter sur un environnement de calcul réduit de 2 processeurs graphiques.

Voir la documentation de Cohere pour Command A Vision Model.

Points d'extrémité d'API

Important

Le modèle Cohere Command A Vision est compatible uniquement avec la version 2 de l'API de clavardage d'IA générative OCI pour les modèles Cohere. Pour des détails de mise en oeuvre, voir l'API CohereChatRequestV2 et les autres points d'extrémité connexes qui se terminent dans V2, tels que CohereChatResponseV2.

Mode sur demande

Consultez le tableau suivant pour connaître le nom du produit sur demande de ce modèle dans la page de tarification.

Nom de modèle Nom du modèle OCI Nom du produit de la page de tarification
Cohere Command A Vision cohere.command-a-vision Large Cohere
Vous pouvez accéder aux modèles fondamentaux préentraînés dans l'IA générative au moyen de deux modes : sur demande et dédié. Voici les principales fonctions du mode sur demande :
  • Vous payez à l'utilisation pour chaque appel d'inférence lorsque vous utilisez les modèles dans le terrain de jeu ou lorsque vous appelez les modèles au moyen de l'API.

  • Faible barrière pour commencer à utiliser l'IA générative.
  • Idéal pour l'expérimentation, la preuve de concept et l'évaluation de modèle.
  • Disponible pour les modèles préentraînés dans les régions non listées (grappe dédiée à l'IA uniquement).
Important

Modification de la limite de limitation dynamique pour le mode sur demande

OCI Generative AI ajuste dynamiquement la limite de limitation de demande pour chaque location active en fonction de la demande du modèle et de la capacité du système afin d'optimiser l'affectation des ressources et d'assurer un accès équitable.

Cette modification dépend des facteurs suivants :

  • Débit maximal courant pris en charge par le modèle cible.
  • Toute capacité de système inutilisée au moment de la modification.
  • L'historique d'utilisation du débit de chaque location et les limites de remplacement spécifiées sont définies pour cette location.

Remarque : En raison de la limitation dynamique, les limites de débit ne sont pas documentées et peuvent changer pour répondre à la demande à l'échelle du système.

Conseil

En raison de la modification dynamique de la limite de limitation, nous recommandons de mettre en œuvre une stratégie d'annulation, qui implique de retarder les demandes après un rejet. Sans cela, des demandes rapides répétées peuvent entraîner d'autres rejets au fil du temps, une latence accrue et un blocage temporaire potentiel du client par le service d'IA générative. En utilisant une stratégie d'attente, telle qu'une stratégie d'attente exponentielle, vous pouvez répartir les demandes plus uniformément, réduire la charge et améliorer le succès des tentatives, en suivant les meilleures pratiques du secteur et en améliorant la stabilité et la performance globales de l'intégration au service.

Grappe d'IA dédiée pour le modèle

Dans la liste de régions précédente, les modèles des régions qui ne sont pas marquées avec (grappe dédiée à l'IA uniquement) ont des options de grappe dédiée à l'IA et à la demande. Pour le mode sur demande, vous n'avez pas besoin de grappes et vous pouvez accéder au modèle dans le terrain de jeu de la console ou au moyen de l'API.

Pour atteindre un modèle au moyen d'une grappe dédiée à l'IA dans n'importe quelle région répertoriée, vous devez créer un point d'extrémité pour ce modèle sur une grappe dédiée à l'IA. Pour connaître la taille d'unité de grappe correspondant à ce modèle, voir le tableau suivant.

Modèle de base Cluster de réglage fin Grappe d'hébergement Informations sur la page de tarification Demander une augmentation de limite de grappe
  • Nom du modèle : Cohere Command A Vision
  • Nom du modèle OCI : cohere.command-a-vision
Non disponible pour le réglage fin
  • Taille de l'unité : LARGE_COHERE_V3
  • Unités requises : 1
  • Nom du produit de la page Tarification : Large Cohere - Dedicated
  • Pour l'hébergement, Multiplier le prix unitaire : x1
  • Nom de la limite : dedicated-unit-large-cohere-count
  • Pour l'hébergement, demandez une augmentation de limite de : 1
  • Nom du modèle : Cohere Command A Vision

    (uniquement pour UAE East (Dubai))

  • Nom du modèle OCI : cohere.command-a-vision
Non disponible pour le réglage fin
  • Taille de l'unité : SMALL_COHERE_4
  • Unités requises : 1
  • Nom du produit de la page Tarification : Small Cohere - Dedicated
  • Pour l'hébergement, Multiplier le prix unitaire : x4
  • Nom de la limite : dedicated-unit-small-cohere-count
  • Pour l'hébergement, demandez une augmentation de limite de : 4
Conseil

  • Si vous n'avez pas suffisamment de limites de grappe dans la location pour héberger le modèle Cohere Command A Vision sur une grappe dédiée à l'IA,
    • Pour la région UAE East (Dubai), demandez que la limite dedicated-unit-small-cohere-count augmente de 4.
    • Pour toutes les autres régions, demandez à la limite dedicated-unit-large-cohere-count d'augmenter de 1.

    Voir Demande d'une augmentation de limite de service.

Règles de point d'extrémité pour les grappes

  • Une grappe dédiée à l'IA peut contenir jusqu'à 50 points d'extrémité.
  • Utilisez ces points d'extrémité pour créer des alias qui pointent tous vers le même modèle de base ou vers la même version d'un modèle personnalisé, mais pas vers les deux types.
  • Plusieurs points d'extrémité pour le même modèle permettent de les affecter facilement à différents utilisateurs ou objectifs.
Taille d'unité de la grappe d'hébergement Règles de point d'extrémité
LARGE_COHERE_V3
  • Modèle de base : Pour exécuter le modèle cohere.command-a-vision  sur plusieurs points d'extrémité, créez autant de points d'extrémité que nécessaire sur une grappe LARGE_COHERE_V3 (taille de l'unité).
  • Modèle personnalisé : Vous ne pouvez pas affiner le réglage cohere.command-a-vision, vous ne pouvez donc pas créer et héberger des modèles personnalisés créés à partir de cette base.
SMALL_COHERE_4

(uniquement pour UAE East (Dubai))

  • Modèle de base : Pour exécuter le modèle cohere.command-a-vision  sur plusieurs points d'extrémité dans UAE East (Dubai), créez autant de points d'extrémité que nécessaire sur une grappe SMALL_COHERE_4 (taille de l'unité).
  • Modèle personnalisé : Vous ne pouvez pas affiner le réglage cohere.command-a-vision, vous ne pouvez donc pas créer et héberger des modèles personnalisés créés à partir de cette base.
Conseil

Paramètres du modèle

Pour modifier les réponses du modèle, vous pouvez modifier les valeurs des paramètres suivants dans le terrain de jeu ou l'API.

Nombre maximal de jetons de sortie

Nombre maximal de marqueurs que le modèle doit générer pour chaque réponse. Estimer quatre caractères par jeton. Comme vous demandez un modèle de clavardage, la réponse dépend de l'invite et chaque réponse n'utilise pas nécessairement le nombre maximal de jetons alloués.

Remplacement du préambule

Contexte initial ou message de guidage pour un modèle de clavardage. Lorsque vous ne donnez pas de préambule à un modèle de clavardage, le préambule par défaut de ce modèle est utilisé. Vous pouvez affecter un préambule au paramètre Remplacement de préambule pour les modèles. Le préambule par défaut de la famille Cohere est :

You are Command.
            You are an extremely capable large language model built by Cohere. 
            You are given instructions programmatically via an API
            that you follow to the best of your ability.

Le remplacement du préambule par défaut est facultatif. Lorsque cette option est spécifiée, le remplacement de modèle remplace le préambule Cohere par défaut. Lors de l'ajout d'un préambule, pour obtenir de meilleurs résultats, indiquez le contexte du modèle, des instructions et un style de conversation.

Conseil

Pour les modèles de clavardage sans le paramètre Remplacement de modèle, vous pouvez inclure un préambule dans la conversation de clavardage et demander directement au modèle de répondre d'une certaine manière.
Mode de sécurité
Ajoute une instruction de sécurité à utiliser pour le modèle lors de la génération des réponses. Les options sont les suivantes :
  • Contextuel : (Par défaut) Met moins de contraintes sur la sortie. Il maintient des protections de base en visant à rejeter les suggestions nuisibles ou illégales, mais il permet la profanation et certains contenus toxiques, des contenus sexuellement explicites et violents, et des contenus qui contiennent des informations médicales, financières ou juridiques. Le mode contextuel est adapté au divertissement, à la créativité ou à l'enseignement.
  • Strict : vise à éviter des sujets sensibles, tels que les actes violents ou sexuels et la profanation. Ce mode vise à fournir une expérience plus sûre en interdisant les réponses ou les recommandations qu'il juge inappropriées. Le mode strict est adapté à une utilisation d'entreprise, par exemple pour les communications d'entreprise et le service à la clientèle.
  • Désactivé : Aucun mode de sécurité n'est appliqué.
Température

Niveau de caractère aléatoire utilisé pour générer le texte de sortie.

Conseil

Commencez avec la température réglée à 0 ou moins d'un, puis augmentez la température au fur et à mesure que vous régénérez les invites pour une sortie plus créative. Les températures élevées peuvent introduire des hallucinations et des informations factuellement incorrectes.
Haut p

Méthode d'échantillonnage qui contrôle la probabilité cumulative des jetons supérieurs à prendre en compte pour le jeton suivant. Affectez à p un nombre décimal compris entre 0 et 1 pour la probabilité. Par exemple, entrez 0,75 pour les 75 % principaux à prendre en compte. Réglez p à 1 pour prendre en compte tous les jetons.

Échantillonnage k premier

Méthode d'échantillonnage dans laquelle le modèle choisit le jeton suivant de manière aléatoire à partir des jetons top k les plus probables. Une valeur élevée pour k génère une sortie plus aléatoire, ce qui rend le texte de sortie plus naturel. La valeur par défaut de k est 0 pour les modèles Cohere Command, ce qui signifie que le modèle doit prendre en compte tous les jetons et ne pas utiliser cette méthode.

Pénalité de fréquence

Pénalité affectée à un jeton lorsque ce jeton apparaît souvent. Les pénalités élevées encouragent moins de jetons répétés et produisent un résultat plus aléatoire.

Pénalité de présence

Pénalité affectée à chaque jeton lorsqu'il apparaît dans la sortie pour favoriser la génération de sorties contenant des jetons qui n'ont pas été utilisés.

Prédéfinir

Paramètre qui fait le meilleur effort pour échantillonner les jetons de manière déterministe. Lorsqu'une valeur est affectée à ce paramètre, le grand modèle de langage vise à renvoyer le même résultat pour les demandes répétées lorsque vous affectez les mêmes valeurs de départ et les mêmes paramètres pour les demandes.

Les valeurs autorisées sont des nombres entiers et l'affectation d'une valeur de départ grande ou petite n'a aucune incidence sur le résultat. L'affectation d'un nombre au paramètre de départ est similaire au marquage de la demande par un nombre. Le grand modèle de langage vise à générer le même ensemble de jetons pour le même entier dans des demandes consécutives. Cette fonction est particulièrement utile pour le débogage et les tests. Le paramètre de départ n'a pas de valeur maximale pour l'API. Dans la console, sa valeur maximale est 9999. Le fait de laisser la valeur de départ vide dans la console ou nulle dans l'API désactive cette fonction.

Avertissement

Il est possible que le paramètre de départ ne produise pas le même résultat à long terme, car les mises à jour du modèle dans le service d'intelligence artificielle générative pour OCI risquent d'invalider la valeur de départ.