Cohere Command A Vision
Publié en juillet 2025, Cohere Command A Vision (cohere.command-a-vision) est un grand modèle de langage multimodal axé sur l'entreprise qui excelle dans la compréhension et l'interprétation des données visuelles (images, graphiques, documents) en plus du texte.
Régions pour ce modèle
Pour les régions prises en charge, les types d'adresse (clusters d'IA dédiés ou à la demande) et l'hébergement (appels externes ou OCI Generative AI) pour ce modèle, reportez-vous à la page Modèles par région. Pour plus de détails sur les régions, reportez-vous à la page Régions d'IA générative.
Accéder à ce modèle
Les adresses d'API pour toutes les régions commerciales, souveraines et gouvernementales prises en charge sont répertoriées dans les liens API de gestion et d'inférence. Vous pouvez accéder à chaque modèle uniquement via ses régions prises en charge.
Principales fonctionnalités
- Prise en charge multimodale : saisissez du texte et des images et obtenez une sortie texte. Convient aux tâches en langage de vision axées sur l'entreprise, telles que l'analyse de documents et les informations sur les images.
- Dans la console, entrez une image
.pngou.jpgde 5 Mo ou moins. - Pour l'API, entrez une image encodée
base64à chaque exécution. Une image 512 x 512 est convertie en environ 1 610 jetons.
- Dans la console, entrez une image
- Longueur de contexte : 128 000 jetons (invite maximale + longueur de réponse : 128 000 jetons pour chaque exécution)
- Modèle de base : basé sur le LLM de commande A de Cohere.
- Taille du modèle : le modèle comporte 112 milliards de paramètres.
- Efficacité : optimisée pour une exécution sur un faible encombrement en calcul de 2 GPU.
Reportez-vous à la documentation de Cohere pour Command A Vision Model.
Adresses d'API
Le modèle Cohere Command A Vision est compatible uniquement avec la version 2 de l'API de discussion OCI Generative AI pour les modèles Cohere. Pour plus de détails sur l'implémentation, reportez-vous à l'API CohereChatRequestV2 et à d'autres adresses associées qui se terminent par V2, telles que
CohereChatResponseV2.Mode à la demande
Reportez-vous au tableau suivant pour connaître le nom de produit à la demande de ce modèle sur la page de tarification.
| Nom du modèle | Nom du modèle OCI | Nom du produit de la page de tarification |
|---|---|---|
| Cohere Command A Vision | cohere.command-a-vision |
Large Cohere |
-
Vous payez au fur et à mesure pour chaque appel d'inférence lorsque vous utilisez les modèles dans le playground de test ou lorsque vous appelez les modèles via l'API.
- Faible barrière pour commencer à utiliser l'IA générative.
- Idéal pour l'expérimentation, la preuve de concept et l'évaluation de modèle.
- Disponible pour les modèles préentraînés dans les régions non répertoriées en tant que (cluster d'IA dédié uniquement).
Modification de la limite d'accélération dynamique pour le mode à la demande
OCI Generative AI ajuste dynamiquement la limite d'ajustement des demandes pour chaque location active en fonction de la demande de modèle et de la capacité du système afin d'optimiser l'allocation des ressources et de garantir un accès équitable.
Cette modification dépend des facteurs suivants :
- Débit maximal actuel pris en charge par le modèle cible.
- Toute capacité système inutilisée au moment de la modification.
- Utilisation du débit historique de chaque location et limites de remplacement indiquées définies pour cette location.
Remarque : En raison de l'ajustement dynamique, les limites de taux ne sont pas documentées et peuvent changer pour répondre à la demande à l'échelle du système.
En raison de la modification de la limite de ralentissement dynamique, nous vous recommandons d'implémenter une stratégie de back-off, qui consiste à retarder les demandes après un rejet. Sans cela, des demandes rapides répétées peuvent entraîner d'autres rejets au fil du temps, une latence accrue et un blocage temporaire potentiel du client par le service d'IA générative. En utilisant une stratégie de back-off, telle qu'une stratégie de back-off exponentielle, vous pouvez répartir les demandes plus uniformément, réduire la charge et améliorer le succès des nouvelles tentatives, en suivant les meilleures pratiques du secteur et en améliorant la stabilité et les performances globales de l'intégration au service.
Cluster d'IA dédié pour le modèle
Dans la liste des régions précédente, les modèles des régions qui ne sont pas marquées par (cluster d'IA dédié uniquement) disposent d'options de cluster d'IA à la demande et dédiées. En mode à la demande, vous n'avez pas besoin de clusters et vous pouvez accéder au modèle dans le playground de test de la console ou via l'API.
Pour atteindre un modèle via un cluster d'IA dédié dans une région répertoriée, vous devez créer une adresse pour ce modèle sur un cluster d'IA dédié. Pour connaître la taille d'unité de cluster correspondant à ce modèle, reportez-vous au tableau suivant.
| Modèle de base | Cluster de réglage fin | Cluster d'hébergement | Informations sur la page de tarification | Demander une augmentation de limite de cluster |
|---|---|---|---|---|
|
Non disponible pour le réglage fin |
|
|
|
|
Non disponible pour le réglage fin |
|
|
|
-
Si vous ne disposez pas de suffisamment de limites de cluster dans la location pour héberger le modèle Cohere Command A Vision sur un cluster d'IA dédié,
Reportez-vous à Création d'une demande d'augmentation de limite.
Règles d'adresse pour les clusters
- Un cluster d'IA dédié peut contenir jusqu'à 50 adresses.
- Utilisez ces adresses pour créer des alias qui pointent tous vers le même modèle de base ou vers la même version d'un modèle personnalisé, mais pas les deux types.
- Plusieurs points d'extrémité pour le même modèle facilitent leur affectation à différents utilisateurs ou objectifs.
| Taille de l'unité de cluster d'hébergement | Règles d'adresse |
|---|---|
| LARGE_COHERE_V3 |
|
| SMALL_COHERE_4
(UAE East (Dubai) uniquement) |
|
-
Pour augmenter le volume d'appels pris en charge par un cluster d'hébergement, augmentez le nombre d'instances en modifiant le cluster d'IA dédié. Reportez-vous à Mise à jour d'un cluster d'IA dédié.
-
Pour plus de 50 adresses par cluster, demandez une augmentation de la limite,
endpoint-per-dedicated-unit-count. Reportez-vous à Création d'une demande d'augmentation de limite et à Limites de service pour l'IA générative.
Dates de publication et de retrait OCI
Pour les dates de déblocage et de sortie et les options de modèle de remplacement, reportez-vous aux pages suivantes en fonction du mode (à la demande ou dédié) :
Paramètres de modèle
Pour modifier les réponses du modèle, vous pouvez modifier les valeurs des paramètres suivants dans le playground de test ou l'API.
- Nombre maximal de sèmes de sortie
-
Nombre maximal de sèmes que le modèle doit générer pour chaque réponse. Estimez quatre caractères par jeton. Comme vous demandez un modèle de discussion, la réponse dépend de l'invite et chaque réponse n'utilise pas nécessairement le nombre maximal de jetons alloués.
- Remplacement de préambule
-
Contexte initial ou message de guidage pour un modèle de discussion. Lorsque vous ne donnez pas de préambule à un modèle de discussion, le préambule par défaut de ce modèle est utilisé. Vous pouvez affecter un préambule dans le paramètre Remplacement de préambule pour les modèles. Le préambule par défaut de la famille Cohere est :
You are Command. You are an extremely capable large language model built by Cohere. You are given instructions programmatically via an API that you follow to the best of your ability.Le remplacement du préambule par défaut est facultatif. Une fois spécifié, le preamble Override remplace le préambule Cohere par défaut. Lors de l'ajout d'un préambule, donnez au modèle un contexte, des instructions et un style de conversation.
Conseil
Pour les modèles de discussion sans le paramètre de remplacement de préambule, vous pouvez inclure un préambule dans la conversation de discussion et demander directement au modèle de répondre d'une certaine manière. - Mode de sécurité
- Ajoute une instruction de sécurité pour le modèle à utiliser lors de la génération des réponses. Les options disponibles sont les suivantes :
- Contextuel : (valeur par défaut) insère moins de contraintes sur la sortie. Il maintient des protections de base en visant à rejeter les suggestions nuisibles ou illégales, mais il permet la profanation et certains contenus toxiques, le contenu sexuellement explicite et violent, et le contenu qui contient des informations médicales, financières ou légales. Le mode contextuel est adapté au divertissement, à la création ou à l'enseignement.
- Stricte : vise à éviter les sujets sensibles, tels que les actes violents ou sexuels et le blasphème. Ce mode vise à offrir une expérience plus sûre en interdisant les réponses ou les recommandations qu'il juge inappropriées. Le mode strict est adapté à un usage professionnel, par exemple pour les communications d'entreprise et le service client.
- Désactivé : aucun mode de sécurité n'est appliqué.
- Température
-
Niveau de randomité utilisé pour générer le texte de sortie.
Conseil
Commencez par définir la température sur 0 et augmentez-la à mesure que vous régénérez les invitations pour affiner les sorties. Les températures élevées peuvent introduire des hallucinations et des informations factuellement incorrectes. - Valeur Top p
-
Méthode d'échantillonnage qui contrôle la probabilité cumulée des jetons supérieurs à prendre en compte pour le jeton suivant. Affectez à
pun nombre décimal compris entre 0 et 1 pour la probabilité. Par exemple, entrez 0,75 pour les 75 % les plus importants à prendre en compte. Définissezpsur 1 pour prendre en compte tous les jetons. - Valeur Top k
-
Méthode d'échantillonnage dans laquelle le modèle choisit le jeton suivant de manière aléatoire parmi les jetons
top kles plus probables. Une valeur élevée pourkgénère une sortie plus aléatoire, ce qui rend le texte de sortie plus naturel. La valeur par défaut de k est 0 pour les modèlesCohere Command, ce qui signifie que le modèle doit prendre en compte tous les jetons et ne pas utiliser cette méthode. - Pénalité de fréquence
-
Pénalité affectée à un jeton lorsque ce dernier apparaît souvent. Les pénalités élevées encouragent moins de jetons répétés et produisent un résultat plus aléatoire.
- Pénalité de présence
-
Pénalité affectée à chaque jeton lorsqu'il apparaît dans la sortie pour encourager les sorties avec des jetons qui n'ont pas été utilisés.
- Prédéfinir
-
Paramètre qui fait le meilleur effort pour échantillonner les jetons de manière déterministe. Lorsqu'une valeur est affectée à ce paramètre, le modèle de langage volumineux vise à renvoyer le même résultat pour les demandes répétées lorsque vous affectez les mêmes valeurs initiales et paramètres aux demandes.
Les valeurs autorisées sont des entiers et l'affectation d'une valeur de départ élevée ou faible n'affecte pas le résultat. L'affectation d'un nombre au paramètre prédéfini est similaire à l'étiquetage de la demande avec un nombre. Le modèle de langage volumineux vise à générer le même ensemble de jetons pour le même entier dans des demandes consécutives. Cette fonctionnalité est particulièrement utile pour le débogage et le test. Le paramètre prédéfini n'a pas de valeur maximale pour l'API et, dans la console, sa valeur maximale est 9999. Si la valeur de départ n'est pas indiquée dans la console ou si elle est NULL dans l'API, cette fonctionnalité est désactivée.
Avertissement
Le paramètre prédéfini risque de ne pas produire le même résultat à long terme, car les mises à jour de modèle dans le service OCI Generative AI risquent d'invalider la valeur prédéfinie.