Cohere Command A Vision
Publicado en julio de 2025, Cohere Command A Vision (cohere.command-a-vision) es un modelo de lenguaje grande multimodal centrado en la empresa que sobresale en la comprensión e interpretación de datos visuales (imágenes, gráficos, documentos) junto con el texto.
Regiones para este modelo
Para las regiones soportadas, los tipos de punto final (clusters de IA dedicados o bajo demanda) y el alojamiento (OCI Generative AI o llamadas externas) para este modelo, consulte la página Modelos por región. Para obtener más información sobre las regiones, consulte la página Regiones de IA generativa.
Acceder a este modelo
Los puntos finales de API para todas las regiones comerciales, soberanas y gubernamentales soportadas se muestran en los enlaces API de gestión y API de inferencia. Puede acceder a cada modelo solo a través de sus regiones soportadas.
Características clave
- Soporte multimodal: introduzca texto e imágenes y obtenga una salida de texto. Adecuado para tareas de lenguaje de visión centradas en la empresa, como análisis de documentos e información sobre imágenes.
- En la consola, introduzca una imagen
.pngo.jpgde 5 MB o menos. - Para API, introduzca una imagen codificada
base64en cada ejecución. Una imagen de 512 x 512 se convierte en aproximadamente 1.610 tokens.
- En la consola, introduzca una imagen
- Longitud de contexto: 128 000 tokens (petición de datos máxima + longitud de respuesta: 128 000 tokens por cada ejecución)
- Modelo base: basado en el LLM del comando A de Cohere.
- Tamaño del modelo: el modelo tiene 112 mil millones de parámetros.
- Eficiencia: optimizada para ejecutarse en una huella de 2 GPU con poca computación.
Consulte la documentación de Cohere para conocer el modelo de visión de comando A.
Puntos finales de la API
El modelo Cohere Command A Vision solo es compatible con la versión 2 de la API de chat de IA generativa de OCI para los modelos Cohere. Para obtener más información sobre la implantación, consulte la API CohereChatRequestV2 y otros puntos finales relacionados que terminan en V2, como
CohereChatResponseV2.Modo bajo demanda
Consulte la siguiente tabla para ver el nombre del producto bajo demanda de este modelo en la página de precios.
| Nombre de modelo | Nombre de modelo de OCI | Nombre de producto de página de asignación de precios |
|---|---|---|
| Cohere Command A Vision | cohere.command-a-vision |
Large Cohere |
-
Paga sobre la marcha por cada llamada de inferencia cuando utiliza los modelos en el patio de recreo o cuando llama a los modelos a través de la API.
- Baja barrera para empezar a utilizar la IA generativa.
- Ideal para la experimentación, la prueba de concepto y la evaluación de modelos.
- Disponible para los modelos preentrenados en regiones que no se muestran como (solo cluster de IA dedicado).
Ajuste de límite de limitación dinámica para el modo bajo demanda
OCI Generative AI ajusta dinámicamente el límite de limitación de solicitudes para cada arrendamiento activo en función de la demanda del modelo y la capacidad del sistema para optimizar la asignación de recursos y garantizar un acceso justo.
Este ajuste depende de los siguientes factores:
- Rendimiento máximo actual soportado por el modelo de destino.
- Cualquier capacidad del sistema no utilizada en el momento del ajuste.
- El uso del rendimiento histórico de cada arrendamiento y cualquier límite de sustitución especificado definido para ese arrendamiento.
Nota: Debido a la limitación dinámica, los límites de velocidad no están documentados y pueden cambiar para satisfacer la demanda en todo el sistema.
Debido al ajuste de límite de limitación dinámica, recomendamos implementar una estrategia de retroceso, que implica retrasar las solicitudes después de un rechazo. Sin una, las solicitudes rápidas repetidas pueden provocar más rechazos a lo largo del tiempo, una mayor latencia y un posible bloqueo temporal del cliente por parte del servicio de IA generativa. Al utilizar una estrategia de retroceso, como una estrategia de retroceso exponencial, puede distribuir las solicitudes de manera más uniforme, reducir la carga y mejorar el éxito de los reintentos, siguiendo las mejores prácticas del sector y mejorando la estabilidad y el rendimiento generales de su integración en el servicio.
Cluster de IA dedicado para el modelo
En la lista de regiones anterior, los modelos de regiones que no están marcados con (solo clúster de IA dedicada) tienen opciones de clúster de IA dedicado y bajo demanda. Para el modo bajo demanda, no necesita clusters y puede acceder al modelo en el patio de juegos de la consola o a través de la API.
Para acceder a un modelo a través de un cluster de IA dedicado en cualquier región de la lista, debe crear un punto final para ese modelo en un cluster de IA dedicado. Para ver el tamaño de la unidad de cluster que coincide con este modelo, consulte la siguiente tabla.
| Modelo base | Cluster de Ajuste | Cluster de alojamiento | Información de página de asignación de precios | Aumento de límite de cluster de solicitud |
|---|---|---|---|---|
|
No disponible para ajuste |
|
|
|
|
No disponible para ajuste |
|
|
|
-
Si no tiene suficientes límites de cluster en el arrendamiento para alojar el modelo Cohere Command A Vision en un cluster de AI dedicado,
Reglas de punto final para clusters
- Un cluster de AI dedicado puede contener hasta 50 puntos finales.
- Utilice estos puntos finales para crear alias que apunten al mismo modelo base o a la misma versión de un modelo personalizado, pero no a ambos tipos.
- Varios puntos finales para el mismo modelo facilitan su asignación a diferentes usuarios o propósitos.
| Tamaño de unidad de cluster de alojamiento | Reglas de punto final |
|---|---|
| LARGE_COHERE_V3 |
|
| SMALL_COHERE_4
(Sólo UAE East (Dubai)) |
|
-
Para aumentar el volumen de llamadas soportado por un cluster de alojamiento, aumente el recuento de instancias editando el cluster de AI dedicado. Consulte Updating a Dedicated AI Cluster.
-
Para más de 50 puntos finales por cluster, solicite un aumento del límite,
endpoint-per-dedicated-unit-count. Consulte Solicitud de un aumento del límite de servicio y Límites de servicio para la IA generativa.
Fechas de lanzamiento y baja de OCI
Para conocer las fechas de lanzamiento y baja y las opciones del modelo de sustitución, consulte las siguientes páginas en función del modo (bajo demanda o dedicado):
Parámetros de Modelo
Para cambiar las respuestas del modelo, puede cambiar los valores de los siguientes parámetros en el patio de juegos o en la API.
- Máximo de tokens de salida
-
Número máximo de tokens que se desea que el modelo genere para cada respuesta. Estimar cuatro caracteres por token. Debido a que está solicitando un modelo de chat, la respuesta depende de la petición de datos y cada respuesta no utiliza necesariamente el máximo de tokens asignados.
- Sustitución de preámbulo
-
Contexto inicial o mensaje que guía a una modelo de chat. Cuando no asigna un preámbulo a una modelo de chat, se utiliza el preámbulo por defecto para esa modelo. Puede asignar un preámbulo en el parámetro Sustitución de preámbulo para los modelos. El preámbulo predeterminado para la familia Cohere es:
You are Command. You are an extremely capable large language model built by Cohere. You are given instructions programmatically via an API that you follow to the best of your ability.La sustitución del preámbulo por defecto es opcional. Cuando se especifica, la sustitución del preámbulo reemplaza el preámbulo predeterminado de Cohere. Al agregar un preámbulo, para obtener los mejores resultados, proporcione el contexto del modelo, las instrucciones y un estilo de conversación.
Consejo
Para los modelos de chat sin el parámetro sustitución de preámbulo, puede incluir un preámbulo en la conversación de chat y pedir directamente al modelo que responda de una forma determinada. - Modo de seguridad
- Agrega una instrucción de seguridad para que el modelo la use al generar respuestas. Las opciones son las siguientes:
- Contextual: (por defecto) pone menos restricciones en la salida. Mantiene protecciones básicas con el objetivo de rechazar sugerencias dañinas o ilegales, pero permite contenido obsceno y tóxico, contenido sexualmente explícito y violento, y contenido que contiene información médica, financiera o legal. El modo contextual es adecuado para entretenimiento, uso creativo o académico.
- Estricta: tiene como objetivo evitar temas delicados, como actos violentos o sexuales y blasfemias. Este modo tiene como objetivo proporcionar una experiencia más segura al prohibir las respuestas o recomendaciones que considere inapropiadas. El modo estricto es adecuado para uso corporativo, como para comunicaciones corporativas y servicio al cliente.
- Desactivado: no se aplica ningún modo de seguridad.
- Temperatura
-
Nivel de aleatoriedad utilizado para generar el texto de salida.
Consejo
Comience con la temperatura establecida en 0 o menos de uno y aumente la temperatura a medida que vuelve a generar las peticiones de datos para obtener una salida más creativa. Las altas temperaturas pueden introducir alucinaciones e información objetivamente incorrecta. - p principales
-
Método de muestreo que controla la probabilidad acumulada de los tokens principales que se deben tener en cuenta para el siguiente token. Asigne a
pun número decimal entre 0 y 1 para la probabilidad. Por ejemplo, introduzca 0,75 para que se tenga en cuenta el 75 por ciento superior. Definapen 1 para considerar todos los tokens. - k principales
-
Método de muestreo en el que el modelo selecciona el siguiente token aleatoriamente de los tokens más probables
top k. Un valor alto parakgenera una salida más aleatoria, lo que hace que el texto de salida suene más natural. El valor por defecto para k es 0 para los modelosCohere Command, lo que significa que el modelo debe tener en cuenta todos los tokens y no utilizar este método. - Penalización de frecuencia
-
Una penalización que se asigna a un token cuando ese token aparece con frecuencia. Las sanciones altas fomentan menos tokens repetidos y producen una salida más aleatoria.
- Penalización de presencia
-
Una penalización que se asigna a cada token cuando aparece en la salida para fomentar la generación de salidas con tokens que no se han utilizado.
- Valor inicial
-
Parámetro que hace el mejor esfuerzo para muestrear tokens de forma determinista. Cuando se asigna un valor a este parámetro, el modelo de lenguaje grande tiene como objetivo devolver el mismo resultado para las solicitudes repetidas cuando asigna el mismo valor inicial y los mismos parámetros para las solicitudes.
Los valores permitidos son enteros y la asignación de un valor inicial grande o pequeño no afecta al resultado. La asignación de un número para el parámetro inicial es similar a etiquetar la solicitud con un número. El modelo de lenguaje grande tiene como objetivo generar el mismo conjunto de tokens para el mismo entero en solicitudes consecutivas. Esta función es especialmente útil para depurar y probar. El parámetro inicial no tiene ningún valor máximo para la API y, en la consola, su valor máximo es 9999. Si deja el valor inicial en blanco en la consola o si es nulo en la API, se desactiva esta función.
Advertencia
Es posible que el parámetro inicial no produzca el mismo resultado a largo plazo, ya que las actualizaciones del modelo en el servicio OCI Generative AI pueden invalidar el valor inicial.