Limitaciones del modelo en la IA generativa
Revisa los siguientes requisitos de modelo para los modelos base y personalizados de OCI Generative AI para aprovechar al máximo tus modelos.
Para conocer las funciones clave de los modelos base previamente entrenados, consulte Modelos básicos previamente entrenados en IA generativa.
Coincidencia de Modelos Base con Clusters
Para alojar un modelo personalizado o preentrenado de OCI Generative AI en un cluster de IA dedicado de alojamiento, vaya a Modelos básicos preentrenados en IA generativa. A continuación, seleccione el modelo previamente entrenado o el modelo base del modelo personalizado. En la sección Cluster de AI dedicado para el modelo de la página, consulte el tamaño de la unidad y las unidades necesarias para alojar ese modelo básico.
Adición de puntos finales a clusters de alojamiento
Para alojar un modelo para inferencia en un cluster de IA dedicado de hosting, debe crear un punto final para ese modelo. A continuación, puede agregar un modelo personalizado o un modelo básico previamente entrenado a ese punto final.
Acerca de los alias de punto final y el servicio de pila
Un cluster de IA dedicado de hosting puede tener hasta 50 puntos finales. Utilice estos puntos finales para los siguientes casos de uso:
- Creación de alias de punto final
-
Cree alias con muchos puntos finales. Estos 50 puntos finales deben apuntar al mismo modelo base o a la misma versión de un modelo personalizado. La creación de muchos puntos finales que apunten al mismo modelo facilita la gestión de los puntos finales, ya que puede utilizar los puntos finales para diferentes usuarios o para diferentes fines.
- Servicio de pila
-
Alojar varias versiones de un modelo personalizado en un cluster. Esto se aplica a los modelos
cohere.command
ycohere.command-light
que se ajustan con el método de formaciónT-Few
. Alojamiento de varias versiones de un modelo ajustado puede ayudarle a evaluar los modelos personalizados para diferentes casos de uso.
Para aumentar el volumen de llamadas soportado por un cluster de alojamiento, puede aumentar su recuento de instancias.
Amplíe las siguientes secciones para revisar los requisitos para alojar modelos en el mismo cluster.
Algunos modelos base preentrenados fundamentales de OCI Generative AI soportados para el modo de servicio dedicado ahora están en desuso y se retirarán antes de que transcurran 6 meses desde el lanzamiento del 1er modelo de reemplazo. Puede alojar un modelo base o ajustar un modelo base y alojar el modelo ajustado en un cluster de IA dedicado (modo de servicio dedicado) hasta que el modelo base se retiró. Para conocer las fechas de baja del modo de servicio dedicado, consulte Baja de los modelos.
Para alojar los modelos de chat base previamente entrenados o modelos de chat ajustados en un cluster de IA dedicado de alojamiento, utilice las siguientes reglas de punto final y tamaño de unidad de cluster que coincidan con cada modelo base.
Tamaño de unidad de cluster de alojamiento | Reglas de coincidencia |
---|---|
Large Generic 2 para el modelo base, meta.llama-4-maverick-17b-128e-instruct-fp8 |
Modelos de base de alojamiento Para alojar el mismo modelo base previamente entrenado a través de varios puntos finales en el mismo cluster:
Alojamiento de modelos personalizados El ajuste no está disponible para el modelo |
Large Generic V2 para el modelo base, meta.llama-4-scout-17b-16e-instruct |
Modelos de base de alojamiento Para alojar el mismo modelo base previamente entrenado a través de varios puntos finales en el mismo cluster:
Alojamiento de modelos personalizados El ajuste no está disponible para el modelo |
LARGE_COHERE_V3 para el modelo base, cohere.command-a-03-2025 |
Modelos de base de alojamiento Para alojar el mismo modelo base previamente entrenado a través de varios puntos finales en el mismo cluster:
Alojamiento de modelos personalizados El ajuste no está disponible para el modelo |
Small Generic V2 para el modelo base, meta.llama-3.2-11b-vision-instruct |
Modelos de base de alojamiento Para alojar el mismo modelo base previamente entrenado a través de varios puntos finales en el mismo cluster:
Alojamiento de modelos personalizados El ajuste no está disponible para el modelo |
Large Generic para el modelo base, meta.llama-3.3-70b-instruct |
Modelos de base de alojamiento Para alojar el mismo modelo base previamente entrenado a través de varios puntos finales en el mismo cluster:
Alojamiento de modelos personalizados Para alojar varios modelos personalizados en el mismo cluster:
|
Large Generic para el modelo base, meta.llama-3.1-70b-instruct |
Modelos de base de alojamiento Para alojar el mismo modelo base previamente entrenado a través de varios puntos finales en el mismo cluster:
Alojamiento de modelos personalizados Para alojar varios modelos personalizados en el mismo cluster:
|
Large Generic para el modelo base, meta.llama-3-70b-instruct |
Modelos de base de alojamiento Para alojar el mismo modelo base previamente entrenado a través de varios puntos finales en el mismo cluster:
Alojamiento de modelos personalizados Para alojar varios modelos personalizados en el mismo cluster:
|
Large Generic V2 para el modelo base, meta.llama-3.2-90b-vision-instruct |
Modelos de base de alojamiento Para alojar el mismo modelo base previamente entrenado a través de varios puntos finales en el mismo cluster:
Alojamiento de modelos personalizados El ajuste no está disponible para el modelo |
Large Generic 2 para el modelo base, meta.llama-3.1-405b-instruct |
Modelos de base de alojamiento Para alojar el mismo modelo base entrenado previamente a través de varios puntos finales en el mismo cluster:
Alojamiento de modelos personalizados El ajuste no está disponible para el modelo |
Small Cohere V2 para el modelo base, cohere.command-r-16k (en desuso) |
Modelos de base de alojamiento Para alojar el mismo modelo base entrenado previamente a través de varios puntos finales en el mismo cluster:
Alojamiento de modelos personalizados Para alojar varios modelos personalizados en el mismo cluster:
No puede alojar diferentes versiones de un modelo personalizado entrenado en el modelo base |
Small Cohere V2 para el modelo base, cohere.command-r-08-2024 |
Modelos de base de alojamiento Para alojar el mismo modelo base entrenado previamente a través de varios puntos finales en el mismo cluster:
Alojamiento de modelos personalizados Para alojar varios modelos personalizados en el mismo cluster:
No puede alojar diferentes versiones de un modelo personalizado entrenado en el modelo base |
Large Cohere V2_2 para el modelo base, cohere.command-r-plus (en desuso) |
Modelos de base de alojamiento Para alojar el mismo modelo base entrenado previamente a través de varios puntos finales en el mismo cluster:
Alojamiento de modelos personalizados El ajuste no está disponible para el modelo |
Large Cohere V2_2 para el modelo base, cohere.command-r-plus-08-2024 |
Modelos de base de alojamiento Para alojar el mismo modelo base entrenado previamente a través de varios puntos finales en el mismo cluster:
Alojamiento de modelos personalizados El ajuste no está disponible para el modelo |
Para alojar el modelo de rerank en un cluster de IA dedicado de alojamiento, utilice las siguientes reglas de punto final y tamaño de unidad de cluster.
Tamaño de unidad de cluster de alojamiento | Reglas de coincidencia |
---|---|
RERANK_COHERE |
Modelos de base de alojamiento Para alojar el mismo modelo base entrenado previamente a través de varios puntos finales en el mismo cluster:
Alojamiento de modelos personalizados Ajuste no disponible para el modelo Cohere Rerank. |
Para alojar los modelos embebidos en un cluster AI dedicado de alojamiento, utilice las siguientes reglas de punto final y tamaño de unidad de cluster.
Tamaño de unidad de cluster de alojamiento | Reglas de coincidencia |
---|---|
Embed Cohere |
Modelos de base de alojamiento Para alojar el mismo modelo base entrenado previamente a través de varios puntos finales en el mismo cluster:
Alojamiento de modelos personalizados Ajuste no disponible para los modelos Cohere Embed. |
- No disponible bajo demanda: todos los modelos preentrenados fundamentales de OCI Generative AI soportados para el modo de servicio bajo demanda que utilizan las API de generación y resumen de texto (incluido el patio de recreo) ahora están retirados. Le recomendamos que utilice las modelos de chat en su lugar.
- Se puede alojar en clusters: si aloja un modelo de generación o resumen, como
cohere.command
, en un cluster de IA dedicado (modo de servicio dedicado), puede seguir utilizando ese modelo hasta que se reciba. Estos modelos, cuando se alojan en un cluster de IA dedicado, solo están disponibles en el medio oeste de EE. UU. (Chicago). Consulte Baja de los modelos para conocer las fechas y definiciones de baja.
Para alojar los modelos de generación de texto en un cluster de AI dedicado de alojamiento, utilice las siguientes reglas de punto final y tamaño de unidad de cluster que coincidan con el modelo base.
Tamaño de unidad de cluster de alojamiento | Reglas de coincidencia |
---|---|
Small Cohere para el modelo base, cohere.command-light |
Modelos base de alojamiento Para alojar el mismo modelo base entrenado previamente a través de varios puntos finales en el mismo cluster:
Alojamiento de modelos personalizados Para alojar diferentes modelos personalizados en el mismo cluster:
|
Large Cohere para el modelo base, cohere.command |
Modelos base de alojamiento Para alojar el mismo modelo base entrenado previamente a través de varios puntos finales en el mismo cluster:
Alojamiento de modelos personalizados Para alojar diferentes modelos personalizados en el mismo cluster:
|
Llama2 70 para el modelo base, meta.llama-2-70b-chat |
Modelos base de alojamiento Para alojar el mismo modelo base entrenado previamente a través de varios puntos finales en el mismo cluster:
|
El modelo
cohere.command
soportado para el modo de servicio bajo demanda ahora se ha dado de baja y este modelo está en desuso para el modo de servicio dedicado. Si aloja cohere.command
en un cluster de IA dedicado (modo de servicio dedicado) para el resumen, puede seguir utilizando esta réplica de modelo alojado con la API de resumen y en el patio de recreo hasta que el modelo cohere.command
se retire para el modo de servicio dedicado. Estos modelos, cuando se alojan en un cluster de IA dedicado, solo están disponibles en el medio oeste de EE. UU. (Chicago). Consulte Baja de los modelos para conocer las fechas y definiciones de baja. Le recomendamos que utilice los modelos de chat en su lugar, que ofrecen las mismas capacidades de resumen, incluido el control de la longitud y el estilo del resumen.Para alojar el modelo de resumen cohere.command
previamente entrenado en un cluster de AI dedicado de alojamiento, utilice las siguientes reglas de punto final y tamaño de unidad de cluster.
Tamaño de unidad de cluster de alojamiento | Reglas de coincidencia |
---|---|
Large Cohere para el modelo base, cohere.command |
Modelos base de alojamiento Para alojar el mismo modelo base entrenado previamente a través de varios puntos finales en el mismo cluster:
Alojamiento de modelos personalizados Para alojar diferentes modelos personalizados en el mismo cluster:
|
Datos de entrenamiento
Los juegos de datos para entrenar modelos personalizados tienen los siguientes requisitos:
- Se permite un máximo de un juego de datos de ajuste por modelo personalizado. Este conjunto de datos se divide aleatoriamente en una relación de 80:20 para el entrenamiento y la validación.
- Cada archivo debe tener al menos 32 ejemplos de pares de petición de datos/finalización.
- El formato de archivo es
JSONL
. - Cada línea en el archivo
JSONL
tiene el siguiente formato:{"prompt": "<a prompt>", "completion": "<expected response given the prompt>"}\n
- El archivo se debe almacenar en un cubo de OCI Object Storage.
Obtén más información sobre Formación de requisitos de datos en IA generativa.
Datos de entrada para incrustaciones de texto
Los datos de entrada para crear incrustaciones de texto tienen los siguientes requisitos:
- Puede agregar oraciones, frases o párrafos para incrustar una frase a la vez o cargando un archivo.
- Sólo se permiten los archivos con la extensión
.txt
. - Si utiliza un archivo de entrada, cada frase, frase o párrafo de entrada del archivo se debe separar con un carácter de nueva línea.
- Se permite un máximo de 96 entradas para cada ejecución.
- En la consola, cada entrada debe tener menos de 512 tokens para los modelos de solo texto.
- Si una entrada es demasiado larga, seleccione si desea cortar el inicio o el final del texto para que se ajuste al límite de token mediante la definición del parámetro Truncar en Iniciar o Fin. Si una entrada supera el límite de token 512 y el parámetro Truncar se define en Ninguno, aparece un mensaje de error.
- Para los modelos de texto e imagen, puede tener archivos e entradas que suman hasta 128.000 tokens.
- Para los modelos de incrustación de texto e imagen, como Cohere Embed English Image V3, puede agregar texto o agregar solo una imagen. Para la imagen, puede utilizar API. La entrada de imagen no está disponible en la consola. Para API, introduzca una imagen codificada base64 en cada ejecución. Por ejemplo, una imagen de 512 x 512 se convierte en aproximadamente 1.610 tokens.
Obtén más información sobre la creación de incrustaciones de texto en OCI Generative AI.