Metamodelos soportados
Puede importar modelos de lenguaje grandes de cubos de Hugging Face y OCI Object Storage a OCI Generative AI, crear puntos finales para esos modelos y utilizarlos en el servicio Generative AI.
Estos modelos son una versión mejorada de los modelos Meta Llama con atención de consulta agrupada (GQA). Para obtener más información, consulte Llama 3.3 y Llama 4 en la documentación de Hugging Face.
Meta Llama
| ID de modelo facial de abrazo | Capacidad del modelo | Unidad de cluster de IA dedicada recomendada |
|---|---|---|
| meta-llama/Llama-3.3-70B-Instruct | TEXT_TO_TEXT | A100_80G_X4 |
| meta-llama/Llama-4-Maverick-17B-128E-Instruct-FP8 | IMAGE_TEXT_TO_TEXT | H100_X8 |
| meta-llama/Llama-4-Scout-17B-16E-Instruct | IMAGE_TEXT_TO_TEXT | H100_X4 |
Importante
- Los modelos importados soportan la longitud de contexto nativo especificada por el proveedor del modelo. Sin embargo, la longitud máxima de contexto que puede utilizar también está limitada por la configuración de hardware subyacente en OCI Generative AI. Es posible que necesite aprovisionar recursos de hardware adicionales para aprovechar al máximo la longitud del contexto nativo del modelo.
- Para importar una versión ajustada de un modelo, solo se admiten los modelos ajustados que utilizan la misma versión de transformadores que el modelo original y tienen un recuento de parámetros dentro del ±10% del original.
- Si el tipo de instancia de la unidad recomendada no está disponible en la región, seleccione una instancia de nivel superior (por ejemplo, seleccione una unidad H100 en lugar de una unidad A100-80G).
- Para conocer los requisitos previos y cómo importar modelos, consulte Gestión de modelos importados (nuevos).