Limites de service pour Generative AI
Découvrez les limites des ressources de cluster d'IA dédié dans OCI Generative AI.
Par défaut, vous obtenez 0 cluster d'IA dédié par location. Afin de connaître le nom des ressources pour lesquelles vous demandez une augmentation, reportez-vous au tableau et à l'exemple suivants.
Ressource | Nom de la limite | Nombre par défaut par location |
---|---|---|
Nombre d'unités de cluster AI dédiées pour l'hébergement ou le réglage fin des modèles meta.llama-3-70b-instruct |
dedicated-unit-llama2-70-count |
0 |
Nombre d'unités de cluster AI dédiées pour l'hébergement ou le réglage fin des modèles meta.llama-3.1-70b-instruct |
dedicated-unit-llama2-70-count |
0 |
Nombre d'unités de cluster d'IA dédiées pour l'hébergement des modèles meta.llama-3.1-405b-instruct |
dedicated-unit-llama2-70-count |
0 |
Nombre d'unités de cluster d'IA dédiées pour l'hébergement des modèles cohere.command-r-plus |
dedicated-unit-large-cohere-count |
0 |
Nombre d'unités de cluster AI dédiées pour l'hébergement ou le réglage fin des modèles cohere.command-r-16k |
dedicated-unit-small-cohere-count |
0 |
Nombre d'unités de cluster AI dédiées pour l'hébergement ou le réglage fin des modèles cohere.command-light |
dedicated-unit-small-cohere-count |
0 |
Nombre d'unités de cluster AI dédiées pour l'hébergement ou le réglage fin des modèles cohere.command |
dedicated-unit-large-cohere-count |
0 |
Nombre d'unités de cluster d'IA dédiées pour l'hébergement des modèles cohere.embed |
dedicated-unit-embed-cohere-count |
0 |
Nombre d'unités de cluster d'IA dédiées pour l'hébergement des modèles meta.llama-2-70b-chat |
dedicated-unit-llama2-70-count |
0 |
Vous devez demander une augmentation de limite pour utiliser les ressources suivantes :
Famille Meta Llama
-
Pour héberger un modèle Meta Llama 3.1 (405B), vous devez demander à
dedicated-unit-llama2-70-count
d'augmenter de 8. -
Pour héberger un modèle Meta Llama 3.1 (70B), vous devez demander à
dedicated-unit-llama2-70-count
d'augmenter de 2. -
Pour affiner un modèle Meta Llama 3.1 (70B), vous devez demander à
dedicated-unit-llama2-70-count
d'augmenter de 4.
Famille Cohere Command R
-
Pour héberger un modèle Cohere Command R+, vous devez demander à
dedicated-unit-large-cohere-count
d'augmenter de 2. -
Pour héberger un modèle Cohere Command R, vous devez demander à
dedicated-unit-small-cohere-count
d'augmenter de 1. -
Pour affiner un modèle Cohere Command R, vous devez demander à
dedicated-unit-small-cohere-count
d'augmenter de 8.
Pour obtenir la liste complète des modèles et leurs limites de cluster AI dédié correspondantes, reportez-vous à Mise en correspondance de modèles de base avec des clusters.
Afin de demander des clusters d'IA dédiés pour votre location, reportez-vous à Demande d'augmentation de limite de service.