Liste des grappes dédiées à l'IA dans le service d'intelligence artificielle générative

Voir toutes les grappes dédiées à l'IA d'un compartiment dans OCI Generative AI.

  1. Dans la barre de navigation de la console, sélectionnez une région dotée de l'IA générative, par exemple, Midwest américain (Chicago) ou Royaume-Uni - Sud (Londres). Voir Quels modèles sont offerts dans votre région.
  2. Ouvrez le menu de navigation et sélectionnez Analyse et intelligence artificielle. Sous Services IA, sélectionnez Intelligence artificielle générative.
  3. Dans le menu de gauche, sélectionnez le compartiment qui contient les grappes dédiées à l'IA.
  4. Cliquez sur Grappes dédiées à l'IA.
  5. Pour chaque grappe dédiée à l'IA listée, consultez les propriétés suivantes :
    • Nom de la grappe dédiée à l'IA
    • État
      • Création
      • Actif
      • Mise à jour
      • Suppression
      • Supprimé
      • Échec
    • Date et heure de création
    • Type
      • Réglage fin
      • Hébergement
    • Capacité de point d'extrémité restante
      • S'applique uniquement aux grappes d'hébergement.
      • Avec une capacité de 50 unités, calcule le nombre d'unités disponibles à ajouter au cluster.
      • Vous pouvez ajouter un point d'extrémité à chaque unité.
    • Taille d'unité pour le réglage fin des grappes
      • Grand générique, pour les modèles de base meta.llama-3-70b-instruct et meta.llama-3.1-70b-instruct
      • Petite cohère, si le modèle de base est cohere.command-light
      • Petite cohère V2, pour les modèles de base cohere.command-r-16k et cohere.command-r-08-2024
      • Grande cohère, si le modèle de base est cohere.command
    • Taille d'unité pour l'hébergement de grappes
      • Petite valeur générique V2, si le modèle de base est meta.llama-3.2-11b-vision-instruct
      • Grand générique, pour les modèles de base meta.llama-3.1-70b-instruct et meta.llama-3-70b-instruct
      • Grand générique V2, si le modèle de base est meta.llama-3.2-90b-vision-instruct
      • Grand générique 4, si le modèle de base est meta.llama-3.1-405b-instruct
      • Llama2 70, si le modèle de base est meta.llama-2-70b-chat
      • Petite cohère, si le modèle de base est cohere.command-light
      • Petite cohère V2, pour les modèles de base, cohere.command-r-16k et cohere.command-r-08-2024
      • Grande cohère, si le modèle de base est cohere.command
      • Grande cohère V2_2, pour les modèles de base cohere.command-r-plus et cohere.command-r-plus-08-2024
      • Cohère intégrée, pour les modèles de base cohere.embed.english-light-v3.0, cohere.embed.english-v3.0, cohere.embed.multilingual-light-v3.0 et cohere.embed.multilingual-v3.0
    • Nombre d'unités
      • 8 pour le réglage fin des grappes avec le modèle de base cohere.command-r-16k et cohere.command-r-08-2024 et 2 pour les autres modèles de réglage fin disponibles
      • 1 ou plus pour héberger des clusters
    • Création par
    • Description