Évaluations

Évaluation de la performance du modèle à l'aide d'actions rapides de l'intelligence artificielle

Avec les modèles déployés, vous pouvez créer une évaluation de modèle pour évaluer sa performance. Vous pouvez sélectionner un jeu de données dans le stockage d'objets ou en charger un à partir du stockage du carnet dans lequel vous travaillez. Pour charger des jeux de données à partir de votre carnet, vous devez d'abord configurer des politiques qui permettent à la session de carnet d'écrire des fichiers dans le stockage d'objets. Vous pouvez étiqueter votre évaluation de modèle avec un nom d'expérience. Vous pouvez sélectionner une expérience existante ou en créer une nouvelle. BERTScore, BLEU Score, Perplexity Score, Text Readability et ROUGE sont les mesures d'évaluation disponibles pour mesurer la performance du modèle. Vous pouvez enregistrer le résultat de l'évaluation du modèle dans le stockage d'objets. Vous pouvez définir les paramètres d'évaluation du modèle. Sous Options avancées, vous pouvez sélectionner la forme de l'instance de calcul pour l'évaluation et éventuellement entrer la séquence Arrêter. En outre, vous pouvez configurer la journalisation avec votre évaluation de modèle pour la surveiller. La journalisation est facultative, mais nous la recommandons pour aider à résoudre les erreurs lors de l'évaluation. Vous devez disposer de la politique nécessaire pour activer la journalisation. Pour plus d'informations sur la journalisation, voir la section Journaux. Vous pouvez vérifier les configurations et les paramètres de votre évaluation avant de la créer.

Si vous revenez à l'onglet Évaluation, l'état du cycle de vie de l'évaluation est Succeeded lorsque l'évaluation du modèle est terminée. Vous pouvez voir le résultat de l'évaluation et télécharger une copie du rapport d'évaluation du modèle sur votre ordinateur local.

Voir Évaluation sur GitHub pour plus d'informations et des conseils sur les évaluations.
Note

Les évaluations ne peuvent pas être exécutées sur des formes basées sur ARM.
    1. Sous Actions rapides de l'IA, cliquez sur Évaluations.
      La page Évaluations s'affiche.
    2. Sélectionnez Créer des évaluations.
    3. Entrez le nom de l'évaluation.
    4. Sélectionnez le nom du déploiement de modèle.
    5. (Facultatif) Entrez une description de l'évaluation.
    6. Pour spécifier un jeu de données, sélectionnez Sélectionner un jeu de données existant ou Charger un jeu de données à partir du stockage de carnet.
    7. (Facultatif) Si vous avez sélectionné Sélectionner un jeu de données existant à l'étape 6, sélectionnez le compartiment.
    8. (Facultatif) Si vous avez sélectionné Sélectionner un jeu de données existant à l'étape 6, sélectionnez l'emplacement du stockage d'objets du jeu de données.
    9. (Facultatif) Si vous avez sélectionné Sélectionner un jeu de données existant à l'étape 6, spécifiez le chemin du stockage d'objets.
    10. Pour spécifier une expérience, sélectionnez Sélectionner une expérience existante ou Créer une expérience. Utilisez des expériences pour regrouper des modèles similaires aux fins d'évaluation.
    11. Facultatif : Si vous avez sélectionné Sélectionner une expérience existante, sélectionnez l'expérience.
    12. Facultatif : Si vous avez sélectionné Créer une nouvelle expérience :
      1. Entrez le nom de l'expérience.
      2. Facultatif : Donnez une description à l'expérience.
    13. Spécifiez le seau de stockage d'objets dans lequel stocker les résultats.
      1. Sélectionner le compartiment.
      2. Sélectionnez l'emplacement du stockage d'objets.
      3. Facultatif : Spécifiez le chemin du stockage d'objets.
    14. Sélectionnez Suivant.
    15. (Facultatif) Sous Paramètres, mettez à jour les paramètres d'évaluation du modèle à partir des valeurs par défaut.
    16. Sélectionnez Afficher les options avancées.
    17. Spécifiez la forme d'instance et la séquence d'arrêt à utiliser.
    18. (Facultatif) Sous Journalisation, spécifiez le groupe de journaux et le journal à utiliser.
    19. Sélectionnez Suivant.
      La page d'évaluation est affichée pour l'évaluation que vous souhaitez créer.
    20. Sélectionnez Soumettre pour lancer l'évaluation.
    21. Lorsque l'évaluation est terminée et que l'état du cycle de vie est réglé à Réussite, sélectionnez la flèche à côté de l'évaluation.
      Les mesures d'évaluation et les paramètres du modèle sont affichés. Sélectionnez Télécharger pour télécharger le rapport au format HTML.
  • Pour obtenir la liste complète des paramètres et des valeurs des commandes de l'interface de ligne de commande des actions rapides du service d'intelligence artificielle, voir Interface de ligne de commande des actions rapides du service d'intelligence artificielle.

  • Cette tâche ne peut pas être effectuée à l'aide de l'API.