Analyse d'une vidéo stockée à l'aide d'un modèle personnalisé

Identifier les fonctions et les objets basés sur une scène, et détecter les visages et les images d'étiquettes dans une vidéo en appelant un modèle personnalisé d'analyse vidéo.

La taille et la durée maximales de chaque vidéo sont indiquées dans la section Limites.

Pour plus d'informations sur l'analyse vidéo, voir la section Analyse de vidéo stockée.

Suivez ces étapes pour utiliser un modèle personnalisé dans Vision.Des mesures sont disponibles pour analyser la performance du modèle personnalisé.

Créer le jeu de données

Les modèles personnalisés de visualisation sont destinés aux utilisateurs sans arrière-plan de science des données. En créant un jeu de données et en demandant à Vision d'entraîner un modèle basé sur le jeu de données, vous pouvez avoir un modèle personnalisé prêt pour votre scénario.

La clé pour créer un modèle personnalisé utile est de le préparer et de l'entraîner avec un bon jeu de données. Le service de visualisation prend en charge le format de jeu de données suivant :Collectez un jeu de données représentatif du problème et de l'espace sur lequel vous prévoyez d'appliquer le modèle entraîné. Bien que les données d'autres domaines puissent fonctionner, un jeu de données généré à partir des mêmes appareils, environnements et conditions d'utilisation, surpasse les autres.

L'étiquetage de données consiste à identifier les propriétés d'enregistrements, tels que les documents, le texte et les images, et à les ajouter en tant qu'annotations pour identifier ces propriétés. La légende d'une image et l'identification d'un objet dans une image sont deux exemples d'étiquette de données. Vous pouvez utiliser Oracle Cloud Infrastructure Data Labeling pour effectuer l'étiquetage de données. Pour plus d'informations, consultez le guide du service d'étiquetage de données. Voici un aperçu des étapes à suivre :

  1. Collectez suffisamment d'images correspondant à la distribution de l'application prévue.

    Lorsque vous choisissez le nombre d'images nécessaires pour votre jeu de données, utilisez autant d'images que possible dans votre jeu de données d'entraînement. Pour chaque étiquette à détecter, fournissez au moins 10 images pour l'étiquette. Fournissez idéalement 50 images ou plus par étiquette. Plus vous fournissez d'images, meilleure est la robustesse et la précision de la détection. La robustesse est la capacité de généraliser à de nouvelles conditions telles que l'angle de vue ou l'arrière-plan.

  2. Recueillez quelques variétés d'autres images pour capturer différents angles de capture de caméra, conditions d'éclairage, arrière-plans et autres.

    Collectez un jeu de données représentatif du problème et de l'espace sur lequel vous prévoyez d'appliquer le modèle entraîné. Bien que les données d'autres domaines puissent fonctionner, un jeu de données généré à partir des mêmes appareils, environnements et conditions d'utilisation, surpasse les autres.

    Fournir suffisamment de perspectives pour les images, car le modèle utilise non seulement les annotations pour apprendre ce qui est correct, mais aussi l'arrière-plan pour apprendre ce qui ne va pas. Par exemple, fournissez des vues de différents côtés de l'objet détecté, avec des conditions d'éclairage différentes, de différents dispositifs de capture d'image, etc.
  3. Étiqueter toutes les instances des objets qui se produisent dans le jeu de données source.
    Gardez les étiquettes cohérentes. Si vous étiquetez plusieurs pommes ensemble comme une seule pomme, faites-le régulièrement dans chaque image. Il n'y a pas d'espace entre les objets et la zone englobante. Les zones englobantes doivent correspondre étroitement aux objets étiquetés.
    Important

    Vérifiez chacune de ces annotations car elles sont importantes pour la performance du modèle.

Création d'un modèle personnalisé

Créez des modèles personnalisés dans le service de visualisation pour extraire des synthèses à partir d'images sans avoir besoin d'experts en science des données.

Vous devez disposer des éléments suivants avant de créer un modèle personnalisé :
  • Un compte de location payante dans Oracle Cloud Infrastructure.
  • Connaissance du service Oracle Cloud Infrastructure Object Storage.
  • Les politiques correctes.
  • À l'aide de la console, découvrez comment créer un projet Vision et comment entraîner un modèle de classification d'image et de détection d'objet.

    1. Créez un projet.
      1. Dans la page d'accueil du service de visualisation, sous Modèles personnalisés, sélectionnez Projets.
      2. Sélectionnez Créer un projet
      3. Sélectionnez le compartiment du projet.
      4. Entrez un nom et une description pour le projet. Évitez d'entrer des informations confidentielles.
      5. Sélectionnez Créer un projet.
    2. Dans la liste des projets, sélectionnez le nom du projet que vous avez créé.
    3. Dans la page des détails du projet, sélectionnez Créer un modèle.
    4. Sélectionnez le type de modèle à entraîner : Classification d'image ou Détection d'objet.
    5. Sélectionnez les données d'entraînement.
      • Si vous n'avez aucune image annotée, sélectionnez Créer un nouveau jeu de données.

        Vous accédez au service d'étiquetage de données OCI, où vous pouvez créer un jeu de données et ajouter des étiquettes ou dessiner des zones englobantes sur le contenu de l'image. Pour plus d'informations, voir Création d'un jeu de données et la section Images d'étiquetage dans la documentation sur le service d'étiquetage de données.

      • Si vous avez un jeu de données annoté existant, sélectionnez Sélectionner un jeu de données existant, puis sélectionnez la source de données :
        • Si vous avez annoté le jeu de données dans le service d'étiquetage de données, sélectionnez Service d'étiquetage de données, puis sélectionnez le jeu de données.
        • Si vous avez annoté les images à l'aide d'un outil de tierce partie, cliquez sur Stockage d'objets, puis sélectionnez le seau qui contient les images.
    6. Sélectionnez Suivant.
    7. Entrez un nom d'affichage pour le modèle personnalisé.
    8. (Facultatif) Donnez au modèle une description pour vous aider à le trouver.
    9. Sélectionnez la durée de l'entraînement.
      • Le service de visualisation Formation recommandée sélectionne automatiquement la durée d'entraînement pour créer le meilleur modèle. La formation peut prendre jusqu'à 24 heures.
      • Formation rapide Cette option produit un modèle qui n'est pas entièrement optimisé mais qui est disponible en une heure environ.
      • Personnalisé Cette option vous permet de définir votre propre durée maximale d'entraînement (en heures).
    10. Sélectionnez Suivant.
    11. Vérifiez les informations que vous avez fournies dans les étapes précédentes. Pour apporter des modifications, sélectionnez Précédent.
    12. Lorsque vous voulez commencer l'entraînement du modèle personnalisé, sélectionnez Créer et entraîner.
  • Utilisez la commande create et les paramètres requis pour créer un projet :

    oci ai-vision project create [OPTIONS]

    Utilisez la commande create et les paramètres requis pour créer un modèle :

    oci ai-vision model create [OPTIONS]
    Pour la liste complète des indicateurs et des options de variable pour les commandes de l'interface de ligne de commande, voir Informations de référence sur les commandes de l'interface de ligne de commande.
  • Exécutez d'abord l'opération CreateProject pour créer un projet.

    Exécutez ensuite l'opération CreateModel pour créer un modèle.

Entraîner le modèle personnalisé

Après avoir créé votre jeu de données, vous pouvez entraîner votre modèle personnalisé.

Entraînez votre modèle à l'aide de l'un des modes d'entraînement de modèle personnalisés de Vision. Les modes de formation sont les suivants :
  • Formation recommandée : Vision sélectionne automatiquement la durée d'entraînement pour créer le meilleur modèle. La formation peut prendre jusqu'à 24 heures.
  • Entraînement rapide : Cette option produit un modèle qui n'est pas entièrement optimisé, mais qui est disponible en une heure environ.
  • Durée personnalisée : cette option vous permet de définir votre propre durée maximale d'entraînement.

La meilleure durée d'entraînement dépend de la complexité de votre problème de détection, du nombre typique d'objets dans une image, de la résolution et d'autres facteurs. Tenez compte de ces besoins et allouez plus de temps à mesure que la complexité de la formation augmente. Le temps d'entraînement minimum recommandé est de 30 minutes. Un temps d'entraînement plus long donne une plus grande précision, mais diminue les rendements en précision avec le temps. Utilisez le mode d'entraînement rapide pour avoir une idée du temps nécessaire pour obtenir un modèle qui offre des performances raisonnables. Utilisez le mode recommandé pour obtenir un modèle optimisé de base. Si vous voulez un meilleur résultat, augmentez le temps d'entraînement.

Appeler le modèle personnalisé

Les modèles personnalisés peuvent être appelés de la même manière que le modèle préentraîné.

Vous pouvez appeler le modèle personnalisé pour analyser les images en tant que demande unique ou en tant que demande par lots. Vous devez d'abord effectuer les étapes suivantes :
    1. Ouvrez le menu de navigation et cliquez sur Analyse et intelligence artificielle. Sous Services d'intelligence artificielle, cliquez sur Vision.
    2. Dans la page Vision, cliquez sur Analyse vidéo.
    3. Sélectionnez le compartiment dans lequel stocker les résultats.
    4. Sélectionnez l'emplacement de la vidéo :
      • Démonstration
      • Fichier local
      • Stockage d'objets
        1. (Facultatif) Si vous avez sélectionné Démo, cliquez sur Analyser la vidéo de démonstration pour démarrer l'analyse.
        2. (Facultatif) Si vous avez sélectionné Fichier local :
          1. Sélectionnez un seau dans la liste. Si le seau se trouve dans un autre compartiment, cliquez sur Modifier le compartiment.
          2. (Facultatif) Entrez un préfixe dans le champ de texte Ajouter un préfixe.
          3. Faites glisser le fichier vidéo vers la zone Sélectionner un fichier, ou cliquez sur effectuer une sélection... et naviguez jusqu'à l'image.
          4. Cliquez sur Charger et analyser. La boîte de dialogue URL préauthentifiée pour la vidéo s'affiche.
          5. (Facultatif) Copiez l'URL.
          6. Cliquez sur Fermer.
        3. Si vous avez sélectionné Stockage d'objets, entrez l'URL de la vidéo et cliquez sur Analyser.

      L'API analyzeVideo est appelée et le modèle analyse immédiatement la vidéo. Le statut de la tâche s'affiche.

      La zone Résultats comporte des onglets pour chacun des éléments suivants : détection d'étiquette, détection d'objet, détection de texte et détection de visage avec des notes de confiance, et demande et réponse JSON.

    5. (Facultatif) Pour arrêter l'exécution du travail, cliquez sur Annuler.
    6. (Facultatif) Pour modifier l'emplacement de sortie, cliquez sur Modifier l'emplacement de sortie.
    7. (Facultatif) Pour sélectionner ce qui est analysé, cliquez sur Fonctionnalités d'analyse vidéo, puis sélectionnez le cas échéant parmi :
      • Détection d'étiquettes
      • Détection d'objet
      • Détection de texte
      • Détection de visage
    8. (Facultatif) Pour générer du code pour l'inférence vidéo, cliquez sur Code pour l'inférence vidéo.
    9. (Facultatif) Pour analyser à nouveau les vidéos, cliquez sur Suivi de tâche vidéo et sélectionnez Vidéos récemment chargées dans le menu.
      1. Cliquez sur la vidéo que vous souhaitez analyser.
      2. Cliquez sur analyser.
    10. Pour voir le statut d'une tâche d'analyse vidéo, cliquez sur Suivi de tâche vidéo et sélectionnez Obtenir le statut de la tâche dans le menu.
      1. Entrez l'OCID du travail.
      2. Cliquez sur Obtenir le statut de la tâche.
      3. (Facultatif) Pour arrêter l'exécution du travail, cliquez sur Annuler.
      4. (Facultatif) Pour obtenir le statut d'une autre tâche, cliquez sur Obtenir le statut d'une autre tâche vidéo.
      5. (Facultatif) Pour obtenir la réponse JSON, cliquez sur Extraire les données de réponse.
      6. (Facultatif) Pour supprimer un statut de tâche, cliquez sur Supprimer.
  • Utilisez la commande analyze-video et les paramètres requis pour classer l'image :

    oci ai-vision analyze-video [OPTIONS]
    Pour la liste complète des indicateurs et des options de variable pour les commandes de l'interface de ligne de commande, voir Informations de référence sur les commandes de l'interface de ligne de commande.
  • Exécutez l'opération AnalyzeVideo pour analyser une image.

Mesures de modèle personnalisé

Les mesures suivantes sont fournies pour les modèles personnalisés dans Vision.

Note mAP@0.5
La note moyenne de précision moyenne (mAP) avec un seuil de 0,5 est fournie uniquement pour les modèles de détection d'objets personnalisés. calculée en prenant la précision moyenne moyenne sur toutes les classes. Il varie de 0,0 à 1,0 où 1,0 est le meilleur résultat.
Précision
Fraction des instances pertinentes parmi les instances extraites.
Rappeler
Fraction des instances pertinentes extraites.
Seuil
Seuil de décision pour effectuer une prédiction de classe pour les mesures.
Nombre total d'images
Nombre total d'images utilisées pour l'entraînement et les tests.
Tester des images
Nombre d'images du jeu de données utilisées pour les tests et non pour l'entraînement.
Durée de l'entraînement
Durée en heures pendant laquelle le modèle a été entraîné.