Analyse d'une vidéo stockée à l'aide d'un modèle personnalisé
Identifiez les objets et fonctionnalités basés sur une scène, et détectez les visages et les cadres d'étiquettes dans une vidéo en appelant un modèle personnalisé d'analyse vidéo.
La taille et la durée maximales de chaque vidéo sont indiquées dans la section Limites.
Pour plus d'informations sur l'analyse vidéo, reportez-vous à la section Analyse vidéo stockée.
- Création de l'ensemble de données
- Création d'un modèle personnalisé
- Entraînement du modèle personnalisé
- Appel du modèle personnalisé
Création de l'ensemble de données
Les modèles personnalisés Vision sont destinés aux utilisateurs sans formation en data science. En créant un ensemble de données et en demandant à Vision d'entraîner un modèle basé sur l'ensemble de données, vous pouvez disposer d'un modèle personnalisé prêt pour votre scénario.
La définition de libellés de données consiste à identifier les propriétés d'enregistrements, tels que des documents, du texte et des images, et à annoter ces derniers avec des libellés pour identifier ces propriétés. La légende d'une image et l'identification d'un objet dans une image sont deux exemples d'étiquette de données. Vous pouvez utiliser Oracle Cloud Infrastructure Data Labeling pour définir l'étiquette des données. Pour plus d'informations, reportez-vous au guide du service Data Labeling. Voici un aperçu des étapes à suivre :
- Collectez suffisamment d'images correspondant à la distribution de l'application prévue.
Lorsque vous choisissez le nombre d'images nécessaires pour votre jeu de données, utilisez autant d'images que possible dans votre jeu de données d'entraînement. Pour chaque étiquette à détecter, fournissez au moins 10 images pour l'étiquette. Idéalement, fournissez 50 images ou plus par étiquette. Plus vous fournissez d'images, meilleure est la robustesse et la précision de la détection. La robustesse est la capacité de généraliser à de nouvelles conditions telles que l'angle de vue ou l'arrière-plan.
- Recueillez quelques variétés d'autres images pour capturer différents angles de capture de caméra, conditions d'éclairage, arrière-plans et autres.
Collectez un ensemble de données représentatif du problème et de l'espace sur lesquels vous souhaitez appliquer le modèle entraîné. Bien que les données d'autres domaines puissent fonctionner, un ensemble de données généré à partir des mêmes périphériques, environnements et conditions d'utilisation est plus performant que les autres.
Fournissez suffisamment de perspectives pour les images, car le modèle utilise non seulement les annotations pour apprendre ce qui est correct, mais aussi l'arrière-plan pour apprendre ce qui ne va pas. Par exemple, fournissez des vues de différents côtés de l'objet détecté, avec différentes conditions d'éclairage, à partir de différents dispositifs de capture d'image, etc. - Nommez toutes les instances des objets qui se produisent dans l'ensemble de données source.Gardez les étiquettes cohérentes. Si vous étiquetez plusieurs pommes ensemble comme une seule pomme, faites-le de manière cohérente dans chaque image. Il n'y a pas d'espace entre les objets et la boîte englobante. Les zones délimitées doivent correspondre étroitement aux objets étiquetés.Important
Vérifiez chacune de ces annotations car elles sont importantes pour les performances du modèle.
Création d'un modèle personnalisé
Créez des modèles personnalisés dans Vision pour extraire des informations à partir d'images sans avoir besoin d'analystes de données.
- Compte de location payant dans Oracle Cloud Infrastructure.
- Bonne connaissance d'Oracle Cloud Infrastructure Object Storage.
- Stratégies correctes.
A l'aide de la console, découvrez comment créer un projet Vision et comment entraîner une classification d'image et un modèle de détection d'objet.
Utilisez la commande create et les paramètres requis pour créer un projet :
oci ai-vision project create [OPTIONS]Utilisez la commande create et les paramètres requis pour créer un modèle :
Afin d'obtenir la liste complète des indicateurs et des options de variable pour les commandes d'interface de ligne de commande, reportez-vous à Référence de commande d'interface de ligne de commande.oci ai-vision model create [OPTIONS]Exécutez d'abord l'opération CreateProject pour créer un projet.
Exécutez ensuite l'opération CreateModel pour créer un modèle.
Entraînement du modèle personnalisé
Après avoir créé votre jeu de données, vous pouvez entraîner votre modèle personnalisé.
- Formation recommandée : Vision sélectionne automatiquement la durée d'entraînement pour créer le meilleur modèle. La formation peut prendre jusqu'à 24 heures.
- Entraînement rapide : Cette option produit un modèle qui n'est pas entièrement optimisé, mais qui est disponible dans environ une heure.
- Durée personnalisée : cette option vous permet de définir votre propre durée d'entraînement maximale.
La meilleure durée d'entraînement dépend de la complexité de votre problème de détection, du nombre typique d'objets dans une image, de la résolution et d'autres facteurs. Tenez compte de ces besoins et allouez plus de temps à mesure que la complexité de la formation augmente. Le temps d'entraînement minimum recommandé est de 30 minutes. Un temps d'entraînement plus long donne une plus grande précision, mais des rendements décroissants en précision avec le temps. Utilisez le mode d'entraînement rapide pour avoir une idée du plus petit temps nécessaire pour obtenir un modèle offrant des performances raisonnables. Utilisez le mode recommandé pour obtenir un modèle optimisé de base. Si vous voulez un meilleur résultat, augmentez le temps d'entraînement.
Appel du modèle personnalisé
Les modèles personnalisés peuvent être appelés de la même manière que le modèle préentraîné.
Utilisez la commande analyze-video et les paramètres requis pour classer l'image :
Afin d'obtenir la liste complète des indicateurs et des options de variable pour les commandes d'interface de ligne de commande, reportez-vous à Référence de commande d'interface de ligne de commande.oci ai-vision analyze-video [OPTIONS]Exécutez l'opération AnalyzeVideo pour analyser une image.
Mesures de modèle personnalisé
Les métriques suivantes sont fournies pour les modèles personnalisés dans Vision.
- Score mAP@0.5
- Le score de précision moyenne (mAP) avec un seuil de 0,5 est fourni uniquement pour les modèles de détection d'objets personnalisés. Il est calculé en prenant la précision moyenne sur toutes les classes. Elle va de 0,0 à 1,0, où 1,0 est le meilleur résultat.
- Precision
- Fraction des instances pertinentes parmi les instances extraites.
- Rappeler
- Fraction des instances pertinentes extraites.
- seuil
- Seuil de décision permettant de faire une prédiction de classe pour les métriques.
- Nombre total d'images
- Nombre total d'images utilisées pour l'entraînement et les tests.
- Tester les images
- Nombre d'images de l'ensemble de données qui ont été utilisées pour les tests et non pour la formation.
- Durée de l'entraînement
- Durée en heures pendant laquelle le modèle a été entraîné.