Analyse d'une vidéo stockée à l'aide d'un modèle préentraîné

Identifiez les caractéristiques et les objets basés sur une scène, et détectez les visages et les cadres d'étiquettes dans une vidéo en appelant le modèle préentraîné d'analyse vidéo.

La taille et la durée maximales de chaque vidéo sont indiquées dans la section Limites.

Pour plus d'informations sur l'analyse vidéo, reportez-vous à la section Analyse vidéo stockée.

    1. Ouvrez le menu de navigation et cliquez sur Analytics et IA. Sous Services d'IA, cliquez sur Vision.
    2. Sur la page Vision, cliquez sur Analyse vidéo.
    3. Sélectionnez le compartiment dans lequel stocker les résultats.
    4. Sélectionnez l'emplacement de la vidéo :
      • Démo
      • Fichier local
      • Object storage
        1. (Facultatif) Si vous avez sélectionné Démonstration, cliquez sur Analyser la vidéo de démonstration pour lancer l'analyse.
        2. (Facultatif) Si vous avez sélectionné Fichier local :
          1. Sélectionnez un bucket dans la liste. Si le bucket se trouve dans un autre compartiment, cliquez sur Modifier le compartiment.
          2. (Facultatif) Entrez un préfixe dans le champ de texte Ajouter un préfixe.
          3. Faites glisser le fichier vidéo vers la zone Sélectionner un fichier ou cliquez sur en sélectionner un... et accédez à l'image.
          4. Cliquez sur Télécharger et analyser. La boîte de dialogue vidéo URL pré-authentifiée pour s'affiche.
          5. (Facultatif) Copiez l'URL.
          6. Cliquez sur Fermer.
        3. Si vous avez sélectionné Object Storage, entrez l'URL de la vidéo et cliquez sur Analyser.

      L'API analyzeVideo est appelée et le modèle analyse immédiatement la vidéo. Le statut du travail est affiché.

      La zone Résultats comporte des onglets pour chacun des éléments suivants : détection d'étiquette, détection d'objet, détection de texte et détection de visage avec des scores de confiance, et JSON de demande et de réponse.

    5. (Facultatif) Pour arrêter l'exécution du travail, cliquez sur Annuler.
    6. (Facultatif) Pour modifier l'emplacement de sortie, cliquez sur Modifier l'emplacement de sortie.
    7. (Facultatif) Pour sélectionner ce qui est analysé, cliquez sur Fonctionnalités d'analyse vidéo, puis sélectionnez l'une des options suivantes :
      • Détection de libellés
      • Détection d'objets
      • Détection de texte
      • Détection de visage
    8. (Facultatif) Pour générer du code pour l'utilisation du kit SDK vidéo, cliquez sur Code pour l'inférence vidéo.
    9. (Facultatif) Pour analyser à nouveau les vidéos, cliquez sur Suivi de travaux vidéo, puis sélectionnez Vidéos récemment téléchargées dans le menu.
      1. Cliquez sur la vidéo à analyser.
      2. Cliquez sur Analyser.
    10. Pour afficher le statut d'un travail d'analyse vidéo, cliquez sur Suivi de travaux vidéo, puis sélectionnez Obtenir le statut du travail dans le menu.
      1. Entrez l'OCID du travail.
      2. Cliquez sur Obtenir le statut du travail.
      3. (Facultatif) Pour arrêter l'exécution du travail, cliquez sur Annuler.
      4. (Facultatif) Pour obtenir le statut d'un autre travail, cliquez sur Obtenir un autre statut de travail vidéo.
      5. (Facultatif) Pour obtenir la réponse JSON, cliquez sur Extraire les données de réponse.
      6. (Facultatif) Pour enlever le statut d'un travail, cliquez sur Enlever.
  • Utilisez la commande analyze-video et les paramètres requis pour classer l'image :

    oci ai-vision analyze-video [OPTIONS]
    Afin d'obtenir la liste complète des indicateurs et des options de variable pour les commandes d'interface de ligne de commande, reportez-vous à Référence de commande d'interface de ligne de commande.
  • Exécutez l'opération CreateVideoJob pour analyser une image.