Gespeicherte Videos mit einem vortrainierten Modell analysieren

Identifizieren Sie szenenbasierte Funktionen und Objekte, und erkennen Sie Gesichter und Etikettenrahmen in einem Video, indem Sie das vortrainierte Modell der Videoanalyse aufrufen.

Die maximale Größe und Dauer jedes Videos wird im Abschnitt Limits angezeigt.

Weitere Informationen zur Videoanalyse finden Sie im Abschnitt Gespeicherte Videoanalyse.

    1. Öffnen Sie das Navigationsmenü, und klicken Sie auf Analysen und KI. Klicken Sie unter KI-Services auf Vision.
    2. Klicken Sie auf der Seite "Vision" auf Videoanalyse.
    3. Wählen Sie das Compartment aus, in dem die Ergebnisse gespeichert werden sollen.
    4. Wählen Sie den Speicherort des Videos aus:
      • Demo
      • Lokale Datei
      • Objektspeicher
        1. (Optional) Wenn Sie Demo ausgewählt haben, klicken Sie auf Demovideo analysieren, um die Analyse zu starten.
        2. (Optional) Wenn Sie Lokale Datei gewählt haben:
          1. Wählen Sie einen Bucket in der Liste aus. Wenn sich der Bucket in einem anderen Compartment befindet, klicken Sie auf Compartment ändern.
          2. (Optional) Geben Sie ein Präfix in das Textfeld Präfix hinzufügen ein.
          3. Ziehen Sie die Videodatei in den Bereich Datei auswählen, oder klicken Sie auf auswählen..., und navigieren Sie zum Bild.
          4. Klicken Sie auf Hochladen und analysieren. Das Videodialogfeld Vorab authentifizierte URL für wird angezeigt.
          5. (Optional) Kopieren Sie die URL.
          6. Klicken Sie auf Schließen.
        3. Wenn Sie Objektspeicher ausgewählt haben, geben Sie die Video-URL ein, und klicken Sie auf Analysieren.

      Die analyzeVideo-API wird aufgerufen, und das Modell analysiert das Video sofort. Der Status des Jobs wird angezeigt.

      Der Bereich Ergebnisse enthält Registerkarten für jede Beschriftungserkennung, Objekterkennung, Texterkennung und Gesichtserkennung mit Konfidenzscores sowie die Anforderungs- und Antwort-JSON.

    5. (Optional) Um die Ausführung des Jobs zu stoppen, klicken Sie auf Abbrechen.
    6. (Optional) Um den Ausgabespeicherort zu ändern, klicken Sie auf Ausgabespeicherort ändern.
    7. (Optional) Um auszuwählen, was analysiert wird, klicken Sie auf Videoanalysefunktionen, und wählen Sie eine der folgenden Optionen aus:
      • Labelerkennung
      • Objekterkennung
      • Texterkennung
      • Gesichtserkennung
    8. (Optional) Um Code für die Verwendung des Video-SDK zu generieren, klicken Sie auf Code für Video-Inferenzierung.
    9. (Optional) Um Videos erneut zu analysieren, klicken Sie auf Videojob-Tracker, und wählen Sie im Menü die Option Zuletzt hochgeladene Videos aus.
      1. Klicken Sie auf das Video, das Sie analysieren möchten.
      2. Klicken Sie auf Analysieren.
    10. Um den Status eines Videoanalysejobs anzuzeigen, klicken Sie auf Videojobtracker, und wählen Sie im Menü die Option Jobstatus abrufen aus.
      1. Geben Sie die Job-OCID ein.
      2. Klicken Sie auf Jobstatus abrufen.
      3. (Optional) Um die Ausführung des Jobs zu stoppen, klicken Sie auf Abbrechen.
      4. (Optional) Um den Status eines anderen Jobs abzurufen, klicken Sie auf Anderen Videojobstatus abrufen.
      5. (Optional) Um die JSON-Antwort abzurufen, klicken Sie auf Antwortdaten abrufen.
      6. (Optional) Um einen Jobstatus zu entfernen, klicken Sie auf Entfernen.
  • Verwenden Sie den Befehl analyze-video und die erforderlichen Parameter zur Klassifizierung des Abbilds:

    oci ai-vision analyze-video [OPTIONS]
    Eine vollständige Liste der Flags und Variablenoptionen für CLI-Befehle finden Sie in der CLI-Befehlsreferenz.
  • Führen Sie den Vorgang CreateVideoJob aus, um ein Image zu analysieren.