Vortrainiertes Modell in der Konsole verwenden
Vision bietet vortrainierte Modelle, um Erkenntnisse aus Bildern zu extrahieren, ohne Data Scientists zu benötigen.
In diesem Tutorial werden folgende Themen behandelt:
- 1. Datenanforderungen nachvollziehen.
- 2. Daten in Objektspeicher laden.
- Führen Sie Document AI für ein geladenes Dokument aus.
- Führen Sie die Bildanalyse für ein geladenes Bild aus.
Bevor Sie beginnen
Bevor Sie Vision verwenden, muss der Mandantenadministrator die entsprechenden Policys einrichten.
Policys einrichten
Führen Sie die folgenden Schritte aus, um die erforderlichen Policys für die Verwendung von Vision einzurichten.
1. Datenanforderungen nachvollziehen
Vision arbeitet mit vielen Formaten von Bilddaten zusammen, um Objekte zu erkennen, Bildern Labels zuzuweisen, Text zu extrahieren und vieles mehr. Es akzeptiert Daten über Object Storage. Wenn Vision in der Konsole ausgeführt wird, können Sie auch lokal gespeicherte Images bereitstellen.
API | Beschreibung | Unterstütztes Eingabeformat |
---|---|---|
Synchrone API
|
Analysiert einzelne Bilder. |
|
Asynchrone API | Analysieren Sie mehrere Bilder oder mehrseitige PDFs. |
|
2. Daten in Objektspeicher laden
In diesem Schritt laden Sie die Bilder und Dokumente, die Sie analysieren möchten, in Object Storage.
Füllen Sie 1 aus. Verstehen Sie die Datenanforderungen, bevor Sie diesen Abschnitt ausprobieren.
Erstellen Sie einen Objektspeicher-Bucket
Wenn Sie bereits über einen Bucket in Object Storage verfügen, den Sie verwenden können, gehen Sie direkt zum nächsten Abschnitt zum Laden von Imagedateien.
- Wählen Sie im Navigationsmenü der Konsole die Option Speicher.
- Wählen Sie unter "Object Storage" die Option Buckets aus.
- Wählen Sie auf der Seite "Buckets" unter Listengeltungsbereich das Compartment aus.
- Wählen Sie Bucket erstellen aus. Der Bereich Bucket erstellen wird angezeigt.
- Geben Sie einen Wert für Gruppenname ein. Geben Sie keine vertraulichen Informationen ein.
- Wählen Sie unter Standardspeicherebene die Option Standard aus. Übernehmen Sie für alle anderen Felder die Standardwerte.
- Wählen Sie Erstellen.
Imagedateien in den Objektspeicher-Bucket laden
- Wählen Sie auf der Seite "Buckets" den Namen des Buckets aus, in den Sie Images laden möchten. Die Detailseite des Buckets wird angezeigt.
- Wählen Sie unter Ressourcen die Option Objekte aus, um die Liste der Objekte im Bucket anzuzeigen.
- Wählen Sie Hochladen aus. Der Bereich Objekte hochladen wird angezeigt.
- Ziehen Sie die Dateien, die Sie laden möchten, in den Fensterbereich, oder wählen Sie Dateien auswählen, um sie aus Ihren lokalen Dateien auszuwählen.
3. KI dokumentieren
Die Schritte zur Verwendung von Document AI-Funktionen in Vision.
Füllen Sie 2 aus. Laden Sie Daten in Object Storage, bevor Sie diesen Abschnitt versuchen.
Vision-Konsole öffnen
- Wählen Sie im Navigationsmenü der Konsole die Option Analysen und KI aus.
- Klicken Sie unter KI-Services auf Vision. Die Vision-Homepage wird angezeigt.
Dokument-KI verwenden
- Wählen Sie unter Vision die Option Dokument-AI aus. Die Seite "Document AI" wird angezeigt.
- Wählen Sie unter Imagequelle die Option Objektspeicher aus.
- Wählen Sie ein Dokument aus, das Sie in 2 geladen haben. Daten in Object Storage laden. Die analyzeDocument-API wird aufgerufen.
Feature | Beschreibung | Ergebnisse |
---|---|---|
OCR (Optische Zeichenerkennung) | Findet und digitalisiert Textinformationen aus Bildern. | Der im Dokument angegebene Text wird unter Raw-Text im Bereich Ergebnisse angezeigt. |
Dokumentbildklassifizierung | Klassifiziert Dokumente je nach visueller Darstellung, allgemeinen Features und extrahierten Schlüsselwörtern in verschiedene Typen. | Die Klassifizierung in einen Dokumenttyp zusammen mit einem Konfidenzscore wird im Bereich Ergebnisse angezeigt. |
Sprachklassifizierung | Klassifiziert die Sprache des Dokuments basierend auf visuellen Funktionen. | Die Klassifizierung in eine Dokumentsprache und ein Konfidenzscore werden im Bereich Ergebnisse angezeigt. |
Tabellenextraktion | Extrahiert Inhalt in einem tabellarischen Format und verwaltet die Zeilen- und Spaltenbeziehungen der Zellen. | Klicken Sie im Bereich Ergebnisse auf die Registerkarte Tabelle, um die Ausgabe anzuzeigen. |
Durchsuchbare PDF-Ausgabe | Bettet einen transparenten Layer in das Dokumentbild im PDF-Format ein, damit es nach Schlüsselwörtern durchsucht werden kann.
Hinweis: Diese Funktion ist nur verfügbar, wenn ein PDF-Dokument bereitgestellt wird. |
Klicken Sie auf Durchsuchbare PDFs. Eine OCR PDF-Datei wird auf Ihren Computer heruntergeladen. |
4. Imageanalyse
Die Schritte zur Verwendung von Bildanalysefunktionen in Vision.
Füllen Sie 2 aus. Laden Sie Daten in Object Storage, bevor Sie diesen Abschnitt versuchen.
Vision-Konsole öffnen
- Wählen Sie im Navigationsmenü der Konsole die Option Analysen und KI aus.
- Wählen Sie unter KI-Services die Option Vision aus. Die Vision-Homepage wird angezeigt.
Bildklassifizierung verwenden
- Wählen Sie unter Vision die Option Bildklassifizierung aus. Die Seite "Bildklassifizierung" wird angezeigt.
- Wählen Sie Objektspeicher aus.
- Wählen Sie ein Bild aus, das Sie in 2 geladen haben. Daten in Object Storage laden. Die analyzeIamge-API wird aufgerufen.
Die Ergebnisse zur Kategorisierung von Objekten im Bild werden im Abschnitt Ergebnisse angezeigt. Es gibt Labels zur Klassifizierung der erkannten Objekte und einen Konfidenzscore für jedes Objekt.
Objekterkennung verwenden
- Wählen Sie unter Vision die Option Objekterkennung aus. Die Seite {\b Object Detection} wird angezeigt.
- Wählen Sie Objektspeicher aus.
- Wählen Sie ein Bild aus, das Sie in 2 geladen haben. Daten in Object Storage laden. Die analyzeIamge-API wird aufgerufen.
Die Ergebnisse werden im Abschnitt Ergebnisse angezeigt. Die erkannten Objekte, ein Konfidenzscore für jedes Objekt und das markierte Begrenzungsfeld um jedes Objekt werden im Ergebnisbereich angezeigt. Wenn Sie auf ein Label klicken, wird auf dem Bild das erkannte Objekt angezeigt.
Weitere Schritte
Jetzt wissen Sie, wie Sie Vision mit vortrainierten Modellen verwenden, versuchen Sie es mit benutzerdefinierten Modellen.