Auswertungen
Bewertung der Modellperformance mit KI-Schnellaktionen
Mit bereitgestellten Modellen können Sie eine Modellauswertung erstellen, um deren Performance zu bewerten. Sie können ein Dataset aus Object Storage auswählen oder eines aus dem Speicher des Notizbuchs hochladen, in dem Sie arbeiten. Um Datensets aus Ihrem Notizbuch hochzuladen, müssen Sie zuerst Policys einrichten, mit denen die Notizbuchsession Dateien in Object Storage schreiben kann. Sie können Ihre Modellbewertung mit einem Experimentnamen versehen. Sie können entweder aus einem vorhandenen Experiment auswählen oder ein neues Experiment erstellen. BERTScore, BLEU-Score, Perplexitätsscore, Textlesbarkeit und ROUGE sind die Bewertungsmetriken, die zur Messung der Modellperformance verfügbar sind. Sie können das Modellauswertungsergebnis in Object Storage speichern. Sie können die Parameter für die Modellauswertung festlegen. Unter den erweiterten Optionen können Sie die Compute-Instanzausprägung für die Bewertung auswählen und optional die Stoppsequenz eingeben. Darüber hinaus können Sie das Logging mit Ihrer Modellauswertung einrichten, um es zu überwachen. Logging ist optional, wird jedoch empfohlen, um Fehler bei der Auswertung zu beheben. Sie benötigen die erforderliche Policy, um das Logging zu aktivieren. Weitere Informationen zum Logging finden Sie im Abschnitt Logs. Sie können die Konfigurationen und Parameter Ihrer Bewertung prüfen, bevor Sie sie erstellen.
Wenn Sie zur Registerkarte "Bewertung" zurückkehren, wird der Lebenszyklusstatus der Bewertung Succeeded
angezeigt, wenn die Modellauswertung abgeschlossen ist. Sie können das Bewertungsergebnis anzeigen und eine Kopie des Modellbewertungsberichts auf Ihren lokalen Rechner herunterladen.
Bewertungen können nicht auf ARM-basierten Ausprägungen ausgeführt werden.
Eine vollständige Liste der Parameter und Werte für AI Quick Actions-CLI-Befehle finden Sie unter AI Quick Actions-CLI.
Diese Aufgabe kann nicht mit der API ausgeführt werden.