Valutazioni
Valutazione delle prestazioni del modello con azioni rapide AI
Con i modelli distribuiti, è possibile creare una valutazione del modello per valutarne le prestazioni. Puoi selezionare un data set dallo storage degli oggetti o caricarne uno dallo storage del notebook in cui stai lavorando. Per caricare i set di dati dal notebook, è necessario innanzitutto impostare criteri che consentano alla sessione notebook di scrivere file nello storage degli oggetti. È possibile assegnare un nome di esperimento alla valutazione del modello. Puoi scegliere tra un esperimento esistente o crearne uno nuovo. BERTScore, BLEU Score, Perplexity Score, Text Readability e ROUGE sono le metriche di valutazione disponibili per misurare le prestazioni del modello. È possibile salvare il risultato della valutazione del modello nello storage degli oggetti. È possibile impostare i parametri di valutazione del modello. In Opzioni avanzate, è possibile selezionare la forma dell'istanza di computazione per la valutazione e, facoltativamente, immettere la sequenza di arresto. Inoltre, è possibile impostare il log con la valutazione del modello per monitorarlo. La registrazione è facoltativa, ma è consigliabile risolvere gli errori durante la valutazione. È necessario disporre del criterio necessario per abilitare il log. Per ulteriori informazioni sul log, vedere la sezione Log. È possibile rivedere le configurazioni e i parametri della valutazione prima di crearla.
Se si torna alla scheda Valutazione, lo stato del ciclo di vita della valutazione è Succeeded
al termine della valutazione del modello. È possibile visualizzare il risultato della valutazione e scaricare una copia del report di valutazione del modello nel computer locale.
Le valutazioni non possono essere eseguite su forme basate su ARM.
Per un elenco completo dei parametri e dei valori per i comandi CLI delle azioni rapide AI, vedere CLI Azioni rapide AI.
Impossibile eseguire questo task utilizzando l'API.