Log
È possibile integrare il servizio di log in Data Science per creare e gestire log personalizzati.
Un log personalizzato è una risorsa OCI di prima classe che memorizza e acquisisce gli eventi di log raccolti in un contesto specifico. È possibile utilizzare il servizio Log per abilitare, gestire e cercare i log personalizzati di Data Science per le risorse riportate di seguito.
Questa integrazione è facoltativa per tutte le risorse supportate.
Log di job
È possibile integrare le risorse dei job con il servizio Log per registrare i dettagli di esecuzione dei job in un log personalizzato.
Gli output standard in uscita (stdout
) e gli output di errore standard (stderr
) dell'artifact del job vengono acquisiti e resi disponibili nel log personalizzato. Questi output non sono disponibili per il servizio Data Science. Si consiglia di abilitare l'integrazione dei log per i job, sia per il debug di eventuali problemi che per il monitoraggio dell'avanzamento dell'esecuzione degli artifact del job.
I messaggi in uscita standard vengono categorizzati sotto il tipo "com.oraclecloud.datascience.jobrun.stdout"
, mentre i messaggi di errore standard sono sotto il tipo "com.oraclecloud.datascience.jobrun.stderr"
. Per entrambi i tipi, i metadati di log includono "source"
, ovvero l'OCID dell'esecuzione del job che restituisce i messaggi.
Quando l'integrazione log è abilitata nelle configurazioni di log dei job, è possibile effettuare le operazioni riportate di seguito.
-
Fornire il proprio gruppo di log e il proprio log per acquisire gli output di esecuzione dei job. È possibile configurare tutte le esecuzioni dei job in modo che utilizzino lo stesso log anche se non è consigliabile. I messaggi di log sono più facili da leggere quando ogni job esegue l'output nel proprio log.
oppure
-
Fornire il proprio gruppo di log, ma abilitare il servizio Data Science per creare automaticamente log personalizzati per conto dell'utente all'inizio di ogni esecuzione del job all'interno del gruppo di log specificato. Se la creazione automatica dei log è abilitata, non è necessario configurare i log personalmente prima di ogni esecuzione del job. Il nome del log creato viene assegnato in
jobrun-<partial-jobrun-ocid>-logs
, ma il nome può essere modificato in base alle esigenze. Non influisce sull'integrazione del log con l'esecuzione del job.
Puoi gestire il ciclo di vita dei log, inclusi quelli creati automaticamente dal servizio Data Science.
I log non vengono eliminati quando vengono eliminate le esecuzioni dei job e dei job.
Per entrambi i tipi di configurazione di log, il principal risorsa di esecuzione job deve disporre delle autorizzazioni di scrittura nei log personalizzati.
Log distribuzione modello
Quando si integra Log per le distribuzioni dei modelli, vengono create le categorie di log di accesso e previsione.
- Log degli accessi
-
La categoria del log degli accessi è un log personalizzato che acquisisce informazioni dettagliate sulle richieste inviate all'endpoint del modello. Queste informazioni includono l'ora di ricezione della richiesta, i codici di errore e così via. Se si verificano problemi con la distribuzione del modello, i log degli accessi sono in genere il primo log da esaminare.
Di seguito sono riportati i metadati acquisiti dai log degli accessi alla distribuzione dei modelli.
logEmissionTime
-
L'ora, in UTC, in cui il log è stato emesso dal codice.
message
-
Il percorso della richiesta.
modelLatency
-
Tempo impiegato per elaborare una richiesta sul server modello in millisecondi.
opcRequestId
-
L'ID richiesta. Questo valore è lo stesso
requestId
recuperato nella risposta. status
-
Codice stato risposta richiesta.
Ad esempio, una voce del log degli accessi per la distribuzione del modello potrebbe essere:
"data": { "logEmissionTime": "2021-01-25T07:23:39.101Z", "message": "POST /predict 1.1", "modelLatency": 4.43, "opcRequestId": "0BC0860C17DC46D79A0A1A7B4F139829", "status": 200 }
- Log di previsione
-
I log di previsione hanno origine dalle chiamate di log (
stdout
estderr
) eseguite dall'esecuzione del codice personalizzato nei file Python dell'artifact modello. I log di previsione possono emettere informazioni utili sul modello e sono completamente personalizzabili. La configurazione dei log di accesso e previsione fa parte delle azioni Crea e Modifica.Di seguito sono riportati i metadati acquisiti dai log di previsione della distribuzione del modello.
MD_OCID
-
Valore OCID distribuzione modello.
level
-
Livello di log. Viene anche definito livello di severità del messaggio di log.
logEmissionTime
-
Ora, in UTC, in cui il log è stato emesso dal codice.
message
-
Messaggio personalizzato emesso dal codice Python dell'artifact modello.
name
-
Il nome del logger utilizzato.
Ad esempio, una voce di log delle previsioni per la distribuzione del modello potrebbe essere:
"data": { "MD_OCID": "ocid1.datasciencemodeldeployment.oc1.iad.amaaaaaav66vvniauqakarfnyvn6gd2qt4fjpv2ffdnrthqyhqpapevmmh6a", "level": "ERROR", "logEmissionTime": "2021-01-27T08:43:04.029Z", "message": "exception :: name 'function' is not defined", "name": "root" },
È possibile creare due log separati per la previsione e l'accesso oppure utilizzare lo stesso log per entrambi.
Configurazione dei log
Creare un gruppo di log e configurare un log personalizzato nel servizio di log se non ne esiste già uno:
Accesso ai log
È possibile accedere ai log per i job e le distribuzioni dei modelli dalla console OCI in Soluzioni e piattaforma selezionando il servizio Log, quindi selezionare Cerca.
Nella casella Cerca, selezionare Seleziona log da cercare. Selezionare un compartimento, un gruppo di log e un log. Applicare i filtri se necessario.
I dati di log dovrebbero essere visualizzati nella scheda Esplora. Vedere Ricerca dei log.
Copiare l'OCID log utilizzando Copia per utilizzarlo nei job e nelle risorse di distribuzione del modello. Ad esempio, è possibile incollare l'OCID di un log dei job in diverse esecuzione dei job per diverse configurazioni che possono essere eseguite contemporaneamente.