Altri modi per eseguire i job
È possibile utilizzare i job in una miriade di modi diversi, ad esempio utilizzando ambienti conda e file zip.
Utilizzo di file tar compressi o zip
È possibile utilizzare i job per eseguire un intero progetto Python archiviato in un singolo file.
I file tar compressi o zip eseguiti come job possono utilizzare gli ambienti Conda del servizio Data Science e gli ambienti Conda personalizzati.
Per l'esecuzione del job, puntare al file di voce principale utilizzando la variabile di ambiente JOB_RUN_ENTRYPOINT
. Questa variabile viene utilizzata solo con i job che utilizzano artifact di job tar compressi o zip.
Utilizzo di un ambiente Conda di Data Science
È possibile utilizzare uno degli ambienti Conda di Data Science inclusi nel servizio.
Un ambiente conda incapsula tutte le dipendenze Python di terze parti (ad esempio Numpy, Dask o XGBoost) richieste dall'esecuzione del job. Gli ambienti Conda di Data Science sono inclusi e gestiti nel servizio. Se non si specifica un ambiente Conda nell'ambito delle configurazioni di esecuzione dei job e dei job, non viene utilizzato un ambiente Conda perché non esiste un ambiente predefinito.
Il codice mansione è incorporato in un ambiente Conda di Data Science:

Utilizzo di un ambiente Conda personalizzato
È possibile utilizzare job di file tar compressi e zip con ambienti Conda personalizzati o ambienti Conda di Data Science.
Un ambiente conda incapsula tutte le dipendenze Python di terze parti (ad esempio Numpy, Dask o XGBoost) richieste dall'esecuzione del job. È possibile creare, pubblicare e gestire ambienti Conda personalizzati. Se non si specifica un ambiente Conda nell'ambito delle configurazioni di esecuzione dei job e dei job, non viene utilizzato un ambiente Conda perché non esiste un ambiente predefinito
Il codice mansione è incorporato in un ambiente Conda personalizzato, ad esempio:

Utilizzo di un file YAML di runtime
È possibile utilizzare un file YAML di runtime per configurare le variabili di ambiente di job anziché utilizzare la console o l'SDK.
Prima di iniziare:
Scaricare, decomprimere e rivedere i file di esempio jobruntime.yaml e conda_pack_test.py per creare e sottoporre a test il progetto.
L'utilizzo di un file jobruntime.yaml
semplifica l'impostazione di variabili di ambiente personalizzate nel progetto.
Uso di un vault
Puoi integrare il servizio OCI Vault nei job di Data Science utilizzando i principal delle risorse.
Prima di iniziare:
-
Affinché il principal risorsa nel job abbia accesso a un vault, assicurarsi di disporre di un gruppo dinamico nel compartimento che specifichi l'istanza o il principal risorsa. Ad esempio, è possibile utilizzare il principal risorsa e un gruppo dinamico con questa regola:
all {resource.type='datasciencejobrun',resource.compartment.id='<compartment_ocid>'}
-
Affinché il job venga eseguito, è necessario assicurarsi di poter gestire almeno la famiglia di segreti nel gruppo dinamico. Ad esempio:
Allow dynamic-group <dynamic_group_name> to manage secret-family in compartment <compartment_name>
Il post sul blog Uso dei principal e del vault dell'istanza OCI con Python per recuperare un segreto fornisce dettagli utili.
-
Scaricare, decomprimere e rivedere il file di esempio
zipped_python_job.zip
che mostra quanto segue:- Inizializzazione del client vault nel job mediante l'SDK Python
- Legge un segreto utilizzando l'OCID segreto.
- Decodifica il bundle secrete e mostra il contenuto segreto effettivo.
Poiché i job hanno accesso al principal delle risorse, è possibile inizializzare tutti i client Vault disponibili nell'SDK Python.
-
Creare un vault con chiave master, un segreto e aggiungere un'istruzione dei criteri a tutti i principal delle risorse del job in
manage secret-family
.
- Nella console, creare un nuovo job.
- Eseguire il job per verificare che funzioni.
- Monitorare l'esecuzione del job per un completamento corretto.
- (Facoltativo) Se è stato utilizzato il log, è possibile esaminarlo per visualizzare i valori di esecuzione del job.