Installazione di ambienti Conda in una sessione notebook
Per utilizzare gli ambienti conda nelle sessioni notebook, è necessario installarli.
È possibile installare un ambiente Data Science o un ambiente Conda pubblicato facendo clic su Installa nella scheda ambiente. È possibile copiare ed eseguire lo snippet di codice in una finestra del terminale. Il nuovo ambiente viene installato in un volume a blocchi nella cartella /home/datascience/conda
. Le cartelle in /home/datascience/conda
corrispondono al valore slugs
degli ambienti Conda.
Dopo che l'ambiente è pronto per essere utilizzato come kernel del notebook, la nuova voce di ambiente viene elencata nella scheda Ambienti Conda installati della scheda Explorer ambienti. Quindi, nella scheda JupyterLab Launcher della categoria Notebook è disponibile un nuovo kernel per lo specifico ambiente Conda. È possibile iniziare a lavorare in tale ambiente Conda facendo clic sull'icona del kernel dell'ambiente per aprire una nuova scheda e aprire un nuovo file notebook.
In alternativa, è possibile aprire un nuovo notebook facendo clic su File, selezionare Nuovo, quindi selezionare un kernel per la sessione notebook.
Poiché tutti gli ambienti Conda installati sono memorizzati nel volume a blocchi in
/home/datascience
, questi ambienti sono disponibili dopo l'attivazione della sessione. Non è necessario reinstallare gli ambienti Conda dopo aver disattivato la sessione notebook. Installare un ambiente conda utilizzando il comando odsc conda
in una scheda della finestra del terminale JupyterLab:
odsc conda install --slug <slug>
<slug>
è lo slug dell'ambiente da installare. Lo slug viene visualizzato nella scheda Environment Explorer. Viene richiesto di modificare la versione dell'ambiente, che è facoltativa. La visualizzazione del nuovo kernel nella scheda JupyterLab Launcher può richiedere alcuni secondi.
Per impostazione predefinita, odsc conda
cerca gli ambienti Conda di Data Science con il valore <slug>
corrispondente oppure <name>
e <version>
. È possibile definire la destinazione di un bucket di storage degli oggetti che ospita ambienti conda pubblicati aggiungendo l'opzione --override
. Cerca l'ambiente Conda di destinazione nel bucket definito nel file config.yaml
personalizzato creato da odsc conda init
. Ad esempio:
odsc conda install --override --slug <slug>
Elencare tutte le opzioni di installazione supportate con odsc conda install -h
.
Gli ambienti Conda possono essere installati anche utilizzando i file tar. Fornire l'URI dei file tar specificandolo con l'opzione --uri
. Può essere un percorso locale, collegamenti PAR o un collegamento OCI.
- Installazione da un file locale:
-
odsc conda install --uri
<path_to_the_local_environment_tar_file>
- Installazione con un collegamento PAR:
-
odsc conda install --uri
<http_link_to_the_environment_tar_file>
- Installazione con un collegamento OCI utilizzando l'autenticazione del principal risorsa:
-
odsc conda install --uri
<oci://my-bucket@my-namespace/path_to_tar_file>
L'installazione di librerie nell'ambiente di base (Python 3) non è consigliata perché non sono rese persistenti dopo la riattivazione del notebook. Si consiglia di clonare l'ambiente di base, quindi di installarvi le librerie.
Aggiornamento dell'ambiente Conda PySpark
Questi passi sono necessari solo se è stata installata la versione precedente dell'ambiente Conda PySpark e si desidera preservarla per un uso futuro potenziale. Se non è necessario il vecchio ambiente né sono state effettuate configurazioni specifiche per Spark, si consiglia di eliminare il vecchio ambiente prima di procedere con l'installazione della nuova versione.
- Preparazione dell'aggiornamento dell'ambiente Conda PySpark:
- Aprire la sessione notebook di Data Science.
-
Trovare la directory
spark_conf_dir
nella directory home, quindi rinominarla inspark_conf_dir_v2
. L'azione di ridenominazione disabilita temporaneamente l'ambiente pyspark32_p38_cpu_v2.È possibile eseguire il ripristino rinominando
spark_conf_dir_v2
inspark_conf_dir
, quindi pyspark32_p38_cpu_v2 sarà di nuovo operativo.
- Aggiornamento dell'ambiente Conda Pyspark:
-
Aprire un terminale ed eseguire il comando:
odsc conda install -s pyspark32_p38_cpu_v3
Il comando installa un ambiente conda V3 e crea una nuova directory
spark_conf_dir
.
-
- Verifica delle modifiche alla configurazione:
-
Se sono state apportate modifiche personalizzate alla vecchia configurazione
spark_conf_dir_v2
, ad esempio modifiche acore-site.xml
ospark-defaults.conf
, assicurarsi che tali modifiche vengano copiate nei rispettivi file nella nuova directoryspark_conf_dir_v2
.
-