Guida introduttiva a Spark-Submit e CLI
Esercitazione che consente di iniziare a eseguire un'applicazione Spark in Data Flow utilizzando spark-submit durante l'utilizzo della stringa execute
nell'interfaccia CLI.
Segui l'esercitazione esistente per la guida introduttiva a Oracle Cloud Infrastructure Data Flow, ma utilizza l'interfaccia CLI per eseguire i comandi spark-submit.
Informazioni preliminari
Completare alcuni prerequisiti e impostare l'autenticazione prima di poter utilizzare i comandi spark-submit in Data Flow con CLI.
- Completare i prerequisiti per l'uso di spark-submit con CLI.
- Impostare l'autenticazione per utilizzare spark-submit con CLI.
Prerequisiti per l'uso di Spark-submit con CLI
Completare questi prerequisiti per utilizzare spark-submit con CLI.
Autenticazione per utilizzare Spark-submit con CLI
Impostare l'autenticazione per utilizzare spark-submit con CLI.
$ oci session authenticate
- select the intended region from the provided list of regions.
- Please switch to newly opened browser window to log in!
- Completed browser authentication process!
- Enter the name of the profile you would like to create: <profile_name> ex. oci-cli
- Config written to: ~/.oci/config
- Try out your newly created session credentials with the following example command:
$ oci iam region list --config-file ~/.oci/config --profile <profile_name> --auth security_token
~/.oci/config file
. Utilizzare il nome del profilo per eseguire l'esercitazione.1. Creare l'applicazione Java mediante Spark-Submit e CLI
Utilizza Spark-submit e l'interfaccia CLI per completare le esercitazioni.
2: Machine Learning con PySpark
Utilizza Spark-submit e CLI per eseguire il Machine Learning con PySpark,
Pagina successiva
Utilizzare Spark-submit e l'interfaccia CLI in altre situazioni.
Puoi utilizzare spark-submit dall'interfaccia CLI per creare ed eseguire le applicazioni Java, Python o SQL con Data Flow ed esplorare i risultati. Data Flow gestisce tutti i dettagli di distribuzione, eliminazione, gestione dei log, sicurezza e accesso all'interfaccia utente. Data Flow ti consente di sviluppare applicazioni Spark senza preoccuparti dell'infrastruttura.