Introduction à spark-submit et à l'interface de ligne de commande
Tutoriel vous aidant à commencer à exécuter une application Spark dans Data Flow à l'aide de spark-submit tout en utilisant la chaîne execute
dans l'interface de ligne de commande.
Suivez le tutoriel existant Introduction à Oracle Cloud Infrastructure Data Flow, mais utilisez l'interface de ligne de commande pour exécuter les commandes spark-submit.
Avant de commencer
Effectuez certains prérequis et configurez l'authentification pour pouvoir utiliser les commandes spark-submit dans Data Flow with CLI.
Prérequis pour l'utilisation de spark-submit avec l'interface de ligne de commande
Effectuez les prérequis suivants pour l'utilisation de spark-submit avec l'interface de ligne de commande.
Authentification pour l'utilisation de spark-submit avec l'interface de ligne de commande
Configurez l'authentification pour l'utilisation de spark-submit avec l'interface de ligne de commande.
$ oci session authenticate
- select the intended region from the provided list of regions.
- Please switch to newly opened browser window to log in!
- Completed browser authentication process!
- Enter the name of the profile you would like to create: <profile_name> ex. oci-cli
- Config written to: ~/.oci/config
- Try out your newly created session credentials with the following example command:
$ oci iam region list --config-file ~/.oci/config --profile <profile_name> --auth security_token
~/.oci/config
. Utilisez le nom du profil pour exécuter le tutoriel.1. Création de l'application Java à l'aide de spark-submit et de l'interface de ligne de commande
Utilisez Spark-submit et l'interface de ligne de commande pour réaliser des tutoriels.
2: Apprentissage automatique avec PySpark
Utiliser Spark-submit et l'interface de ligne de commande pour effectuer l'apprentissage automatique avec PySpark,
Etapes suivantes
Utilisez Spark-submit et l'interface de ligne de commande dans d'autres situations.
Vous pouvez utiliser spark-submit à partir de l'interface de ligne de commande pour créer et exécuter des applications Java, Python ou SQL avec Data Flow, et explorer les résultats. Data Flow gère tous les détails du déploiement, de la désactivation, de la gestion des journaux, de la sécurité et de l'accès utilisateur. Avec Data Flow, vous pouvez vous concentrer sur le développement d'applications Spark sans vous soucier de l'infrastructure.