Introduction à spark-submit et à la CLI
Ce tutoriel vous aide à commencer à exécuter une application Spark dans le service de flux de données à l'aide de spark-submit et à utiliser la chaîne execute dans l'interface de ligne de commande.
Suivez le tutoriel existant Introduction au service de flux de données pour Oracle Cloud Infrastructure, mais utilisez l'interface CLI pour exécuter les commandes spark-submit.
Avant de commencer
Vous devez effectuer certaines opérations préalables et configurer l'authentification avant d'utiliser les commandes spark-submit dans le service de flux de données avec l'interface CLI.
Préalables à l'utilisation de spark-submit avec l'interface CLI
Effectuez ces opérations préalables pour pouvoir utiliser spark-submit avec l'interface CLI.
Authentification pour utiliser spark-submit avec l'interface CLI
Configurez l'authentification pour utiliser spark-submit avec l'interface CLI.
$ oci session authenticate
- select the intended region from the provided list of regions.
- Please switch to newly opened browser window to log in!
- Completed browser authentication process!
- Enter the name of the profile you would like to create: <profile_name> ex. oci-cli
- Config written to: ~/.oci/config
- Try out your newly created session credentials with the following example command:
$ oci iam region list --config-file ~/.oci/config --profile <profile_name> --auth security_token~/.oci/config. Utilisez le nom du profil pour exécuter le tutoriel.1. Créer l'application Java à l'aide de spark-submit et de l'interface de ligne de commande
Utilisez Spark-submit et l'interface de ligne de commande pour suivre des tutoriels.
2 : Apprentissage automatique avec PySpark
Utilisez Spark-submit et l'interface de ligne de commande pour effectuer l'apprentissage automatique avec PySpark,
Étape suivante
Utilisez Spark-submit et l'interface de ligne de commande dans d'autres situations.
Vous pouvez utiliser spark-submit à partir de l'interface de ligne de commande pour créer et exécuter des applications Java, Python ou SQL avec le service de flux de données et explorer les résultats. Le service de flux de données prend en charge tous les détails du déploiement, de la panne, de la gestion des journaux, de la sécurité et de l'accès à l'interface utilisateur. Avec le service de flux de données, vous pouvez vous concentrer sur le développement d'applications Spark sans vous soucier de l'infrastructure.