Erste Schritte mit spark-submit und CLI
Ein Tutorial für die ersten Schritte bei der Ausführung einer Spark-Anwendung in Data Flow mit spark-submit bei Verwendung der Zeichenfolge execute
in der CLI.
Befolgen Sie das vorhandene Tutorial Erste Schritte mit Oracle Cloud Infrastructure Data Flow, führen Sie jedoch die spark-submit-Befehle mit der CLI aus.
Bevor Sie beginnen
Geben Sie einige Voraussetzungen ein, und richten Sie die Authentifizierung ein, bevor Sie Befehle zum Übermitteln von Funken in Data Flow mit der CLI verwenden können.
- Erfüllen Sie die Voraussetzungen für die Verwendung von spark-submit mit der CLI.
- Richten Sie die Authentifizierung für die Verwendung von spark-submit mit der CLI ein.
Voraussetzungen für die Verwendung von spark-submit mit der CLI
Erfüllen Sie diese Voraussetzungen für die Verwendung von spark-submit mit der CLI.
Authentifizierung für die Verwendung von spark-submit mit der CLI
Richten Sie die Authentifizierung für die Verwendung von spark-submit mit der CLI ein.
$ oci session authenticate
- select the intended region from the provided list of regions.
- Please switch to newly opened browser window to log in!
- Completed browser authentication process!
- Enter the name of the profile you would like to create: <profile_name> ex. oci-cli
- Config written to: ~/.oci/config
- Try out your newly created session credentials with the following example command:
$ oci iam region list --config-file ~/.oci/config --profile <profile_name> --auth security_token
~/.oci/config
-Datei wird ein Profil erstellt. Verwenden Sie den Profilnamen, um das Tutorial auszuführen.1. Java-Anwendung mit Spark-Submit und CLI erstellen
Verwenden Sie Spark-Submit und die CLI, um Tutorials abzuschließen.
2: Maschinelles Lernen mit PySpark
Verwenden Sie Spark-Submit und CLI, um maschinelles Lernen mit PySpark durchzuführen.
Wie geht es weiter?
Verwenden Sie Spark-Submit und die CLI in anderen Situationen.
Mit spark-submit über die CLI können Sie Java-, Python- oder SQL-Anwendungen mit Data Flow erstellen und ausführen und die Ergebnisse untersuchen. Data Flow verarbeitet alle Details zu Deployment, Ausfall, Logmanagement, Sicherheit und UI-Zugriff. Mit Data Flow können Sie sich auf die Entwicklung von Spark-Anwendungen konzentrieren, ohne sich mit der Infrastruktur befassen zu müssen.