Erste Schritte mit spark-submit und SDK
Ein Tutorial für die ersten Schritte bei der Ausführung einer Spark-Anwendung in Data Flow mit Java-SDK-Code. Verwenden Sie dazu spark-submit mit der Zeichenfolge execute
.
Erste Schritte mit spark-submit in Data Flow mit SDK. Befolgen Sie das vorhandene Tutorial Erste Schritte mit Oracle Cloud Infrastructure Data Flow, führen Sie jedoch die spark-submit-Befehle mit dem Java-SDK aus.
Bevor Sie beginnen
Geben Sie die Voraussetzungen ein, bevor Sie spark-submit-befehle in Data Flow mit dem Java-SDK verwenden können.
1. ETL mit Java
Mit Spark-Submit und Java SDK können Sie ETL mit Java ausführen.
2: Maschinelles Lernen mit PySpark
Führen Sie mit Spark-Submit und dem Java-SDK maschinelles Lernen mit PySpark aus.
Wie geht es weiter?
Verwenden Sie Spark-Submit und die CLI in anderen Situationen.
Sie können spark-submit und Java-SDK verwenden, um Java-, Python- oder SQL-Anwendungen mit Data Flow zu erstellen und auszuführen und die Ergebnisse zu explorieren. Data Flow verarbeitet alle Details zu Deployment, Ausfall, Logmanagement, Sicherheit und UI-Zugriff. Mit Data Flow können Sie sich auf die Entwicklung von Spark-Anwendungen konzentrieren, ohne sich mit der Infrastruktur befassen zu müssen.