Introducción a Spark-Submit y SDK
Un tutorial para ayudarle a utilizar código de Java SDK para ejecutar una aplicación Spark en Data Flow mediante spark-submit con la cadena execute
.
Introducción a spark-submit en Data Flow con SDK. Siga el tutorial existente para Introducción a Oracle Cloud Infrastructure Data Flow, pero utilice Java SDK para ejecutar comandos de spark-submit.
Antes de empezar
Complete los requisitos antes de poder utilizar los comandos de spark-submit en Data Flow con Java SDK.
1. ETL con Java
Utilice Spark-submit y Java SDK para realizar ETL con Java.
2: Machine Learning con PySpark
Con Spark-submit y Java SDK, realice el aprendizaje automático con PySpark.
Siguiente paso
Utilice Spark-submit y la CLI en otras situaciones.
Puede utilizar spark-submit y Java SDK para crear y ejecutar aplicaciones Java, Python o SQL con Data Flow y explorar los resultados. Data Flow gestiona todos los detalles del despliegue, el desmontaje, la gestión de logs, la seguridad y el acceso a la interfaz de usuario. Con Data Flow, se centra en el desarrollo de aplicaciones Spark sin preocuparse por la infraestructura.