Uso del editor de código
Obtenga más información sobre Data Flow y Oracle Cloud Infrastructure Code Editor.
- Cree, cree, edite y despliegue aplicaciones en Java, Scala y Python, sin cambiar entre la consola y el entorno de desarrollo local.
- Empiece a utilizar las plantillas de Data Flow que se incluyen con el editor de códigos.
- Ejecute y pruebe el código localmente con Cloud Shell antes del despliegue en Data Flow.
- Defina los parámetros de Spark.
- Integración de Git que permite clonar cualquier repositorio basado en Git, realizar un seguimiento de los cambios realizados en los archivos y confirmar, recuperar e insertar código directamente desde Code Editor, lo que le permite contribuir con código y revertir los cambios de código con facilidad. Consulte la guía para desarrolladores para obtener información sobre el uso de Git y GitHub.
-
Un estado persistente en todas las sesiones guarda automáticamente el progreso y mantiene el estado en muchas sesiones de usuario, por lo que el editor de códigos abre automáticamente la última página editada al iniciar.
- Acceso directo a Apache Spark y más de 30 herramientas, incluido sbt, y Scala preinstalado con Cloud Shell.
-
Más de una docena de ejemplos de Data Flow que cubren diferentes funciones agrupadas como plantillas para ayudarle a empezar.
Para obtener más información sobre las funciones y la funcionalidad del editor de códigos, consulte la documentación del editor de códigos.
Requisitos previos
-
Code Editor utiliza las mismas políticas de IAM que Cloud Shell. Para obtener más información, consulte Política de IAM necesaria de Cloud Shell.
- Confirme que los idiomas y las herramientas necesarios están instalados en Cloud Shell.
- Si utiliza el metastore de Data Catalog, necesita la configuración de las políticas adecuadas.
Herramienta | Versión | Descripción |
---|---|---|
Scala | 2.12.15 | Se utiliza para escribir código basado en Scala en el editor de códigos. |
sbt | 1,7 | Se utiliza para crear aplicaciones de Scala de forma interactiva. |
Python | 3,8 | Intérprete de Python |
Git | 2,27 | GIT bash para ejecutar comandos GIT de forma interactiva. |
JDK | 11 | Se utiliza para desarrollar, crear y probar aplicaciones Java de Data Flow. |
Apache Spark | 3.2.1 | Instancia local de Apache Spark que se ejecuta en Cloud Shell. Se utiliza para probar el código. |
Limitaciones
- Data Flow solo puede acceder a los recursos de la región seleccionada en el menú de selección Región de la consola cuando se inició Cloud Shell.
- Solo están soportadas las aplicaciones de Data Flow basadas en Java, Python y Scala
- El editor de códigos no soporta la compilación ni la depuración. Debe hacerlo en Cloud Shell.
- El plugin solo está soportado con Apache Spark versión 3.2.1.
- Se aplican todas las limitaciones de Cloud Shell.
Configuración del plugin de Spark de Data Flow
Siga estos pasos para configurar el plugin de Spark de Data Flow.