Uso dell'editor di codice
Scopri di più su Data Flow e Oracle Cloud Infrastructure Code Editor.
- Crea, crea, modifica e distribuisci applicazioni in Java, Scala e Python, senza passare dalla console all'ambiente di sviluppo locale.
- Introduzione ai modelli di flusso dati inclusi nell'editor di codice.
- Esegui e testa il codice localmente con Cloud Shell prima di eseguire la distribuzione in Data Flow.
- Impostare i parametri Spark.
- Integrazione Git che consente di duplicare qualsiasi repository basato su Git, tenere traccia delle modifiche apportate ai file ed eseguire il commit, il pull e il push del codice direttamente dall'editor di codice, consentendo di contribuire con facilità al codice e annullare le modifiche al codice. Per informazioni su come utilizzare Git e GitHub, vedere la Developer Guide.
-
Uno stato persistente tra le sessioni salva automaticamente l'avanzamento e persiste in molte sessioni utente, quindi l'editor di codice apre automaticamente l'ultima pagina modificata all'avvio.
- Accesso diretto ad Apache Spark e a oltre 30 strumenti, tra cui sbt e Scala preinstallati con Cloud Shell.
-
Oltre una dozzina di esempi di flusso di dati che coprono diverse funzioni raggruppate come modelli per aiutarti a iniziare.
Per ulteriori informazioni sulle caratteristiche e le funzionalità dell'Editor di codice, consultare la documentazione dell'Editor di codice.
Requisiti indispensabili
-
L'editor di codice utilizza gli stessi criteri IAM di Cloud Shell. Per ulteriori informazioni, vedere Criterio IAM obbligatorio di Cloud Shell.
- Verificare che le lingue e gli strumenti necessari siano installati in Cloud Shell.
- Se si utilizza il metastore Data Catalog, è necessario impostare i criteri appropriati.
Strumento | Versione | descrizione; |
---|---|---|
Scala | 2,12 | Utilizzato per scrivere codice basato su Scala nell'editor di codice. |
sbt | 1,7 | Utilizzato per creare in modo interattivo applicazioni Scala. |
Python | 3,8 | Interprete Python |
Git | 2,27 | GIT bash per eseguire i comandi GIT in modo interattivo. |
JDK | 11 | Utilizzato per sviluppare, creare e testare le applicazioni Java di Data Flow. |
Apache Spark | 3,2 | Istanza locale di Apache Spark in esecuzione in Cloud Shell utilizzata per eseguire il test del codice. |
Limitazioni
- Data Flow è in grado di accedere alle risorse solo per l'area selezionata nel menu di selezione dell'area della console all'avvio di Cloud Shell.
- Sono supportate solo applicazioni di flusso dati basate su Java, Python e Scala
- L'editor di codice non supporta la compilazione e il debug. È necessario eseguire queste operazioni in Cloud Shell.
- Il plugin è supportato solo con Apache Spark versione 3.2.1.
- Si applicano tutte le limitazioni di Cloud Shell.
Impostazione del plugin Spark di Data Flow
Attenersi alla procedura riportata di seguito per impostare il plugin Spark di Flusso dati.