Uso dell'editor di codice

Scopri di più su Data Flow e Oracle Cloud Infrastructure Code Editor.

L'Editor di codice offre un ambiente di modifica avanzato nella console, tra cui evidenziazione della sintassi, completamenti intelligenti, corrispondenza tra parentesi, linting, navigazione del codice (andare alla definizione del metodo, trovare tutti i riferimenti) e rifattorizzazione. È possibile effettuare le seguenti operazioni.
  • Crea, crea, modifica e distribuisci applicazioni in Java, Scala e Python, senza passare dalla console all'ambiente di sviluppo locale.
  • Introduzione ai modelli di flusso dati inclusi nell'editor di codice.
  • Esegui e testa il codice localmente con Cloud Shell prima di eseguire la distribuzione in Data Flow.
  • Impostare i parametri Spark.
Di seguito sono elencati altri vantaggi.
  • Integrazione Git che consente di duplicare qualsiasi repository basato su Git, tenere traccia delle modifiche apportate ai file ed eseguire il commit, il pull e il push del codice direttamente dall'editor di codice, consentendo di contribuire con facilità al codice e annullare le modifiche al codice. Per informazioni su come utilizzare Git e GitHub, vedere la Developer Guide.
  • Uno stato persistente tra le sessioni salva automaticamente l'avanzamento e persiste in molte sessioni utente, quindi l'editor di codice apre automaticamente l'ultima pagina modificata all'avvio.

  • Accesso diretto ad Apache Spark e a oltre 30 strumenti, tra cui sbt e Scala preinstallati con Cloud Shell.
  • Oltre una dozzina di esempi di flusso di dati che coprono diverse funzioni raggruppate come modelli per aiutarti a iniziare.

Per ulteriori informazioni sull'uso dell'editor di codice per la creazione di applicazioni, vedere Creazione di un'applicazione con l'editor di codice.

Per ulteriori informazioni sulle caratteristiche e le funzionalità dell'Editor di codice, consultare la documentazione dell'Editor di codice.

Requisiti indispensabili

  • L'editor di codice utilizza gli stessi criteri IAM di Cloud Shell. Per ulteriori informazioni, vedere Criterio IAM obbligatorio di Cloud Shell.

  • Verificare che le lingue e gli strumenti necessari siano installati in Cloud Shell.
  • Se si utilizza il metastore Data Catalog, è necessario impostare i criteri appropriati.
È necessario installare nella Cloud Shell gli strumenti e le versioni minime riportati di seguito.
Strumenti richiesti e versione supportata
Strumento Versione descrizione;
Scala 2,12 Utilizzato per scrivere codice basato su Scala nell'editor di codice.
sbt 1,7 Utilizzato per creare in modo interattivo applicazioni Scala.
Python 3,8 Interprete Python
Git 2,27 GIT bash per eseguire i comandi GIT in modo interattivo.
JDK 11 Utilizzato per sviluppare, creare e testare le applicazioni Java di Data Flow.
Apache Spark 3,2 Istanza locale di Apache Spark in esecuzione in Cloud Shell utilizzata per eseguire il test del codice.

Limitazioni

  • Data Flow è in grado di accedere alle risorse solo per l'area selezionata nel menu di selezione dell'area della console all'avvio di Cloud Shell.
  • Sono supportate solo applicazioni di flusso dati basate su Java, Python e Scala
  • L'editor di codice non supporta la compilazione e il debug. È necessario eseguire queste operazioni in Cloud Shell.
  • Il plugin è supportato solo con Apache Spark versione 3.2.1.
  • Si applicano tutte le limitazioni di Cloud Shell.

Impostazione del plugin Spark di Data Flow

Attenersi alla procedura riportata di seguito per impostare il plugin Spark di Flusso dati.

  1. Dalla riga di comando, andare alla directory HOME.
  2. Eseguire /opt/dataflow/df_artifacts/apache_spark_df_plugin_setup.sh .

    Lo script è un processo automatico per impostare Spark nella directory utente con altri artifact richiesti.