Codeeditor verwenden

Erfahren Sie mehr über Data Flow und den Oracle Cloud Infrastructure Code Editor.

Der Codeeditor bietet eine umfangreiche Bearbeitungsumgebung in der Konsole, einschließlich Syntaxhervorhebung, intelligenter Abschlüsse, Klammernabgleich, Linting, Codenavigation (gehen Sie zur Methodendefinition, suchen Sie alle Referenzen) und Refactoring. Sie können:
  • Erstellen, erstellen, bearbeiten und stellen Sie Anwendungen in Java, Scala und Python bereit, ohne zwischen der Konsole und der lokalen Entwicklungsumgebung zu wechseln.
  • Erste Schritte mit Data Flow-Vorlagen, die im Codeeditor enthalten sind.
  • Führen Sie Ihren Code lokal aus, und testen Sie ihn mit der Cloud Shell, bevor Sie ihn in Data Flow bereitstellen.
  • Spark-Parameter festlegen.
Weitere Vorteile:
  • Mit der Git-Integration können Sie jedes Git-basierte Repository klonen, Änderungen an Dateien verfolgen und Code direkt im Codeeditor festschreiben, abrufen und übertragen. So können Sie ganz einfach Codeänderungen beitragen und rückgängig machen. Informationen zur Verwendung von Git und GitHub finden Sie im Developer Guide.
  • Ein persistenter Status über Sessions hinweg speichert den Fortschritt automatisch und persistiert den Status über viele Benutzersessions hinweg. Daher öffnet der Codeeditor beim Start automatisch die zuletzt bearbeitete Seite.

  • Direkter Zugriff auf Apache Spark und über 30 Tools, einschließlich sbt und Scala, die mit Cloud Shell vorinstalliert sind.
  • Über ein Dutzend Data Flow-Beispiele, die verschiedene als Vorlagen gebündelte Features abdecken, helfen Ihnen bei den ersten Schritten.

Weitere Informationen zur Verwendung des Codeeditors zum Erstellen von Anwendungen finden Sie unter Anwendungen mit dem Codeeditor erstellen.

Weitere Informationen zu den Features und Funktionen des Codeeditors finden Sie in der Dokumentation zum Codeeditor.

Voraussetzungen

  • Der Codeeditor verwendet dieselben IAM-Policys wie Cloud Shell. Weitere Informationen finden Sie unter Erforderliche IAM-Policy für Cloud Shell.

  • Vergewissern Sie sich, dass die erforderlichen Sprachen und Tools in der Cloud Shell installiert sind.
  • Wenn Sie Data Catalog-Metastore verwenden, müssen Sie die angemessenen Policys einrichten.
Die folgenden Tools und Mindestversionen müssen in der Cloud Shell installiert werden:
Erforderliche Tools und unterstützte Version
Tool Versionierung Beschreibung
Scala 2.12.15 Wird zum Schreiben von Scala-basiertem Code im Codeeditor verwendet.
sbt 1,7 Wird zur interaktiven Erstellung von Scala-Anwendungen verwendet.
Python 3,8 Python-Interpreter
Git 2,27 GIT bash zur interaktiven Ausführung von GIT-Befehlen.
JDK 11 Wird zum Entwickeln, Erstellen und Testen von Data Flow-Java-Anwendungen verwendet.
Apache Spark 3.2.1 Eine lokale Instanz von Apache Spark, die in der Cloud Shell ausgeführt wird und zum Testen des Codes verwendet wird.

Einschränkungen

  • Data Flow kann nur auf Ressourcen für die Region zugreifen, die beim Starten von Cloud Shell im Auswahlmenü "Region" der Konsole ausgewählt wurde.
  • Nur Java-basierte, Python-basierte und Scala-basierte Datenflussanwendungen werden unterstützt
  • Der Codeeditor unterstützt keine Kompilierung und kein Debugging. Sie müssen diese in der Cloud Shell ausführen.
  • Das Plug-in wird nur mit Apache Spark Version 3.2.1 unterstützt.
  • Es gelten alle Einschränkungen von Cloud Shell.

Data Flow-Spark-Plug-in einrichten

Führen Sie diese Schritte aus, um das Data Flow-Spark-Plug-in einzurichten.

  1. Navigieren Sie von der Befehlszeile zum Verzeichnis HOME.
  2. Führen Sie /opt/dataflow/df_artifacts/apache_spark_df_plugin_setup.sh aus.

    Das Skript ist ein automatisierter Prozess zum Einrichten von Spark im Benutzerverzeichnis mit anderen erforderlichen Artefakten.