Vorbereitungen für Data Flow

Vor der Verwendung von Data Flow benötigen Sie:

  • Ein Oracle Cloud Infrastructure-Account. Mit Testaccounts kann Data Flow getestet werden.
  • Eine Serviceadministratorrolle für Ihre Oracle Cloud-Services. Wenn der Service aktiviert ist, sendet Oracle die Zugangsdaten und die URL an den ausgewählten Accountadministrator. Der Accountadministrator erstellt einen Account für jeden Benutzer, der Zugriff auf den Service benötigt.
  • Einen unterstützten Browser, wie z.B.:
    • Microsoft Internet Explorer 11.x+

    • Mozilla Firefox ESR 38+

    • Google Chrome 42+

  • Eine Spark-Anwendung , die in Object Storage hochgeladen wurde. Stellen Sie sie nicht in einem komprimierten Format bereit, wie .zip oder .gzip.
  • Daten für die Verarbeitung, die in Oracle Cloud Infrastructure Object Storage geladen wurden. Daten können aus externen Datenquellen oder Clouds gelesen werden. Data Flow optimiert die Performance und Sicherheit für Daten, die in einem Oracle Cloud Infrastructure-Objektspeicher gespeichert sind.
  • Die unterstützten Anwendungstypen sind:
    • Java
    • Scala
    • SparkSQL
    • PySpark (nur Python 3)
  • In dieser Tabelle werden die von Data Flow unterstützten Spark-Versionen angezeigt.
    Unterstützte Spark-Versionen
    Spark-Version Hadoop Java Python Scala oci-hdfs oci-java-sdk Spark-Dokumentation
    Spark 3.5.0 3,3 17 3,11 2,12 3.3.4.1.4.2 3,34 Dokumentation zu Spark Release 3.5.0
    Spark 3.2.1 3.3.1 11 3.8.13 2.12.15 3.3.1.0.3.2 2,45 Dokumentation zu Spark Release 3.2.1
    Spark 3.0.2 3.2.0 1.8.0_321 3.6.8 2.12.10 3.2.1.3 1.25.2 Dokumentation zu Spark Release 3.0.2
    Spark 2.4.4 2,9 1,8_162 3.6.8 2.11.12 2.9.2.6 1,25 Dokumentation zu Spark Release 2.4.4
    Diese Tabelle dient nur als Referenz und soll nicht umfassend sein.
Hinweis

Geben Sie keine vertraulichen Informationen ein, wenn Sie Ihren Cloud-Ressourcen Beschreibungen, Tags oder benutzerfreundliche Namen über die Oracle Cloud Infrastructure-Konsole, -API oder -CLI zuweisen. Dies gilt beim Erstellen oder Bearbeiten einer Anwendung in Data Flow.