Sie müssen die config
für die Benutzerauthentifizierung erstellt haben, wie unter Codeeditor verwenden beschrieben.
-
Navigieren Sie in der Konsole zur Seite "Datenflussanwendungen".
-
Wählen Sie Codeeditor starten aus.
Der Codeeditor wird geöffnet.
-
Wählen Sie das Oracle-Logo für O.
Eine Liste der verfügbaren Plug-ins wird angezeigt.
-
Wählen Sie das Plug-in DATA FLOW aus.
Es wird erweitert und zeigt alle Compartments und Projekte darunter an.
-
Navigieren Sie zum Speicherort Ihrer Anwendungen. Dabei kann es sich um ein lokales oder ein Netzwerk-Repository handeln.
-
Klicken Sie mit der rechten Maustaste auf das Projekt, das Sie ausführen möchten, und wählen Sie Lokal ausführen aus.

Das Fenster "Anwendung ausführen" wird geöffnet.
-
Geben Sie die folgenden Anwendungseigenschaften an:
- Sprache: Eine von Java, Python oder Scala.
- Hauptname ClassName: Der im Projekt ausgeführte Hauptklassenname. Für Python ist dies Hauptdateiname.
- Argumente: Die von der Spark-Anwendung erwarteten Befehlszeilenargumente.
- conf: Jede zusätzliche Konfiguration, die für die Anwendung ausgeführt werden soll.
- jars: Die JAR-Datei eines Drittanbieters, die von der Anwendung benötigt wird.
- Aktivieren Sie das Kontrollkästchen Spark-Oracle-Datenquelleneigenschaft aktivieren, um die Spark-Oracle-Datenquelle zu verwenden.
- Aktivieren Sie die Option Spark-Oracle-Metastoreigenschaft aktivieren, um einen Metastore zu verwenden.
- Wählen Sie ein Compartment aus.
- Wählen Sie einen Metasore aus.
-
Wählen Sie Ausführen aus.
Das Data Flow-Plug-in verpackt die Anwendung und führt sie aus.
- (Optional) Prüfen Sie den Status der Anwendung in der Benachrichtigungsleiste. Wenn Sie die Leiste Benachrichtigungen auswählen, erhalten Sie detailliertere Statusinformationen.
- (Optional) Wählen Sie runlog.txt aus, um die Logdateien zu prüfen.
- (Optional) Laden Sie das Artefakt in Data Flow hoch.
- Klicken Sie mit der rechten Maustaste auf das betreffende Projekt.
- Wählen Sie Artefakt hochladen aus.
- Wählen Sie die Sprache aus.
- Geben Sie den Object Storage-Namespace ein.
- Geben Sie den Bucket-Namen ein.