-
コンソールで、「データ・フロー・アプリケーション」ページにナビゲートします。
-
「コード・エディタの起動」を選択します。
コード・エディタが開きます。
-
O Oracleロゴを選択します。
使用可能なプラグインのリストが表示されます。
-
「DATA FLOW」プラグインを選択します。
展開して、その下にあるすべてのコンパートメントおよびプロジェクトを表示します。
-
アプリケーションの格納場所に移動します。これは、ローカル・リポジトリまたはネットワーク・リポジトリです。
-
実行するプロジェクトを右クリックし、「ローカルで実行」を選択します。

「アプリケーションの実行」ウィンドウが開きます。
-
次のアプリケーション・プロパティを指定します。
- 言語 - Java、PythonまたはScalaのいずれか。
- メインClassName - プロジェクトで実行されるメイン・クラス名。Pythonの場合、これはメイン・ファイル名です。
- 引数 - Sparkアプリケーションで想定されるコマンドライン引数。
- conf - アプリケーションを実行するための追加の構成。
- jars - アプリケーションに必要なサード・パーティJARファイル。
- Spark Oracleデータソースを使用するには、「Spark Oracleデータ・ソース・プロパティの有効化」を選択します。
- メタストアを使用するには、「Spark Oracleメタストア・プロパティの有効化」を選択します。
- コンパートメントを選択します。
- メタソールを選択します。
-
「実行」を選択します。
データ・フロー・プラグインは、アプリケーションをパッケージ化して実行します。
- (オプション)通知トレイからアプリケーションのステータスを確認します。「通知」トレイを選択すると、より詳細なステータス情報が表示されます。
- (オプション)runlog.txtを選択してログ・ファイルをチェックします。
- (オプション)データ・フローにアーティファクトをアップロードします。
- 該当するプロジェクトを右クリックします。
- 「アーティファクトのアップロード」を選択します。
- 言語を選択します。
- Object Storageネームスペースを入力します。
- バケット名を入力します。