コード・エディタの使用

データ・フローおよびOracle Cloud Infrastructure Code Editorについてご紹介します。

コード・エディタは、構文の強調表示、インテリジェントな補完、大カッコの一致、lint、コード・ナビゲーション(メソッド定義に移動、すべての参照を検索)、リファクタリングなど、コンソールに豊富な編集環境を提供します。次のことができます:
  • コンソールとローカル開発環境を切り替えることなく、Java、ScalaおよびPythonでアプリケーションを作成、構築、編集およびデプロイします。
  • コード・エディタに付属するデータ・フロー・テンプレートの使用を開始します。
  • データ・フローにデプロイする前に、クラウド・シェルでコードをローカルで実行およびテストします。
  • Sparkパラメータを設定します。
その他に次のような利点があります。
  • Gitベースのリポジトリのクローニング、ファイルに加えられた変更のトラッキング、およびコード・エディタ内からのコードのコミット、プル、プッシュを行うことができるGit統合により、簡単にコードのコントリビュートやコード変更の復元を行うことができます。GitおよびGitHubの使用の詳細は、開発者ガイドを参照してください。
  • セッション間の永続的な状態では、進行状況が自動保存され、多数のユーザー・セッションにわたって状態が保持されるため、コード・エディタでは、最後に編集したページが起動時に自動的に開きます。

  • Apache Sparkおよび30を超えるツール(sbtを含む)およびCloud Shellで事前インストールされたScalaに直接アクセスできます。
  • 使い始めるのに役立つテンプレートとしてバンドルされている様々な機能を網羅した、12を超えるデータ・フローの例があります。

コード・エディタを使用したアプリケーションの作成の詳細は、コード・エディタを使用したアプリケーションの作成を参照してください。

コード・エディタの機能の詳細は、コード・エディタのドキュメントを参照してください。

前提条件

  • コード・エディタでは、クラウド・シェルと同じIAMポリシーを使用します。詳細は、クラウド・シェルに必要なIAMポリシーを参照してください。

  • 必要な言語およびツールがCloud Shellにインストールされていることを確認します。
  • データ・カタログ・メタストアを使用している場合は、適切なポリシーを設定する必要があります。
次のツールおよび最小バージョンをクラウド・シェルにインストールする必要があります:
必要なツールとサポートされているバージョン
ツール バージョン 説明
Scala 2.12.15 コード・エディタでScalaベースのコードを記述するために使用されます。
sbt 1.7.1 Scalaアプリケーションを対話形式で構築するために使用されます。
Python 3.8.14 Pythonインタプリタ
Git 2.27.0 GIT bashを使用して、対話形式でGITコマンドを実行します。
JDK 11.0.17 データ・フローJavaアプリケーションの開発、構築およびテストに使用します。
Apache Spark 3.2.1 クラウド・シェルで実行されているApache Sparkのローカル・インスタンス。コードのテストに使用されます。

制限事項

  • データ・フローは、クラウド・シェルの起動時にコンソールの「リージョン」選択メニューで選択されたリージョンに対してのみリソースにアクセスできます。
  • Javaベース、PythonベースおよびScalaベースのデータ・フロー・アプリケーションのみがサポートされています
  • コード・エディタはコンパイルおよびデバッグをサポートしていません。Cloud Shellで実行する必要があります。
  • このプラグインは、Apache Sparkバージョン3.2.1でのみサポートされています。
  • すべてのクラウド・シェルの制限が適用されます。

データ・フローSparkプラグインの設定

データ・フローSparkプラグインを設定するには、次のステップに従います。

  1. コマンドラインから、HOMEディレクトリに移動します。
  2. /opt/dataflow/df_artifacts/apache_spark_df_plugin_setup.shを実行します。

    スクリプトは、他の必要なアーティファクトとともにユーザー・ディレクトリにSparkを設定する自動プロセスです。