1.1.4.6 リリース19.1.0.0.5_MLR32849350 - 2021年5月

Oracle Bug#32251429: 複数のターゲットを持つパイプライン・デプロイメントの問題

複数のターゲットを持つパイプラインのパイプライン・デプロイメントの失敗の問題を修正しました。

Oracle Bug#32251367: SSL対応KAFKA設定でのホット・デプロイの問題

Kafkaシステム設定でSSLが有効になっている場合に、パイプラインのホット・デプロイメントがSparkExceptionで失敗する問題が修正されました。

Oracle Bug#32613021: ネストしたJSONにNULL値がある場合にパイプラインが終了する

ネストした入力JSONデータにnull値がある場合のパイプラインの終了が修正されました。

Oracle Bug#32647925: DBターゲットと参照のパフォーマンスの問題

データベース・ターゲットおよび参照への書込み中の検証パフォーマンスが向上しました。

Oracle Bug#32647546: NULL値のあるJSONで、OCIターゲットへの書込みが失敗する

入力JSONデータにnull値がある場合に、OCIターゲットへの書込み中にパイプラインがNullPointerException例外で失敗する問題が修正されました。

Oracle Bug#32712524: レコードに発音区別記号がある場合、RESTエンドポイントへの書込み中にパブリッシュされたパイプラインが強制終了される

入力JSONのデータに発音区別記号付きの文字列値ě¿čř¿ýáíé (有効なUTF-8文字)が含まれている場合に、RESTターゲットへの書込み中にパブリッシュされたパイプラインが強制終了される問題が修正されました。

Oracle Bug#32375359 - ビッグ10進の丸め時の必要な例外

入力されたJSONに56を超えるスケールのビッグ10進値が含まれている場合に、パイプラインがNullPointerExceptionで失敗する問題が修正されました。サポートされているデフォルトの精度およびスケールが64になりました。

Oracle Bug#32669536: 現在と前のパターンで間違った問合せが生成される

現在と前のイベント・パターンで複数のパーティション・フィールドが選択された場合に間違った問合せが生成される問題が修正されました。

Oracle Bug#32846444: JDBCシンク問合せタイムアウトの構成可能化

JDBCシンク問合せタイムアウトをosa_system_property表の構成可能なパラメータとして設定します。osa_system_property表に挿入する必要があるプロパティは、mkey=com.oracle.cep.adapters.jdbc.JdbcSink.QueryTimeoutです。

Oracle Bug#32850867: OSAインストーラがORACLE DBメタデータ・ストアで失敗する

Oracleメタデータ・ストアの構成中にパスワードに'@'などの特殊文字が含まれると、メタデータ・ストア・ユーザーの作成が失敗する問題が修正されました。メタデータ・ストアのパスワードは、jetty-osa-datasource.xmlファイルで構成されているパスワードです。

Oracle Bug#32872055: OSA内部トピックへのオフセットのコミット時のNULLPOINTEREXCEPTIONとNOSUCHELEMENTEXCEPTION

OSA内部トピックへのオフセットのコミット中に発生するNullPointerExceptionおよびNoSuchElementExceptionの問題を修正しました。

Oracle Bug#32887340: データベース・ターゲット・タイプで列の削除が可能になる

データベース・ターゲット・タイプで列を削除できるようにUIを修正しました。実行時に、挿入文は形状内の列のみを指定します。

Oracle Bug#32754024: デバイスに領域がない - SPARK作業ディレクトリの変更

この修正は、Spark作業ディレクトリの変更後に正しいパイプライン・ステータスが反映されるようにするためです。

Spark作業ディレクトリを変更するには:

  1. Sparkサービスを停止します:
    1. sudo systemctl stop spark-slave.service
    2. sudo systemctl stop spark-master.service
  2. u02の下に作業ディレクトリを作成します:
    1. /u02に移動します
    2. sudo mkdir sparkを実行します。ここで、sparkは作業フォルダ名です。任意の名前でフォルダを作成できます。
    3. chmod 777 sparkを実行して、権限を変更します。
  3. spark-env.shを編集します
    1. SPARK_HOME/confに移動し、spark-env.shを編集します
    2. /u02の下に新しく作成されたフォルダを指すように、spark-env.shファイルの末尾にSPARK_WORKER_DIR=/u02/sparkを追加します
  4. Sparkサービスを開始します:
    1. sudo systemctl start spark-master.service
    2. sudo systemctl start spark-slave.service

    パイプラインを再度パブリッシュすると、/u02/sparkの下にアプリケーションおよびドライバのデータ(ファイルおよびログ)が表示されます。