1.1 GoldenGate Stream Analyticsリリース・ノート

このドキュメントには、GoldenGate Stream Analytics 19.1の新機能、既知の問題、修正済の問題など、リリースに関する情報が含まれています。

製品をインストールまたは使用する前に、このドキュメントを確認することをお薦めします。

1.1.1 新機能と改善点

この項では、リリースで追加された新機能のリストを示します。

1.1.1.1 リリース19.1.0.0.8 - 2023年8月

この項では、GGSA 19.1.0.0.8の新機能およびアップグレードを示します。

1.1.1.1.1 SparkおよびKafkaバージョンのアップグレード

19.1.0.0.8から、SparkおよびKafkaライブラリ・バージョンは3.4.0にアップグレードされます。

ライブラリのダウンロードおよびGGSAのインストールの詳細は、GoldenGate Stream Analyticsのインストールに関する項を参照してください。

1.1.1.2 リリース19.1.0.0.7 - 2022年3月

この項では、GGSA 19.1.0.0.7に追加された新機能を示します。

1.1.1.2.1 パブリックREST API

パイプライン管理およびユーザー管理用に次のパブリックREST APIが追加されました:

パイプライン管理

  • エクスポート
  • インポート
  • リスト
  • パブリッシュ
  • パブリッシュ解除

ユーザー管理

  • 作成
  • リスト
  • 取得
  • 更新

GoldenGate Stream AnalyticsのREST APIを参照してください。

1.1.1.2.2 カスタム・ステージ・パススルー入力

カスタム・ステージ・パススルー入力

カスタム・ステージ・パススルー入力は、カスタム・ステージ・クラスのoutputspecで定義されている属性に加えて、パイプライン内の前のステージのすべての属性をパススルーするためにサポートされています。この機能を有効にするには、オプションのパラメータcanPassThroughInput=trueを追加します。

このパラメータを設定しない場合、デフォルトでfalseに設定され、outputspecで定義されている属性のみがカスタム・ステージで出力されます。PassThroughInputを実装するには、EventSpecAccessorを実装してsetoutputspecからoutputspecを設定し、indexesToCopyを取得して前のステージの属性の値を設定する必要もあります。

1.1.1.2.3 ONNX予測モデル

GGSAは、製品の機械学習機能を強化するために、ONNX予測モデルをサポートします。

1.1.1.3 リリース19.1.0.0.6_MLR33682853 - 2021年12月

このリリースではセキュリティ脆弱性に対処しています:

CVE-2021-44228およびCVE-2021-45046

Oracleでは、このセキュリティ修正を含めるために、GoldenGate Stream Analyticsのこのパッチにアップグレードすることをお薦めします。

1.1.1.4 リリース19.1.0.0.6_MLR33251626 - 2021年9月

この項では、GGSA 19.1.0.0.6_MLR33251626に追加された新機能を示します。

1.1.1.4.1 セグメント・ディテクタ・パターン

指定した期間にわたって、選択した属性の値が変わっていない連続したイベント(範囲/セグメント)を検出するには、セグメント・ディテクタ・パターンを使用します。

1.1.1.4.2 ピボット・パターン

選択したピボット値と指定したキーに基づいて、受信イベントのすべての属性または選択した属性を新しい列にピボットする場合は、ピボット・パターンを使用します。

1.1.1.4.3 カスタムCQLステージ

パイプラインのカスタムCQLステージを追加して、CQL問合せを記述すると、前のステージのデータに対して任意のSelect操作を実行できます。現在、既存のパイプライン・ステージまたはパターン・ステージでは、特定のビジネス・ルールの作成がサポートされていません。それが必要な場合には、カスタムCQLステージの一部としてCQL問合せを使用できます。

1.1.1.5 リリース19.1.0.0.6 - 2021年4月

この項では、GGSA 19.1.0.0.6バンドル・パッチ・リリースに追加された新機能を示します。

1.1.1.5.1 Kafka MTLSのサポート

GGSAは、ユーザーとKafkaブローカ間の双方向認証をサポートします。ユーザーは、「システム設定」でブートストラップURL、SSLトラストストアおよびキーストア情報を指定することでMTLS認証を有効にできます。ユーザーはKafka接続の作成中にMTLS対応Kafka設定に接続できます。

1.1.1.5.2 GoldenGateの完全なレコード

GoldenGate Extractプロセスは、構成パラメータに応じて完全なデータ・レコードまたはトランザクション・データの変更を取得します。トランザクション・データベースに対するオーバーヘッドまたはパフォーマンスの影響を最小限に抑えるために、GGSAユーザーは、トランザクションの変更のみを取得するようにExtractを構成します。これにより、ネットワーク経由で転送する必要があるペイロード・サイズを削減し、パフォーマンスとセキュリティを向上させることもできます。ただし、一部の顧客は、変更されていない列(完全なデータ・レコード)も必要とするため、最新のデータ・フィードを必要とするプロセスでそれらを使用できるようにしたり、このデータを分析のために様々なビッグ・データ・ターゲットにレプリケートできるようにします。

完全なデータ・レコード(すべてのフィールドの値)のストリーミングを有効にするために、GGSAでは、GoldenGateストリームの作成時に完全なレコードの生成オプションが提供されます。このオプションを有効にすると、単一行、サブセットまたは行のすべての列に対して行われたデータベース・トランザクションの変更に関係なく、すべてのレコードがストリームされます。

1.1.1.5.3 ビッグ・データ接続とターゲット
GGSAでは、次の新しいビッグ・データ接続およびターゲットがサポートされます:
  • ElasticSearch
  • HBase
  • MongoDB
1.1.1.5.4 連続マージ・パターン

連続マージ・パターンを使用して、キー属性に基づいて複数の連続イベントを単一のイベントにマージします。

1.1.1.5.5 Oracle Machine Learningサービス・パターン(プレビュー機能)

Oracle Machine Learning (OML)サービス・パターンを使用し、OMLモデルを使用して、収集されたイベントにスコアリングを適用します。

1.1.1.5.6 内部Kafkaトピック

GGSAで使用される内部KafkaトピックおよびグループIDは、次のネーミング規則に従って標準化されます:

Kafkaトピック

トピック リソース 操作

sx_backend_notification_<UUID>

トピック CREATE、DELETE、DESCRIBE、READ、WRITE

sx_messages_<UUID>

トピック CREATE、DELETE、DESCRIBE、READ、WRITE

sx_<application_name>_<stage_name>_public

トピック CREATE、DELETE、DESCRIBE、READ、WRITE

sx_<application_name>_<stage_name>_draft

トピック CREATE、DELETE、DESCRIBE、READ、WRITE

sx_<application_name>_public_<offset_number>_<stage_name>_offset

トピック CREATE、DELETE、DESCRIBE、READ、WRITE

グループID

グループID リソース 操作

sx_<UUID>_receiver

グループ DESCRIBE、READ

sx_<UUID>

グループ DESCRIBE、READ

sx_<application_name>_public_<offset_number>_<stage_name>

グループ DESCRIBE、READ
1.1.1.5.7 削除されたZookeeper依存性

Zookeeper構成はGGSAを使用するための前提条件ではなくなりました。

1.1.1.6 リリース19.1.0.0.5 - 2020年9月

この項では、GGSA 19.1.0.0.5バンドル・パッチ・リリースに追加された新機能を示します。

1.1.1.6.1 埋込みIgniteクラスタ

GGSAは埋込みIgniteキャッシュを実装しています。Igniteは、イベントを永続化するためのターゲットまたは任意のパイプラインの参照として使用できます。GoldenGateの場合、完全なレコードを含む受信イベントがパイプラインで永続化され、変更されたイベントでキャッシュが更新されて、変更された最新のレコードが使用可能になります。

Igniteクラスタは、「システム設定」ページの「キャッシュ・クラスタ」タブから起動または停止できます。

1.1.1.6.2 NFSターゲット

GGSAは、ネットワーク・ファイル・システム(NFS)ターゲットをサポートします。

1.1.1.6.3 Ignite接続

GGSAは、埋込みIgniteキャッシュ接続と外部Igniteキャッシュ接続の両方をサポートします。

内部キャッシュは、「システム設定」ページの「キャッシュ・クラスタ」タブから有効化できます。内部キャッシュを有効化すると、すべてのSparkワーカー・ノードにIgniteクラスタが作成およびデプロイされます。

外部Igniteへの接続を作成するには、「カタログ」タブから新規接続を作成する際に、Igniteキャッシュ・タイプを選択します。保護されていないクラスタの場合は、IgniteサーバーのIPアドレスとポート番号を、保護されているクラスタの場合は、セキュリティ証明書を指定します。

1.1.1.6.4 Igniteターゲット

GGSAでは、Jsonデータを書き込むターゲットとして、Igniteがサポートおよび使用されるようになりました。

GGSAでは、2つのタイプのIgniteクラスタがサポートされています。
  • GGSAの外部で管理される外部クラスタ
  • Sparkアプリケーションとして起動され、GGSAで管理される埋込みIgniteクラスタ
Igniteターゲットを追加すると、GGSAで、内部と外部両方のIgniteキャッシュ・クラスタにデータを書き込めるようになります。
1.1.1.6.5 Ignite参照

Ignite参照は、問合せステージでIgniteキャッシュ・クラスタ参照データを使用してストリーム・データを充実します。Ignite参照のデータはキーと値のペアで、キーは文字列型、値はJsonオブジェクトです。GGSAの場合、参照する問合せステージでサポートされるのは単一値等価結合のみです。

1.1.1.6.6 GoldenGateビッグ・データ接続およびターゲット

GGSAでは、新しいGoldenGateビッグ・データ接続とターゲットがサポートされています:

  • OCIオブジェクト・ストア
  • AWS S3
  • HDFS
  • Microsoft Azure Datalake Gen-2
  • Hive
1.1.1.6.7 分割パターン

あるステージの単一のイベントを複数のイベントに変換するには、分割パターンを使用して、値フィールドを分割します。たとえば、ソースのjson要素またはjsonオブジェクトの配列をフラット化して個別に処理し、一部のターゲットにプッシュすることもできます。

1.1.1.6.8 キャッシュ・モニタリング

GGSAアプリケーションのホームページにある「モニター」オプションを使用して、内部(埋込み)クラスタと外部クラスタの両方でキャッシュをモニター、リセットおよびリロードできます。

1.1.1.6.9 Kafkaの詳細設定

「システム設定」ページに追加されたKafkaの詳細設定を使用すると、ブートストラップURL、SSLトラストストアおよびSASL情報を指定できます。ブートストラップURLはzookeeperより優先してKafkaへ接続でき、パイプラインのデプロイも可能です。

1.1.1.6.10 保護ポリシー

保護ポリシー機能は、「システム設定」ページにある「環境」」タブのHadoopアプリケーションに追加されています。保護ポリシーは、hadoopサービスとクライアント(GGSA)間でのデータの転送方法を定義します。ポリシー・タイプには、認証、整合性およびプライバシがあります。

1.1.1.7 リリース19.1.0.0.3 - 2020年4月

この項では、OSA 19.1.0.0.3バンドル・パッチ・リリースに追加された新機能を示します。

1.1.1.7.1 RESTターゲットでのPOSTおよびPUTメソッドの構成

RESTターゲットは、HTTPのPOSTおよびPUTメソッドを使用して、RESTエンドポイントにリクエストを送信できます。デフォルト設定はPOSTです。

1.1.1.7.2 Kafkaオフセットの変更

最も古いオフセットまたは最も新しいオフセットを使用してKafkaトピックの形状を推測

Kafkaトピックの最も古いオフセットまたは最も新しいオフセットに基づいて形状を検出します。デフォルト・オプションは「最も古い」です。このオプションは、現在トピック内で流動しているデータがない場合に使用します。

パイプラインのパブリッシュ時にユーザーによるオフセットのリセットを許可

「パイプライン設定」画面に新しいオプションが2つあります:
  • 入力トピック・オフセット — このドロップダウン・リストからKafkaトピック・オフセット値を選択します。リストされる値は「最も古い」「最新」です。デフォルト値は「最新」です。パイプラインを初めてパブリッシュするとき、このドロップダウン・リストで選択したオフセット値に基づいて入力ストリームが読み取られます。それ以降のパブリッシュでは、ここで選択した値は考慮されず、前回終了したところから入力ストリームが読み込まれます。
  • オフセットのリセット — このチェック・ボックスを選択すると、入力トピック・オフセット・ドロップダウン・リストで選択したオフセット値に基づいて入力ストリームが読み取られます。

ユーザーによる最初または最新のオフセットに基づいたダッシュボードの構築を許可

ダッシュボードを作成するときに、最初または最新のオフセットからダッシュボードを構築できます。使用可能なオプションは、「最新」「最も古い」です。「最新」オプションを選択すると、ダッシュボードを開いた後で取得された新しいレコードがダッシュボードに表示されます。「最も古い」を選択すると、OSAパイプライン・トピックの最初からレコードが読み込まれます。

1.1.1.7.3 Kafkaターゲットの作成時にキー・フィールドを定義
Kafkaターゲットの定義中にキー・フィールドを定義できます。データは、選択したキーに基づいてパーティション化されます。
  • 複数のフィールドをキーとして選択できます
  • キーの選択は必須ではありません
  • キーを選択できるのは、データ形式がJSONの場合のみです
1.1.1.7.4 ToJsonパターン

toJsonパターンは、パイプラインのステージからのイベントをJSONテキストに変換します。

このパターンを使用して、複数のイベントを単一のJSON文書に変換し、OSAパイプライン・ターゲットを通じてダウンストリーム・システムに送信します。たとえば、toJsonパターン・ステージの後にデータベース・ターゲットを構成して、(単一または複数のイベントの) jsonペイロードをデータベース表に書き込むことができます。

1.1.1.7.5 条件式ビルダーの拡張
条件式ビルダーが拡張され次のことができるようになりました:
  • 条件式を追加せずにブロックを作成します(後のどのステージでも追加できます)
  • AND/ORを使用してブロックを結び付けます
  • 複合条件を定義します。例:

    問合せのフィルタの拡張 - 例

1.1.1.7.6 パイプラインからの中間ステージの削除
パブリッシュされていないパイプラインから任意の中間ステージを削除できるようになりました。

ノート:

  • ソース・ステージは削除できません。
  • 中間ステージを削除すると、そのすべての子ステージも削除されます。
1.1.1.7.7 OCI通知サービス
OSAはOCI通知サービスと統合されており、パブリッシュ・サブスクライバ・パターンを使用して、メッセージを分散コンポーネントにブロードキャストします。このサービスによって、安全で信頼性が高い低レイテンシの恒久メッセージが、OCIでホストされるアプリケーションや外部でホストされるアプリケーションに送信されます。OCI通知サービスと統合するには、OCI通知サービス・トピックを定義する必要があります。この機能を有効にするために、「ONS」タイプの接続と「通知」タイプのターゲットを作成するオプションがあります。

ノート:

現在、データを公開するためにJSONデータ形式タイプのみがサポートされています。

1.1.1.8 リリース19.1.0.0.2 - 2020年2月

この項では、OSA 19.1.0.0.2バンドル・パッチ・リリースに追加された新機能を示します。

1.1.1.8.1 Oracle Goldengateとの統合

Oracle Goldengate機能との統合により、Goldengateマイクロサービス・インスタンスに接続し、抽出プロセスから変更データ・ストリーム(GG変更データ)を生成できます。GG変更データを構成すると、新しいKafkaトピックが作成され、それを使用してストリームを作成できます。

1.1.1.8.2 Coherenceターゲット

OSAでは、Coherenceサーバーにデータを出力するためにCoherenceターゲットがサポートされるようになりました。出力OSAイベント(タプル)は、キャッシュ名およびユーザーが提供するCoherenceサーバーの詳細を使用して外部Coherenceクラスタにプッシュされます。

1.1.1.8.3 DBターゲット/参照およびメタデータのウォレット・サポート

Oracle Stream Analyticsユーザー・インタフェースを使用すると、ユーザーはATP/ADWデータベース接続を作成およびテストできます。

ユーザーは、このデータベース接続を使用してデータベース参照またはデータベース・ターゲットを作成できます。

1.1.1.8.4 参照用のMySQL DBのサポート

この機能により、ユーザーはOSAでMySQLデータベース表を参照として作成できます。MySQLデータベースへのJDBCベースの接続がサポートされます。

1.1.1.8.5 OCIストリーミング・サービスおよびSecure Kafkaとの統合

Oracle Stream Analyticsでは、OSSのKafka互換機能を使用したOCIストリーミング・サービスからの収集がサポートされるようになりました。

1.1.1.8.6 Oracleアドバンスト・キュー・ソース

OSAは、Oracleアドバンスト・キューからメッセージを読み取ることができます。このオプションは、一般的なJMSコネクタとして使用できます。ユーザーは、アドバンスト・キュー接続を作成し、それを使用してJMSタイプ・ストリームを作成できます。

1.1.1.8.7 安全なRESTターゲットのサポート

OSAは、SSLが有効化され、Basic認証を必要とするRESTターゲット・タイプをサポートするようになりました。

エンド・ポイントで認証が必要な場合にSSLが有効になることに加えて、カスタム・ヘッダー・フィールドとして渡すことができます。現在、OSAはBasic認証のみサポートしています。カスタム・ヘッダーの例 - Authorization Basic admin:admin

1.1.1.8.8 Kerberos認証

Hadoopでは、YarnベースのSparkクラスタで実行されているOSA用のKerberos認証がサポートされるようになりました。Kerberos認証を使用する場合、ユーザーは、KerberosサーバーからKerberosチケットを取得することで認証されます。

1.1.1.8.9 SSLおよび認証が有効なRESTエンドポイント

SSLが有効でBasic認証が必要な"REST"タイプのターゲットの作成: RESTエンドポイントでSSLのみが有効な場合、次のいずれかの方法で接続できます:

  • トラストストア・ファイルをアップロードし、トラストストア・パスワードを入力します。トラストストア・パスワードはオプションです。
  • トラストストア・ファイルとパスワードがない場合、トラスト・パスワードをクリックしてRESTエンドポイントに接続できます

    ノート:

    トラスト・パスワード・オプションを使用すると、信頼されていない証明書を使用して接続するため、セキュアでない接続になります。

エンド・ポイントで認証が必要な場合にSSLが有効になることに加えて、カスタム・ヘッダー・フィールドとして渡すことができます。現在、OSAはBasic認証のみサポートしています。カスタム・ヘッダーは、たとえば"Authorization Basic admin:admin"のようになります。

1.1.1.8.10 新しいデータ・パターン

OSAは4つの新しいデータ・パターンをサポートしています:

  • 現在および以前のパターン - 現在および以前のイベントを自動的に関連付けます
  • 遅延パターン - パイプラインのダウンストリーム・ノードへのイベント配信を指定した秒数だけ遅延させます
  • 行ウィンドウのスナップショット - 新規イベントの到着時に、ウィンドウの内容全体をダウンストリーム・ノードにダンプします。ウィンドウ容量は、イベントの最大数を指定することによって制限されます。
  • 時間ウィンドウのスナップショット - 新規イベントの到着時に、ウィンドウの内容全体をダウンストリーム・ノードにダンプします。ウィンドウ内のイベントは、指定された時間範囲後に失効します。
1.1.1.8.11 OSAでのバックプレッシャ

バックプレッシャは、Sparkがストリーミング・アプリケーションの安定性を確保する方法で、ストリーミング・アプリケーションが処理可能なかぎり高速にデータを受信することを意味します。

バックプレッシャ機能が有効になっている場合、現在のバッチ処理に基づいて、ダウンストリーム・コンポーネントからSpark内のアップストリーム・コンポーネントにシグナルが渡され、遅延統計がスケジューリングされます。

HAが有効かどうかに関係なく、現在はすべての公開済アプリケーションでバックプレッシャが既定で有効になっています。また、この設定は、Yarnとスタンドアロン・クラスタ・マネージャの両方で有効になります。

1.1.1.8.12 INフィルタでのDB列の参照のサポート

INフィルタを使用して、データベース表内の列を参照できます。実行時にデータベース列の値を変更すると、パイプラインを再公開することなく、パイプラインがDB列から最新の値を取得します。

1.1.1.9 リリース19.1.0.0.1 - 2019年11月

この項では、OSA 19.1.0.0.1バンドル・パッチ・リリースに追加された新機能を示します。

1.1.1.9.1 カスタム・タイル・レイヤー

Oracle Stream Analyticsでは、レストランや空港などの限られたスペースの詳細で高度なズーム・ビューが必要になる特定のケースで、タイル・レイヤーのズーム・レベルをカスタマイズできるようになりました。タイル・レイヤーをカスタマイズするためにグローバル・パラメータを変更すると、マップはカスタム・タイル・レイヤーを使用するように更新されます。これらのカスタマイズは、すべてのジオフェンスに適用されます。

1.1.1.9.2 ターゲットとしてのデータベース

Oracleデータベースをパイプラインのターゲットとして使用できるようになりました。

1.1.1.9.3 Jettyのプロパティ
新しいjetty.propertiesファイルは、OSA-19.1.0.0.0/osa-base/etc/jetty.propertiesにあります。このファイルでは、特定のセキュリティ・プロパティを変更できます:
  • jetty.session.timeout

    OSA Webセッションのタイムアウトを設定できます。

  • host.headers.whitelist

    x-forwarded-hostヘッダー値を、このプロパティで定義した値に制限できます。

  • xforwarded.host.headers.whitelist

    x-forwarded-hostヘッダー値を、このプロパティで定義した値に制限できます。

  • response.headers.list

    各リクエストのレスポンスとともに送信される、レスポンス・ヘッダーのカンマ区切りリスト。

1.1.1.9.4 Spark認証

Sparkスタンドアロン・サーバーのマスター・コンソールに対してユーザー認証が有効になりました。Sparkマスター・コンソールにアクセスすると、ユーザー名とパスワードの入力を求めるプロンプトが表示されます。コンソール・ページは、ログイン資格証明が正しい場合にのみロードされます。ユーザー名とパスワードは、OSAの「システム・プリファレンス」メニューから変更できます。デフォルトでは、ユーザー名およびパスワードのフィールドは空白のままです。

1.1.1.9.5 アプリケーション・モニタリング

公開済アプリケーションのステータスがカタログ・ページに表示されるようになりました。UI上のカタログ・ページをリフレッシュして、公開されたアプリケーションの現在のステータスを表示します。ステータスは、「停止済」または「実行中」として表示されます。

1.1.1.9.6 公開されたパイプラインのログ・レベル

パイプラインを公開するときに、UIからログ・レベルを設定できるようになりました。

1.1.1.10 リリース19.1.0.0.0 - 2019年8月

この項では、OSA 19.1.0.0.0リリースに追加された新機能を示します。

1.1.1.10.1 高度なパイプライン

パイプラインとは、パイプライン・ロジックを定義する、一連のデータ処理ステージのことです。ステージは、問合せ、パターン、ルール、問合せグループ、カスタムおよびスコアリングのいずれかのタイプになります。パイプラインはストリーム・ステージで始まり、問合せやルール・パターンなど、任意のタイプの子を1つ以上持つことができます。

Oracle Stream Analytics 19.1では、アプリケーション・ロジックに応じて、任意のステージでパイプラインを複数のブランチに分割するなど、高度なパイプライン機能が導入されています。各ブランチは、1つ以上のターゲットで終了できます。これにより、中間ステージを編集すると、それに伴う変更がダウンストリーム・ステージに伝播されるなど、編集機能が強化されています。これで、任意のパイプラインですでに使用されているソースも編集できるようになりました。パイプラインを使用すると、ソースのストリームを切り替えることができ、ソースの変更に対応するために必要な修正処理が通知されます。既存のステージの出力を、パイプラインの別のステージのソースの1つとして使用することもできるようになりました。

1.1.1.10.2 サポートされるウィンドウ・タイプ

Oracle Stream Analytics 19.1のウィンドウ・サポートは、次の新しいタイプを追加して強化されています:

  • 今年
  • 現在の月
  • 現在の日
  • 現在の時間
  • 現在の期間
  • 定数値
  • 可変範囲
  • パーティション・ウィンドウ・タイプ
1.1.1.10.3 インポート/エクスポート

エクスポートおよびインポート機能を使用すると、数回のクリックにより、異なるOracle Stream Analyticsシステム間(開発システムと本番システムなど)でパイプラインとその内容を移行できます。

Oracle Stream Analytics 19.1では、ビジュアライゼーション、キューブ、ダッシュボード、スコアリング・ステージ、カスタム・ステージなど、あらゆるタイプのアーティファクトの操作がサポートされるようになりました。インポートおよびエクスポートでは、パイプラインで使用するカスタムjarも操作時に処理されます。これにより、エクスポート時に、エクスポート・バンドルの確認、アーティファクトの名前と説明の編集、およびタグの管理を行うことができます。インポート時には、インポート・バンドルの検査、インポートするアイテムの選択、およびタグの管理を行うことができます。

1.1.1.10.4 LDAP統合

Lightweight Directory Access Protocol (LDAP)は、様々な業界で使用されているオープン・ソース・アプリケーションです。このアプリケーション・プロトコルは、インターネット・プロトコル(IP)を使用し、分散ディレクトリ情報サービスをネットワーク経由で取得および保持するために使用されます。

Oracle Stream Analyticsでは、Jetty OSAでLDAPサポートを使用します。この機能では、認証/ユーザー管理にディレクトリ情報サービスを使用できます。認証/ユーザー管理は、内部LDAPまたは外部LDAPを介して行うことができます。

1.1.1.10.5 Coherence POJO

Oracle Stream Analytics 19.1を使用すると、キャッシュ値がPOJOとして格納されているCoherenceキャッシュの参照がサポートされます。現行のサポートでは、キャッシュ値はMap<String, Object>として含まれます。Oracle Stream Analyticsアプリケーションでは、ストリーム・データをPOJOデータでエンリッチできます。

1.1.1.10.6 フィルタでのIN演算子のサポート

IN演算子は、Oracle Stream Analyticsのアプリケーションの様々なステージで、フィルタに使用できます。このオプションは、任意のフィルタを適用するドロップダウン・リストで演算子として使用できます。

1.1.1.10.7 マルチホスト型Coherence

Oracle Stream Analyticsでは、Coherence接続の作成時に複数のホストを構成できるようになりました。Coherence接続アプリケーションでは、複数のサーバーURLを指定できるようになりました。

Oracle Stream Analyticsでは、CoherenceキャッシュでPOJOおよびMapをサポートします。

1.1.1.10.8 Web層のHA

Oracle Stream Analytics 19.1は、そのWeb層の高可用性をサポートしています。Oracle Stream Analytics 19.1 We層の予想される負荷に基づいて、Web層を実行する複数のホストを構成し、NGNIXをロード・バランサとして使用してOSA Web層の高可用性を構成できるようになりました。

1.1.1.10.9 Googleタイル・レイヤー

Oracle Stream Analyticsでは、空間パターンやビジュアライゼーションにGoogleマップを表示するGoogleタイル・レイヤーのサポートが追加されています。Googleタイル・レイヤーは、「マップ」タブの「ユーザー・プリファレンス」で構成できます。

ノート:

Googleマップ・タイル・レイヤーを使用するには、マップの使用方法が、Googleによって定義されているサービス条件(http://code.google.com/apis/maps/faq.html#tos)に適合する必要があります。

1.1.2 既知の問題と回避策

この項では、Oracle Stream Analyticsリリースの既知の問題および回避策を示します。

1.1.2.1 リリース19.1.0.0.8 - 既知の問題

この項では、GoldenGate Stream Analyticsリリース19.1.0.0.8の既知の問題および回避策を示します。

1.1.2.1.1 DBターゲットの編集で、表内の更新/追加された列の検出に失敗する

問題

DB表の列に対する変更が、DBターゲットの編集ダイアログ・ボックスに反映されません。

回避策

DBに複数の表が作成されている場合は、DBターゲットの編集ダイアログ・ボックスで別の表に切り替えてから、使用中の表に切り替えます。これにより、フィールドが更新されます。

表が1つのみの場合は、DBにダミー表を作成し、それらを切り替えて変更をリフレッシュします。

1.1.2.2 リリース19.1.0.0.7 - 既知の問題

この項では、GoldenGate Stream Analyticsリリース19.1.0.0.7の既知の問題および回避策を示します

1.1.2.2.1 Kafka接続のSASLプロパティがアップグレード中に移行されない

問題

GGSA環境を19.1.0.0.5.1から19.1.0.0.6.1にアップグレードした後、Kafka接続のSASLプロパティは正しく移行されず、常にfalseに設定されます。手動でプロパティをtrueに設定すると、接続内のユーザーまたはパスワード情報は失われます。

回避策

接続資格証明を手動で再構成します。

1.1.2.2.2 表示名にハイフンを含むDB参照を使用したパイプラインのエラー

問題

表示名にハイフンを含むDB参照を使用すると、パイプラインでエラーがスローされます。

回避策

Oracle DB参照の表示名には、サポートされていない特殊文字を使用しないでください。

1.1.2.2.3 REST APIエンド・ポイントの使用中にセッションの作成がエラーで失敗する

問題

cookieを保存するREST APIクライアントの使用時に、ユーザーを作成するための初回のREST APIコールは成功しましたが、ユーザーを作成するための後続のリクエストは失敗します。

回避策

保存したcookieをクライアント(Postman)から削除し、2番目のAPIコールを行います。

1.1.2.3 リリース19.1.0.0.6_MLR33750853 - 既知の問題

この項では、GoldenGate Stream Analyticsリリース19.1.0.0.6.3の既知の問題および回避策を示します

1.1.2.3.1 17を超えるパイプラインをデプロイできない

問題

17を超えるパイプラインをデプロイできません。

回避策

デフォルトのSpark設定は、最大16個のパイプラインに設定されています。この制限は変更できます:
  1. GGSAインスタンスでSSHターミナルを開きます
  2. mysql -uroot -pを実行します
  3. /home/opc/README.txtに記載されているパスワードを入力します
  4. mysql> use OSADB
  5. mysql> insert into osa_system_property (mkey,value) values('spark.port.maxRetries','40');
  6. sudo systemctl restart osaを実行してGGSAを再起動します

また、ご使用の環境で、必要な数のパイプラインに対して十分なコアおよびメモリー・リソースがSparkにあることを確認します。

1.1.2.4 リリース19.1.0.0.6_MLR33251626 - 既知の問題

この項では、GoldenGate Stream Analyticsリリース19.1.0.0.6_MLR33251626の既知の問題および回避策を示します

1.1.2.4.1 カスタムCQLステージがあるパイプラインのエクスポートの失敗

問題

カスタムCQLステージがあるパイプラインをカタログからエクスポートすると失敗します。

回避策

なし。

1.1.2.4.2 前のステージの表示名に空白が含まれている場合にカスタムCQLステージが失敗する

問題

前のステージの表示名に空白が含まれている場合、カスタムCQLステージが失敗します。

回避策

なし。

1.1.2.4.3 Timestamp型およびInterval型がカスタムCQLステージのDouble型とText型に変更される

問題

カスタムCQLステージのCQL問合せのTimestamp型とInterval型フィールドが、それぞれDouble型とText型に変更されます。

回避策

問合せステージを追加し、データ型を元のTimestamp型およびInterval型に戻します。

1.1.2.5 リリース19.1.0.0.6_MLR32849357 - 既知の問題

この項では、GoldenGate Stream Analyticsリリース19.1.0.0.6_MLR32849357の既知の問題および回避策を示します。

1.1.2.5.1 マーケットプレイス・インスタンスでIgniteキャッシュおよび完全なレコードが無効化される

問題

GGSAマーケットプレイス・インスタンスでは、次の機能は無効になります:
  • Igniteキャッシュ
  • 完全なレコードの生成(GGストリームの作成中)

回避策

なし。

1.1.2.5.2 マーケットプレイスで無効化されたDB参照のキャッシュの有効化

問題

DB参照を作成する際、GGSAマーケットプレイス・インスタンスでは、「キャッシュの有効化」オプションはサポートされていません。

回避策

なし。

1.1.2.6 リリース19.1.0.0.6 - 既知の問題

この項では、GoldenGate Stream Analyticsリリース19.1.0.0.6の既知の問題および回避策を示します。

1.1.2.6.1 パイプライン内の複数のHDFSターゲットの問題

問題

GGSAで、異なるHDFSクラスタを使用している場合、同じパイプライン内の複数のHDFSターゲット(Azure Datalake、HDFSターゲット・タイプも含む)がサポートされていません。

回避策

HDFSターゲット・タイプに個別のパイプラインを作成します。

1.1.2.6.2 SSL認証のMONGODBテスト接続が失敗する

問題

MongoDB接続がクライアントURI接続タイプおよびSSL認証メカニズムを使用して作成されている場合、GGSA Jettyサーバーは証明書およびパスワードを更新しません。テスト接続の結果は、最初の証明書とパスワードに基づいています。後続のデータは更新されません。ただし、パイプライン・デプロイメントは正常に機能します。

回避策

有効なテスト接続結果を得るには、MongoDB接続をテストするたびにJettyサーバーを再起動します。

1.1.2.6.3 Kafkaトピック名にハイフンを含めることができない

問題

GGSAでは、パイプライン名やステージ名に-_.などの特殊文字を使用できます。ただし、Kafkaではトピック名にハイフンを使用できません。

回避策

Kafkaでトピックが作成されると、トピック名のハイフン(-)がアンダースコア(_)に置き換えられます。

1.1.2.6.4 ElasticSearchターゲットおよびSSL認証を使用したパブリッシュ時にパイプラインが失敗する

問題

SSLタイプ認証を使用するElasticSearch接続では、トラストストア資格証明とともにユーザー名とパスワードは要求されません。ただし、GGSAはGoldenGateビッグ・データ(GGBD) APIを使用してElasticSearchと通信します。GGBDには、トラストストア資格証明とともにユーザー名とパスワードを要求する実装の不具合があり、両方の入力が必須になっています。

回避策

これは既知の問題です。GGDBでこの問題が修正された場合、ユーザーはトラストストア資格証明のみを指定するか、SSL認証タイプのユーザー名とパスワードを指定するかを選択できます。

1.1.2.6.5 単一文字のターゲット証跡でGoldenGate変更データの開始に失敗する

問題

単一文字のターゲット証跡を使用して作成された場合、GoldenGate変更データの開始に失敗します。

回避策

2文字のターゲット証跡名を使用してGoldenGate変更データを作成します。

1.1.2.7 リリース19.1.0.0.5 - 既知の問題

この項では、GoldenGate Stream Analyticsリリース19.1.0.0.5の既知の問題および回避策を示します。

1.1.2.7.1 Hiveターゲットのパーティションの更新によるパイプラインの強制終了

問題

既存のHiveターゲットのパーティションを更新すると、パイプラインが強制終了され、エラーがスローされます。

回避策

パーティションを更新する際は、ターゲットの詳細ウィザードで表名、HDFSパス、HDFSスキーマ・ファイル・パスなど、その他のパラメータを更新してください。

1.1.2.7.2 シノニムが作成されないかぎり、システム設定のカスタム問合せが失敗する

問題

「システム設定」ページにあるSQL問合せ構成Oracle DBリファレンスおよびターゲットでカスタム問合せを使用すると、参照する表にアクセスできます。ただし、この方法ではパイプラインが失敗します。

回避策

名前を使用してシノニムを作成します。たとえば、ユーザーOSA1から表OSA2.REF_TBLにアクセスするには、次を使用してユーザーOSA1からシノニムを作成します
Create synonym REF_TBL for OSA2.REF_TBL
1.1.2.7.3 保護ポリシーの更新時にJettyサーバーの再起動が必要

問題

「システム設定」ページから保護ポリシーを更新した場合、jettyサーバーを再起動しないと、変更が適用されません。

回避策

「システム設定」ページでhadoop保護ポリシーを更新した場合は、jettyサーバーを再起動します。

1.1.2.7.4 Igniteターゲットを編集できない

問題

作成したIgniteターゲットを編集できません。

回避策

これは問題ではありません。これは、キャッシュ・データの破損を回避するための制限で、GGSAプラットフォームの1つのターゲットにのみ、Igniteサーバーの1つのキャッシュへの書込みが許可されます。

1.1.2.7.5 Igniteキャッシュでのキーの使用

問題

Ignite参照からの読取り時に、キーとして使用できるフィールドは1つです。そのため、Ignite参照を使用する際、パイプラインに指定できる条件は1つのみです。パイプラインで使用できるのは、条件演算子equalsのみで、条件は1つです。

回避策

なし。

1.1.2.8 リリース19.1.0.0.3 - 既知の問題

この項では、Oracle Stream Analyticsリリース19.1.0.0.3の既知の問題および回避策を示します。

1.1.2.8.1 パイプラインに複数のターゲットがある場合の重複レコード

問題

パイプラインに複数のターゲットがある場合に、1つのターゲットで障害が発生すると、障害が検出されてパイプラインが停止する前でも、データがアクティブなターゲットに書き込まれます。ターゲットの障害を解決してパイプラインを再パブリッシュすると、アクティブだったターゲット内に重複したレコードが存在することになります。

回避策

別のパイプラインを作成して、重複したレコードを受け入れないターゲットを1つのみ設定します。

1.1.2.8.2 パスワードに特殊文字が含まれる場合のADW/ATPへの接続失敗

問題

ADWおよびATPに接続しようとしたときに、DB資格証明に特殊文字が含まれていると、テスト接続とパイプライン・デプロイメントが機能しません。

回避策

パスワードを二重引用符で囲んで指定してください。たとえば、"welcome?123"です。

1.1.2.8.3 Intervalデータ型を含む参照表が使用される際のnullポインタ例外

問題

参照表では、精度が2を超えるYear to Month Intervalを含む列がサポートされません。

回避策

なし。

1.1.2.8.4 正常な停止中にドライバのNullpointerexceptionが発生

問題

正常に停止しているときにターゲットまたは参照で例外が発生すると、パイプラインのアンデプロイメントに時間がかかり、ドライバ・ログにNullPointerExceptionが記録されます。ただし、データ消失はありません。

回避策

なし。

1.1.2.8.5 「サインイン」をクリックしてログイン・ページにリダイレクト

問題

OSAインスタンスの資格証明を入力して「サインイン」をクリックしたときに、ログインできずに、ログイン・ページにリダイレクトされることがあります。

回避策

次のいずれかのオプションを試してください:

  • ウィンドウを閉じて、新しいウィンドウでOSAインスタンスを開きます。

  • ブラウザでキャッシュとCookieを消去します。

  • JSESSIONID Cookieを消去します。

    ChromeブラウザでCookieを消去するには、右上隅にある3つの点をクリックします。「その他のツール」「デベロッパー ツール」「Application」タブを選択します。「Storage」の下で「Cookies」を展開します。OSA URLを選択してJESSIONID Cookieを消去します。

1.1.2.8.6 JNDIタイプのテスト接続がJettyサーバーで機能しない

問題

JNDIタイプの接続を作成して、JNDIプロバイダをWeblogicとして使用する場合、「テスト接続」は機能しません。

回避策

JNDI接続の詳細が正しいことを確認します。JNDI接続を使用するパイプラインは予期したとおりに動作します。

1.1.2.8.7 正常な停止の進行中にパイプラインを再パブリッシュ

問題

パイプラインのパブリッシュを取り消して同じものを再パブリッシュすると、次の例外が発生します:

OSA-01213 Pipeline deployment has failed. Creating container has failed.

同じ名前のパイプラインがすでに実行しているかどうかを確認します。パイプラインの正常な停止が完了するまでに時間がかかり、パブリッシュの取消しアクションがまだ実行中である可能性があります。

回避策

パイプラインのパブリッシュが正常に取り消されるまで待ってから、パイプラインをデプロイできます。パイプラインのステータスは、クラスタ・マネージャ(YARNまたはSparkスタンドアロン)のコンソールで確認できます。

1.1.2.8.8 入力トピックが再パーティション化される場合はオフセットをリセットしてパイプラインを再パブリッシュ

問題

入力トピックを再パーティション化する場合、パイプラインを再パブリッシュして最後に処理されたオフセットから開始することはできません。これは、内部で作成されたオフセット・トピックと入力トピックのパーティション数が同じであることが必要であるためです。

回避策

入力トピックを再パーティション化する場合は、オフセットをリセットしてパイプラインを再パブリッシュします。これにより、以前のオフセット・トピックが削除され、正しいパーティション数の新しいオフセット・トピックが作成されます。

1.1.2.8.9 秒の精度が6桁を超えるタイムゾーン付きタイムスタンプはサポートされない

問題

タイムゾーンを含み秒の精度が6桁を超える入力タイムスタンプは、サポートされません。たとえば、2020-04-21 12:29:53.998877665 +5:30は不正な日付になります。

回避策

秒の精度が6桁未満のタイムスタンプを入力します。

1.1.2.9 リリース19.1.0.0.2 - 既知の問題

この項では、Oracle Stream Analyticsリリース19.1.0.0.2の既知の問題および回避策を示します。

1.1.2.9.1 Goldengateストリームで表が切り捨てられる

Oracle Bug#30677198

問題

レコードの削除に基づくイベント処理は、すべてのTruncate TableおよびDrop Table操作で失敗します。これは既知の問題です。

回避策

なし。

1.1.2.9.2 ソース表にSDO_Geometry列がある場合にOSAから作成されたGG変更データが開始しない

Oracle Bug#30709930

問題

ソース表にSDO_GEOMETRYタイプの列がある場合、GG変更データの作成および開始に失敗します。

回避策

なし。

1.1.2.9.3 OSAでのCLOBおよびBLOB列のサポート

問題

Oracle Bug#30759814

OSAは、BLOB列型を使用したデータベース参照表をサポートしていません。

OSAはCLOB列型を使用したデータベース参照表をサポートしますが、その列にマップされたストリーム・フィールドに対して操作を定義することはできません。

回避策

なし。

1.1.2.9.4 UIではNot Null制約のあるDB表列に対するマッピングが許可されない

Oracle Bug#30542553

問題

データベース・ターゲットの追加中、UIではターゲットDB表の'not null'制約を持つ任意のフィールドにマップできます。しかし、「マッピングなし」フィールドにマップされている「Null値不可」列があるパイプラインを公開しようとすると、エラー・コードOSA-01213の例外が発生します。

これは既知の問題です。

回避策

なし。

1.1.2.10 リリース19.1.0.0.1 - 既知の問題

この項では、Oracle Stream Analyticsリリース19.1.0.0.1の既知の問題および回避策を示します。

1.1.2.10.1 DBターゲットの編集で、表内の更新/追加された列の検出に失敗する

Oracle Bug#30540965

問題

事前定義済の表とともにデータベース・ターゲットを追加してから手動で表を編集した場合、編集した表はターゲットに反映されません。これは既知の問題です。

回避策

OSAパイプラインのターゲットとして使用される表を変更した場合、変更を反映するには、パイプラインの既存のターゲットを削除し、データベース・ターゲットを再作成する必要があります。

1.1.2.10.2 基礎となる表にBLOB列がある場合にDBターゲット・ステージの追加が失敗する

Oracle Bug#30542368

影響を受けるプラットフォーム: すべて

「BLOB」または「間隔」データ型の列がある表にマップされたデータベース・ターゲットを追加する場合、ターゲットでは2つのデータ型の列が識別されません。これは既知の問題です。

回避策

この問題への対処方法はありません。BLOB列型および間隔列型のない表のみをOSAパイプラインのターゲットとして使用する必要があります。

1.1.2.10.3 ターゲットにアクセスできない場合でも、パイプラインがレコードの処理を続行する

問題

Oracle Bug#30531844

データベース・ターゲットを持つパイプラインは公開され、データベース・ターゲットが利用できない場合でもレコードの処理を続行します。これは既知の問題です。

回避策

なし

1.1.2.10.4 UIではNot Null制約のあるDB表列に対するマッピングが許可されない

Oracle Bug#30542553

問題

データベース・ターゲットの追加中、UIではターゲットDB表の'not null'制約を持つ任意のフィールドにマップできます。しかし、「マッピングなし」フィールドにマップされている「Null値不可」列があるパイプラインを公開しようとすると、エラー・コードOSA-01213の例外が発生します。

これは既知の問題です。

回避策

なし。

1.1.2.10.5 新しいターゲットへの切替え後にDBターゲット・プロパティ・マッピングを変更できない

問題

Oracle Bug#30566018

ターゲットを新しく作成したものに変更した後で、ターゲット・プロパティ・マッピングを変更することはできません。

回避策

ターゲット・ステージを削除し、新しいターゲットを指す新規ターゲット・ステージを作成します。

1.1.2.10.6 ライブ・データで表示されるタイムスタンプが入力データと異なる

Oracle Bug#30579122

問題:

ライブ・データ・ストリームでは、精度が3桁を超えるタイムスタンプを正しく解析できません。

回避策

次のサポートされている形式のリストにあるタイムスタンプ形式を使用します:

11/21/2005 11:14:23.111 "MM/dd/yyyy HH:mm:ss.SSS"

11/21/2005 11:14:23.11 "MM/dd/yyyy HH:mm:ss.SS"

11/21/2005 11:14:23.1 "MM/dd/yyyy HH:mm:ss.S"

11/21/2005 11:14:23 "MM/dd/yyyy HH:mm:ss"

11/21/2005 11:14 "MM/dd/yyyy HH:mm"

11/21/2005 11:14 "MM/dd/yyyy HH"

11/21/2005 "MM/dd/yyyy"

11-21-2005 11:14:23.111 "MM-dd-yyyy HH:mm:ss.SSS"

11-21-2005 11:14:23.11 "MM-dd-yyyy HH:mm:ss.SS"

11-21-2005 11:14:23.1 "MM-dd-yyyy HH:mm:ss.S"

11-21-2005 11:14:23 "MM-dd-yyyy HH:mm:ss"

11-21-2005 11:14 "MM-dd-yyyy HH:mm"

11-21-2005 11 "MM-dd-yyyy HH"

11-21-2005 "MM-dd-yyyy"

15-DEC-01 11.14.14.111 AM"dd-MMM-yy hh.mm.ss.SSS"

15-DEC-01 11.14.14.11 "dd-MMM-yy hh.mm.ss.SS"

15-DEC-01 11.14.14.1 "dd-MMM-yy hh.mm.ss.S"

15-DEC-01 11.14.14 "dd-MMM-yy hh.mm.ss"

15-DEC-01 11.14 "dd-MMM-yy hh.mm"

15-DEC-01 11 "dd-MMM-yy hh"

15-DEC-01 "dd-MMM-yy"

15/DEC/01 "dd/MMM/yy"

2013-10-5 15:16:0.756 "yyyy-MM-dd HH:mm:ss.SSS"

2013-10-5 15.16.0.756 "yyyy-MM-dd HH.mm.ss.SSS"

2013-10-5 15:16:0 "yyyy-MM-dd HH:mm:ss"

2013-10-5 15.16.0 "yyyy-MM-dd HH.mm.ss"

2013-10-5 15:16 "yyyy-MM-dd HH:mm"

2013-10-5 15.16 "yyyy-MM-dd HH.mm"

2013-10-5 15 "yyyy-MM-dd HH"

2012-11-10 "yyyy-MM-dd"

11:14:14 "HH:mm:ss"

"yyyy-MM-dd'T'HH:mm:ss'.'SSS"

"yyyy-MM-dd'T'HH:mm:ss"

1.1.2.10.7 ログ・レベル設定がオープンJDKで機能しない

Oracle Bug#30611896

問題

回避策

Oracle JDKのかわりにOpen JDKを使用する場合、パイプラインの公開時にログ・レベルを設定することはできません。ログ・レベル設定はデフォルトでINFOになります。

なし

1.1.2.11 リリース19.1.0.0.0 - 既知の問題

この項では、Oracle Stream Analyticsリリース19.1.0.0.0の既知の問題および回避策を示します。

1.1.2.11.1 HAが有効になっているときにバッチ遅延が増加する

Oracle Bug#27754912

影響を受けるプラットフォーム: すべて

パイプラインの公開中、HAを有効にすると、バッチ・スケジュールの遅延が見られることがあります。これは既知の問題です。

回避策

回避策はありません

1.1.2.11.2 ライブ出力表に含まれる行が1行の場合、ドロップダウン・リストの値が表示されない

Oracle Bug#27473663

影響を受けるプラットフォーム: すべて

ライブ出力表に含まれる行が1行の場合、ドロップダウン・リスト内の値の全部は表示されません。これは既知の問題です。

回避策

水平方向の分割線を引き上げて、表示される表部分を増やします。

1.1.2.11.3 CoherenceキャッシュでSDO_GEOMETRYがサポートされない

問題

Oracle Bug#27480822

影響を受けるプラットフォーム: すべて

Coherenceキャッシュでは、SDO_GEOMETRYへのデータ型変換はサポートされていません。これは制限事項です。

回避策

回避策はありません

1.1.2.11.4 パターンでイベントを正しく検出できない

問題

Oracle Bug#25132943

影響を受けるプラットフォーム: すべて

基礎となるSpark Streamingでバッチ実行時間を1秒として構成した場合、パターン一致句は、1秒以内の間隔で正しく発生しているイベントを検出できません。これは制限事項です。

回避策

回避策はありません

1.1.2.11.5 テキスト・フィールドのデフォルト文字列制限

Oracle Bug#27701535

影響を受けるプラットフォーム: すべて

パイプライン内のテキスト・フィールドのサイズには制限があります。1024文字を超えるテキスト・フィールドは処理されません。

1.1.2.11.6 予測モデルの制限付きサポート

予測モデルのインポートおよびスコアリングには、ドキュメント化されていない制限が含まれている可能性があります。これらはそのまま使用してください。

1.1.2.11.7 エグゼキュータのクラッシュ後にHAシナリオでイベントが失われる可能性がある

Oracle Bug#29697956

影響を受けるプラットフォーム: すべて

エグゼキュータは起動して実行されているが、CQLエンジンがまだブートストラップされていない場合に到着したイベントでは、タスクが失敗する可能性があります。デフォルトでは、Sparkによって各タスクが3回試行された後、そのタスクが失敗として報告されます。これは既知の問題です。

回避策

回避策はありません。

1.1.2.11.8 相関パターンでnumberデータ型はサポートされない

Oracle Bug#29801715

影響を受けるプラットフォーム: すべて

相関パターンでは、numberデータ型はサポートされません。そのため、相関パターンにNumber型のパラメータを選択すると、Sparkログ・ファイルに例外がスローされます。回避策として、int、float、doubleまたはbigintデータ型を使用するか、numberデータ型にtoDouble関数を適用して相関パターンで使用します。

回避策

回避策として、int、float、doubleまたはbigintデータ型を使用するか、numberデータ型にtoDouble関数を適用して相関パターンで使用します。

1.1.2.11.9 SparkのREST送信サーバーが無効化されている

Oracle Stream Analyticsは、Sparkスタンドアロン・クラスタで構成されている場合に、REST送信サーバーを使用してパイプラインをデプロイします。Spark 2.4.0以降のバージョンでは、REST送信サーバーがデフォルトで無効化されています。

スタンドアロン・クラスタのSpark REST送信サーバーを確認または有効化してください。Spark REST送信サーバーを有効にするには、クラスタの起動時に、プロパティspark.master.rest.enabledTrueに設定します。たとえば、クラスタを起動する前に、Sparkのデフォルト構成ファイル${SPARK_HOME}/conf/spark-defaults.confに追加する方法があります。詳細は、Sparkのドキュメントを参照してください。

1.1.2.11.10 JMSストリームの使用時にクラスのロードに失敗する

Oracle Bug#29022250

影響を受けるプラットフォーム: すべて

永続サブスクリプションを持つJMSストリームの使用時に、次のエラーが発生する可能性があります: FAILED TO LOAD CLASS WEBLOGIC.JMS.COMMON.INVALIDCLIENTIDEXCEPTION。これは、JMS永続サブスクリプションが排他的であることと、既存のパイプラインでサブスクリプションが作成済であることが原因です。

回避策

別のクライアントIDまたはサブスクリプション名を使用するようにストリームの設定を変更するか、JMSサブスクライバを実行する不要なパイプラインを中断します。

1.1.2.11.11 一部の特殊なルール構成では出力イベントが表示されない

Oracle Bug#29015898

影響を受けるプラットフォーム: すべて

ルール・ステージで、すでにルールによって設定されている値を別のルールで変更すると、ライブ出力表にイベントは表示されません。

回避策

この問題に対処するには、別のルール・ステージを作成します。

1.1.2.11.12 エグゼキュータ・フェイルオーバーのOBRが含まれるパイプラインで出力イベントが順序付けされない

Oracle Bug#29112584

影響を受けるプラットフォーム: すべて

異なるパーティション間でのイベントの順序付けは保証されません。イベントは同じパーティション内で順序付けられます。

回避策

回避策はありません。

1.1.2.11.13 問合せグループ→表ステージが特定のウィンドウ・タイプで機能しない

Oracle Bug#29795496

影響を受けるプラットフォーム: すべて

問合せグループ→表ステージは、「定数値」、行(スライドなし)および「現在」ウィンドウ・タイプでは機能しません。問合せグループまたは表ステージで前述のウィンドウ・タイプに基づいてグループを追加すると、パイプラインが壊れた状態でレンダリングされ、次のUIエラーが表示されます: パイプラインの開始に失敗しました。 : 未検出の例外。 : 構文エラー。予約されたCQLキーワードの使用方法が無効です: "on"

回避策

問合せグループから別のステージを作成し、その新しいステージで「グループ」および「定数値」ウィンドウを構成します。

1.1.3 修正された問題

この項では、リリースで修正されたすべての問題をリストします。

1.1.3.1 リリース19.1.0.0.8 - 修正済の問題

この項では、GoldenGate Stream Analyticsリリース19.1.0.0.8で修正された問題をリストします。

1.1.3.1.1 SSHトンネリングを使用したGGSAマーケットプレイス・インスタンスへのログインがIndex.htmlページにリダイレクトされない

Oracle Bug#34529208

この問題はリリース19.1.0.0.8で解決されました。

1.1.3.2 リリース19.1.0.0.5 - 修正済の問題

この項では、GoldenGate Stream Analyticsリリース19.1.0.0.5で修正された問題をリストします。

1.1.3.2.1 ターゲットにアクセスできない場合でも、パイプラインでレコードの処理が継続される

修正

データベース・ターゲットにアクセスできない場合、パイプラインは終了します。

1.1.3.2.2 エグゼキュータのクラッシュ後にHAシナリオでイベントが失われる可能性がある

この問題は19.1.0.0.5リリースで解決されました。

1.1.3.3 リリース19.1.0.0.3 - 修正済の問題

この項では、Oracle Stream Analyticsリリース19.1.0.0.3で修正された問題をリストします。

1.1.3.3.1 基礎となる表にInterval型の列がある場合にDBターゲット・ステージの追加が失敗する

修正

データベース・ターゲット表で、Interval型の列を使用できます。

1.1.3.3.2 ライブ・データで表示されるタイムスタンプが入力データと異なる

Oracle Bug#30579122

修正

秒の精度が3桁を超えるタイムスタンプを入力できますが、入力タイムスタンプはミリ秒の精度に切り捨てられます。

"yyyy-MM-dd'T'HH:mm:ss'.'SSSSSSSが、yyyy-MM-dd'T'HH:mm:ss'.'SSSに切り捨てられます

1.1.3.4 リリース19.1.0.0.2 - 修正済の問題

この項では、Oracle Stream Analyticsリリース19.1.0.0.2で修正された問題をリストします。

1.1.3.4.1 基礎となる表にBLOB列がある場合にDBターゲット・ステージの追加が失敗する

Oracle Bug#30542368

修正

データベース・ターゲット表で、CLOB列およびBLOB列を使用できます。テキスト・フィールドをマップすることも、これらの列にマッピングを指定しないこともできます。

1.1.3.5 リリース19.1.0.0.1 - 修正済の問題

この項では、Oracle Stream Analyticsリリース19.1.0.0.1で修正された問題をリストします。

1.1.3.5.1 ライブ出力ストリーム表に1行がある場合にドロップダウン・リストに完全な値が表示されない

Oracle Bug#27473663

修正

ライブ出力表の列のすべての右クリック・メニュー・オプションでスクロール・バーが表示されるようになりました。

1.1.4 不具合の修正と機能拡張

この章では、特定のリリースの不具合修正および機能拡張について説明します。

Bug番号は、BugDBチケットの番号です。特定のチケットまたは問題に関する不明点は、Oracleサポートにお問い合せください。

1.1.4.1 リリース19.1.0.07_MLR36064807 - 2023年12月

CQLエンジンのスループット効率

複数のエグゼキュータでマルチ問合せステージ・パイプラインを実行している間、ソース・パーティションとエグゼキュータがパーティション数に応じて増加し、スループット効率が線形的に向上することはありません。

この問題は修正されています。

1.1.4.2 リリース19.1.0.07_MLR35766877 - 2023年9月

1.1.4.2.1 SCRAM-SHA-256およびSCRAM-SHA-512に対するKafka SASLのサポート
SASLを使用したKafka接続では、次のセキュリティ設定がサポートされます:
  • セキュリティ・プロトコル: SASL_PLAINTEXT
  • セキュリティ・メカニズム:
    • SCRAM-SHA-256
    • SCRAM-SHA-512

1.1.4.3 リリース19.1.0.0.6_MLR33750853 - 2022年1月

Oracle Bug#33675135 - MARKETPLACEインスタンス内のDBに事前シードされているKAFKAブートストラップ・ポートの修正

問題

本番Kafkaクラスタの作成時に使用されるユーティリティであるinit-web-tier.shは、Kafkaブローカ・ポートのデフォルトを9092ではなく2181に設定しました。

修正

ポートを2181から9092に更新します。

Oracle Bug#33388524: MARKETPLACEインスタンス上の通知ターゲット(ONS)への書込みが、ライブラリ・バージョンの競合エラーによって失敗する

この問題は修正されています。

Oracle Bug#33617140: CQLステージがあるパイプラインをエクスポートできない

カスタムCQLステージがあるパイプラインのエクスポートに失敗する問題が修正されました。

Oracle Bug#33638523: RESTターゲットでカスタム・ヘッダーを使用してコンテンツ・タイプをリセットできない

この修正では、カスタム・ヘッダーが設定される前にデフォルトのコンテンツ・タイプを設定します。

Oracle Bug#33688240: 表示名に空白があるKAFKAソースを持つパプラインをパブリッシュできない

この問題は修正されています。表示名にスペースがあるKafkaソースを持つパイプラインをパブリッシュできます。

Oracle Bug#33692708: JSON_ROW形式を使用したOCIオブジェクト・ストレージ・ターゲットへの書込み時の例外

修正では、includeColumnNamesおよびdisableescapingフィールドを無効化します。

Oracle Bug#33728331: CVE-2021-44832: APACHE LOG4Jを少なくとも2.17.1に更新

問題

CVE-2021-44832

修正

Apache Log4jを2.17.1にアップグレードします。

Oracle Bug#33592687: パイプラインは、GGSAログに例外またはエラー・メッセージを記録せずに終了する。

この修正では、GGSAランタイムでロギングをLog4j 2からLog4j 1.2.17-16に戻します。

1.1.4.4 リリース19.1.0.0.6_MLR33251626 - 2021年9月

Oracle Bug#33172932: パイプラインが複数のエグゼキュータにデプロイされるとタプルがなくなる

パイプラインが複数のエグゼキュータにデプロイされるとタプルがなくなる問題は修正されました。

Oracle Bug#33193157: Kafkaターゲットで、ブートストラップ・サーバーを使用して構成されたKafka接続が使用されると、Druidキューブの作成が失敗する

KafkaターゲットでブートストラップKafka接続が使用されると、Druidキューブの作成が失敗する問題は修正されました。

Oracle Bug#32964239: ソフト例外と実行時例外でパイプラインの終了に違いがある

問題

入力データに互換性がない場合、パイプラインが終了します

修正

要件に基づいて、パイプラインを終了することも、エラーのあるデータを削除して続行することも可能です。OSA_SYSTEM_PROPERTY表のosa.continueon.data.exceptionフラグを更新します。
  • フラグがtrueに設定されている場合、パイプラインは実行を続行し、問題のあるイベントは削除されます。
  • フラグがfalseに設定されている場合、パイプラインは終了します。
  • デフォルトでは、この値はtrueに設定されています。

Oracle Bug#32964187: 例外が発生した場合にパイプラインの続行または終了が可能な構成パラメータの問題

問題

入力データに互換性がない場合、パイプラインが終了します

修正

要件に基づいて、パイプラインを終了することも、エラーのあるデータを削除して続行することも可能です。OSA_SYSTEM_PROPERTY表のosa.continueon.data.exceptionフラグを更新します。
  • フラグがtrueに設定されている場合、パイプラインは実行を続行し、問題のあるイベントは削除されます。
  • フラグがfalseに設定されている場合、パイプラインは終了します。
  • デフォルトでは、この値はtrueに設定されています。

Oracle Bug#32990445: Igniteサーバーが間違った数のワーカー・ノードを計算している。

Igniteサーバーが間違った数のワーカー・ノードを計算している問題は修正されました。

Oracle Bug#33208855: 入力データの例外が原因で停止されたオフセットを含むパイプラインを再パブリッシュできない

オフセットの先頭のデータにエラーがあるパイプラインの再パブリッシュに関連する問題は修正されました。

Oracle Bug#33236693: システム・プロパティSPARK.STREAMING.EXCEPTION.ISTERMINATEがFALSEに設定される問題

OSA_SYSTEM_PROPERTY表のspark.streaming.exception.isTerminateをFALSEに設定しても、例外が発生した場合にパイプラインの実行が継続されない問題は修正されました。

Oracle Bug#33272967: バッチのイベントに問題があるとバッチ全体が削除される

問題

spark.streaming.exception.isTerminateがfalseに設定されていても、Oracle DB表に挿入できないレコードがあると、バッチ全体がスキップされます。

修正

OSA_SYSTEM_PROPERTY表でosa.jdbc.switchtononbatch.insertをtrueに更新すると、挿入に失敗したエラーのあるデータのみをスキップできます。

1.1.4.5 リリース19.1.0.0.6_MLR32849357 - 2021年6月

Oracle Bug#32845653: JSON出力でのTOJSONパターンの拡張

フィールド・マッピング用のJSONパスの推測に使用されるサンプルJSONファイルをアップロードするようにToJsonパターンが拡張されました。

Oracle Bug#32647810: CQLENGINEでの文字列長の拡張

文字列型の属性に対する1024文字のCQLEngine制限が修正されました。4096文字を許可するように属性の長さを増やしました。

Oracle Bug#32820171: TOJSONパターンでのバッチ処理の有効化の選択時にNULL値が表示される

ToJsonパターンをイベント・ストリームに追加した後に「バッチの有効化」オプションをクリックすると、ライブ出力表に新しいイベント値がnullと表示される問題が修正されました。

Oracle Bug#32845715: デリミタ付き列ヘッダーを無視して文字のエスケープを無効化するように修正

GGBDハンドラを使用してデリミタ付きテキストを記述する際に、列ヘッダーを無視するオプションを有効にしました。この修正により、JSON文字列をデリミタ付きテキストとして記述する際の文字のエスケープも無効になります。

Oracle Bug#32846444: JDBCシンク問合せタイムアウトの構成可能化

JDBCシンク問合せタイムアウトをosa_system_property表の構成可能なパラメータとして設定します。osa_system_property表に挿入する必要があるプロパティは、mkey=com.oracle.cep.adapters.jdbc.JdbcSink.QueryTimeoutです。

Oracle Bug#32850867: OSAインストーラがORACLE DBメタデータ・ストアで失敗する

Oracleメタデータ・ストアの構成中にパスワードに'@'などの特殊文字が含まれると、メタデータ・ストア・ユーザーの作成が失敗する問題が修正されました。メタデータ・ストアのパスワードは、jetty-osa-datasource.xmlファイルで構成されているパスワードです。

Oracle Bug#32870972: FIELD_PATHとFIELD_NAMEが異なる場合にKAFKAターゲットへの書込みが失敗する

field_pathfield_nameが異なる場合のKafkaターゲットへの書込みの失敗の問題が修正されました。

Oracle Bug#32872055: OSA内部トピックへのオフセットのコミット時のNULLPOINTEREXCEPTIONとNOSUCHELEMENTEXCEPTION

OSA内部トピックへのオフセットのコミット中に発生するNullPointerExceptionおよびNoSuchElementExceptionの問題を修正しました。

Oracle Bug#32853397: STREAM ANALYTICSでパイプラインの開始に失敗する。: 未検出の例外。: 1024

パイプラインの構成時の「パイプラインの開始に失敗しました。: 未検出の例外。: 1024」エラーが修正されました。

Oracle Bug#32894915: KAFKA GROUPAUTHORIZATIONEXCEPTION: グループへのアクセスが認可されない

エラー「GroupAuthorizationException: Not authorized to access group」でグループの問題にアクセスするためのユーザー認可の問題が修正されました。

Oracle Bug#32887340: データベース・ターゲット・タイプで列の削除が可能になる

データベース・ターゲット・タイプで列を削除できるようにUIを修正しました。実行時に、挿入文は形状内の列のみを指定します。

Oracle Bug#32754024: デバイスに領域がない - SPARK作業ディレクトリの変更

この修正は、Spark作業ディレクトリの変更後に正しいパイプライン・ステータスが反映されるようにするためです。

Spark作業ディレクトリを変更するには:

  1. Sparkサービスを停止します:
    1. sudo systemctl stop spark-slave.service
    2. sudo systemctl stop spark-master.service
  2. u02の下に作業ディレクトリを作成します:
    1. /u02に移動します
    2. sudo mkdir spark.ここで、sparkは作業フォルダ名です。任意の名前でフォルダを作成できます。
    3. chmod 777 sparkを実行して、権限を変更します。
  3. spark-env.shを編集します
    1. SPARK_HOME/confに移動し、spark-env.shを編集します
    2. /u02の下に新しく作成されたフォルダを指すように、spark-env.shファイルの末尾にSPARK_WORKER_DIR=/u02/sparkを追加します
  4. Sparkサービスを開始します:
    1. sudo systemctl start spark-master.service
    2. sudo systemctl start spark-slave.service

    パイプラインを再度パブリッシュすると、/u02/sparkの下にアプリケーションおよびドライバのデータ(ファイルおよびログ)が表示されます。

Oracle Bug#32873823: OSAインストーラがADWメタデータ・ストアでエラー・コードORA-64308を表示して失敗する

SQLスクリプトseedSchema-19.1.0.0.6.sqlの実行中に、OSAのインストールがADWメタデータ構成で失敗し、エラーORA-64308: 「Hybrid Columnar圧縮表には、LONGデータ型の列を使用できません」が発生する問題を修正しました。

1.1.4.6 リリース19.1.0.0.5_MLR32849350 - 2021年5月

Oracle Bug#32251429: 複数のターゲットを持つパイプライン・デプロイメントの問題

複数のターゲットを持つパイプラインのパイプライン・デプロイメントの失敗の問題を修正しました。

Oracle Bug#32251367: SSL対応KAFKA設定でのホット・デプロイの問題

Kafkaシステム設定でSSLが有効になっている場合に、パイプラインのホット・デプロイメントがSparkExceptionで失敗する問題が修正されました。

Oracle Bug#32613021: ネストしたJSONにNULL値がある場合にパイプラインが終了する

ネストした入力JSONデータにnull値がある場合のパイプラインの終了が修正されました。

Oracle Bug#32647925: DBターゲットと参照のパフォーマンスの問題

データベース・ターゲットおよび参照への書込み中の検証パフォーマンスが向上しました。

Oracle Bug#32647546: NULL値のあるJSONで、OCIターゲットへの書込みが失敗する

入力JSONデータにnull値がある場合に、OCIターゲットへの書込み中にパイプラインがNullPointerException例外で失敗する問題が修正されました。

Oracle Bug#32712524: レコードに発音区別記号がある場合、RESTエンドポイントへの書込み中にパブリッシュされたパイプラインが強制終了される

入力JSONのデータに発音区別記号付きの文字列値ě¿čř¿ýáíé (有効なUTF-8文字)が含まれている場合に、RESTターゲットへの書込み中にパブリッシュされたパイプラインが強制終了される問題が修正されました。

Oracle Bug#32375359 - ビッグ10進の丸め時の必要な例外

入力されたJSONに56を超えるスケールのビッグ10進値が含まれている場合に、パイプラインがNullPointerExceptionで失敗する問題が修正されました。サポートされているデフォルトの精度およびスケールが64になりました。

Oracle Bug#32669536: 現在と前のパターンで間違った問合せが生成される

現在と前のイベント・パターンで複数のパーティション・フィールドが選択された場合に間違った問合せが生成される問題が修正されました。

Oracle Bug#32846444: JDBCシンク問合せタイムアウトの構成可能化

JDBCシンク問合せタイムアウトをosa_system_property表の構成可能なパラメータとして設定します。osa_system_property表に挿入する必要があるプロパティは、mkey=com.oracle.cep.adapters.jdbc.JdbcSink.QueryTimeoutです。

Oracle Bug#32850867: OSAインストーラがORACLE DBメタデータ・ストアで失敗する

Oracleメタデータ・ストアの構成中にパスワードに'@'などの特殊文字が含まれると、メタデータ・ストア・ユーザーの作成が失敗する問題が修正されました。メタデータ・ストアのパスワードは、jetty-osa-datasource.xmlファイルで構成されているパスワードです。

Oracle Bug#32872055: OSA内部トピックへのオフセットのコミット時のNULLPOINTEREXCEPTIONとNOSUCHELEMENTEXCEPTION

OSA内部トピックへのオフセットのコミット中に発生するNullPointerExceptionおよびNoSuchElementExceptionの問題を修正しました。

Oracle Bug#32887340: データベース・ターゲット・タイプで列の削除が可能になる

データベース・ターゲット・タイプで列を削除できるようにUIを修正しました。実行時に、挿入文は形状内の列のみを指定します。

Oracle Bug#32754024: デバイスに領域がない - SPARK作業ディレクトリの変更

この修正は、Spark作業ディレクトリの変更後に正しいパイプライン・ステータスが反映されるようにするためです。

Spark作業ディレクトリを変更するには:

  1. Sparkサービスを停止します:
    1. sudo systemctl stop spark-slave.service
    2. sudo systemctl stop spark-master.service
  2. u02の下に作業ディレクトリを作成します:
    1. /u02に移動します
    2. sudo mkdir spark.ここで、sparkは作業フォルダ名です。任意の名前でフォルダを作成できます。
    3. chmod 777 sparkを実行して、権限を変更します。
  3. spark-env.shを編集します
    1. SPARK_HOME/confに移動し、spark-env.shを編集します
    2. /u02の下に新しく作成されたフォルダを指すように、spark-env.shファイルの末尾にSPARK_WORKER_DIR=/u02/sparkを追加します
  4. Sparkサービスを開始します:
    1. sudo systemctl start spark-master.service
    2. sudo systemctl start spark-slave.service

    パイプラインを再度パブリッシュすると、/u02/sparkの下にアプリケーションおよびドライバのデータ(ファイルおよびログ)が表示されます。