1.1 GoldenGate Stream Analyticsリリース・ノート
このドキュメントには、GoldenGate Stream Analytics 19.1の新機能、既知の問題、修正済の問題など、リリースに関する情報が含まれています。
製品をインストールまたは使用する前に、このドキュメントを確認することをお薦めします。
1.1.1 新機能と改善点
この項では、リリースで追加された新機能のリストを示します。
1.1.1.1 リリース19.1.0.0.8 - 2023年8月
この項では、GGSA 19.1.0.0.8の新機能およびアップグレードを示します。
1.1.1.1.1 SparkおよびKafkaバージョンのアップグレード
19.1.0.0.8から、SparkおよびKafkaライブラリ・バージョンは3.4.0にアップグレードされます。
ライブラリのダウンロードおよびGGSAのインストールの詳細は、GoldenGate Stream Analyticsのインストールに関する項を参照してください。
1.1.1.2 リリース19.1.0.0.7 - 2022年3月
この項では、GGSA 19.1.0.0.7に追加された新機能を示します。
1.1.1.2.1 パブリックREST API
パイプライン管理およびユーザー管理用に次のパブリックREST APIが追加されました:
パイプライン管理
- エクスポート
- インポート
- リスト
- パブリッシュ
- パブリッシュ解除
ユーザー管理
- 作成
- リスト
- 取得
- 更新
GoldenGate Stream AnalyticsのREST APIを参照してください。
1.1.1.2.2 カスタム・ステージ・パススルー入力
カスタム・ステージ・パススルー入力
カスタム・ステージ・パススルー入力は、カスタム・ステージ・クラスのoutputspec
で定義されている属性に加えて、パイプライン内の前のステージのすべての属性をパススルーするためにサポートされています。この機能を有効にするには、オプションのパラメータcanPassThroughInput=true
を追加します。
このパラメータを設定しない場合、デフォルトでfalseに設定され、outputspec
で定義されている属性のみがカスタム・ステージで出力されます。PassThroughInput
を実装するには、EventSpecAccessor
を実装してsetoutputspec
からoutputspec
を設定し、indexesToCopy
を取得して前のステージの属性の値を設定する必要もあります。
1.1.1.3 リリース19.1.0.0.6_MLR33682853 - 2021年12月
このリリースではセキュリティ脆弱性に対処しています:
CVE-2021-44228およびCVE-2021-45046
Oracleでは、このセキュリティ修正を含めるために、GoldenGate Stream Analyticsのこのパッチにアップグレードすることをお薦めします。
1.1.1.4 リリース19.1.0.0.6_MLR33251626 - 2021年9月
この項では、GGSA 19.1.0.0.6_MLR33251626に追加された新機能を示します。
1.1.1.5 リリース19.1.0.0.6 - 2021年4月
この項では、GGSA 19.1.0.0.6バンドル・パッチ・リリースに追加された新機能を示します。
1.1.1.5.1 Kafka MTLSのサポート
GGSAは、ユーザーとKafkaブローカ間の双方向認証をサポートします。ユーザーは、「システム設定」でブートストラップURL、SSLトラストストアおよびキーストア情報を指定することでMTLS認証を有効にできます。ユーザーはKafka接続の作成中にMTLS対応Kafka設定に接続できます。
1.1.1.5.2 GoldenGateの完全なレコード
GoldenGate Extractプロセスは、構成パラメータに応じて完全なデータ・レコードまたはトランザクション・データの変更を取得します。トランザクション・データベースに対するオーバーヘッドまたはパフォーマンスの影響を最小限に抑えるために、GGSAユーザーは、トランザクションの変更のみを取得するようにExtractを構成します。これにより、ネットワーク経由で転送する必要があるペイロード・サイズを削減し、パフォーマンスとセキュリティを向上させることもできます。ただし、一部の顧客は、変更されていない列(完全なデータ・レコード)も必要とするため、最新のデータ・フィードを必要とするプロセスでそれらを使用できるようにしたり、このデータを分析のために様々なビッグ・データ・ターゲットにレプリケートできるようにします。
完全なデータ・レコード(すべてのフィールドの値)のストリーミングを有効にするために、GGSAでは、GoldenGateストリームの作成時に完全なレコードの生成オプションが提供されます。このオプションを有効にすると、単一行、サブセットまたは行のすべての列に対して行われたデータベース・トランザクションの変更に関係なく、すべてのレコードがストリームされます。
1.1.1.5.5 Oracle Machine Learningサービス・パターン(プレビュー機能)
Oracle Machine Learning (OML)サービス・パターンを使用し、OMLモデルを使用して、収集されたイベントにスコアリングを適用します。
1.1.1.5.6 内部Kafkaトピック
GGSAで使用される内部KafkaトピックおよびグループIDは、次のネーミング規則に従って標準化されます:
Kafkaトピック
トピック | リソース | 操作 |
---|---|---|
sx_backend_notification_<UUID> |
トピック | CREATE、DELETE、DESCRIBE、READ、WRITE |
sx_messages_<UUID> |
トピック | CREATE、DELETE、DESCRIBE、READ、WRITE |
sx_<application_name>_<stage_name>_public |
トピック | CREATE、DELETE、DESCRIBE、READ、WRITE |
sx_<application_name>_<stage_name>_draft |
トピック | CREATE、DELETE、DESCRIBE、READ、WRITE |
sx_<application_name>_public_<offset_number>_<stage_name>_offset |
トピック | CREATE、DELETE、DESCRIBE、READ、WRITE |
グループID
グループID | リソース | 操作 |
---|---|---|
sx_<UUID>_receiver |
グループ | DESCRIBE、READ |
sx_<UUID> |
グループ | DESCRIBE、READ |
sx_<application_name>_public_<offset_number>_<stage_name> |
グループ | DESCRIBE、READ |
1.1.1.6 リリース19.1.0.0.5 - 2020年9月
この項では、GGSA 19.1.0.0.5バンドル・パッチ・リリースに追加された新機能を示します。
1.1.1.6.1 埋込みIgniteクラスタ
GGSAは埋込みIgniteキャッシュを実装しています。Igniteは、イベントを永続化するためのターゲットまたは任意のパイプラインの参照として使用できます。GoldenGateの場合、完全なレコードを含む受信イベントがパイプラインで永続化され、変更されたイベントでキャッシュが更新されて、変更された最新のレコードが使用可能になります。
Igniteクラスタは、「システム設定」ページの「キャッシュ・クラスタ」タブから起動または停止できます。
1.1.1.6.3 Ignite接続
GGSAは、埋込みIgniteキャッシュ接続と外部Igniteキャッシュ接続の両方をサポートします。
内部キャッシュは、「システム設定」ページの「キャッシュ・クラスタ」タブから有効化できます。内部キャッシュを有効化すると、すべてのSparkワーカー・ノードにIgniteクラスタが作成およびデプロイされます。
外部Igniteへの接続を作成するには、「カタログ」タブから新規接続を作成する際に、Igniteキャッシュ・タイプを選択します。保護されていないクラスタの場合は、IgniteサーバーのIPアドレスとポート番号を、保護されているクラスタの場合は、セキュリティ証明書を指定します。
1.1.1.6.4 Igniteターゲット
GGSAでは、Jsonデータを書き込むターゲットとして、Igniteがサポートおよび使用されるようになりました。
- GGSAの外部で管理される外部クラスタ
- Sparkアプリケーションとして起動され、GGSAで管理される埋込みIgniteクラスタ
1.1.1.6.5 Ignite参照
Ignite参照は、問合せステージでIgniteキャッシュ・クラスタ参照データを使用してストリーム・データを充実します。Ignite参照のデータはキーと値のペアで、キーは文字列型、値はJsonオブジェクトです。GGSAの場合、参照する問合せステージでサポートされるのは単一値等価結合のみです。
1.1.1.6.6 GoldenGateビッグ・データ接続およびターゲット
GGSAでは、新しいGoldenGateビッグ・データ接続とターゲットがサポートされています:
- OCIオブジェクト・ストア
- AWS S3
- HDFS
- Microsoft Azure Datalake Gen-2
- Hive
1.1.1.6.7 分割パターン
あるステージの単一のイベントを複数のイベントに変換するには、分割パターンを使用して、値フィールドを分割します。たとえば、ソースのjson要素またはjsonオブジェクトの配列をフラット化して個別に処理し、一部のターゲットにプッシュすることもできます。
1.1.1.6.8 キャッシュ・モニタリング
GGSAアプリケーションのホームページにある「モニター」オプションを使用して、内部(埋込み)クラスタと外部クラスタの両方でキャッシュをモニター、リセットおよびリロードできます。
1.1.1.7 リリース19.1.0.0.3 - 2020年4月
この項では、OSA 19.1.0.0.3バンドル・パッチ・リリースに追加された新機能を示します。
1.1.1.7.1 RESTターゲットでのPOSTおよびPUTメソッドの構成
RESTターゲットは、HTTPのPOSTおよびPUTメソッドを使用して、RESTエンドポイントにリクエストを送信できます。デフォルト設定はPOSTです。
1.1.1.7.2 Kafkaオフセットの変更
最も古いオフセットまたは最も新しいオフセットを使用してKafkaトピックの形状を推測
Kafkaトピックの最も古いオフセットまたは最も新しいオフセットに基づいて形状を検出します。デフォルト・オプションは「最も古い」です。このオプションは、現在トピック内で流動しているデータがない場合に使用します。
パイプラインのパブリッシュ時にユーザーによるオフセットのリセットを許可
- 入力トピック・オフセット — このドロップダウン・リストからKafkaトピック・オフセット値を選択します。リストされる値は「最も古い」と「最新」です。デフォルト値は「最新」です。パイプラインを初めてパブリッシュするとき、このドロップダウン・リストで選択したオフセット値に基づいて入力ストリームが読み取られます。それ以降のパブリッシュでは、ここで選択した値は考慮されず、前回終了したところから入力ストリームが読み込まれます。
- オフセットのリセット — このチェック・ボックスを選択すると、入力トピック・オフセット・ドロップダウン・リストで選択したオフセット値に基づいて入力ストリームが読み取られます。
ユーザーによる最初または最新のオフセットに基づいたダッシュボードの構築を許可
ダッシュボードを作成するときに、最初または最新のオフセットからダッシュボードを構築できます。使用可能なオプションは、「最新」と「最も古い」です。「最新」オプションを選択すると、ダッシュボードを開いた後で取得された新しいレコードがダッシュボードに表示されます。「最も古い」を選択すると、OSAパイプライン・トピックの最初からレコードが読み込まれます。
1.1.1.7.3 Kafkaターゲットの作成時にキー・フィールドを定義
- 複数のフィールドをキーとして選択できます
- キーの選択は必須ではありません
- キーを選択できるのは、データ形式がJSONの場合のみです
1.1.1.7.4 ToJsonパターン
toJsonパターンは、パイプラインのステージからのイベントをJSONテキストに変換します。
このパターンを使用して、複数のイベントを単一のJSON文書に変換し、OSAパイプライン・ターゲットを通じてダウンストリーム・システムに送信します。たとえば、toJsonパターン・ステージの後にデータベース・ターゲットを構成して、(単一または複数のイベントの) jsonペイロードをデータベース表に書き込むことができます。
1.1.1.7.5 条件式ビルダーの拡張
- 条件式を追加せずにブロックを作成します(後のどのステージでも追加できます)
- AND/ORを使用してブロックを結び付けます
- 複合条件を定義します。例:
1.1.1.7.6 パイプラインからの中間ステージの削除
ノート:
- ソース・ステージは削除できません。
- 中間ステージを削除すると、そのすべての子ステージも削除されます。
1.1.1.7.7 OCI通知サービス
ノート:
現在、データを公開するためにJSONデータ形式タイプのみがサポートされています。1.1.1.8 リリース19.1.0.0.2 - 2020年2月
この項では、OSA 19.1.0.0.2バンドル・パッチ・リリースに追加された新機能を示します。
1.1.1.8.1 Oracle Goldengateとの統合
Oracle Goldengate機能との統合により、Goldengateマイクロサービス・インスタンスに接続し、抽出プロセスから変更データ・ストリーム(GG変更データ)を生成できます。GG変更データを構成すると、新しいKafkaトピックが作成され、それを使用してストリームを作成できます。
1.1.1.8.2 Coherenceターゲット
OSAでは、Coherenceサーバーにデータを出力するためにCoherenceターゲットがサポートされるようになりました。出力OSAイベント(タプル)は、キャッシュ名およびユーザーが提供するCoherenceサーバーの詳細を使用して外部Coherenceクラスタにプッシュされます。
1.1.1.8.3 DBターゲット/参照およびメタデータのウォレット・サポート
Oracle Stream Analyticsユーザー・インタフェースを使用すると、ユーザーはATP/ADWデータベース接続を作成およびテストできます。
ユーザーは、このデータベース接続を使用してデータベース参照またはデータベース・ターゲットを作成できます。
1.1.1.8.4 参照用のMySQL DBのサポート
この機能により、ユーザーはOSAでMySQLデータベース表を参照として作成できます。MySQLデータベースへのJDBCベースの接続がサポートされます。
1.1.1.8.5 OCIストリーミング・サービスおよびSecure Kafkaとの統合
Oracle Stream Analyticsでは、OSSのKafka互換機能を使用したOCIストリーミング・サービスからの収集がサポートされるようになりました。
1.1.1.8.6 Oracleアドバンスト・キュー・ソース
OSAは、Oracleアドバンスト・キューからメッセージを読み取ることができます。このオプションは、一般的なJMSコネクタとして使用できます。ユーザーは、アドバンスト・キュー接続を作成し、それを使用してJMSタイプ・ストリームを作成できます。
1.1.1.8.7 安全なRESTターゲットのサポート
OSAは、SSLが有効化され、Basic認証を必要とするRESTターゲット・タイプをサポートするようになりました。
エンド・ポイントで認証が必要な場合にSSLが有効になることに加えて、カスタム・ヘッダー・フィールドとして渡すことができます。現在、OSAはBasic認証のみサポートしています。カスタム・ヘッダーの例 - Authorization Basic admin:admin
。
1.1.1.8.8 Kerberos認証
Hadoopでは、YarnベースのSparkクラスタで実行されているOSA用のKerberos認証がサポートされるようになりました。Kerberos認証を使用する場合、ユーザーは、KerberosサーバーからKerberosチケットを取得することで認証されます。
1.1.1.8.9 SSLおよび認証が有効なRESTエンドポイント
SSLが有効でBasic認証が必要な"REST"タイプのターゲットの作成: RESTエンドポイントでSSLのみが有効な場合、次のいずれかの方法で接続できます:
- トラストストア・ファイルをアップロードし、トラストストア・パスワードを入力します。トラストストア・パスワードはオプションです。
- トラストストア・ファイルとパスワードがない場合、トラスト・パスワードをクリックしてRESTエンドポイントに接続できます
ノート:
トラスト・パスワード・オプションを使用すると、信頼されていない証明書を使用して接続するため、セキュアでない接続になります。
エンド・ポイントで認証が必要な場合にSSLが有効になることに加えて、カスタム・ヘッダー・フィールドとして渡すことができます。現在、OSAはBasic認証のみサポートしています。カスタム・ヘッダーは、たとえば"Authorization Basic admin:admin"のようになります。
1.1.1.8.10 新しいデータ・パターン
OSAは4つの新しいデータ・パターンをサポートしています:
- 現在および以前のパターン - 現在および以前のイベントを自動的に関連付けます
- 遅延パターン - パイプラインのダウンストリーム・ノードへのイベント配信を指定した秒数だけ遅延させます
- 行ウィンドウのスナップショット - 新規イベントの到着時に、ウィンドウの内容全体をダウンストリーム・ノードにダンプします。ウィンドウ容量は、イベントの最大数を指定することによって制限されます。
- 時間ウィンドウのスナップショット - 新規イベントの到着時に、ウィンドウの内容全体をダウンストリーム・ノードにダンプします。ウィンドウ内のイベントは、指定された時間範囲後に失効します。
1.1.1.8.11 OSAでのバックプレッシャ
バックプレッシャは、Sparkがストリーミング・アプリケーションの安定性を確保する方法で、ストリーミング・アプリケーションが処理可能なかぎり高速にデータを受信することを意味します。
バックプレッシャ機能が有効になっている場合、現在のバッチ処理に基づいて、ダウンストリーム・コンポーネントからSpark内のアップストリーム・コンポーネントにシグナルが渡され、遅延統計がスケジューリングされます。
HAが有効かどうかに関係なく、現在はすべての公開済アプリケーションでバックプレッシャが既定で有効になっています。また、この設定は、Yarnとスタンドアロン・クラスタ・マネージャの両方で有効になります。
1.1.1.9 リリース19.1.0.0.1 - 2019年11月
この項では、OSA 19.1.0.0.1バンドル・パッチ・リリースに追加された新機能を示します。
1.1.1.9.1 カスタム・タイル・レイヤー
Oracle Stream Analyticsでは、レストランや空港などの限られたスペースの詳細で高度なズーム・ビューが必要になる特定のケースで、タイル・レイヤーのズーム・レベルをカスタマイズできるようになりました。タイル・レイヤーをカスタマイズするためにグローバル・パラメータを変更すると、マップはカスタム・タイル・レイヤーを使用するように更新されます。これらのカスタマイズは、すべてのジオフェンスに適用されます。
1.1.1.9.3 Jettyのプロパティ
- jetty.session.timeout
OSA Webセッションのタイムアウトを設定できます。
- host.headers.whitelist
x-forwarded-hostヘッダー値を、このプロパティで定義した値に制限できます。
- xforwarded.host.headers.whitelist
x-forwarded-hostヘッダー値を、このプロパティで定義した値に制限できます。
- response.headers.list
各リクエストのレスポンスとともに送信される、レスポンス・ヘッダーのカンマ区切りリスト。
1.1.1.9.4 Spark認証
Sparkスタンドアロン・サーバーのマスター・コンソールに対してユーザー認証が有効になりました。Sparkマスター・コンソールにアクセスすると、ユーザー名とパスワードの入力を求めるプロンプトが表示されます。コンソール・ページは、ログイン資格証明が正しい場合にのみロードされます。ユーザー名とパスワードは、OSAの「システム・プリファレンス」メニューから変更できます。デフォルトでは、ユーザー名およびパスワードのフィールドは空白のままです。
1.1.1.10 リリース19.1.0.0.0 - 2019年8月
この項では、OSA 19.1.0.0.0リリースに追加された新機能を示します。
1.1.1.10.1 高度なパイプライン
パイプラインとは、パイプライン・ロジックを定義する、一連のデータ処理ステージのことです。ステージは、問合せ、パターン、ルール、問合せグループ、カスタムおよびスコアリングのいずれかのタイプになります。パイプラインはストリーム・ステージで始まり、問合せやルール・パターンなど、任意のタイプの子を1つ以上持つことができます。
Oracle Stream Analytics 19.1では、アプリケーション・ロジックに応じて、任意のステージでパイプラインを複数のブランチに分割するなど、高度なパイプライン機能が導入されています。各ブランチは、1つ以上のターゲットで終了できます。これにより、中間ステージを編集すると、それに伴う変更がダウンストリーム・ステージに伝播されるなど、編集機能が強化されています。これで、任意のパイプラインですでに使用されているソースも編集できるようになりました。パイプラインを使用すると、ソースのストリームを切り替えることができ、ソースの変更に対応するために必要な修正処理が通知されます。既存のステージの出力を、パイプラインの別のステージのソースの1つとして使用することもできるようになりました。
1.1.1.10.2 サポートされるウィンドウ・タイプ
Oracle Stream Analytics 19.1のウィンドウ・サポートは、次の新しいタイプを追加して強化されています:
- 今年
- 現在の月
- 現在の日
- 現在の時間
- 現在の期間
- 定数値
- 可変範囲
- パーティション・ウィンドウ・タイプ
1.1.1.10.3 インポート/エクスポート
エクスポートおよびインポート機能を使用すると、数回のクリックにより、異なるOracle Stream Analyticsシステム間(開発システムと本番システムなど)でパイプラインとその内容を移行できます。
Oracle Stream Analytics 19.1では、ビジュアライゼーション、キューブ、ダッシュボード、スコアリング・ステージ、カスタム・ステージなど、あらゆるタイプのアーティファクトの操作がサポートされるようになりました。インポートおよびエクスポートでは、パイプラインで使用するカスタムjarも操作時に処理されます。これにより、エクスポート時に、エクスポート・バンドルの確認、アーティファクトの名前と説明の編集、およびタグの管理を行うことができます。インポート時には、インポート・バンドルの検査、インポートするアイテムの選択、およびタグの管理を行うことができます。
1.1.1.10.4 LDAP統合
Lightweight Directory Access Protocol (LDAP)は、様々な業界で使用されているオープン・ソース・アプリケーションです。このアプリケーション・プロトコルは、インターネット・プロトコル(IP)を使用し、分散ディレクトリ情報サービスをネットワーク経由で取得および保持するために使用されます。
Oracle Stream Analyticsでは、Jetty OSAでLDAPサポートを使用します。この機能では、認証/ユーザー管理にディレクトリ情報サービスを使用できます。認証/ユーザー管理は、内部LDAPまたは外部LDAPを介して行うことができます。
1.1.1.10.5 Coherence POJO
Oracle Stream Analytics 19.1を使用すると、キャッシュ値がPOJOとして格納されているCoherenceキャッシュの参照がサポートされます。現行のサポートでは、キャッシュ値はMap<String, Object>
として含まれます。Oracle Stream Analyticsアプリケーションでは、ストリーム・データをPOJOデータでエンリッチできます。
1.1.1.10.6 フィルタでのIN演算子のサポート
IN演算子は、Oracle Stream Analyticsのアプリケーションの様々なステージで、フィルタに使用できます。このオプションは、任意のフィルタを適用するドロップダウン・リストで演算子として使用できます。
1.1.1.10.7 マルチホスト型Coherence
Oracle Stream Analyticsでは、Coherence接続の作成時に複数のホストを構成できるようになりました。Coherence接続アプリケーションでは、複数のサーバーURLを指定できるようになりました。
Oracle Stream Analyticsでは、CoherenceキャッシュでPOJOおよびMapをサポートします。
1.1.1.10.8 Web層のHA
Oracle Stream Analytics 19.1は、そのWeb層の高可用性をサポートしています。Oracle Stream Analytics 19.1 We層の予想される負荷に基づいて、Web層を実行する複数のホストを構成し、NGNIXをロード・バランサとして使用してOSA Web層の高可用性を構成できるようになりました。
1.1.1.10.9 Googleタイル・レイヤー
Oracle Stream Analyticsでは、空間パターンやビジュアライゼーションにGoogleマップを表示するGoogleタイル・レイヤーのサポートが追加されています。Googleタイル・レイヤーは、「マップ」タブの「ユーザー・プリファレンス」で構成できます。
ノート:
Googleマップ・タイル・レイヤーを使用するには、マップの使用方法が、Googleによって定義されているサービス条件(http://code.google.com/apis/maps/faq.html#tos)に適合する必要があります。1.1.2 既知の問題と回避策
この項では、Oracle Stream Analyticsリリースの既知の問題および回避策を示します。
1.1.2.2 リリース19.1.0.0.7 - 既知の問題
この項では、GoldenGate Stream Analyticsリリース19.1.0.0.7の既知の問題および回避策を示します
1.1.2.2.1 Kafka接続のSASLプロパティがアップグレード中に移行されない
問題
GGSA環境を19.1.0.0.5.1から19.1.0.0.6.1にアップグレードした後、Kafka接続のSASLプロパティは正しく移行されず、常にfalse
に設定されます。手動でプロパティをtrue
に設定すると、接続内のユーザーまたはパスワード情報は失われます。
回避策
接続資格証明を手動で再構成します。
1.1.2.3 リリース19.1.0.0.6_MLR33750853 - 既知の問題
この項では、GoldenGate Stream Analyticsリリース19.1.0.0.6.3の既知の問題および回避策を示します
1.1.2.3.1 17を超えるパイプラインをデプロイできない
問題
17を超えるパイプラインをデプロイできません。
回避策
- GGSAインスタンスでSSHターミナルを開きます
mysql -uroot -p
を実行します/home/opc/README.txt
に記載されているパスワードを入力します- mysql> use
OSADB
- mysql> insert into
osa_system_property
(mkey,value
) values('spark.port.maxRetries','40')
; sudo systemctl restart osa
を実行してGGSAを再起動します
また、ご使用の環境で、必要な数のパイプラインに対して十分なコアおよびメモリー・リソースがSparkにあることを確認します。
1.1.2.4 リリース19.1.0.0.6_MLR33251626 - 既知の問題
この項では、GoldenGate Stream Analyticsリリース19.1.0.0.6_MLR33251626の既知の問題および回避策を示します
1.1.2.5 リリース19.1.0.0.6_MLR32849357 - 既知の問題
この項では、GoldenGate Stream Analyticsリリース19.1.0.0.6_MLR32849357の既知の問題および回避策を示します。
1.1.2.6 リリース19.1.0.0.6 - 既知の問題
この項では、GoldenGate Stream Analyticsリリース19.1.0.0.6の既知の問題および回避策を示します。
1.1.2.6.1 パイプライン内の複数のHDFSターゲットの問題
問題
GGSAで、異なるHDFSクラスタを使用している場合、同じパイプライン内の複数のHDFSターゲット(Azure Datalake、HDFSターゲット・タイプも含む)がサポートされていません。
回避策
HDFSターゲット・タイプに個別のパイプラインを作成します。
1.1.2.6.2 SSL認証のMONGODBテスト接続が失敗する
問題
MongoDB接続がクライアントURI接続タイプおよびSSL認証メカニズムを使用して作成されている場合、GGSA Jettyサーバーは証明書およびパスワードを更新しません。テスト接続の結果は、最初の証明書とパスワードに基づいています。後続のデータは更新されません。ただし、パイプライン・デプロイメントは正常に機能します。
回避策
有効なテスト接続結果を得るには、MongoDB接続をテストするたびにJettyサーバーを再起動します。
1.1.2.6.3 Kafkaトピック名にハイフンを含めることができない
問題
GGSAでは、パイプライン名やステージ名に-
、_
、.
などの特殊文字を使用できます。ただし、Kafkaではトピック名にハイフンを使用できません。
回避策
Kafkaでトピックが作成されると、トピック名のハイフン(-)がアンダースコア(_)に置き換えられます。
1.1.2.6.4 ElasticSearchターゲットおよびSSL認証を使用したパブリッシュ時にパイプラインが失敗する
問題
SSLタイプ認証を使用するElasticSearch接続では、トラストストア資格証明とともにユーザー名とパスワードは要求されません。ただし、GGSAはGoldenGateビッグ・データ(GGBD) APIを使用してElasticSearchと通信します。GGBDには、トラストストア資格証明とともにユーザー名とパスワードを要求する実装の不具合があり、両方の入力が必須になっています。
回避策
これは既知の問題です。GGDBでこの問題が修正された場合、ユーザーはトラストストア資格証明のみを指定するか、SSL認証タイプのユーザー名とパスワードを指定するかを選択できます。
1.1.2.7 リリース19.1.0.0.5 - 既知の問題
この項では、GoldenGate Stream Analyticsリリース19.1.0.0.5の既知の問題および回避策を示します。
1.1.2.7.1 Hiveターゲットのパーティションの更新によるパイプラインの強制終了
問題
既存のHiveターゲットのパーティションを更新すると、パイプラインが強制終了され、エラーがスローされます。
回避策
パーティションを更新する際は、ターゲットの詳細ウィザードで表名、HDFSパス、HDFSスキーマ・ファイル・パスなど、その他のパラメータを更新してください。
1.1.2.7.2 シノニムが作成されないかぎり、システム設定のカスタム問合せが失敗する
問題
「システム設定」ページにあるSQL問合せ構成のOracle DBリファレンスおよびターゲットでカスタム問合せを使用すると、参照する表にアクセスできます。ただし、この方法ではパイプラインが失敗します。
回避策
OSA1
から表OSA2.REF_TBL
にアクセスするには、次を使用してユーザーOSA1
からシノニムを作成しますCreate synonym REF_TBL for OSA2.REF_TBL
1.1.2.7.3 保護ポリシーの更新時にJettyサーバーの再起動が必要
問題
「システム設定」ページから保護ポリシーを更新した場合、jettyサーバーを再起動しないと、変更が適用されません。
回避策
「システム設定」ページでhadoop保護ポリシーを更新した場合は、jettyサーバーを再起動します。
1.1.2.8 リリース19.1.0.0.3 - 既知の問題
この項では、Oracle Stream Analyticsリリース19.1.0.0.3の既知の問題および回避策を示します。
1.1.2.8.1 パイプラインに複数のターゲットがある場合の重複レコード
問題
パイプラインに複数のターゲットがある場合に、1つのターゲットで障害が発生すると、障害が検出されてパイプラインが停止する前でも、データがアクティブなターゲットに書き込まれます。ターゲットの障害を解決してパイプラインを再パブリッシュすると、アクティブだったターゲット内に重複したレコードが存在することになります。
回避策
別のパイプラインを作成して、重複したレコードを受け入れないターゲットを1つのみ設定します。
1.1.2.8.2 パスワードに特殊文字が含まれる場合のADW/ATPへの接続失敗
問題
ADWおよびATPに接続しようとしたときに、DB資格証明に特殊文字が含まれていると、テスト接続とパイプライン・デプロイメントが機能しません。
回避策
パスワードを二重引用符で囲んで指定してください。たとえば、"welcome?123"です。
1.1.2.8.3 Intervalデータ型を含む参照表が使用される際のnullポインタ例外
問題
参照表では、精度が2を超えるYear to Month Intervalを含む列がサポートされません。
回避策
なし。
1.1.2.8.4 正常な停止中にドライバのNullpointerexceptionが発生
問題
正常に停止しているときにターゲットまたは参照で例外が発生すると、パイプラインのアンデプロイメントに時間がかかり、ドライバ・ログにNullPointerExceptionが記録されます。ただし、データ消失はありません。
回避策
なし。
1.1.2.8.5 「サインイン」をクリックしてログイン・ページにリダイレクト
問題
OSAインスタンスの資格証明を入力して「サインイン」をクリックしたときに、ログインできずに、ログイン・ページにリダイレクトされることがあります。
回避策
次のいずれかのオプションを試してください:
-
ウィンドウを閉じて、新しいウィンドウでOSAインスタンスを開きます。
-
ブラウザでキャッシュとCookieを消去します。
-
JSESSIONID Cookieを消去します。
ChromeブラウザでCookieを消去するには、右上隅にある3つの点をクリックします。「その他のツール」→「デベロッパー ツール」→「Application」タブを選択します。「Storage」の下で「Cookies」を展開します。OSA URLを選択してJESSIONID Cookieを消去します。
1.1.2.8.6 JNDIタイプのテスト接続がJettyサーバーで機能しない
問題
JNDIタイプの接続を作成して、JNDIプロバイダをWeblogicとして使用する場合、「テスト接続」は機能しません。
回避策
JNDI接続の詳細が正しいことを確認します。JNDI接続を使用するパイプラインは予期したとおりに動作します。
1.1.2.8.7 正常な停止の進行中にパイプラインを再パブリッシュ
問題
パイプラインのパブリッシュを取り消して同じものを再パブリッシュすると、次の例外が発生します:
OSA-01213 Pipeline deployment has failed. Creating container has failed.
同じ名前のパイプラインがすでに実行しているかどうかを確認します。パイプラインの正常な停止が完了するまでに時間がかかり、パブリッシュの取消しアクションがまだ実行中である可能性があります。
回避策
パイプラインのパブリッシュが正常に取り消されるまで待ってから、パイプラインをデプロイできます。パイプラインのステータスは、クラスタ・マネージャ(YARNまたはSparkスタンドアロン)のコンソールで確認できます。
1.1.2.9 リリース19.1.0.0.2 - 既知の問題
この項では、Oracle Stream Analyticsリリース19.1.0.0.2の既知の問題および回避策を示します。
1.1.2.9.1 Goldengateストリームで表が切り捨てられる
Oracle Bug#30677198
問題
レコードの削除に基づくイベント処理は、すべてのTruncate Table
およびDrop Table
操作で失敗します。これは既知の問題です。
回避策
なし。
1.1.2.9.2 ソース表にSDO_Geometry列がある場合にOSAから作成されたGG変更データが開始しない
Oracle Bug#30709930
問題
ソース表にSDO_GEOMETRYタイプの列がある場合、GG変更データの作成および開始に失敗します。
回避策
なし。
1.1.2.10 リリース19.1.0.0.1 - 既知の問題
この項では、Oracle Stream Analyticsリリース19.1.0.0.1の既知の問題および回避策を示します。
1.1.2.10.1 DBターゲットの編集で、表内の更新/追加された列の検出に失敗する
Oracle Bug#30540965
問題
事前定義済の表とともにデータベース・ターゲットを追加してから手動で表を編集した場合、編集した表はターゲットに反映されません。これは既知の問題です。
回避策
OSAパイプラインのターゲットとして使用される表を変更した場合、変更を反映するには、パイプラインの既存のターゲットを削除し、データベース・ターゲットを再作成する必要があります。
1.1.2.10.2 基礎となる表にBLOB列がある場合にDBターゲット・ステージの追加が失敗する
Oracle Bug#30542368
影響を受けるプラットフォーム: すべて
「BLOB」または「間隔」データ型の列がある表にマップされたデータベース・ターゲットを追加する場合、ターゲットでは2つのデータ型の列が識別されません。これは既知の問題です。
回避策
この問題への対処方法はありません。BLOB列型および間隔列型のない表のみをOSAパイプラインのターゲットとして使用する必要があります。
1.1.2.10.3 ターゲットにアクセスできない場合でも、パイプラインがレコードの処理を続行する
問題
Oracle Bug#30531844
データベース・ターゲットを持つパイプラインは公開され、データベース・ターゲットが利用できない場合でもレコードの処理を続行します。これは既知の問題です。
回避策
なし
1.1.2.10.4 UIではNot Null制約のあるDB表列に対するマッピングが許可されない
Oracle Bug#30542553
問題
データベース・ターゲットの追加中、UIではターゲットDB表の'not null'制約を持つ任意のフィールドにマップできます。しかし、「マッピングなし」フィールドにマップされている「Null値不可」列があるパイプラインを公開しようとすると、エラー・コードOSA-01213
の例外が発生します。
これは既知の問題です。
回避策
なし。
1.1.2.10.5 新しいターゲットへの切替え後にDBターゲット・プロパティ・マッピングを変更できない
問題
Oracle Bug#30566018
ターゲットを新しく作成したものに変更した後で、ターゲット・プロパティ・マッピングを変更することはできません。
回避策
ターゲット・ステージを削除し、新しいターゲットを指す新規ターゲット・ステージを作成します。
1.1.2.10.6 ライブ・データで表示されるタイムスタンプが入力データと異なる
Oracle Bug#30579122
問題:
ライブ・データ・ストリームでは、精度が3桁を超えるタイムスタンプを正しく解析できません。
次のサポートされている形式のリストにあるタイムスタンプ形式を使用します:
11/21/2005 11:14:23.111 "MM/dd/yyyy HH:mm:ss.SSS"
11/21/2005 11:14:23.11 "MM/dd/yyyy HH:mm:ss.SS"
11/21/2005 11:14:23.1 "MM/dd/yyyy HH:mm:ss.S"
11/21/2005 11:14:23 "MM/dd/yyyy HH:mm:ss"
11/21/2005 11:14 "MM/dd/yyyy HH:mm"
11/21/2005 11:14 "MM/dd/yyyy HH"
11/21/2005 "MM/dd/yyyy"
11-21-2005 11:14:23.111 "MM-dd-yyyy HH:mm:ss.SSS"
11-21-2005 11:14:23.11 "MM-dd-yyyy HH:mm:ss.SS"
11-21-2005 11:14:23.1 "MM-dd-yyyy HH:mm:ss.S"
11-21-2005 11:14:23 "MM-dd-yyyy HH:mm:ss"
11-21-2005 11:14 "MM-dd-yyyy HH:mm"
11-21-2005 11 "MM-dd-yyyy HH"
11-21-2005 "MM-dd-yyyy"
15-DEC-01 11.14.14.111 AM"dd-MMM-yy hh.mm.ss.SSS"
15-DEC-01 11.14.14.11 "dd-MMM-yy hh.mm.ss.SS"
15-DEC-01 11.14.14.1 "dd-MMM-yy hh.mm.ss.S"
15-DEC-01 11.14.14 "dd-MMM-yy hh.mm.ss"
15-DEC-01 11.14 "dd-MMM-yy hh.mm"
15-DEC-01 11 "dd-MMM-yy hh"
15-DEC-01 "dd-MMM-yy"
15/DEC/01 "dd/MMM/yy"
2013-10-5 15:16:0.756 "yyyy-MM-dd HH:mm:ss.SSS"
2013-10-5 15.16.0.756 "yyyy-MM-dd HH.mm.ss.SSS"
2013-10-5 15:16:0 "yyyy-MM-dd HH:mm:ss"
2013-10-5 15.16.0 "yyyy-MM-dd HH.mm.ss"
2013-10-5 15:16 "yyyy-MM-dd HH:mm"
2013-10-5 15.16 "yyyy-MM-dd HH.mm"
2013-10-5 15 "yyyy-MM-dd HH"
2012-11-10 "yyyy-MM-dd"
11:14:14 "HH:mm:ss"
"yyyy-MM-dd'T'HH:mm:ss'.'SSS"
"yyyy-MM-dd'T'HH:mm:ss"
1.1.2.11 リリース19.1.0.0.0 - 既知の問題
この項では、Oracle Stream Analyticsリリース19.1.0.0.0の既知の問題および回避策を示します。
1.1.2.11.1 HAが有効になっているときにバッチ遅延が増加する
Oracle Bug#27754912
影響を受けるプラットフォーム: すべて
パイプラインの公開中、HAを有効にすると、バッチ・スケジュールの遅延が見られることがあります。これは既知の問題です。
回避策
回避策はありません
1.1.2.11.2 ライブ出力表に含まれる行が1行の場合、ドロップダウン・リストの値が表示されない
Oracle Bug#27473663
影響を受けるプラットフォーム: すべて
ライブ出力表に含まれる行が1行の場合、ドロップダウン・リスト内の値の全部は表示されません。これは既知の問題です。
回避策
水平方向の分割線を引き上げて、表示される表部分を増やします。
1.1.2.11.3 CoherenceキャッシュでSDO_GEOMETRYがサポートされない
問題
Oracle Bug#27480822
影響を受けるプラットフォーム: すべて
Coherenceキャッシュでは、SDO_GEOMETRY
へのデータ型変換はサポートされていません。これは制限事項です。
回避策
回避策はありません
1.1.2.11.4 パターンでイベントを正しく検出できない
問題
Oracle Bug#25132943
影響を受けるプラットフォーム: すべて
基礎となるSpark Streamingでバッチ実行時間を1秒として構成した場合、パターン一致句は、1秒以内の間隔で正しく発生しているイベントを検出できません。これは制限事項です。
回避策
回避策はありません
1.1.2.11.5 テキスト・フィールドのデフォルト文字列制限
Oracle Bug#27701535
影響を受けるプラットフォーム: すべて
パイプライン内のテキスト・フィールドのサイズには制限があります。1024文字を超えるテキスト・フィールドは処理されません。
1.1.2.11.7 エグゼキュータのクラッシュ後にHAシナリオでイベントが失われる可能性がある
Oracle Bug#29697956
影響を受けるプラットフォーム: すべて
エグゼキュータは起動して実行されているが、CQLエンジンがまだブートストラップされていない場合に到着したイベントでは、タスクが失敗する可能性があります。デフォルトでは、Sparkによって各タスクが3回試行された後、そのタスクが失敗として報告されます。これは既知の問題です。
回避策
回避策はありません。
1.1.2.11.8 相関パターンでnumberデータ型はサポートされない
Oracle Bug#29801715
影響を受けるプラットフォーム: すべて
相関パターンでは、numberデータ型はサポートされません。そのため、相関パターンにNumber型のパラメータを選択すると、Sparkログ・ファイルに例外がスローされます。回避策として、int、float、doubleまたはbigintデータ型を使用するか、numberデータ型にtoDouble関数を適用して相関パターンで使用します。
回避策
回避策として、int、float、doubleまたはbigintデータ型を使用するか、numberデータ型にtoDouble関数を適用して相関パターンで使用します。
1.1.2.11.9 SparkのREST送信サーバーが無効化されている
Oracle Stream Analyticsは、Sparkスタンドアロン・クラスタで構成されている場合に、REST送信サーバーを使用してパイプラインをデプロイします。Spark 2.4.0以降のバージョンでは、REST送信サーバーがデフォルトで無効化されています。
スタンドアロン・クラスタのSpark REST送信サーバーを確認または有効化してください。Spark REST送信サーバーを有効にするには、クラスタの起動時に、プロパティspark.master.rest.enabled
をTrue
に設定します。たとえば、クラスタを起動する前に、Sparkのデフォルト構成ファイル${SPARK_HOME}/conf/spark-defaults.conf
に追加する方法があります。詳細は、Sparkのドキュメントを参照してください。
1.1.2.11.10 JMSストリームの使用時にクラスのロードに失敗する
Oracle Bug#29022250
影響を受けるプラットフォーム: すべて
永続サブスクリプションを持つJMSストリームの使用時に、次のエラーが発生する可能性があります: FAILED TO LOAD CLASS WEBLOGIC.JMS.COMMON.INVALIDCLIENTIDEXCEPTION。これは、JMS永続サブスクリプションが排他的であることと、既存のパイプラインでサブスクリプションが作成済であることが原因です。
回避策
別のクライアントIDまたはサブスクリプション名を使用するようにストリームの設定を変更するか、JMSサブスクライバを実行する不要なパイプラインを中断します。
1.1.2.11.11 一部の特殊なルール構成では出力イベントが表示されない
Oracle Bug#29015898
影響を受けるプラットフォーム: すべて
ルール・ステージで、すでにルールによって設定されている値を別のルールで変更すると、ライブ出力表にイベントは表示されません。
回避策
この問題に対処するには、別のルール・ステージを作成します。
1.1.2.11.12 エグゼキュータ・フェイルオーバーのOBRが含まれるパイプラインで出力イベントが順序付けされない
Oracle Bug#29112584
影響を受けるプラットフォーム: すべて
異なるパーティション間でのイベントの順序付けは保証されません。イベントは同じパーティション内で順序付けられます。
回避策
回避策はありません。
1.1.2.11.13 問合せグループ→表ステージが特定のウィンドウ・タイプで機能しない
Oracle Bug#29795496
影響を受けるプラットフォーム: すべて
問合せグループ→表ステージは、「定数値」、行(スライドなし)および「現在」ウィンドウ・タイプでは機能しません。問合せグループまたは表ステージで前述のウィンドウ・タイプに基づいてグループを追加すると、パイプラインが壊れた状態でレンダリングされ、次のUIエラーが表示されます: パイプラインの開始に失敗しました。 : 未検出の例外。 : 構文エラー。予約されたCQLキーワードの使用方法が無効です: "on"
。
回避策
問合せグループから別のステージを作成し、その新しいステージで「グループ」および「定数値」ウィンドウを構成します。
1.1.3 修正された問題
この項では、リリースで修正されたすべての問題をリストします。
1.1.4 不具合の修正と機能拡張
この章では、特定のリリースの不具合修正および機能拡張について説明します。
Bug番号は、BugDBチケットの番号です。特定のチケットまたは問題に関する不明点は、Oracleサポートにお問い合せください。
1.1.4.1 リリース19.1.0.07_MLR36064807 - 2023年12月
CQLエンジンのスループット効率
複数のエグゼキュータでマルチ問合せステージ・パイプラインを実行している間、ソース・パーティションとエグゼキュータがパーティション数に応じて増加し、スループット効率が線形的に向上することはありません。
この問題は修正されています。
1.1.4.3 リリース19.1.0.0.6_MLR33750853 - 2022年1月
Oracle Bug#33675135 - MARKETPLACEインスタンス内のDBに事前シードされているKAFKAブートストラップ・ポートの修正
問題
本番Kafkaクラスタの作成時に使用されるユーティリティであるinit-web-tier.sh
は、Kafkaブローカ・ポートのデフォルトを9092ではなく2181に設定しました。
修正
ポートを2181から9092に更新します。
Oracle Bug#33388524: MARKETPLACEインスタンス上の通知ターゲット(ONS)への書込みが、ライブラリ・バージョンの競合エラーによって失敗する
この問題は修正されています。
Oracle Bug#33617140: CQLステージがあるパイプラインをエクスポートできない
カスタムCQLステージがあるパイプラインのエクスポートに失敗する問題が修正されました。
Oracle Bug#33638523: RESTターゲットでカスタム・ヘッダーを使用してコンテンツ・タイプをリセットできない
この修正では、カスタム・ヘッダーが設定される前にデフォルトのコンテンツ・タイプを設定します。
Oracle Bug#33688240: 表示名に空白があるKAFKAソースを持つパプラインをパブリッシュできない
この問題は修正されています。表示名にスペースがあるKafkaソースを持つパイプラインをパブリッシュできます。
Oracle Bug#33692708: JSON_ROW形式を使用したOCIオブジェクト・ストレージ・ターゲットへの書込み時の例外
修正では、includeColumnNames
およびdisableescaping
フィールドを無効化します。
Oracle Bug#33728331: CVE-2021-44832: APACHE LOG4Jを少なくとも2.17.1に更新
問題
CVE-2021-44832
修正
Apache Log4jを2.17.1にアップグレードします。
Oracle Bug#33592687: パイプラインは、GGSAログに例外またはエラー・メッセージを記録せずに終了する。
この修正では、GGSAランタイムでロギングをLog4j 2
からLog4j 1.2.17-16
に戻します。
1.1.4.4 リリース19.1.0.0.6_MLR33251626 - 2021年9月
Oracle Bug#33172932: パイプラインが複数のエグゼキュータにデプロイされるとタプルがなくなる
パイプラインが複数のエグゼキュータにデプロイされるとタプルがなくなる問題は修正されました。
Oracle Bug#33193157: Kafkaターゲットで、ブートストラップ・サーバーを使用して構成されたKafka接続が使用されると、Druidキューブの作成が失敗する
KafkaターゲットでブートストラップKafka接続が使用されると、Druidキューブの作成が失敗する問題は修正されました。
問題
入力データに互換性がない場合、パイプラインが終了します
修正
OSA_SYSTEM_PROPERTY
表のosa.continueon.data.exception
フラグを更新します。
- フラグがtrueに設定されている場合、パイプラインは実行を続行し、問題のあるイベントは削除されます。
- フラグがfalseに設定されている場合、パイプラインは終了します。
- デフォルトでは、この値はtrueに設定されています。
Oracle Bug#32964187: 例外が発生した場合にパイプラインの続行または終了が可能な構成パラメータの問題
問題
入力データに互換性がない場合、パイプラインが終了します
修正
OSA_SYSTEM_PROPERTY
表のosa.continueon.data.exception
フラグを更新します。
- フラグがtrueに設定されている場合、パイプラインは実行を続行し、問題のあるイベントは削除されます。
- フラグがfalseに設定されている場合、パイプラインは終了します。
- デフォルトでは、この値はtrueに設定されています。
Oracle Bug#32990445: Igniteサーバーが間違った数のワーカー・ノードを計算している。
Igniteサーバーが間違った数のワーカー・ノードを計算している問題は修正されました。
Oracle Bug#33208855: 入力データの例外が原因で停止されたオフセットを含むパイプラインを再パブリッシュできない
オフセットの先頭のデータにエラーがあるパイプラインの再パブリッシュに関連する問題は修正されました。
Oracle Bug#33236693: システム・プロパティSPARK.STREAMING.EXCEPTION.ISTERMINATEがFALSEに設定される問題
OSA_SYSTEM_PROPERTY
表のspark.streaming.exception.isTerminate
をFALSEに設定しても、例外が発生した場合にパイプラインの実行が継続されない問題は修正されました。
Oracle Bug#33272967: バッチのイベントに問題があるとバッチ全体が削除される
問題
spark.streaming.exception.isTerminate
がfalseに設定されていても、Oracle DB表に挿入できないレコードがあると、バッチ全体がスキップされます。
修正
OSA_SYSTEM_PROPERTY
表でosa.jdbc.switchtononbatch.insert
をtrueに更新すると、挿入に失敗したエラーのあるデータのみをスキップできます。
1.1.4.5 リリース19.1.0.0.6_MLR32849357 - 2021年6月
Oracle Bug#32845653: JSON出力でのTOJSONパターンの拡張
フィールド・マッピング用のJSONパスの推測に使用されるサンプルJSONファイルをアップロードするようにToJsonパターンが拡張されました。
Oracle Bug#32647810: CQLENGINEでの文字列長の拡張
文字列型の属性に対する1024文字のCQLEngine制限が修正されました。4096文字を許可するように属性の長さを増やしました。
Oracle Bug#32820171: TOJSONパターンでのバッチ処理の有効化の選択時にNULL値が表示される
ToJsonパターンをイベント・ストリームに追加した後に「バッチの有効化」オプションをクリックすると、ライブ出力表に新しいイベント値がnullと表示される問題が修正されました。
Oracle Bug#32845715: デリミタ付き列ヘッダーを無視して文字のエスケープを無効化するように修正
GGBDハンドラを使用してデリミタ付きテキストを記述する際に、列ヘッダーを無視するオプションを有効にしました。この修正により、JSON文字列をデリミタ付きテキストとして記述する際の文字のエスケープも無効になります。
Oracle Bug#32846444: JDBCシンク問合せタイムアウトの構成可能化
JDBCシンク問合せタイムアウトをosa_system_property
表の構成可能なパラメータとして設定します。osa_system_property
表に挿入する必要があるプロパティは、mkey=com.oracle.cep.adapters.jdbc.JdbcSink.QueryTimeout
です。
Oracle Bug#32850867: OSAインストーラがORACLE DBメタデータ・ストアで失敗する
Oracleメタデータ・ストアの構成中にパスワードに'@'などの特殊文字が含まれると、メタデータ・ストア・ユーザーの作成が失敗する問題が修正されました。メタデータ・ストアのパスワードは、jetty-osa-datasource.xml
ファイルで構成されているパスワードです。
Oracle Bug#32870972: FIELD_PATHとFIELD_NAMEが異なる場合にKAFKAターゲットへの書込みが失敗する
field_path
とfield_name
が異なる場合のKafkaターゲットへの書込みの失敗の問題が修正されました。
Oracle Bug#32872055: OSA内部トピックへのオフセットのコミット時のNULLPOINTEREXCEPTIONとNOSUCHELEMENTEXCEPTION
OSA内部トピックへのオフセットのコミット中に発生するNullPointerExceptionおよびNoSuchElementExceptionの問題を修正しました。
Oracle Bug#32853397: STREAM ANALYTICSでパイプラインの開始に失敗する。: 未検出の例外。: 1024
パイプラインの構成時の「パイプラインの開始に失敗しました。: 未検出の例外。: 1024」
エラーが修正されました。
Oracle Bug#32894915: KAFKA GROUPAUTHORIZATIONEXCEPTION: グループへのアクセスが認可されない
エラー「GroupAuthorizationException: Not authorized to access group」
でグループの問題にアクセスするためのユーザー認可の問題が修正されました。
Oracle Bug#32887340: データベース・ターゲット・タイプで列の削除が可能になる
データベース・ターゲット・タイプで列を削除できるようにUIを修正しました。実行時に、挿入文は形状内の列のみを指定します。
Oracle Bug#32754024: デバイスに領域がない - SPARK作業ディレクトリの変更
この修正は、Spark作業ディレクトリの変更後に正しいパイプライン・ステータスが反映されるようにするためです。
Spark作業ディレクトリを変更するには:
- Sparkサービスを停止します:
sudo systemctl stop spark-slave.service
sudo systemctl stop spark-master.service
- u02の下に作業ディレクトリを作成します:
/u02
に移動しますsudo mkdir spark
.ここで、spark
は作業フォルダ名です。任意の名前でフォルダを作成できます。chmod 777 spark
を実行して、権限を変更します。
spark-env.sh
を編集しますSPARK_HOME/conf
に移動し、spark-env.sh
を編集します/u02
の下に新しく作成されたフォルダを指すように、spark-env.sh
ファイルの末尾にSPARK_WORKER_DIR=/u02/spark
を追加します
- Sparkサービスを開始します:
- sudo systemctl start spark-master.service
- sudo systemctl start spark-slave.service
パイプラインを再度パブリッシュすると、
/u02/spark
の下にアプリケーションおよびドライバのデータ(ファイルおよびログ)が表示されます。
Oracle Bug#32873823: OSAインストーラがADWメタデータ・ストアでエラー・コードORA-64308を表示して失敗する
SQLスクリプトseedSchema-19.1.0.0.6.sql
の実行中に、OSAのインストールがADWメタデータ構成で失敗し、エラーORA-64308: 「Hybrid Columnar圧縮表には、LONGデータ型の列を使用できません」
が発生する問題を修正しました。
1.1.4.6 リリース19.1.0.0.5_MLR32849350 - 2021年5月
Oracle Bug#32251429: 複数のターゲットを持つパイプライン・デプロイメントの問題
複数のターゲットを持つパイプラインのパイプライン・デプロイメントの失敗の問題を修正しました。
Oracle Bug#32251367: SSL対応KAFKA設定でのホット・デプロイの問題
Kafkaシステム設定でSSLが有効になっている場合に、パイプラインのホット・デプロイメントがSparkExceptionで失敗する問題が修正されました。
Oracle Bug#32613021: ネストしたJSONにNULL値がある場合にパイプラインが終了する
ネストした入力JSONデータにnull値がある場合のパイプラインの終了が修正されました。
Oracle Bug#32647925: DBターゲットと参照のパフォーマンスの問題
データベース・ターゲットおよび参照への書込み中の検証パフォーマンスが向上しました。
Oracle Bug#32647546: NULL値のあるJSONで、OCIターゲットへの書込みが失敗する
入力JSONデータにnull値がある場合に、OCIターゲットへの書込み中にパイプラインがNullPointerException例外で失敗する問題が修正されました。
Oracle Bug#32712524: レコードに発音区別記号がある場合、RESTエンドポイントへの書込み中にパブリッシュされたパイプラインが強制終了される
入力JSONのデータに発音区別記号付きの文字列値ě¿čř¿ýáíé
(有効なUTF-8文字)が含まれている場合に、RESTターゲットへの書込み中にパブリッシュされたパイプラインが強制終了される問題が修正されました。
Oracle Bug#32375359 - ビッグ10進の丸め時の必要な例外
入力されたJSONに56を超えるスケールのビッグ10進値が含まれている場合に、パイプラインがNullPointerExceptionで失敗する問題が修正されました。サポートされているデフォルトの精度およびスケールが64になりました。
Oracle Bug#32669536: 現在と前のパターンで間違った問合せが生成される
現在と前のイベント
・パターンで複数のパーティション・フィールドが選択された場合に間違った問合せが生成される問題が修正されました。
Oracle Bug#32846444: JDBCシンク問合せタイムアウトの構成可能化
JDBCシンク問合せタイムアウトをosa_system_property
表の構成可能なパラメータとして設定します。osa_system_property
表に挿入する必要があるプロパティは、mkey=com.oracle.cep.adapters.jdbc.JdbcSink.QueryTimeout
です。
Oracle Bug#32850867: OSAインストーラがORACLE DBメタデータ・ストアで失敗する
Oracleメタデータ・ストアの構成中にパスワードに'@'などの特殊文字が含まれると、メタデータ・ストア・ユーザーの作成が失敗する問題が修正されました。メタデータ・ストアのパスワードは、jetty-osa-datasource.xml
ファイルで構成されているパスワードです。
Oracle Bug#32872055: OSA内部トピックへのオフセットのコミット時のNULLPOINTEREXCEPTIONとNOSUCHELEMENTEXCEPTION
OSA内部トピックへのオフセットのコミット中に発生するNullPointerExceptionおよびNoSuchElementExceptionの問題を修正しました。
Oracle Bug#32887340: データベース・ターゲット・タイプで列の削除が可能になる
データベース・ターゲット・タイプで列を削除できるようにUIを修正しました。実行時に、挿入文は形状内の列のみを指定します。
Oracle Bug#32754024: デバイスに領域がない - SPARK作業ディレクトリの変更
この修正は、Spark作業ディレクトリの変更後に正しいパイプライン・ステータスが反映されるようにするためです。
Spark作業ディレクトリを変更するには:
- Sparkサービスを停止します:
sudo systemctl stop spark-slave.service
sudo systemctl stop spark-master.service
- u02の下に作業ディレクトリを作成します:
/u02
に移動しますsudo mkdir spark
.ここで、spark
は作業フォルダ名です。任意の名前でフォルダを作成できます。chmod 777 spark
を実行して、権限を変更します。
spark-env.sh
を編集しますSPARK_HOME/conf
に移動し、spark-env.sh
を編集します/u02
の下に新しく作成されたフォルダを指すように、spark-env.sh
ファイルの末尾にSPARK_WORKER_DIR=/u02/spark
を追加します
- Sparkサービスを開始します:
- sudo systemctl start spark-master.service
- sudo systemctl start spark-slave.service
パイプラインを再度パブリッシュすると、
/u02/spark
の下にアプリケーションおよびドライバのデータ(ファイルおよびログ)が表示されます。