1.1 Oracle Data Integratorリリース・ノート
内容は次のとおりです。
1.1.1 「Oracle Data Integratorの新機能」
Oracle Fusion Middleware 14c (14.1.2.0.0)リリースにおけるOracle Data Integratorの新機能および製品の重要な変更点を確認するには、『Oracle Data Integratorの管理』ガイドのリリース14c (14.1.2.0.0)の新機能および変更された機能に関する項を参照してください。
1.1.2 Oracle Data Integrator 14c (14.1.2.0.0) ReadMeファイル
ReadMeファイルは、ディストリビューションに含まれています。これはzipの最上位ディレクトリにあります。ReadMeファイルには、このリリースについての情報が記載されています(機能、前提条件、インストール/アンインストール手順)。Oracle Data Integrator 14c (14.1.2.0.0)をインストールするには、ReadMeファイルを使用する必要があります。先に進む前に、ReadMeファイル全体をお読みください。
1.1.3 Oracle Data Integrator Marketplace 14.1.2.0.xの問題および回避策
ODI MP 14.1.2.0.xリポジトリは、Oracle Database上にある必要があります。MySQLベースのODIリポジトリはサポートされていません。
現在、埋込みリポジトリを作成するオプションは、ODI MP 14.1.2.0.xイメージではサポートされていません。
この項には、次の問題に関する情報が含まれます。
1.1.3.1 プロビジョニング中に既存のODI 12.2.1.4 MPリポジトリが使用されると、データ・サーバーへの接続が失敗する
ODI MP 14.1.2.0.xを構成する際に、プロビジョニング中に既存のODI MP 12.2.1.4リポジトリを使用することを選択した場合、データ・サーバーからのテスト接続は次の例外で失敗します。
ORA-17957: Unable to initialize the key store.
回避策として、次のようにします。
- ODI Studioにログインします。
- トポロジ・ナビゲータで、「テクノロジ」→「Oracle」をクリックし、データ・サーバーを選択します。
- 「JDBC」タブをクリックし、「プロパティ」表から次の項目を削除します。
oracle.net.wallet_location
oracle.net.ssl_server_dn_match
- 「定義」タブで、「資格証明ファイル」テキスト・ボックスの横にある参照アイコンをクリックし、
/u01/oracle/mwh/wallets
ディレクトリからデータ・サーバーのウォレットを参照して選択します。「接続の詳細」テキスト・ボックスが表示されます。 - 「接続の詳細」ドロップダウン・リストから接続URLを選択します。
- ウォレット・ファイルを開くために必要な資格証明を入力します。
JDBC URLおよびJDBCドライバの詳細には、ウォレット・ファイルから取得された資格証明が自動移入されます。
- 「JDBC」タブで、JDBC接続URLが自動移入されているかどうかを検証します。
- 「保存」をクリックして、データ・サーバーの詳細を保存します。
- 「接続のテスト」をクリックして接続をテストします。
テスト接続は正常に完了します。[38015158]
1.1.3.2 Oracle Database 23aiがリポジトリ作成に使用されている場合、データ・サーバーがデフォルトで作成されない
リポジトリの作成時にOracle Database 23aiを使用する場合、コンパートメント内の使用可能なデータベースに対してデータ・サーバーは作成されません。この問題は、Oracle Database19cを使用してインスタンスが作成された場合には発生しないことに注意してください。この場合、データ・サーバーは、Oracle Database 23aiを含むコンパートメント内の使用可能なデータベースに対して作成されます。
これを修正するには、/u01/oracle/mwh/wallets
からODI MPのプロビジョニング中にダウンロードしたウォレットを直接使用し、データ・サーバーを手動で作成する必要があります。
データ・サーバーを作成するには
- ODI Studioにログインします。
- トポロジ・ナビゲータで、「テクノロジ」→「Oracle」をクリックします。
- 右クリックして「新規データ・サーバー」を選択します。
- 「定義」タブで、
- データ・サーバーの名前を入力します。
- 「資格証明ファイルの使用」チェック・ボックスを選択し、事前構成済ウォレット・ファイルを使用して接続の詳細をアップロードします。
- 「資格証明ファイル」テキスト・ボックスの横にある参照アイコンをクリックし、
/u01/oracle/mwh/wallets
ディレクトリからデータ・サーバーのウォレットを参照して選択します。「接続の詳細」テキスト・ボックスが表示されます。 - 「接続の詳細」ドロップダウン・リストから接続URLを選択します。
- ウォレット・ファイルを開くために必要な資格証明を入力します。
JDBC URLおよびJDBCドライバの詳細には、ウォレット・ファイルから取得された資格証明が自動移入されます。
- 「JDBC」タブで、JDBC接続URLが自動移入されているかどうかを検証します。
- 「保存」をクリックして、データ・サーバーの詳細を保存します。
- 「接続のテスト」をクリックして接続をテストします。
データ・サーバーがODIリポジトリに正常に作成されます。[37994622]
1.1.3.3 デフォルトのデータ・サーバーのJDBC URLに不完全な接続の詳細がある
ODIインスタンスを作成すると、接続の詳細が事前移入されたデフォルトのデータ・サーバーが自動的に作成されます。データ・サーバーに接続するには、作成されたインスタンスにユーザー名およびパスワードのみを指定する必要があります。
ただし、ODI MP 14.1.2.0.xインスタンス用に作成されるデフォルトのデータ・サーバーでは、JDBC URLにjdbc:oracle:thin:@null
があります。この問題は、新しく作成されたデータ・サーバーでは発生しないことに注意してください。
正しいJDBC URLを移入するには
- ODI Studioにログインします。
- トポロジ・ナビゲータ→「テクノロジ」→「Oracle」で、データ・サーバーを選択します。
- 「定義」タブで、「資格証明ファイル」テキスト・ボックスの横にある参照アイコンをクリックし、/u01/oracle/mwh/walletsディレクトリからデータ・サーバーのウォレットを参照して選択します。
「接続の詳細」テキスト・ボックスが表示されます。
- 「接続の詳細」ドロップダウン・リストから接続URLを選択します。
- ウォレット・ファイルを開くために必要な資格証明を入力します。
JDBC URLおよびJDBCドライバの詳細には、ウォレット・ファイルから取得された資格証明が自動移入されます。
- 「JDBC」タブで、JDBC接続URLが自動移入されているかどうかを検証します。
- 「保存」をクリックして、データ・サーバーの詳細を保存します。
- 「接続のテスト」をクリックして接続をテストします。
JDBC URLの詳細は正しく保存されます。[37993161]
1.1.3.4 インスタンスが既存のリポジトリを使用して作成されている場合、エージェントが自動的に起動しない
ODI MP 14.1.2.0.xのプロビジョニング中に既存のODI MP 12.2.1.4リポジトリを使用することを選択した場合、エージェント・サービスは自動的に起動されません。この問題は、プロビジョニング中に新しいリポジトリを作成することを選択した場合には発生しません。
manageappsodi.service
を実行して、エージェント・サービスを起動します。
次のステップを実行します。
- 次のコマンドを使用して、すべてのjettyプロセス(実行中の場合)を強制終了します。
ps -ef | grep jetty
kill -9 <process-id>
- opcユーザーとしてSSHを使用して、Oracle Cloud MarketplaceでプロビジョニングされたODIインスタンスにログインします:
ssh opc@<IP Address>
systemctl
を使用してstart
機能を実行します。sudo systemctl start manageappsodi.service
エージェントは正常に起動します。[38014873、37994411、37993192]
1.1.3.5 ODIエージェントがスケジュール時間の更新に失敗する
マッピング、パッケージまたはロード計画を実行するスケジュールを変更すると、ODIエージェントはスケジュール時間の更新に失敗します。
これを修正するには
- ODI Studioを閉じます。
- 実行中のエージェント・サービスを停止します。
- opcユーザーとしてSSHを使用して、Oracle Cloud MarketplaceでプロビジョニングされたODIインスタンスにログインします:
ssh opc@<IP Address>
systemctl
を使用してstop
機能を実行します。sudo systemctl stop manageappsodi.service
- opcユーザーとしてSSHを使用して、Oracle Cloud MarketplaceでプロビジョニングされたODIインスタンスにログインします:
/u01/oracle/mwh/odi/common/
の下に、パスodi-ff/MP
を作成します。/u01/oracle/mwh/odi/common/odi-ff/MP
に、ffdefinition.config
ファイルを作成します。ffdefinition.config
ファイルに次の内容を追加します。#Features config
repo-misfire-schedule-retry=false
- エージェント・サービスを起動します。
- opcユーザーとしてSSHを使用して、Oracle Cloud MarketplaceでプロビジョニングされたODIインスタンスにログインします:
ssh opc@<IP Address>
systemctl
を使用してstart
機能を実行します。sudo systemctl start manageappsodi.service
- opcユーザーとしてSSHを使用して、Oracle Cloud MarketplaceでプロビジョニングされたODIインスタンスにログインします:
- 次のコマンドを使用してODI Studioを起動します。
Windows:
odi.exe -clean -initialize
UNIX:
./odi.sh -clean -initialize
スケジュール時間は正常に更新されます。[37987790]
1.1.3.6 ADBの検出機能が、使用可能なAutonomous Databaseインスタンスのリストのフェッチに失敗する
ADBの検出機能を使用してODI Studioに追加のADBデータ・サーバーのリストを表示すると、shaded.com.oracle.oci.javasdk.javax.ws.rs.ProcessingException
エラーで失敗します。
これを修正するには、/u01/oracle/mwh/odi/studio/bin/odi.conf
ファイルを次のように変更する必要があります。
66行目の後:
AddVMOption -DexternalAuthenticatorIsCaseInsensitive=false
次の行を追加します。
AddVMOption -Djavax.net.ssl.trustStore=$JAVA_HOME/lib/security/cacerts
AddVMOption -Djavax.net.ssl.trustStorePassword=changeit
次のコマンドを使用してODI Studioを再起動します。
Windows: odi.exe -clean -initialize
UNIX: ./odi.sh -clean -initialize
ADBの検出機能は正しく機能します。[37987206]
1.1.3.7 アップグレード後のOracle Object Storageデータ・サーバーの欠落
Oracle Object Storageテクノロジ・データ・サーバーをODI MP 12.2.1.4インスタンスの対応する論理スキーマとともに構成し、ODI MP 14.1.2.0.xインスタンスのプロビジョニング時にこのスキーマを使用した場合、プロビジョニングされたODI MP 14.1.2.0.xでは、データ・サーバーがトポロジ・ナビゲータから欠落します。
これを回避するには
- ODI MP 12.2.1.4環境からObject Storageデータ・サーバー・オブジェクトのスマート・エクスポートを実行します。
- ODI MP 14.1.2.0.xインスタンスをプロビジョニングします。
- Object Storageデータ・サーバー・オブジェクトをODI MP 14.1.2.0.xインスタンスにインポートします。
次のステップを実行します。
- Object Storageデータ・サーバーのスマート・エクスポートを実行するには:
- ODI MP 12.2.1.4インスタンスにログインします。
- ODI Studioを開きます。
- ODI Studioで、「トポロジ」→「テクノロジ」→「Oracle Object Storage」に移動します。
- トポロジ・ナビゲータのツールバーで、「エクスポート...」を選択します。
- 「選択項目のエクスポート」ダイアログで、「スマート・エクスポート」を選択します。
- 「スマート・エクスポート」ダイアログで、エクスポート・ファイルの名前を入力します。
- エクスポート・キーを指定します。これは、ODI MP 14.1.2.0.xインスタンスでオブジェクトをインポートするときに使用します。
- 「トポロジ」タブに移動し、Oracle Object Storageデータ・サーバーを左側の「選択したオブジェクト」リストにドラッグ・アンド・ドロップします。
- 選択したセクションの下のダイアログ・ボックスに論理スキーマをドラッグ・アンド・ドロップします。
- 「エクスポート」をクリックして、エクスポート・プロセスを開始します。
- ODI MP 14.1.2.0.xインスタンスをプロビジョニングします。
- SCPを使用して、エクスポートされたファイルをプロビジョニングされたODI MP 14.1.2.0.xインスタンスにダウンロードします。
- アップグレードされた環境で、エクスポートしたオブジェクトをインポートします。
- ODI MP 14.1.2.0.xインスタンスにログインします。
- ODI Studioを開きます。
- トポロジ・ナビゲータのツールバーで、「インポート...」を選択します。
- 「選択項目のインポート」ダイアログで、「スマート・インポート」を選択します。
- 「ファイルの選択」フィールドに、インポートするスマート・エクスポート・ファイルの場所を入力します。
- 「次」をクリックします。
- 「エクスポート・キーの入力」ダイアログで、エクスポート・プロセスに使用したエクスポート・キーを指定します。
- 「終了」をクリックして、インポート・プロセスを開始します。
「ODI Studio」→「トポロジ」→「テクノロジ」→「Oracle Object Storage」に接続して、データ・サーバーが作成されていることを確認します。[38037301]
1.1.4.2 ドメイン補助スキーマ・アップグレード(DASU)でODIスーパーバイザの資格証明が事前移入されない
Oracle Fusion Middlewareアップグレード・アシスタントでは、ドメインで使用されるすべてのスキーマオプションが選択されている場合、ODIのスーパーバイザ資格証明はドメインに含まれていないため、最初のインスタンスにあらかじめ移入されません。複数のODIスキーマがある場合、アップグレード・アシスタントは最初の資格証明のセットを使用してユーザー・エントリに移入します。[20323393]
1.1.4.3 バージョンの作成時に依存関係を含めることができない
次のステップを実行します。
-
GIT/Subversionの有効化
-
ウォレットの有効化
-
GIT/Subversionへの接続の作成
-
VCSへのマッピングの追加
-
マッピングの変更
次に、ODI Studioを停止および再起動して、依存関係を含むマッピングのバージョンを作成すると、nullポインタ・エラーが発生します。
この問題を解決するには、次の回避策を実行します。
-
「チーム」->「設定」->「接続の編集」に移動して、「OK」をクリックします。
「ウォレット・パスワード」ダイアログが表示されます。
-
ウォレット・パスワードを入力して、依存関係が設定されたバージョンを作成します。
依存関係を含むマッピングのバージョンを正常に作成できます。[25168395]
1.1.4.4 CopyConfig
コマンドは、外部認証を使用してODIスキーマに接続はできません
CopyConfig
コマンドは、外部認証を使用して構成された環境では実行できません。ODIスキーマに接続するには、内部認証を必要とします。 [27084113]
1.1.4.5 SDKスクリプト・ファイルのcommons-langを2.6からcommons-lang3-3.8.1.jarへアップグレード
commons-lang
が2.6
からcommons-lang3-3.8.1.jar
へアップグレードされたために、パッケージ構造が変更されました。この変更のため、SDKスクリプトでorg.apache.commons.lang
パッケージを使用していると、コンパイル・エラーが発生する場合があります。[29966240]
回避策として、SDKスクリプト・ファイルで、org.apache.commons.lang
のすべての参照をorg.apache.commons.lang3
に変更します。
import org.apache.commons.lang.ArrayUtils;
これを次のように変更します import org.apache.commons.lang3.ArrayUtils;
1.1.4.6 bpm-infra.jarのアップグレードによるNullPointer例外の発生
nullの値(二重引用符なし)を含むJSONファイルを使用する複合ファイル・データサーバーで、テスト接続およびリバース・エンジニアリングが失敗する。[30214609]
JSONペイロードには、nullを値として含めることはできません。回避策として、次のように置き換えます。
- 文字列を"null"、"n/a"または二重引用符で囲まれた任意の論理値に置き換えます
- 整数を"0"(ゼロ)の値に置き換えます
1.1.5 設計時環境の問題および回避策
この項には、次の問題に関する情報が含まれます。
1.1.5.1 Oracle Data Integratorで使用されていないプリファレンスがODI Studioに表示される
ODIで使用されていないプリファレンスは、デフォルトではJDeveloper IDEから取得され、これらの機能が「ODI Studio」→「ツール」→「プリファレンス」に表示されます。[21656747]
1.1.5.2 新規データストアの複製時属性がコピーされない
新たに作成した属性付きのデータストアを、新たに作成したデータストアのタブを閉じずに複製した場合、属性はコピーされません。
回避策として、新たに作成した属性付きデータストアを保存して閉じてから、「選択の複製」を選択します。[21572433]
1.1.5.3 Hive表の非ASCII文字が適切に表示されない
utf-8でエンコードされたファイルに基づいたHive表の非ASCII文字が適切に表示されません。回避策として、-J-Dfile.encoding=utf8
を指定してODI Studioを起動し、Hive表の非ASCII文字を表示します。[19632983]
1.1.5.4 ディメンションまたはキューブ・コンポーネントの拡張されたサブマップの編集
ディメンションまたはキューブ・コンポーネントの拡張されたマップの編集は、許可されません。拡張されたマップで行われた変更は保持されず、保存されません。[23110100]
1.1.5.5 シナリオおよびロード計画の編集中のパフォーマンス遅延
ODI StudioのデザイナまたはオペレータUIから「ロード計画とシナリオ」ビューで単純なシナリオまたはロード計画を編集しようとする際、著しい遅延が発生する場合があります。この現象は、親ノードに多くの子ノードが関連付けられている場合に発生します。回避策として、保存操作時にリフレッシュを複数回行わないようにしてください。さらに、パフォーマンスの問題を回避するには、フォルダ内の子ノード数を最大200個までに制限してください。 [27395959]
1.1.5.6 RESTサービス・レスポンス・テストの成功後のトポロジ・デザイナ・ツリー内のメニュー・オプションの欠落
トポロジ・デザイナ・ツリーで次のステップを実行します。
-
RESTfulサービス・テクノロジに対する新規データ・サーバーを作成します。
-
RESTサービス・エンド・ポイントURLによってサポートされている使用可能なメソッドを使用して物理スキーマを作成します。
-
レスポンスをテストします。
-
RESTサービス・レスポンス・テストの成功後、物理および論理アーキテクチャのメニューを右クリックします。
新規データ・サーバーおよび新規論理スキーマ・オプションは他のメニュー項目とともに欠落したままです。
回避策として、ODI Studioを再起動します。 [ 29792225]
1.1.6 テクノロジおよびナレッジ・モジュールの問題および回避策
この項には、次の問題に関する情報が含まれます。
1.1.6.1 HDFSにエクスポートするとLKM Hive to File Directが失敗する
LKM Hive to File Directを使用してマッピングを実行すると失敗し、次のエラーが表示されます。
ODI-1227: Task Unload Hive data-LKM Hive to File Direct- fails on the source connection HIVE_DATA_SERVER
これは、Hiveの不具合(HIVE-5672およびHIVE-6410)によるものです。この不具合により、HDFSに書き込むと、INSERT OVERWRITE文が失敗します。これらのHiveの不具合はすでに修整されており、最新バージョンのCDHおよびHortonworksにアップグレードすると問題は解決することに注意してください。[21529011]
1.1.6.2 OozieでOdiOSCommandを使用した場合、失敗時にもログ・ファイルが削除される
OdiOSCommandを使用するKMの多くは、OUT_FILE
/ERR_FILE
パラメータを使用して出力をログ・ファイルにリダイレクトします。このようなファイルのディレクトリは、KMオプションTEMP_DIR
に基づいており、このデフォルト値はSystem.getProperty("java.io.tmpdir")
です。これにより、Oozie上のODIでOozieジョブ一時ディレクトリが使用され、ジョブが成功したかに関係なく、ジョブの完了時にクリーンアップされます。この結果、実行後ログ・ファイルが使用できません。
回避策として、Oozieでの実行時にKMオプションTEMP_DIR
を特定の一時ディレクトリに上書きします。[21232650]
1.1.6.3 Oozieの初期化に失敗する
Oozieの初期化が失敗し、次のエラーが表示されます。
java.io.IOException: E0504 : App directory <dir_name> doesn't exist OR ODI-1028: There are issues with the Log Retriever components. No Log Retriever flow with name <name> is running.
この問題は、純粋なCDH5.4.0+擬似/マルチノード・クラスタで発生します。
回避策として、次のようにします。
-
次のコマンドを使用して、Oozie共有ライブラリが既に作成されていることを確認します。
oozie-setup sharelib create -fs hdfs:///user/oozie -locallib <path to local folder [oozie-sharelib-yarn]>
ノート:
フォルダoozie-sharelib-yarnは、Oozie設定に対してローカルです。共有ライブラリを作成した後、hdfs:///user/oozie/share/lib/lib_<timestamp>でHDFS上の共有ライブラリを確認できます。
-
oozie-site.xmlに次のプロパティを追加します。これらのプロパティは、OozieがHDFSにアクセスするためのHadoop構成ファイルを取得するために必要です。最初のプロパティで、"*="の後にパスを追加します。
<property> <name>oozie.service.HadoopAccessorService.hadoop.configurations</name> <value>*=<replace_this_with_path_to_hadoop_configuration_folder For Example:/etc/hadoop/conf></value> <value>*=<replace_this_with_path_to_hadoop_configuration_folder For Example:/etc/hadoop/conf></value> </property> <property> <name>oozie.service.WorkflowAppService.system.libpath</name> <value>hdfs:///user/oozie/share/lib</value> </property>
-
OozieおよびHadoopサービスを再起動します。[21410186]
1.1.6.4 Oozieの初期化時エラーが表示される
OdiLogRetriever.properties
ファイルに問題があり、oozie.coord.application.path
値が追加されず、次のエラーが表示されます。[21410186]
E0504: App directory doesn't exist
1.1.6.5 SQOOP KMがOozieで失敗する
CDHのバージョンが5.4.1より前の場合、SQOOPを使用したKMは、Oozieで実行すると失敗します。
回避策として、KMオプションEXTRA_HADOOP_CONF_PROPERTIES
を--skip-dist-cache
に設定します。この問題の別の回避策は、すべてのSQOOP jarをFileNotFoundException
で報告されたHDFSディレクトリにアップロードすることです。[21232570]
たとえば:
hdfs dfs -mkdir -p /opt/cloudera/parcels/CDH-5.3.0-1.cdh5.3.0.p0.30/jars hdfs dfs -copyFromLocal /opt/cloudera/parcels/CDH-5.3.0-1.cdh5.3.0.p0.30/jars/* /opt/cloudera/parcels/CDH-5.3.0-1.cdh5.3.0.p0.30/jars
1.1.6.6 「Failed to set setXIncludeAware(true) for parser」警告を無視する
ODIを介してPigまたはOozieワークフローを実行すると、ODIログまたはStudioコンソールに、XML解析の失敗に関して「Failed to set setXIncludeAware(true) for parser」のような警告メッセージが表示される場合があります。デフォルト実装ではxml解析でXIncludeAware機能がサポートされないため、JAVA XercesパーサーがPIGの実行のために使用されるとこのエラーが発生します。
回避策として、Pig Dataserverのクラスパスにxmlparserv2.jarを追加してください。[21238180]
1.1.6.7 Pigで暗黙的な型変換は提供されない
定数式を指定する場合、Pigでは暗黙的な型変換は提供されないため、定数のデータ型は属性のデータ型と完全に一致する必要があります。たとえば、属性がDOUBLEとして定義されている場合、この属性の定数式は999ではなく、999.0に設定する必要があります。[20808984]
1.1.6.8 Pigでマッピングの実行が失敗する
Pigを使用してマッピングを処理し、Pigステージング領域に集計コンポーネントがある場合、SQLベースのテクノロジの同様のマッピングとは異なるHaving句の設定をする必要があります。[20723728]
1.1.6.9 複合集計はPig Latinでサポートされない
Pigステージングで集計コンポーネントを使用する場合、集計関数でSUM(source.col1 + source.col2)
などの複合式は指定できません。このような集計は複合集計と呼ばれ、Pig Latinではサポートされません。複合式が必要な場合、集計コンポーネントの前に式コンポーネントをマッピングに追加する必要があります。[20302859]
1.1.6.10 マッピング・エディタにすべてのテンプレートIKMが表示されないことがある
マッピング・エディタで、選択のためにインポートしたテンプレートIKMが正しく表示されない場合があります。インポートしたIKMを表示するには、ターゲットの統合タイプをデフォルト(「制御追加」)から「増分更新」または「なし」のいずれかに変更する必要があります。[20583432]
1.1.6.11 日付が文字列データ型の場合、日付の比較が予期したように機能しないことがある
Sparkプロジェクトでソース・ファイルがファイル・テクノロジを使用する場合、ODIで日付が文字列データ型に変換されます。これによって日付の比較が失敗することがあります。[20029929]
1.1.6.12 XKM SQL Distinctの制限
Oracleをソースとし、OracleをターゲットとしてDistinctコンポーネントを使用してマッピングを作成し、DISTINCTノードで「XKM SQL Distinct」を選択すると、マッピングが失敗し、次のエラーが表示されます。
The physical node DISTINCT_ cannot be supported by technology Oracle on execution unit src_UNIT of mapping Mapping New_Mapping[11] owning folder=ODIOGG.First Folder
この問題を解決するには、トポロジ情報をアップグレードし、「個別演算子をサポート」をTrue
に設定します。[20234590]
1.1.6.13 UNION_DISTINCT Pig演算子が重複した結果を削除しない
UNION Pig演算子では、一意の特性を指定するために次の修飾子が使用されます。[20368827]
-
未指定 – 出力にDISTINCT操作を実行します。
-
DISTINCT – 入力にDISTINCT操作を実行し、出力には実行しません
-
ALL – 入力または出力へのDISTINCT操作を実行しません
1.1.6.14 複合ファイル・データサーバーのプロパティにログ・レベルとログ・ファイルが表示されない
複合ファイル・データサーバーを作成すると、ログ・レベル(ll)およびログ・ファイル(lf)プロパティは「プロパティ」タブに表示されません。[20377218]
1.1.6.15 BinaryTypeデータ型はSpark 1.1でサポートされない
Hiveデータ型であるBinaryTypeはSpark 1.1でサポートされません。LKM Hive to SparkをSpark 1.1で使用すると、次のエラーがSpark実行ログに表示されます。[20260906、20391714]
HIVE ValueError: not supported type: <type 'bytearray'>
1.1.6.16 Hive複合データ型はLKM Spark to Hiveでサポートされない
次のHive複合データ型はサポートされていません。
-
MapType
-
UnionType
-
ArrayType
これらの複合データ型を使用すると、不明の問題が発生します。[20141453、20391743]
1.1.6.17 Sparkの実行でYARNデプロイメントのみがサポートされる
ODIではランタイム・チェックに関してyarn-clientとyarn-clusterモードの実行のみがサポートされるため、SparkアプリケーションはYARNで実行することをお薦めします。他のSpark実行モードを使用していた場合は、YARN実行に切り替えてください。[24846472]
YARN実行モードへの切替えが不可能な場合、またはサポートされていないSpark実行モードの続行を希望する場合は、次のDataServerプロパティをSpark DataServerに追加する必要があります。
odi.spark.enableUnsupportedSparkModes = true
また、サポートされていないSpark実行モードに関しては、サポート・リクエストを発行できないことにも注意してください。
1.1.6.18 Spark-Cassandra: YARN-clientモードの権限エラー
SchemaMap
をYARN-clientモードで使用しないでください。YARN-client実行モードの所有者が競合するため、Cassandra用のWebLogic JDBCドライバでファイル権限の問題が発生し、次のようなエラー・メッセージが表示されます。 py4j.protocol.Py4JJavaErrorpy4j.protocol.Py4JJavaError: An error occurred while calling o140.jdbc.
: java.sql.SQLException: [FMWGEN][Cassandra JDBC Driver][Cassandra]Unable to create local database file: $$ The cause: $$
多くの場合、このエラーはターゲット・ディレクトリに対する書込みアクセス権がドライバにないために発生します。[24928801]
1.1.6.19 Spark 1.6使用時のデータ型の既知の問題
Spark 1.6の制限のため、次のOracleデータ型はLKM SQL to Spark
またはLKM Spark to SQL
を使用して処理できません。[25047069]
-
FLOAT
およびREAL
を使用すると、次のValueError
が発生します。(ValueError(u'Could not parse datatype: decimal(38,-127)',)
-
TIMESTAMP WITH TIME ZONE、TIMESTAMP WITH LOCAL TIME ZONE、INTERVAL DAY TO SECOND、INTERVAL YEAR TO MONTH
などの拡張されたTIMESTAMP
およびINTERVAL
のデータ型を使用すると、次のエラーが発生します。py4j.protocol.Py4JJavaErrorpy4j.protocol.Py4JJavaError: An error occurred while calling o43.jdbc.: java.sql.SQLException: Unsupported type -101
1.1.6.20 Pigでの「Unable to Store Alias」エラー
Pigでマッピングの実行が失敗し、Unable to store alias
エラーが表示される場合、Pigサーバーのpig.optimizer.rules.disabled
プロパティをFilterLogicExpressionSimplifier
に設定する必要があります。[20520865]
1.1.6.21 リポジトリ・アップグレード中にKMが置換される
デフォルトでは、リポジトリにロードされたすべてのKMは、変更されているかどうかにかかわらず、リポジトリ・アップグレード中に置換されます。リポジトリ・アップグレード中にKMをアップグレードしないでください。
KMのアップグレードを回避する方法は次のとおりです。
-
SAP KMがある場合は、リポジトリ・アップグレード中にKMをアップグレードしないでください。新しいSAP KMには、新しいODI SAPコンポーネントが必要です。古いODI SAPコンポーネントとともに新しいSAP KMを使用すると、SAPマッピングはすべて失敗します。
回避策として、ODIリポジトリのアップグレード時に「KMを必須更新で置換」の選択を解除してください。SAP KMをアップグレードするには、各ODI SAPアダプタの『Oracle Data Integratorアプリケーション・アダプタ・ガイド』に示されているアップグレード手順に従います。
-
カスタムKMがある場合、リポジトリ・アップグレード中にKMをアップグレードすると、カスタマイズ内容は失われます。
回避策として、ODIリポジトリのアップグレード時に「KMを必須更新で置換」の選択を解除してください。リポジトリのアップグレード後に、アップグレードするKMのみを手動で置換してください。
1.1.6.22 誤って公開されたSDK APIクラスが12c Javadocsから削除された
Javadoc生成の不具合により、41個の内部クラスが12.1.2、12.1.3および12.1.3.0.1のパブリックなSDK API Javadocに誤って公開されていました。これらのクラスは内部使用のためのもので、12cのパブリックなSDK APIから削除されています。12c Javadocから削除されたクラスを次にリストします。これらのクラスをプログラムで使用している場合、プログラムを修正し、使用しないようにしてください。[21700125]
-
AdapterException
-
ComponentDefinitionParser
-
ComponentRegistryHelper
-
ExecutionUnit.GenerationType
-
FCONamedObject
-
FCOPropertyOwner
-
FCORoot
-
IMapReferenceOwner
-
IMappingObject.SyncState
-
IModelObjectChange
-
IModelObjectChange.ChangeType
-
IObjectAdapterFactory
-
LocationAdapterBase
-
MapAttribute.ConnectionTypeInfo
-
MapAttribute.ConnectionTypeSelector
-
MapAttribute.DefaultConnectionTypeSelector
-
MapComponent
-
MapComponentOwner
-
MapComponentType.uidef
-
MapPhysicalDesign.ContextualComponentTreeNode
-
MapPhysicalDesign.ExecutionUnitConfiguration
-
MapPhysicalDesign.ExecutionUnitGraph
-
MapPhysicalDesign.ExecutionUnitGraphNode
-
MapPhysicalDesign.MapPhysicalDesignConfig
-
MapPhysicalDesign.NodeConfiguration
-
MapPhysicalDesign.PushDirection
-
MapPhysicalNode.RMCStackPropertyManager
-
MapRootContainer
-
MappingGenericTechnology.MappingLanguage
-
MappingGenericTechnology.MappingLanguageElement
-
MappingGenericTechnology.MappingSubLanguage
-
NamedObject
-
OdiComponent
-
OdiInterface.IPersistenceComparable
-
PropertyOwner
-
ResourceLoader
-
ResourceLoader.ResourceCandidate
-
ReusableMappingComponent.RMCConnectorPointDelegate
-
Root
-
RootIssue.TextPos
-
TargetLoadOrderException
1.1.6.23 データベースが外部に設定されている場合にXMLファイルと複合ファイルを使用すると、CKMが失敗する
CKMとともにXMLファイルおよび複合ファイルが使用されているときに、フロー制御ステップ(CKM)がORA-00904: "NOW": invalid identifier
のエラーで失敗します。マッピングは複合ファイルのターゲット・データストアにデータをロードするように定義されますが、複合ファイル・データ・サーバーは外部データベースを使用するように定義されます。
次のエラー・メッセージが表示されます。
ODI-1228: Task insert PK errors-Copy of CKM SQL- fails on the target connection COMPLEX_ROTA_OUT_ISL.
Caused By: java.sql.SQLSyntaxErrorException: ORA-00904: "NOW": invalid identifier
at oracle.jdbc.driver.T4CTTIoer11.processError(T4CTTIoer11.java:495)
at oracle.jdbc.driver.T4CTTIoer11.processError(T4CTTIoer11.java:447)
問題の原因は、外部データベースを使用するように定義されたXML (または複合ファイル)データ・サーバーでフロー制御または静的制御が実行されるときに、ODIで適切なDATE関数を選択できないことです。
この制限の背景にある主な理由の1つは、外部データベース・テクノロジ(Oracleなど)で実行されているCKMコードでは、そのテクノロジに固有のDATE関数を使用する必要があることです。そうではなく、XMLファイルまたは複合ファイルのテクノロジの定義から情報が取得されるため、その結果の関数は外部データベース・テクノロジには適用されません。その結果、外部データベースを使用するようにデータ・サーバーが設定されているときは、ODIでは、XMLファイルや複合ファイルなどのテクノロジの静的制御またはフロー制御(CKM)を実行できません。
そのため、CKMのInsert PK errors、Insert AK errors、Insert FK errors
およびInsert CK errorsのタスクのターゲット
・コマンドを編集して、OdiRef.getInfo("DEST_DATE_FCT")
を、使用される外部データベース・テクノロジの日付関数に置き換えることが回避策となります。たとえば、Oracle外部データベースを使用している場合はsysdate
とします。[28641256]
1.1.6.24 KMエディタの「フレックスフィールド」タブに、新規作成されたKMが表示されない
KMエディタを再オープンし、「フレックスフィールド」タブに移動すると、新たに作成されたフレックスフィールドが、すでに保存済でも表示されない場合があります。複数のエディタが開かれているときにツリーをリフレッシュすると、パフォーマンスの問題が発生する可能性があります。パフォーマンスの問題を回避するには、KMの親をリフレッシュしてから再オープンしてください。[28561299]
1.1.7 Oracle Data Integrator 14cのインストール後パッチに関する情報 (14.1.2.0.0)
Oracle Data Integrator 14c (14.1.2.0.0)をインストールした後、次のステップを実行します。
1.1.8 ドキュメントのアクセシビリティについて
オラクルのアクセシビリティについての詳細情報は、Oracle Accessibility ProgramのWebサイト(http://www.oracle.com/pls/topic/lookup?ctx=acc&id=docacc)を参照してください。
Oracle Supportへのアクセス
サポートをご契約のお客様には、My Oracle Supportを通して電子支援サービスを提供しています。詳細情報は(http://www.oracle.com/pls/topic/lookup?ctx=acc&id=info)か、聴覚に障害のあるお客様は(http://www.oracle.com/pls/topic/lookup?ctx=acc&id=trs)を参照してください。
Oracle Fusion Middleware Oracle Data Integratorリリース・ノート, 14c (14.1.2.0.0)
G24086-02