この章の内容は次のとおりです。
ビッグ・データ構成ウィザードは、複数のHadoopテクノロジを設定するための単一のエントリ・ポイントを提供します。データ・サーバー、物理スキーマ、論理スキーマの作成、およびHadoop、HBase、Oozie、Spark、Hive、Pigといった各種Hadoopテクノロジに対するコンテキストの設定をすばやく実行できます。
様々な配置に対するデフォルトのメタデータ(プロパティやホスト名、ポート名など)、および環境変数のデフォルト値があらかじめ入力されています。これにより、これらのテクノロジに対する詳細な知識がなくても、データ・サーバーを物理および論理スキーマとともに簡単に作成できます。
すべてのテクノロジの構成が終わったら、データ・サーバーに対する設定を検証して接続ステータスをテストできます。
注意:
ビッグ・データ構成ウィザードを使用することを望まない場合、後続の項で言及されている情報を使用して手動でビッグ・データ・テクノロジ用にデータ・サーバーを設定できます。
ビッグ・データ構成ウィザードを実行するには、次の手順を実行します。
次の表では、ビッグ・データ構成ウィザードの「一般設定」パネルで設定する必要があるオプションについて説明します。
表3-1 一般設定オプション
オプション | 説明 |
---|---|
接頭辞 |
接頭辞を指定します。この接頭辞はデータ・サーバー名、論理スキーマ名および物理スキーマ名に関連付けられています。 |
配布 |
配布を選択します。「手動」またはCDH <version>のいずれかです。 |
ベース・ディレクトリ |
ベース・ディレクトリを指定します。このベース・ディレクトリは、ウィザードの他のすべてのパネルに自動的に移入されます。 注意: このオプションは、配布が「手動」ではない場合にのみ表示されます。 |
分布タイプ |
「標準」または「Kerberos化」のいずれかの配布タイプを選択します。 |
テクノロジ |
構成するテクノロジを選択します。 注意: 選択したテクノロジに対するデータ・サーバー作成パネルのみが表示されます。 |
次の表では、HDFSデータ・サーバーを作成する際に指定する必要があるオプションについて説明します。
注意:
HDFSデータ・サーバーの定義に関する必須または固有のフィールドのみについて説明します。表3-2 HDFSデータ・サーバーの定義
オプション | 説明 |
---|---|
名前 |
データ・サーバーの名前を入力します。この名前はOracle Data Integratorに表示されます。 |
ユーザー/パスワード |
ユーザー名とそのパスワード。 |
Hadoopデータサーバー |
HDFSデータ・サーバーに関連付けるHadoopデータ・サーバー。 |
追加クラスパス |
追加のクラスパスを指定します。 |
次の表では、HBaseデータ・サーバーを作成する際に指定する必要があるオプションについて説明します。
注意: HBaseデータ・サーバーの定義に関する必須または固有のフィールドのみについて説明します。
表3-3 HBaseデータ・サーバーの定義
オプション | 説明 |
---|---|
名前 |
データ・サーバーの名前を入力します。この名前はOracle Data Integratorに表示されます。 |
HBase定数 |
HBaseインストールの定数。例: |
ユーザー/パスワード |
ユーザー名とそのパスワード。 |
Hadoopデータサーバー |
HBaseデータ・サーバーに関連付けるHadoopデータ・サーバー。 |
追加クラスパス |
デフォルトでは、次のクラスパスが追加されます。
必要に応じて、追加のクラスパスを指定します。 |
次の表では、Kafkaデータ・サーバーを作成する際に指定する必要があるオプションについて説明します。
注意:
Kafkaデータ・サーバーの定義に関する必須または固有のフィールドのみについて説明します。表3-4 Kafkaデータ・サーバーの定義
オプション | 説明 |
---|---|
名前 |
データ・サーバーの名前を入力します。この名前はOracle Data Integratorに表示されます。 |
ユーザー/パスワード |
ユーザー名とそのパスワード。 |
Hadoopデータサーバー |
Kafkaデータ・サーバーに関連付けるHadoopデータ・サーバー。 |
追加クラスパス |
次の追加のクラスパスがデフォルトで追加されます。
必要に応じて、さらに追加のクラスパスを追加できます。 注意: このフィールドは、ビッグ・データ構成ウィザードを使用してKafkaデータ・サーバーを作成する場合にのみ表示されます。 |
次の表では、新しいKafkaデータ・サーバーを作成する場合に「プロパティ」タブで追加する必要があるKafkaデータ・サーバー・プロパティについて説明します。
表3-5 Kafkaデータ・サーバー・プロパティ
キー | 値 |
---|---|
metadata.broker.list |
PLAINTTEXTまたはSASL_PLAINTTEXTの2つの値があります。SASL_PLAINTTEXTは、Kerberos化されたKafkaサーバーに使用します。デフォルト値はPLAINTTEXTです。 |
oracle.odi.prefer.dataserver.packages |
トピックおよびメッセージをKafkaサーバーから取得します。アドレスはoracle.odiです。 |
Hadoopデータ・サーバーを作成および初期化するには、次の手順を実行します。
次の表は、新しいHadoopデータ・サーバーを作成する場合に「定義」タブで指定する必要があるフィールドについて説明しています。
注意: Hadoopデータ・サーバーの定義に関する必須または固有のフィールドのみについて説明します。
表3-6 Hadoopデータ・サーバーの定義
フィールド | 説明 |
---|---|
名前 |
Oracle Data Integratorに表示されるデータ・サーバーの名前。 |
データ・サーバー |
データ・サーバーの物理名。 |
ユーザー/パスワード |
Hadoopユーザーとそのパスワード。 パスワードを指定しない場合、HDFSおよびOozieのユーザー名を使用した単純な認証のみが実行されます。 |
認証メソッド |
認証方式として、次のいずれかを選択します。
|
HDFSノード名URI |
HDFSノード名のURI。
|
リソース・マネージャ/ジョブ・トラッカURI |
「リソース・マネージャまたはジョブ・トラッカのURI。
|
ODI HDFSルート |
ODI HDFSのルート・ディレクトリのパス。
|
追加クラスパス |
追加のクラスパスを指定します。 次の追加クラスパスを追加します。
|
次の表は、新しいHadoopデータ・サーバーを定義する場合に「プロパティ」タブで構成可能なプロパティについて説明しています。
注意: これらのプロパティは、HiveやHDFSといった他のHadoopテクノロジによる継承が可能です。これらのプロパティを継承するには、他のHadoopテクノロジのデータ・サーバーを作成する際に、この構成済のHadoopデータ・サーバーを選択する必要があります。
表3-7 HadoopおよびHiveに必須のHadoopデータ・サーバー・プロパティ
プロパティ | 説明/値 |
---|---|
HADOOP_HOME |
Hadoopディレクトリの場所。例: |
HADOOP_CONF |
Hadoop構成ファイル(core-default.xml、core-site.xml、hdfs-site.xmlなど)の場所。例: |
HIVE_HOME |
Hiveディレクトリの場所。例: |
HIVE_CONF |
Hive構成ファイル(hive-site.xmlなど)の場所。例: |
HADOOP_CLASSPATH |
|
HADOOP_CLIENT_OPTS |
|
ODI_ADDITIONAL_CLASSPATH |
|
HIVE_SESSION_JARS |
|
表3-8 (HadoopおよびHiveの基本プロパティ以外の) HBaseに必須のHadoopデータ・サーバー・プロパティ
プロパティ | 説明/値 |
---|---|
HBASE_HOME |
HBaseディレクトリの場所。例: |
HADOOP_CLASSPATH |
|
ODI_ADDITIONAL_CLASSPATH |
|
HIVE_SESSION_JARS |
$HBASE_HOME/hbase.jar:$HBASE_HOME/lib/hbase-sep-api-*.jar:$HBASE_HOME/lib/hbase-sep-impl-*hbase*.jar:/$HBASE_HOME/lib/hbase-sep-impl-common-*.jar:/$HBASE_HOME/lib/hbase-sep-tools-*.jar:$HIVE_HOME/lib/hive-hbase-handler-*.jar 注意: Apache SentryなどのHadoopセキュリティ・モデルに関する手順に従って、ODI Hive KM内で使用されるHive ADD JARコールを許可します。
|
表3-9 (HadoopおよびHiveの基本プロパティ以外の) Oracle Loader for Hadoopに必須のHadoopデータ・サーバー・プロパティ
プロパティ | 説明/値 |
---|---|
OLH_HOME |
OLHインストールの場所。例: |
OLH_FILES |
|
ODCH_HOME |
OSCHインストールの場所。例: |
HADOOP_CLASSPATH |
OLHを使用するには、 |
OLH_JARS |
Oracle Loader for Hadoopで使用されるカスタム入力形式、Hive、Hive SerDesなどに必要なすべてのJARファイルのカンマ区切りリスト。すべてのファイル名をワイルドカードなしで展開する必要があります。 次に例を示します。
|
OLH_SHAREDLIBS |
|
ODI_ADDITIONAL_CLASSPATH |
|
表3-10 (HadoopおよびHiveの基本プロパティ以外の) SQOOPに必須のHadoopデータ・サーバー・プロパティ
プロパティ | 説明/値 |
---|---|
SQOOP_HOME |
Sqoopディレクトリの場所。例: |
SQOOP_LIBJARS |
SQOOPライブラリjarの場所。例: |
『Oracle Data Integratorの管理』の物理スキーマの作成に関する項の説明に従って、標準の手順を使用してHadoop物理スキーマを作成します。
『Oracle Data Integratorの管理』の論理スキーマの作成に関する項の説明に従って、標準の手順を使用してこの物理スキーマ用の論理スキーマを作成し、特定のコンテキストで関連付けます。
Hadoopジョブを実行するには、Oracle Data Integratorエージェントを構成する必要があります。
Oracle Data Integratorエージェントを設定する手順は次のとおりです。
Oracle Loader for Hadoopを使用するには、Oracle Data Integratorエージェント・コンピュータにOracle Loader for Hadoopをインストールして構成する必要があります。
Oracle Loader for Hadoopをインストールして構成するには、次の手順を実行します。
Kerberos認証で保護されるHadoopクラスタでOracle Data Integratorエージェントを実行するには、Kerberos保護クラスタを構成する必要があります。
Kerberos保護クラスタの使用手順:
Oracle Data Integrator Studioインストールのローカル・エージェントでHadoopジョブを実行するには、「Hadoopジョブを実行するためのOracle Data Integratorエージェントの構成」の設定手順を実行しますが、Oracle Data Integratorのuserlib
ディレクトリにJARファイルをコピーします。
次に例を示します。
Linux: $USER_HOME/.odi/oracledi/userlib
ディレクトリ。
Windows: C:\Users\<USERNAME>\AppData\Roaming\odi\oracledi\userlib
ディレクトリ