単一ノード・インストールの構成

次の表は、単一ノード・インストールに設定する必要があるプロパティを説明しています。任意のテキスト・エディタでbdd.confを変更できます。

ファイルの編集の際には、次の点に注意してください。
  • 一部のプロパティで受け付けられる値は大/小文字が区別され、次の表に示されたとおりに入力する必要があります。
  • ホスト名はすべて完全修飾ドメイン名(FQDN)である必要があります。
  • 各ポートの設定は一意の値である必要があります。
  • bdd.confで定義される一部のディレクトリには場所の要件があります。これらについて次に示します。
構成プロパティ 説明
ORACLE_HOME BDDがインストールされるディレクトリへのパス。これは、存在していない必要があり、システムにはこのディレクトリを作成するための空き領域が30GB以上必要です。加えて、その親ディレクトリの権限は、755または775のいずれかに設定されている必要があります。

この設定は、Studioデータベースで必要なORACLE_HOME環境変数とは異なります。

ORACLE_INV_PTR 実行時にインストーラによって作成される、Oracleインベントリ・ポインタへの絶対パス。これはORACLE_HOMEディレクトリに配置できません。

他のOracleソフトウェア製品がインストールされている場合、このファイルはすでに存在します。それを指すようにこのプロパティを更新します。

INSTALLER_PATH インストール・ソース・ディレクトリの絶対パス。
DGRAPH_INDEX_DIR Dgraphデータベースへの絶対パス。このディレクトリは、ORACLE_HOMEの下には配置できず、配置した場合削除されます。

このディレクトリが現在存在しない場合、スクリプトによって作成されます。既存データベースとともにインストールしている場合は、このプロパティをそれらの親ディレクトリに設定します。

HADOOP_UI_HOST Hadoopマネージャ(Cloudera Manager、AmbariまたはMCS)を実行するマシンのホスト名。これには、マシンのホスト名を設定します。
STUDIO_JDBC_URL Studioを接続する必要があるStudioデータベースのJDBC URL。
このプロパティには3つのテンプレートがあります。データベース・タイプに対応するテンプレートをSTUDIO_JDBC_URLにコピーし、データベースを指すようにURLを更新します。
  • MySQLデータベースがある場合、最初のテンプレートを使用し、次のようにURLを更新します。
    jdbc:mysql://<database hostname>:<port number>/<database name>?useUnicode=true&characterEncoding=UTF-8&useFastDateParsing=false
  • Oracleデータベースがある場合、最初のテンプレートを使用し、次のようにURLを更新します。
    jdbc:oracle:thin:@<database hostname>:<port number>:<database SID>
  • 本番環境にインストールしているわけではなく、インストーラによりHypersonicデータベースを作成する場合、3番目のテンプレートを使用します。スクリプトにより、URLで定義された場所にデータベースが作成されます。
WORKFLOW_MANAGER_JDBC_URL ワークフロー・マネージャ・サービス・データベースのJDBC URL。
このプロパティには2つのテンプレートがあります。データベース・タイプに対応するテンプレートをWORKFLOW_MANAGER_JDBC_URLにコピーし、データベースを指すようにURLを更新します。
  • MySQLデータベースの場合は、最初のテンプレートを使用し、次のようにURLを更新します。
    jdbc:mysql://<database hostname>:<port number>/<database name>?useUnicode=true&characterEncoding=UTF-8&useFastDateParsing=false
  • Oracleデータベースの場合は、最初のテンプレートを使用し、次のようにURLを更新します。
    jdbc:oracle:thin:@<database hostname>:<port number>:<database SID>
注意: BDDでは、現在データベースの移行はサポートされません。デプロイメント後、別のデータベースに変更する方法は、データベース自体を再構成してBDDを再インストールすることのみです。
INSTALL_TYPE ハードウェアおよびHadoopディストリビューションに従って、インストール・タイプを決定します。これには、次のいずれかを設定します。
  • CDH
  • HW
  • MAPR
JAVA_HOME JDKインストール・ディレクトリの絶対パス。これは、$JAVA_HOME環境変数と同じ値を持っている必要があります。

複数のバージョンのJDKがインストールされている場合、正しいものを指していることを確認してください。

TEMP_FOLDER_PATH インストーラによって使用される一時ディレクトリ。これは存在している必要があり、20GB以上の空き領域を含んでいる必要があります。
HADOOP_UI_PORT Hadoopマネージャのポート番号。
HADOOP_UI_CLUSTER_NAME マネージャにリストされるHadoopクラスタの名前。クラスタ名内の空白は%20に置き換えます。
HUE_URI Hueのホスト名およびポート(形式は、<hostname><port>)。このプロパティは、HDPの場合にのみ必要です。
HADOOP_CLIENT_LIB_PATHS Hadoopクライアント・ライブラリへの絶対パスのカンマ区切りリスト。
注意: HDPまたはMapRがある場合、インストールする前に、このプロパティの設定のみを行う必要があります。CDHの場合、インストーラにより、必要なライブラリがダウンロードされ、このプロパティが自動的に設定されます。これには、インターネット接続が必要です。スクリプトが、ライブラリをダウンロードできない場合、この問題を解決するための手順については「Hadoopクライアント・ライブラリのダウンロードの失敗」を参照してください。

このプロパティを設定するには、Hadoopディストリビューションに対応するテンプレートをHADOOP_CLIENT_LIB_PATHSにコピーし、インストール・マシンにコピーしたクライアント・ライブラリを指すようにパスを更新します。<UNZIPPED_XXX_BASE>を正しいライブラリへの絶対パスにすべて置き換えます。

パスは表示されるとおりに指定する必要があるため、リスト内のパスの順序は変更しないでください。

HADOOP_CERTIFICATES_PATH TLS/SSLが有効になっているHadoopクラスタにのみ必要です。HDFS、YARN、HiveおよびKMSの証明書を配置したインストール・マシン上のディレクトリへの絶対パス。

このディレクトリは証明書を更新する必要がある場合に使用するため、インストール後に削除しないでください。

ENABLE_KERBEROS Kerberosを有効にします。Kerberos 5+がインストールされている場合、この値をTRUEに設定し、そうではない場合、FALSEに設定します。
KERBEROS_PRINCIPAL BDDプリンシパルの名前。これには、ドメインの名前を含める必要があります。例: bdd-service@EXAMPLE.COM

このプロパティが必要になるのは、ENABLE_KERBEROSTRUEに設定されている場合のみです。

KERBEROS_KEYTAB_PATH BDD keytabファイルへの絶対パス。このプロパティが必要になるのは、ENABLE_KERBEROSTRUEに設定されている場合のみです。
KRB5_CONF_PATH krb5.confファイルへの絶対パス。このプロパティが必要になるのは、ENABLE_KERBEROSTRUEに設定されている場合のみです。
ADMIN_SERVER WebLogic管理サーバーのホスト名。これは、マシンのホスト名にデフォルト設定されるため、ユーザーが設定する必要はありません。
MANAGED_SERVERS 管理対象サーバーのホスト名。この設定は${ADMIN_SERVER}のままにします。
DGRAPH_SERVERS Dgraphのホスト名。この設定は${ADMIN_SERVER}のままにします。
DGRAPH_THREADS Dgraphの起動に使用されるスレッドの数。これは、マシンのコア数から2を引いた値にデフォルト設定されるため、ユーザーが設定する必要はありません。
DGRAPH_CACHE Dgraphキャッシュのサイズ(MB)。これは、RAMの50%または空きメモリー量の合計から2GBを引いた値にデフォルト設定されるため、ユーザーが設定する必要はありません。
ZOOKEEPER_INDEX ZooKeeperによって識別に使用されるZooKeeperアンサンブル内のDgraphクラスタの索引。
HDFS_DP_USER_DIR Studioユーザーがデータをエクスポートすると作成されるサンプル・ファイルを格納するHDFS /userディレクトリ内の場所。このディレクトリがまだ存在しない場合、インストーラによって作成されます。このディレクトリの名前に空白およびスラッシュ(/)を含めることはできません。
YARN_QUEUE データ処理ジョブの送信先のYARNキュー。
HIVE_DATABASE_NAME Studioデータ・セットのソース・データを格納するHiveデータベースの名前。
SPARK_ON_YARN_JAR Hadoopノード上のSpark on YARN JARへの絶対パス。これは、CLIクラスパスに追加されます。
このプロパティには2つのテンプレートがあります。Hadoopディストリビューションに対応するテンプレートの値をSPARK_ON_YARN_JARにコピーして、次のようにその値を更新します。
  • CDHの場合は、最初のテンプレートを使用します。これはspark-assembly.jarへの絶対パスである必要があります。
  • HDPの場合は、2番目のテンプレートを使用します。これは、コロンで区切られた、hive-metastore.jarhive-exec.jarおよびspark-assembly.jarへの絶対パスである必要があります。
    <path/to/hive-metastore.jar>:<path/to/hive-exec.jar>:<path/to/spark-assembly.jar>
  • MapRの場合は、3番目のテンプレートを使用します。これはspark-assembly-1.5.2-mapr-1602-hadoop2.7.0-mapr-1602.jarへの絶対パスである必要があります。
TRANSFORM_SERVICE_SERVERS 変換サービス・ノードのカンマ区切りのリスト。最善のパフォーマンスのためには、これらはすべて管理対象サーバーである必要があります。特に、Dgraphノードにはしないでください。これは、Dgraphにも変換サービスにも大量のメモリーが必要となるためです。
TRANSFORM_SERVICE_PORT Studioからのリクエストを変換サービスがリスニングするポート。
ENABLE_CLUSTERING_SERVICE Oracleサポートのみで使用。このプロパティは、FALSEに設定したままにしてください。
CLUSTERING_SERVICE_SERVERS Oracleサポートのみで使用。このプロパティは変更しないでください。
CLUSTERING_SERVICE_PORT Oracleサポートのみで使用。このプロパティは変更しないでください。
WORKFLOW_MANAGER_SERVERS ワークフロー・マネージャ・サービス・ノード。
WORKFLOW_MANAGER_PORT ワークフロー・マネージャ・サービスがデータ処理リクエストをリスニングするポート。