Oracle® Fusion Middleware WebCenter Sitesインストレーション・ガイド 11g リリース1 (11.1.1.8.0) E49672-02 |
|
前 |
次 |
この章では、Analyticsをインストールおよび構成してWebCenter Sites Webアプリケーション上で実行するための前提条件を説明します。
この章の内容は、次のとおりです。
Analyticsをインストールするには、サイレント・インストーラ(Javaベース・スクリプト)を実行します。サイレント・インストーラを実行する前に、Analyticsをサポートするすべてのコンポーネントの可用性および構成を確認します。
Analyticsをインストールするには、エンタープライズレベルのソフトウェア(アプリケーション・サーバーやデータベースなど)のインストールおよび構成と、システム運用パラメータの設定の経験が必要です。
第25章「Analyticsアーキテクチャの概要」をお読みになり、Analytics製品のアーキテクチャおよびサポートされているインストール・オプションを確認してください。
リリース・ノートおよびOracle WebCenter Sites動作保証マトリックスをお読みになり、Analyticsをサポートするサード・パーティ・ソフトウェアの動作保証されているバージョンを使用していることを確認します。
ライセンスを付与されているAnalyticsキット(analytics2.5.zip
)を所有していることを確認します。このキットは図26-1に示すように構成されています。
このキットには、Analyticsサイレント・インストーラ・ファイル、サポート・サード・パーティ・ソフトウェアおよびAnalyticsスイートが含まれています。Analyticsスイートは、次のアプリケーションで構成されています。
Analyticsデータ取得Webアプリケーション(センサーとも呼ぶ)
Analytics管理者Webアプリケーション
Analyticsレポート作成Webアプリケーション(レポート作成エンジンおよびインタフェース)
Hadoop分散ファイル・システム(HDFS)エージェント
Hadoopジョブ(スケジューラ)
注意: Analyticsキットの |
この項では、ローカル、疑似分散または完全な分散(推奨)のうち、開発、スケーラビリティおよびパフォーマンスの要件に最も適したモードでHadoopをインストールおよび構成します。これらのモードの説明は、次のとおりです。
ローカル(スタンドアロン)モードは、開発およびデバッグ用に使用されます。デフォルトでは、Hadoopは、単一Javaプロセスとして非分散モードで実行するように構成されています。
疑似分散モードは、単一サーバーインストールで使用されます。このモードでは、すべてのHadoopサービス(たとえば、NameNode
、JobTracker
、DataNode
およびTaskTracker
)は、単一ノード上で実行され、各サービスは個別のJavaプロセスとして実行されます。
完全な分散モードは、エンタープライズレベルのインストールに使用されます。このモードでは、Hadoopは、並列かつ分散方式で複数のノードで実行されます。Hadoopのセットアップには、少なくとも2つのノードが必要です。1つのマシンはマスター・ノードとして機能し、残りのマシンはスレーブ・ノードとして機能します。マスター・ノード上では、NameNode
およびJobTracker
サービスが実行されます。スレーブ・ノード上では、DataNode
およびTaskTracker
サービスが実行されます。
Hadoopのインストール手順は、「Hadoop Quick Start」サイトを参照してください。そのURLは、その執筆時点では次のとおりです。
http://hadoop.apache.org/docs/r0.18.3/quickstart.pdf
疑似または完全な分散のいずれかのモードでHadoopをインストールする場合は、マスターおよびスレーブのすべてのコンピュータでhadoop-site.xml
というプロパティ・ファイルを構成する必要があります。推奨されるプロパティ値およびサンプル・ファイルは、この項に記載します。
hadoop-site.xmlを構成する手順は、次のとおりです。
表26-1に示すようにhadoop-site.xml
ファイルを構成します。構成済ファイルは、サンプルhadoop-site.xml
ファイルに類似したものになります。
完全な分散モードでインストールする場合は、マスターおよびスレーブのすべてのコンピュータに構成済hadoop-site.xml
をコピーする必要があります。
表26-1 hadoop-site.xml
のプロパティ
プロパティ | 説明 | サンプル値 |
---|---|---|
|
デフォルト・ファイル・システムの名前。スキームおよび認可によって URIのスキームによって、 URIの権限は、ファイル・システムのホスト、ポートなどの判別に使用されます。 |
hdfs://<ipaddress>:<port1> 説明:
例: hdfs://192.0.2.1:9090 |
|
このプロパティが |
<ipaddress>:<port2> local 例: 192.0.2.1:7070 注意: 完全な分散モードでは、マスター・ノードのIPアドレスを入力します。 |
|
デフォルトのブロック複製。HDFSに作成されているファイルの複製の数。 この値は、クラスタ内の |
<equal to the number of data nodes> |
|
HDFSにおける権限チェックを有効化または無効化します。
一方の値から他方の値に切り替えても、ファイルまたはディレクトリのモード、所有者またはグループが変更されることはありません。 |
true | false |
|
ローカル・ファイル・システム上のHadoopファイル・システムの場所。 |
/work/hadoop/hadoop-0.18.2/tmp/hadoop-${user.name} |
mapred.child.java.opts |
次のパラメータは、存在する場合に補間されます。 例:
-Xmx1024m -verbose:gc -Xloggc:/tmp/@taskid@.gc 構成変数 |
-Xmx1024m |
mapred.tasktracker. expiry.interval |
TaskTrackerがハートビートを送信しない場合に「切断」と宣言されるまでの時間間隔(ミリ秒単位)。 |
60000000 |
mapred.task.timeout |
入力の読取り、出力の書込み、そのステータス文字列の更新のいずれも実行していない場合に、タスクが終了するまでのミリ秒数。 |
60000000 |
mapred.map.tasks |
ジョブ当たりのmapタスクのデフォルト数。通常、使用可能なホスト数より数倍大きい値に近い素数に設定します。 |
11 |
mapred.reduce.tasks |
ジョブ当たりのreduceタスクのデフォルト数。通常、使用可能ホスト数に近い素数に設定します。 |
7 |
mapred.tasktracker .map.tasks.maximum |
TaskTrackerによって同時に実行される 次の数値を指定します
|
|
mapred.tasktracker .reduce.tasks.maximum |
TaskTrackerによって同時に実行される 次の数値を指定します
|
|
サンプルhadoop-site.xml
<?xml version="1.0"?> <?xml-stylesheet type="text/xsl" href="configuration.xsl"?> <!-- Put site-specific property overrides in this file. --> <configuration> <property> <name>fs.default.name</name> <value>hdfs://192.0.2.1:9090</value> <description>The name of the default file system.A URI whose scheme and authority determine the FileSystem implementation. The uri's scheme determines the config property (fs.SCHEME.impl) naming the FileSystem implementation class.The uri's authority is used to determine the host, port, etc. for a filesystem.</description> </property> <property> <name>mapred.job.tracker</name> <value>192.0.2.1:7090</value> <description>The host and port that the MapReduce job tracker runs at.If "local", then jobs are run in-process as a single map and reduce task. </description> </property> <property> <name>dfs.replication</name> <value>1</value> <description>Default block replication. The actual number of replications can be specified when the file is created. The default is used if replication is not specified in create time. </description> </property> <property> <name>dfs.permissions</name> <value>false</value> <description> If "true", enable permission checking in HDFS. If "false", permission checking is turned off, but all other behavior is unchanged. Switching from one parameter value to the other does not change the mode,owner or group of files or directories. </description> </property> <property> <name>hadoop.tmp.dir</name> <value/work/hadoop/hadoop-0.18.2/tmp/hadoop-${user.name}</value> <description>A base for other temporary directories.</description> </property> <property> <name>mapred.child.java.opts</name> <value>-Xmx200m</value> <description>Java opts for the task tracker child processes. The following symbol, if present, will be interpolated: @taskid@ is replaced by current TaskID. Any other occurrences of '@' will go unchanged. For example, to enable verbose gc logging to a file named for the taskid in /tmp and to set the heap maximum to be a gigabyte, pass a 'value' of: -Xmx1024m -verbose:gc -Xloggc:/tmp/@taskid@.gc The configuration variable mapred.child.ulimit can be used to control the maximum virtual memory of the child processes. </description> </property> <property> <name>mapred.tasktracker.expiry.interval</name> <value>600000</value> <description>Expert: The time-interval, in miliseconds, after which a tasktracker is declared 'lost' if it doesn't send heartbeats. </description> </property> <property> <name>mapred.task.timeout</name> <value>600000</value> <description>The number of milliseconds before a task will be terminated if it neither reads an input, writes an output, nor updates its status string. </description> </property> <property> <name>mapred.map.tasks</name> <value>2</value> <description>The default number of map tasks per job.Typically set to a prime several times greater than number of available hosts. Ignored when mapred.job.tracker is "local". </description> </property> <property> <name>mapred.reduce.tasks</name> <value>1</value> <description>The default number of reduce tasks per job.Typically set to a prime close to the number of available hosts.Ignored when mapred.job.tracker is "local". </description> </property> <property> <name>mapred.tasktracker.map.tasks.maximum</name> <value>2</value> <description>The maximum number of map tasks that will be run simultaneously by a task tracker. </description> </property> <property> <name>mapred.tasktracker.reduce.tasks.maximum</name> <value>2</value> <description>The maximum number of reduce tasks that will be run simultaneously by a task tracker. </description> </property> </configuration>
Hadoopをインストールおよび構成したら、Hadoopクラスタを検証します。
分散ファイル・システムが、複数のマシンにわたって実行されているかどうかを判別するには、次のようにしてマスター・ノード上でHadoop HDFSインタフェースを開きます。
http://<hostname_MasterNode>:50070/
HDFSインタフェースは、合計および残りの容量、アクティブ・ノード、停止ノードなどクラスタのステータスのサマリーを提供します。さらに、それを使用してHDFSネームスペースを参照し、Webブラウザでそのファイルの内容を表示できます。また、ローカル・マシンのHadoopログ・ファイルへのアクセスも提供します。
次のように、Hadoopに同梱されていてマスター・ノード上で実行されているMapReduce監視Webアプリケーションを使用してMapReduceセットアップを表示します。
http://<hostname_MasterNode>:50030/
ライセンスを付与されたバージョンのWebCenter Sites Webアプリケーションを使用しており、それによって完全に機能しているオンライン・サイトが稼働していることを確認します。
WebCenter Sitesドキュメントを手元に準備します。インストール・プロセスにおける各種ステップでは、サード・パーティのコンポーネントを作成および構成し、AnalyticsをWebCenter Sitesと統合する必要があります。次のガイドをダウンロードします。
『Oracle Fusion Middleware WebCenter Sites: サポート・ソフトウェアのインストールと構成』: WebCenter Sites環境用のOracle Databaseの作成および構成に関する手順が記載されています。
『Oracle Fusion Middleware WebCenter Sites管理者ガイド』: 統合プロセス中のロールの作成および割当てに関する手順が記載されています。
『Oracle Fusion Middleware WebCenter Sites開発者ガイド』: 統合プロセスでのCatalogMoverの使用に関する手順が記載されています。
Analyticsサイレント・インストーラは、Antで開発されたJavaベースのスクリプトであり、Analyticsをインストールします。サイレント・インストーラは、Analyticsキットに同梱されています。
現在サポートされているバージョンのAnt (サイレント・インストーラに必要)が、サイレント・インストーラ自体を実行する予定の各サーバー上で実行されていることを確認します。
このガイドで説明するインストール・シナリオをよく理解し、自身の運用に適したシナリオを選択してください。シナリオは次のとおりです。
Oracleデータベース管理システム(DBMS)およびSQL Plusユーティリティをインストールします。Analyticsスキーマは、SQL PlusによってOracle Databaseにインストールされます。(インストール手順は、製品ベンダーのドキュメントを参照してください。)
AnalyticsデータベースとしてOracle Databaseを作成および構成します。
WebCenter SitesインストールがOracle DBMS上で実行されている場合、そのサーバーに追加のデータベースをサポートする能力があるなら、その同じDBMSを使用してAnalyticsのデータベースを作成できます。領域の要件は、指定した時間枠内に取得すると予期されるサイト・トラフィック・データの量、取得済データに対して計算される統計の量、RAWデータおよび統計をすべてアーカイブする予定であるかどうかによって異なります。
Oracle Databaseの作成および構成の手順は、次のとおりです。
『Oracle Fusion Middleware WebCenter Sites: サポート・ソフトウェアのインストールと構成』の手順に従ってください。
注意: 次の点を忘れないでください。
|
エンコーディングをUnicode (AL32UTF8
)に設定します。次のコマンドの1つを使用して、環境変数nls_lang
をNLS_LANG=AMERICAN_AMERICA.AL32UTF8
に変更します。
Windowsでは、次のコマンドを入力します。
set NLS_LANG=AMERICAN_AMERICA.AL32UTF8
Linuxでは、コマンドは、使用しているシェルに応じて異なります。
KornおよびBourneシェルの場合:
NLS_LANG=AMERICAN_AMERICA.AL32UTF8 export NLS_LANG
Cシェルの場合:
setenv NLS_LANG AMERICAN_AMERICA.AL32UTF8
Analytics Webアプリケーション(つまり、データ取得、管理者アプリケーションおよびレポート作成アプリケーション)をホストするためのサポートされているアプリケーション・サーバーをインストールします。サポートされているアプリケーション・サーバーのリストは、Oracle WebCenter Sites動作保証マトリックスを参照してください。
注意: 単一サーバーのインストールでは、1つのアプリケーション・サーバーが必要です。 複数サーバーのインストールでは、その構成に応じて最大3つのアプリケーション・サーバー(たとえば、データ取得アプリケーション、管理者アプリケーションおよびレポート作成アプリケーションが別々のコンピュータにインストールされている場合は、3つのアプリケーション・サーバー)が必要です。 |
各アプリケーション・サーバーが、Analyticsデータベースと連動するJDBCドライバを提供することを確認します。(AnalyticsにはJDBCドライバは同梱されていません。)
UTF-8の文字エンコーディング用に各アプリケーション・サーバーを構成します。
注意: アプリケーション・サーバーのエンコーディング設定は、 |
Tomcatの場合:
ファイル$CATALINA_HOME/conf/server.xml
を編集し、URIEncoding
属性をUTF-8に設定します。
<Connector port="8080" URIEncoding="UTF-8"/>
WebSphereの場合:
アプリケーション・サーバーのJVM設定のシステム・プロパティdefault.client.encoding
の値をUTF-8に設定します。
Analyticsレポート作成(および管理者)サーバー上のアプリケーション・サーバーの場合は、JVMパラメータを次のように設定します。
-Djava.awt.headless=true
アプリケーション・サーバー上のDNS参照を有効化します。自身のサイトにアクセスするビジターのマシンのホスト名をHostsレポートに表示するために、DNSサーバーはDNS参照を実行する必要があります。手順については、ご使用のアプリケーション・サーバーのドキュメントを参照してください。
注意: DNS参照を実行するようにアプリケーション・サーバーが構成されていないと、Hostsレポートには、かわりに(IP Addressesレポートと同じように)IPアドレスが表示されます。 |
次のように実行します。
JBossによって使用されるlib
フォルダから共通jar
ファイルを削除します(Analytics管理者アプリケーションが実行できるようにするため)。
次のように実行します。
Analyticsアプリケーションがログ・ファイルを作成できるようにするために、log4j jar
ファイルをWebLogicドメインのlib
フォルダに追加します。
アプリケーション・サーバーの起動コマンドのPRE_CLASSPATH
にantlr.jar
ファイルを追加します。例:
C:/bea/wlserver_10.3/samples/domains/wl_server/bin/setDomainEnv.cmd
次のように実行します。
JAVA_HOME
を、現在サポートされているJDKのパスに、PATH
変数を$JAVA_HOME/bin
に設定します。これらの設定は、Hadoop (Hadoop-env.sh
)、HDFSエージェント、およびHadoopジョブに必要です(そのようにしない場合、それらはすべて実行されません)。
注意: Windowsでは、次のように C:\PROGRA~1\<path_to_jdk> そのようにしない場合、パスに空白が含まれていると(たとえば、 |
Solarisシステムでは、次の行をhadoop-env.sh
に追加します。
export PATH=$PATH:/usr/ucb
ANT_HOME
(サイレント・インストーラによって必要とされる)を現在のパスに設定します。
次のように実行します。
Analyticsレポート内では、チャートのレンダリングにSwiff Chart Generatorが使用されます。Swiff Chart Generatorを、Analyticsホスト(単一サーバーのインストール)またはレポート作成サーバー(複数サーバーのインストール)のいずれかにインストールします。レポート作成サーバーはanalytics.war
をホストします。
Swiff Chart Generatorのコピーは、次の場所から購入できます。
http://www.globfx.com/
評価版は、次の場所で入手できます。
http://www.globfx.com/downloads/swfchartgen/
レポートを表示するコンピュータにAdobe Flash Playerをインストールします。Adobe Flash Playerの無料版は、次の場所で入手できます。
http://www.adobe.com/go/getflashplayer
Adobe Flash Playerをインストールしなくても、レポートは生成できます。ただし、それらにチャートが含まれていても、それらはdownload pluginリンクに置き換えられます。
サイレント・インストーラを使用して、Analyticsをインストールします。手順は、第27章「Analyticsのインストール手順」を参照してください。