Oracle® Fusion Middleware WebCenter Sitesインストレーション・ガイド 11g リリース1 (11.1.1.8.0) E49672-02 |
|
![]() 前 |
![]() 次 |
この章では、新しくインストールされたAnalyticsアプリケーションおよびそのコンポーネントの動作を検証する手順を説明します。
この章の内容は、次のとおりです。
この項では、Hadoop、HDFSエージェントおよびHadoopジョブを起動し、次の手順を完了します。
Analyticsインストールを検証する手順は、次のとおりです。
Hadoopを起動します。
HDFSエージェントを起動します(bin
フォルダにあるrun.sh
を実行します)。
cd ${ANALYTICS_HOME}/hdfsagent/bin
chmod +x run.sh
./run.sh
ANALYTICS_HOME
は、Analyticsインストール・ディレクトリです。
Hadoopジョブを起動する前に、次のように実行して、Hadoopジョブの動作が中断されないようにします。
ファイル/etc/security/limits.conf
を編集します。
soft nofile
およびhard nofile
の値を65536
に変更します。
Hadoopが実行される新しいシェルを開きます。ulimit -n
が少なくとも1024
であることを確認します。
Hadoopジョブを起動します(bin
フォルダにあるrun.sh
を実行します)。
注意: Hadoopの起動時にHadoopジョブ・スケジューラが実行されるようにするためには、JVMに少なくとも512MBのメモリーがあることが必要です。メモリーが不十分な場合は、メモリー・パラメータ Hadoopジョブ・スケジューラはHDFSのマスターであるため、そのスケジューラを再起動するときはすべてのHDFSエージェントを再起動する必要があります。 |
cd ${ANALYTICS_HOME}/hadoop-jobs/bin
chmod +x run.sh
./run.sh
データ取得が機能していることを検証します。
アプリケーション・サーバーが、Analytics Sensorがインストールされているサーバー上で実行されていることを確認します。
verify_install
ユーティリティを実行し、Analytics SensorのURLにアクセスします。複数サーバーのインストールの場合、すべてのデータ取得サーバー上でverify_install
ユーティリティを実行します。(verify_install
ユーティリティには、Hadoopジョブをテストするためのサンプル・オブジェクト・インプレッションが含まれています。)
UNIX:
./analytics_install.sh verify_install
Windows:
analytics_install.bat verify_install
システムによって、プレビュー・サムネイルが(1x1ピクセルのgif
ファイルとして)返されます。受信RAWデータが、Analytics Sensorによってdata.txt.tmp
ファイルに書き込まれます(図30-1を参照)。
data.txt.tmp
ファイルは、ローカル・ファイル・システムのフォルダに格納されます。そのフォルダは、global.xml
のlogwriter
エレメント(rootpath
属性)で指定されます(表28-3を参照)。しきい値の間隔に到達するか(表28-1のsensor.threshold
プロパティを参照)、アプリケーション・サーバーが再起動したときに、センサーによってdata.txt.tmp
ファイルがdata.txt
にローテーションされます。
たとえば、フォルダが<logwriter type="LFS" name="LFS" rootpath="C:/analytics/data"
/>
として指定されている場合、RAW取得データは図30-1に示す、/analytics/data/
フォルダから開始するフォルダ構造に書き込まれます。RAWデータは、data.txt.tmp
に収集され、ローテーション後に、data.txt
に格納されます。oirawdata
およびsesrawdata
というフォルダは、システム・デフォルトです。
HDFSエージェントを検証します。
HDFSエージェントがdata.txt
(およびそのディレクトリ構造)をローカル・ファイル・システムからHDFSに正常のコピーしたことを確認します。HDFSエージェントは、data.txt
を次のように処理します。
ローカル・ファイルシステムからHDFSのフォルダにdata.txt
ファイルをコピーします。そのHDFSフォルダは、global.xml
のhadoop.hdfs.defaultfs
パラメータによって指定されています(表28-1を参照)。
data.txt
が正常にコピーされると、それはローカル・ファイル・システムから削除されます。
HDFSエージェントのアクションを検証し、ファイル・システムを調査するには、マスター・ノード上で実行されているHadoop HDFS Webインタフェース(http://<hostname_MasterNode>:50070/
)を開き、そのフォルダを参照します。
Hadoopジョブを検証します。
Hadoopジョブは、HDFSエージェントによってローカル・ファイル・システムからHDFSにコピーされたデータを処理します。そのジョブのステータスを表示するには、次のJobTracker WebインタフェースURLを開きます。
http://<hostname_MasterNode>:50030/
JobTracker Webインタフェースの「RUNNING Jobs」セクションにOIProcessor
ジョブが表示されます。OIProcessor
ジョブが完了すると、OIInjection
ジョブが開始され、そのデータがAnalyticsデータベースに挿入されます。
注意: 一連のセッションおよびビジター・ジョブも実行されます。ジョブが完了したら、それらのステータスがAnalytics管理者アプリケーションの「ステータス・サマリー」パネルに表示されます。管理者アプリケーションにログインするときに、9のジョブを検証します。 |
Analyticsレポート作成インタフェースを表示可能であることを検証します。
次のURLにあるAnalyticsレポート作成アプリケーションに、ユーザー名csuser
およびパスワードcsuser
でログインします。
http://<hostname:port>/analytics
ここで、<hostname>
は、レポート作成アプリケーションがインストールされているサーバーのホスト名です。
注意:
データベース接続に失敗した場合は、その事実を示すメッセージが表示されます。 |
Analytics管理者インタフェースを表示可能であることを検証します。
次のURLにあるAnalytics管理者アプリケーションに、ユーザー名csuser
およびパスワードcsuser
でログインします。
http://<hostname:port>/analyticsadmin
ここで、<hostname>
は、管理者アプリケーションがインストールされているサーバーのホスト名です。
開く画面(図30-2)には、場所とプロセッサの「ステータス・サマリー」パネルが表示されます。
図30-2 Analytics管理者インタフェース(「コンポーネント」タブの「概要」オプション)
ここで、様々なコンポーネントのステータスを監視できます。例:
Analytics Sensorを監視して、それが機能しており、サイト・トラフィックに適切にレスポンスしていることを確認できます。(センサーの監視とアラートへの反応の詳細は、「センサーの過負荷アラート」を参照してください。)
Analytics Sensorを停止できます。
場所またはプロセッサをクリックしてそのステータスを表示することで、Hadoopジョブを検証できます。(Hadoopジョブおよび「ステータス・サマリー」パネルの詳細は、『Oracle Fusion Middleware WebCenter Sites: Analytics管理者ガイド』の「リファレンス: Hadoopジョブのプロセッサと場所」の章を参照してください。)
Analyticsインストールを検証したら、インストーラ・ファイルをそれぞれのホストに保持します。後で、運用パラメータの変更が必要になった場合に、そのインストーラを再実行できます。運用パラメータの手動による変更はお薦めいたしません。
インストーラ・ファイルは次のとおりです。
lib
は、サイレント・インストーラを実行するときにそれをサポートするために必要な追加のjar
ファイルがすべて含まれているフォルダです。
analytics-build.properties
には、Analytics製品をシステムにどのようにインストールするのかを定義するすべてのプロパティが含まれています。
analytics-build.xml
は、サイレント・インストールを実行するためのAntでビルドされたスクリプトです。
analytics_install.bat
は、Windowsコマンド・ウィンドウでサイレント・インストーラを実行するバッチ・ファイルです。
analytics_install.sh
は、サイレント・インストーラを実行するUNIX/Linuxシェル・スクリプトです。
analytics-silent-install.jar
には、サイレント・インストーラに必要なカスタムJavaクラスがすべて含まれています。
log4j.properties
は、実行時の出力ターゲット、メッセージのタイプおよびレベル、メッセージの書式などのロギング動作を構成するために使用されます。
大量のサイト・トラフィックにより、Analytics Sensorは、受信データで過負荷になり、正常に反応しなくなることがあります。Analytics Sensorは、ファイル・システムへの書込みを停止し、メモリー不足状態になるまで、かわりにメモリーに受信データを格納します。
Analytics管理者インタフェース(図30-2)で、Analytics Sensorボタンが黄色または赤で表示され、過負荷状態がアラートされます。黄色は、WARNING
状態を示します。赤は、CRITICAL
状態を示します(センサーが実行されていると想定)。
注意: 停止または機能していないAnalytics Sensorも、赤で表示されます。 |
global.xml
のプロパティによって、WARNING
またはCRITICAL
状態をトリガーするしきい値が決まります。そのプロパティはsensor.requestqueue.warnsize
およびsensor.requestqueue.maxsize
です。これらのプロパティを、Analyticsインストールの構成およびサイト・トラフィックの量に適したしきい値に設定します。これらのプロパティの詳細は、表28-1を参照してください。
「ステータス・サマリー」(管理インタフェース、図30-2)を監視していて、Analytics Sensorボタンが赤く表示されていることに気づいた場合、センサーが停止しているのか、障害が発生しているのか、過負荷になっているのかを判別する必要があります。過負荷の場合、システムをリセットして正常な動作を再開するには、メモリーをクリアする必要があります。メモリーからクリアされたデータは、取得できなくなり、失われます。
赤の状態に対処する手順は、次のとおりです。
Analytics Sensorボタンをクリックし、メイン・パネルに注意します。
"No data available"
と表示されていたら、Analytics Sensorは停止しているか障害が発生しています。
「センサーの詳細」パネルが表示されていたら、Analytics Sensorは実行中ですが過負荷になっています。「リテンション・ポンドのクリア」というラベルが付いたアイコンをクリックし、メモリーをクリアします(図30-3)。
GeoLite Cityは、MaxMindによって提供されている高度に最適化された地理位置情報データベースです。GeoLite Cityは、高速検索を実行するためにバイナリ形式になっています。これは、Analyticsによって、それに含まれている情報(国、地域、地域コード、メトロ・コード、市区町村および郵便番号)のために使用されます。GeoLite Cityデータベースは毎月、月の初めにMaxMindによって更新されます。
最新のGeoLite Cityデータベースをインストールする手順は、次のとおりです。
次の場所から、バイナリ形式のGeoLite Cityデータベースをダウンロードします。
http://geolite.maxmind.com/download/geoip/database/GeoLiteCity.dat.gz
次のようにファイルを解凍します。
Windowsの場合: winzipまたはzipプログラムを使用して、ファイルを解凍します。
UNIXの場合: tar
コマンドを使用してファイルを解凍します。
tar xvzf GeoLiteCity.dat.gz
GeoLiteCity.dat
ファイルを、Hadoopジョブ・アプリケーションがインストールされているサーバー上のAnalyticsインストール・フォルダの下のCACHE
フォルダにコピーします。
UNIXの場合:
cp GeoLiteCity.dat <ANALYTICS_INSTALL_DIR>/CACHE
この章のすべての手順を正常に完了すると、AnalyticsをWebCenter Sitesと統合してデータ取得およびレポート生成を有効化する準備が整います。
Analyticsの統合および有効化は、管理者と開発者の共同作業です。
管理者は、Analyticsにページおよびその他のアセット・タイプを登録し、それらが認識されてレポートに含まれるようにします。また、管理者は、レポートを生成する権限をユーザーに付与します。
開発者は、パブリッシュされたページでのデータ取得を有効化し、デフォルトHadoopジョブのセットによってRAWデータが処理されて、取得結果がレポートに格納されることを検証することで、レポートにデータが必ず埋め込まれるようにします。
統合、データ取得およびデータ処理の詳細は、『Oracle Fusion Middleware WebCenter Sites管理者ガイド』および『Oracle Fusion Middleware WebCenter Sites開発者ガイド』を参照してください。