ヘッダーをスキップ
Oracle® Fusion Middleware WebCenter Sitesインストレーション・ガイド
11g リリース1 (11.1.1.8.0)
E49672-02
  ドキュメント・ライブラリへ移動
ライブラリ
製品リストへ移動
製品
目次へ移動
目次

前
 
次
 

26 Analyticsをインストールするための前提条件

この章では、Analyticsをインストールおよび構成してWebCenter Sites Webアプリケーション上で実行するための前提条件を説明します。

この章の内容は、次のとおりです。

26.1 インストール前のチェックリスト

Analyticsをインストールするには、サイレント・インストーラ(Javaベース・スクリプト)を実行します。サイレント・インストーラを実行する前に、Analyticsをサポートするすべてのコンポーネントの可用性および構成を確認します。

26.1.1 必要な経験

Analyticsをインストールするには、エンタープライズレベルのソフトウェア(アプリケーション・サーバーやデータベースなど)のインストールおよび構成と、システム運用パラメータの設定の経験が必要です。

26.1.2 システム・アーキテクチャ

  • 第25章「Analyticsアーキテクチャの概要」をお読みになり、Analytics製品のアーキテクチャおよびサポートされているインストール・オプションを確認してください。

  • リリース・ノートおよびOracle WebCenter Sites動作保証マトリックスをお読みになり、Analyticsをサポートするサード・パーティ・ソフトウェアの動作保証されているバージョンを使用していることを確認します。

26.1.3 WebCenter Sites: Analyticsキット

ライセンスを付与されているAnalyticsキット(analytics2.5.zip)を所有していることを確認します。このキットは図26-1に示すように構成されています。

図26-1 Analyticsキットのディレクトリ構造

図26-1の説明が続きます
「図26-1 Analyticsキットのディレクトリ構造」の説明

このキットには、Analyticsサイレント・インストーラ・ファイル、サポート・サード・パーティ・ソフトウェアおよびAnalyticsスイートが含まれています。Analyticsスイートは、次のアプリケーションで構成されています。

  • Analyticsデータ取得Webアプリケーション(センサーとも呼ぶ)

  • Analytics管理者Webアプリケーション

  • Analyticsレポート作成Webアプリケーション(レポート作成エンジンおよびインタフェース)

  • Hadoop分散ファイル・システム(HDFS)エージェント

  • Hadoopジョブ(スケジューラ)

26.1.4 Hadoopのインストール


注意:

Analyticsキットの3rdparty-toolsフォルダに、Hadoopバイナリが格納されています。このHadoopバイナリを使用して、Hadoopをインストールします(Hadoop Webサイトで使用可能なファイルはしません)。


  1. この項では、ローカル、疑似分散または完全な分散(推奨)のうち、開発、スケーラビリティおよびパフォーマンスの要件に最も適したモードでHadoopをインストールおよび構成します。これらのモードの説明は、次のとおりです。

    • ローカル(スタンドアロン)モードは、開発およびデバッグ用に使用されます。デフォルトでは、Hadoopは、単一Javaプロセスとして非分散モードで実行するように構成されています。

    • 疑似分散モードは、単一サーバーインストールで使用されます。このモードでは、すべてのHadoopサービス(たとえば、NameNodeJobTrackerDataNodeおよびTaskTracker)は、単一ノード上で実行され、各サービスは個別のJavaプロセスとして実行されます。

    • 完全な分散モードは、エンタープライズレベルのインストールに使用されます。このモードでは、Hadoopは、並列かつ分散方式で複数のノードで実行されます。Hadoopのセットアップには、少なくとも2つのノードが必要です。1つのマシンはマスター・ノードとして機能し、残りのマシンはスレーブ・ノードとして機能します。マスター・ノード上では、NameNodeおよびJobTrackerサービスが実行されます。スレーブ・ノード上では、DataNodeおよびTaskTrackerサービスが実行されます。

  2. Hadoopのインストール手順は、「Hadoop Quick Start」サイトを参照してください。そのURLは、その執筆時点では次のとおりです。

    http://hadoop.apache.org/docs/r0.18.3/quickstart.pdf

    疑似または完全な分散のいずれかのモードでHadoopをインストールする場合は、マスターおよびスレーブのすべてのコンピュータでhadoop-site.xmlというプロパティ・ファイルを構成する必要があります。推奨されるプロパティ値およびサンプル・ファイルは、この項に記載します。

    hadoop-site.xmlを構成する手順は、次のとおりです。

    1. 表26-1に示すようにhadoop-site.xmlファイルを構成します。構成済ファイルは、サンプルhadoop-site.xmlファイルに類似したものになります。

    2. 完全な分散モードでインストールする場合は、マスターおよびスレーブのすべてのコンピュータに構成済hadoop-site.xmlをコピーする必要があります。

      表26-1 hadoop-site.xmlのプロパティ

      プロパティ 説明 サンプル値

      fs.default.name

      デフォルト・ファイル・システムの名前。スキームおよび認可によってFileSystemの実装が判別されるURI。

      URIのスキームによって、FileSystem実装クラスを指定する構成プロパティ(fs.SCHEME.impl)が判別されます。

      URIの権限は、ファイル・システムのホスト、ポートなどの判別に使用されます。

      hdfs://<ipaddress>:<port1>
      

      説明:

      <ipaddress>は、マスター・ノードのIPアドレスです。

      <port1>は、受信接続をリスニングするNameNodeのポートです。

      例:

      hdfs://192.0.2.1:9090
      

      mapred.job.tracker

      MapReduceジョブ・トラッカが実行されているホストおよびポート。

      このプロパティがlocalに設定されている場合、ジョブは、1つのmapおよびreduceタスクとしてインプロセスで実行されます。

      <ipaddress>:<port2>
      local
      

      例:

      192.0.2.1:7070
      

      注意: 完全な分散モードでは、マスター・ノードのIPアドレスを入力します。

      dfs.replication

      デフォルトのブロック複製。HDFSに作成されているファイルの複製の数。

      この値は、クラスタ内のDataNodesの数と同一である必要があります。デフォルトは、dfs.replicationが設定されていない場合に使用されます。

      <equal to the number of data nodes>
      

      dfs.permissions

      HDFSにおける権限チェックを有効化または無効化します。

      • trueにすると、HDFSにおける権限チェックが有効化されます。

      • falseにすると、権限チェックは無効化されますが、他のすべての動作は変更されません。

      一方の値から他方の値に切り替えても、ファイルまたはディレクトリのモード、所有者またはグループが変更されることはありません。

      true | false
      

      hadoop.tmp.dir

      ローカル・ファイル・システム上のHadoopファイル・システムの場所。

      /work/hadoop/hadoop-0.18.2/tmp/hadoop-${user.name}
      
      mapred.child.java.opts
      

      TaskTracker子プロセス用のJavaオプション。

      次のパラメータは、存在する場合に補間されます。@taskid@が現在のTaskIDに置換されます。@の他のオカレンスは変更されません。

      例:

      /tmptaskidに指定されたファイルに対する冗長gcロギングを有効化し、ヒープの最大値を1GBに設定するには、次の値を渡します。

      -Xmx1024m -verbose:gc
      -Xloggc:/tmp/@taskid@.gc
      

      構成変数mapred.child.ulimitを使用すると、子プロセスの最大仮想メモリーを制御できます。

      -Xmx1024m
      
      mapred.tasktracker.
        expiry.interval
      

      TaskTrackerがハートビートを送信しない場合に「切断」と宣言されるまでの時間間隔(ミリ秒単位)。

      60000000
      
      mapred.task.timeout
      

      入力の読取り、出力の書込み、そのステータス文字列の更新のいずれも実行していない場合に、タスクが終了するまでのミリ秒数。

      60000000
      
      mapred.map.tasks
      

      ジョブ当たりのmapタスクのデフォルト数。通常、使用可能なホスト数より数倍大きい値に近い素数に設定します。mapred.job.trackerでローカルIPアドレスが指定されている場合は無視されます。

      11
      
      mapred.reduce.tasks
      

      ジョブ当たりのreduceタスクのデフォルト数。通常、使用可能ホスト数に近い素数に設定します。mapred.job.trackerでローカルIPアドレスが指定されている場合は無視されます。

      7
      
      mapred.tasktracker
        .map.tasks.maximum
      

      TaskTrackerによって同時に実行されるmapタスクの最大数。

      次の数値を指定します

      mapred.map.tasksの値を超える

      mapred.map.tasksの値を超える整数

      mapred.tasktracker
       .reduce.tasks.maximum
      

      TaskTrackerによって同時に実行されるreduceタスクの最大数。

      次の数値を指定します

      mapred.reduce.tasksの値を超える

      mapred.reduce.tasksの値を超える整数


      サンプルhadoop-site.xml

      <?xml version="1.0"?>
      <?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
      
      <!-- Put site-specific property overrides in this file. -->
      
      <configuration>
      
      <property>
        <name>fs.default.name</name>
        <value>hdfs://192.0.2.1:9090</value>
        <description>The name of the default file system.A URI whose
        scheme and authority determine the FileSystem implementation. The
        uri's scheme determines the config property (fs.SCHEME.impl) naming
        the FileSystem implementation class.The uri's authority is used to
        determine the host, port, etc. for a filesystem.</description>
      </property>
      
       <property>
        <name>mapred.job.tracker</name>
        <value>192.0.2.1:7090</value>
        <description>The host and port that the MapReduce job tracker runs
        at.If "local", then jobs are run in-process as a single map
        and reduce task.
        </description>
      </property>
      
      <property>
        <name>dfs.replication</name>
        <value>1</value>
        <description>Default block replication.
        The actual number of replications can be specified when the file is created.
        The default is used if replication is not specified in create time.
        </description>
      </property>
      
      <property>
        <name>dfs.permissions</name>
        <value>false</value>
        <description>
          If "true", enable permission checking in HDFS.
          If "false", permission checking is turned off,
          but all other behavior is unchanged.
          Switching from one parameter value to the other does not change the
          mode,owner or group of files or directories.
        </description>
      </property>
      
      <property>
        <name>hadoop.tmp.dir</name>
        <value/work/hadoop/hadoop-0.18.2/tmp/hadoop-${user.name}</value>
        <description>A base for other temporary directories.</description>
      </property>
      
       <property>
        <name>mapred.child.java.opts</name>
        <value>-Xmx200m</value>
        <description>Java opts for the task tracker child processes.
        The following symbol, if present, will be interpolated: @taskid@ is
        replaced  by current TaskID. Any other occurrences of '@' will go
        unchanged.
      
         For example, to enable verbose gc logging to a file named for the
        taskid in  /tmp and to set the heap maximum to be a gigabyte, pass a
        'value' of: -Xmx1024m -verbose:gc -Xloggc:/tmp/@taskid@.gc
        The configuration variable mapred.child.ulimit can be used to control
        the maximum virtual memory of the child processes.
        </description>
      </property>
      
      <property>
        <name>mapred.tasktracker.expiry.interval</name>
        <value>600000</value>
        <description>Expert: The time-interval, in miliseconds, after which
        a tasktracker is declared 'lost' if it doesn't send heartbeats.
        </description>
      </property>
      
      <property>
        <name>mapred.task.timeout</name>
        <value>600000</value>
        <description>The number of milliseconds before a task will be
        terminated if it neither reads an input, writes an output, nor
        updates its status string.
        </description>
      </property>
      
      <property>
        <name>mapred.map.tasks</name>
        <value>2</value>
        <description>The default number of map tasks per job.Typically set
        to a prime several times greater than number of available hosts.
        Ignored when mapred.job.tracker is "local".
        </description>
      </property>
      
      <property>
        <name>mapred.reduce.tasks</name>
        <value>1</value>
        <description>The default number of reduce tasks per job.Typically
          set to a prime close to the number of available hosts.Ignored
           when mapred.job.tracker is "local".
        </description>
      </property>
      
      <property>
        <name>mapred.tasktracker.map.tasks.maximum</name>
        <value>2</value>
        <description>The maximum number of map tasks that will be run
        simultaneously by a task tracker.
        </description>
      </property>
      
      <property>
        <name>mapred.tasktracker.reduce.tasks.maximum</name>
        <value>2</value>
        <description>The maximum number of reduce tasks that will be run
        simultaneously by a task tracker.
        </description>
      </property>
      
      </configuration>
      
  3. Hadoopをインストールおよび構成したら、Hadoopクラスタを検証します。

    1. 分散ファイル・システムが、複数のマシンにわたって実行されているかどうかを判別するには、次のようにしてマスター・ノード上でHadoop HDFSインタフェースを開きます。

      http://<hostname_MasterNode>:50070/
      

      HDFSインタフェースは、合計および残りの容量、アクティブ・ノード、停止ノードなどクラスタのステータスのサマリーを提供します。さらに、それを使用してHDFSネームスペースを参照し、Webブラウザでそのファイルの内容を表示できます。また、ローカル・マシンのHadoopログ・ファイルへのアクセスも提供します。

    2. 次のように、Hadoopに同梱されていてマスター・ノード上で実行されているMapReduce監視Webアプリケーションを使用してMapReduceセットアップを表示します。

      http://<hostname_MasterNode>:50030/
      

26.1.5 WebCenter Sitesおよびサポート・ドキュメント

  • ライセンスを付与されたバージョンのWebCenter Sites Webアプリケーションを使用しており、それによって完全に機能しているオンライン・サイトが稼働していることを確認します。

  • WebCenter Sitesドキュメントを手元に準備します。インストール・プロセスにおける各種ステップでは、サード・パーティのコンポーネントを作成および構成し、AnalyticsをWebCenter Sitesと統合する必要があります。次のガイドをダウンロードします。

    • 『Oracle Fusion Middleware WebCenter Sites: サポート・ソフトウェアのインストールと構成』: WebCenter Sites環境用のOracle Databaseの作成および構成に関する手順が記載されています。

    • 『Oracle Fusion Middleware WebCenter Sites管理者ガイド』: 統合プロセス中のロールの作成および割当てに関する手順が記載されています。

    • 『Oracle Fusion Middleware WebCenter Sites開発者ガイド』: 統合プロセスでのCatalogMoverの使用に関する手順が記載されています。

26.1.6 WebCenter Sites: Analyticsサイレント・インストーラ

Analyticsサイレント・インストーラは、Antで開発されたJavaベースのスクリプトであり、Analyticsをインストールします。サイレント・インストーラは、Analyticsキットに同梱されています。

  • 現在サポートされているバージョンのAnt (サイレント・インストーラに必要)が、サイレント・インストーラ自体を実行する予定の各サーバー上で実行されていることを確認します。

  • このガイドで説明するインストール・シナリオをよく理解し、自身の運用に適したシナリオを選択してください。シナリオは次のとおりです。

    • 単一サーバーのインストール: 図25-1

    • デュアル・サーバーのインストール: 図25-2

    • エンタープライズレベルのインストール: 図25-3


      注意:

      サイレント・インストーラのスクリプトでは、Analyticsがローカルに(それが実行されているコンピュータ上に)対話なしでインストールされます。サイレント・インスールには、インストール・フォルダの準備およびデータベースのセットアップから、Webアプリケーションおよびユーティリティ・プログラムのデプロイまでのすべての手順が含まれています。


26.1.7 WebCenter Sites: Analyticsサポート・ソフトウェア

26.1.7.1 データベース

  • Oracleデータベース管理システム(DBMS)およびSQL Plusユーティリティをインストールします。Analyticsスキーマは、SQL PlusによってOracle Databaseにインストールされます。(インストール手順は、製品ベンダーのドキュメントを参照してください。)

  • AnalyticsデータベースとしてOracle Databaseを作成および構成します。

    WebCenter SitesインストールがOracle DBMS上で実行されている場合、そのサーバーに追加のデータベースをサポートする能力があるなら、その同じDBMSを使用してAnalyticsのデータベースを作成できます。領域の要件は、指定した時間枠内に取得すると予期されるサイト・トラフィック・データの量、取得済データに対して計算される統計の量、RAWデータおよび統計をすべてアーカイブする予定であるかどうかによって異なります。

    Oracle Databaseの作成および構成の手順は、次のとおりです。

    1. 『Oracle Fusion Middleware WebCenter Sites: サポート・ソフトウェアのインストールと構成』の手順に従ってください。


      注意:

      次の点を忘れないでください。

      • グローバル名およびSIDを設定するときは、8文字を超える名前を作成しないでください。

      • ユーザーを作成するときは、analyticsユーザーを作成します。


    2. エンコーディングをUnicode (AL32UTF8)に設定します。次のコマンドの1つを使用して、環境変数nls_langNLS_LANG=AMERICAN_AMERICA.AL32UTF8に変更します。

      • Windowsでは、次のコマンドを入力します。

        set NLS_LANG=AMERICAN_AMERICA.AL32UTF8
        
      • Linuxでは、コマンドは、使用しているシェルに応じて異なります。

        KornおよびBourneシェルの場合:

        NLS_LANG=AMERICAN_AMERICA.AL32UTF8
        export NLS_LANG
        

        Cシェルの場合:

        setenv NLS_LANG AMERICAN_AMERICA.AL32UTF8
        

26.1.7.2 アプリケーション・サーバー

  • Analytics Webアプリケーション(つまり、データ取得、管理者アプリケーションおよびレポート作成アプリケーション)をホストするためのサポートされているアプリケーション・サーバーをインストールします。サポートされているアプリケーション・サーバーのリストは、Oracle WebCenter Sites動作保証マトリックスを参照してください。


    注意:

    単一サーバーのインストールでは、1つのアプリケーション・サーバーが必要です。

    複数サーバーのインストールでは、その構成に応じて最大3つのアプリケーション・サーバー(たとえば、データ取得アプリケーション、管理者アプリケーションおよびレポート作成アプリケーションが別々のコンピュータにインストールされている場合は、3つのアプリケーション・サーバー)が必要です。


  • 各アプリケーション・サーバーが、Analyticsデータベースと連動するJDBCドライバを提供することを確認します。(AnalyticsにはJDBCドライバは同梱されていません。)

26.1.7.2.1 すべてのアプリケーション・サーバー
  • UTF-8の文字エンコーディング用に各アプリケーション・サーバーを構成します。


    注意:

    アプリケーション・サーバーのエンコーディング設定は、global.xmlencodingパラメータの値に一致する必要があります。その値は、UTF-8です。


    • Tomcatの場合:

      ファイル$CATALINA_HOME/conf/server.xmlを編集し、URIEncoding属性をUTF-8に設定します。

      <Connector port="8080" URIEncoding="UTF-8"/>
      
    • WebSphereの場合:

      アプリケーション・サーバーのJVM設定のシステム・プロパティdefault.client.encodingの値をUTF-8に設定します。

  • Analyticsレポート作成(および管理者)サーバー上のアプリケーション・サーバーの場合は、JVMパラメータを次のように設定します。

    -Djava.awt.headless=true
    
  • アプリケーション・サーバー上のDNS参照を有効化します。自身のサイトにアクセスするビジターのマシンのホスト名をHostsレポートに表示するために、DNSサーバーはDNS参照を実行する必要があります。手順については、ご使用のアプリケーション・サーバーのドキュメントを参照してください。


    注意:

    DNS参照を実行するようにアプリケーション・サーバーが構成されていないと、Hostsレポートには、かわりに(IP Addressesレポートと同じように)IPアドレスが表示されます。


26.1.7.2.2 JBoss Application Server

次のように実行します。

  • JBossによって使用されるlibフォルダから共通jarファイルを削除します(Analytics管理者アプリケーションが実行できるようにするため)。

26.1.7.2.3 WebLogicアプリケーション・サーバー

次のように実行します。

  • Analyticsアプリケーションがログ・ファイルを作成できるようにするために、log4j jarファイルをWebLogicドメインのlibフォルダに追加します。

  • アプリケーション・サーバーの起動コマンドのPRE_CLASSPATHantlr.jarファイルを追加します。例:

    C:/bea/wlserver_10.3/samples/domains/wl_server/bin/setDomainEnv.cmd
    
26.1.7.2.4 WebSphereを使用している場合
  • Webアプリケーションのクラス・ローダーの順序にparentLastクラスを構成します。

26.1.8 環境変数

次のように実行します。

  • JAVA_HOMEを、現在サポートされているJDKのパスに、PATH変数を$JAVA_HOME/binに設定します。これらの設定は、Hadoop (Hadoop-env.sh)、HDFSエージェント、およびHadoopジョブに必要です(そのようにしない場合、それらはすべて実行されません)。


    注意:

    Windowsでは、次のようにJAVA_HOMEをその正規の形式に設定します。

    C:\PROGRA~1\<path_to_jdk>
    

    そのようにしない場合、パスに空白が含まれていると(たとえば、C:\Program Files)、そのパスを二重引用符で囲む必要があります(たとえば、"C:\Program Files")。


  • Solarisシステムでは、次の行をhadoop-env.shに追加します。

    export PATH=$PATH:/usr/ucb
    
  • ANT_HOME (サイレント・インストーラによって必要とされる)を現在のパスに設定します。

26.1.9 チャートのサポート

次のように実行します。

  • Analyticsレポート内では、チャートのレンダリングにSwiff Chart Generatorが使用されます。Swiff Chart Generatorを、Analyticsホスト(単一サーバーのインストール)またはレポート作成サーバー(複数サーバーのインストール)のいずれかにインストールします。レポート作成サーバーはanalytics.warをホストします。

    Swiff Chart Generatorのコピーは、次の場所から購入できます。

     http://www.globfx.com/
    

    評価版は、次の場所で入手できます。

    http://www.globfx.com/downloads/swfchartgen/
    
  • レポートを表示するコンピュータにAdobe Flash Playerをインストールします。Adobe Flash Playerの無料版は、次の場所で入手できます。

    http://www.adobe.com/go/getflashplayer
    

    Adobe Flash Playerをインストールしなくても、レポートは生成できます。ただし、それらにチャートが含まれていても、それらはdownload pluginリンクに置き換えられます。

26.2 次のステップ

サイレント・インストーラを使用して、Analyticsをインストールします。手順は、第27章「Analyticsのインストール手順」を参照してください。