Oracle Tuxedo/Oracle Exalogic環境開発ガイド

     前  次    新規ウィンドウで目次を開く    PDFとして表示 - 新規ウィンドウ  Adobe Readerを取得 - 新規ウィンドウ
コンテンツはここから始まります

Oracle Tuxedo/Oracle Exalogic環境デプロイメント・ガイド

この章では、次の項について説明します。

 


Oracle Tuxedoエンタープライズ・デプロイメントの概要

この項では、Oracle Tuxedoエンタープライズ・デプロイメント参考トポロジとOracle Exalogic用構成シナリオを紹介します。次の内容が含まれます。

エンタープライズ・デプロイメントとは

エンタープライズ・デプロイメントとは、実績が証明されているOracleの高可用性、セキュリティ技術、およびOracle Exalogic用の推奨事項に基づいたOracleのベストプラクティスの青写真です。このような青写真に記載されるベストプラクティスは、Oracle製品の様々な技術の積み重ねであるOracle Database、Oracle Fusion MiddlewareおよびOracle Exalogicマシンの隅々にまで広がっています。

Oracle Tuxedoシステム・エンタープライズ・アプリケーションのデプロイメントは

前提条件

初期ストレージおよびネットワーク構成を含むOracle Exalogicマシンの設定と試験稼働については、Oracle Exalogicマシン・オーナーズ・ガイドに記載されています。

用語

この項では、Oracle Tuxedoアプリケーションの管理に関するOracle Tuxedoの概念と用語を説明します。

Oracle推奨事項の利点

このガイドで説明されるOracle Tuxedo構成は、ハードウェア・リソースを最小化し、様々なアプリケーションを含むエンタープライズ・コンピューティングに対して信頼性の高い規格に準拠したシステムを提供できるように設計されています。

高可用性

エンタープライズ・デプロイメント・アーキテクチャは、Tuxedoアプリケーション・サーバーまたはTuxedoシステム・サーバーがそれぞれ異なるコンピュータ上で複製できるため、可用性が高くなっています。何らかの問題によって任意のペア・コンピュータがシャットダウンした場合でも、永続的なサービスを提供できます。

詳細は、Oracle Tuxedoを使用した高可用性の実現に関する項( http://www.oracle.com/technetwork/middleware/tuxedo/overview/index.html)を参照してください。

パフォーマンス

Oracle Exalogicは、I/Oファブリック・テクノロジとしてInfiniBandを使用します。InifiniBandによって、スループットの向上、待機時間の短縮と共に、プロセッサ間通信、ネットワークおよびストレージのファブリックな統合に適した拡張性の高いファブリックが提供されます。クラスタとストレージ・トラフィックに最適化されています。

アプリケーションの設計に関係なく、Oracle Exalogicは全体のパフォーマンスとアプリケーションの信頼性を劇的に高める数々の機能を提供します。Oracle Exalogicの特徴や機能の利点を活用する上でOracle Tuxedoユーザーに求められるのは、Exalogicマシンにアプリケーションをデプロイすることだけです。コードを変更したりアプリケーションを再設計したりする必要はありません。

アプリケーション分離

Oracle Exalogicは、多様なセキュリティ、信頼性、およびパフォーマンスに関する要件を持つアプリケーションが同時にデプロイされる環境において、高度な分離機能を提供します。また、初期構成時にデフォルトのIP over InfiniBand (IPoIB)リンクとEthernet over InfiniBand (EoIB)インタフェースを作成します。Exalogicマシン内のすべてのコンピュート・ノードは、デフォルトInfiniBandパーティションのメンバーとなります。

アプリケーション分離の最もよく見られるモデルには、複数のIPサブネット構成が含まれ、そこでは最もミッション・クリティカルなアプリケーションにデフォルトIPoIBリンクより上の階層にある独自のIPサブネットが割り当てられます。このモデルでは、あまり厳密ではないか、そうでなければ異なるリソース要件を持つアプリケーションも一部のサブネットに含まれます。

Oracle Exalogic構成環境の概要

Oracleエンタープライズ・デプロイメント・トポロジを開始する前に、Exalogic環境の現在の状態を理解する必要があります。

Oracle Exalogicマシン・オーナーズ・ガイドに記載されるすべてのタスクは完了済みと仮定されます。このガイドでは、データセンター・サイトの準備、Oracle Exalogicマシンの試験稼動、IPアドレスの割当てを含む初期ネットワーク構成、およびSun ZFS Storage 7320 Applianceの初期設定が説明されています。

この項には、以下のトピックが含まれています。

ネットワーク

エンタープライズ・デプロイメント・トポロジの構成を開始する前に、Oracle OneCommandツールを実行して次のタスクを完了する必要があります(Oracle Exalogicマシン・オーナーズ・ガイドのOracle OneCommandを使用したExalogicマシンの初期構成に関する項に記載)。

Sun ZFS Storage 7320 Appliance

Oracle Exalogicマシン上のSun ZFS Storage 7320 Applianceの初期構成は、製造時に完了しています。デフォルト共有(Exported File Systems)の詳細は、Oracle Exalogicマシン・オーナーズ・ガイドのデフォルト・ストレージ構成に関する項を参照してください。

初期構成を完了したら、必要に応じてカスタム共有の作成を実行できます。

Oracleソフトウェア

Oracle Linux 5.5は、ご使用のOracle Exalogicマシン内の各コンピュート・ノードに事前インストールされています。

エンタープライズ・デプロイメント参考トポロジ

このガイド内の手順と図は、参考トポロジを示すので、変更を適用することは可能です。

このガイドでは、次のシナリオで参考エンタープライズ・トポロジに関する構成手順を説明します。

注意: Oracle Exalogicマシン内のコンピュート・ノードの数は、Oracle Exalogicマシン・フル・ラック(コンピュート・ノード数30)、Oracle Exalogicマシン・ハーフ・ラック(コンピュート・ノード数16)、およびOracle Exalogicマシン・クォーター・ラック(コンピュート・ノード数8)のように、購入したハードウェアの構成に依存します。

Exalogicマシン内における水平スライス

図3は、Oracle Exalogicマシン・フル・ラック内のOracle Tuxedoエンタープライズ・デプロイメント参考トポロジの水平スライスを示します。

図3 Exalogicマシン・フル・ラック内の水平スライス

Exalogicマシン・フル・ラック内の水平スライス

エンタープライズ・デプロイメント参考トポロジに基づいて、独自のトポロジを作成できます。

このガイドで使用される構成シナリオ

このガイドに記載される構成例は、次を含む簡単なシナリオに基づいています。

 


ソフトウェアのインストール

この項では、エンタープライズ・デプロイメント参考トポロジに必要なソフトウェア・インストールについて説明します。

この項には、以下のトピックが含まれています。

Oracle Tuxedoインストーラのダウンロード

Oracle Tuxedoソフトウェアは、インストーラ・ファイルとして配布されます。このファイルにはOracleインストール・プログラムのコピーも含まれています。Oracleインストール・プログラムは、Oracle Tuxedo製品をシステムにインストールするためのOracleの標準ツールです。

次のように、Oracle Tuxedo Linux x86-64 (64-bit)インストーラをダウンロードする必要があります。

Sun Storage 7000統合共有ストレージ・システムにおけるOracle Tuxedoシステムのインストール

Sun ZFS Storage 7320 Appliance上の任意の共有場所でOracle Tuxedo製品のバイナリをインストールできます。共有ファイル・システムは、すべてのコンピュート・ノードによってアクセス可能である必要があります。アクセス権限の問題を考慮すると、ユーザー・アカウントの作成時に、(アクセス権限の問題を避けるため)すべてのExalogicコンピュート・ノード上に同一のuidおよびgidが含まれることを確認することをお薦めします。たとえば、ユーザー用にNISアカウントを作成します。

次のように、Oracle TuxedoインストーラをComputeNode1上で実行する必要があります。

  1. Oracle Tuxedoシステムをインストールする前に、コンピュート・ノードがハードウェアおよびソフトウェアの一般的なインストール要件を満たしていることを確認します。Tuxedo 11gリリース1の場合、『Oracle Tuxedo 11gリリース1 (11.1.1.2.0)プラットフォーム・データシート』を参照してください。
  2. Oracle Tuxedo管理者としてComputeNode1にログインします。
  3. Oracleインストール・プログラムは、Oracle Tuxedoをターゲット・システムにインストールするために必要なファイルをアーカイブから抽出する一時ディレクトリを使用します。デフォルトの一時ディレクトリは、/tmpです。シェル・プロンプトで次のコマンドを入力します。

    export IATEMPDIR=tmpdirname

    デフォルトの一時ディレクトリ/tmpを置換します。

    インストーラをダウンロードしたディレクトリに移動し、次のコマンドを入力してインストール・プログラムを起動します。

    prompt>sh ./tuxedo111120_64_Linux_01_x86.bin – i console

    ロケールの選択画面が表示されます。

  4. ロケールの選択画面で、1を入力します。この数値は、英語に関連付けられています。
  5. はじめに画面が表示されます。

  6. 「概要」画面で、<ENTER>を押して続行します。
  7. 「インストール・セットの選択」画面が表示されます。

  8. 「インストール・セットの選択」画面で、1を入力します。この数値は、「完全インストール」に関連付けられています。
  9. 「Oracleホームの選択」画面が表示されます。

  10. 「Oracleホームの選択」画面で、1を入力します。この数値は、「新しいOracleホームを作成します」に関連付けられています。
  11. 「新しいOracleホーム・ディレクトリを指定してください」画面が表示されます。

  12. ご使用のOracleホーム・ディレクトリを入力します。新しいOracleホーム・ディレクトリを指定する場合、必ずフルパス名を入力してください。
  13. Oracleホームは、Sun Storage 7000統合ストレージ・システム上の共有ファイル・システムにあり、Oracle Exalogicマシン内のすべてのコンピュート・ノードがアクセスできます。

    「製品ディレクトリの選択」画面が表示されます。

  14. 「製品ディレクトリの選択」画面で、2を入力します。この数値は、現在の選択を使用に関連付けられています。
  15. 「サンプルのインストール」(Y/N)」が表示されます。

  16. 「Y」を入力してサンプルをインストールします。
  17. プレインストールの概要画面が表示されます。

  18. プレインストールの概要画面で、<ENTER>を押して続行します。
  19. 「インストールの準備」画面が表示されます。

  20. 「インストールの準備」画面で、<ENTER>を押してインストールします。
  21. 「インストールしています」画面が表示されます。

  22. 「インストールしています」画面では、ユーザーは何も入力する必要がありません。
  23. インストールが完了すると、「tlistenサービスの構成」画面が表示されます。

  24. 「tlistenサービスの構成」画面で、任意のtlistenパスワードを入力します。パスワードはクリアテキスト形式の英数字による文字列で、長さは80字以下である必要があります。続いて、パスワードを確認します。
  25. 注意: 正常に通信を行うためには、Oracle Tuxedoアプリケーション(ドメイン)内のすべてのノードに共通のパスワードが必要になります。そのため、単一アプリケーション内にある複数のコンピュート・ノードにOracle Tuxedoをインストールする場合は、必ず同じパスワードを使用します。
    注意: 「SSLインストールの選択」画面が表示されます。
  26. 「SSLインストールの選択」画面で、1を入力します。この数値は「はい」(インストールに必須ではありません)に関連付けられています。
  27. 「SSLサポートのためのLDAP設定を入力」画面が表示されます。

  28. 「SSLサポートのためのLDAP設定を入力」画面で、ご使用の「LDAPサービス名」「LDAPポートID」「LDAP基本オブジェクト」およびLDAPフィルタ・ファイルの場所(インストールに必須ではありません)を入力します。
  29. 「インストール完了」画面が表示されます。

  30. 「インストール完了」画面で、[Enter]を押してインストーラを終了します。

ファイルとディスク領域の割当て

Oracle Tuxedoアプリケーションでは、すべてのシステム・ファイルを同じrawディスク・スライスやOSファイル・システム上に格納することができます。構成ファイルを通常のOSファイル・システムに配置することもできますが、トランザクション・ログTLOGはrawディスク・デバイス上に配置することをお勧めします。TLOGが100ブロック(512バイト/ブロックと仮定して51,200バイト)を超えることはほとんどありません。また、ディスク・パーティションは100ブロックよりはるかに大きいので、同じデバイス上に構成ファイルとTLOGの両方を格納できます。

OSファイル・システム外の領域は、通常rawディスク領域と呼ばれます。rawディスク上のデバイス特殊ファイルから直接読み取りや書込みを行うシステム・コールが実行されると入出力が高速になるだけでなく、物理的なwrite()もすぐに生成されます。OSのファイル・システムを使用すると、Oracle Tuxedoではwrite() iの実行時を正確に予測したり制御したりすることはできません。しかし、rawディスク領域を使用すると、Oracle Tuxedoで書込み操作を正確に制御できます。このような制御は、Oracle Tuxedoトランザクション・ログのエントリでは特に重要です。また、複数のユーザーがシステムにアクセスしている場合は、データベースの整合性を維持するために、書込み操作を制御できることが重要です。

Oracle Tuxedoアプリケーションにrawディスク領域を使用する場合、システムのハードディスク・デバイスがすでに/(ルート)/usrなどのファイル・システムに割り当てられていることがあります。その場合は、ハードディスクのパーティションを作成し直して、OSファイル・システム以外の用途に使用できるパーティションを確保する必要があります。パーティションを再度作成する方法については、使用しているプラットフォームのシステム管理者ガイドを参照してください。

OSのファイル・システムを使用する場合、構成ファイルとTLOGをコンピュート・ノードのソリッド状態ディスク(SSD)に保管することをお薦めします。これにより、XAトランザクション待機時間を短縮できます。

 


Tuxedoアプリケーションの構成

Oracle Tuxedoシステムをインストールしたら、Oracle Exalogicエンタープライズ・デプロイメント・トポロジ用に構成する必要があります。

この項では、図4で示すように、2つのドメインにOracle Tuxedoシステムを構成する方法を説明します。2つのドメイン(domain1およびdomain2)があり、各ドメインはMPモードの2つのコンピュート・ノード全体に構成されます。それぞれ異なるサービスを提供しますが、相互に通信を行います。両ドメインの関係性は図5に示すとおりです。この他、domain1には/WSおよびSALTが構成されているので、Exalogicマシン外部からのリモート・リクエストは、domain1によって提供されるサービスにアクセスできます。

この構成例に従い、ご使用のアプリケーション・デプロイメントとアイソレーション要件に基づき、Exalogicマシン上の残存コンピュート・ノードでその他のOracle Tuxedoドメインを作成できます。

図4 Oracle Tuxedo構成

Oracle Tuxedoの構成

図5 Oracle Fusion Middleware構成

Oracle Fusion Middleware構成

このサンプル構成では、次を含む2つのOracle Tuxedoドメインが作成されます。

このエンタープライズ・デプロイメント・トポロジでは、リモート・ワークステーション・クライアントからのリクエストは、Exalogicマシンの10 GBのEthernet over InfiniBand (EoIB)ネットワークを介して受信されます。内部ネットワーク・トラフィックは、IP over InfiniBand (IPoIB)を介します。そのため、WSLおよびGWWSは、EoIB用のBOND1インタフェース上でリスニングするよう構成されます。tlisten、bridge、GWTDOMAINなどの内部通信に使用されるその他すべてのTuxedoコンポーネントは、図6で示されるように、IPoIB用のBOND0インタフェース上で構成されます。

図6 Exalogicマシン・ネットワークの概要

Exalogicマシン・ネットワークの概要

Oracle Exalogicマシンのネットワーク接続の概略図には次が含まれます。

始める前の重要事項

Oracle Tuxedoコンポーネントの構成を開始する前に、次の注意事項をお読みください。

Oracle Tuxedo Middlewareを構成するには、次の手順を完了する必要があります。

前提条件

次の項目は、Oracle Exalogic用Oracle Tuxedo 11gリリース1 PS 1製品の前提条件です。

Oracle Tuxedoシステム・ビルドとランタイム環境の設定

Oracle Tuxedoを使用してOracle Tuxedoアプリケーションを作成および実行する前に、いくつかの環境変数を設定する必要があります。表1は、該当する環境変数のリストです。

表1 Oracle Tuxedoコア環境変数
環境変数
説明
TUXDIR
このマシンでOracle Tuxedoソフトウェアをインストールした製品ディレクトリの絶対パス名。TUXDIR は、サーバーとクライアントのみのマシンの両方で設定する必要があります。
APPDIR
このサーバー・マシンでアプリケーションおよび管理サーバーが起動するアプリケーション・ディレクトリの絶対パス名。APPDIR は、1つまたは複数のディレクトリに設定することができます。
TUXCONFIG
バイナリ形式のTUXCONFIGファイルが置かれているサーバー・マシン上のファイルまたはデバイスの絶対パス名。TUXCONFIGを作成するには、UBBCONFIG構成ファイルに対してtmloadcfコマンドを実行します。

上記のTuxedoコア環境変数リスト以外にも、表2に記載される次の環境変数も設定およびエクスポートする必要があります。

表2 環境変数
PATH=$APPDIR:$TUXDIR/bin:/bin:$PATH
LD_LIBRARY_PATH=$APPDIR:$TUXDIR/lib:/lib:/usr/lib:$LD_LIBRARY_PATH
BDMCONFIG=$APPDIR/bdmconfig

実行する必要のある手順は次のとおりです。

  1. ComputeNode1およびComputeNode2で、端末ウィンドウを開きます。コマンドプロンプトで、すべての環境変数をエクスポートします(あるいは、このような環境変数をファイルに設定し、Tuxedoのインストールによって生成されるtux.envのようにそれをソースにすることもできます)。
  2. export TUXDIR=<OracleHome>/ tuxedo11gR1

    export APPDIR= アプリケーション・ディレクトリ>

    export TUXCONFIG= $APPDIR/tuxconfig

    export PATH=$APPDIR:$TUXDIR/bin:/bin:$PATH

    export LD_LIBRARY_PATH=$APPDIR:$TUXDIR/lib:/lib:/usr/lib:$LD_LIBRARY_PATH

    export LANG=C

    export BDMCONFIG=$APPDIR/bdmconfig

    ComputeNode1/ComputeNode2上のアプリケーション・サーバーはOracle Databaseにアクセスする必要があるため、データベース用の環境変数もエクスポートする必要があります。

    export ORACLE_HOME= Oracle Databaseのインストール場所>

    export PATH= $ORACLE_HOME/bin:$PATH

    export LD_LIBRARY_PATH=$ORACLE_HOME/lib:$LD_LIBRARY_PATH

    export TUXWA4ORACLE=1

TUXDIRAPPDIR、およびTUXCONFIG環境変数は、UBBCONFIGファイルのMACHINESセクションのTUXDIRAPPDIR、およびTUXCONFIG パラメータの値と一致しなければなりません。

  1. 上記の手順1をDomain2のComputeNode29およびComputeNode30にも繰り返します。

UBBCONFIGファイルを編集する

『Oracle Tuxedo 11g リリース1(11.1.1.2.0)』ドキュメントの ファイル形式、データ記述、MIB、およびシステム・プロセス・リファレンスUBBCONFIGに関する項を参照してください。

注意: tlistenおよびbridgeアドレスを、BOND0インタフェースにバインドされるIPアドレスに必ず設定します。
注意: WSLおよびGWWSアドレスを、BOND1インタフェースにバインドされるIPアドレスに必ず設定します。

DMCONFIGファイルの編集

『Oracle Tuxedo 11g リリース1(11.1.1.2.0)』ドキュメントの ファイル形式、データ記述、MIB、およびシステム・プロセス・リファレンスDMCONFIGに関する項を参照してください。

注意: GWTDOMAINアドレスを、BOND0インタフェースにバインドされるIPアドレスに必ず設定します。

汎用デバイス・リストとトランザクション・ログの作成

グローバル・トランザクションを使用するアプリケーション内の各コンピュート・ノードで、汎用デバイス・リスト(UDL)を作成し、グローバル・トランザクション・ログ(TLOG)のUDLエントリを定義します。TLOGは、トランザクションが終了するまで、トランザクションに関する情報が保持されているログです。次の手順を実行する必要があります。

  1. TLOGの定義
  2. UDLを作成してTLOGのUDLエントリを定義する前に、グローバル・トランザクションを使用するアプリケーション内の各マシンで、UBBCONFIGファイルのMACHINESセクションのTLOGDEVICETLOGNAMEおよびTLOGSIZEパラメータを設定する必要があります。

  3. UDLとTLOGのUDLエントリの作成
  4. TLOGDEVICEのUDLエントリは、TLOGが必要な各マシンで手動で作成する必要があります。エントリを作成するのはTUXCONFIGをロードする前でも後でもかまいませんが、アプリケーションを起動する前でなければなりません。この構成例では、ComputeNode1上でUDLエントリのみを作成する必要があります。

    デバイス・リストの作成コマンドcrdlにアクセスするには、アプリケーションがアクティブでない状態でtmadmin -cを起動します。-cオプションにより、tmadminが構成モードで呼び出されます。

    グローバル・トランザクションを使用するアプリケーション内のComputeNode1/ComputeNode2で、UDLとTLOGのUDLエントリを作成するには、次の手順に従います。

    ComputeNode1/ComputeNode2の端末ウィンドウで、次のコマンドを入力します。

    tmadmin – c

    crdl – z config – b blocks

    ここで、-z configには、UDLの格納先デバイス(TLOGの常駐先デバイス)のフルパス名を指定します。-b blocksには、デバイスに割り当てるブロック数を指定します。configの値は、UBBCONFIGファイルにあるMACHINESセクションのTLOGDEVICEパラメータの値と一致していなければなりません。ブロック数は、TLOGSIZEの値より大きくなければなりません。

    例:

    tmadmin – c

    crdl – z <APPDIR>/TLOG – b 200

  5. 上記と同じ手順をDomain2にも実行します。

tlistenプロセスの開始

アプリケーションを起動する前に、ネットワーク接続されたOracle Tuxedoアプリケーションの各コンピュータ・ノードでtlistenプロセスを開始する必要があります。tlistenプロセスを使用すると、ユーザーとMASTERノードで実行中のOracle Tuxedoソフトウェアは、MASTER以外のノードで実行中のOracle Tuxedoプロセスを開始、停止、および管理できます。

コマンドライン・シェルからtlistenプロセスを手動で開始します。

-lオプションは、UBBCONFIGファイルにあるNETWORKセクションのNLSADDRパラメータの値と一致している必要があります。

同じ手順をDomain2にも実行します。

XAリソース・マネージャを使用するOracle Tuxedoアプリケーションのbuildtmsの実行

分散トランザクションおよびXA準拠のリソース・マネージャを使用するOracle Tuxedoアプリケーションの場合、buildtmsコマンドを使用して、トランザクション・マネージャ・サーバー・ロード・モジュールを構築する必要があります。

$APPDIRディレクトリ直下のComputeNode1/ComputeNode2で、次のコマンドを入力します。

buildtms -r Oracle_XA -o ORATMS

Oracle_XA は、Oracle XAインタフェースの公開名です。ORATMSは、UBBCONFIGファイルで定義されるトランザクション・マネージャ名です。

同様の手順をDomain2にも実行します。

詳細は、『Oracle Tuxedoコマンド・リファレンス』buildtms(1)リファレンス・ページを参照してください。

Oracleアプリケーションのbuildserverの実行

buildserverを使用して、Oracle Tuxedoアプリケーション・サーバーを構築する必要があります。

simpserv1のアプリケーション・ソース・コードの名前はsimpserv1.pcと仮定します。次の例はアプリケーション・サーバーを構築する方法に関するサンプルです。

On ComputeNode1/ComputeNode2, type the command:
    1. $(ORACLE_HOME)/bin/proc MODE=ORACLE def_sqlcode=yes code=ansi_c include=$(ORACLE_HOME)/precomp/public iname=simpserv1.pc
    2. $(CC) -c -I$(ORACLE_HOME)/precomp/public simpserv1.c
    3. buildserver -o simpserv1-f simpserv1.o -r Oracle_XA -s TOUPPER1

Domain2にも同じ手順を実行します(サービス名はTOUPPER2)。

ご使用のアプリケーション・サーバーに合わせてコンパイル・パラメータを調整できます。

Oracle Tuxedoアプリケーションの起動

コマンドtmbootを使用し、すべてのTuxedoアプリケーションを起動する必要があります。

マスター・ノードComputeNode1/ComputeNode29で、次のコマンドを入力します。

tmboot – y

すると、すべての管理サーバーとアプリケーション・サーバーが起動されます。

データベース・サーバーへのInfiniBandネットワーク通信用SDPプロトコル・サポートの構成

Oracle Tuxedoは、ATMIおよびCORBAアプリケーションにかわって、トランザクションをその起点(通常はクライアント)から1つ以上のサーバー・マシン、そして元のクライアントにわたって管理できます。トランザクションが完了したとき、Tuxedoはそのトランザクションに関与したすべてのシステムの状態の一貫性を保証します。

Oracle Tuxedoシステムは、X/Open XAインタフェースを使用して様々なリソース・マネージャと通信します。XA規格は、あらゆる主要データベース・ベンダー製品で幅広くサポートされています。

Oracle Databaseの起動には、SDP (Sockets Direct Protocol)も使用できます。

『Oracle Database Net Services管理者ガイド』データベース・サーバーへのInfinibandネットワーク通信用SDPプロトコル・サポートの構成に関する項に記載されているように、データベースがInfiniBandをサポートするように構成してください。

 


Oracle Tuxedoアプリケーションの管理

前提条件

次の項目は、ご使用のエンタープライズ・デプロイメントを管理・監視するための前提条件です。

監視

ご使用のアプリケーションは、Tuxedoコマンドライン監視ツールおよびTSAM監視管理コンソールの2つの方法で監視できます。

Tuxedoメソッドによるアプリケーションの監視

詳細説明は、TuxedoドキュメントのOracle Tuxedoアプリケーション実行時の管理に関する項を参照してください。

Tuxedoはすでにアプリケーションを監視・管理する上で豊富な手段を提供していますが、監視の中央集中化という観点から、Oracle TSAMを選択すると最適です。

Oracle TSAMによるアプリケーションの監視

Oracle TSAMは、Oracle Tuxedoのシステムおよびアプリケーションに、包括的なモニターおよびレポート機能が用意されています。

Oracle TSAMエージェントを使用すると、アプリケーションの様々なパフォーマンス・メトリック(呼出しパス、トランザクション、サービス、システム・サーバーなど)を収集できます。Oracle TSAMマネージャは、1つまたは複数のTuxedoドメインから収集されたパフォーマンス・メトリックスを、関連付けたり集計したりするためのグラフィカルなユーザー・インタフェースを提供します。以下は、Oracle TSAMの監視機能を例示するための代表的な監視メトリックのリストです。Oracle TSAMの特徴および機能の詳細は、 Oracle TSAMドキュメントを参照してください。

Oracle TSAMマネージャへのアクセス

TSAMマネージャは、Exalogicマシン・ノードの内部または外部にインストールできます。TSAMマネージャにアクセスする前に、次の前提条件を実行する必要があります。

詳細は、『Oracle Tuxedo System and Application Monitor (TSAM)デプロイメント・ガイド』を参照してください。

http://<hostname>:<port>/tsamに移動することで、Oracle TSAMにアクセスできます。

図7のTSAMホームページでは、監視対象環境のステータス全体を一覧表示できます。

図7 Oracle TSAMマネージャのホームページ

Oracle TSAMマネージャのホームページ

モニタリング・ポリシーの定義

Oracle TSAMは、包括的なポリシー・モニタリング・メカニズムです。Exalogicマシンにデプロイされる各Tuxedoドメイン内の任意のモニタリング・ポイントには、固有のモニタリング・ポリシーを定義できます。図8は、ポリシーを定義する方法を例示するサンプル・ページを示します。

図8 Oracle TSAMポリシー定義

Oracle TSAMポリシー定義

サービス呼出しのパス

Oracle TSAMは、呼出しパス・モニタリングという機能を提供します。この機能を使用すると、エンドユーザーまたは管理者は、サービス伝播パスに侵入して「バックグラウンドでの処理状況」を確認できます。図9は、呼出しパス・モニタリングを例示するサンプル・ページを示します。

図9 呼出しパス・モニタリング・ページ

呼出しパス・モニタリング・ページ

サービスのモニタリング

Oracle TSAMは、サービス・アクティビティ統計情報を表示するための豊富なグラフィック表示機能を提供します。図10は、サービス・モニタリングを例示するサンプル・ページを示します。

図10 サービス・モニタリング・ページ

サービス・モニタリング・ページ

サーバーのモニタリング

Oracle TSAMは、Exalogicマシン・ノード内にデプロイされた現在のシステム・サーバーを監視する機能も提供します。図11は、/Tドメイン・ゲートウェイ・サーバー・モニタリングを例示するサンプル・ページを示します。

図11 GWTDOAMサーバーのモニタリング

GWTDOAMサーバーのモニタリング

トポロジのスケール・アウト

システム管理者は、一度アプリケーションが起動して実行されたら、そのアプリケーションが実行中は企業の求めるパフォーマンス、可用性、セキュリティの各条件を満たすように管理する必要があります。Oracle Tuxedoシステムでは、システムを停止せずに構成を変更することができます。アプリケーションの動的変更をサポートするため、Oracle Tuxedoシステムは、Oracle管理コンソール、コマンドライン・ユーティリティ(tmadmin tmconfig)、および管理情報ベース(MIB) APIという3つの方法を提供します。これら3つの方法を使用すると、新規Exalogicマシン・ノード、新規サーバー・グループ、新規サーバーの追加およびこのサーバーのアクティブ化などを含め、アプリケーションを追加、変更および削除できます。

Exalogic/Oracle Tuxedoアプリケーションの例

次の2つの例は、新規Exalogicマシン・ノードを実行中のOracle Tuxedoアプリケーションに追加する方法を示します。

例1

MIBを使用してMP構成に新規ノードを追加するには、リスト1で示されるように、addnode.datというファイルを作成します。

リスト1 addnode.datファイル
$cat addnode.dat
TA_OPERATION SET
TA_CLASS T_MACHINE
TA_LMID simple3
TA_PMID node's physical name
TA_TUXCONFIG absolute pathname of the TUXCONFIG file
TA_TUXDIR absolute pathname of the directory where the Tuxedo is installed
TA_APPDIR absolute pathname of application directory
TA_STATE NEW
<cr>

続いて、次を入力します。

$ ud32 < addnode.dat

LMID simple3ノードが追加されます。また、T_GROUPまたはT_SERVERクラスを使用して同じ手順を実行し、GROUPSとSERVERSをこの新規ノードに追加できます。

例2

tmconfigを使用して新規MP構成ノードを追加するには、次の手順を実行します。

  1. $ tmconfig
  2. セクション:
    1) RESOURCES,
    2) MACHINES,
    3) GROUPS
    4) SERVERS
    5) SERVICES
    6) NETWORK
    7) ROUTING
    8) QUIT
    9) WSL
    10) NETGROUPS
    11) NETMAPS
    12) INTERFACES [1]: 2
  3. オペレーション:
    1) FIRST
    2) NEXT
    3) RETRIEVE
    4) ADD
    5) UPDATE
    6) CLEAR BUFFER
    7) QUIT [1]:4
  4. エディタに入力してフィールドを追加/変更 [n]?y
    TA_OPERATION SET
    TA_LMID simple3
    TA_PMID(ノードの物理名)
    TA_TUXCONFIG (TUXCONFIGファイルの絶対パス名)
    TA_TUXDIR (Tuxedoのインストール先ディレクトリの絶対パス名)
    TA_APPDIR (アプリケーション・ディレクトリの絶対パス名)
    TA_STATE NEW

    <cr>

一方、同様の方法でOracle Tuxedoノード、サーバー・グループ、MIBまたはtmconfigコマンドを介したサーバーを動的に削除できます。

詳細は、『Oracle Tuxedoアプリケーション実行時の管理』アプリケーションの動的な変更に関する項を参照してください。

 


Oracle Tuxedo Application Runtime for CICS and Batchのデプロイメント

この項では、Oracle Exalogicマシン上におけるOracle Tuxedo Application Runtime for CICS and Batch (ART)のインストール、構成および管理に関する説明と手順を提供します。

この項には、以下のトピックが含まれています。

ARTランタイムのインストール

ARTインストーラのダウンロード

次のように、ART Linux x86-64 (64-bit)インストーラをダウンロードする必要があります。

  1. Oracle Tuxedo OTN Webサイト(http://www.oracle.com/technetwork/middleware/tuxedo/downloads/index.html)からBINファイルをダウンロードします
  2. art111121_64_linux_x86_64.binComputeNode1のローカル・ディレクトリにコピーします。

ARTソフトウェアのインストール

Sun ZFS Storage 7320 Appliance上の任意の共有場所でOracle ART製品のバイナリをインストールできます。共有ファイル・システムは、すべてのコンピュート・ノードによってアクセス可能である必要があります。アクセス権限の問題を考慮すると、各Exalogicコンピュート・ノード上で同一のuidおよびgidを持つユーザーを作成することを推奨します。たとえば、ユーザー用にNISアカウントを作成します。

次のように、Oracle ARTインストーラをコンピュート・ノード上(ComputeNode1というサーバーなど)で実行する必要があります。

  1. Oracle ARTをインストールする前に、コンピュート・ノードがハードウェアおよびソフトウェアの一般的なインストール要件を満たしていることを確認します。
  2. Oracle Tuxedo管理者としてComputeNode1にログインします。
  3. Oracleインストール・プログラムは、Oracle Tuxedoをターゲット・システムにインストールするために必要なファイルをアーカイブから抽出する一時ディレクトリを使用します。デフォルトの一時ディレクトリは /tmpとなり、シェル・プロンプトで次のコマンドを入力できます。

    export IATEMPDIR=tmpdirname

    デフォルトの一時ディレクトリ/tmpを置換します。

    インストーラをダウンロードしたディレクトリに移動し、次のコマンドを入力してインストール・プログラムを起動します。

    prompt>sh ./ art111121_64_linux_x86_64.bin – i console

    「概要」& インストール・セット画面が表示されます。

  4. 「インストール・セットの選択」画面で、1を入力します。この数値は、「完全インストール」に関連付けられています。
  5. 「Oracleホームの選択」画面が表示されます。

  6. 「Oracleホームの選択」画面で、1を入力します。この数値は、「新しいOracleホームを作成します」に関連付けられています。
  7. 「新しいOracleホーム・ディレクトリを指定してください」画面が表示されます。

  8. ご使用のOracleホーム・ディレクトリを入力します。新しいOracleホーム・ディレクトリを指定する場合、必ずフルパス名を入力してください。
  9. Oracleホームは、Sun Storage 7000統合ストレージ・システム上の共有ファイル・システムにあり、Oracle Exalogicマシン内のすべてのコンピュート・ノードがアクセスできます。

    「サンプルのインストール」画面が表示されます。

  10. 「Y」を入力してサンプルをインストールします。
  11. プレインストールの概要画面が表示されます。

  12. プレインストールの概要画面で、<ENTER>を押して続行します。
  13. 「インストールしています」画面が表示されます。

  14. 「インストールしています」画面では、ユーザーは何も入力する必要がありません。
  15. 「インストール完了」画面が表示されます。

  16. 「インストール完了」画面で、[Enter]を押してインストーラを終了します。

ART CICSランタイムの構成

始める前の重要事項

Oracle ARTコンポーネントの構成を開始する前に、次の点に注意します。

ART CICSランタイムの初期構成

ART CICSアプリケーションを構成する前に、表1のリストのように、ART CICSランタイム環境を作成するために所定の環境変数とパスを定義する必要があります。

ART CICSランタイムのサーバー構成

ART CICSランタイムには、Oracle Tuxedoアプリケーション・サーバーとして機能するいくつかのサーバーが含まれます。これには次が含まれます。

ART CICSランタイムのリソース構成

CICSランタイムは、z/OS上のCICS CSDファイルで以前に定義されたリソース・タイプのサブセットを管理します。各リソース・タイプの定義は、専用リソースの構成ファイルに保存されます。このようなファイルはすべて、${KIXCONFIG}ディレクトリにあります。

ART CICSランタイムは、次のリソースを管理します。

ARTバッチ・ランタイムの構成

この項は、ARTバッチ・ランタイムの構成要件と、バッチ・ジョブを送信・管理するためにTuxedo Job Enqueueing Service (TuxJES)を使用する方法について理解する際に役立ちます。詳細は、 Oracle Tuxedo ART Runtimeドキュメントを参照してください。

バッチ・ランタイムEJRの使用

環境変数の設定

表2は、KSHスクリプトで呼び出されソフトウェアを使用する前に定義されている必要がある環境変数のリストです。

表2 KSHスクリプトの環境変数
変数
                   使用方法
DATA
データが格納されるディレクトリ
SPOOL
Sysoutファイル・ディレクトリ
TMP
アプリケーション・ファイルの一時ディレクトリ

表3は、ARTバッチ・ランタイムで使用されソフトウェアを使用する前に定義されている必要がある環境変数のリストです。

表3 Oracle Tuxedo Application Runtime for Batchの環境変数
変数
使用方法
PROCLIB
PROCおよびINCLUDEファイルのディレクトリ。
MT_ACC_FILEPATH
ファイル同時実行性アクセス。
MT_DB_LOGIN
データベース接続のユーザー資格証明。
MT_LOG
Logsディレクトリ。
MT_TMP
内部ファイル用の一時的なディレクトリ。

EJRを使用したジョブの送信

ARTバッチ・ランタイムを使用するとき、TuxJESはイニシエータ(ARTJESINITIATORサーバー)によって起動されるジョブを送信するために使用できますが、EJR (Execute Job Request)ランチャを直接使用してもジョブを実行できます。

この種の実行を行う前に、全体のコンテキストが正しく設定されていることを確認します。これには、ARTバッチ・ランタイムが必要とする環境変数やディレクトリも含まれます。

EJRを使用してジョブを起動する例:

   # EJR DEFVCUST.ksh

EJRランチャの詳細な説明は、 『Oracle Tuxedo Application Runtime for Batchリファレンス・ガイド』を参照してください。

Tuxedo Job Enqueueing Service (TuxJES)の使用

概要

TuxJESは、メインフレームJES2関数のサブセットを実装しています(ジョブの送信、ジョブの表示、ジョブの保留、ジョブの解放、ジョブの取消しなど)。

TuxJESはOracle Tuxedoアプリケーションであり、TuxJESを実行するためにはOracle Tuxedoが必要です。

TuxJESには、次の主要なコンポーネントが含まれます。

詳細は、 『Oracle Tuxedo Application Runtime for Batchリファレンス・ガイド』を参照してください。

TuxJESシステムの構成

TuxJESは、Oracle Tuxedoアプリケーションです。大部分のTuxJESコンポーネントは、Oracle TuxedoクライアントまたはOracle Tuxedoサーバーです。まずTuxJESをOracle Tuxedoアプリケーションとして構成する必要があります。TuxJESがインストールされたディレクトリを参照する環境変数 JESDIR が、正しく構成される必要があります。

Oracle Tuxedo構成ファイル(UBBCONFIG)には、次のTuxJESサーバーが含まれている必要があります。

TuxJES管理サーバーARTJESADMの場合、 -i オプションを使用してTuxJES構成ファイルを指定する必要があります。ARTJESADMは、Oracle Tuxedo構成ファイル(UBBCONFIG)で、ARTJESCONV、ARTJESINITIATORまたはARTJESPURGEの各サーバーよりも前に構成される必要があります。

詳細は、 『Oracle Tuxedo Application Runtime for Batchリファレンス・ガイド』を参照してください。

TuxJESはOracle Tuxedo /Qコンポーネントを使用するため、UBBCONFIGファイル内に、TMS_QMが構成されたOracle Tuxedoメッセージング・サーバーTMQUEUEを持つOracle Tuxedoグループが必要です。/Qキュー・スペースの名前は、JES2QSPACEと構成する必要があります。

TuxJESはOracle Tuxedo Eventコンポーネントを使用するため、Oracle Tuxedoユーザー・イベント・サーバーTMUSREVTが、UBBCONFIGファイルにある必要があります。

TuxJESシステムは、Oracle Tuxedo SHMアプリケーションまたはOracle Tuxedo MPアプリケーションのいずれかを使用できます。前者は単一のコンピュート・ノード上で実行されますが、後者は複数のExalogicコンピュート・ノード上で実行され、ローカル・イニシエータを使用して各ノードの作業負荷を制御します。

ARTアプリケーションの管理

Oracle Tuxedoアドオン製品のOracle Tuxedo System and Application Monitor (TSAM)を使用することで、ARTランタイムを管理・監視できます。

ART CICSランタイムのモニタリング

Oracle TSAMは、ART CICSトランザクションとターミナルの監視に使用できます。

TSAM ART CICSトランザクション監視を使用すると、図12で示すようにTSAMによって監視される各CICS領域の概要が提供されます。提供される情報には、CICS領域のコンポーネント、ステータス、および全体の統計メトリックが含まれます。

図12 TSAM ART CICSトランザクション監視

TSAM ART CICSトランザクション監視

Oracle TSAM ART CICSトランザクション監視を使用すると、現在と過去のメトリック・データが提供されます(トランザクション・コールの回数、実行時間、およびCPU消費時間など)。

ARTバッチ・ランタイムの管理

Oracle TSAMは、図12で示されるように、ART TuxJESシステムの管理にも使用できます。Oracle TSAMコンソールからジョブ情報を表示して、ジョブのキャンセルやパージを実行できます。

図13バッチ・ランタイム監視

バッチ・ランタイム監視

 


Oracle Tuxedo ARTバッチ環境の高可用性と拡張性デプロイメント

Oracle TuxedoシステムとARTバッチ・ソフトウェアをインストールしたら、Oracle Exalogicエンタープライズ・デプロイメント・トポロジ用にOracle ARTバッチを構成する必要があります。この構成では、次のOracle Fusion Middlewareコンポーネントを使用します。

ARTバッチ環境の高可用性に関する主な依存関係は、/Qシステム・サーバー(TMQUEUEなど)の高可用性構成です。

この項では、ComputeNode1およびComputeNode2という2つのマシンと共に、図14で示すようにARTバッチ環境のフェイルオーバーとフェイルバックをサポートする予備マシンとしてComputeNode7を含む構成シナリオを提供します。

この構成例に従い、ご使用のアプリケーション・デプロイメントと管理要件に基づいて、Exalogicマシン上でARTバッチ環境を作成できます。

図14 ARTバッチ・アプリケーション・デプロイメント構成シナリオ

ARTバッチ・アプリケーション・デプロイメント構成シナリオ

このサンプル構成では、次を含むOracle Tuxedoドメインを作成します。

注意: 3つのノードにはすべて独自のエンドポイントがあります(ホスト・アドレスとしてマシンのBOND0 IPアドレス)。次に例を示します。
注意: ComputeNode1 BOND0 IP =192.168.10.1.
ComputeNode2
BOND0 IP=192.168.10.2
ComputeNode7
BOND0 IP=192.168.10.7

はじめに

Oracle ARTバッチ・コンポーネントの構成を開始する前に、次の点に注意します。

前提条件

Oracle Exalogic用のOracle ARTバッチ製品の構成には次の前提条件があることに注意します。

ComputeNode1におけるOracle TuxedoノードSITE1のフローティングIPの有効化

TuxedoノードSITE1上のOracle Tuxedoのtlistenおよびbridgeは、IPアドレスが次々に途切れることなくフェイルオーバーできるようにするため、フローティングIPアドレス上でリスニングするように構成する必要があります。エラーが発生した場合、TuxedoノードSITE1は仮想IPアドレスと同調して次々にコンピュート・ノード間を移行できます。

ComputerNode1を仮想ホスト名(virtualhost1)に関連付けます。この仮想ホスト名は、/etc/hostsカスタム・エントリによって適切なフローティングIP (10.0.0.17など)にマッピングされる必要があります。フローティングIPが、エンタープライズ・デプロイメント参考トポロジにおける必須ノードで名前解決システム(/etc/hosts)によって使用できるか確認します。仮想ホスト名(virtualhost1)に関連付けられるフローティングIP (10.0.0.17)は、ComputeNode1上で有効化される必要があります。ComputeNode2およびComputeNode7でも、hostname virtualhost1はこのフローティングIPアドレスに関連付けられる必要があります。

ComputeNode1上でフローティングIPを有効化するには、次の手順を完了します。

  1. ComputeNode1で、ルート・ユーザーとしてifconfigコマンドを実行し、リスト1に示すようにネットマスクの値を取得します。
  2. リスト1 ネットマスクの値
    [root@ComputeNode1 ~] # /sbin/ifconfig
    bond0	Link encap:Ethernet  HWaddr 00:11:43:D7:5B:06
    inet addr:139.185.140.51  Bcast:139.185.140.255  Mask:255.255.255.224 inet6 addr: fe80::211:43ff:fed7:5b06/64 Scope:Link
    UP BROADCAST RUNNING MULTICAST  MTU:1500  Metric:1
    RX packets:10626133 errors:0 dropped:0 overruns:0 frame:0
    TX packets:10951629 errors:0 dropped:0 overruns:0 carrier:0 collisions:0 txqueuelen:1000
    RX bytes:4036851474 (3.7 GiB) TX bytes:2770209798 (2.5 GiB) Base address:0xecc0 Memory:dfae0000-dfb00000
  3. ComputeNode1で、ルート・ユーザーとしてifconfigコマンドを使用してフローティングIPアドレスをネットワーク・インタフェース・カードにバインドします。手順1で取得したネットマスクの値を使用します。
  4. /sbin/ifconfig networkCardInterface Virtual_IP_Address netmask netMask

    例:

    /sbin/ifconfig bond0:1 10.0.0.17 netmask 255.255.255.224

    この例では、bond0:1はファブリックレベルの内部InfiniBandトラフィック用に作成された仮想ネットワーク・インタフェースです。

  5. arpingコマンドをルート・ユーザーとして実行し、次のルーティング表を更新します。
    /sbin/arping -q -U -c 3 -I networkCardInterface Floating_IP_Address
  6. 例: /sbin/arping -q -U -c 3 -I bond0 10.0.0.17

    注意: ルーティング表を更新するには、このコマンドを何回も実行することをお薦めします。
  7. ComputeNode2からComputeNode1のフローティングIPアドレスにpingを打って確認します。
  8. 例: /bin/ping 10.0.0.17

    注意: このエンタープライズ・デプロイメント・トポロジでは、サンプルIPアドレスが使用されています。Oracle OneCommandを使用して再構成した自分のIPアドレスに置き換える必要があります。Tuxedoマスター・ノードがフローティングIPアドレスを要求しない場合でも、TuxedoノードSITE1を手動でComputeNode1からComputeNode7に移行する場合には、フローティングIPアドレスを割り当てることをお薦めします。

Oracle Tuxedoドメイン(ComputeNode1およびComputeNode2)におけるARTバッチ環境の構成

Oracle Tuxedoドメイン(ComputeNode1およびComputerNode2空構成)でARTバッチ・アプリケーションを構成するには、次の手順を実行する必要があります。

  1. Sun ZFS Storage 7320 ApplianceでOracleホームを指定します。たとえば、サンプル環境では/u01/app/Oracle。続いて、Oracleホーム・ディレクトリにOracle TuxedoおよびOracle Tuxedo Application Runtime for CICS and Batchをインストールします。
  2. インストールが終わったら、oracle: tuxedo11gR1およびart11gR1に2つの子ディレクトリが作成されます(それぞれ、TuxedoとARTインストールを含みます)。

  3. JESルート・ディレクトリとしてディレクトリを作成します(/u01/app/simpjob/jesroot)。
  4. pdksh-5.2.14をダウンロードしてビルドし、実行可能ファイルksh/u01/app/simpjob/ディレクトリに置きます。
  5. ComputerNode1で、ARTバッチ・アプリケーションの作業ディレクトリとしてディレクトリを作成します(/u01/app/simpjob/site1)。
  6. ComputerNode2で、ARTバッチ・アプリケーションの作業ディレクトリとしてディレクトリを作成します(/u01/app/simpjob/site2)。
  7. ComputeNode1ComputeNode2およびComputeNode7のそれぞれで、表1に示すように環境変数を設定します。
  8. 表1 環境変数
    環境変数
    使用方法
    TuxedoノードSITE1における値
    ComputeNode1
    ComputeNode7
    TuxedoノードSITE2における値
    ComputeNode2
    TUXDIR
    Tuxedoインストール・ディレクトリ
    /u01/app/Oracle/ tuxedo11gR1
     
    JESDIR
    ARTバッチ・インストール・ディレクトリ
    /u01/app/Oracle/art11gR1/Batch_RT
     
    MT_KSH
    pdksh実行可能ファイルの絶対パス
    /u01/app/simpjob/ksh
     
    MT_ROOT
    EJRディレクトリ
    $JESDIR/ejr
     
    APPDIR
    Tuxedoアプリケーション作業ディレクトリ
    /u01/app/simpjob/site1
    /u01/app/simpjob/site2
    QMCONFIG
    /Qキュー・スペース・デバイス名
    /u01/app/simpjob/QUE
     
    TUXCONFIG
    Tuxedoアプリケーション構成ファイル
    /u01/app/simpjob/site1/tuxconfig
    該当なし
    PATH
     
    ${TUXDIR}/bin:${JESDIR}/bin:${MT_ROOT}:${APPDIR}:${PATH};
     
    LD_LIBRARY_PATH
     
    $TUXDIR/lib:$LD_LIBRARY_PATH
     
    DATA
    データが格納されるディレクトリ
    /u01/app/simpjob/data
     
    MT_LOG
    本番チームは、このファイルの内容から、ジョブの実行に関する詳細な情報を取得します。
    /u01/app/simpjob/Logs/log
     
    SPOOL
    Sysoutファイル・ディレクトリ
    /u01/app/simpjob/Logs/sysout
     
    MT_TMP
    内部ファイル用の一時ディレクトリ
    /u01/app/simpjob/tmp
     
    MT_ACC_FILEPATH
    ファイル同時実行性アクセス
    /u01/app/simpjob/acc
     

  9. リスト2で示すように、マスター・ノード上の$APPDIRでUBBCONFIGファイルを作成します。
  10. リスト2 マスター・ノード上のUBBCONFIGファイル
    *RESOURCES
    IPCKEY          132540
    DOMAINID jessample
    MASTER SITE1,SITE2
    MODEL MP
    MAXACCESSERS 200
    MAXSERVERS 50
    NOTIFY SIGNAL
    LDBAL Y
    OPTIONS LAN,NO_AA ,MIGRATE

    *MACHINES
    virtualhost1
    LMID = SITE1
             TUXDIR ="/u01/app/Oracle/tuxedo11gR1"
             TUXCONFIG = "/u01/app/simpjob/site1 /tuxconfig"
             TLOGDEVICE =/u01/app/simpjob/TLOG"
             TLOGSIZE=10
             APPDIR = "/u01/app/simpjob/site1 "
             ULOGPFX = "/u01/app/simpjob/site1 /ULOG"

    ComputeNode2
             LMID = SITE2
             TUXDIR ="/u01/app/Oracle/tuxedo11gR1"
             TUXCONFIG = "/u01/app/simpjob/site2/tuxconfig"
             TLOGDEVICE =/u01/app/simpjob/ TLOG"
             TLOGSIZE=10
             APPDIR = "/u01/app/simpjob/site2 "
             ULOGPFX = /u01/app/simpjob/site2 /ULOG"

    *NETWORK
    SITE1
                    NADDR="// virtualhost1:9103"
                    NLSADDR="// virtualhost1:3150"
    SITE2
                    NADDR="// ComputeNode2:9103"
                    NLSADDR="// ComputeNode2:3150"
    *GROUPS

    QUEGRP
             LMID = SITE1,SITE2 GRPNO = 1
             TMSNAME = TMS_QM TMSCOUNT = 2
             OPENINFO = "TUXEDO/QM:/u01/app/simpjob/QUE:JES2QSPACE"

    EVTGRP
                    LMID= SITE1,SITE2  GRPNO=2

    ARTGRP1
             LMID = SITE1 GRPNO = 3
    ARTGRP2
             LMID = SITE2 GRPNO = 4

    #
    *SERVERS
    #
    DEFAULT: CLOPT="-A"
    TMUSREVT        SRVGRP=EVTGRP SRVID=1 CLOPT="-A"
    TMQUEUE
             SRVGRP = QUEGRP SRVID = 1
             GRACE = 0 RESTART = Y CONV = N MAXGEN=10
             CLOPT = "-s JES2QSPACE:TMQUEUE -- -t 5 "

    ARTJESADM SRVGRP =ARTGRP1 SRVID = 1 MIN=1 MAX=1
                    CLOPT = "-A -- -i /u01/app/simpjob/jesconfig"
    ARTJESCONV       SRVGRP =ARTGRP1  SRVID = 20 MIN=1 MAX=1
                    CLOPT = "-A --"
    ARTJESINITIATOR       SRVGRP =ARTGRP1  SRVID =30
                    CLOPT = "-A -- -n 20 -d"
    ARTJESPURGE       SRVGRP =ARTGRP1  SRVID = 100
                    CLOPT = "-A --"
    ARTJESADM        SRVGRP =ARTGRP2  SRVID = 1 MIN=1 MAX=1
                    CLOPT = "-A -- -i /u01/app/simpjob/jesconfig"
    ARTJESCONV       SRVGRP =ARTGRP2  SRVID = 20 MIN=1 MAX=1
                    CLOPT = "-A --"
    ARTJESINITIATOR       SRVGRP =ARTGRP2  SRVID =30
                    CLOPT = "-A -- -n 20 -d"
    ARTJESPURGE       SRVGRP =ARTGRP2  SRVID = 100
                    CLOPT = "-A --"

    *SERVICES

この構成ファイルのキーポイントは次のとおりです。

  1. /u01/app/simpjobディレクトリにjesconfigファイルを作成します。このファイルには次のコンテンツが含まれます。
  2. JESROOT=/u01/app/simpjob/jesroot
    DEFAULTJOBCLASS=B
    DEFAULTJOBPRIORITY=9
    DUPL_JOB=NODELAY

  3. ComputeNode1tmloadcf -y UBBCONFIGファイルを実行します。
  4. ComputeNode1で、次のようにスクリプト・ファイルcrlogを使用してTLOGファイルを作成します。
  5. tmadmin <<!
    echo
    crdl -b 200 -z /u01/app/simpjob/TLOG
    crlog -m SITE1
    q!

  6. ComputeNode1で、ARTバッチ・サンプルとともに出荷されるスクリプト・ファイルjesinintを使用して、/Qキュー・スペース・デバイスを作成します。このスクリプトを実行する前に、次のように行の先頭を変更してください。
  7. #!/bin/ksh
    qmadmin /u01/app/simpjob/QUE <<!
    echo
    crdl /u01/app/simpjob/QUE 0 10000
    qspacecreate
    JES2QSPACE
    22839
    5000
    50
    1000
    1000
    10000
    errque
    y
    16
    ….

  8. ComputeNode1で、次のコマンドを使用してtlistenを起動します。
  9. ComputeNode1> tlisten -l // virtualhost1:3150

  10. ComputeNode2で、次のコマンドを使用してtlistenを起動します。
  11. ComputeNode2> tlisten -l //localhost:3150

  12. ComputeNode1tmboot -yを実行し、Oracle TuxedoおよびARTバッチ環境を起動します。

ジョブ実行の検証

ARTバッチ・アプリケーションがComputeNode1およびComputeNode2で起動したら、検証のためにartjesadminを使用してジョブを実行できます。

artjesadminはマスター/スレーブいずれかのノードで実行できます。送信ジョブ・コマンドを発行する場所では、ジョブはクラスおよびイニシエータの構成に依存してマスター/スレーブ・ノードのいずれかで実行できます。各TuxedoノードのARTバッチ関連サーバーがジョブ・スクリプト・ファイルに正しくアクセスできることを確認するため、次を実行することを強くお薦めします。

  1. すべてのジョブ・スクリプトをSun ZFS Storage 7320 Appliance上のリポジトリに置きます。
  2. 例: /u01/app/jobs.

  3. ジョブ・スクリプトのフルパスを使用してジョブを送信します。
  4. 例:

    [root@ComputeNode1 ~] # artjesadmin
    artjesadmin - Copyright (c) 2010 Oracle
    All Rights Reserved.
    > smj -i /u01/app/jobs/JOBA
    Job 00000035 is submitted successfully

マスター/スレーブ・ノードのそれぞれで多数のジョブを送信し、システム・ユーティリティpsを実行して、各ノード上でジョブを実行している「EJR」プロセスを観察できます。Oracle TSAMを使用してジョブのステータスも確認できます(ARTバッチ・ランタイムの管理に関する項で説明)。

マスター・ノードとグループQUEGRPからComputeNode2へのフェイルオーバー

マスター・ノードをホストしているコンピュート・ノード(ComputeNode1)でエラーが発生した場合、リスト3で示されるように、tmadminコマンドのpcleanを使用してパーティション化されたSITE1をクリーニングしてSITE2で/Q関連グループを再起動し、ユーザーはマスター・ノードからバックアップ・マスター・ノードに移行できます。

次の点に注意してください。

  1. ComputeNode2でマスター・ノードからバックアップ・マスター・ノードに移行します。
  2. リスト3 マスター/バックアップ・ノードの移行

    ComputeNode2> tmadmin
    tmadmin - Copyright (c) 1996-2010 Oracle.
    Portions * Copyright 1986-1997 RSA Data Security, Inc.
    All Rights Reserved.
    Oracleによって付与されるライセンスに従って配布されます。
    Tuxedoは登録商標です。
    TMADMIN_CAT:199: WARN: 管理者になることはできません。使用できるコマンド・セットが制限されます。

    > master
    実行しますか? [y, n] y

    SITE2で新規DBBLを作成しています。しばらくお待ちください...
    SITE2で作成された新規DBBL
    > q

  3. パーティション化されたノードを作成し、リスト4で示すように/Q関連グループをComputeNode2にフェイルオーバーします。
  4. リスト4 ComputeNode2への/Q関連グループ
    ComputeNode2> tmadmin
    tmadmin - Copyright (c) 1996-2010 Oracle.
    Portions * Copyright 1986-1997 RSA Data Security, Inc.
    All Rights Reserved.
    Distributed under license by Oracle.
    Tuxedo is a registered trademark.
    TMADMIN_CAT:199: WARN: Cannot become administrator.Limited set of commands available.
    > psr
    Prog Name      Queue Name  Grp Name      ID RqDone Load Done Current Service
    ---------      ----------  --------      -- ------ --------- ---------------
    ARTJESPURGE    00004.00100 ARTGRP2      100      -         - ( - )
    ARTJESPURGE    00003.00100 ARTGRP1      100      -         - ( PARTITIONED )
    BBL            30003.00000 SITE2          0      -         - ( - )
    BBL            30002.00000 SITE1          0      -         - ( PARTITIONED )
    DBBL           132540      SITE2          0     12       600 ..MASTERBB
    ARTJESADM      00004.00001 ARTGRP2        1      -         - ( - )
    ARTJESADM      00003.00001 ARTGRP1        1      -         - ( PARTITIONED )
    TMQUEUE        00001.00001 QUEGRP         1      -         - ( PARTITIONED )
    TMS_QM         QUEGRP_TMS  QUEGRP     30001      -         - ( PARTITIONED )
    TMUSREVT       00002.00001 EVTGRP         1      -         - ( PARTITIONED )
    BRIDGE         656828      SITE2          1      -         - ( - )
    BRIDGE         394684      SITE1          1      -         - ( PARTITIONED )
    TMS_QM         QUEGRP_TMS  QUEGRP     30002      -         - ( PARTITIONED )
    ARTJESCONV     00004.00020 ARTGRP2       20      -         - ( - )
    ARTJESCONV     00003.00020 ARTGRP1       20      -         - ( PARTITIONED )
    ARTJESINITIATO 00004.00030 ARTGRP2       30      -         - ( - )
    ARTJESINITIATO 00003.00030 ARTGRP1       30      -         - ( PARTITIONED )

    > pclean SITE1

    Cleaning the DBBL.
            Pausing 10 seconds waiting for system to stabilize.
            10 SITE1 servers removed from bulletin board

    > boot -g QUEGRP
    INFO: Oracle Tuxedo, Version 11.1.1.2.0, 64-bit, Patch Level (none)

    Booting server processes ...

    exec TMS_QM -A :
            on SITE1 -> CMDTUX_CAT:822: ERROR: No BBL available, cannot boot

    tmboot: WARN: No BBL available on site SITE1.
            Will not attempt to boot server processes on that site.
            on SITE2 -> process id=14713 ... Started.
    exec TMS_QM -A :
            on SITE2 -> process id=14714 ... Started.
    exec TMQUEUE -s JES2QSPACE:TMQUEUE -- -t 5  :
            on SITE2 -> process id=14715 ... Started.
    3 processes started.
    TMADMIN_CAT:1295: ERROR: Failure return from tmboot - 0x1, errno 0.

グループQUEGRPを起動するときは、Oracle Tuxedoは最初にSITE1で起動するよう試行します。起動に失敗すると、代替ロケーションのSITE2でグループQUEGRPの起動を試行します。

ComputeNode2でQUEGRPグループを正常に起動したら、すべての「待機中」ジョブは正常に処理されます。

注意: ComputeNode2でEVTGRPも再起動できます。

リスト15は、マスター・ノードとグループQUEGRPをComputerNode2にフェイルオーバーした後のアプリケーション・デプロイメントを例示します。

図15 マスターのフェイルオーバー後のARTバッチ・アプリケーション・デプロイメント

マスターのフェイルオーバー後のARTバッチ・アプリケーション・デプロイメント

SITE1からComputeNode7へのフェイルオーバー

マスター・ノードがComputeNode2に移行された後、ARTバッチ・アプリケーションはジョブの実行を継続できますが、SITE2のみがアクティブ・ノードになります。高可用性と高拡張性を保証するためには、ユーザーはSITE1からComputeNode7にフェイルオーバーできます。

仮定:

次のプロシージャは、TuxedoノードSITE1を異なるマシン(ComputeNode7)にフェイルオーバーする方法を示します。その間、SITE1ノードはやはり同一のOracle Tuxedoマシン(論理マシンであって、物理マシンではない)を使用します。

  1. IPを2番目のノードに移行します。
    1. ComputeNode1 (ADMINVHN1によって使用されるbond0:Yは現在のインタフェース)でルートとして次のコマンドを実行します。
    2. ComputeNode1> /sbin/ifconfig bond0:Y down

      注意: ComputeNode1がハードウェア・クラッシュした場合は、この手順を省略できます。
    3. ComputeNode7で次のコマンドをルートとして実行します。
    4. ComputeNode7> /sbin/ifconfig <interface:index> <IP_Address> netmask <netmask>

      例:

      /sbin/ifconfig bond0:1 10.0.0.17 netmask 255.255.255.0

      注意: 使用するネットマスクとインタフェースがComputeNode2の使用可能なネットワーク構成に一致するように保証します。
  2. arpingを使用してルーティング表を更新します。ComputeNode7で次のコマンドをルートとして実行します。
  3. ComputeNode7> /sbin/arping -b -A -c 3 -I bond0 10.0.0.17 netmask 255.255.255.224

  4. ComputeNode2からComputeNode7SITE1を起動します。
    1. ComputeNode7で、hostname virtualhost1をファイルの/etc/hostに追加し、それをフローティングIPアドレス10.0.0.17にポイントします。
    2. ComputeNode7tlistenを起動します。
    3. ComputeNode7> tlisten -l // virtualhost1:3150

    4. b.最初にBBLおよびbridgeを起動します。
    5. ComputeNode2> tmboot -B SITE1

      情報: Oracle Tuxedo、バージョン11.1.1.2.0、64ビット、パッチ・レベル(なし)

      adminプロセスを起動しています...

      exec BBL -A :

      SITE1で -> CMDTUX_CAT:821: 情報: サーバーを複製します。

      0プロセスが起動済。

    6. b.ARTGRP1を起動します。
    7. ComputeNode2> tmboot -g ARTGRP1

      情報: Oracle Tuxedo、バージョン11.1.1.2.0、64ビット、パッチ・レベル(なし)

      サーバー・プロセスを起動しています...

      exec ARTJESADM -A -- -i /u01/app/simpjob/jesconfig :

      SITE1で -> プロセスid=24347 ... 起動済。

      exec ARTJESCONV -A -- :

      SITE1で -> プロセスid=24348 ... 起動済。

      exec ARTJESINITIATOR -A -- -n 20 -d :

      SITE1で -> プロセスid=24350 ... 起動済。

      exec ARTJESPURGE -A -- :

      SITE1で -> プロセスid=24352 ... 起動済。

  5. プロセスが起動済。

図16は、SITE1ComputerNode7にフェイルオーバーした後のアプリケーション・デプロイメントを示します。

図16 SITE1フェイルオーバー後のARTバッチ・アプリケーション・デプロイメント

SITE1フェイルオーバー後のARTバッチ・アプリケーション・デプロイメント

ComputeNode1に戻るSITE1のフェイルオーバー

ComputeNode1の修正後、SITE1を(オプションで)フェイルバックしてComputeNode1に戻します。次の手順を実行します。

  1. 最初に、ComputeNode2からSITE1をシャットダウンします。
  2. ComputeNode2> tmshutdown -l SITE1

    サーバー・プロセスをシャットダウンしています...

    サーバーId = 100 グループId = ARTGRP1 マシン = SITE1: シャットダウンに成功しました

    サーバーId = 30 グループId = ARTGRP1 マシン = SITE1: シャットダウンに成功しました

    サーバーId = 20 グループId = ARTGRP1 マシン = SITE1: シャットダウンに成功しました

    サーバーId = 1 グループId = ARTGRP1 マシン = SITE1: シャットダウンに成功しました

    4プロセスが停止済。

    ComputeNode2> tmshutdown -B SITE1

    adminプロセスをシャットダウンしています...

    サーバーId = 0 グループId = SITE1 マシン = SITE1: シャットダウンに成功しました

    1プロセスが停止済。

  3. ComputeNode7上のフローティングIPを無効化します。
  4. ComputeNode7> /sbin/ifconfig bond0:N down

  5. ComputeNode1上のフローティングIPを回復します。ComputeNode1上で次のコマンドを実行します。
  6. ComputeNode1> /sbin/ifconfig bond0:Y 192.168.10.1 netmask 255.255.255.0

    注意: 使用するネットマスクとインタフェースがComputeNode1の使用可能なネットワーク構成に一致するように保証します。

    arpingを使用してルーティング表を更新します。ComputeNode1から次のコマンドを実行します。

    ComputeNode1> /sbin/arping -b -A -c 3 -I bond0:1 10.0.0.17

  7. ComputeNode1上でtlistenを起動します。
  8. ComputeNode1> tlisten -l //virtualhost1:3150

  9. ComputeNode2からComputeNode1SITE1を再起動します。
  10. ComputeNode2> tmboot -B SITE1

    情報: Oracle Tuxedo、バージョン11.1.1.2.0、64ビット、パッチ・レベル(なし)

    adminプロセスを起動しています...

    exec BBL -A :

    SITE1で -> プロセスid=24811 ... 起動済。

    1プロセスが起動済。

    ComputeNode2> tmboot -l SITE1

    情報: Oracle Tuxedo、バージョン11.1.1.2.0、64ビット、パッチ・レベル(なし)

    サーバー・プロセスを起動しています...

    exec TMUSREVT -A :

    SITE1で -> プロセスid=24816 ... 起動済。

    exec ARTJESADM -A -- -i /u01/app/simpjob/jesconfig :

    SITE1で -> プロセスid=24817 ... 起動済。

    exec ARTJESCONV -A -- :

    SITE1で -> プロセスid=24818 ... 起動済。

    exec ARTJESINITIATOR -A -- -n 20 -d :

    SITE1で -> プロセスid=24820 ... 起動済。

    exec ARTJESPURGE -A -- :

    SITE1で -> プロセスid=24822 ... 起動済。

    5プロセスが起動済。

図16は、SITE1ComputerNode1にフェイルバックした後のアプリケーション・デプロイメントを示します。

図17 SITE1フェイルバック後のARTバッチ・アプリケーション・デプロイメント

SITE1フェイルバック後のARTバッチ・アプリケーション・デプロイメント

 


Oracle Tuxedo ART CICSアプリケーションの高可用性デプロイメント

ART CICSランタイムによる高可用性

Oracle Tuxedo ART CICSランタイム・デプロイメントは、可用性が高くなっています。ART CICSランタイム・サーバーはTuxedoアプリケーション・サーバーなので、これらのサーバーとTuxedoシステム・サーバーは、一部のノードがダウンした後でもサービスを提供できるように、Tuxedo MPドメイン内の異なるノードで複製できます。

Tuxedo高可用性の詳細は、Oracle Tuxedoを使用した高可用性の実現に関する項http://www.oracle.com/technocrats/middle ware/tuxedo/overview/index.htmlを参照してください。

ART CICSランタイムMPドメインの初期構成

ART CICSランタイムによって使用されるすべての環境変数は、表1にリストされています。

ART CICSランタイムMPドメインのサーバー構成

すべてのART CICSランタイム・サーバーは、ART CICSランタイムのサーバー構成に関する項でリストされています。高可用性が必要な機能では、対応するサーバーをMPドメイン内の異なるノードで複製する必要があります。Exalogic上のART CICSランタイムのMPドメイン構成は、Tuxedoアプリケーションの構成に関する項で説明されているように、Tuxedo MPアプリケーションの共通ルールと同時に、次のART CICSランタイムMPアプリケーションのルールに従う必要があります。

ART CICSランタイムMPドメインのリソース構成

すべてのART CICSランタイム・リソース定義ファイルは、ART CICSランタイムのリソース構成に関する項でリストされています。MPドメインの異なるノード間でこれらのリソース定義ファイルを共有したり、これらのファイルをARTADMサーバーによってMPマスター・ノードからマスター以外のノードに自動的に伝播されるようにできます。高可用性を実現するには、変換済のVSAMファイルとTuxedo /Qを含むすべてのリソースが、すべてのノードにアクセス可能な共有ファイル・システムにある必要があります。

ART CICSランタイムMPドメイン・デプロイメントの例

次は、ART CICSランタイムMPドメインのサンプル・デプロイメントです。

図18 ART CICSランタイムMPドメイン・デプロイメントの例

ART CICSランタイムMPドメイン・デプロイメントの例

リスト1は、ART CICSランタイムMPドメイン・デプロイメントのUBBCONFIGファイルの例です。

リスト1 ART CICSランタイムMPドメイン・デプロイメントのUBBCONFIGファイルの例
#-------------------------------------------------------------------
*RESOURCES
IPCKEY        <Base IPC key>
DOMAINID      KIXD
MODEL         MP
MASTER        NODE1,NODE2
OPTIONS       LAN,MIGRATE
MAXACCESSERS  200
MAXSERVERS    100
MAXSERVICES   1000
#-------------------------------------------------------------------
*MACHINES
"<Hostname of NODE1>"
    LMID=NODE1
    TUXDIR="<Tuxedo installation directory>"
    APPDIR="<Application directory on NODE1>"
    TUXCONFIG="<TUXCONFIG absolute path on NODE1>"
    TLOGDEVICE="<TLOG device on shared file system>"
"<Hostname of NODE2>"
    LMID=NODE2
    TUXDIR="<Tuxedo installation directory>"
    APPDIR="<Application directory on NODE2>"
    TUXCONFIG="<TUXCONFIG absolute path on NODE2>"
    TLOGDEVICE="<TLOG device on shared file system>"
#-------------------------------------------------------------------
*NETWORK
NODE1 NLSADDR="//<IPoIB address>:<Port for tlisten>"
      NADDR="//<IPoIB address>:<Port for BRIDGE>"
NODE2 NLSADDR="//<IPoIB address>:<Port for tlisten>"
      NADDR="//<IPoIB address>:<Port for BRIDGE>"
#-------------------------------------------------------------------
*GROUPS
NODE1_NOTRN
    LMID=NODE1 GRPNO=1
NODE2_NOTRN
    LMID=NODE2 GRPNO=2
NODE1_ORA
    LMID=NODE1 GRPNO=3
    TMSNAME="TMS_ORA" TMSCOUNT=2
    OPENINFO="Oracle_XA:Oracle_XA+Acc=P/<Oracle user>/<Oracle password>+SqlNet=<Oracle SID>+SesTm=600"
NODE2_ORA
    LMID=NODE2 GRPNO=4
    TMSNAME="TMS_ORA" TMSCOUNT=2
    OPENINFO="Oracle_XA:Oracle_XA+Acc=P/<Oracle user>/<Oracle password>+SqlNet=<Oracle SID>+SesTm=600"
QUEGRP
    LMID=NODE1,NODE2 GRPNO=5
    TMSNAME="TMS_QM" TMSCOUNT=2
    OPENINFO="TUXEDO/QM:<Q device on shared file system>:ASYNC_QSPACE"
#-------------------------------------------------------------------
*SERVERS
ARTADM
    SRVGRP=NODE1_NOTRN SRVID=10
ARTADM
    SRVGRP=NODE2_NOTRN SRVID=10
ARTTCPL
    SRVGRP=NODE1_NOTRN SRVID=20
    CLOPT=" -- -n //<EoIB address>:<Connection port> -L //<EoIB address>:<Internal port> -m 1 -M 4"
ARTTCPL
    SRVGRP=NODE2_NOTRN SRVID=20
    CLOPT=" -- -n //<EoIB address>:<Connection port> -L //<EoIB address>:<Internal port> -m 1 -M 4"
ARTCNX
    SRVGRP=NODE1_NOTRN SRVID=30
    MIN=1 MAX=1
    CONV=Y
    CLOPT="-o <Stdout for ARTCNX on NODE1> -e <Stderr for ARTCNX on NODE1> -- -t A"
ARTCNX
    SRVGRP=NODE2_NOTRN SRVID=30
    MIN=1 MAX=1
    CONV=Y
    CLOPT="-o <Stdout for ARTCNX on NODE2> -e <Stderr for ARTCNX on NODE2> -- -t B"
ARTSTRN
    SRVGRP=NODE1_ORA SRVID=10
    CONV=Y
    CLOPT="-o <Stdout for ARTSTRN on NODE1> -e <Stderr for ARTSTRN on NODE1> -- -s <System ID> -l <Resource groups>"
ARTSTRN
    SRVGRP=NODE2_ORA SRVID=10
    CONV=Y
    CLOPT="-o <Stdout for ARTSTRN on NODE2> -e <Stderr for ARTSTRN on NODE2> -- -s <System ID> -l <Resource groups>"
ARTATRN
    SRVGRP=NODE1_ORA SRVID=20
    CLOPT="-o <Stdout for ARTATRN on NODE1> -e <Stderr for ARTATRN on NODE1> -- -s <System ID> -l <Resource groups>"
ARTATRN
    SRVGRP=NODE2_ORA SRVID=20
    CLOPT="-o <Stdout for ARTATRN on NODE2> -e <Stderr for ARTATRN on NODE2> -- -s <System ID> -l <Resource groups>"
ARTDPL
    SRVGRP=NODE1_ORA SRVID=30
    CLOPT="-o <Stdout for ARTDPL on NODE1> -e <Stderr for ARTDPL on NODE1> -- -s <System ID> -l <Resource groups>"
ARTDPL
    SRVGRP=NODE2_ORA SRVID=30
    CLOPT="-o <Stdout for ARTDPL on NODE2> -e <Stderr for ARTDPL on NODE2> -- -s <System ID> -l <Resource groups>"
ARTSTR1
    SRVGRP=NODE1_ORA SRVID=40
    MIN=1 MAX=1
    CONV=Y
    CLOPT="-o <Stdout for ARTSTR1 on NODE1> -e <Stderr for ARTSTR1 on NODE1> -- -s <System ID> -l <Resource groups>"
ARTSTR1
    SRVGRP=NODE2_ORA SRVID=40
    MIN=1 MAX=1
    CONV=Y
    CLOPT="-o <Stdout for ARTSTR1 on NODE2> -e <Stderr for ARTSTR1 on NODE2> -- -s <System ID> -l <Resource groups>"
ARTATR1
    SRVGRP=NODE1_ORA SRVID=50
    MIN=1 MAX=1
    CLOPT="-o <Stdout for ARTATR1 on NODE1> -e <Stderr for ARTATR1 on NODE1> -- -s <System ID> -l <Resource groups>"
ARTATR1
    SRVGRP=NODE2_ORA SRVID=50
    MIN=1 MAX=1
    CLOPT="-o <Stdout for ARTATR1 on NODE2> -e <Stderr for ARTATR1 on NODE2> -- -s <System ID> -l <Resource groups>"
ARTTSQ
    SRVGRP=NODE1_ORA SRVID=60
    MIN=1 MAX=1
    CLOPT="-o <Stdout for ARTTSQ on NODE1> -e <Stderr for ARTTSQ on NODE1> -- -s <System ID> -l <Resource groups>"
ARTTSQ
    SRVGRP=NODE2_ORA SRVID=60
    MIN=1 MAX=1
    CLOPT="-o <Stdout for ARTTSQ on NODE2> -e <Stderr for ARTTSQ on NODE2> -- -s <System ID> -l <Resource groups>"
ARTTDQ
    SRVGRP=NODE1_ORA SRVID=70
    MIN=1 MAX=1
    CLOPT="-o <Stdout for ARTTDQ on NODE1> -e <Stderr for ARTTDQ on NODE1> -- -s <System ID> -l <Resource groups>"
ARTTDQ
    SRVGRP=NODE2_ORA SRVID=70
    MIN=1 MAX=1
    CLOPT="-o <Stdout for ARTTDQ on NODE2> -e <Stderr for ARTTDQ on NODE2> -- -s <System ID> -l <Resource groups>"
TMQUEUE
    SRVGRP=QUEGRP SRVID=10
    CLOPT="-s ASYNC_QSPACE:TMQUEUE -- "
    RESTART=Y GRACE=120
TMQFORWARD
    SRVGRP=QUEGRP SRVID=20
    CLOPT="-- -q ASYNC_QUEUE"
    RESTART=Y GRACE=120

ランタイム時のART CICSデプロイメントのスケール・アウト

他のTuxedoアプリケーションと同様、パフォーマンス、可用性および拡張性の要件を満たすために、ART CICSデプロイメントはシャットダウンしなくても変更できます。アプリケーションの動的変更をサポートするため、Tuxedoは、管理コンソール、コマンドライン・ユーティリティ(tmadmintmconfig)、および管理情報ベース(MIB) APIという3つの方法を提供します。これら3つの方法のいずれかを使用すると、新規マシン・ノード、新規サーバー・グループ、または新規サーバーの追加およびこのサーバーのアクティブ化などを含め、アプリケーションを追加、変更および削除できます。

MIBを介して新規ARTTCPLサーバーを追加するには、次の手順を実行します。

  1. リスト2で示されるように、addserver.datという名前のファイルを作成します。
  2. リスト2 addserver.datファイル
    SRVCNM  .TMIB
    TA_OPERATION SET
    TA_CLASS T_SERVER
    TA_SERVERNAME ARTTCPL
    TA_SRVGRP <Server group name>
    TA_SRVID <Server ID>
    TA_CLOPT <Server CLOPT>
    TA_STATE NEW
  3. FML32環境変数を設定します。
  4. export FLDTBLDIR32=$TUXDIR/udataobj

    export FIELDTBLS32=tpadm,Usysfl32

  5. ud32ユーティリティを使用して新規ARTTCPLサーバーを追加します。
  6. ud32 -C tpsysadm < addserver.dat

  7. tmbootコマンドを使用して、サーバーを起動します。
  8. tmboot -g <サーバー・グループ名> -i <サーバーID>


  先頭に戻る       前  次