Sun Cluster Data Service for Oracle Parallel Server/Real Application Clusters ガイド (Solaris OS 版)

第 1 章 Sun Cluster Support for Oracle Parallel Server/Real Application Clusters のインストール

この章では、Sun Cluster ノードに Sun Cluster Support for Oracle Parallel Server/Real Application Clusters をインストールする手順について説明します。 この章の内容は次のとおりです。

Sun Cluster Support for Oracle Parallel Server/Real Application Clusters のインストールプロセスの概要

次の表に、インストール作業の概要を示し、さらに作業を実行するための詳細な手順の参照個所を示しています。

表 1–1 作業マップ: Sun Cluster Support for Oracle Parallel Server/Real Application Clusters のインストール

作業 

参照先 

インストール前に考慮すべき事項と特殊な要件 

インストール前の考慮事項

特殊な要件

(オプション) ボリューム管理ソフトウェアのインストール 

Sun Cluster Support for Oracle Parallel Server/Real Application Clusters でのストレージ管理ソフトウェアのインストール

(オプション) Sun Cluster Support for Oracle Parallel Server/Real Application Clusters ソフトウェアが必要とするノード固有のファイルとディレクトリの作成 

クラスタファイルシステム用にノード固有のファイルとディレクトリを作成する

データサービスパッケージのインストール 

Sun Cluster Support for Oracle Parallel Server/Real Application Clusters パッケージのインストール

UNIX Distributed Lock Manager のインストール 

Oracle UDLM のインストール

(必要な場合) Oracle Parallel Server/Real Application Clusters データベース用の共有ディスクグループの作成 

Oracle Parallel Server/Real Application Clusters データベース用の VxVM 共有ディスクグループの作成

インストール前の考慮事項

Oracle Parallel Server/Real Application Clusters は、2 つ以上のノードで同時に実行できるスケーラブルなアプリケーションです。 Sun Cluster Support for Oracle Parallel Server/Real Application Clusters をインストールする前に、以下に説明する点を考慮してください。

このデータサービスの特徴

Sun Cluster Support for Oracle Parallel Server/Real Application Clusters は、特殊な特徴をもつ Sun Cluster 高可用性データサービスです。 一連のパッケージから構成されるこのデータサービスをインストールすると、Oracle Parallel Server/Real Application Clusters を Sun Cluster ノードで実行できます。 このデータサービスにより、Sun Cluster コマンドを使ってSun Cluster Support for Oracle Parallel Server/Real Application Clusters を管理できます。

Oracle Parallel Server/Real Application Clusters ソフトウェアですでにこの機能を提供しているため、このデータサービスは自動フェイルオーバーまたは障害監視の機能を提供しません。 Oracle Parallel Server/Real Application Clusters ソフトウェアは、Sun Cluster Resource Group Manager (RGM) で登録または管理されません。

Sun Cluster の共有ディスクアーキテクチャを使用するように Oracle Parallel Server/Real Application Clusters を設定できます。 この構成では、データベースに同時にアクセスする Oracle Parallel Server/Real Application Clusters の複数のインスタンス間で、単一のデータベースを共有します。 クラスタノード間の共有リソースに対するアクセスは、UNIX Distributed Lock Manager (Oracle UDLM) によって制御されます。

ハードウェアとソフトウェアの要件

インストールを始める前に、以下に説明するハードウェアとソフトウェアの要件に注意してください。

Sun Cluster フレームワーク要件

Sun Cluster Support for Oracle Parallel Server/Real Application Clusters をインストールするためには、クラスタに最初のクラスタフレームワークがすでにインストールされ、クラスタが動作している必要があります。 クラスタソフトウェアの初期インストールの詳細については、『Sun Cluster ソフトウェアのインストール (Solaris OS 版)』を参照してください。

ストレージ管理の要件

どのストレージ管理スキーマを使用するかを決めます。

ソフトウェアライセンス要件

ソフトウェアを使用するために必要なライセンスを取得して、インストールしているかを確認します。 ライセンスのインストールが不正であったり不完全であったりすると、ノードが異常終了する可能性があります。

たとえば、クラスタ機能を備えた VxVM を使用している場合、以下のコマンドのうちの 1 つを実行して、Volume Manager クラスタ機能のライセンスをインストールしてあることを確認してください。

サポートされているトポロジ要件

Sun Enterprise Services の購入先に、 Sun Cluster Support for Oracle Parallel Server/Real Application Clusters で現在サポートされているトポロジー、クラスタインターコネクト、ストレージ管理スキーマ、およびハードウェア構成について確認します。

パッチのインストール要件

Solaris オペレーティング環境、Sun Cluster、Oracle、および使用するボリュームマネージャ用の適用できるソフトウェアパッチをインストールしてあることを確認します。 Sun Cluster Support for Oracle Parallel Server/Real Application Clusters パッチをインストールする必要がある場合は、データサービスをインストールしたあとでこれらのパッチを加えてください。

アプリケーションバイナリファイルとアプリケーション構成ファイルの場所

アプリケーションバイナリファイルおよびアプリケーション構成ファイルは、次のいずれかの場所にインストールできます。

クラスタファイルシステムを使用するための要件

Oracle Parallel Server/Real Application Clusters に関連する次のようなファイルのみ、クラスタファイルシステムに格納できます。


注 –

クラスタファイルシステムに、データファイル、コントロールファイル、オンラインの再実行ログファイルを格納しないでください。


保存された再実行ログファイルの書き込時の入出力 (I/O) パフォーマンスは、保存された再実行ログファイル用のデバイスグループの場所により異なります。 パフォーマンスを最適にするために、保存された再実行ログファイル用のプライマリのデバイスグループは、Oracle Parallel Server/Real Application Clusters データベースインスタンスと同じノード上に置くようにしてください。 このデバイスグループには、データベースインスタンスの保存された再実行ログを保持するクラスタファイルシステムが含まれています。

クラスタファイルシステムの作成方法については、『 Sun Cluster ソフトウェアのインストール (Solaris OS 版)』の計画の章を参照してください。

特殊な要件

この節では、Sun Cluster Support for Oracle Parallel Server/Real Application Clusters 固有の要件を示します。

32 ビットモードまたは 64 ビットモード

Oracle UDLM および Oracle リレーショナルデータベースにどのアーキテクチャを使用するかを決める前に、以下の点に注意してください。

ログファイルの場所

次に、データサービスログファイルの場所を示します。

ノード障害と回復の手順

Oracle Parallel Server/Real Application Clusters 環境では、複数の Oracle インスタンスが協力して同じ共有データベースへのアクセスを提供します。 Oracle クライアントは、任意のインスタンスを使用してデータベースにアクセスできます。 したがって、1 つまたは複数のインスタンスで障害が発生しても、クライアントは残りのインスタンスに接続することによって、引き続きデータベースにアクセスできます。


注 –

1 つのノードで障害が発生する場合は、ノードをメンテナンスモードでブートし、問題を解決してください。 問題を修正した後、ノードをリブートします。 詳細については、『Sun Cluster のシステム管理 (Solaris OS 版)』を参照してください。



注 –

このデータサービスをインストールする場合、ノードをリブートする前に、Oracle RDBMS ソフトウェアのインストールと Oracle データベースの作成の前のすべての手順を完了してください。 これらをすべて実行しないと、ノードはパニックを引き起こします。 ノードがパニックを起こした場合は、メンテナンスモードでブートして問題を解決する必要があります。 問題を修正した後、ノードをリブートする必要があります。 完了しなければならない手順は、表 2–1 にリストされています。


Oracle Parallel Server/Real Application Clusters での Sun Cluster LogicalHostname リソースの使用

Oracle Parallel Server/Real Application Clusters のインスタンスを実行しているクラスタノードで障害が生じた場合、クライアントアプリケーションが実行しようとしていた操作が別のインスタンスで再び実行される前にタイムアウトにする必要があります。 TCP/IP ネットワークのタイムアウトが頻繁に起きる場合、クライアントアプリケーションで障害を検出するのに長時間かかることがあります。 通常、クライアントアプリケーションでこの種の障害を検出するのに必要な時間は、3 分から 9 分です。

このような場合、クライアントアプリケーションは、Sun Cluster LogicalHostname リソースを使って、Sun Cluster 上で動作する Oracle Parallel Server/Real Application Clusters データベースに接続できます。 LogicalHostname リソースを Oracle Parallel Server/Real Application Clusters が動作するノード上でマスターされた別のリソースグループで設定できます。 ノードが失敗した場合、LogicalHostname リソースが Oracle Parallel Server/Real Application Clusters を実行する別の動作中のノードで処理を継続します。 LogicalHostname リソースのフェイルオーバーにより、新しい接続を Oracle Parallel Server/Real Application Clusters の他のインスタンスにつなげることができます。


注意 – 注意 –

LogicalHostname リソースをこの目的で使用する前に、既存のユーザー接続への LogicalHostname リソースのフェイルオーバーまたはフェイルバックの影響を考慮してください。


Sun Cluster 3.1 での Oracle Parallel Fail Safe/Real Application Clusters Guard オプションの使用

Oracle Parallel Fail Safe/Real Application Clusters Guard オプションのインストール、管理および操作については、Oracle のドキュメントを参照してください。 この製品オプションを Sun Cluster 3.1 で使用する場合は、 Sun Cluster 3.1 をインストールする前に、以下で説明する点に注意してください。

ホスト名の制限

Oracle Parallel Fail Safe/Real Application Clusters Guard オプションを Sun Cluster 3.1 で使用する場合、クラスタで使用するホスト名に以下の制限が適用されます。

これらの制限およびその他の要件について詳しくは、Oracle のドキュメントを参照してください。

Sun Cluster コマンド使用の制限

Sun Cluster 3.1 で Oracle Parallel Fail Safe/Real Application Clusters Guard オプションを使用する場合、以下の操作の実行に Sun Cluster コマンドを使用しないでください。

Sun Cluster Support for Oracle Parallel Server/Real Application Clusters でのストレージ管理ソフトウェアのインストール

Sun Cluster Support for Oracle Parallel Server/Real Application Clusters ディスクの場合、以下の構成を使用してください。

VxVM を使用する

Sun Cluster Support for Oracle Parallel Server/Real Application Clusters でVxVM ソフトウェアを使用するには、以下のタスクを実行します。

  1. (省略可能) クラスタ機能を備えたVxVM を使用している場合は、VxVM の基本ライセンスの他に Volume Manager クラスタ機能のライセンスを取得します。

    VxVM のライセンス要件については、VxVM のマニュアルを参照してください


    注意 – 注意 –

    Volume Manager クラスタ機能のライセンスを正しくインストールしないと、Oracle Parallel Server/Real Application Clusters サポートをインストールするときに問題が発生することがあります。 Oracle Parallel Server/Real Application Clusters パッケージをインストールする前に、vxlicense -pまたはvxlicrepコマンドを実行して、Volume Manager クラスタ機能の有効なライセンスがインストールされていることを確認してください。


  2. VxVM ソフトウェアをクラスタノード上にインストールして設定します。

    詳細については、『Sun Cluster ソフトウェアのインストール (Solaris OS 版)』の「VERITAS Volume Manager インストールと構成」および VxVM のマニュアルを参照してください。

次の作業

Sun Cluster Support for Oracle Parallel Server/Real Application Clusters パッケージのインストール に進んで、Sun Cluster Support for Oracle Parallel Server/Real Application Clusters ソフトウェアパッケージをインストールします。

ハードウェア RAID サポートを使用する

ハードウェア RAID サポートを備えた Sun Cluster Support for Oracle Parallel Server/Real Application Clusters を使用できます。

たとえば、ハードウェア RAID サポートを備えた Sun StorEdgeTM A3500/A3500FC ディスクアレイを VxVM ソフトウェアなしで使用できます。 この組み合わせを使うには、ディスクアレイの論理ユニット番号 (LUN) の先頭に raw デバイス ID (/dev/did/rdsk*) を使用します。 ハードウェア RAID を備えた Sun StorEdge A3500/A3500FC ディスクアレイを使用するクラスタ上に Oracle Parallel Server/Real Application Clusters 用の raw デバイスを設定するには、次の手順が必要です。

  1. ディスクアレイ上に LUN を作成します。

    LUN の作成方法については、Sun Cluster のハードウェアマニュアルを参照してください。

  2. LUN を作成したなら、format(1M) コマンドを実行して、ディスクアレイの LUN を必要な数のスライスにパーティション分割します。

    次の例は、format コマンドの実行結果を示します。


    # format
    
    0. c0t2d0 <SUN18G cyl 7506 alt 2 hd 19 sec 248>
       /sbus@3,0/SUNW,fas@3,8800000/sd@2,0
    1. c0t3d0 <SUN18G cyl 7506 alt 2 hd 19 sec 248>
       /sbus@3,0/SUNW,fas@3,8800000/sd@3,0
    2. c1t5d0 <Symbios-StorEDGEA3000-0301 cyl 21541 alt 2 hd 64 sec 64>
       /pseudo/rdnexus@1/rdriver@5,0
    3. c1t5d1 <Symbios-StorEDGEA3000-0301 cyl 21541 alt 2 hd 64 sec 64>
       /pseudo/rdnexus@1/rdriver@5,1
    4. c2t5d0 <Symbios-StorEDGEA3000-0301 cyl 21541 alt 2 hd 64 sec 64>
       /pseudo/rdnexus@2/rdriver@5,0
    5. c2t5d1 <Symbios-StorEDGEA3000-0301 cyl 21541 alt 2 hd 64 sec 64>
       /pseudo/rdnexus@2/rdriver@5,1
    6. c3t4d2 <Symbios-StorEDGEA3000-0301 cyl 21541 alt 2 hd 64 sec 64>
       /pseudo/rdnexus@3/rdriver@4,2

    注 –

    ディスクパーティション情報が失われるのを防ぐために、raw ディスクに使用するディスクスライスのシリンダ 0 でパーティションを開始しないでください。 ディスクのシリンダ 0 にはディスクパーティションテーブルが格納されます。


  3. scdidadm(1M) コマンドを実行して、 手順 1 で作成した LUN に対応する raw デバイス ID (DID) を見つけます。

    次の例は、 scdidadm -L コマンドの出力の例を示しています。


    # scdidadm -L
    
    1        phys-schost-1:/dev/rdsk/c0t2d0   /dev/did/rdsk/d1
    1        phys-schost-2:/dev/rdsk/c0t2d0   /dev/did/rdsk/d1
    2        phys-schost-1:/dev/rdsk/c0t3d0   /dev/did/rdsk/d2
    2        phys-schost-2:/dev/rdsk/c0t3d0   /dev/did/rdsk/d2
    3        phys-schost-2:/dev/rdsk/c4t4d0   /dev/did/rdsk/d3
    3        phys-schost-1:/dev/rdsk/c1t5d0   /dev/did/rdsk/d3
    4        phys-schost-2:/dev/rdsk/c3t5d0   /dev/did/rdsk/d4
    4        phys-schost-1:/dev/rdsk/c2t5d0   /dev/did/rdsk/d4
    5        phys-schost-2:/dev/rdsk/c4t4d1   /dev/did/rdsk/d5
    5        phys-schost-1:/dev/rdsk/c1t5d1   /dev/did/rdsk/d5
    6        phys-schost-2:/dev/rdsk/c3t5d1   /dev/did/rdsk/d6
    6        phys-schost-1:/dev/rdsk/c2t5d1   /dev/did/rdsk/d6
  4. scdidadm(1M) の出力が示す DID を使用して、raw デバイスを設定します。

    たとえば、scdidadm の出力によって、ディスクアレイの LUN に対応する raw DID が d4 であることがわかったとします。 この場合には、/dev/did/rdsk/d4sNraw デバイスを使用します。ここで、N はスライス番号です。

次の作業

Sun Cluster Support for Oracle Parallel Server/Real Application Clusters パッケージのインストール に進んで、Sun Cluster Support for Oracle Parallel Server/Real Application Clusters ソフトウェアパッケージをインストールします。

クラスタファイルシステムを使用する

  1. クラスタファイルシステムを作成して、マウントします。

    クラスタファイルシステムの作成とマウント方法については、『Sun Cluster ソフトウェアのインストール (Solaris OS 版)』の「クラスタの構成」を参照してください。

  2. /etc/vfstab ファイルにマウントポイントのエントリを追加する場合は、さまざまな タイプの Oracle ファイル用の UFS ファイルシステム固有のオプションを設定します。

    次の表を参照してください。

    ファイルタイプ 

    オプション  

    保存された再実行ログファイル

    global loggingforcedirectio

    Oracle アプリケーションバイナリファイル、構成ファイル、警告ファイル、および追跡ファイル

    globallogging

次の作業

クラスタファイルシステム用にノード固有のファイルとディレクトリを作成する に進んで、Sun Cluster Support for Oracle Parallel Server/Real Application Clusters ソフトウェアが必要とするノード固有のファイルとディレクトリを作成します。

クラスタファイルシステム用にノード固有のファイルとディレクトリを作成する

Oracle ソフトウェアがクラスタファイルシステムにインストールされている場合、ORACLE_HOME 環境変数で指定されているディレクトリ内のすべてのファイルは、すべてのクラスタノードからアクセスできます。

インストールでは、一部の Oracle ファイルまたはディレクトリでノード固有の情報を保持することが要求されます。 この場合、ノードにローカルなファイルシステム上のファイルまたはディレクトリを対象とするシンボリックリンクを使用します。 このようなファイルシステムは、クラスタファイルシステムの一部ではありません。

シンボリックリンクをこのような目的で使用する場合、ローカルファイルシステム上に領域を割り当てる必要があります。 Oracle アプリケーションが、この領域内のファイルに対してシンボリックリンクを作成するためには、アプリケーションがこの領域内のファイルにアクセスできる必要があります。 シンボリックリンクはクラスタファイルシステム上に存在するため、リンクへのすべての参照は、すべてのノードで同じになります。 したがって、すべてのノードが、ローカルファイルシステム上のその領域用に同じネーム空間を持つ必要があります。

クラスタファイルシステム用のノード固有ディレクトリの作成

次の手順は、ノード固有の情報を保持する各ディレクトリに対して実行します。 以下に、ノード固有の情報の保持に必要となる典型的なディレクトリを示します。

ノード固有の情報を保持するために必要となるほかのディレクトリについては、Oracle のマニュアルを参照してください。

クラスタファイルシステム用にノード固有ディレクトリを作成する

  1. 各クラスタノードで、ノード固有の情報を保持するためのローカルディレクトリを作成します。

    作成するローカルディレクトリ構造は、ノード固有の情報を含むグローバルディレクトリ構造と一致するようにしてください。 たとえば、グローバルディレクトリの/global/oracle/network/agent には、/local ディレクトリ下にローカルに格納する必要のあるノード固有の情報が含まれていることがあります。 このような場合、/local/oracle/network/agent という名前のディレクトリを作成します。


    # mkdir -p local-dir
    
    -p

    存在しない親ディレクトリをすべて最初に作成することを指定します。

    local-dir

    作成するディレクトリのフルパス名を指定します。

  2. 各クラスタノードで、ノード固有の情報を保持するグローバルディレクトリのローカルコピーを作成します。

    ノード固有の情報のローカルコピーは、手順 1で作成したローカルディレクトリに含まれるようにしてください。


    # cp -pr global-dir local-dir-parent
    
    -p

    所有者、グループ、許可モード、修正時刻、アクセス時刻、およびアクセス制御リストが保護されることを指定します。

    -r

    ディレクトリとそのすべてのファイル (サブディレクトリとそのファイルを含む) がコピーされることを指定します。

    global-dir

    コピーするグローバルディレクトリのフルパスを指定します。 このディレクトリは、ORACLE_HOME 環境変数で指定されるディレクトリ下で、クラスタファイルシステム上に存在します。

    local-dir-parent

    ローカルコピーを含む、ローカルノード上のディレクトリを指定します。 このディレクトリは、手順 1で作成したディレクトリの親ディレクトリです。

  3. 手順 2でコピーしたグローバルディレクトリを、グローバルディレクトリのローカルコピーへのシンボリックリックで置き換えます。

    1. 任意のクラスタノードから、手順 2でコピーしたグローバルディレクトリを削除します。


      # rm -r global-dir
      
      -r

      ディレクトリとそのすべてのファイル (サブディレクトリとそのファイルを含む) が削除されることを指定します。

      global-dir

      削除するファイル名とグローバルディレクトリのフルパスを指定します。 このディレクトリは、手順 2でコピーしたグローバルディレクトリになります。

    2. 任意のクラスタノードで、ディレクトリのローカルコピーから、手順 aで削除したグローバルディレクトリへのシンボリックリンクを作成します。


      # ln -s local-dir global-dir
      
      -s

      リンクがシンボリックリンクであることを指定します。

      local-dir

      手順 1で作成したローカルディレクトリがリンクの元であることを指定します。

      global-dir

      手順 aで削除したグローバルディレクトリがリンク先であることを指定します。


例 1–1 ノード固有ディレクトリの作成

この例では、ノード固有ディレクトリを 2 ノードクラスタで作成するための操作手順を示しています。 このクラスタは、以下のように構成されています。

各クラスタノードで、以下の手順を実行します。

  1. 次のコマンドを実行して、必要なディレクトリをローカルファイルシステムに作成します。


    # mkdir -p /local/oracle/network/agent
    

    # mkdir -p /local/oracle/network/log
    

    # mkdir -p /local/oracle/network/trace
    

    # mkdir -p /local/oracle/srvm/log
    

    # mkdir -p /local/oracle/apache
    
  2. 次のコマンドを実行して、ノード固有の情報を保持するグローバルディレクトリのローカルコピーを作成します。


    # cp -pr $ORACLE_HOME/network/agent /local/oracle/network/.
    

    # cp -pr $ORACLE_HOME/network/log /local/oracle/network/.
    

    # cp -pr $ORACLE_HOME/network/trace /local/oracle/network/.
    

    # cp -pr $ORACLE_HOME/srvm/log /local/oracle/srvm/.
    

    # cp -pr $ORACLE_HOME/apache /local/oracle/.
    

以下の手順は、1 つのノードでのみ実行します。

  1. 次のコマンドを実行して、グローバルディレクトリを削除します。


    # rm -r $ORACLE_HOME/network/agent
    

    # rm -r $ORACLE_HOME/network/log
    

    # rm -r $ORACLE_HOME/network/trace
    

    # rm -r $ORACLE_HOME/srvm/log
    

    # rm -r $ORACLE_HOME/apache
    
  2. 次のコマンドを実行して、ローカルディレクトリから、対応するグローバルディレクトリへのシンボリックリックを作成します。


    # ln -s /local/oracle/network/agent $ORACLE_HOME/network/agent 
    

    # ln -s /local/oracle/network/log $ORACLE_HOME/network/log
    

    # ln -s /local/oracle/network/trace $ORACLE_HOME/network/trace
    

    # ln -s /local/oracle/srvm/log $ORACLE_HOME/srvm/log
    

    # ln -s /local/oracle/apache $ORACLE_HOME/apache
    

クラスタファイルシステム用のノード固有ファイルの作成

次の手順は、ノード固有の情報を保持する各ファイルに対して実行します。 以下に、ノード固有の情報の保持に必要となる典型的なファイルを示します。

ノード固有の情報を保持するために必要となるほかのファイルについては、Oracle のマニュアルを参照してください。

クラスタファイルシステム用にノード固有ファイルを作成する

  1. 各クラスタノードで、ノード固有の情報を保持するファイルを含むローカルディレクトリを作成します。


    # mkdir -p local-dir
    
    -p

    存在しない親ディレクトリをすべて最初に作成することを指定します。

    local-dir

    作成するディレクトリのフルパス名を指定します。

  2. 各クラスタノードで、ノード固有の情報を保持するグローバルファイルのローカルコピーを作成します。


    # cp -p global-file local-dir
    
    -p

    所有者、グループ、許可モード、修正時刻、アクセス時刻、およびアクセス制御リストが保護されることを指定します。

    global-file

    コピーするファイル名とグローバルファイルのフルパスを指定します。 このファイルは、ORACLE_HOME 環境変数で指定されるディレクトリ下で、クラスタファイルシステム上にインストールされています。

    local-dir

    ファイルのローカルコピーを含むディレクトリを指定します。 このディレクトリは、手順 1で作成したディレクトリになります。

  3. 手順 2でコピーしたグローバルファイルを、そのファイルのローカルコピーへのシンボリックリンクで置き換えます。

    1. 任意のクラスタノードから、手順 2でコピーしたグローバルファイルを削除します。


      # rm global-file
      
      global-file

      削除するファイル名とグローバルファイルのフルパスを指定します。 このファイルは、手順 2でコピーしたグローバルファイルになります。

    2. 任意のクラスタノードで、ファイルのローカルコピーから、手順 aで削除したグローバルファイルへのシンボリックリンクを作成します。


      # ln -s local-file global-file
      
      -s

      リンクがシンボリックリンクであることを指定します。

      local-file

      手順 2でコピーしたファイルが、リンクの元であることを指定します。

      global-file

      手順 aで削除したファイルのグローバルバージョンが、リンク先であることを指定します。


例 1–2 ノード固有ファイルの作成

この例では、ノード固有ファイルを 2 ノードクラスタで作成するための操作手順を示しています。 このクラスタは、以下のように構成されています。

各クラスタノードで、以下の手順を実行します。

  1. 次のコマンドを実行して、ノード固有の情報を保持するファイルを含むローカルディレクトリを作成します。


    # mkdir -p /local/oracle/network/admin
    
  2. 次のコマンドを実行して、ノード固有の情報を保持するグローバルファイルのローカルコピーを作成します。


    # cp -p $ORACLE_HOME/network/admin/snmp_ro.ora \
      /local/oracle/network/admin/.
    

    # cp -p $ORACLE_HOME/network/admin/snmp_rw.ora \
      /local/oracle/network/admin/.
    

以下の手順は、1 つのノードでのみ実行します。

  1. 次のコマンドを実行して、グローバルファイルを削除します。


    # rm $ORACLE_HOME/network/admin/snmp_ro.ora
    

    # rm $ORACLE_HOME/network/admin/snmp_rw.ora
    
  2. 次のコマンドを実行して、ファイルのローカルコピーから、対応するグローバルファイルへのシンボリックリックを作成します。


    # ln -s /local/oracle/network/admin/snmp_ro.ora \
      $ORACLE_HOME/network/admin/snmp_rw.ora
    

    # ln -s /local/oracle/network/admin/snmp_rw.ora \
      $ORACLE_HOME/network/admin/snmp_rw.ora
    

次の作業

Sun Cluster Support for Oracle Parallel Server/Real Application Clusters パッケージのインストール に進んで、Sun Cluster Support for Oracle Parallel Server/Real Application Clusters ソフトウェアパッケージをインストールします。

Sun Cluster Support for Oracle Parallel Server/Real Application Clusters パッケージのインストール

Sun Cluster の初期インストール中に、Sun Cluster Support for Oracle Parallel Server/Real Application Clusters パッケージをインストールしなかった場合、この手順を実行してパッケージをインストールします。 Sun Cluster Support for Oracle Parallel Server/Real Application Clusters を実行できるすべてのクラスタノードで、この手順を実行してください。 この手順を実行するには、Sun Java Enterprise System Accessory CD Volume 3 が必要です。

pkgadd ユーティリティを使用して、Sun Cluster Support for Oracle Parallel Server/Real Application Clusters パッケージをインストールします。


注 –

インストール前に準備作業を行う必要があるため、scinstall(1M) ユーティリティーはデータサービスパッケージの自動インストールをサポートしていません。


Sun Cluster Support for Oracle Parallel Server/Real Application Clusters パッケージをインストールする

  1. CD-ROM ドライブに Sun Java Enterprise System Accessory CD Volume 3 を挿入します。

  2. スーパーユーザーになります。

  3. 現在の作業ディレクトリを使用しているバージョンの Solaris オペレーティング環境のパッケージを含むディレクトリに変更します。

    • Solaris 8 を使用している場合は、次のコマンドを実行します。


      # cd /cdrom/cdrom0/components/SunCluster_Oracle_RAC/Solaris_8/Packages
      
    • Solaris 9 を使用している場合は、次のコマンドを実行します。


      # cd /cdrom/cdrom0/components/SunCluster_Oracle_RAC/Solaris_9/Packages
      
  4. Sun Cluster Support for Oracle Parallel Server/Real Application Clusters を実行できる各クラスタノードで、必要なソフトウェアパッケージの内容を CD-ROM からノードに移します。

    必要なソフトウェアパッケージは、使用しているストレージ管理スキーマによって異なります。

    • クラスタ機能を備えた VxVM を使用している場合は、次のコマンドを実行します。


      # pkgadd -d . SUNWscucm SUNWudlm SUNWudlmr SUNWcvmr SUNWcvm
      
    • ハードウェア RAID サポートを使用している場合は、次のコマンドを実行します。


      # pkgadd -d . SUNWscucm SUNWudlm SUNWudlmr SUNWschwr
      
    • クラスタファイルシステムを使用している場合は、次のコマンドを実行します。


      # pkgadd -d . SUNWscucm SUNWudlm SUNWudlmr
      

注意 – 注意 –

ノードをリブートする前に、Oracle UDLM ソフトウェアを正しくインストールして設定してあることを確認してください。 詳細については、Oracle UDLM のインストールを参照してください。 さらに、ボリュームマネージャパッケージのインストールも正しく行われているか確認してください。 VxVM を使用する予定がある場合は、ソフトウェアを正しくインストールしてあることを確認し、また、VxVM クラスタ機能用のライセンスが有効であることを確認してください。 正しく構成されていないと、ノードでパニックが発生します。


次に進む手順

Oracle UDLM のインストールに進んで Oracle UDLM をインストールします。

Oracle UDLM のインストール

Oracle UDLM のインストールには、以下の作業があります。

Sun Cluster ノードを準備する

Oracle UDLM ソフトウェアが正しく動作するためには、すべてのクラスタノードに十分な共有メモリーが必要です。 インストール手順については、Oracle Parallel Server/Real Application Clusters の CD-ROM を参照してください。 Sun Cluster ノードを準備するため、次の作業が終了しているかを確認してください。


注 –

次の手順は、各クラスタノードでスーパーユーザーで実行してください。


  1. 各ノード上で、/etc/group ファイルにデータベース管理者グループ用のエントリを作成し、このグループに潜在的なユーザーを追加します。

    通常、このグループの名前は、dba です。 root および oracle dba グループのメンバーであることを確認し、必要に応じて他のデータベース管理者 (DBA) ユーザーのエントリを追加します。 グループ ID が Sun Cluster Support for Oracle Parallel Server/Real Application Clusters を実行するすべてのノードで同じであるかを確認します。 たとえば、次のエントリを /etc/group ファイルに追加します。


    dba:*:520:root,oracle

    ネットワークネームサービス内に、ネットワーク情報サービス (NIS) や NIS+ などのネームサービスのエントリを作成して、データサービスのクライアントに情報を提供できます。 また、ローカルの /etc ファイルにエントリを作成し、ネットワークネームサービスに依存しないようにできます。

  2. 各ノード上で、/etc/passwd ファイルに Oracle ユーザー ID 用のエントリ (グループおよびパスワード) を作成し、pwconv( 1M) コマンドを実行して、 /etc/shadow ファイルにエントリを作成します。

    通常、Oracle ユーザー ID は、oracle です。 たとえば、次のエントリを /etc/passwd ファイルに追加します。


    # useradd -u 120 -g dba -d /oracle-home oracle
    

    ユーザー ID が Sun Cluster Support for Oracle Parallel Server/Real Application Clusters を実行するすべてのノードで同じであるかを確認します。

次の作業

Oracle Parallel Server/Real Application Clusters 用のクラスタ環境を設定したあと、Oracle UDLM ソフトウェアをインストールする へ移動して各クラスタノードに Oracle UDLM ソフトウェアをインストールします。

Oracle UDLM ソフトウェアをインストールする


注 –

Oracle UDLM ソフトウェアは、各ノードのローカルディスクにインストールする必要があります。



注意 – 注意 –

Oracle UDLM ソフトウェアをインストールする前に、データベース管理者グループと Oracle ユーザー ID のエントリが作成済みであるか確認してください。 詳細は、Sun Cluster ノードを準備する を参照してください。


  1. クラスタノード上にインストールするクラスタノード上でスーパーユーザーになります。

  2. Oracle UDLM ソフトウェアをインストールします。

    インストール手順については、Oracle Parallel Server/Real Application Clusters のインストールマニュアルを参照してください。


    注 –

    Oracle UDLM パッケージをインストールした時にエラーメッセージが発生していないかを確認してください。 パッケージのインストールでエラーが発生した場合は、Oracle UDLM ソフトウェアをインストールする前に問題を解決してください。


  3. /etc/system ファイルを共有メモリの設定情報で更新します。

    これらのパラメータは、クラスタで利用可能なリソースにもとづいて構成する必要があります。 適切な値を決定してください。ただし、Oracle UDLM がその構成要件に従って、共有メモリセグメントを作成できることを確認してください。

    次に、/etc/system ファイルで構成するエントリの例を示します。


    *SHARED MEMORY/ORACLE
    set shmsys:shminfo_shmmax=268435456
    set semsys:seminfo_semmap=1024
    set semsys:seminfo_semmni=2048
    set semsys:seminfo_semmns=2048
    set semsys:seminfo_semmsl=2048
    set semsys:seminfo_semmnu=2048
    set semsys:seminfo_semume=200
    set shmsys:shminfo_shmmin=200
    set shmsys:shminfo_shmmni=200
    set shmsys:shminfo_shmseg=200

  4. Oracle UDLM ソフトウェアがインストールされている各ノードをシャットダウンして、リブートします。


    注意 – 注意 –

    リブートする前に、Oracle UDLM ソフトウェアを正しくインストールして設定してあることを確認してください。 さらに、ボリュームマネージャパッケージのインストールも正しく行われているか確認してください。 VxVM を使用する場合は、ソフトウェアが正しくインストールされていること、また、VxVM クラスタ機能用のライセンスが有効であることを確認してください。 正しく構成されていないと、ノードでパニックが発生します。


    詳しい手順については、『Sun Cluster のシステム管理 (Solaris OS 版)』の「単一クラスタノードの停止と起動」を参照してください。

次に進む手順

Oracle UDLM ソフトウェアを各クラスタノードにインストールしたあと、次の手順は使用するストレージ管理スキーマによって異なります。

Oracle Parallel Server/Real Application Clusters データベース用の VxVM 共有ディスクグループの作成


注 –

この作業は、クラスタファイルシステムのない VxVM を使用している場合にだけ実行してください。


VxVM をクラスタファイルシステムなしで使用している場合、VxVM には、Oracle Parallel Server/Real Application Clusters データベースで使用するための共有ディスクグループが必要です。

始める前に

Oracle Parallel Server/Real Application Clusters データベース用の VxVM 共有ディスクグループを作成する前に、以下の点に注意してください。

Oracle Parallel Server/Real Application Clusters データベース用の VxVM 共有ディスクグループを作成する

    VxVM 共有ディスクグループ作成用に提供されている VERITAS コマンドを使用します。

    VxVM 共有ディスクグループについては、VxVM のマニュアルを参照してください。

次に進む手順

Oracle Parallel Server/Real Application Clusters データベース用の共有ディスクグループを作成したら、Sun Cluster Support for Oracle Parallel Server/Real Application Clusters の登録および設定に進んで Sun Cluster Support for Oracle Parallel Server/Real Application Clusters を登録し、設定してください。