Sun Cluster Data Service for Oracle Real Application Clusters ガイド (Solaris OS 版)

第 1 章 Sun Cluster Support for Oracle Real Application Clusters のインストール

この章では、Sun Cluster ノードに Sun Cluster Support for Oracle Real Application Clusters をインストールする手順について説明します。この章では、次の手順について説明します。

Sun Cluster Support for Oracle Real Application Clusters のインストールプロセスの概要

次の表に、インストール作業の要約とその作業に必要な詳しい説明の参照先を示します。

これらの作業は、表に示す順序で行う必要があります。

表 1–1 Sun Cluster Support for Oracle Real Application Clusters のインストール作業

タスク 

参照先 

インストール前に考慮すべき事項と特殊な要件 

「インストール前の考慮事項」

「特殊な要件」

ストレージ管理ソフトウェアのインストール 

「Sun Cluster Support for Oracle Real Application Clusters でのストレージ管理ソフトウェアのインストール」

Sun Cluster Support for Oracle Real Application Clusters ソフトウェアが必要とするノード固有のファイルとディレクトリの作成 

「共有ファイルシステム用にノード固有のファイルとディレクトリを作成する」

データサービスパッケージのインストール 

「Sun Cluster Support for Oracle Real Application Clusters パッケージのインストール」

Sun Cluster ノードの準備 

「Sun Cluster ノードの準備」

UNIX Distributed Lock Manager のインストール 

「Oracle UDLM のインストール」

Oracle Real Application Clusters データベース用のマルチオーナーディスクセットを Solaris Volume Manager for Sun Cluster に作成 

「Oracle Real Application Clusters データベース用の Solaris Volume Manager for Sun Cluster にマルチオーナーディスクセットを作成」

Oracle Real Application Clusters データベース用の VxVM 共有ディスクグループの作成 

「Oracle Real Application Clusters データベース用の VxVM 共有ディスクグループの作成」

インストール前の考慮事項

Oracle Real Application Clusters は、複数のノードで同時に動作することができる、拡張性をもつアプリケーションです。Sun Cluster Support for Oracle Real Application Clusters は、Oracle Real Application Clusters を Sun Cluster ノードで実行できるようにするパッケージ群です。さらに、このデータサービスでは、Sun Cluster コマンドを使って Oracle Real Application Clusters を管理できます。


注 –

Oracle の以前のバージョンでは、このアプリケーションは 「Oracle Parallel Server」 と呼ばれていました。本書では、特に断りがない限り、「Oracle Real Application Clusters」 への言及は Oracle Parallel Server にも適用されるものとします。


このデータサービスには障害監視機能がありますが、この機能は、Sun Cluster ユーティリティで Oracle Real Application Clusters リソースの状態を監視できるようにするためだけのものです。このデータサービスには、Oracle Real Application Clusters ソフトウェアに自動障害回復機能と同様の機能があるため、自動障害回復機能はありません。

ハードウェアとソフトウェアの要件

インストールを始める前に、以下に説明するハードウェアとソフトウェアの要件に注意してください。

Sun Cluster フレームワーク要件

Sun Cluster Support for Oracle Real Application Clusters をインストールするためには、クラスタに最初のクラスタフレームワークがすでにインストールされ、クラスタが動作している必要があります。クラスタソフトウェアの初期インストールの詳細については、『Sun Cluster ソフトウェアのインストール (Solaris OS 版) 』を参照してください。

Oracle Real Application Clusters データベースのストレージ管理要件

Sun Cluster ソフトウェアの共有ディスクアーキテクチャを使用するためには、Oracle Real Application Clusters を構成する必要があります。この構成では、データベースに同時にアクセスする Oracle Real Application Clusters の複数のインスタンス間で、単一のデータベースを共有します。クラスタノード間の共有リソースに対するアクセスは、UNIX Distributed Lock Manager (Oracle UDLM) によって制御されます。

これらの要件を満たすために、以下のストレージ管理スキームのどれかを使用します。

ソフトウェアライセンス要件

ソフトウェアを使用するために必要なライセンスを取得して、インストールしているかを確認します。ライセンスのインストールが不正であったり不完全であったりすると、ノードが正しく起動しないことがあります。

たとえば、クラスタ機能を備えた VxVM を使用している場合、以下のコマンドのうちの 1 つを実行して、 Volume Manager クラスタ機能のライセンスをインストールしてあることを確認してください。

サポートされているトポロジ要件

Sun Enterprise Services の購入先に、 Sun Cluster Support for Oracle Real Application Clusters で現在サポートされているトポロジー、クラスタインターコネクト、ストレージ管理スキーマ、およびハードウェア構成について確認します。

パッチのインストール要件

Solaris オペレーティングシステム、Sun Cluster、Oracle、および使用するボリュームマネージャ用の適用できるソフトウェアパッチをインストールしてあることを確認します。Sun Cluster Support for Oracle Real Application Clusters パッチをインストールする必要がある場合は、データサービスパッケージをインストールしたあとでこれらのパッチを加えてください。

Oracle バイナリファイルと Oracle 構成ファイルの場所

Oracle バイナリファイルおよび Oracle 構成ファイルは、次のいずれかの場所にインストールできます。

Oracle バイナリファイルと Oracle 構成ファイルにローカルディスクを使用する場合

Oracle バイナリファイルと Oracle 構成ファイルを個別のクラスタノード上に置くと、後でデータサービスをシャットダウンせずに Oracle アプリケーションをアップグレードできます。

この場合の短所は、Oracle バイナリファイルと Oracle 構成ファイルの複数のコピーを維持し、管理しなければならない点です。

Oracle バイナリファイルと Oracle 構成ファイルに共有ファイルシステムを使用する場合

Oracle システムの保守を簡単にするために、Oracle バイナリファイルと Oracle 構成ファイルを共有ファイルシステムにインストールできます。次の共有ファイルシステムがサポートされています。

Oracle バイナリファイルと Oracle 構成ファイルを共有ファイルシステム上に置く場合、維持管理するコピーは 1 つだけです。しかし、Oracle アプリケーションをアップグレードするには、クラスタ全体でデータサービスを停止する必要があります。アップグレードする場合に多少の停止時間が生じても構わない場合は、Oracle バイナリファイルと Oracle 構成ファイルの 1 つのコピーを共有ファイルシステム上に置きます。

Sun StorEdge QFS 共有ファイルシステムを使用する場合の要件

Oracle Real Application Clusters に関連するすべてのファイルを Sun StorEdge QFS 共有ファイルシステムに格納できます。

次に示すように、これらのファイルをいくつかのファイルシステムに分散して置きます。

Sun StorEdge QFS 共有ファイルシステムの作成方法については、Sun StorEdge QFS の次のマニュアルを参照してください。

クラスタファイルシステムを使用するための要件

クラスタファイルシステムには、Oracle Real Application Clusters に関連する次のファイルだけを格納できます。


注 –

クラスタファイルシステムに、データファイル、コントロールファイル、オンラインの再実行ログファイルを格納しないでください。


保存された再実行ログファイルに書き込む際の入出力性能は、保存された再実行ログファイルのデバイスグループがどこにあるかによって異なります。パフォーマンスを最適にするために、保存された再実行ログファイル用のプライマリのデバイスグループは、Oracle Real Application Clusters データベースインスタンスと同じノード上に置くようにしてください。このデバイスグループには、データベースインスタンスの保存された再実行ログを保持するファイルシステムが含まれています。

クラスタファイルシステムの作成方法については、以下のマニュアルを参照してください。

構成計画に関する質問

Sun Cluster Support for Oracle Real Application Clusters のインストールと構成の計画に入る前に、以下の各質問に答えてください。『Sun Cluster 3.1 データサービスの計画と管理』の「構成ワークシート」にあるデータサービスワークシートのスペースに、質問の答えを記入してください。

Oracle RAC サーバーリソースのリソースグループ

Oracle Real Application Clusters (RAC) サーバーリソースのリソースグループとしてどれを使いますか。

Oracle Real Application Clusters データベースインスタンスごとに 1 つのリソースグループが必要です。そのリソースグループには、そのデータベースインスタンスの Oracle RAC サーバーリソースが含まれています。

この質問の回答は、「Oracle RAC サーバーリソースの登録と構成」の手順を実行する際に使用されます。

Oracle リスナーリソースのリソースグループ

Oracle リスナーリソースのリソースグループとしてどれを使いますか。

この質問の回答は、「Oracle リスナーリソースの登録と構成」の手順を実行する際に使用されます。

リソースグループは、Real Application Clusters データベースインスタンスに対して Oracle リスナーがどのように構成されているかによって異なります。Real Application Clusters インスタンスに対して構成できるリスナーについては、Oracle のマニュアルを参照してください。次の各項で構成の例を説明します。

1 つの Real Application Clusters インスタンスに 1 つのリスナー

1 つのリスナーが 1 つの Real Application Clusters インスタンスだけをサポートします。このリスナーは、ノードの特定のインターネットプロトコル (IP) アドレスで待機します。リスナーをフェイルオーバーすることはできません。

この例では、リスナー リソースを次のように構成します。

いくつかの Real Application Clusters インスタンスに 1 つのリスナー (フェイルオーバー不可)

1 つのリスナーが、同じノードで動作するいくつかの Real Application Clusters インスタンスをサポートします。このリスナーは、Oracle の透過的なアプリケーションフェイルオーバー (TAF) と負荷均衡機能を使って、クライアント接続をすべての Real Application Clusters インスタンスに分散します。リスナーをフェイルオーバーすることはできません。

この例では、リスナーリソースを次のように構成します。

いくつかの Real Application Clusters インスタンスに 1 つリスナー (フェイルオーバー可能)

フェイルオーバー可能な 1 つのリスナーが、同じノードで動作するいくつかの Real Application Clusters インスタンスをサポートします。リスナーが別のノードにフェイルオーバーされた場合でも、このリスナーは、ほかのノードで動作するいくつかの Real Application Clusters インスタンスをサポートします。

このリスナーは、Oracle の TAF と負荷均衡機能を使ってクライアント接続をすべての Real Application Clusters インスタンスに分散します。エラー検出やフェイルオーバーを短時間で行なうために、リスナーは、LogicalHostname リソースで表されるアドレスで待機します。

この例では、リスナー リソースを次のように構成します。

詳細は、「Oracle リスナーリソース用の LogicalHostname リソース」を参照してください。

クラスタ全体に 1 つのリスナー

1 つのリスナーが、すべてのノードのすべての Real Application Clusters インスタンスをサポートします。このリスナーは、LogicalHostname リソースで表されるアドレスで待機します。この構成では、あるノードに障害が発生すると、そのアドレスがすぐに別のノードに渡されます。

マルチスレッドサーバー (MTS) を使用するように Real Application Clusters インスタンスを構成する場合は、この構成を使用できます。このような構成においては、init.ora ファイルの REMOTE_LISTENERS パラメータを使って、各ディスパッチャがロジカル IP アドレスのリスナーに登録されるように指定します。

すべてのクライアントが 1 つのリスナーを通して接続されます。リスナーは、各クライアント接続を最も負荷の軽いディスパッチャに切り替えます。最も負荷の軽いディスパッチャは、リスナーとは別のノード上にある可能性があります。

リスナーに異常が発生すると、リスナーの障害モニターがリスナーを再起動します。リスナーが動作しているノードに異常が発生すると、リスナーは別のノードで再起動されます。どちらの場合でも、ディスパッチャはリスナーが再起動された後に再登録されます。

クラスタ全体に対して 1 つのリスナーを使用している場合は、次のリソースを同じリソースグループとして構成する必要があります。

詳細は、「Oracle リスナーリソース用の LogicalHostname リソース」を参照してください。

Oracle リスナーリソース用の LogicalHostname リソース

Oracle リスナーリソースではどの LogicalHostname リソースを使用しますか。

この質問の回答は、「Oracle リスナーリソースの登録と構成」の手順を実行する際に使用されます。

Oracle Real Application Clusters のインスタンスを実行しているクラスタノードに異常がある場合には、クライアントアプリケーションが行おうとしている操作を、別のインスタンスで再試行される前にタイムアウトにする必要がある場合があります。TCP/IP ネットワークのタイムアウトが頻繁に起きる場合、クライアントアプリケーションで障害を検出するのに長時間かかることがあります。通常、クライアントアプリケーションでこの種の障害を検出するのに必要な時間は、3 分から 9 分です。

このような状況の場合、クライアントアプリケーションは、Sun Cluster LogicalHostname リソースで表されるアドレスで待機しているリスナーリソースに接続できます。そのためには、LogicalHostname リソースとリスナーリソースを別々のリソースグループとして構成する必要があります。このリソースグループは、Oracle Real Application Clusters が動作しているノードだけでマスターされるようにします。ノードに異常があると、LogicalHostname リソースとリスナーリソースが含まれているリソースグループは、Oracle Real Application Clusters が動作している有効な別のノード にフェイルオーバーされます。 LogicalHostname リソースのフェイルオーバーにより、新しい接続を Oracle Real Application Clusters の他のインスタンスにつなげることができます。

Sun StorEdge QFS 共有ファイルシステムのリソース

Sun StorEdge QFS 共有ファイルシステムを使用する場合は、次の質問に答えてください。

詳細は、Sun StorEdge QFS の以下のマニュアルを参照してください。

この質問の回答は、「Oracle RAC サーバーリソースの登録と構成」の手順を実行する際に使用されます。

システム構成ファイルの場所

システム構成ファイルをどこに置きますか。

クラスタファイルシステムの代わりにローカルファイルシステムを使用する場合の長所と短所については、「Oracle バイナリファイルと Oracle 構成ファイルの場所」を参照してください。

特殊な要件

この節では、Sun Cluster Support for Oracle Real Application Clusters 固有の要件を示します。

32 ビットモードまたは 64 ビットモード

Oracle UDLM および Oracle リレーショナルデータベースにどのアーキテクチャを使用するかを決める前に、以下の点に注意してください。

ログファイルの場所

次に、データサービスログファイルの場所を示します。

Sun Cluster Support for Oracle Real Application Clusters をインストールする際のノードの再起動

このデータサービスをインストール中は、ノードを再起動する前に、Oracle UDLM ソフトウェアのインストールと構成が完了し、かつ、再起動に必要な前提条件が満たされていることを確認してください。インストールと構成が完了し、必要な前提条件が満たされていないと、ノードはパニックを引き起こします。

インストール時のノードパニックを解決する方法については、「Sun Cluster Support for Oracle Real Application Clusters の初期化中のノードパニック」を参照してください。

Sun Cluster 3.1 での Oracle Real Application Clusters Guard オプションの使用

Oracle Real Application Clusters Guard オプションのインストール、管理および操作については、Oracle のドキュメントを参照してください。この製品オプションを Sun Cluster 3.1 で使用する場合は、 Sun Cluster 3.1 をインストールする前に、以下で説明する点に注意してください。

ホスト名の制限

Oracle Real Application Clusters Guard オプションを Sun Cluster 3.1 で使用する場合、クラスタで使用するホスト名に以下の制限が適用されます。

これらの制限およびその他の要件について詳しくは、Oracle のドキュメントを参照してください。

Sun Cluster コマンド使用の制限

Sun Cluster 3.1 で Oracle Real Application Clusters Guard オプションを使用する場合、以下の操作の実行に Sun Cluster コマンドを使用しないでください。

Sun Cluster Support for Oracle Real Application Clusters でのストレージ管理ソフトウェアのインストール

Oracle Real Application Clusters データベースや Oracle ソフトウェアに使用するストレージ管理スキーマ用のソフトウェアをインストールします。

Solaris Volume Manager for Sun Cluster を使用する

Sun Cluster Support for Oracle Real Application Clusters で Solaris Volume Manager for Sun Cluster ソフトウェアを使用するには、以下のタスクを実行します。

  1. Solaris のバージョンが Solaris 9 9/04 またはそれと同等のバージョンであるか確認します。

    Solaris Volume Manager for Sun Cluster は、Solaris オペレーティングシステムのインストール時にインストールされます。

  2. クラスタノードで Solaris Volume Manager for Sun Cluster ソフトウェアを構成します。

    詳細は、『Sun Cluster ソフトウェアのインストール (Solaris OS 版)』の「Solstice DiskSuite/Solaris Volume Manager ソフトウェアのインストールと構成」を参照してください。

次に進む手順

「Sun Cluster Support for Oracle Real Application Clusters パッケージのインストール」 に進んで、Sun Cluster Support for Oracle Real Application Clusters ソフトウェアパッケージをインストールします。

VxVM を使用する

Sun Cluster Support for Oracle Real Application Clusters でVxVM ソフトウェアを使用するには、以下のタスクを実行します。

  1. クラスタ機能を備えた VxVM を使用している場合は、VxVM の基本ライセンスの他に Volume Manager クラスタ機能のライセンスを取得します。

    VxVM のライセンス要件については、 VxVM のマニュアルを参照してください


    注意 – 注意 –

    Volume Managerクラスタ機能のライセンスを正しくインストールすることに失敗すると、Oracle Real Application Clusters サポートをインストールするときにパニックが起きる可能性があります。Oracle Real Application Clusters パッケージをインストールする前に、vxlicense -pまたはvxlicrepコマンドを実行して、Volume Manager クラスタ機能の有効なライセンスがインストールされていることを確認してください。


  2. VxVM ソフトウェアをクラスタノード上にインストールして設定します。

    詳細については、『Sun Cluster ソフトウェアのインストール (Solaris OS 版)』の「VERITAS Volume Manager インストールと構成」および VxVM のマニュアルを参照してください。

次に進む手順

「Sun Cluster Support for Oracle Real Application Clusters パッケージのインストール」 に進んで、Sun Cluster Support for Oracle Real Application Clusters ソフトウェアパッケージをインストールします。

ハードウェア RAID サポートを使用する

ハードウェア RAID サポートを備えた Sun Cluster Support for Oracle Real Application Clusters を使用できます。

たとえば、ハードウェア RAID サポートを備えた Sun StorEdgeTM A3500/A3500FC ディスクアレイを VxVM ソフトウェアなしで使用できます。この組み合わせを使うには、ディスクアレイの論理ユニット番号 (LUN) の先頭に raw デバイス ID (/dev/did/rdsk*) を使用します。ハードウェア RAID を備えた Sun StorEdge A3500/A3500FC ディスクアレイを使用するクラスタ上に Oracle Real Application Clusters 用の raw デバイスを設定するには、次の手順が必要です。

  1. ディスクアレイ上に LUN を作成します。

    LUN の作成方法については、Sun Cluster のハードウェアマニュアルを参照してください。

  2. LUN を作成したなら、format(1M) コマンドを実行して、ディスクアレイの LUN を必要な数のスライスにパーティション分割します。

    次の例は、format コマンドの実行結果を示します。


    # format
    
    0. c0t2d0 <SUN18G cyl 7506 alt 2 hd 19 sec 248>
       /sbus@3,0/SUNW,fas@3,8800000/sd@2,0
    1. c0t3d0 <SUN18G cyl 7506 alt 2 hd 19 sec 248>
       /sbus@3,0/SUNW,fas@3,8800000/sd@3,0
    2. c1t5d0 <Symbios-StorEDGEA3000-0301 cyl 21541 alt 2 hd 64 sec 64>
       /pseudo/rdnexus@1/rdriver@5,0
    3. c1t5d1 <Symbios-StorEDGEA3000-0301 cyl 21541 alt 2 hd 64 sec 64>
       /pseudo/rdnexus@1/rdriver@5,1
    4. c2t5d0 <Symbios-StorEDGEA3000-0301 cyl 21541 alt 2 hd 64 sec 64>
       /pseudo/rdnexus@2/rdriver@5,0
    5. c2t5d1 <Symbios-StorEDGEA3000-0301 cyl 21541 alt 2 hd 64 sec 64>
       /pseudo/rdnexus@2/rdriver@5,1
    6. c3t4d2 <Symbios-StorEDGEA3000-0301 cyl 21541 alt 2 hd 64 sec 64>
       /pseudo/rdnexus@3/rdriver@4,2

    注 –

    ディスクパーティション情報が失われるのを防ぐために、raw ディスクに使用するディスクスライスのシリンダ 0 でパーティションを開始しないでください。ディスクのシリンダ 0 にはディスクパーティションテーブルが格納されます。


  3. scdidadm(1M) コマンドを実行して、 手順 1 で作成した LUN に対応する raw デバイス ID (DID) を見つけます。

    次の例は、 scdidadm -L コマンドの出力の例を示しています。


    # scdidadm -L
    
    1        phys-schost-1:/dev/rdsk/c0t2d0   /dev/did/rdsk/d1
    1        phys-schost-2:/dev/rdsk/c0t2d0   /dev/did/rdsk/d1
    2        phys-schost-1:/dev/rdsk/c0t3d0   /dev/did/rdsk/d2
    2        phys-schost-2:/dev/rdsk/c0t3d0   /dev/did/rdsk/d2
    3        phys-schost-2:/dev/rdsk/c4t4d0   /dev/did/rdsk/d3
    3        phys-schost-1:/dev/rdsk/c1t5d0   /dev/did/rdsk/d3
    4        phys-schost-2:/dev/rdsk/c3t5d0   /dev/did/rdsk/d4
    4        phys-schost-1:/dev/rdsk/c2t5d0   /dev/did/rdsk/d4
    5        phys-schost-2:/dev/rdsk/c4t4d1   /dev/did/rdsk/d5
    5        phys-schost-1:/dev/rdsk/c1t5d1   /dev/did/rdsk/d5
    6        phys-schost-2:/dev/rdsk/c3t5d1   /dev/did/rdsk/d6
    6        phys-schost-1:/dev/rdsk/c2t5d1   /dev/did/rdsk/d6
  4. scdidadm(1M) の出力が示す DID を使用して、raw デバイスを設定します。

    たとえば、scdidadm の出力によって、ディスクアレイの LUN に対応する raw DID が d4 であることがわかったとします。この場合には、/dev/did/rdsk/d4sNraw デバイスを使用します。ここで、N はスライス番号です。

次に進む手順

「Sun Cluster Support for Oracle Real Application Clusters パッケージのインストール」 に進んで、Sun Cluster Support for Oracle Real Application Clusters ソフトウェアパッケージをインストールします。

Sun StorEdge QFS 共有ファイルシステムを使用する

RAID サポートを備えた Sun StorEdge QFS 共有ファイルシステムを使用する必要があります。


注 –

Sun StorEdge QFS 共有ファイルシステムのインストール、構成、使用については、『Sun StorEdge QFS and Sun StorEdge SAM-FS Software Installation and Configuration Guide』と『Sun StorEdge QFS and Sun StorEdge SAM-FS File System Administration Guide』を参照してください。


  1. Sun StorEdge QFS ソフトウェアがインストールされているか確認します。

  2. 個々の Sun StorEdge QFS 共有ファイルシステムが、Sun Cluster Support for Oracle Real Application Clusters で使用できるように正しく構成されているか確認します。

  3. 個々の Sun StorEdge QFS 共有ファイルシステムが、Sun Cluster Support for Oracle Real Application Clusters で使用できるように正しいオプションでマウントされているか確認します。

    • バイナリファイルや構成ファイル、警告ファイル、トレースファイルが含まれているファイルシステムには、デフォルトのマウントオプションを使用します。

    • データファイルや制御ファイル、オンライン再実行ログファイル、保存された再実行ログファイルが含まれているファイルシステムには、次のマウントオプションを使用します。

      • /etc/vfstab ファイルに shared オプションを設定します。

      • /etc/opt/SUNWsamfs/samfs.cmd ファイルまたは /etc/vfstab ファイルに次のオプションを設定します。

        stripe=width
        sync_meta=1
        mh_write
        qwrite
        forcedirectio
        nstreams=1024
        rdlease=300Set this value for optimum performance.
        wrlease=300Set this value for optimum performance.
        aplease=300Set this value for optimum performance.
        
        width

        ファイルシステム内のデバイスに必要なストライプ幅を指定します。必要なストライプ幅は、ファイルシステムのディスク割り当てユニット (DAU) の倍数です。width は、1 以上の整数でなければなりません。


      注 –

      /etc/vfstab ファイル内の設定と /etc/opt/SUNWsamfs/samfs.cmd ファイル内の設定に矛盾がないか確認してください。矛盾がある場合は、/etc/vfstab ファイルの設定が /etc/opt/SUNWsamfs/samfs.cmd ファイルの設定より優先します。


  4. Sun StorEdge QFS メタデータサーバーのデータサービスを登録および構成します。

次に進む手順

次の手順は、Oracle バイナリファイルや Oracle 構成ファイルに Sun StorEdge QFS ファイルシステムを使用するかどうかによって異なります。

クラスタファイルシステムを使用する

  1. クラスタファイルシステムを作成して、マウントします。

    クラスタファイルシステムの作成とマウント方法については、『Sun Cluster ソフトウェアのインストール (Solaris OS 版)』の「クラスタの構成」を参照してください。

  2. UNIX ファイルシステム (UFS) を使用する場合は、各種の Oracle ファイルに対して正しいオプションが指定されているか確認します。

    次の表に、正しいオプションを示します。これらのオプションは、そのマウントポイントの /etc/vfstab ファイルにエントリを追加するときに設定します。

    ファイルタイプ 

    オプション 

    保存された再実行ログファイル

    globallogging forcedirectio

    Oracle アプリケーションバイナリファイル、構成ファイル、警告ファイル、および追跡ファイル

    globallogging

次に進む手順

「共有ファイルシステム用にノード固有のファイルとディレクトリを作成する」 に進んで、Sun Cluster Support for Oracle Real Application Clusters ソフトウェアが必要とするノード固有のファイルとディレクトリを作成します。

共有ファイルシステム用にノード固有のファイルとディレクトリを作成する

Oracle システムの保守を簡単にするために、Oracle バイナリファイルと Oracle 構成ファイルを共有ファイルシステムにインストールできます。次の共有ファイルシステムがサポートされています。

Oracle ソフトウェアが共有ファイルシステムにインストールされている場合、ORACLE_HOME 環境変数で指定されているディレクトリ内のすべてのファイルは、すべてのクラスタノードからアクセスできます。ただし、一部の Oracle ファイルやディレクトリでは、ノード固有の情報を維持する必要があります。

Oracle ソフトウェアを共有ファイルシステムにインストールする場合は、ファイルやディレクトリのローカルコピーを作成し、そこにノード固有の情報を保持する必要があります。これらのファイルやディレクトリにすべてのクラスタノードからアクセスできるようにするためにシンボリックリンクを使用します。シンボリックリンクのターゲットは、ノード内のファイルシステム上にあるファイルやディレクトリです。このようなファイルシステムは、共有ファイルシステムの一部ではありません。

シンボリックリンクをこのような目的で使用する場合、ローカルファイルシステム上に領域を割り当てる必要があります。Oracle アプリケーションが、この領域内のファイルに対してシンボリックリンクを作成するためには、アプリケーションがこの領域内のファイルにアクセスできる必要があります。シンボリックリンクは共有ファイルシステム上に存在するため、リンクへのすべての参照は、すべてのノードで同じになります。したがって、すべてのノードが、ローカルファイルシステム上のその領域用に同じネーム空間を持つ必要があります。

共有ファイルシステム用のノード固有ディレクトリの作成

次の手順は、ノード固有の情報を保持する各ディレクトリに対して実行します。以下に、ノード固有の情報の保持に必要となる典型的なディレクトリを示します。

ノード固有の情報を保持するために必要となるほかのディレクトリについては、Oracle のマニュアルを参照してください。

共有ファイルシステム用にノード固有ディレクトリを作成する

  1. 各クラスタノードで、ノード固有の情報を保持するためのローカルディレクトリを作成します。

    作成するローカルディレクトリ構造は、ノード固有の情報を含むグローバルディレクトリ構造と一致するようにしてください。たとえば、グローバルディレクトリの/global/oracle/network/agent には、/local ディレクトリ下にローカルに格納する必要のあるノード固有の情報が含まれていることがあります。このような場合、/local/oracle/network/agent という名前のディレクトリを作成します。


    # mkdir -p local-dir
    
    -p

    存在しない親ディレクトリをすべて最初に作成することを指定します。

    local-dir

    作成するディレクトリのフルパス名を指定します。

  2. 各クラスタノードで、ノード固有の情報を保持するグローバルディレクトリのローカルコピーを作成します。

    ノード固有の情報のローカルコピーは、手順 1で作成したローカルディレクトリに含まれるようにしてください。


    # cp -pr global-dir local-dir-parent
    
    -p

    所有者、グループ、許可モード、修正時刻、アクセス時刻、およびアクセス制御リストが保護されることを指定します。

    -r

    ディレクトリとそのすべてのファイル (サブディレクトリとそのファイルを含む) がコピーされることを指定します。

    global-dir

    コピーするグローバルディレクトリのフルパスを指定します。このディレクトリは、ORACLE_HOME 環境変数で指定されるディレクトリ下で、共有ファイルシステム上に存在します。

    local-dir-parent

    ローカルコピーを含む、ローカルノード上のディレクトリを指定します。このディレクトリは、手順 1で作成したディレクトリの親ディレクトリです。

  3. 手順 2でコピーしたグローバルディレクトリを、グローバルディレクトリのローカルコピーへのシンボリックリックで置き換えます。

    1. 任意のクラスタノードから、手順 2でコピーしたグローバルディレクトリを削除します。


      # rm -r global-dir
      
      -r

      ディレクトリとそのすべてのファイル (サブディレクトリとそのファイルを含む) が削除されることを指定します。

      global-dir

      削除するファイル名とグローバルディレクトリのフルパスを指定します。このディレクトリは、手順 2でコピーしたグローバルディレクトリになります。

    2. 任意のクラスタノードで、ディレクトリのローカルコピーから、手順 aで削除したグローバルディレクトリへのシンボリックリンクを作成します。


      # ln -s local-dir global-dir
      
      -s

      リンクがシンボリックリンクであることを指定します。

      local-dir

      手順 1で作成したローカルディレクトリがリンクの元であることを指定します。

      global-dir

      手順 aで削除したグローバルディレクトリがリンク先であることを指定します。


例 1–1 ノード固有ディレクトリの作成

この例では、ノード固有ディレクトリを 2 ノードクラスタで作成するための操作手順を示しています。このクラスタは、以下のように構成されています。

各クラスタノードで、以下の手順を実行します。

  1. 次のコマンドを実行して、必要なディレクトリをローカルファイルシステムに作成します。


    # mkdir -p /local/oracle/network/agent
    

    # mkdir -p /local/oracle/network/log
    

    # mkdir -p /local/oracle/network/trace
    

    # mkdir -p /local/oracle/srvm/log
    

    # mkdir -p /local/oracle/apache
    
  2. 次のコマンドを実行して、ノード固有の情報を保持するグローバルディレクトリのローカルコピーを作成します。


    # cp -pr $ORACLE_HOME/network/agent /local/oracle/network/.
    

    # cp -pr $ORACLE_HOME/network/log /local/oracle/network/.
    

    # cp -pr $ORACLE_HOME/network/trace /local/oracle/network/.
    

    # cp -pr $ORACLE_HOME/srvm/log /local/oracle/srvm/.
    

    # cp -pr $ORACLE_HOME/apache /local/oracle/.
    

以下の手順は、1 つのノードでのみ実行します。

  1. 次のコマンドを実行して、グローバルディレクトリを削除します。


    # rm -r $ORACLE_HOME/network/agent
    

    # rm -r $ORACLE_HOME/network/log
    

    # rm -r $ORACLE_HOME/network/trace
    

    # rm -r $ORACLE_HOME/srvm/log
    

    # rm -r $ORACLE_HOME/apache
    
  2. 次のコマンドを実行して、ローカルディレクトリから、対応するグローバルディレクトリへのシンボリックリックを作成します。


    # ln -s /local/oracle/network/agent $ORACLE_HOME/network/agent 
    

    # ln -s /local/oracle/network/log $ORACLE_HOME/network/log
    

    # ln -s /local/oracle/network/trace $ORACLE_HOME/network/trace
    

    # ln -s /local/oracle/srvm/log $ORACLE_HOME/srvm/log
    

    # ln -s /local/oracle/apache $ORACLE_HOME/apache
    

共有ファイルシステム用のノード固有ファイルの作成

次の手順は、ノード固有の情報を保持する各ファイルに対して実行します。以下に、ノード固有の情報の保持に必要となる典型的なファイルを示します。

ノード固有の情報を保持するために必要となるほかのファイルについては、Oracle のマニュアルを参照してください。

共有ファイルシステム用にノード固有ファイルを作成する

  1. 各クラスタノードで、ノード固有の情報を保持するファイルを含むローカルディレクトリを作成します。


    # mkdir -p local-dir
    
    -p

    存在しない親ディレクトリをすべて最初に作成することを指定します。

    local-dir

    作成するディレクトリのフルパス名を指定します。

  2. 各クラスタノードで、ノード固有の情報を保持するグローバルファイルのローカルコピーを作成します。


    # cp -p global-file local-dir
    
    -p

    所有者、グループ、許可モード、修正時刻、アクセス時刻、およびアクセス制御リストが保護されることを指定します。

    global-file

    コピーするファイル名とグローバルファイルのフルパスを指定します。このファイルは、ORACLE_HOME 環境変数で指定されるディレクトリ下で、共有ファイルシステム上にインストールされています。

    local-dir

    ファイルのローカルコピーを含むディレクトリを指定します。このディレクトリは、手順 1で作成したディレクトリになります。

  3. 手順 2でコピーしたグローバルファイルを、そのファイルのローカルコピーへのシンボリックリンクで置き換えます。

    1. 任意のクラスタノードから、手順 2でコピーしたグローバルファイルを削除します。


      # rm global-file
      
      global-file

      削除するファイル名とグローバルファイルのフルパスを指定します。このファイルは、手順 2でコピーしたグローバルファイルになります。

    2. 任意のクラスタノードで、ファイルのローカルコピーから、手順 aで削除したグローバルファイルへのシンボリックリンクを作成します。


      # ln -s local-file global-file
      
      -s

      リンクがシンボリックリンクであることを指定します。

      local-file

      手順 2でコピーしたファイルが、リンクの元であることを指定します。

      global-file

      手順 aで削除したファイルのグローバルバージョンが、リンク先であることを指定します。


例 1–2 ノード固有ファイルの作成

この例では、ノード固有ファイルを 2 ノードクラスタで作成するための操作手順を示しています。このクラスタは、以下のように構成されています。

各クラスタノードで、以下の手順を実行します。

  1. 次のコマンドを実行して、ノード固有の情報を保持するファイルを含むローカルディレクトリを作成します。


    # mkdir -p /local/oracle/network/admin
    
  2. 次のコマンドを実行して、ノード固有の情報を保持するグローバルファイルのローカルコピーを作成します。


    # cp -p $ORACLE_HOME/network/admin/snmp_ro.ora \
      /local/oracle/network/admin/.
    

    # cp -p $ORACLE_HOME/network/admin/snmp_rw.ora \
      /local/oracle/network/admin/.
    

以下の手順は、1 つのノードでのみ実行します。

  1. 次のコマンドを実行して、グローバルファイルを削除します。


    # rm $ORACLE_HOME/network/admin/snmp_ro.ora
    

    # rm $ORACLE_HOME/network/admin/snmp_rw.ora
    
  2. 次のコマンドを実行して、ファイルのローカルコピーから、対応するグローバルファイルへのシンボリックリックを作成します。


    # ln -s /local/oracle/network/admin/snmp_ro.ora \
      $ORACLE_HOME/network/admin/snmp_rw.ora
    

    # ln -s /local/oracle/network/admin/snmp_rw.ora \
      $ORACLE_HOME/network/admin/snmp_rw.ora
    

次に進む手順

「Sun Cluster Support for Oracle Real Application Clusters パッケージのインストール」 に進んで、Sun Cluster Support for Oracle Real Application Clusters ソフトウェアパッケージをインストールします。

Sun Cluster Support for Oracle Real Application Clusters パッケージのインストール

Sun Cluster の初回のインストール時に Sun Cluster Support for Oracle Real Application Clusters パッケージをインストールしなかった場合は、この手順でパッケージをインストールしてください。Sun Cluster Support for Oracle Real Application Clusters を実行できるすべてのクラスタノードで、この手順を実行してください。この手順の実行には、Sun Java Enterprise System Accessory CD Volume 3 が必要です。

Sun Cluster Support for Oracle Real Application Clusters パッケージには次のものがあります。

pkgadd ユーティリティを使用して、Sun Cluster Support for Oracle Real Application Clusters パッケージをインストールします。


注 –

インストール前に準備作業を行う必要があるため、scinstall(1M) ユーティリティーは、RAC フレームワークリソースグループ用パッケージの自動インストールをサポートしていません。


Sun Cluster Support for Oracle Real Application Clusters パッケージをインストールする

  1. CD-ROM ドライブに Sun Java Enterprise System Accessory CD Volume 3 を挿入します。

  2. スーパーユーザーになります。

  3. 現在の作業ディレクトリを、RAC フレームワークリソースグループ用のパッケージを含むディレクトリに移動します。

    このディレクトリは、Solaris オペレーティングシステムのバージョンによって異なります。

    • Solaris 8 を使用している場合は、次のコマンドを実行します。


      # cd /cdrom/cdrom0/components/SunCluster_Oracle_RAC/Solaris_8/Packages
      
    • Solaris 9 を使用している場合は、次のコマンドを実行します。


      # cd /cdrom/cdrom0/components/SunCluster_Oracle_RAC/Solaris_9/Packages
      
  4. Sun Cluster Support for Oracle Real Application Clusters を実行できる各クラスタノードで、必要なソフトウェアパッケージの内容を CD-ROM からノードに移します。

    必要なソフトウェアパッケージは、Oracle Real Application Clusters データベース用にどのストレージ管理スキームを使用するかによって異なります。

    • Solaris Volume Manager for Sun Cluster を使用している場合は、次のコマンドを実行します。


      # pkgadd -d . SUNWscucm SUNWudlm SUNWudlmr SUNWscmd
      
    • クラスタ機能を備えた VxVM を使用している場合は、次のコマンドを実行します。


      # pkgadd -d . SUNWscucm SUNWudlm SUNWudlmr SUNWcvmr SUNWcvm
      
    • ハードウェア RAID サポートを使用している場合は、次のコマンドを実行します。


      # pkgadd -d . SUNWscucm SUNWudlm SUNWudlmr SUNWschwr
      
    • ハードウェア RAID サポートを備えた Sun StorEdge QFS 共有ファイルシステムを使用している場合は、次のコマンドを実行します。


      # pkgadd -d . SUNWscucm SUNWudlm SUNWudlmr SUNWschwr
      
  5. 現在の作業ディレクトリを、Oracle RAC サーバーリソースと Oracle RAC リスナーリソース用のパッケージが含まれているディレクトリに移動します。

    このディレクトリは、Solaris オペレーティングシステムのバージョンによって異なります。

    • Solaris 8 を使用している場合は、次のコマンドを実行します。


      # cd /cdrom/cdrom0/components/SunCluster_HA_Oracle_3.1/Solaris_8/Packages
      
    • Solaris 9 を使用している場合は、次のコマンドを実行します。


      # cd /cdrom/cdrom0/components/SunCluster_HA_Oracle_3.1/Solaris_9/Packages
      
  6. Sun Cluster Support for Oracle Real Application Clusters を実行できる各クラスタノードで、必要なソフトウェアパッケージの内容を CD-ROM からノードに移します。

    必要なソフトウェアパッケージは必要なロケールが何かによって異なります。

    • C ロケールをインストールする場合は、次のコマンドを実行します。


      # pkgadd -d . SUNWscor
      
    • 簡体字中国語ロケールをインストールする場合は、次のコマンドを実行します。


      # pkgadd -d . SUNWcscor
      
    • 日本語ロケールをインストールする場合は、次のコマンドを実行します。


      # pkgadd -d . SUNWjscor
      

次に進む手順

「Sun Cluster ノードの準備」に進み、Sun Cluster ノードの準備を行ないます。

Sun Cluster ノードの準備

Sun Cluster ノードを準備すると、オペレーティングシステムの構成が変更され、Oracle Real Application Clusters が Sun Cluster ノードで実行可能になります。Sun Cluster ノードやディスクの準備には、次の作業が必要です。


注意 – 注意 –

Sun Cluster Support for Oracle Real Application Clusters が動作する可能性があるすべてのノードでこれらの作業を行なってください。これらの作業をすべてのノードで実行しないと、Oracle のインストールは不完全になります。Oracle のインストールが不完全だった場合、起動時に Sun Cluster Support for Oracle Real Application Clusters でエラーが発生します。


NIS ネームサービスをバイパスする

NIS ネームサービスをバイパスすると、Sun Cluster Support for Oracle Real Application Clusters データサービスが、クラスタノードのパブリックネットワークの障害から保護されます。クラスタノードのパブリックネットワークに障害が発生すると、NIS ネームサービスが使用不能になる場合があります。Sun Cluster Support for Oracle Real Application Clusters が NIS ネームサービスを参照したときに、ネームサービスが使用不能だと、Sun Cluster Support for Oracle Real Application Clusters データサービスは失敗する場合があります。

NIS ネームサービスをバイパスすると、Sun Cluster Support for Oracle Real Application Clusters データサービスは、ユーザー識別子 (ID) を設定するときに NIS ネームサービスを参照しません。Sun Cluster Support for Oracle Real Application Clusters データサービスは、データベースを起動または停止するときにこのユーザー ID を設定します。

  1. Sun Cluster Support for Oracle Real Application Clusters が動作する可能性のあるすべてのノードでスーパーユーザーになります。

  2. それぞれのノードで、次のエントリを /etc/nsswitch.conf ファイルに追加します。


    passwd:    files nis [TRYAGAIN=0]
    publickey: files nis [TRYAGAIN=0]
    project:   files nis [TRYAGAIN=0]
    group:     files

    /etc/nsswitch.conf ファイルの詳細は、nsswitch.conf(4) のマニュアルページを参照してください。

次に進む手順

「データベース管理者グループと Oracle ユーザーアカウントを作成する」に進みます。

データベース管理者グループと Oracle ユーザーアカウントを作成する


注 –

次の手順は、各クラスタノードでスーパーユーザーで実行してください。


  1. 各ノード上で、/etc/group ファイルにデータベース管理者グループ用のエントリを作成し、このグループに潜在的なユーザーを追加します。

    通常、このグループの名前は、dba です。 root および oracle dba グループのメンバーであることを確認し、必要に応じて他のデータベース管理者 (DBA) ユーザーのエントリを追加します。グループ ID が Sun Cluster Support for Oracle Real Application Clusters を実行するすべてのノードで同じであるかを確認します。たとえば、次のエントリを /etc/group ファイルに追加します。


    dba:*:520:root,oracle

    Network Information Service (NIS) や NIS+ などのネットワークネームサービスにネームサービスエントリを作成すれば、データサービスクライアントからこの情報を使用できるようになります。また、ローカルの /etc ファイルにエントリを作成し、ネットワークネームサービスに依存しないようにできます。

  2. 各ノード上で、/etc/passwd ファイルに Oracle ユーザー ID 用のエントリ (グループおよびパスワード) を作成し、pwconv( 1M) コマンドを実行して、 /etc/shadow ファイルにエントリを作成します。

    通常、Oracle ユーザー ID は、oracle です。たとえば、次のエントリを /etc/passwd ファイルに追加します。


    # useradd -u 120 -g dba -d /oracle-home oracle
    

    ユーザー ID が Sun Cluster Support for Oracle Real Application Clusters を実行するすべてのノードで同じであるかを確認します。

次に進む手順

Oracle Real Application Clusters 用のクラスタ環境を設定したあと、「Oracle UDLM をインストールする」へ移動して各クラスタノードに Oracle UDLM ソフトウェアをインストールします。

Oracle UDLM のインストール

Oracle UDLM ソフトウェアが正常に動作するためには、これらのクラスタノードのすべてに、十分な共有メモリがなければなりません。Oracle UDLM のインストールに関する詳細は、Oracle Real Application Clusters CD-ROM を参照してください。


注意 – 注意 –

Oracle UDLM をインストールする前に、データベース管理者グループと Oracle ユーザー ID のエントリが作成済みであるか確認してください。詳細は、「データベース管理者グループと Oracle ユーザーアカウントを作成する」 を参照してください。


Oracle UDLM をインストールする


注 –

Oracle UDLM ソフトウェアは、各ノードのローカルディスクにインストールする必要があります。


  1. クラスタノード上にインストールするクラスタノード上でスーパーユーザーになります。

  2. Oracle UDLM ソフトウェアをインストールします。

    インストール手順については、Oracle Real Application Clusters のインストールマニュアルを参照してください。


    注 –

    Oracle UDLM パッケージをインストールした時にエラーメッセージが発生していないかを確認してください。パッケージのインストールでエラーが発生した場合は、Oracle UDLM ソフトウェアをインストールする前に問題を解決してください。


  3. /etc/system ファイルを共有メモリ構成情報で更新します。

    これらのパラメータは、クラスタで利用可能なリソースにもとづいて構成する必要があります。適切な値を決定してください。ただし、Oracle UDLM がその構成要件に従って、共有メモリセグメントを作成できることを確認してください。

    次に、/etc/system ファイルで構成するエントリの例を示します。


    *SHARED MEMORY/ORACLE
    set shmsys:shminfo_shmmax=268435456
    set semsys:seminfo_semmap=1024
    set semsys:seminfo_semmni=2048
    set semsys:seminfo_semmns=2048
    set semsys:seminfo_semmsl=2048
    set semsys:seminfo_semmnu=2048
    set semsys:seminfo_semume=200
    set shmsys:shminfo_shmmin=200
    set shmsys:shminfo_shmmni=200
    set shmsys:shminfo_shmseg=200

  4. Oracle UDLM ソフトウェアがインストールされている各ノードをシャットダウンして、リブートします。


    注意 – 注意 –

    リブートする前に、Oracle UDLM ソフトウェアを正しくインストールして設定してあることを確認してください。さらに、ボリュームマネージャパッケージのインストールも正しく行われているか確認してください。VxVM を使用する場合は、ソフトウェアが正しくインストールされていること、また、VxVM クラスタ機能用のライセンスが有効であることを確認してください。正しく構成されていないと、ノードでパニックが発生します。


    詳しい手順については、『Sun Cluster のシステム管理 (Solaris OS 版)』の「単一クラスタノードの停止と起動」を参照してください。

次に進む手順

Oracle UDLM ソフトウェアを各クラスタノードにインストールしたあとの手順は、下の表のように、使用するストレージ管理スキーマによって異なります。

ストレージ管理スキーマ 

次の手順 

Solaris Volume Manager for Sun Cluster 

「Oracle Real Application Clusters データベース用の Solaris Volume Manager for Sun Cluster にマルチオーナーディスクセットを作成」

クラスタ機能を備えた VxVM 

「Oracle Real Application Clusters データベース用の VxVM 共有ディスクグループの作成」

その他 

「RAC フレームワークリソースグループの登録と構成」

Oracle Real Application Clusters データベース用の Solaris Volume Manager for Sun Cluster にマルチオーナーディスクセットを作成


注 –

この作業を行なうのは Solaris Volume Manager for Sun Cluster を使用する場合だけです。


Solaris Volume Manager for Sun Cluster を使用する場合は、Solaris Volume Manager によって、Oracle Real Application Clusters データベース用のマルチオーナーディスクセットが必要になります。Solaris Volume Manager for Sun Cluster のマルチオーナーディスクセットについては、『Solaris ボリュームマネージャの管理』の Solaris Volume Manager for Sun Cluster のディスクセットの概念に関する節を参照してください。

始める前に

Oracle Real Application Clusters データベース用の Solaris Volume Manager for Sun Cluster にマルチオーナーディスクセットを作成する前に次の点に注意してください。

Oracle Real Application Clusters データベース用の Solaris Volume Manager for Sun Cluster にマルチオーナーディスクセットを作成する

  1. マルチオーナーディスクセットを作成します。

    これには metaset(1M) コマンドを使用します。


    # metaset -s setname -M -a -h nodelist
    
    -s setname

    作成するディスクセットの名前を指定します。

    -M

    作成するディスクセットがマルチオーナーディスクセットであることを意味します。

    -a

    -h オプションで指定するノードをディスクセットに追加することを意味します。

    -h nodelist

    ディスクセットに追加するノードをスペースで区切って指定します。Sun Cluster Support for Oracle Real Application Clusters ソフトウェアパッケージは、このリストの各ノードにインストールする必要があります。

  2. 手順 1 で作成したディスクセットに広域デバイスを追加します。


    # metaset -s setname -a devicelist
    
    -s setname

    手順 1 で作成したディスクセットを変更します。

    -a

    devicelist で指定するデバイスをディスクセットに追加することを意味します。

    devicelist

    ディスクセットに追加する広域デバイスの完全なデバイス ID パス名をスペースで区切って指定します。各デバイスにクライアントのどのノードからでもアクセスできるためには、デバイス ID パス名の形式が /dev/did/dsk/d N になっていなければなりません。N はデバイス番号です。

  3. 手順 1 で作成したディスクセットに対して、Oracle Real Application Clusters データベースで使用するボリュームを作成します。


    注 –

    Oracle データファイル用のボリュームを多数作成する場合は、ソフトパーティションを使うとこのステップが簡単になります。詳細は、『Solaris ボリュームマネージャの管理』の「ソフトパーティション (概要)」と『Solaris ボリュームマネージャの管理』の「ソフトパーティション (作業)」を参照してください。


    手順 2 で追加した広域デバイス上のスライスを連結してそれぞれのボリュームを作成します。これには metainit(1M) コマンドを使用します。


    # metainit -s setname volume-abbrev numstripes width slicelist
    
    -s setname

    手順 1 で作成したディスクセットに対してボリュームを作成します。

    volume-abbrev

    作成するボリュームの省略名を指定します。省略名の形式は d V で、V はボリューム番号です。

    numstripes

    ボリュームに作成するストライプの数を指定します。

    width

    各ストライプに作成するスライスの数を指定します。width に 1 より大きい数を指定すると、スライスはストライプ化されます。

    slicelist

    ボリュームに組み込むスライスをスペースで区切って指定します。それぞれのスライスは、手順 2 で追加した広域デバイス上になければなりません。

  4. 各ノードがマルチオーナーディスクセットに正しく追加されているか確認します。

    これには metastat(1M) コマンドを使用します。


    # metastat -s setname
    
    -s setname

    手順 1 で作成したディスクセットの構成を確認します。

    このコマンドを実行すると、ディスクセットに正しく追加されているノードごとに、次の情報を示す表が表示されます。

    • Host 列にはノード名が表示されます。

    • Owner 列には、multi-owner という文字が表示されます。

    • Member 列には、Yes という文字が表示されます。

  5. マルチオーナーディスクセットが正しく構成されているか確認します。


    # scconf -pvv | grep setname
    
    setname

    手順 1 で作成したディスクセットの構成情報だけを表示します。

    このコマンドを実行すると、ディスクセットのデバイスグループ情報が表示されます。マルチオーナーディスクセットの場合、デバイスグループタイプは Multi-owner_SVM です。

  6. マルチオーナーディスクセットのオンライン状態を確認します。


    # scstat -D
    

    このコマンドを実行すると、オンラインになっている、マルチオーナーディスクセット内のノードの名前が表示されます。

  7. そのディスクセットを所有する可能性のある個々のノードで、手順 3 で作成した各ボリュームの所有権を次のように変更します。

    • 所有者:oracle

    • グループ:dba

    所有権を変更するのは、Oracle Real Application Clusters データベースが使用するボリュームだけにしてください。


    # chown oracle:dba volume-list
    
    volume-list

    そのディスクセットに対して作成したボリュームの論理名をスペースで区切って指定します。論理名の形式は、ボリュームが存在するデバイスのタイプによって異なります。

    • ブロックデバイスの場合:/dev/md/ setname/dsk/dV

    • raw デバイスの場合:/dev/md/ setname/rdsk/dV

    これらの論理名の変数の意味は次のとおりです。

    setname

    手順 1 で作成したマルチオーナーディスクセットの名前です。

    V

    手順 3で作成したボリュームのボリューム番号です。

    このリストには、手順 3 で作成したボリュームを指定する必要があります。

  8. ディスクセットを所有する可能性のある各ノードで、手順 7 で所有権を変更したボリュームごとに、読み取りアクセス権と書き込みアクセス権を oracle ユーザーに付与します。

    アクセス権を変更するのは、Oracle Real Application Clusters データベースが使用するボリュームだけにしてください。


    # chmod u+rw volume-list
    
    volume-list

    oracle ユーザーに読み取りアクセス権と書き込みアクセス権を付与するボリュームの論理名をスペースで区切って指定します。このリストには、手順 7 で指定したボリュームを指定する必要があります。


例 1–3 Solaris Volume Manager for Sun Cluster にマルチオーナーディスクセットを作成する

この例では、Solaris Volume Manager for Sun Cluster にマルチオーナーディスクセットを作成します。この例では、すべてのボリュームが raw デバイス上にあることを想定します。

  1. 次のコマンドを実行して、マルチオーナーディスクセットを作成します。


    # metaset -s racdbset -M -a -h rachost1 rachost2 rachost3 rachost4
    

    マルチオーナーディスクセットに racdbset という名前を付けます。このディスクセットにノード rachost1rachost2rachost3rachost4 を追加します。

  2. 次のコマンドを実行して、ディスクセットに広域デバイス /dev/did/dsk/d0 を追加します。


    # metaset -s racdbset -a /dev/did/dsk/d0
    
  3. 次のコマンドを実行して、ディスクセットに対してボリュームを作成します。


    # metainit -s racdbset d0 1 1 /dev/did/dsk/d0s0 
    

    ボリュームには d0 という名前を付けます。このボリュームは、スライス /dev/did/dsk/d0s0 を 1 対 1 で連結したものです。スライスはストライプ化されません。

  4. 次のコマンドを実行して、各ノードがマルチオーナーディスクセットに正しく追加されているか確認します。


    # metastat -s racdbset
    Multi-owner Set name = racdbset, Set number = 1, Master = rachost2
    
    Host                Owner          Member
       rachost1           multi-owner   Yes
       rachost2           multi-owner   Yes
       rachost3           multi-owner   Yes
       rachost4           multi-owner   Yes
    
    Drive Dbase
    
    d6    Yes
    
    d10   Yes
  5. 次のコマンドを実行して、マルチオーナーディスクセットが正しく構成されているか確認します。


    # scconf -pvv | grep racdbset
    Device group name:                                 racdbset
       (racdbset) Device group type:                       Multi-owner_SVM
       (racdbset) Device group failback enabled:           no
       (racdbset) Device group node list:       rachost1, rachost2, rachost3, rachost4
       (racdbset) Device group ordered node list:          no
       (racdbset) Device group desired number of secondaries: 0
       (racdbset) Device group diskset name:               racdbset
  6. 次のコマンドを実行して、マルチオーナーディスクセットのオンライン状態を確認します。


    # scstat -D
    
    -- Device Group Servers --
    
                              Device Group        Primary             Secondary
                              ------------        -------             ---------
    
    
    -- Device Group Status --
    
                                   Device Group        Status
                                   ------------        ------
    
    
    -- Multi-owner Device Groups --
    
                                   Device Group        Online Status
                                   ------------        -------------
       Multi-owner device group:   racdbset            rachost1,rachost2,rachost3,rachost4
  7. 次のコマンドを実行して、ディスクセット内のボリュームの所有権をグループ dba のオーナー oracle に変更します。


    # chown oracle:dba /dev/md/racdbset/rdsk/d0
    

    このコマンドは、ディスクセットを所有する可能性のあるすべてのノードで実行する必要があります。

  8. 次のコマンドを実行して、ディスクセット内のボリュームへの読み取りアクセス権を oracle ユーザーに付与します。


    # chmod u+rw /dev/md/racdbset/rdsk/d0
    

    このコマンドは、ディスクセットを所有する可能性のあるすべてのノードで実行する必要があります。


次に進む手順

Oracle Real Application Clusters データベース用のマルチオーナーディスクセットを作成したら、「RAC フレームワークリソースグループの登録と構成」に進んで Sun Cluster Support for Oracle Real Application Clusters の登録と構成を行ないます。

Oracle Real Application Clusters データベース用の VxVM 共有ディスクグループの作成


注 –

この作業は、クラスタ機能を備えた VxVM を使用している場合にだけ実行してください。


クラスタ機能を備えた VxVM を使用している場合、VxVM には、Oracle Real Application Clusters データベースで使用するための共有ディスクグループが必要です。

始める前に

Oracle Real Application Clusters データベース用の VxVM 共有ディスクグループを作成する前に、以下の点に注意してください。

Oracle Real Application Clusters データベース用の VxVM 共有ディスクグループを作成する

  1. VxVM 共有ディスクグループ作成用に提供されている VERITAS コマンドを使用します。

    VxVM 共有ディスクグループについては、VxVM のマニュアルを参照してください。

次に進む手順

Oracle Real Application Clusters データベース用の共有ディスクグループを作成したら、「RAC フレームワークリソースグループの登録と構成」に進んで Sun Cluster Support for Oracle Real Application Clusters を登録し、設定してください。