この章では、Sun Cluster ノードに Sun Cluster Support for Oracle Real Application Clusters をインストールする手順について説明します。この章では、次の手順について説明します。
「Sun Cluster Support for Oracle Real Application Clusters パッケージをインストールする」
「Oracle Real Application Clusters データベース用の VxVM 共有ディスクグループを作成する」
次の表に、インストール作業の要約とその作業に必要な詳しい説明の参照先を示します。
これらの作業は、表に示す順序で行う必要があります。
表 1–1 Sun Cluster Support for Oracle Real Application Clusters のインストール作業
タスク |
参照先 |
---|---|
インストール前に考慮すべき事項と特殊な要件 | |
ストレージ管理ソフトウェアのインストール |
「Sun Cluster Support for Oracle Real Application Clusters でのストレージ管理ソフトウェアのインストール」 |
Sun Cluster Support for Oracle Real Application Clusters ソフトウェアが必要とするノード固有のファイルとディレクトリの作成 | |
データサービスパッケージのインストール |
「Sun Cluster Support for Oracle Real Application Clusters パッケージのインストール」 |
Sun Cluster ノードの準備 | |
UNIX Distributed Lock Manager のインストール | |
Oracle Real Application Clusters データベース用のマルチオーナーディスクセットを Solaris Volume Manager for Sun Cluster に作成 | |
Oracle Real Application Clusters データベース用の VxVM 共有ディスクグループの作成 |
「Oracle Real Application Clusters データベース用の VxVM 共有ディスクグループの作成」 |
Oracle Real Application Clusters は、複数のノードで同時に動作することができる、拡張性をもつアプリケーションです。Sun Cluster Support for Oracle Real Application Clusters は、Oracle Real Application Clusters を Sun Cluster ノードで実行できるようにするパッケージ群です。さらに、このデータサービスでは、Sun Cluster コマンドを使って Oracle Real Application Clusters を管理できます。
Oracle の以前のバージョンでは、このアプリケーションは 「Oracle Parallel Server」 と呼ばれていました。本書では、特に断りがない限り、「Oracle Real Application Clusters」 への言及は Oracle Parallel Server にも適用されるものとします。
このデータサービスには障害監視機能がありますが、この機能は、Sun Cluster ユーティリティで Oracle Real Application Clusters リソースの状態を監視できるようにするためだけのものです。このデータサービスには、Oracle Real Application Clusters ソフトウェアに自動障害回復機能と同様の機能があるため、自動障害回復機能はありません。
インストールを始める前に、以下に説明するハードウェアとソフトウェアの要件に注意してください。
Sun Cluster Support for Oracle Real Application Clusters をインストールするためには、クラスタに最初のクラスタフレームワークがすでにインストールされ、クラスタが動作している必要があります。クラスタソフトウェアの初期インストールの詳細については、『Sun Cluster ソフトウェアのインストール (Solaris OS 版) 』を参照してください。
Sun Cluster ソフトウェアの共有ディスクアーキテクチャを使用するためには、Oracle Real Application Clusters を構成する必要があります。この構成では、データベースに同時にアクセスする Oracle Real Application Clusters の複数のインスタンス間で、単一のデータベースを共有します。クラスタノード間の共有リソースに対するアクセスは、UNIX Distributed Lock Manager (Oracle UDLM) によって制御されます。
これらの要件を満たすために、以下のストレージ管理スキームのどれかを使用します。
Solaris Volume Manager for Sun Cluster
Solaris Volume Manager for Sun Cluster は Oracle Real Application Clusters だけでサポートされます。Solaris Volume Manager for Sun Cluster は Oracle Parallel Server ではサポートされません。
クラスタ機能を備えた VERITAS Volume Manager (VxVM)
ハードウェア RAID(redundant array of independent disks)サポート
ハードウェア RAID サポートを備えた Sun StorEdgeTM QFS 共有ファイルシステム
ソフトウェアを使用するために必要なライセンスを取得して、インストールしているかを確認します。ライセンスのインストールが不正であったり不完全であったりすると、ノードが正しく起動しないことがあります。
たとえば、クラスタ機能を備えた VxVM を使用している場合、以下のコマンドのうちの 1 つを実行して、 Volume Manager クラスタ機能のライセンスをインストールしてあることを確認してください。
Sun Enterprise Services の購入先に、 Sun Cluster Support for Oracle Real Application Clusters で現在サポートされているトポロジー、クラスタインターコネクト、ストレージ管理スキーマ、およびハードウェア構成について確認します。
Solaris オペレーティングシステム、Sun Cluster、Oracle、および使用するボリュームマネージャ用の適用できるソフトウェアパッチをインストールしてあることを確認します。Sun Cluster Support for Oracle Real Application Clusters パッチをインストールする必要がある場合は、データサービスパッケージをインストールしたあとでこれらのパッチを加えてください。
Oracle バイナリファイルおよび Oracle 構成ファイルは、次のいずれかの場所にインストールできます。
Oracle バイナリファイルと Oracle 構成ファイルを個別のクラスタノード上に置くと、後でデータサービスをシャットダウンせずに Oracle アプリケーションをアップグレードできます。
この場合の短所は、Oracle バイナリファイルと Oracle 構成ファイルの複数のコピーを維持し、管理しなければならない点です。
Oracle システムの保守を簡単にするために、Oracle バイナリファイルと Oracle 構成ファイルを共有ファイルシステムにインストールできます。次の共有ファイルシステムがサポートされています。
Sun StorEdge QFS 共有ファイルシステム
クラスタファイルシステム
クラスタファイルシステムを使用する場合は、どちらのボリュームマネージャを使用するか決めます。
Solaris ボリュームマネージャ
クラスタ機能のない VxVM
Oracle バイナリファイルと Oracle 構成ファイルを共有ファイルシステム上に置く場合、維持管理するコピーは 1 つだけです。しかし、Oracle アプリケーションをアップグレードするには、クラスタ全体でデータサービスを停止する必要があります。アップグレードする場合に多少の停止時間が生じても構わない場合は、Oracle バイナリファイルと Oracle 構成ファイルの 1 つのコピーを共有ファイルシステム上に置きます。
Oracle Real Application Clusters に関連するすべてのファイルを Sun StorEdge QFS 共有ファイルシステムに格納できます。
次に示すように、これらのファイルをいくつかのファイルシステムに分散して置きます。
クラスタに 1 つのファイルシステムを作成して次のファイルを格納します。
Oracle バイナリファイル
Oracle 構成ファイル (たとえば、init.ora、 tnsnames.ora、listener.ora、 sqlnet.ora)
警告ファイル (たとえば、alert_ sid.log)
追跡ファイル (*.trc)
データベースごとに 1 つのファイルシステムを作成してこれらのファイルを格納します。これらのファイルは、データベースのすべての Oracle Real Application Clusters インスタンスで使用されます。
データファイル
コントロールファイル
オンライン再実行ログファイル
保存された再実行ログファイル
Sun StorEdge QFS 共有ファイルシステムの作成方法については、Sun StorEdge QFS の次のマニュアルを参照してください。
『Sun StorEdge QFS and Sun StorEdge SAM-FS Software Installation and Configuration Guide』
『Sun StorEdge QFS and Sun StorEdge SAM-FS File System Administration Guide』
クラスタファイルシステムには、Oracle Real Application Clusters に関連する次のファイルだけを格納できます。
Oracle バイナリファイル
Oracle 構成ファイル (たとえば、init.ora、 tnsnames.ora、listener.ora、 sqlnet.ora)
保存された再実行ログファイル
警告ファイル (たとえば、alert_ sid.log)
追跡ファイル (*.trc)
クラスタファイルシステムに、データファイル、コントロールファイル、オンラインの再実行ログファイルを格納しないでください。
保存された再実行ログファイルに書き込む際の入出力性能は、保存された再実行ログファイルのデバイスグループがどこにあるかによって異なります。パフォーマンスを最適にするために、保存された再実行ログファイル用のプライマリのデバイスグループは、Oracle Real Application Clusters データベースインスタンスと同じノード上に置くようにしてください。このデバイスグループには、データベースインスタンスの保存された再実行ログを保持するファイルシステムが含まれています。
クラスタファイルシステムの作成方法については、以下のマニュアルを参照してください。
『Sun Cluster ソフトウェアのインストール (Solaris OS 版)』の「広域デバイスとクラスタファイルシステムについての計画」
『Sun Cluster ソフトウェアのインストール (Solaris OS 版)』の「クラスタの構成」
Sun Cluster Support for Oracle Real Application Clusters のインストールと構成の計画に入る前に、以下の各質問に答えてください。『Sun Cluster 3.1 データサービスの計画と管理』の「構成ワークシート」にあるデータサービスワークシートのスペースに、質問の答えを記入してください。
Oracle Real Application Clusters (RAC) サーバーリソースのリソースグループとしてどれを使いますか。
Oracle Real Application Clusters データベースインスタンスごとに 1 つのリソースグループが必要です。そのリソースグループには、そのデータベースインスタンスの Oracle RAC サーバーリソースが含まれています。
この質問の回答は、「Oracle RAC サーバーリソースの登録と構成」の手順を実行する際に使用されます。
Oracle リスナーリソースのリソースグループとしてどれを使いますか。
この質問の回答は、「Oracle リスナーリソースの登録と構成」の手順を実行する際に使用されます。
リソースグループは、Real Application Clusters データベースインスタンスに対して Oracle リスナーがどのように構成されているかによって異なります。Real Application Clusters インスタンスに対して構成できるリスナーについては、Oracle のマニュアルを参照してください。次の各項で構成の例を説明します。
1 つのリスナーが 1 つの Real Application Clusters インスタンスだけをサポートします。このリスナーは、ノードの特定のインターネットプロトコル (IP) アドレスで待機します。リスナーをフェイルオーバーすることはできません。
この例では、リスナー リソースを次のように構成します。
リスナーリソースと RAC サーバーリソースを同じリソースグループに構成します。
このリソースグループは、1 つのノードだけでマスターされるようにします。
1 つのリスナーが、同じノードで動作するいくつかの Real Application Clusters インスタンスをサポートします。このリスナーは、Oracle の透過的なアプリケーションフェイルオーバー (TAF) と負荷均衡機能を使って、クライアント接続をすべての Real Application Clusters インスタンスに分散します。リスナーをフェイルオーバーすることはできません。
この例では、リスナーリソースを次のように構成します。
リスナーリソースをそれ独自のリソースグループ内に構成します。
このリスナーのリソースグループは、1 つのノードだけでマスターされるようにします。
リスナーのリソースグループと RAC サーバーのリソースグループとの間の依存関係を設定します。
フェイルオーバー可能な 1 つのリスナーが、同じノードで動作するいくつかの Real Application Clusters インスタンスをサポートします。リスナーが別のノードにフェイルオーバーされた場合でも、このリスナーは、ほかのノードで動作するいくつかの Real Application Clusters インスタンスをサポートします。
このリスナーは、Oracle の TAF と負荷均衡機能を使ってクライアント接続をすべての Real Application Clusters インスタンスに分散します。エラー検出やフェイルオーバーを短時間で行なうために、リスナーは、LogicalHostname リソースで表されるアドレスで待機します。
この例では、リスナー リソースを次のように構成します。
リスナーリソースと LogicalHostname リソースを同じリソースグループ内に構成します。
このリソースグループは、Oracle Real Application Clusters が動作しているノードだけでマスターされるようにします。
詳細は、「Oracle リスナーリソース用の LogicalHostname リソース」を参照してください。
1 つのリスナーが、すべてのノードのすべての Real Application Clusters インスタンスをサポートします。このリスナーは、LogicalHostname リソースで表されるアドレスで待機します。この構成では、あるノードに障害が発生すると、そのアドレスがすぐに別のノードに渡されます。
マルチスレッドサーバー (MTS) を使用するように Real Application Clusters インスタンスを構成する場合は、この構成を使用できます。このような構成においては、init.ora ファイルの REMOTE_LISTENERS パラメータを使って、各ディスパッチャがロジカル IP アドレスのリスナーに登録されるように指定します。
すべてのクライアントが 1 つのリスナーを通して接続されます。リスナーは、各クライアント接続を最も負荷の軽いディスパッチャに切り替えます。最も負荷の軽いディスパッチャは、リスナーとは別のノード上にある可能性があります。
リスナーに異常が発生すると、リスナーの障害モニターがリスナーを再起動します。リスナーが動作しているノードに異常が発生すると、リスナーは別のノードで再起動されます。どちらの場合でも、ディスパッチャはリスナーが再起動された後に再登録されます。
クラスタ全体に対して 1 つのリスナーを使用している場合は、次のリソースを同じリソースグループとして構成する必要があります。
リスナーリソース
LogicalHostname リソース
詳細は、「Oracle リスナーリソース用の LogicalHostname リソース」を参照してください。
Oracle リスナーリソースではどの LogicalHostname リソースを使用しますか。
この質問の回答は、「Oracle リスナーリソースの登録と構成」の手順を実行する際に使用されます。
Oracle Real Application Clusters のインスタンスを実行しているクラスタノードに異常がある場合には、クライアントアプリケーションが行おうとしている操作を、別のインスタンスで再試行される前にタイムアウトにする必要がある場合があります。TCP/IP ネットワークのタイムアウトが頻繁に起きる場合、クライアントアプリケーションで障害を検出するのに長時間かかることがあります。通常、クライアントアプリケーションでこの種の障害を検出するのに必要な時間は、3 分から 9 分です。
このような状況の場合、クライアントアプリケーションは、Sun Cluster LogicalHostname リソースで表されるアドレスで待機しているリスナーリソースに接続できます。そのためには、LogicalHostname リソースとリスナーリソースを別々のリソースグループとして構成する必要があります。このリソースグループは、Oracle Real Application Clusters が動作しているノードだけでマスターされるようにします。ノードに異常があると、LogicalHostname リソースとリスナーリソースが含まれているリソースグループは、Oracle Real Application Clusters が動作している有効な別のノード にフェイルオーバーされます。 LogicalHostname リソースのフェイルオーバーにより、新しい接続を Oracle Real Application Clusters の他のインスタンスにつなげることができます。
Sun StorEdge QFS 共有ファイルシステムを使用する場合は、次の質問に答えてください。
Sun StorEdge QFS 共有ファイルシステムのメタデータサーバーを表すリソースとしてどのリソースを作成しますか。
それぞれの Sun StorEdge QFS メタデータサーバーごとに 1 つのリソースが必要です。
これらのリソースのためにどのリソースグループを使用しますか。
詳細は、Sun StorEdge QFS の以下のマニュアルを参照してください。
Sun StorEdge QFS and Sun StorEdge SAM-FS Software Installation and Configuration Guide
Sun StorEdge QFS and Sun StorEdge SAM-FS File System Administration Guide
この質問の回答は、「Oracle RAC サーバーリソースの登録と構成」の手順を実行する際に使用されます。
クラスタファイルシステムの代わりにローカルファイルシステムを使用する場合の長所と短所については、「Oracle バイナリファイルと Oracle 構成ファイルの場所」を参照してください。
この節では、Sun Cluster Support for Oracle Real Application Clusters 固有の要件を示します。
Oracle UDLM および Oracle リレーショナルデータベースにどのアーキテクチャを使用するかを決める前に、以下の点に注意してください。
両方の Oracle コンポーネントのアーキテクチャが一致する必要があります。たとえばOracle UDLM に 64 ビットアーキテクチャを使用する場合は、RDBMS にも 64 ビットアーキテクチャを使用する必要があります。
Oracle コンポーネントに 32 ビットアーキテクチャを使用する場合は、それらのコンポーネントが配置されたノードを 32 ビットモードまたは 64 ビットモードのどちらででもブートできます。しかし、Oracle コンポーネントに 64 ビットアーキテクチャを使用する場合は、それらのコンポーネントが配置されたノードを 64 ビットモードでブートする必要があります。
すべてのノードをブートするときは、同じアーキテクチャを使用する必要があります。たとえば、32 ビットアーキテクチャを使用するように 1 つのノードをブートする場合は、全ノードとも 32 ビットを使用するようにブートする必要があります。
次に、データサービスログファイルの場所を示します。
現在のログ: /var/cluster/ucmm/ucmm_reconf.log
以前のログ: /var/cluster/ucmm/ucmm_reconf.log.0 (0, 1,...) – この場所は、Oracle UDLM パッケージによって異なります。
Oracle UDLMログ:/var/cluster/ucmm/dlm_ nodename/logs – この場所に Oracle のログファイルを見つけることができない場合は、Oracle のサポートにお問い合わせください。
Oracle UDLM コアファイル:/var/cluster/ucmm/dlm_ nodename/cores – この場所に Oracle のログファイルを見つけることができない場合は、Oracle のサポートにお問い合わせください。
このデータサービスをインストール中は、ノードを再起動する前に、Oracle UDLM ソフトウェアのインストールと構成が完了し、かつ、再起動に必要な前提条件が満たされていることを確認してください。インストールと構成が完了し、必要な前提条件が満たされていないと、ノードはパニックを引き起こします。
インストール時のノードパニックを解決する方法については、「Sun Cluster Support for Oracle Real Application Clusters の初期化中のノードパニック」を参照してください。
Oracle Real Application Clusters Guard オプションのインストール、管理および操作については、Oracle のドキュメントを参照してください。この製品オプションを Sun Cluster 3.1 で使用する場合は、 Sun Cluster 3.1 をインストールする前に、以下で説明する点に注意してください。
Oracle Real Application Clusters Guard オプションを Sun Cluster 3.1 で使用する場合、クラスタで使用するホスト名に以下の制限が適用されます。
ホスト名に特殊文字を含めることはできません。
Sun Cluster 3.1 をインストールしたあとでは、ホスト名を変更することはできません。
これらの制限およびその他の要件について詳しくは、Oracle のドキュメントを参照してください。
Sun Cluster 3.1 で Oracle Real Application Clusters Guard オプションを使用する場合、以下の操作の実行に Sun Cluster コマンドを使用しないでください。
Oracle Real Application Clusters Guard がインストールするリソースの状態の操作。Sun Cluster コマンドをこの目的で使用すると、障害が起きる可能性があります。
Oracle Real Application Clusters Guard がインストールするリソースの状態のクエリ。出力される状態は実際の状態を示さない可能性があります。Oracle Real Application Clusters Guard の状態を確認するには、Oracle が提供するコマンドを使用してください。
Oracle Real Application Clusters データベースや Oracle ソフトウェアに使用するストレージ管理スキーマ用のソフトウェアをインストールします。
データベースのストレージ管理スキーマについては、「Oracle Real Application Clusters データベースのストレージ管理要件」を参照してください。
Oracle ソフトウェアのストレージ管理スキーマについては、「Oracle バイナリファイルと Oracle 構成ファイルの場所」を参照してください。
Sun Cluster Support for Oracle Real Application Clusters で Solaris Volume Manager for Sun Cluster ソフトウェアを使用するには、以下のタスクを実行します。
Solaris のバージョンが Solaris 9 9/04 またはそれと同等のバージョンであるか確認します。
Solaris Volume Manager for Sun Cluster は、Solaris オペレーティングシステムのインストール時にインストールされます。
クラスタノードで Solaris Volume Manager for Sun Cluster ソフトウェアを構成します。
詳細は、『Sun Cluster ソフトウェアのインストール (Solaris OS 版)』の「Solstice DiskSuite/Solaris Volume Manager ソフトウェアのインストールと構成」を参照してください。
「Sun Cluster Support for Oracle Real Application Clusters パッケージのインストール」 に進んで、Sun Cluster Support for Oracle Real Application Clusters ソフトウェアパッケージをインストールします。
Sun Cluster Support for Oracle Real Application Clusters でVxVM ソフトウェアを使用するには、以下のタスクを実行します。
クラスタ機能を備えた VxVM を使用している場合は、VxVM の基本ライセンスの他に Volume Manager クラスタ機能のライセンスを取得します。
VxVM のライセンス要件については、 VxVM のマニュアルを参照してください
Volume Managerクラスタ機能のライセンスを正しくインストールすることに失敗すると、Oracle Real Application Clusters サポートをインストールするときにパニックが起きる可能性があります。Oracle Real Application Clusters パッケージをインストールする前に、vxlicense -pまたはvxlicrepコマンドを実行して、Volume Manager クラスタ機能の有効なライセンスがインストールされていることを確認してください。
VxVM ソフトウェアをクラスタノード上にインストールして設定します。
詳細については、『Sun Cluster ソフトウェアのインストール (Solaris OS 版)』の「VERITAS Volume Manager インストールと構成」および VxVM のマニュアルを参照してください。
「Sun Cluster Support for Oracle Real Application Clusters パッケージのインストール」 に進んで、Sun Cluster Support for Oracle Real Application Clusters ソフトウェアパッケージをインストールします。
ハードウェア RAID サポートを備えた Sun Cluster Support for Oracle Real Application Clusters を使用できます。
たとえば、ハードウェア RAID サポートを備えた Sun StorEdgeTM A3500/A3500FC ディスクアレイを VxVM ソフトウェアなしで使用できます。この組み合わせを使うには、ディスクアレイの論理ユニット番号 (LUN) の先頭に raw デバイス ID (/dev/did/rdsk*) を使用します。ハードウェア RAID を備えた Sun StorEdge A3500/A3500FC ディスクアレイを使用するクラスタ上に Oracle Real Application Clusters 用の raw デバイスを設定するには、次の手順が必要です。
ディスクアレイ上に LUN を作成します。
LUN の作成方法については、Sun Cluster のハードウェアマニュアルを参照してください。
LUN を作成したなら、format(1M) コマンドを実行して、ディスクアレイの LUN を必要な数のスライスにパーティション分割します。
次の例は、format コマンドの実行結果を示します。
# format 0. c0t2d0 <SUN18G cyl 7506 alt 2 hd 19 sec 248> /sbus@3,0/SUNW,fas@3,8800000/sd@2,0 1. c0t3d0 <SUN18G cyl 7506 alt 2 hd 19 sec 248> /sbus@3,0/SUNW,fas@3,8800000/sd@3,0 2. c1t5d0 <Symbios-StorEDGEA3000-0301 cyl 21541 alt 2 hd 64 sec 64> /pseudo/rdnexus@1/rdriver@5,0 3. c1t5d1 <Symbios-StorEDGEA3000-0301 cyl 21541 alt 2 hd 64 sec 64> /pseudo/rdnexus@1/rdriver@5,1 4. c2t5d0 <Symbios-StorEDGEA3000-0301 cyl 21541 alt 2 hd 64 sec 64> /pseudo/rdnexus@2/rdriver@5,0 5. c2t5d1 <Symbios-StorEDGEA3000-0301 cyl 21541 alt 2 hd 64 sec 64> /pseudo/rdnexus@2/rdriver@5,1 6. c3t4d2 <Symbios-StorEDGEA3000-0301 cyl 21541 alt 2 hd 64 sec 64> /pseudo/rdnexus@3/rdriver@4,2 |
ディスクパーティション情報が失われるのを防ぐために、raw ディスクに使用するディスクスライスのシリンダ 0 でパーティションを開始しないでください。ディスクのシリンダ 0 にはディスクパーティションテーブルが格納されます。
scdidadm(1M) コマンドを実行して、 手順 1 で作成した LUN に対応する raw デバイス ID (DID) を見つけます。
次の例は、 scdidadm -L コマンドの出力の例を示しています。
# scdidadm -L 1 phys-schost-1:/dev/rdsk/c0t2d0 /dev/did/rdsk/d1 1 phys-schost-2:/dev/rdsk/c0t2d0 /dev/did/rdsk/d1 2 phys-schost-1:/dev/rdsk/c0t3d0 /dev/did/rdsk/d2 2 phys-schost-2:/dev/rdsk/c0t3d0 /dev/did/rdsk/d2 3 phys-schost-2:/dev/rdsk/c4t4d0 /dev/did/rdsk/d3 3 phys-schost-1:/dev/rdsk/c1t5d0 /dev/did/rdsk/d3 4 phys-schost-2:/dev/rdsk/c3t5d0 /dev/did/rdsk/d4 4 phys-schost-1:/dev/rdsk/c2t5d0 /dev/did/rdsk/d4 5 phys-schost-2:/dev/rdsk/c4t4d1 /dev/did/rdsk/d5 5 phys-schost-1:/dev/rdsk/c1t5d1 /dev/did/rdsk/d5 6 phys-schost-2:/dev/rdsk/c3t5d1 /dev/did/rdsk/d6 6 phys-schost-1:/dev/rdsk/c2t5d1 /dev/did/rdsk/d6 |
scdidadm(1M) の出力が示す DID を使用して、raw デバイスを設定します。
たとえば、scdidadm の出力によって、ディスクアレイの LUN に対応する raw DID が d4 であることがわかったとします。この場合には、/dev/did/rdsk/d4sNraw デバイスを使用します。ここで、N はスライス番号です。
「Sun Cluster Support for Oracle Real Application Clusters パッケージのインストール」 に進んで、Sun Cluster Support for Oracle Real Application Clusters ソフトウェアパッケージをインストールします。
RAID サポートを備えた Sun StorEdge QFS 共有ファイルシステムを使用する必要があります。
Sun StorEdge QFS 共有ファイルシステムのインストール、構成、使用については、『Sun StorEdge QFS and Sun StorEdge SAM-FS Software Installation and Configuration Guide』と『Sun StorEdge QFS and Sun StorEdge SAM-FS File System Administration Guide』を参照してください。
Sun StorEdge QFS ソフトウェアがインストールされているか確認します。
個々の Sun StorEdge QFS 共有ファイルシステムが、Sun Cluster Support for Oracle Real Application Clusters で使用できるように正しく構成されているか確認します。
個々の Sun StorEdge QFS 共有ファイルシステムが、Sun Cluster Support for Oracle Real Application Clusters で使用できるように正しいオプションでマウントされているか確認します。
バイナリファイルや構成ファイル、警告ファイル、トレースファイルが含まれているファイルシステムには、デフォルトのマウントオプションを使用します。
データファイルや制御ファイル、オンライン再実行ログファイル、保存された再実行ログファイルが含まれているファイルシステムには、次のマウントオプションを使用します。
/etc/opt/SUNWsamfs/samfs.cmd ファイルまたは /etc/vfstab ファイルに次のオプションを設定します。
stripe=width sync_meta=1 mh_write qwrite forcedirectio nstreams=1024 rdlease=300Set this value for optimum performance. wrlease=300Set this value for optimum performance. aplease=300Set this value for optimum performance.
/etc/vfstab ファイル内の設定と /etc/opt/SUNWsamfs/samfs.cmd ファイル内の設定に矛盾がないか確認してください。矛盾がある場合は、/etc/vfstab ファイルの設定が /etc/opt/SUNWsamfs/samfs.cmd ファイルの設定より優先します。
次の手順は、Oracle バイナリファイルや Oracle 構成ファイルに Sun StorEdge QFS ファイルシステムを使用するかどうかによって異なります。
Oracle バイナリファイルや Oracle 構成ファイルに Sun StorEdge QFS ファイルシステムを使用する場合は、「共有ファイルシステム用にノード固有のファイルとディレクトリを作成する」に進みます。
使用しない場合は、「Sun Cluster Support for Oracle Real Application Clusters パッケージのインストール」に進みます。
クラスタファイルシステムを作成して、マウントします。
クラスタファイルシステムの作成とマウント方法については、『Sun Cluster ソフトウェアのインストール (Solaris OS 版)』の「クラスタの構成」を参照してください。
UNIX ファイルシステム (UFS) を使用する場合は、各種の Oracle ファイルに対して正しいオプションが指定されているか確認します。
次の表に、正しいオプションを示します。これらのオプションは、そのマウントポイントの /etc/vfstab ファイルにエントリを追加するときに設定します。
ファイルタイプ |
オプション |
---|---|
global、logging、 forcedirectio |
|
global、logging |
「共有ファイルシステム用にノード固有のファイルとディレクトリを作成する」 に進んで、Sun Cluster Support for Oracle Real Application Clusters ソフトウェアが必要とするノード固有のファイルとディレクトリを作成します。
Oracle システムの保守を簡単にするために、Oracle バイナリファイルと Oracle 構成ファイルを共有ファイルシステムにインストールできます。次の共有ファイルシステムがサポートされています。
Sun StorEdge QFS 共有ファイルシステム
クラスタファイルシステム
Oracle ソフトウェアが共有ファイルシステムにインストールされている場合、ORACLE_HOME
環境変数で指定されているディレクトリ内のすべてのファイルは、すべてのクラスタノードからアクセスできます。ただし、一部の Oracle ファイルやディレクトリでは、ノード固有の情報を維持する必要があります。
Oracle ソフトウェアを共有ファイルシステムにインストールする場合は、ファイルやディレクトリのローカルコピーを作成し、そこにノード固有の情報を保持する必要があります。これらのファイルやディレクトリにすべてのクラスタノードからアクセスできるようにするためにシンボリックリンクを使用します。シンボリックリンクのターゲットは、ノード内のファイルシステム上にあるファイルやディレクトリです。このようなファイルシステムは、共有ファイルシステムの一部ではありません。
シンボリックリンクをこのような目的で使用する場合、ローカルファイルシステム上に領域を割り当てる必要があります。Oracle アプリケーションが、この領域内のファイルに対してシンボリックリンクを作成するためには、アプリケーションがこの領域内のファイルにアクセスできる必要があります。シンボリックリンクは共有ファイルシステム上に存在するため、リンクへのすべての参照は、すべてのノードで同じになります。したがって、すべてのノードが、ローカルファイルシステム上のその領域用に同じネーム空間を持つ必要があります。
次の手順は、ノード固有の情報を保持する各ディレクトリに対して実行します。以下に、ノード固有の情報の保持に必要となる典型的なディレクトリを示します。
ノード固有の情報を保持するために必要となるほかのディレクトリについては、Oracle のマニュアルを参照してください。
各クラスタノードで、ノード固有の情報を保持するためのローカルディレクトリを作成します。
作成するローカルディレクトリ構造は、ノード固有の情報を含むグローバルディレクトリ構造と一致するようにしてください。たとえば、グローバルディレクトリの/global/oracle/network/agent には、/local ディレクトリ下にローカルに格納する必要のあるノード固有の情報が含まれていることがあります。このような場合、/local/oracle/network/agent という名前のディレクトリを作成します。
# mkdir -p local-dir |
存在しない親ディレクトリをすべて最初に作成することを指定します。
作成するディレクトリのフルパス名を指定します。
各クラスタノードで、ノード固有の情報を保持するグローバルディレクトリのローカルコピーを作成します。
ノード固有の情報のローカルコピーは、手順 1で作成したローカルディレクトリに含まれるようにしてください。
# cp -pr global-dir local-dir-parent |
所有者、グループ、許可モード、修正時刻、アクセス時刻、およびアクセス制御リストが保護されることを指定します。
ディレクトリとそのすべてのファイル (サブディレクトリとそのファイルを含む) がコピーされることを指定します。
コピーするグローバルディレクトリのフルパスを指定します。このディレクトリは、ORACLE_HOME
環境変数で指定されるディレクトリ下で、共有ファイルシステム上に存在します。
ローカルコピーを含む、ローカルノード上のディレクトリを指定します。このディレクトリは、手順 1で作成したディレクトリの親ディレクトリです。
手順 2でコピーしたグローバルディレクトリを、グローバルディレクトリのローカルコピーへのシンボリックリックで置き換えます。
この例では、ノード固有ディレクトリを 2 ノードクラスタで作成するための操作手順を示しています。このクラスタは、以下のように構成されています。
ORACLE_HOME
環境変数は、/global/oracle ディレクトリを指定している
各ノードのローカルファイルシステムは、 /local ディレクトリ下にある
各クラスタノードで、以下の手順を実行します。
次のコマンドを実行して、必要なディレクトリをローカルファイルシステムに作成します。
# mkdir -p /local/oracle/network/agent |
# mkdir -p /local/oracle/network/log |
# mkdir -p /local/oracle/network/trace |
# mkdir -p /local/oracle/srvm/log |
# mkdir -p /local/oracle/apache |
次のコマンドを実行して、ノード固有の情報を保持するグローバルディレクトリのローカルコピーを作成します。
# cp -pr $ORACLE_HOME/network/agent /local/oracle/network/. |
# cp -pr $ORACLE_HOME/network/log /local/oracle/network/. |
# cp -pr $ORACLE_HOME/network/trace /local/oracle/network/. |
# cp -pr $ORACLE_HOME/srvm/log /local/oracle/srvm/. |
# cp -pr $ORACLE_HOME/apache /local/oracle/. |
以下の手順は、1 つのノードでのみ実行します。
次のコマンドを実行して、グローバルディレクトリを削除します。
# rm -r $ORACLE_HOME/network/agent |
# rm -r $ORACLE_HOME/network/log |
# rm -r $ORACLE_HOME/network/trace |
# rm -r $ORACLE_HOME/srvm/log |
# rm -r $ORACLE_HOME/apache |
次のコマンドを実行して、ローカルディレクトリから、対応するグローバルディレクトリへのシンボリックリックを作成します。
# ln -s /local/oracle/network/agent $ORACLE_HOME/network/agent |
# ln -s /local/oracle/network/log $ORACLE_HOME/network/log |
# ln -s /local/oracle/network/trace $ORACLE_HOME/network/trace |
# ln -s /local/oracle/srvm/log $ORACLE_HOME/srvm/log |
# ln -s /local/oracle/apache $ORACLE_HOME/apache |
次の手順は、ノード固有の情報を保持する各ファイルに対して実行します。以下に、ノード固有の情報の保持に必要となる典型的なファイルを示します。
ノード固有の情報を保持するために必要となるほかのファイルについては、Oracle のマニュアルを参照してください。
各クラスタノードで、ノード固有の情報を保持するファイルを含むローカルディレクトリを作成します。
# mkdir -p local-dir |
存在しない親ディレクトリをすべて最初に作成することを指定します。
作成するディレクトリのフルパス名を指定します。
各クラスタノードで、ノード固有の情報を保持するグローバルファイルのローカルコピーを作成します。
# cp -p global-file local-dir |
所有者、グループ、許可モード、修正時刻、アクセス時刻、およびアクセス制御リストが保護されることを指定します。
コピーするファイル名とグローバルファイルのフルパスを指定します。このファイルは、ORACLE_HOME
環境変数で指定されるディレクトリ下で、共有ファイルシステム上にインストールされています。
ファイルのローカルコピーを含むディレクトリを指定します。このディレクトリは、手順 1で作成したディレクトリになります。
手順 2でコピーしたグローバルファイルを、そのファイルのローカルコピーへのシンボリックリンクで置き換えます。
この例では、ノード固有ファイルを 2 ノードクラスタで作成するための操作手順を示しています。このクラスタは、以下のように構成されています。
ORACLE_HOME
環境変数は、/global/oracle ディレクトリを指定している
各ノードのローカルファイルシステムは、 /local ディレクトリ下にある
各クラスタノードで、以下の手順を実行します。
次のコマンドを実行して、ノード固有の情報を保持するファイルを含むローカルディレクトリを作成します。
# mkdir -p /local/oracle/network/admin |
次のコマンドを実行して、ノード固有の情報を保持するグローバルファイルのローカルコピーを作成します。
# cp -p $ORACLE_HOME/network/admin/snmp_ro.ora \ /local/oracle/network/admin/. |
# cp -p $ORACLE_HOME/network/admin/snmp_rw.ora \ /local/oracle/network/admin/. |
以下の手順は、1 つのノードでのみ実行します。
次のコマンドを実行して、グローバルファイルを削除します。
# rm $ORACLE_HOME/network/admin/snmp_ro.ora |
# rm $ORACLE_HOME/network/admin/snmp_rw.ora |
次のコマンドを実行して、ファイルのローカルコピーから、対応するグローバルファイルへのシンボリックリックを作成します。
# ln -s /local/oracle/network/admin/snmp_ro.ora \ $ORACLE_HOME/network/admin/snmp_rw.ora |
# ln -s /local/oracle/network/admin/snmp_rw.ora \ $ORACLE_HOME/network/admin/snmp_rw.ora |
「Sun Cluster Support for Oracle Real Application Clusters パッケージのインストール」 に進んで、Sun Cluster Support for Oracle Real Application Clusters ソフトウェアパッケージをインストールします。
Sun Cluster の初回のインストール時に Sun Cluster Support for Oracle Real Application Clusters パッケージをインストールしなかった場合は、この手順でパッケージをインストールしてください。Sun Cluster Support for Oracle Real Application Clusters を実行できるすべてのクラスタノードで、この手順を実行してください。この手順の実行には、Sun Java Enterprise System Accessory CD Volume 3 が必要です。
Sun Cluster Support for Oracle Real Application Clusters パッケージには次のものがあります。
RAC フレームワークリソースグループ用のパッケージ
Oracle RAC サーバーリソースと Oracle RAC リスナーリソース用のパッケージ
pkgadd ユーティリティを使用して、Sun Cluster Support for Oracle Real Application Clusters パッケージをインストールします。
インストール前に準備作業を行う必要があるため、scinstall(1M) ユーティリティーは、RAC フレームワークリソースグループ用パッケージの自動インストールをサポートしていません。
CD-ROM ドライブに Sun Java Enterprise System Accessory CD Volume 3 を挿入します。
スーパーユーザーになります。
現在の作業ディレクトリを、RAC フレームワークリソースグループ用のパッケージを含むディレクトリに移動します。
このディレクトリは、Solaris オペレーティングシステムのバージョンによって異なります。
Solaris 8 を使用している場合は、次のコマンドを実行します。
# cd /cdrom/cdrom0/components/SunCluster_Oracle_RAC/Solaris_8/Packages |
Solaris 9 を使用している場合は、次のコマンドを実行します。
# cd /cdrom/cdrom0/components/SunCluster_Oracle_RAC/Solaris_9/Packages |
Sun Cluster Support for Oracle Real Application Clusters を実行できる各クラスタノードで、必要なソフトウェアパッケージの内容を CD-ROM からノードに移します。
必要なソフトウェアパッケージは、Oracle Real Application Clusters データベース用にどのストレージ管理スキームを使用するかによって異なります。
Solaris Volume Manager for Sun Cluster を使用している場合は、次のコマンドを実行します。
# pkgadd -d . SUNWscucm SUNWudlm SUNWudlmr SUNWscmd |
クラスタ機能を備えた VxVM を使用している場合は、次のコマンドを実行します。
# pkgadd -d . SUNWscucm SUNWudlm SUNWudlmr SUNWcvmr SUNWcvm |
ハードウェア RAID サポートを使用している場合は、次のコマンドを実行します。
# pkgadd -d . SUNWscucm SUNWudlm SUNWudlmr SUNWschwr |
ハードウェア RAID サポートを備えた Sun StorEdge QFS 共有ファイルシステムを使用している場合は、次のコマンドを実行します。
# pkgadd -d . SUNWscucm SUNWudlm SUNWudlmr SUNWschwr |
現在の作業ディレクトリを、Oracle RAC サーバーリソースと Oracle RAC リスナーリソース用のパッケージが含まれているディレクトリに移動します。
このディレクトリは、Solaris オペレーティングシステムのバージョンによって異なります。
Solaris 8 を使用している場合は、次のコマンドを実行します。
# cd /cdrom/cdrom0/components/SunCluster_HA_Oracle_3.1/Solaris_8/Packages |
Solaris 9 を使用している場合は、次のコマンドを実行します。
# cd /cdrom/cdrom0/components/SunCluster_HA_Oracle_3.1/Solaris_9/Packages |
Sun Cluster Support for Oracle Real Application Clusters を実行できる各クラスタノードで、必要なソフトウェアパッケージの内容を CD-ROM からノードに移します。
必要なソフトウェアパッケージは必要なロケールが何かによって異なります。
「Sun Cluster ノードの準備」に進み、Sun Cluster ノードの準備を行ないます。
Sun Cluster ノードを準備すると、オペレーティングシステムの構成が変更され、Oracle Real Application Clusters が Sun Cluster ノードで実行可能になります。Sun Cluster ノードやディスクの準備には、次の作業が必要です。
NIS ネームサービスをバイパスする。
データベース管理者グループと Oracle ユーザーアカウントを作成する。
Sun Cluster Support for Oracle Real Application Clusters が動作する可能性があるすべてのノードでこれらの作業を行なってください。これらの作業をすべてのノードで実行しないと、Oracle のインストールは不完全になります。Oracle のインストールが不完全だった場合、起動時に Sun Cluster Support for Oracle Real Application Clusters でエラーが発生します。
NIS ネームサービスをバイパスすると、Sun Cluster Support for Oracle Real Application Clusters データサービスが、クラスタノードのパブリックネットワークの障害から保護されます。クラスタノードのパブリックネットワークに障害が発生すると、NIS ネームサービスが使用不能になる場合があります。Sun Cluster Support for Oracle Real Application Clusters が NIS ネームサービスを参照したときに、ネームサービスが使用不能だと、Sun Cluster Support for Oracle Real Application Clusters データサービスは失敗する場合があります。
NIS ネームサービスをバイパスすると、Sun Cluster Support for Oracle Real Application Clusters データサービスは、ユーザー識別子 (ID) を設定するときに NIS ネームサービスを参照しません。Sun Cluster Support for Oracle Real Application Clusters データサービスは、データベースを起動または停止するときにこのユーザー ID を設定します。
Sun Cluster Support for Oracle Real Application Clusters が動作する可能性のあるすべてのノードでスーパーユーザーになります。
それぞれのノードで、次のエントリを /etc/nsswitch.conf ファイルに追加します。
passwd: files nis [TRYAGAIN=0] publickey: files nis [TRYAGAIN=0] project: files nis [TRYAGAIN=0] group: files |
/etc/nsswitch.conf ファイルの詳細は、nsswitch.conf(4) のマニュアルページを参照してください。
「データベース管理者グループと Oracle ユーザーアカウントを作成する」に進みます。
次の手順は、各クラスタノードでスーパーユーザーで実行してください。
各ノード上で、/etc/group ファイルにデータベース管理者グループ用のエントリを作成し、このグループに潜在的なユーザーを追加します。
通常、このグループの名前は、dba です。 root および oracle が dba グループのメンバーであることを確認し、必要に応じて他のデータベース管理者 (DBA) ユーザーのエントリを追加します。グループ ID が Sun Cluster Support for Oracle Real Application Clusters を実行するすべてのノードで同じであるかを確認します。たとえば、次のエントリを /etc/group ファイルに追加します。
dba:*:520:root,oracle |
Network Information Service (NIS) や NIS+ などのネットワークネームサービスにネームサービスエントリを作成すれば、データサービスクライアントからこの情報を使用できるようになります。また、ローカルの /etc ファイルにエントリを作成し、ネットワークネームサービスに依存しないようにできます。
各ノード上で、/etc/passwd ファイルに Oracle ユーザー ID 用のエントリ (グループおよびパスワード) を作成し、pwconv( 1M) コマンドを実行して、 /etc/shadow ファイルにエントリを作成します。
通常、Oracle ユーザー ID は、oracle です。たとえば、次のエントリを /etc/passwd ファイルに追加します。
# useradd -u 120 -g dba -d /oracle-home oracle |
ユーザー ID が Sun Cluster Support for Oracle Real Application Clusters を実行するすべてのノードで同じであるかを確認します。
Oracle Real Application Clusters 用のクラスタ環境を設定したあと、「Oracle UDLM をインストールする」へ移動して各クラスタノードに Oracle UDLM ソフトウェアをインストールします。
Oracle UDLM ソフトウェアが正常に動作するためには、これらのクラスタノードのすべてに、十分な共有メモリがなければなりません。Oracle UDLM のインストールに関する詳細は、Oracle Real Application Clusters CD-ROM を参照してください。
Oracle UDLM をインストールする前に、データベース管理者グループと Oracle ユーザー ID のエントリが作成済みであるか確認してください。詳細は、「データベース管理者グループと Oracle ユーザーアカウントを作成する」 を参照してください。
Oracle UDLM ソフトウェアは、各ノードのローカルディスクにインストールする必要があります。
クラスタノード上にインストールするクラスタノード上でスーパーユーザーになります。
Oracle UDLM ソフトウェアをインストールします。
インストール手順については、Oracle Real Application Clusters のインストールマニュアルを参照してください。
Oracle UDLM パッケージをインストールした時にエラーメッセージが発生していないかを確認してください。パッケージのインストールでエラーが発生した場合は、Oracle UDLM ソフトウェアをインストールする前に問題を解決してください。
/etc/system ファイルを共有メモリ構成情報で更新します。
これらのパラメータは、クラスタで利用可能なリソースにもとづいて構成する必要があります。適切な値を決定してください。ただし、Oracle UDLM がその構成要件に従って、共有メモリセグメントを作成できることを確認してください。
次に、/etc/system ファイルで構成するエントリの例を示します。
*SHARED MEMORY/ORACLE set shmsys:shminfo_shmmax=268435456 set semsys:seminfo_semmap=1024 set semsys:seminfo_semmni=2048 set semsys:seminfo_semmns=2048 set semsys:seminfo_semmsl=2048 set semsys:seminfo_semmnu=2048 set semsys:seminfo_semume=200 set shmsys:shminfo_shmmin=200 set shmsys:shminfo_shmmni=200 set shmsys:shminfo_shmseg=200 |
Oracle UDLM ソフトウェアがインストールされている各ノードをシャットダウンして、リブートします。
リブートする前に、Oracle UDLM ソフトウェアを正しくインストールして設定してあることを確認してください。さらに、ボリュームマネージャパッケージのインストールも正しく行われているか確認してください。VxVM を使用する場合は、ソフトウェアが正しくインストールされていること、また、VxVM クラスタ機能用のライセンスが有効であることを確認してください。正しく構成されていないと、ノードでパニックが発生します。
詳しい手順については、『Sun Cluster のシステム管理 (Solaris OS 版)』の「単一クラスタノードの停止と起動」を参照してください。
Oracle UDLM ソフトウェアを各クラスタノードにインストールしたあとの手順は、下の表のように、使用するストレージ管理スキーマによって異なります。
ストレージ管理スキーマ |
次の手順 |
---|---|
Solaris Volume Manager for Sun Cluster | |
クラスタ機能を備えた VxVM |
「Oracle Real Application Clusters データベース用の VxVM 共有ディスクグループの作成」 |
その他 |
この作業を行なうのは Solaris Volume Manager for Sun Cluster を使用する場合だけです。
Solaris Volume Manager for Sun Cluster を使用する場合は、Solaris Volume Manager によって、Oracle Real Application Clusters データベース用のマルチオーナーディスクセットが必要になります。Solaris Volume Manager for Sun Cluster のマルチオーナーディスクセットについては、『Solaris ボリュームマネージャの管理』の Solaris Volume Manager for Sun Cluster のディスクセットの概念に関する節を参照してください。
Oracle Real Application Clusters データベース用の Solaris Volume Manager for Sun Cluster にマルチオーナーディスクセットを作成する前に次の点に注意してください。
Sun Cluster Support for Oracle Real Application Clusters ソフトウェアパッケージが各ノードにインストールされているか確認します。詳細は、「Sun Cluster Support for Oracle Real Application Clusters パッケージのインストール」を参照してください。
マルチオーナーディスクセットにはファイルシステムを作成しないでください。このディスクセットを使用するのは raw データファイルだけです。
マルチオーナーディスクセットに追加するディスクデバイスは、すべてのクラスタノードに直接接続されていなければなりません。
マルチオーナーディスクセットを作成します。
これには metaset(1M) コマンドを使用します。
# metaset -s setname -M -a -h nodelist |
作成するディスクセットの名前を指定します。
作成するディスクセットがマルチオーナーディスクセットであることを意味します。
-h オプションで指定するノードをディスクセットに追加することを意味します。
ディスクセットに追加するノードをスペースで区切って指定します。Sun Cluster Support for Oracle Real Application Clusters ソフトウェアパッケージは、このリストの各ノードにインストールする必要があります。
手順 1 で作成したディスクセットに広域デバイスを追加します。
# metaset -s setname -a devicelist |
手順 1 で作成したディスクセットを変更します。
devicelist で指定するデバイスをディスクセットに追加することを意味します。
ディスクセットに追加する広域デバイスの完全なデバイス ID パス名をスペースで区切って指定します。各デバイスにクライアントのどのノードからでもアクセスできるためには、デバイス ID パス名の形式が /dev/did/dsk/d N になっていなければなりません。N はデバイス番号です。
手順 1 で作成したディスクセットに対して、Oracle Real Application Clusters データベースで使用するボリュームを作成します。
Oracle データファイル用のボリュームを多数作成する場合は、ソフトパーティションを使うとこのステップが簡単になります。詳細は、『Solaris ボリュームマネージャの管理』の「ソフトパーティション (概要)」と『Solaris ボリュームマネージャの管理』の「ソフトパーティション (作業)」を参照してください。
手順 2 で追加した広域デバイス上のスライスを連結してそれぞれのボリュームを作成します。これには metainit(1M) コマンドを使用します。
# metainit -s setname volume-abbrev numstripes width slicelist |
各ノードがマルチオーナーディスクセットに正しく追加されているか確認します。
これには metastat(1M) コマンドを使用します。
# metastat -s setname |
手順 1 で作成したディスクセットの構成を確認します。
このコマンドを実行すると、ディスクセットに正しく追加されているノードごとに、次の情報を示す表が表示されます。
Host 列にはノード名が表示されます。
Owner 列には、multi-owner という文字が表示されます。
Member 列には、Yes という文字が表示されます。
マルチオーナーディスクセットが正しく構成されているか確認します。
# scconf -pvv | grep setname |
手順 1 で作成したディスクセットの構成情報だけを表示します。
このコマンドを実行すると、ディスクセットのデバイスグループ情報が表示されます。マルチオーナーディスクセットの場合、デバイスグループタイプは Multi-owner_SVM です。
マルチオーナーディスクセットのオンライン状態を確認します。
# scstat -D |
このコマンドを実行すると、オンラインになっている、マルチオーナーディスクセット内のノードの名前が表示されます。
そのディスクセットを所有する可能性のある個々のノードで、手順 3 で作成した各ボリュームの所有権を次のように変更します。
所有者:oracle
グループ:dba
所有権を変更するのは、Oracle Real Application Clusters データベースが使用するボリュームだけにしてください。
# chown oracle:dba volume-list |
ディスクセットを所有する可能性のある各ノードで、手順 7 で所有権を変更したボリュームごとに、読み取りアクセス権と書き込みアクセス権を oracle ユーザーに付与します。
アクセス権を変更するのは、Oracle Real Application Clusters データベースが使用するボリュームだけにしてください。
# chmod u+rw volume-list |
oracle ユーザーに読み取りアクセス権と書き込みアクセス権を付与するボリュームの論理名をスペースで区切って指定します。このリストには、手順 7 で指定したボリュームを指定する必要があります。
この例では、Solaris Volume Manager for Sun Cluster にマルチオーナーディスクセットを作成します。この例では、すべてのボリュームが raw デバイス上にあることを想定します。
次のコマンドを実行して、マルチオーナーディスクセットを作成します。
# metaset -s racdbset -M -a -h rachost1 rachost2 rachost3 rachost4 |
マルチオーナーディスクセットに racdbset という名前を付けます。このディスクセットにノード rachost1、rachost2、rachost3、rachost4 を追加します。
次のコマンドを実行して、ディスクセットに広域デバイス /dev/did/dsk/d0 を追加します。
# metaset -s racdbset -a /dev/did/dsk/d0 |
次のコマンドを実行して、ディスクセットに対してボリュームを作成します。
# metainit -s racdbset d0 1 1 /dev/did/dsk/d0s0 |
ボリュームには d0 という名前を付けます。このボリュームは、スライス /dev/did/dsk/d0s0 を 1 対 1 で連結したものです。スライスはストライプ化されません。
次のコマンドを実行して、各ノードがマルチオーナーディスクセットに正しく追加されているか確認します。
# metastat -s racdbset Multi-owner Set name = racdbset, Set number = 1, Master = rachost2 Host Owner Member rachost1 multi-owner Yes rachost2 multi-owner Yes rachost3 multi-owner Yes rachost4 multi-owner Yes Drive Dbase d6 Yes d10 Yes |
次のコマンドを実行して、マルチオーナーディスクセットが正しく構成されているか確認します。
# scconf -pvv | grep racdbset Device group name: racdbset (racdbset) Device group type: Multi-owner_SVM (racdbset) Device group failback enabled: no (racdbset) Device group node list: rachost1, rachost2, rachost3, rachost4 (racdbset) Device group ordered node list: no (racdbset) Device group desired number of secondaries: 0 (racdbset) Device group diskset name: racdbset |
次のコマンドを実行して、マルチオーナーディスクセットのオンライン状態を確認します。
# scstat -D -- Device Group Servers -- Device Group Primary Secondary ------------ ------- --------- -- Device Group Status -- Device Group Status ------------ ------ -- Multi-owner Device Groups -- Device Group Online Status ------------ ------------- Multi-owner device group: racdbset rachost1,rachost2,rachost3,rachost4 |
次のコマンドを実行して、ディスクセット内のボリュームの所有権をグループ dba のオーナー oracle に変更します。
# chown oracle:dba /dev/md/racdbset/rdsk/d0 |
このコマンドは、ディスクセットを所有する可能性のあるすべてのノードで実行する必要があります。
次のコマンドを実行して、ディスクセット内のボリュームへの読み取りアクセス権を oracle ユーザーに付与します。
# chmod u+rw /dev/md/racdbset/rdsk/d0 |
このコマンドは、ディスクセットを所有する可能性のあるすべてのノードで実行する必要があります。
Oracle Real Application Clusters データベース用のマルチオーナーディスクセットを作成したら、「RAC フレームワークリソースグループの登録と構成」に進んで Sun Cluster Support for Oracle Real Application Clusters の登録と構成を行ないます。
この作業は、クラスタ機能を備えた VxVM を使用している場合にだけ実行してください。
クラスタ機能を備えた VxVM を使用している場合、VxVM には、Oracle Real Application Clusters データベースで使用するための共有ディスクグループが必要です。
Oracle Real Application Clusters データベース用の VxVM 共有ディスクグループを作成する前に、以下の点に注意してください。
Sun Cluster Support for Oracle Real Application Clusters ソフトウェアパッケージが各ノードにインストールされているか確認します。詳細は、「Sun Cluster Support for Oracle Real Application Clusters パッケージのインストール」を参照してください。
共有ディスクグループにはファイルシステムを作成しないでください。このディスクグループを使用するのは raw データファイルだけです。
共有ディスクグループに追加するディスクは、すべてのクラスタノードに直接接続する必要があります。
VxVM ライセンスが現在有効な状態であるかを確認します。ライセンスの期限が切れている場合は、ノードにパニックが起こります。
Oracle Real Application Clusters データベース用の共有ディスクグループを作成したら、「RAC フレームワークリソースグループの登録と構成」に進んで Sun Cluster Support for Oracle Real Application Clusters を登録し、設定してください。