この章では、Oracle Universal Installerを起動する前に完了する必要がある、記憶域の構成作業について説明します。この章で説明する作業は、次のとおりです。
この項では、Oracle Clusterwareファイルの格納用にサポートされているオプションについて説明します。この項の内容は次のとおりです。
記憶域オプションを選択する際には、次の概要を参考にしてください。
|
参照: ネットワーク接続ストレージ・オプションでサポートされているベンダーのリストについては、OracleMetalinkの「Certify」ページを参照してください。
動作保証されている記憶域オプションの最新情報についても、OracleMetalinkの「Certify」ページを参照してください。
|
Oracle Clusterwareファイルの格納には、次の2つの方法があります。
サポートされている共有ファイル・システム: サポートされているファイル・システムは次のとおりです。
RAWパーティション: RAWパーティションは、論理ボリューム・マネージャ(LVM)または非LVMファイル・システムを介してアクセスされるRAWディスクです。
すべてのインストールに対して、Oracle ClusterwareファイルおよびOracle Databaseファイルで使用する記憶域オプションを選択する必要があります。また、インストール中に自動バックアップを有効にする場合は、リカバリ・ファイル(フラッシュ・リカバリ領域)で使用する記憶域オプションを選択する必要があります。各ファイル・タイプに同一の記憶域を使用する必要はありません。
Oracle Clusterwareファイルには、クラスタ・ノードのステータスの監視に使用される投票ディスクと、クラスタに関する構成情報を含むOracle Cluster Registry(OCR)が含まれます。投票ディスクとOCRは、クラスタ・ファイル・システム環境の共有ファイルです。クラスタ・ファイル・システムを使用していない場合は、これらのファイルを共有RAWデバイスに格納する必要があります。OCRは、Oracle Universal Installer(OUI)によって、Oracle Clusterwareのインストール時に自動的に初期化されます。
投票ディスク・ファイルを配置する際は、各投票ディスクがハードウェア・デバイスやディスク、または他のシングル・ポイント障害を共有しないように構成されていることを確認します。構成されている投票ディスクの絶対多数(半分以上)は使用可能であり、常にOracle Clusterwareの動作に応答する必要があります。
フェイルオーバー用にOracle Clusterwareを使用するシングル・インスタンスのOracle Databaseインストールでは、フェイルオーバー・プロセスにディスクのディスマウントおよび再マウントを含めない場合、GPFSまたは共有RAWディスクを使用する必要があります。
次の表に、Oracle Clusterwareファイルを格納するために使用できる記憶域オプションを示します。Oracle Clusterwareファイルには、Oracle Cluster Registry(OCR)、ミラー化されたOCRファイル(オプション)、Oracle Clusterwareの投票ディスクおよび追加の投票ディスク・ファイル(オプション)が含まれています。
|
注意: Oracle Clusterware環境でサポートされる記憶域オプションの最新情報は、次のOracle MetaLink Webサイトの「Certify」ページを参照してください。
|
表4-1 Oracle Clusterwareファイルでサポートされている記憶域オプション
次のガイドラインに従って、各ファイル・タイプで使用する記憶域オプションを選択します。
選択した記憶域オプションの要件がすべて満たされている場合、各ファイル・タイプでサポートされている記憶域オプションのいずれの組合せでも使用できます。
Oracle Clusterwareファイルは、ASMインスタンスを起動する前にアクセス可能である必要があるため、ASMに格納することはできません。
外部ファイルの冗長性が適用される記憶域オプションがない場合は、3つ以上の投票ディスク領域を構成して、投票ディスクの冗長性を確保する必要があります。
Oracle9i リリース9.2のOracle RAC環境をOracle Database 11g リリース1(11.1)にアップグレードする際、Oracle Clusterwareのインストール時に、1つ以上の投票ディスクを指定するよう求められます。Oracle Database 11g リリース1(11.1)の投票ディスクの位置を新しく指定する必要があります。この目的で、古いOracle9i リリース9.2の定数ディスクを再利用することはできません。
ディスクの記憶域オプションを決定したら、次の作業をここに示す順序どおりに実行する必要があります。
1: CVUを使用した使用可能な共有記憶域の確認
「CVUを使用した使用可能な共有記憶域の検証」を参照してください。
2: Oracle Clusterwareファイル用の共有記憶域の構成
Oracle Clusterwareファイルにファイル・システム(ローカルまたはGPFS)を使用する場合: 「サポートされる共有ファイル・システムでのOracle Clusterwareファイル用の記憶域の構成」を参照してください。
Oracle ClusterwareファイルにRAWデバイス(パーティション)を使用する場合: 「RAWデバイスでのOracle Clusterwareファイル用の記憶域の構成」を参照してください。
3: Oracle Databaseファイルおよびリカバリ・ファイル用の記憶域の構成
データベース・ファイルまたはリカバリ・ファイル記憶域にファイル・システムを使用する場合: 「サポートされる共有ファイル・システムでのOracle Clusterwareファイル用の記憶域の構成」を参照してください。また、Oracle Clusterwareファイル用に作成するボリュームの他に、データベース・ファイルを格納するために十分なサイズのボリュームをさらに作成する必要があります。
クラスタ内のすべてのノードで使用可能なすべての共有ファイル・システム(GPFSが使用されている)を検証するには、次のコマンドを使用します。
/mountpoint/runcluvfy.sh comp ssa -n node_list
クラスタ内の特定のノードと特定の共有記憶域タイプの間の共有アクセス性を検証する場合は、次のコマンド構文を使用します。
/mountpoint/runcluvfy.sh comp ssa -n node_list -s storageID_list
前述の構文例で、mountpoint変数はインストール・メディアのマウント・ポイント・パス、node_list変数は検証するノードのカンマ区切りリスト、storageID_list変数は検証対象のファイル・システム・タイプによって管理されるストレージ・デバイスのストレージ・デバイスIDのリストです。
たとえば、マウント・ポイントが/dev/dvdrom/で、ストレージ・デバイス/dev/rhdisk8および/dev/rhdisk9のnode1およびnode2からの共有アクセス性を検証する場合は、次のコマンドを入力します。
/dev/dvdrom/runcluvfy.sh comp ssa -n node1,node2 -s /dev/rhdisk8,/dev/rhdisk9
コマンドに特定のストレージ・デバイスIDを指定しなかった場合は、リストのノードに接続されているすべての使用可能なストレージ・デバイスが検索されます。
Oracle Universal Installer(OUI)では、Oracle Cluster Registry(OCR)またはOracle Clusterware投票ディスク用のデフォルトの格納先は提供されません。ファイル・システムにこれらのファイルを作成する場合は、次の項を確認して、Oracle Clusterwareファイル用の記憶域要件を満たしておきます。
|
注意: Database Configuration Assistantは、OCRを使用して、作成するクラスタ・データベースの構成情報を格納します。OCRは、クラスタ・ファイル・システム環境内で共有されます。クラスタ・ファイル・システムを使用していない場合は、このファイルを共有RAWデバイスにする必要があります。OCRは、Oracle Universal Installer(OUI)によって、Oracle Clusterwareのインストール時に自動的に初期化されます。 |
Oracle Clusterwareファイルにファイル・システムを使用する場合、そのファイル・システムは次の要件を満たす必要があります。
AIXでクラスタ・ファイル・システムを使用するには、GPFSを使用する必要があります。
Oracle Cluster Registry(OCR)ファイルを共有ファイル・システムに配置するように選択する場合、次のいずれかに該当している必要があります。
共有ファイル・システムを使用してデータベース・ファイルを格納する場合は、2つ以上の独立したファイル・システムを使用します。一方のファイル・システムをデータベース・ファイル用に、もう一方のファイル・システムをリカバリ・ファイル用に使用します。
Oracle Clusterware所有者(-, oracle)には、指定したパスにファイルを作成するための書込み権限が必要です。
表4-2を使用して、共有ファイル・システムのパーティション・サイズを決定します。
表4-2 共有ファイル・システムのボリューム・サイズ要件
| 格納されるファイル・タイプ | ボリュームの数 | ボリュームのサイズ |
|---|---|---|
|
外部冗長で作成されたOracle Clusterwareファイル(OCRおよび投票ディスク) |
1 |
ボリュームごとに280MB以上 |
|
Oracleソフトウェア提供の冗長で作成されたOracle Clusterwareファイル(OCRおよび投票ディスク) |
1 |
ボリュームごとに280MB以上 |
|
Oracleソフトウェア提供の冗長で作成されたOracle Clusterwareの冗長ファイル(ミラー化されたOCRと2つの追加投票ディスク) |
1 |
OCRの場所ごとに280MB以上の空き領域(OCRがファイル・システムに構成されている場合) または OCRの場所ごとに使用可能な280MB(OCRがRAWデバイスに構成されている場合) および 3つ以上のディスクで、投票ディスクの場所ごとに280MB以上 |
表4-2で、必要なボリューム・サイズの合計を加算して求めます。たとえば、すべてのOracle Clusterwareファイルを標準冗長性を使用して共有ファイル・システムに格納するには、3つ以上のボリューム(OCRとOCRミラー用に2つの別々のボリューム位置と、ボリュームごとに1つの投票ディスク)で1.3GB以上の記憶域が使用可能である必要があります。
NFSを使用している場合は、NFSバッファ・サイズ・パラメータrsizeおよびwsizeの値を32768に設定する必要があります。NFSマウント・オプションは次のとおりです。
cio,rw,bg,hard,intr,rsize=32768,wsize=32768,tcp,noac,vers=3,timeo=600
各ノードの/etc/fstabファイルを次のエントリで更新します。
nfs_server:/vol/CWfiles /u01/oracle/cwfiles nfs \ cio,rw,bg,hard,intr,rsize=32768,wsize=32768,tcp,noac,vers=3,timeo=600
Oracleソフトウェアのバイナリ、Oracle Clusterwareファイル(OCRおよび投票ディスク)、データ・ファイルでマウント・ポイント・オプションが異なることに注意してください。
バイナリ専用のマウント・ポイントを作成する場合は、バイナリ・マウント・ポイントに次の行を入力します。
nfs_server:/vol/crshome /u01/oracle/crs nfs -yes
rw,bg,hard,nointr,rsize=32768,wsize=32768,proto=tcp,vers=3,timeo=600
|
参照: マウント・オプションの最新情報については、OracleMetaLinkのbulletin 359515.1「Mount Options for Oracle Files When Used with NAS Devices」を参照してください。次のURLから入手可能です。 |
|
注意: マウント・オプションの詳細は、ストレージ・ベンダーのマニュアルを参照してください。 |
次の手順に従って、Oracle Clusterwareファイル用のディレクトリを作成します。また、Oracle Databaseおよびリカバリ・ファイル用に共有ファイル・システムを構成することもできます。
|
注意: GPFS記憶域の場合、別々のファイル・システムにあるOracle ClusterwareファイルをOracleベース・ディレクトリに格納する場合にのみ、この手順を実行する必要があります。 |
Oracleベース・ディレクトリとは別のファイル・システムにOracle Clusterwareファイル用のディレクトリを作成するには、次の手順を実行します。
必要に応じて、各ノードで使用する共有ファイル・システムを構成し、マウントします。
|
注意: ファイル・システムに使用するマウント・ポイントは、すべてのノードで同一である必要があります。ノードの再起動時、自動的にマウントされるように、ファイル・システムが構成されていることを確認してください。 |
df -kコマンドを使用して、マウントされた各ファイル・システムの空きディスク領域を確認します。
表示された情報から、使用するファイル・システムを特定します。
| ファイル・タイプ | ファイル・システムの要件 |
|---|---|
| Oracle Clusterwareファイル | 560MB以上の空きディスク領域(外部冗長を使用、OCRと投票ディスクを1つずつ)があるファイル・システムを選択します。 |
複数のファイル・タイプに対して同じファイル・システムを使用している場合は、各タイプに対するディスク領域要件を追加して、ディスク領域要件の合計を判断します。
選択したファイル・システムに対するマウント・ポイント・ディレクトリの名前を書き留めます。
インストールを実行しているユーザーが、Oracle Clusterwareをインストールするディスクにディレクトリを作成する権限を所有している場合は、OUIによってOracle Clusterwareファイル・ディレクトリが作成されます。
インストールを実行しているユーザーが書込み権限を所有していない場合は、次のコマンドを使用してこれらのディレクトリを手動で作成する必要があります。次のコマンドでは、それぞれのマウント・ポイント・ディレクトリに推奨されるサブディレクトリが作成され、適切な所有者、グループおよびそのサブディレクトリの権限が設定されます。
Oracle Clusterwareファイル・ディレクトリ:
# mkdir /mount_point/oracrs # chown oracle:oinstall /mount_point/oracrs # chmod 750 /mount_point/oracrs
|
注意: インストール後、Oracle Cluster Registry(OCR)ファイルのインストール・パスにあるディレクトリはrootが所有し、root以外のアカウントでは書込みできないようにする必要があります。 |
それぞれのマウント・ポイント・ディレクトリにサブディレクトリを作成し、適切な所有者、グループおよび権限を設定すると、GPFSの構成は完了です。
次の項では、RWAパーティションでのOracle Clusterwareファイルの構成方法について説明します。
表4-3に、Oracle Clusterwareファイル用に構成する必要があるRAWパーティションの数およびサイズを示します。
|
注意: 各ファイルでは、1台のディスク・デバイス全体を排他的に使用する必要があるため、可能な場合は、格納されるファイルのサイズ要件に近いサイズのディスク・デバイスを使用することをお薦めします。これらのファイル用に使用するディスクは、他の目的では使用できません。 |
表4-3 AIXでOracle Clusterwareファイル用に必要なRAWパーティションの数
| 数 | パーティションごとのサイズ(MB) | 用途 |
|---|---|---|
|
2 (このファイルに対して外部冗長を適用している場合は1) |
256 |
注意: これらのRAWパーティションは、クラスタで1回のみ作成します。クラスタに複数のデータベースを作成する場合、すべてのデータベースが同じOracle Cluster Registryを共有します。 2つのパーティションを作成する必要があります。1つはOCR用で、もう1つはミラー化されるOCR用です。 Oracle9iリリース2(9.2)からアップグレードしている場合は、新しいRAWデバイスを作成するかわりにSRVM構成リポジトリに使用したRAWデバイスを継続して使用できます。 |
|
3 (このファイルに対して外部冗長を適用している場合は1) |
256 |
注意: これらのRAWパーティションは、クラスタで1回のみ作成します。クラスタに複数のデータベースを作成する場合、すべてのデータベースが同じOracle Clusterware投票ディスクを共有します。 3つのパーティションを作成する必要があります。1つは投票ディスク用で、他の2つは追加の投票ディスク用です。 |
HACMPまたはGPFSを使用しないAIXクラスタにOracle RACをインストールする場合は、Oracle Clusterwareファイルに共有RAWディスク・デバイスを使用する必要があります。また、データベース・ファイル記憶域に共有RAWディスク・デバイスを使用することもできます。ただし、この場合は自動ストレージ管理を使用して、データベース・ファイルを格納することをお薦めします。
この項では、Oracle Clusterwareファイル(Oracle Cluster RegistryとOracle Clusterware投票ディスク)に共有RAWディスク・デバイスを構成する方法について説明します。また、Oracle Databaseをインストールし、新しいディスク・デバイスを作成する必要がある場合に、Oracle ASMとOracle Databaseファイルに共有RAWデバイスを構成する方法についても説明します。
|
注意: 次の手順で、物理ボリュームID(PVID)を設定して、すべてのノードですべてのデバイスが同じ名前で表示されることを確認するように指示されます。構成の問題を回避するために、ご使用のシステムでPVIDを構成していない場合でも、この手順全体を完了することをお薦めします。 |
Oracle Clusterwareファイル用に共有RAWディスク・デバイスを構成するには、次の手順を実行します。
必要なディスク・デバイスを確認または構成します。
ディスク・デバイスは、すべてのクラスタ・ノードで共有されている必要があります。
任意のノードで、rootユーザーとして次のコマンドを入力し、使用するディスク・デバイスのデバイス名を確認します。
# /usr/sbin/lspv │ grep -i none
このコマンドによって、ボリューム・グループに構成されていないディスク・デバイスごとに、次のような情報が表示されます。
hdisk17 0009005fb9c23648 None
この例では、hdisk17はディスクのデバイス名、0009005fb9c23648は物理ボリュームID(PVID)です。
使用するディスク・デバイスにPVIDがない場合は、次のコマンドを入力してディスク・デバイスに割り当てます。
# chdev -l hdiskn -a pv=yes
|
注意: 既存のPVIDがある場合は、PVIDがchdevによって上書きされるため、このPVIDに依存するアプリケーションは失敗します。 |
他のそれぞれのノードで、次のコマンドを入力し、そのノードの各PVIDに関連付けられているデバイス名を確認します。
# /usr/sbin/lspv │ grep -i "0009005fb9c23648"
このコマンドの出力結果は、次のようになります。
hdisk18 0009005fb9c23648 None
この例では、ディスク・デバイスに関連付けられているデバイス名(hdisk18)は、前述のノードのものとは異なります。
デバイス名がすべてのノードで同じである場合は、すべてのノードで次のコマンドを入力し、ディスク・デバイスのキャラクタRAWデバイス・ファイルの所有者、グループおよび権限を変更します。
OCRデバイスの場合:
# chown root:oinstall /dev/rhdiskn # chmod 640 /dev/rhdiskn
その他のデバイスの場合:
# chown oracle:dba /dev/rhdiskn # chmod 660 /dev/rhdiskn
使用するディスクのPVIDに関連付けられているデバイス名がいずれかのノードで異なる場合は、使用されていない共通の名前を使用して、各ノードのディスクに対して新しいデバイス・ファイルを作成する必要があります。
新しいデバイス・ファイルでは、そのディスク・デバイスの目的を示すような代替デバイス・ファイル名を選択します。データベース・ファイルでは、代替デバイス・ファイル名のdbnameを、手順1でデータベース用に選択した名前と置き換えます。
|
注意: かわりに、いずれのノードでも使用されない数字を含む名前(hdisk99など)を選択することもできます。 |
すべてのノードで、ディスク・デバイスに新しい共通のデバイス・ファイルを作成するには、各ノードで次の手順を実行します。
次のコマンドを入力して、ディスク・デバイスを示すデバイスのメジャー番号とマイナー番号を確認します。nは、このノードのディスク・デバイスのディスク番号です。
# ls -alF /dev/*hdiskn
このコマンドの出力結果は、次のようになります。
brw------- 1 root system 24,8192 Dec 05 2001 /dev/hdiskn crw------- 1 root system 24,8192 Dec 05 2001 /dev/rhdiskn
この例では、デバイス・ファイル/dev/rhdisknはキャラクタRAWデバイスを示します。24はデバイスのメジャー番号、8192はデバイスのマイナー番号です。
次のコマンドを入力し、新しいデバイス・ファイル名、前述の手順で確認したデバイスのメジャーおよびマイナー番号を指定して、新しいデバイス・ファイルを作成します。
|
注意: 次の例では、キャラクタRAWデバイス・ファイルを作成するために、cフラグを指定する必要があります。 |
# mknod /dev/ora_ocr_raw_256m c 24 8192
次のコマンドを入力して、ディスクのキャラクタRAWデバイス・ファイルの所有者、グループおよび権限を変更します。
OCRの場合:
# chown root:oinstall /dev/ora_ocr_raw_256m # chmod 640 /dev/ora_ocr_raw_256m
Oracle Clusterware投票ディスクの場合:
# chown oracle:dba /dev/ora_vote_raw_256m # chmod 660 /dev/ora_vote_raw_256m
次のコマンドを入力して、新しいデバイス・ファイルが正常に作成されたことを検証します。
# ls -alF /dev │ grep "24,8192"
このコマンドの出力結果は、次のようになります。
brw------- 1 root system 24,8192 Dec 05 2001 /dev/hdiskn crw-r----- 1 root oinstall 24,8192 Dec 05 2001 /dev/ora_ocr_raw_256m crw------- 1 root system 24,8192 Dec 05 2001 /dev/rhdiskn
複数のノードからディスク・デバイスに同時アクセスできるようにするには、ディスクで使用する予約属性のタイプに応じて、適切なObject Data Manager(ODM)属性を設定する必要があります。次の項では、論理名hdiskを使用してこのタスクを実行する方法について説明します。論理デバイス名については、ご使用のオペレーティング・システムのマニュアルを参照してください。
ディスクで使用する予約設定を確認するには、次のコマンドを入力します。nはhdiskのデバイス番号です。
# lsattr -E -l hdiskn │ grep reserve_
このコマンドの結果として、reserve_lock設定またはreserve_policy設定が返されます。属性がreserve_lockの場合は、設定がreserve_lock = noであることを確認します。属性がreserve_policyの場合は、設定がreserve_policy = no_reserveであることを確認します。
必要に応じて、chdevコマンドで次の構文を使用して設定を変更します。nはhdiskのデバイス番号です。
chdev -l hdiskn -a [ reserve_lock=no │ reserve_policy=no_reserve ]
たとえば、デバイスhdisk4の設定をreserve_lock=yesからreserve_lock=noに変更するには、次のコマンドを入力します。
# chdev -l hdisk4 -a reserve_lock=no
すべてのディスク・デバイスで設定が適切であることを確認するには、次のコマンドを入力します。
# lsattr -El hdiskn │ grep reserve
任意のノードで次のコマンドを入力し、使用する各ディスク・デバイスからPVIDを消去します。
# /usr/sbin/chdev -l hdiskn -a pv=clear
Oracle Clusterwareをインストールする際に、OCRおよびOracle Clusterware投票ディスクのパスを求められたら、適切なデバイス・ファイルへのパスを入力する必要があります。次に例を示します。
/dev/rhdisk10
Oracle Clusterwareの投票ディスクごとに、1つのMulti-node Disk Heartbeat(MNDHB)ネットワークを定義する必要があります。MNDHBと投票ディスクの各ペアは、他のペアとは別の、単一のハード・ディスクに配置する必要があります。また、拡張コンカレント・ボリューム・グループにあるMNDHBネットワークの定数に対してアクセスが失われるとノードが停止されるようにMNDHBを構成する必要があります。
クラスタができるだけ分断されないように、複数のIPネットワークと1つ以上の非IPネットワークを使用してHACMPをデプロイすることをお薦めします。非IPネットワークは、RS232またはディスク・ハートビートを使用して実装できます。データベースの記憶域にOracle RACおよびHACMP拡張コンカレント・リソース(拡張されたコンカレント論理ボリューム)を使用するシステムの場合は、MNDHBネットワークを構成する必要があります。
Oracle Clusterwareをインストールする前に、HACMPをインストールおよび構成し、稼働させる必要があります。Oracle RAC構成では、Oracle RACネットワーク・インタフェース(パブリック、VIPまたはプライベート)上のIPフェイルオーバーにHACMPを使用しないでください。これらのネットワーク・インタフェースは、HACMP IPフェイルオーバーを使用する構成にはしないでください。Oracle RACのVIPフェイルオーバーは、Oracle Clusterwareによって管理されるためです。RACネットワーク・インタフェースは、個々のノードとRACインスタンスに割り当てられます。HACMPが、異なるインタフェースでIPアドレスを再構成したり、異なるノードでアドレスをフェイルオーバーすると、Oracle Clusterwareで問題が発生する場合があります。Oracle RACノード上のIPアドレスのフェイルオーバーにHACMPを使用できるのは、Oracle RACがこれらのアドレスを使用しない場合のみです。
次の作業を完了します。イタリック体の部分は、ご使用のシステムにあわせて適切な応答に読み換えてください。または、示された操作を実行し、必要に応じて適切な応答を入力してください。
HACMPを起動します。
次のコマンドを入力して、HACMPのclcomdESデーモンが実行中であることを確認します。
# lssrc -s clcomdES
デーモンが実行されていない場合は、次のコマンドを使用して起動します。
# startsrc –s clcomdES
ご使用のHACMPとAIXのバージョンが、第2章の「ソフトウェア要件の確認」に示されているシステム要件を満たしていることを確認します。
HACMPクラスタを作成し、Oracle Clusterwareノードを追加します。次に例を示します。
# smitty cm_add_change_show_an_hacmp_cluster.dialog
* Cluster Name [mycluster]
各Oracle Clusterwareノードに、HACMPクラスタ・ノードを作成します。次に例を示します。
# smitty cm_add_a_node_to_the_hacmp_cluster_dialog
* Node Name [mycluster_node1]
Communication Path to Node []
HACMPイーサネット・ハートビート・ネットワークを作成します。HACMP構成には、ネットワーク定義が必要です。ネットワークでIPアドレスが引き継がれるように「No」を選択します。これらのネットワークはOracle Clusterwareによって使用されるためです。
2つ以上のネットワーク定義を作成します。1つは、Oracleのパブリック・インタフェース用、もう1つはOracleのプライベート(クラスタ・インターコネクト)・ネットワーク用です。必要に応じて、さらにイーサネット・ハートビート・ネットワークを追加できます。
次に例を示します。
# smitty cm_add_a_network_to_the_hacmp_cluster_select - select ether network * Network Name [my_network_name] * Network Type ether * Netmask [my.network.netmask.here] * Enable IP Address Takeover via IP Aliases [No] IP Address Offset for Heart beating over IP Aliases []
前述の手順で追加したネットワークごとに、そのネットワークに関連付けられた各Oracle ClusterwareノードのすべてのIP名(各Oracle Clusterwareノードのパブリック、プライベートおよびVIP名)を定義します。次に例を示します。
# smitty cm_add_communication_interfaces_devices.select - select: Add Pre-defined Communication Interfaces and Devices / Communication Interfaces / desired network * IP Label/Address [node_ip_address] * Network Type ether * Network Name some_network_name * Node Name [my_node_name] Network Interface []
拡張コンカレント・ボリューム・グループのリソースに対して、次のオプションを使用してHACMPリソース・グループを作成します。
# smitty config_resource_group.dialog.custom * Resource Group Name [my_resource_group_name] * Participating Nodes (Default Node Priority) [mynode1,mynode2,mynode3] Startup Policy Online On All Available Nodes Fallover Policy Bring Offline (On Error Node Only) Fallback Policy Never Fallback
コマンド(smitty mkvg)またはコマンドラインを使用して、AIXの拡張コンカレント・ボリューム・グループ(Big VGまたはScalable VG)を作成します。ボリューム・グループには、各投票ディスク用に1つ以上のハード・ディスクが含まれている必要があります。3つ以上の投票ディスクを構成する必要があります。
次の例のdefaultは、デフォルトの応答をそのまま使用することを示しています。
# smitty _mksvg VOLUME GROUP name [my_vg_name] PP SIZE in MB * PHYSICAL VOLUME names [mydisk1,mydisk2,mydisk3] Force the creation of a volume group? no Activate volume group AUTOMATICALLY no at system restart? Volume Group MAJOR NUMBER [] Create VG Concurrent Capable? enhanced concurrent Max PPs per VG in kilobytes default Max Logical Volumes default
「Change/Show Resources for a Resource Group (standard)」で、前述の手順で追加したリソース・グループに対するコンカレント・ボリューム・グループを追加します。
次に例を示します。
# smitty cm_change_show_resources_std_resource_group_menu_dmn.select - select_resource_group_from_step_6 Resource Group Name shared_storage Participating Nodes (Default Node Priority) mynode1,mynode2,mynode3 Startup Policy Online On All Available Nodes Fallover Policy Bring Offline (On Error Node Only) Fallback Policy Never Fallback Concurrent Volume Groups [enter_VG_from_step_7] Use forced varyon of volume groups, if necessary false Application Servers []
次のコマンドを使用して、Oracle Clusterwareの投票ディスクごとに1つのMNDHBネットワークが定義されていることを確認します。MNDHBと投票ディスクの各ペアは、他のペアとは別の、単一のハード・ディスクに配置する必要があります。MNDHBネットワークと投票ディスクは、HACMPが管理する拡張コンカレント論理ボリュームの共有論理ボリュームに、拡張コンカレント・リソースとして存在します。投票ディスクの論理ボリューム(LV)を配置するために手順6で作成したボリューム・グループにあるハード・ディスクごとにMNDHB論理ボリュームを作成します。
# smitty cl_add_mndhb_lv - select_resource_group_defined_in_step_6 * Physical Volume name enter F4, then select a hard disk Logical Volume Name [] Logical Volume Label [] Volume Group name ccvg Resource Group Name shared_storage Network Name [n]
|
注意: Oracle Clusterwareの投票ディスクに使用する論理ボリュームを定義する際は、同じディスクに定義する必要があります(各ディスクに1つ)。このMNDHB論理ボリュームの手順と同様です。 |
拡張コンカレント・ボリューム・グループにあるMNDHBネットワークの定数に対してアクセスが失われるとノードが停止されるようにMNDHBを構成します。次に例を示します。
# smitty cl_set_mndhb_response
- select_the_VG_created_in_step_7
On loss of access Halt the node
Optional notification method []
Volume Group ccvg
HACMP構成を確認し、同期させます。次に例を示します。
# smitty cm_initialization_and_standard_config_menu_dmn - select "Verify and Synchronize HACMP Configuration"
「Would you like to import shared VG: ccvg, in resource group my_resource_group onto node: mynode to node: racha702 [Yes / No]:」というプロンプトが表示されたら「Yes」と入力します。
/usr/es/sbin/cluster/etc/rhostsファイルにHACMPクラスタ・ノードのIP名を追加します。
すべてのデータベースをバックアップした後、Oracle Cluster Registry(OCR)をバックアップします。
すべてのノードですべてのOracle RACデータベース、すべてのノード・アプリケーションおよびOracle Clusterwareを停止します。
次のコマンドを入力し、ノードを再起動したときにOracle Clusterwareを無効にします。
# crsctl disable crs
すべてのノードでHACMPを停止します。
HACMP APAR IZ01809をインストールします。APARに添付されているREADMEの指示に従います。
既存の投票ディスク論理ボリュームが別々のハード・ディスクにあり、かつこれらの各ディスクに十分な領域(MNDHB論理ボリューム用に256MB以上)があるかどうかを確認します。ある場合は、各ハード・ディスクにMNDHB論理ボリュームを作成します。ない場合は、次のコマンドを使用して、別々のハード・ディスクにMNDHB論理ボリュームと投票ディスクを新しく作成します。イタリック体の部分は、ご使用のシステムに合わせて適切に読み換えてください。
# smitty cl_add_mndhb_lv - Select_resource_group * Physical Volume name Enter F4, then select disk for the MNDHB and Voting Disk pair Logical Volume Name [] Logical Volume Label [] Volume Group name ccvg Resource Group Name shared_storage Network Name [net_diskhbmulti_01]
HACMP構成を確認し、同期させます。
すべてのノードでHACMPを起動します。
手順5で投票ディスク用に論理ボリュームを新しく追加した場合は、既存の投票ディスクを新しいディスクに置き換えます。
次のコマンドを入力して、Oracle Clusterwareを再度有効にします。
# crsctl enable CRS
すべてのノードのOracle Clusterwareを起動し、すべてのリソースが適切に起動することを確認します。
|
注意: Oracle ClusterwareにRAW論理ボリュームを使用するには、すべてのクラスタ・ノードにHACMPをインストールおよび構成する必要があります。 |
この項では、Oracle Clusterwareおよびデータベース・ファイル記憶域用にRAW論理ボリュームを構成する方法について説明します。この項では、両方のファイル・タイプに必要な論理ボリュームを含む新しいボリューム・グループを作成する手順を説明します。
続行する前に、今回のリリースのOracle RACでボリューム・グループを使用する場合の重要な情報が含まれている次のガイドラインを確認してください。
Oracle Clusterwareには、コンカレント対応のボリューム・グループを使用する必要があります。
Oracle Clusterwareファイルには、560MB未満のディスク領域(外部冗長を使用)が必要です。ボリューム・グループのディスク領域を効率的に使用するには、Oracle Clusterwareファイルおよびデータベース・ファイルの両方で、論理ボリュームに同じボリューム・グループを使用することをお薦めします。
RAW論理ボリュームを使用する既存のOracle9iリリース2のOracle RACインストールをアップグレードする場合は、OCR用の既存のSRVM構成リポジトリ論理ボリュームを使用し、同じボリューム・グループにOracle Clusterware投票ディスク用の新しい論理ボリュームを作成できます。ただし、Oracle Clusterwareをインストールする前に、このボリューム・グループをアクティブ化するHACMPのコンカレント・リソース・グループからこのボリューム・グループを削除しておく必要があります。
|
参照: コンカレント・リソース・グループからのボリューム・グループの削除については、HACMPのドキュメントを参照してください。 |
|
注意: データベースをアップグレードする場合は、SYSAUX表領域用に新しい論理ボリュームも作成する必要があります。Oracle Clusterware投票ディスクおよびSYSAUX論理ボリュームの要件の詳細は、「新しいOracle Clusterwareボリューム・グループでのRAW論理ボリュームの構成」を参照してください。 |
データベース・ファイルのみを含む(Oracle Clusterwareファイルは含まない)新しいボリューム・グループまたは既存のボリューム・グループをアクティブ化するには、HACMPのコンカレント・リソース・グループを使用する必要があります。
|
参照: 新規または既存のコンカレント・リソース・グループへのボリューム・グループの追加については、HACMPのドキュメントを参照してください。 |
Oracle Clusterwareに使用するすべてのボリューム・グループは、インストールを開始する前に、コンカレント・モードでアクティブ化する必要があります。
この項では、基本的なボリューム・グループとボリュームを作成する手順について説明します。ミラー化を使用するなど、より複雑なボリュームを構成する場合は、この項とともにHACMPのドキュメントも参照してください。
Oracle Clusterwareファイル用のボリューム・グループを作成するには、次の手順を実行します。
すべてのノードで次のコマンドを入力し、ディスクが使用可能であることを確認します。
# /usr/sbin/lsdev -Cc disk
hdisk0 Available 1A-09-00-8,0 16 Bit LVD SCSI Disk Drive hdisk1 Available 1A-09-00-9,0 16 Bit LVD SCSI Disk Drive hdisk2 Available 17-08-L SSA Logical Disk Drive
ディスクが使用可能として表示されないノードがある場合は、次のコマンドを入力して、新しいディスクを構成します。
# /usr/sbin/cfgmgr
任意のノードで次のコマンドを入力し、デバイス名と、各ディスクの関連ボリューム・グループを確認します。
# /usr/sbin/lspv
このコマンドの出力結果は、次のようになります。
hdisk0 0000078752249812 rootvg hdisk1 none none hdisk4 00034b6fd4ac1d71 ccvg1
このコマンドは、各ディスクについて次の内容を示します。
ディスク・デバイス名
16文字の物理ボリュームID(PVID)(ディスクにある場合)またはnone
ディスクが属しているボリューム・グループまたはnone
使用するディスクにPVIDがあっても、既存のボリューム・グループには属していない必要があります。
ボリューム・グループとして使用するディスクにPVIDがない場合は、次のコマンドを入力してディスクに割り当てます。
# /usr/sbin/chdev -l hdiskn -a pv=yes
クラスタの各ノードで次のコマンドを入力して、使用されているデバイスのメジャー番号を確認します。
# ls -la /dev │ more
このコマンドの出力結果に、すべての構成済デバイスの情報が次のように表示されます。
crw-rw---- 1 root system 45, 0 Jul 19 11:56 vg1
この例では、45はvg1ボリューム・グループ・デバイスのメジャー番号です。
クラスタ内のすべてのノードで使用されていない適切なメジャー番号を特定します。
次のコマンドを入力するか、またはSMIT(smit mkvg)を使用して、ボリューム・グループを作成します。
# /usr/sbin/mkvg -y VGname -B -s PPsize -V majornum -n \ -C PhysicalVolumes
次の表に、この例で使用されるオプションと変数を示します。これらのオプションの詳細は、mkvgのマニュアル・ページを参照してください。
| コマンド・オプション | SMITフィールド | サンプル値および説明 |
|---|---|---|
-y VGname
|
VOLUME GROUP name |
oracle_vg1ボリューム・グループの名前を指定します。指定する名前は、ここに示すような一般的な名前や、作成するデータベースの名前にすることができます。 |
-y VGname
|
VOLUME GROUP name |
oracle_vg1ボリューム・グループの名前を指定します。ここに示すような一般的な名前を指定できます。また、データベース・ボリューム・グループの場合は、作成するデータベースの名前を指定できます。 |
-B |
Create a big VG format Volume Group | ビッグVGフォーマットのボリューム・グループを作成する場合に、このオプションを指定します。
注意: SMITを使用している場合、このフィールドは「yes」を選択します。 |
-s PPsize
|
Physical partition SIZE in megabytes |
32データベースの物理パーティションのサイズを指定します。ここに示すサンプル値では、最大サイズ32GB(32MB×1016)のディスクを含めることができます。 |
-V Majornum
|
Volume Group MAJOR NUMBER |
46手順7で特定したボリューム・グループのデバイスのメジャー番号を指定します。 |
-n |
Activate volume group AUTOMATICALLY at system restart | ボリューム・グループがシステムの再起動時にアクティブ化されないようにする場合に、このオプションを選択します。
注意: SMITを使用している場合、このフィールドは「no」を選択します。 |
-C |
Create VG Concurrent Capable | コンカレント対応のボリューム・グループを作成する場合に、このオプションを指定します。
注意: SMITを使用している場合、このフィールドは「yes」を選択します。 |
PhysicalVolumes
|
PHYSICAL VOLUME names |
hdisk3 hdisk4ボリューム・グループに追加するディスクのデバイス名を指定します。 |
次のコマンドを入力して、作成したボリューム・グループを有効にします。
# /usr/sbin/varyonvg VGname
新しいOracle Clusterwareボリューム・グループに必要なRAW論理ボリュームを作成するには、次の手順を実行します。
必要に応じて、コマンドsmit mklvを使用し、RAW論理ボリュームを作成することもできます。
次の例は、物理パーティション・サイズが114MB(1792/7 = 256)の場合に、SYSAUX表領域用の論理ボリュームをocrボリューム・グループに作成するために使用するコマンドを示しています。
# /usr/sbin/mklv -y test_sysaux_raw_1792m -T O -w n -s n -r n ocr 7
次のように、作成した論理ボリュームに関連付けられるキャラクタ・デバイス・ファイルの所有者、グループおよび権限を変更します。
|
注意: Oracle Cluster Registryに関連付けられるデバイス・ファイルは、rootが所有する必要があります。その他のすべてのデバイス・ファイルは、Oracleソフトウェア所有者ユーザー(oracle)が所有する必要があります。 |
# chown oracle:dba /dev/rora_vote_raw_256m # chmod 660 /dev/rora_vote_raw_256m # chown root:oinstall /dev/rora_ocr_raw_256m # chmod 640 /dev/rora_ocr_raw_256m
ボリューム・グループをクラスタ内のすべてのノードで使用可能にするには、次の手順に従って、各ノードにインポートする必要があります。
物理ボリューム名は他のノードでは異なる場合があるため、次のコマンドを入力して、ボリューム・グループが使用する物理ボリュームのPVIDを確認します。
# /usr/sbin/lspv
ボリューム・グループが使用する物理デバイスのPVIDを書き留めます。
ボリューム・グループを作成したノードで次のコマンドを入力し、使用するボリューム・グループを無効にします。
# /usr/sbin/varyoffvg VGname
各クラスタ・ノードで、次の手順を実行します。
次のコマンドを入力して、前述の手順で書き留めたPVIDに関連付けられている物理ボリューム名を確認します。
# /usr/sbin/lspv
クラスタの各ノードで、次のコマンドを入力し、ボリューム・グループの定義をインポートします。
# /usr/sbin/importvg -y VGname -V MajorNumber PhysicalVolume
この例では、MajorNumberはボリューム・グループのデバイスのメジャー番号、PhysicalVolumeはボリューム・グループにある物理ボリュームのうちの1つの名前です。
たとえば、hdisk3およびhdisk4物理ボリューム上のデバイスのメジャー番号45を持つoracle_vg1ボリューム・グループの定義をインポートする場合は、次のコマンドを入力します。
# /usr/sbin/importvg -y oracle_vg1 -V 45 hdisk3
次のように、作成した論理ボリュームに関連付けられるキャラクタ・デバイス・ファイルの所有者、グループおよび権限を変更します。
# chown oracle:dba /dev/rora_vote_raw_256m # chmod 660 /dev/rora_vote_raw_256m # chown root:oinstall /dev/rora_ocr_raw_256m # chmod 640 /dev/rora_ocr_raw_256m
次のコマンドを入力して、ノードの起動時に、オペレーティング・システムによってボリューム・グループがアクティブ化されないことを確認します。
# /usr/sbin/chvg -a n VGname