この節では、次の作業の手順について説明します。
データ複製を使用しない保護グループも作成できます。データ複製サブシステムを使用しない保護グループを作成するには、geopg コマンドを使用するときに、-d datareplicationtype オプションを省略します。geoadm status コマンドを実行すると、こうした保護グループの状態は「Degraded」と表示されます。
このタスクの手順を使用して、Hitachi TrueCopy 保護グループを作成し、構成します。Oracle Real Application Clusters を使用する場合は、「Oracle Real Application Clusters の保護グループを作成する方法」を参照してください。
保護グループを作成するには、次の条件が満たされているかをまず確認する必要があります。
ローカルクラスタがパートナーシップのメンバーである。
既存の保護グループとこれから作成する保護グループが重複しない。
保護グループ名は Sun Cluster Geographic Edition のグローバルネームスペース内で一意です。同じシステム上にパートナーシップが 2 つ存在する場合、これらに同じ保護グループ名を付けることはできません。
保護グループの既存の構成は、リモートクラスタからローカルクラスタに複製することもできます。詳細は、「Hitachi TrueCopy 保護グループ構成をを二次クラスタに複製する」を参照してください。
クラスタノードの 1 つにログインします。
この手順を行うには、Geo Management RBAC 権利プロファイルがユーザーに割り当てられている必要があります。RBAC についての詳細は、『Sun Cluster Geographic Edition System Administration Guide』の「Sun Cluster Geographic Edition Software and RBAC」を参照してください。
geopg create コマンドを実行して新しい保護グループを作成します。
このコマンドを実行すると、ローカルクラスタのすべてのノードに、保護グループが 1 つずつ作成されます。
# geopg create -s partnershipname -o localrole -d truecopy [-p property [-p…]] \ protectiongroupname |
パートナーシップの名前を指定します。
この保護グループのローカルクラスタでの役割を指定します (primary または secondary)。
Hitachi TrueCopy ソフトウェアを使用して保護グループのデータを複製するように指定します。
保護グループのプロパティーを指定します。
次のプロパティーを指定できます。
Description – 保護グループについて説明する。
Timeout – 保護グループのタイムアウト間隔を秒単位で指定する。
Nodelist – 複製サブシステムの主クラスタになりえるマシンのホスト名を表示する。
Cluster_dgs – データが書き込まれるデバイスグループを表示する。
設定できるプロパティーについての詳細は、『Sun Cluster Geographic Edition System Administration Guide』の付録 A「Standard Sun Cluster Geographic Edition Properties」を参照してください。
保護グループの名前を指定します。
Sun Cluster Geographic Edition ソフトウェアでサポートされている名前と値については、『Sun Cluster Geographic Edition System Administration Guide』の付録 B「Legal Names and Values of Sun Cluster Geographic Edition Entities」を参照してください。
geopg コマンドの詳細は、geopg(1M) のマニュアルページを参照してください。
この例では、主クラスタとして設定された cluster-paris に Hitachi TrueCopy 保護グループを作成します。
# geopg create -s paris-newyork-ps -o primary -d truecopy \ -p Nodelist=phys-paris-1,phys-paris-2 tcpg |
この例では、現在 cluster-newyork でオンラインになっているアプリケーションリソースグループ resourcegroup1 に Hitachi TrueCopy 保護グループ tcpg を作成します。
アプリケーションリソースグループを持たない保護グループを作成します。
# geopg create -s paris-newyork-ps -o primary -d truecopy \ -p nodelist=phys-paris-1,phys-paris-2 tcpg |
保護グループを有効にします。
# geopg start -e local tcpg |
アプリケーションリソースグループを追加します。
# geopg add-resource-group resourcegroup1 tcpg |
Sun Cluster Geographic Edition ソフトウェアは Oracle Real Application Clusters と Hitachi TrueCopy ソフトウェアの組み合わせをサポートしています。Oracle Real Application Clusters を構成するときには、次の要件を確認します。
個々の CRS OCR および Voting Disk Location は、各クラスタ上の独自のデバイスグループ内に存在する必要があり、複製することはできません。
CRS やデータベースバイナリなどの静的データは複製する必要がありません。しかし、このデータは両方のクラスタのすべてのノードからアクセスできる必要があります。
動的データベースファイルを保持するデバイスグループ用の独自のリソースグループに、SUNW.ScalDeviceGroup リソースを作成する必要があります。このリソースグループは、クラスタウェア SUNW.ScalDeviceGroup リソースを保持するリソースグループからは離れている必要があります。
RAC インフラスチラクチャーを Sun Cluster Geographic Edition の制御外に置くようにするには、両方のクラスタパートナー上で Sun Cluster Geographic Edition バイナリを実行し、RAC 保護グループ External_Dependency_Allowed プロパティーを true に設定します。
CRS OCR および Voting Disk デバイスグループを、保護グループの cluster_dgs プロパティーに追加しないでください。
RAC インフラストラクチャーリソースグループを、保護グループに追加しないでください。rac_server_proxy リソースグループと、保護グループに複製されるデバイスグループ用のリソースグループのみを追加します。また、rac_server_proxy リソースグループと複製されるデバイスグループのリソースグループには、auto_start_on_new_cluster リソースグループプロパティーを false に設定する必要があります。
たとえばフラッシュ回復領域、警告、トレースログファイルといった Oracle RAC ファイルシステムにクラスタファイルシステムを使用する場合は、HAStoragePlus リソースを使用してこれらのファイルシステムをオンラインにするリソースグループを両方のクラスタ上で別々に手動で作成する必要があります。クラスタウェアではない SUNW.ScalDeviceGroup リソースからこの HAStoragePlus リソースに対して、強力なリソース依存関係を設定する必要があります。次に、この HAStoragePlus リソースグループを RAC 保護グループに追加します。
Oracle Real Application Clusters (RAC) の保護グループを作成する前に、次の条件が満たされていることを確認する必要があります。
「データ複製ソフトウェアによる Oracle Real Application Clusters サポートの要件」を参照してください。
保護グループのノードリストが RAC フレームワークリソースグループのノードグループと同じである必要があります。
一方のクラスタで RAC を実行しているノード数が他方のクラスタと異なる場合は、両方のクラスタのすべてのノードに同じリソースグループが定義されていることを確認します。
VERITAS Volume Manager クラスタ機能を使用してデータを管理している場合は、cluster_dgs プロパティー内のほかのデータボリュームにクラスタ機能のディスクグループおよび Sun Cluster デバイスグループを指定する必要があります。
クラスタおよび VERITAS Volume Manager クラスタ機能を再起動すると、 RAC フレームワークはクラスタが停止する前にすでにインポートされていたすべてのクラスタ機能デバイスグループをインポートしようとします。このため、デバイスグループを主クラスタにインポートしようとすると、失敗します。
主クラスタ上のクラスタノードの 1 つにログインします。
この手順を行うには、Geo Management RBAC 権利プロファイルがユーザーに割り当てられている必要があります。RBAC についての詳細は、『Sun Cluster Geographic Edition System Administration Guide』の「Sun Cluster Geographic Edition Software and RBAC」を参照してください。
geopg create コマンドを実行して新しい保護グループを作成します。
このコマンドを実行すると、ローカルクラスタのすべてのノードに、保護グループが 1 つずつ作成されます。
# geopg create -s partnershipname -o localrole -d truecopy \ -p External_Dependency_Allowed=true [-p property [-p…]] protectiongroupname |
パートナーシップの名前を指定します。
ローカルクラスタ上でこの保護グループに primary というロールを指定します。
Hitachi TrueCopy ソフトウェアを使用して保護グループのデータを複製するように指定します。
保護グループのプロパティーを指定します。
次のプロパティーを指定できます。
Description – 保護グループについて説明する。
External_Dependency_Allowed - リソースグループおよびこの保護グループに属しているリソースと、リソースグループおよびこの保護グループに属していないリソースとの間に、依存関係を許可するかどうかを指定する。RAC の場合は、このプロパティーを true に設定する。
Timeout – 保護グループのタイムアウト間隔を秒単位で指定する。
Nodelist – 複製サブシステムの主クラスタになりえるマシンのホスト名を表示する。
Cluster_dgs – データが書き込まれる VERITAS Volume Manager クラスタ機能ディスクグループを指定する。
設定できるプロパティーについての詳細は、『Sun Cluster Geographic Edition System Administration Guide』の付録 A「Standard Sun Cluster Geographic Edition Properties」を参照してください。
保護グループの名前を指定します。
Sun Cluster Geographic Edition ソフトウェアでサポートされている名前と値については、『Sun Cluster Geographic Edition System Administration Guide』の付録 B「Legal Names and Values of Sun Cluster Geographic Edition Entities」を参照してください。
geopg コマンドの詳細は、geopg(1M) のマニュアルページを参照してください。
Hitachi TrueCopy デバイスグループを保護グループに追加します。
# geopg add-device-group [-p property [-p…]] protectiongroupname |
保護グループのプロパティーを指定します。
ディスクデバイスグループによって使用されるフェンスレベルを定義する Fence_level プロパティーを指定できます。フェンスレベルにより、そのディスクデバイスグループの主ボリュームおよび二次ボリューム間での整合性のレベルが決定されます。これを never に設定する必要があります。
主クラスタにおけるアプリケーション停止を防ぐには、Fence_level を never または async に指定します。Fence_level パラメータが never または async に設定されていないと、二次サイトが停止する際にデータ複製が正しく行われない可能性があります。
never の Fence_level を指定すると、テイクオーバーを実行したあと、データ複製ロールが変更されません。
data と status は、特殊な状況下で必要になる場合があるため、Fence_level パラメータがこれらの値に設定されないようにするプログラムは使用しないでください。
data または status の Fence_level を使用する特別なニーズがある場合は、ご購入先に問い合わせてください。
設定できるプロパティーについての詳細は、『Sun Cluster Geographic Edition System Administration Guide』の付録 A「Standard Sun Cluster Geographic Edition Properties」を参照してください。
保護グループの名前を指定します。
保護グループには、rac_server_proxy リソースグループと、複製されるデバイスグループ用のリソースグループのみを追加します。
保護グループには RAC フレームワークリソースグループを追加しないでください。追加しないことにより、保護グループがノードで二次になっても、フレームワークリソースグループが非管理状態にならないことが保証されます。さらに、複数の RAC データベースをクラスタ上に存在させ、それらのデータベースを Sun Cluster Geographic Edition の制御下に置くことも置かないことも可能になります。
# geopg add-resource-group resourcegroup protectiongroupname |
保護グループに追加する、または保護グループから削除するリソースグループをコンマで区切って指定します。指定したリソースグループはすでに定義されている必要があります。
リソースグループを追加する前に、保護グループはオンラインである必要があります。geopg add-resource-group コマンドが失敗するのは、保護グループがオフラインであり、追加されるリソースグループがオンラインである場合です。
リソースグループを追加する時点で保護グループがすでに起動されている場合、リソースグループは管理されないままになります。geopg start コマンドを実行して、手動でリソースグループを起動する必要があります。
保護グループの名前を指定します。
この例ではRAC およびクラスタ機能を使用する保護グループ pg1 を作成します。
クラスタ機能のディスクグループ oracle-dg は、Hitachi TrueCopy デバイスグループ VG01 によって複製されるデータを制御します。RAC フレームワークリソースグループのノードリストは、クラスタのすべてのノードに設定されています。
クラスタ機能のディスクグループ oracle-dg を使用して、主クラスタに保護グループを作成します。
# geopg create -s pts1 -o PRIMARY -d Truecopy \ -p cluster_dgs=racdbdg -p external_dependency_allowed=true pg1 Protection group "pg1" successfully created. |
Hitachi TrueCopy デバイスグループ VG01 を保護グループ pg1 に追加します。
# geopg add-device-group --property fence_level=never VG01 pg1 Device group "VG01" successfully added to the protection group "pg1". |
rac_server_proxy-rg リソースグループと、複製デバイスグループのリソースグループである hasp4rac-rg および scaldbdg-rg を保護グループに追加します。
# geopg add-resource-group rac_server_proxy-rg,hasp4rac-rg,\ scaldbdg-rg pg1 |
保護グループを作成する前に、データ複製層は horcmd デーモンが動作しているかどうかを検証します。
データ複製層は、horcmd デーモンが少なくとも、Nodelist プロパティーで指定されているノードの 1 つで動作しているかどうかを検証します。horcmd デーモンについての詳細は、『Sun StorEdge SE 9900 V Series Command and Control Interface User and Reference Guide』を参照してください。
Cluster_dgs プロパティーが指定されている場合、データ複製層は、指定されたデバイスグループが有効な Sun Cluster デバイスグループであるかどうかを確認します。データ複製層はまた、そのデバイスグループが有効な種類であるかどうかも確認します。
Cluster_dgs プロパティーに指定されたデバイスグループへの書き込みは、保護グループに属するアプリケーションだけに限定する必要があります。このプロパティーには、保護グループ外のアプリケーションから情報を受信するデバイスグループを指定しないでください。
Sun Cluster リソースグループは、保護グループの作成時に自動的に作成されます。
このリソースグループ内のこのリソースは、データ複製を監視します。Hitachi TrueCopy データ複製リソースグループの名前は、rg-tc-protectiongroupname です。
このように自動的に作成される複製リソースグループは、Sun Cluster Geographic Edition 内部実装専用です。Sun Cluster コマンドを使用してこれらのリソースグループを変更する場合は注意してください。
保護グループの構成を変更する前に、変更する保護グループがローカルに存在していることを確認します。
クラスタノードの 1 つにログインします。
この手順を行うには、Geo Management RBAC 権利プロファイルがユーザーに割り当てられている必要があります。RBAC についての詳細は、『Sun Cluster Geographic Edition System Administration Guide』の「Sun Cluster Geographic Edition Software and RBAC」を参照してください。
保護グループの構成を変更します。
このコマンドは、ローカルクラスタ上の全ノードの保護グループのプロパティーを変更します。パートナークラスタ上に同じ名前の保護グループが含まれている場合、このコマンドは、パートナークラスタにも新しい構成情報を伝達します。
# geopg set-prop -p property [-p...] protectiongroupname |
保護グループのプロパティーを指定します。
設定できるプロパティーについての詳細は、『Sun Cluster Geographic Edition System Administration Guide』の付録 A「Standard Sun Cluster Geographic Edition Properties」を参照してください。
保護グループの名前を指定します。
Sun Cluster Geographic Edition ソフトウェアでサポートされている名前と値については、『Sun Cluster Geographic Edition System Administration Guide』の付録 B「Legal Names and Values of Sun Cluster Geographic Edition Entities」を参照してください。
geopg コマンドの詳細は、geopg(1M) のマニュアルページを参照してください。
この例では、例 2–2 で作成した保護グループの Timeout プロパティーを変更します。
# geopg set-prop -p Timeout=400 tcpg |
保護グループの検証中、Hitachi TrueCopy データ複製サブシステムは次の検証を行います。
horcmd デーモンが保護グループの Nodelist プロパティーで指定された 1 つ以上のノードで動作しています。データ複製層はまた、horcmd デーモンが動作しているノードから Hitachi TrueCopy ストレージデバイスへのパスが存在するかどうかも確認します。
horcmdデーモンについての詳細は、『Sun StorEdge SE 9900 V Series Command and Control Interface User and Reference Guide』を参照してください。
指定されたデバイスグループは、Cluster_dgs プロパティーが指定されている場合に有効な Sun Cluster デバイスグループまたは CVM デバイスグループです。データ複製層はまた、そのデバイスグループが有効な種類であるかどうかも確認します。
プロパティーは、保護グループに追加された Hitachi TrueCopy デバイスグループごとに有効になります。
geoadm status の出力で保護グループの Configuration 状態が Error と表示された場合、geopg validate コマンドを使用して構成を検証できます。このコマンドは、保護グループとそのエンティティーの現在の状態を検査します。
保護グループとそのエンティティーが有効であれば、保護グループの Configuration 状態は OK に設定されます。構成ファイル内にエラーが見つかると、geopg validate コマンドはそのエラーについてのメッセージを表示し、構成はエラー状態にとどまります。この場合、ユーザーは構成内のエラーを修正し、geopg validate コマンドをもう一度実行できます。
検証する保護グループがローカルに存在し、共通エージェントコンテナがパートナーシップの両方のクラスタのすべてのノードでオンラインになっていることを確認します。
クラスタノードの 1 つにログインします。
この手順を行うには、Geo Management RBAC 権利プロファイルがユーザーに割り当てられている必要があります。RBAC についての詳細は、『Sun Cluster Geographic Edition System Administration Guide』の「Sun Cluster Geographic Edition Software and RBAC」を参照してください。
保護グループの構成を検証します。
このコマンドで検証されるのは、ローカルクラスタ上の保護グループの構成だけです。パートナークラスタ上の保護グループ構成を検証するには、次のコマンドをパートナークラスタでもう一度実行します。
# geopg validate protectiongroupname |
単一の保護グループを識別する一意の名前を指定します
この例では、保護グループを検証する方法を示します。
# geopg validate tcpg |
保護グループをすべての場所から削除する場合、保護グループが存在する各クラスタで、geopg delete コマンドを実行する必要があります。
保護グループを削除するには、次の条件が満たされているかをまず確認する必要があります。
削除する保護グループがローカルに存在する。
ローカルクラスタ上で保護グループがオフラインになっている。
保護グループの削除中にアプリケーションリソースグループをオンライン状態に保持するには、保護グループからアプリケーションリソースグループを除去する必要があります。この手順の例は、例 2–8 と 例 2–10 を参照してください。
主クラスタ上のノードの 1 つにログインします。
この手順を行うには、Geo Management RBAC 権利プロファイルがユーザーに割り当てられている必要があります。RBAC についての詳細は、『Sun Cluster Geographic Edition System Administration Guide』の「Sun Cluster Geographic Edition Software and RBAC」を参照してください。
保護グループを削除します。
このコマンドは、ローカルクラスタから保護グループの構成を削除します。このコマンドはまた、保護グループの各 Hitachi TrueCopy デバイスグループの複製リソースグループも除去します。このコマンドは、Hitachi TrueCopy デバイスグループのペアの状態は変更しません。
# geopg delete protectiongroupname |
保護グループの名前を指定します
二次クラスタ上の保護グループを削除する場合は、手順 1 と手順 2 を cluster-newyork で繰り返します。
この例では、保護グループを両方のパートナークラスタから削除する方法を示します。
cluster-paris は主クラスタです。クラスタ構成の例を確認するには、『Sun Cluster Geographic Edition System Administration Guide』の「Example Sun Cluster Geographic Edition Cluster Configuration」を参照してください。
# rlogin phys-paris-1 -l root phys-paris-1# geopg delete tcpg # rlogin phys-newyork-1 -l root phys-newyork-1# geopg delete tcpg |
この例では、2 つのアプリケーションリソースグループ (apprg1 と apprg2) をオンラインにしたまま、これらの保護グループ tcpg を削除します。保護グループからアプリケーションリソースグループを除去し、続いて保護グループを削除します。
# geopg remove-resource-group apprg1,apprg2 tcpg # geopg stop -e global tcpg # geopg delete tcpg |