この章では、Hitachi TrueCopy ソフトウェアを使用して、データ複製を構成する手順と管理する手順を示します。この章では、次の節について説明します。
保護グループを作成する前に、次のどちらかの方法を検討してください。
アプリケーションをオフラインにしてから、保護グループを作成します。
もっとも簡単な方法です。単一のコマンドで、一方のクラスタ上に保護グループを作成し、他方のクラスタ上の情報を取得し、その後保護グループを有効にします。ただし、処理が完了するまで保護グループがオンラインにならないため、アプリケーションリソースグループを保護グループに追加するときには、アプリケーションリソースグループをオフラインにする必要があります。
アプリケーションがオンラインの間に保護グループを作成します。
この方法では、アプリケーションを停止せずに保護グループを作成できますが、複数のコマンドを実行する必要があります。
これ以降の節では、各方法の手順について説明します。
アプリケーションリソースグループがオフラインの間に保護グループを作成するには、次の手順を実行します。
クラスタノード上で保護グループを作成します。
詳細は、「Hitachi TrueCopy 保護グループを作成および構成する (Oracle Real Application Clusters を使用しない場合)」を参照してください。
この保護グループにデータ複製デバイスグループを追加します。
詳細は、「Hitachi TrueCopy 保護グループにデータ複製デバイスグループを追加する方法」を参照してください。
アプリケーションリソースグループをオフラインにします。
保護グループにアプリケーションリソースグループを追加します。
詳細は、「Hitachi TrueCopy 保護グループにアプリケーションリソースグループを追加する方法」を参照してください。
他方のクラスタで、保護グループ構成を取得します。
詳細は、「Hitachi TrueCopy 保護グループ構成を二次クラスタに複製する方法」を参照してください。
どちらか一方のクラスタから、保護グループ をグローバルに起動します。
詳細は、「Hitachi TrueCopy 保護グループを有効にする方法」を参照してください。
アプリケーションをオフラインにすることなく新しい保護グループに既存のアプリケーションリソースグループを追加するには、アプリケーションリソースグループがオンライン状態にあるクラスタで次の手順を実行します。
クラスタノード上で保護グループを作成します。
詳細は、「Hitachi TrueCopy 保護グループを作成および構成する (Oracle Real Application Clusters を使用しない場合)」を参照してください。
この保護グループにデータ複製デバイスグループを追加します。
詳細は、「Hitachi TrueCopy 保護グループにデータ複製デバイスグループを追加する方法」を参照してください。
保護グループをローカルに起動します。
詳細は、「Hitachi TrueCopy 保護グループを有効にする方法」を参照してください。
保護グループにアプリケーションリソースグループを追加します。
詳細は、「Hitachi TrueCopy 保護グループにアプリケーションリソースグループを追加する方法」を参照してください。
他方のクラスタで、次の手順を実行します。
保護グループ構成を検出します。
詳細は、「Hitachi TrueCopy 保護グループ構成を二次クラスタに複製する方法」を参照してください。
保護グループをローカルに有効にします。
詳細は、「Hitachi TrueCopy 保護グループを有効にする方法」を参照してください。
この例では、アプリケーションをオフラインにせずに保護グループを作成します。
この例では、cluster-paris クラスタ上で apprg1 リソースグループがオンライン状態にあります。
cluster-paris 上に保護グループを作成します。
phys-paris-1# geopg create -d truecopy -p Nodelist=phys-paris-1,phys-paris-2 \ -o Primary -s paris-newyork-ps tcpg Protection group "tcpg" has been successfully created |
デバイスグループ tcdg を保護グループに追加します。
phys-paris-1# geopg add-device-group -p fence_level=async tcdg tcpg |
保護グループをローカルに有効にします。
phys-paris-1# geopg start -e local tcpg Processing operation.... this may take a while.... Protection group "tcpg" successfully started. |
保護グループにすでにオンライン状態のアプリケーションリソースグループを追加します。
phys-paris-1# geopg add-resource-group apprg1 tcpg Following resource groups were successfully inserted: "apprg1" |
アプリケーションリソースグループが正常に追加されたことを確認します。
phys-paris-1# geoadm status Cluster: cluster-paris Partnership "paris-newyork-ps" : OK Partner clusters : newyork Synchronization : OK ICRM Connection : OK Heartbeat "hb_cluster-paris~cluster-newyork" monitoring \ "paris-newyork-ps" OK Plug-in "ping-plugin" : Inactive Plug-in "tcp_udp_plugin" : OK Protection group "tcpg" : Degraded Partnership : paris-newyork-ps Synchronization : OK Cluster cluster-paris : Degraded Role : Primary Configuration : OK Data replication : Degraded Resource groups : OK Cluster cluster-newyork : Unknown Role : Unknown Configuration : Unknown Data Replication : Unknown Resource Groups : Unknown |
パートナークラスタ側のノードの 1 つで保護グループを取得します。
phys-newyork-1# geopg get -s paris-newyork-ps tcpg Protection group "tcpg" has been successfully created. |
パートナークラスタで、保護グループをローカルに有効にします。
phys-newyork-1# geopg start -e local tcpg Processing operation.... this may take a while.... Protection group "tcpg" successfully started. |
保護グループが正常に作成され有効になっていることを確認します。
cluster-paris で geoadm status コマンドを実行すると、次のように出力されます。
phys-paris-1# geoadm status Cluster: cluster-paris Partnership "paris-newyork-ps" : OK Partner clusters : newyork Synchronization : OK ICRM Connection : OK Heartbeat "hb_cluster-paris~cluster-newyork" monitoring \ "paris-newyork-ps": OK Plug-in "ping-plugin" : Inactive Plug-in "tcp_udp_plugin" : OK Protection group "tcpg" : Degraded Partnership : paris-newyork-ps Synchronization : OK Cluster cluster-paris : Degraded Role : Primary Configuration : OK Data replication : Degraded Resource groups : OK Cluster cluster-newyork : Degraded Role : Secondary Configuration : OK Data Replication : Degraded Resource Groups : OK |
この節では、次の作業の手順について説明します。
データ複製をともなわない保護グループも作成できます。データ複製サブシステムを使用しない保護グループを作成するには、geopg コマンドを使用するときに、-d datareplicationtype オプションを省略します。geoadm status コマンドを実行すると、こうした保護グループの状態は「Degraded」と表示されます。
詳細は、『Sun Cluster Geographic Edition のシステム管理』の「データ複製を必要としない保護グループの作成」を参照してください。
このタスクの手順を使用して、Hitachi TrueCopy 保護グループを作成し、構成します。Oracle Real Application Clusters を使用する場合は、「Oracle Real Application Clusters の保護グループを作成する」を参照してください。
保護グループを作成するには、次の条件が満たされているかをまず確認する必要があります。
ローカルクラスタがパートナーシップのメンバーである。
既存の保護グループとこれから作成する保護グループが重複しない。
保護グループ名は Sun Cluster Geographic Edition のグローバルネームスペース内で一意です。同じシステム上にパートナーシップが 2 つ存在する場合、これらに同じ保護グループ名を付けることはできません。
保護グループの既存の構成は、リモートクラスタからローカルクラスタに複製することもできます。詳細は、「Hitachi TrueCopy 保護グループ構成をを二次クラスタに複製する」を参照してください。
クラスタノードの 1 つにログインします。
この手順を行うには、Geo Management RBAC 権利プロファイルがユーザーに割り当てられている必要があります。RBAC の詳細は、『Sun Cluster Geographic Edition のシステム管理』の「Sun Cluster Geographic Edition ソフトウェアと RBAC」を参照してください。
geopg create コマンドを実行して新しい保護グループを作成します。
このコマンドを実行すると、ローカルクラスタのすべてのノードに、保護グループが 1 つずつ作成されます。
# geopg create -s partnershipname -o localrole -d truecopy [-p property [-p...]] \ protectiongroupname |
パートナーシップの名前を指定します。
この保護グループのローカルクラスタでの役割を指定します (primary または secondary)。
Hitachi TrueCopy ソフトウェアを使用して保護グループのデータを複製するように指定します。
保護グループのプロパティーを指定します。
次のプロパティーを指定できます。
Description – 保護グループについて説明する。
Timeout – 保護グループのタイムアウト間隔を秒単位で指定する。
Nodelist – 複製サブシステムの主クラスタになりえるマシンのホスト名を表示する。
Cluster_dgs – データが書き込まれるデバイスグループを表示する。
設定できるプロパティーの詳細は、『Sun Cluster Geographic Edition のシステム管理』の付録 A「Sun Cluster Geographic Edition の標準プロパティー」を参照してください。
保護グループの名前を指定します。
Sun Cluster Geographic Edition ソフトウェアでサポートされる名前と値の詳細は、『Sun Cluster Geographic Edition のシステム管理』の付録 B「Sun Cluster Geographic Edition エンティティーに使用できる名前と値」を参照してください。
geopg コマンドの詳細は、geopg(1M) のマニュアルページを参照してください。
この例では、主クラスタとして設定された cluster-paris に Hitachi TrueCopy 保護グループを作成します。
# geopg create -s paris-newyork-ps -o primary -d truecopy \ -p Nodelist=phys-paris-1,phys-paris-2 tcpg |
この例では、現在 cluster-newyork でオンラインになっているアプリケーションリソースグループ resourcegroup1 に Hitachi TrueCopy 保護グループ tcpg を作成します。
アプリケーションリソースグループを持たない保護グループを作成します。
# geopg create -s paris-newyork-ps -o primary -d truecopy \ -p nodelist=phys-paris-1,phys-paris-2 tcpg |
保護グループを有効にします。
# geopg start -e local tcpg |
アプリケーションリソースグループを追加します。
# geopg add-resource-group resourcegroup1 tcpg |
Oracle Real Application Clusters の保護グループを作成する前に、次の条件が満たされていることを確認する必要があります。
保護グループのノードリストが Oracle Real Application Clusters フレームワークリソースグループのノードグループと同じである必要があります。
一方のクラスタで Oracle Real Application Clusters を実行しているノード数が他方のクラスタと異なる場合は、両方のクラスタのすべてのノードに同じリソースグループが定義されていることを確認します。
すべての Oracle Real Application Clusters サーバーリソースグループとすべての Oracle Real Application Clusters リスナーリソースグループが同じ保護グループに属している必要があります。
クラスタボリュームマネージャーを使用してデータを管理している場合は、cluster_dgs プロパティー内のほかのデータボリュームにクラスタボリュームマネージャーのディスクグループおよび Sun Cluster デバイスグループを指定する必要があります。
クラスタおよびクラスタボリュームマネージャーを再起動すると、Oracle Real Application Clusters フレームワークはクラスタが停止する前にすでにインポートされていたすべてのクラスタマネージャーデバイスグループをインポートしようとします。このため、デバイスグループを主クラスタにインポートしようとすると、失敗します。
主クラスタ上のクラスタノードの 1 つにログインします。
この手順を行うには、Geo Management RBAC 権利プロファイルがユーザーに割り当てられている必要があります。RBAC の詳細は、『Sun Cluster Geographic Edition のシステム管理』の「Sun Cluster Geographic Edition ソフトウェアと RBAC」を参照してください。
geopg create コマンドを使用して、クラスタボリュームマネージャーディスクグループで新しい保護グループを作成します。
このコマンドを実行すると、ローカルクラスタのすべてのノードに、保護グループが 1 つずつ作成されます。
# geopg create -s partnershipname -o localrole -d truecopy [-p property [-p...]] \ protectiongroupname |
パートナーシップの名前を指定します。
ローカルクラスタ上でこの保護グループに primary というロールを指定します。
Hitachi TrueCopy ソフトウェアを使用して保護グループのデータを複製するように指定します。
保護グループのプロパティーを指定します。
次のプロパティーを指定できます。
Description – 保護グループについて説明する。
Timeout – 保護グループのタイムアウト間隔を秒単位で指定する。
Nodelist – 複製サブシステムの主クラスタになりえるマシンのホスト名を表示する。
Cluster_dgs – データが書き込まれるクラスタボリュームマネージャーのディスクグループを指定する。
設定できるプロパティーの詳細は、『Sun Cluster Geographic Edition のシステム管理』の付録 A「Sun Cluster Geographic Edition の標準プロパティー」を参照してください。
保護グループの名前を指定します。
Sun Cluster Geographic Edition ソフトウェアでサポートされる名前と値の詳細は、『Sun Cluster Geographic Edition のシステム管理』の付録 B「Sun Cluster Geographic Edition エンティティーに使用できる名前と値」を参照してください。
geopg コマンドの詳細は、geopg(1M) のマニュアルページを参照してください。
Hitachi TrueCopy デバイスグループを保護グループに追加します。
# geopg add-device-group [-p property [-p...]] \ protectiongroupname |
保護グループのプロパティーを指定します。
ディスクデバイスグループによって使用されるフェンスレベルを定義する Fence_level プロパティーを指定できます。フェンスレベルにより、そのディスクデバイスグループの主ボリュームおよび二次ボリューム間での整合性のレベルが決定されます。これを never に設定する必要があります。
主クラスタにおけるアプリケーション停止を防ぐには、Fence_level を never または async に指定します。Fence_level パラメータが never または async に設定されていないと、二次サイトが停止する際にデータ複製が正しく行われない可能性があります。
never の Fence_level を指定した場合、テイクオーバーを実行したあと、データ複製ロールが変わりません。
data と status は、特殊な状況下で必要になる場合があるため、Fence_level パラメータがこれらの値に設定されないようにするプログラムは使用しないでください。
data または status の Fence_level を使用する特別なニーズがある場合は、ご購入先に問い合わせてください。
設定できるプロパティーの詳細は、『Sun Cluster Geographic Edition のシステム管理』の付録 A「Sun Cluster Geographic Edition の標準プロパティー」を参照してください。
保護グループの名前を指定します。
Oracle Real Application Clusters フレームワークリソースグループ、すべての Oracle Real Application Clusters サーバーリソースグループ、すべての Oracle Real Application Clusters リスナーリソースグループを保護グループに追加します。
# geopg add-resource-group resourcegroup protectiongroupname |
保護グループに追加する、または保護グループから削除するリソースグループをコンマで区切って指定します。指定したリソースグループはすでに定義されている必要があります。
リソースグループを追加する前に、保護グループはオンラインである必要があります。geopg add-resource-group コマンドが失敗するのは、保護グループがオフラインであり、追加されるリソースグループがオンラインである場合です。
リソースグループを追加する時点で保護グループがすでに起動されている場合、リソースグループは管理されないままになります。geopg start コマンドを実行して、手動でリソースグループを起動する必要があります。
保護グループの名前を指定します。
この例では、Oracle Real Application Clusters およびクラスタボリュームマネージャーを使用する保護グループ pg1 を作成します。
クラスタボリュームマネージャーのディスクグループ oracle-dg は、Hitachi TrueCopy デバイスグループ VG01 によって複製されるデータを制御します。Oracle Real Application Clusters フレームワークリソースグループのノードリストは、クラスタのすべてのノードに設定されています。
クラスタボリュームマネージャーのディスクグループ oracle-dg を使用して、主クラスタに保護グループを作成します。
# geopg create -s pts1 -o PRIMARY -d Truecopy -p cluster_dgs=oracle-dg pg1 Protection group "pg1" successfully created. |
Hitachi TrueCopy デバイスグループ VG01 を保護グループ pg1 に追加します。
# geopg add-device-group --property fence_level=never VG01 pg1 Device group "VG01" successfully added to the protection group "pg1". |
Oracle Real Application Clusters フレームワークリソースグループ rac-framework-rg 、すべての Oracle Real Application Clusters サーバーリソースグループ、およびすべての Oracle Real Application Clusters リスナーリソースグループを保護グループに追加します。
# geopg add-resource-group rac-framework-rg,rac-server-rg1,\ rac-listener-rg1,rac-server-rg2,rac-listener-rg2 pg1 |
保護グループを作成する前に、データ複製層は horcmd デーモンが動作しているかどうかを検証します。
データ複製層は、horcmd デーモンが少なくとも、Nodelist プロパティーで指定されているノードの 1 つで動作しているかどうかを検証します。horcmd デーモンについての詳細は、『Sun StorEdge SE 9900 V Series Command and Control Interface User and Reference Guide』を参照してください。
Cluster_dgs プロパティーが指定されている場合、データ複製層は、指定されたデバイスグループが有効な Sun Cluster デバイスグループであるかどうかを確認します。データ複製層はまた、そのデバイスグループが有効な種類であるかどうかも確認します。
Cluster_dgs プロパティーに指定されたデバイスグループへの書き込みは、保護グループに属するアプリケーションだけに限定する必要があります。このプロパティーには、保護グループ外のアプリケーションから情報を受信するデバイスグループを指定しないでください。
Sun Cluster リソースグループは、保護グループの作成時に自動的に作成されます。
このリソースグループ内のこのリソースは、データ複製を監視します。Hitachi TrueCopy データ複製リソースグループの名前は、rg-tc-protectiongroupname です。
このように自動的に作成される複製リソースグループは、Sun Cluster Geographic Edition 内部実装専用です。Sun Cluster コマンドを使用してこれらのリソースグループを変更する場合は注意してください。
保護グループの構成を変更する前に、変更する保護グループがローカルに存在していることを確認します。
クラスタノードの 1 つにログインします。
この手順を行うには、Geo Management RBAC 権利プロファイルがユーザーに割り当てられている必要があります。RBAC の詳細は、『Sun Cluster Geographic Edition のシステム管理』の「Sun Cluster Geographic Edition ソフトウェアと RBAC」を参照してください。
保護グループの構成を変更します。
このコマンドは、ローカルクラスタ上の全ノードの保護グループのプロパティーを変更します。パートナークラスタ上に同じ名前の保護グループが含まれている場合、このコマンドは、パートナークラスタにも新しい構成情報を伝達します。
# geopg set-prop -p property [-p...] \ protectiongroupname |
保護グループのプロパティーを指定します。
設定できるプロパティーの詳細は、『Sun Cluster Geographic Edition のシステム管理』の付録 A「Sun Cluster Geographic Edition の標準プロパティー」を参照してください。
保護グループの名前を指定します。
Sun Cluster Geographic Edition ソフトウェアでサポートされる名前と値の詳細は、『Sun Cluster Geographic Edition のシステム管理』の付録 B「Sun Cluster Geographic Edition エンティティーに使用できる名前と値」を参照してください。
geopg コマンドの詳細は、geopg(1M) のマニュアルページを参照してください。
この例では、例 2–2 で作成した保護グループの Timeout プロパティーを変更します。
# geopg set-prop -p Timeout=400 tcpg |
保護グループの検証中、Hitachi TrueCopy データ複製サブシステムは次の検証を行います。
horcmd デーモンが保護グループの Nodelist プロパティーで指定された 1 つ以上のノードで動作しています。データ複製層はまた、horcmd デーモンが動作しているノードから Hitachi TrueCopy ストレージデバイスへのパスが存在するかどうかも確認します。
horcmd デーモンについての詳細は、『Sun StorEdge SE 9900 V Series Command and Control Interface User and Reference Guide』を参照してください。
指定されたデバイスグループは、Cluster_dgs プロパティーが指定されている場合に有効な Sun Cluster デバイスグループまたは CVM デバイスグループです。データ複製層はまた、そのデバイスグループが有効な種類であるかどうかも確認します。
プロパティーは、保護グループに追加された Hitachi TrueCopy デバイスグループごとに有効になります。
geoadm status の出力で保護グループの Configuration 状態が Error と表示された場合、geopg validate コマンドを使用して構成を検証できます。このコマンドは、保護グループとそのエンティティーの現在の状態を検査します。
保護グループとそのエンティティーが有効であれば、保護グループの Configuration 状態は OK に設定されます。構成ファイル内にエラーが見つかると、geopg validate コマンドはそのエラーについてのメッセージを表示し、構成はエラー状態にとどまります。この場合、ユーザーは構成内のエラーを修正し、geopg validate コマンドをもう一度実行できます。
検証する保護グループがローカルに存在し、共通エージェントコンテナがパートナーシップの両方のクラスタのすべてのノードでオンラインになっていることを確認します。
クラスタノードの 1 つにログインします。
この手順を行うには、Geo Management RBAC 権利プロファイルがユーザーに割り当てられている必要があります。RBAC の詳細は、『Sun Cluster Geographic Edition のシステム管理』の「Sun Cluster Geographic Edition ソフトウェアと RBAC」を参照してください。
保護グループの構成を検証します。
このコマンドで検証されるのは、ローカルクラスタ上の保護グループの構成だけです。パートナークラスタ上の保護グループ構成を検証するには、次のコマンドをパートナークラスタでもう一度実行します。
# geopg validate protectiongroupname |
単一の保護グループを識別する一意の名前を指定します
この例では、保護グループを検証します。
# geopg validate tcpg |
保護グループをすべての場所から削除する場合、保護グループが存在する各クラスタで、geopg delete コマンドを実行する必要があります。
保護グループを削除するには、次の条件が満たされているかをまず確認する必要があります。
削除する保護グループがローカルに存在する。
ローカルクラスタ上で保護グループがオフラインになっている。
保護グループの削除中にアプリケーションリソースグループをオンライン状態に保持するには、保護グループからアプリケーションリソースグループを除去する必要があります。この手順の例は、例 2–8 と 例 2–10 を参照してください。
主クラスタ上のノードの 1 つにログインします。
この手順を行うには、Geo Management RBAC 権利プロファイルがユーザーに割り当てられている必要があります。RBAC の詳細は、『Sun Cluster Geographic Edition のシステム管理』の「Sun Cluster Geographic Edition ソフトウェアと RBAC」を参照してください。
保護グループを削除します。
このコマンドは、ローカルクラスタから保護グループの構成を削除します。このコマンドはまた、保護グループの各 Hitachi TrueCopy デバイスグループの複製リソースグループも除去します。このコマンドは、Hitachi TrueCopy デバイスグループのペアの状態は変更しません。
# geopg delete protectiongroupname |
保護グループの名前を指定します
二次クラスタ上の保護グループを削除する場合は、手順 1 と手順 2 を cluster-newyork で繰り返します。
この例では、両方のパートナークラスタから保護グループを削除します。
cluster-paris は主クラスタです。クラスタ構成の例を確認するには、『Sun Cluster Geographic Edition のシステム管理』の「Sun Cluster Geographic Edition クラスタ構成の例」を参照してください。
# rlogin phys-paris-1 -l root phys-paris-1# geopg delete tcpg # rlogin phys-newyork-1 -l root phys-newyork-1# geopg delete tcpg |
この例では、2 つのアプリケーションリソースグループ (apprg1 と apprg2) をオンラインにしたまま、これらの保護グループ tcpg を削除します。保護グループからアプリケーションリソースグループを除去し、続いて保護グループを削除します。
# geopg remove-resource-group apprg1,apprg2 tcpg # geopg stop -e global tcpg # geopg delete tcpg |
アプリケーションを高可用化するには、そのアプリケーションをアプリケーションリソースグループ内でリソースとして管理する必要があります。
主クラスタ上のアプリケーションリソースグループ用として構成するエンティティー (アプリケーションリソース、インストール、アプリケーション構成ファイル、リソースグループなど) は、すべて二次クラスタにも複製する必要があります。リソースグループ名は、両方のクラスタで同じにする必要があります。また、アプリケーションリソースが使用するデータは、二次クラスタに複製する必要があります。
この節では、次の作業について説明します。
既存のリソースグループは、保護グループのアプリケーションリソースグループのリストに追加できます。保護グループにアプリケーションリソースグループを追加する前に、次の条件が満たされていることを確認してください。
保護グループが定義されている。
追加するリソースグループが両方のクラスタで存在しており、適切な状態にある。
リソースグループの Auto_start_on_new_cluster プロパティーが False に設定されている。このプロパティーは、scrgadm コマンドを使用して表示できます。
# scrgadm -pvv -g apprg | grep Auto_start_on_new_cluster |
Auto_start_on_new_cluster プロパティーを False に設定することにより、Sun Cluster リソースグループマネージャーが保護グループで自動的にリソースグループを起動するのを防ぐことができます。このため、Sun Cluster Geographic Edition ソフトウェアは再起動後にリモートクラスタと通信して、リモートクラスタが確実に起動して、そのリソースグループの二次クラスタとなるようにします。Sun Cluster Geographic Edition ソフトウェアは、主クラスタではリソースグループを自動的に起動しません。
アプリケーションリソースグループは、保護グループが有効なときに主クラスタでのみオンラインにするようにしてください。
次のように、Auto_start_on_new_cluster プロパティーを False に設定します。
scrgadm -c -g apprg1 -y Auto_start_on_new_cluster=False |
アプリケーションリソースグループは、この保護グループ外のリソースグループおよびリソースと依存関係があってはいけません。依存関係を共有する複数のアプリケーションリソースグループを追加するには、それらのアプリケーションリソースグループを単一の操作で保護グループに追加する必要があります。アプリケーションリソースグループを個別に追加した場合、その処理は失敗します。
保護グループは有効でも無効でもかまいません。また、リソースグループは Online または Unmanaged のどちらでもかまいません。
保護グループの構成が変更されたあと、リソースグループが Unmanaged で保護グループが Active の場合、保護グループのローカル状態は Degraded になります。
追加するリソースグループが Online で保護グループが無効である場合、要求は拒否されます。有効なリソースグループを追加する前に、保護グループを有効にする必要があります。
クラスタノードの 1 つにログインします。
この手順を行うには、Geo Management RBAC 権利プロファイルがユーザーに割り当てられている必要があります。RBAC の詳細は、『Sun Cluster Geographic Edition のシステム管理』の「Sun Cluster Geographic Edition ソフトウェアと RBAC」を参照してください。
保護グループにアプリケーションリソースグループを追加します。
このコマンドは、ローカルクラスタ上の保護グループにアプリケーションリソースグループを追加します。このコマンドは次に、パートナークラスタに同じ名前の保護グループが含まれている場合、新しい構成情報をパートナークラスタに伝達します。
# geopg add-resource-group resourcegrouplist protectiongroup |
アプリケーションリソースグループの名前を指定します。
リソースグループは、コンマで区切って複数指定できます。
保護グループの名前を指定します。
Sun Cluster Geographic Edition ソフトウェアでサポートされる名前と値の詳細は、『Sun Cluster Geographic Edition のシステム管理』の付録 B「Sun Cluster Geographic Edition エンティティーに使用できる名前と値」を参照してください。
ローカルクラスタで追加操作が失敗した場合、保護グループの構成は変更されません。成功した場合、Configuration 状態はローカルクラスタで OK に設定されます。
ローカルクラスタの Configuration 状態が OK になっていても、パートナークラスタ上で追加操作に失敗した場合、パートナークラスタの Configuration 状態は Error に設定されます。
保護グループに追加されたアプリケーションリソースグループは、保護グループのエンティティーとして管理されます。この結果、このアプリケーションリソースグループは、保護グループの起動、停止、スイッチオーバー、テイクオーバーなどの操作の影響を受けます。
この例では、2 つのアプリケーションリソースグループ apprg1 と apprg2 を tcpg に追加します。
# geopg add-resource-group apprg1,apprg2 tcpg |
アプリケーションリソースグループの状態または内容を変更することなく、保護グループからアプリケーションリソースグループを削除できます。
次の条件が満たされているか確認します。
保護グループがローカルクラスタで定義されている。
削除するリソースグループが、保護グループのアプリケーションリソースグループに属している。たとえば、データ複製管理エンティティーに属するリソースグループは除去できません。
クラスタノードの 1 つにログインします。
この手順を行うには、Geo Management RBAC 権利プロファイルがユーザーに割り当てられている必要があります。RBAC の詳細は、『Sun Cluster Geographic Edition のシステム管理』の「Sun Cluster Geographic Edition ソフトウェアと RBAC」を参照してください。
保護グループからアプリケーションリソースグループを除去します。
このコマンドは、ローカルクラスタ上の保護グループからアプリケーションリソースグループを除去します。このコマンドは次に、パートナークラスタに同じ名前の保護グループが含まれている場合、パートナークラスタ上の保護グループからアプリケーションリソースグループを除去します。
# geopg remove-resource-group resourcegrouplist protectiongroup |
アプリケーションリソースグループの名前を指定します。
リソースグループは、コンマで区切って複数指定できます。
保護グループの名前を指定します。
ローカルクラスタで除去操作が失敗した場合、保護グループの構成は変更されません。成功した場合、Configuration 状態はローカルクラスタで OK に設定されます。
ローカルクラスタ上で Configuration 状態が OK になっていても、パートナークラスタ上で除去操作に失敗した場合、パートナークラスタ上の Configuration 状態が Error に設定されます。
この例では、2 つのアプリケーションリソースグループ apprg1 と apprg2 を tcpg から削除します。
# geopg remove-resource-group apprg1,apprg2 tcpg |
この節では、Hitachi TrueCopy データ複製デバイスグループを管理する方法について説明します。内容は次のとおりです。
Hitachi TrueCopy データ複製保護グループの構成についての詳細は、「Hitachi TrueCopy 保護グループを作成および構成する (Oracle Real Application Clusters を使用しない場合)」を参照してください。
クラスタノードの 1 つにログインします。
この手順を行うには、Geo Management RBAC 権利プロファイルがユーザーに割り当てられている必要があります。RBAC の詳細は、『Sun Cluster Geographic Edition のシステム管理』の「Sun Cluster Geographic Edition ソフトウェアと RBAC」を参照してください。
保護グループ内にデータ複製デバイスグループを作成します。
このコマンドは、ローカルクラスタ上の保護グループにデバイスグループを追加します。そして、パートナークラスタに同じ名前の保護グループが含まれている場合、その新しい構成をパートナークラスタに伝達します。
# geopg add-device-group -p property [-p...] devicegroupname protectiongroupname |
データ複製デバイスグループのプロパティーを指定します。
デバイスグループによって使用されるフェンスレベルを定義する Fence_level プロパティーを指定できます。フェンスレベルにより、そのデバイスグループの主ボリュームと二次ボリューム間の整合性のレベルが決定されます。
このプロパティーを data、status、 never、または asyncに設定できます。Fence_level を never または async に設定した場合、二次クラスタに障害が発生したあとでも、アプリケーションは主クラスタに書き込みを続けることができます。しかし、Fence_level プロパティーを data または status に設定した場合は、次のような理由で二次クラスタが利用できないため、主クラスタのアプリケーションに障害が発生する可能性があります。
データ複製リンクに失敗した
二次クラスタとストレージが停止している
二次クラスタのストレージが停止している
主クラスタにおけるアプリケーション停止を防ぐには、Fence_level を never または async に指定します。
never の Fence_level を指定した場合、テイクオーバーを実行したあと、データ複製ロールが変わりません。
data または status の Fence_level を使用する特別なニーズがある場合は、ご購入先に問い合わせてください。
さまざまなフェンスレベルに関連したアプリケーションエラーの詳細は、『Sun StorEdge SE 9900 V Series Command and Control Interface User and Reference Guide』を参照してください。
ほかにどのようなプロパティーが指定できるかは、使用しているデータ複製の種類によって異なります。これらのプロパティーについての詳細は、『Sun Cluster Geographic Edition のシステム管理』の付録 A「Sun Cluster Geographic Edition の標準プロパティー」を参照してください。
新しいデータ複製デバイスグループの名前を指定します。
新しいデータ複製デバイスグループを追加する保護グループの名前を指定します。
Sun Cluster Geographic Edition ソフトウェアでサポートされる名前と値の詳細は、『Sun Cluster Geographic Edition のシステム管理』の付録 B「Sun Cluster Geographic Edition エンティティーに使用できる名前と値」を参照してください。
geopg コマンドの詳細は、geopg(1M) のマニュアルページを参照してください。
|
この例では、tcpg 保護グループに Hitachi TrueCopy データ複製デバイスグループを作成します。
# geopg add-device-group -p Fence_level=data devgroup1 tcpg |
/etc/horcm.conf ファイルで dev_group として構成されている Hitachi TrueCopy デバイスグループを保護グループに追加するとき、データ複製層は次の検証を行います。
保護グループの Nodelist プロパティーで指定されている 1 つ以上のノードで horcmd デーモンが動作しているかどうかを検証します。
horcmd デーモンについての詳細は、『Sun StorEdge SE 9900 V Series Command and Control Interface User and Reference Guide』を参照してください。
Nodelist プロパティーに指定されているすべてのノードからストレージデバイスへのパスが存在しているかどうかを検査します。このストレージデバイスが新しい Hitachi TrueCopy デバイスグループを制御します。
次の表に、geopg add-device-group コマンドに指定された Hitachi TrueCopy デバイスグループプロパティーを検証する方法を示します。
Hitachi TrueCopy デバイスグループプロパティー |
検証 |
---|---|
devicegroupname |
指定された Hitachi TrueCopy デバイスグループが Nodelist プロパティーに指定されているすべてのクラスタノードで構成されているかどうかを検査します。 |
Fence_level |
この Hitachi TrueCopy デバイスグループ用にペアがすでに確立されている場合、データ複製層は、指定された Fence_level がすでに確立されているフェンスレベルと一致するかどうかを検査します。 ペアがまだ確立されていない場合 (ペアが SMPL 状態のときなど) は、どの Fence_level でも受け入れられます。 |
Hitachi TrueCopy デバイスグループが保護グループに追加されるとき、このコマンドによって、Sun Cluster リソースが自動的に作成されます。このリソースはデータ複製を監視します。リソースの名前は、r-tc-protectiongroupname -devicegroupname です。このリソースは、対応する Sun Cluster リソースグループに置かれます。このリソースグループの名前は、rg-tc-protectiongroupname です。
これらの複製リソースを Sun Cluster コマンドで変更する場合は注意する必要があります。これらのリソースは内部実装専用です。
検証のため、Sun Cluster Geographic Edition は各 Hitachi TrueCopy デバイスグループに、そのペアの現在の状態に従った状態を与えます。この状態は、pairvolchk -g <DG> -ss コマンドで返されます。
この節の残りの部分では、個々のデバイスグループ状態と、保護グループのローカルな役割に照らしてこれらの状態を検証する方法について説明します。
個々の Hitachi TrueCopy デバイスグループは、次に示す状態のいずれかになります。
SMPL
Regular Primary
Regular Secondary
Takeover Primary
Takeover Secondary
特定のデバイスグループの状態を判断するには、pairvolchk -g <DG> -ss コマンドで返される値を使用します。次の表に、pairvolchk コマンドで返される値に関連付けられたデバイスグループ状態を示します。
表 2–1 個々の Hitachi TrueCopy デバイスグループ状態
pairvolchk の出力 |
個々のデバイスグループ状態 |
---|---|
11 = SMPL |
SMPL |
22 / 42 = PVOL_COPY 23 / 42 = PVOL_PAIR 26 / 46 = PVOL_PDUB 47 = PVOL_PFUL 48 = PVOL_PFUS |
Regular Primary |
24 / 44 = PVOL_PSUS 25 / 45 = PVOL_PSUE これらの戻りコードで個々のデバイスグループのカテゴリを判断するためには、リモートクラスタの horcmd プロセスをアクティブにし、該当するデバイスグループの remote-pair-state 取得できるようにする必要があります。 |
Regular Primary (remote-cluster-state !=SSWS の場合) または Takeover Secondary (remote-cluster-state == SSWS の場合) SSWS (pairdisplay -g <DG> -fc コマンドを使用する場合)。 |
32 / 52 = SVOL_COPY 33 / 53 = SVOL_PAIR 35 / 55 = SVOL_PSUE 36 / 56 = SVOL_PDUB 57 = SVOL_PFUL 58 = SVOL_PFUS |
Regular Secondary |
34 / 54 = SVOL_PSUS |
Regular Secondary (local-cluster-state !=SSWS の場合) または Takeover Primary (local-cluster-state == SSWS の場合) SSWS (pairdisplay -g <DG> -fc コマンドを使用する場合)。 |
保護グループに Hitachi TrueCopy デバイスグループ 1 つだけが含まれている場合、全体的なデバイスグループ状態は個々のデバイスグループ状態と同じです。
次の表に、保護グループに複数の Hitachi TrueCopy デバイスグループが含まれているときに、全体的なデバイスグループ状態を取得する方法を示します。
表 2–2 全体的なデバイスグループ状態を判断する条件
条件 |
全体的なデバイスグループ状態 |
---|---|
個々のデバイスグループ状態がすべて SMPL である場合 |
SMPL |
個々のデバイスグループ状態がすべて Regular Primary または SMPL である場合 |
Regular Primary |
個々のデバイスグループ状態がすべて Regular Secondary または SMPL である場合 |
Regular Secondary |
個々のデバイスグループ状態がすべて Takeover Primary または SMPL である場合 |
Takeover Primary |
個々のデバイスグループ状態がすべて Takeover Secondary または SMPL である場合 |
Takeover Secondary |
個々のデバイスグループ状態のほかのどんな組み合わせでも全体的なデバイスグループ状態を取得できません。これは、ペア状態検証エラーとみなされます。
次の表に、全体的なデバイスグループ状態に照らして Hitachi TrueCopy 保護グループのローカルな役割を検証する方法を示します。
表 2–3 保護グループのローカルな役割に照らして全体的なデバイスグループ状態を検証する
全体的なデバイスグループ状態 |
保護グループの有効なローカルな役割 |
---|---|
SMPL |
primary または secondary |
Regular Primary |
primary |
Regular Secondary |
secondary |
Takeover Primary |
primary |
Takeover Secondary |
secondary |
この例では、Hitachi TrueCopy デバイスグループが属する Hitachi TrueCopy 保護グループの役割に照らしてこのデバイスグループの状態を検証します。
まず、次のように、保護グループを作成します。
phys-paris-1# geopg create -s paris-newyork-ps -o primary -d truecopy tcpg |
次のように、デバイスグループ devgroup1 を保護グループ tcpg に追加します。
phys-paris-1# geopg add-device-group -p fence_level=async devgroup1 tcpg |
Hitachi TrueCopy デバイスグループ devgroup1 の現在の状態は、pairdisplay コマンドの出力に示されます。
phys-paris-1# pairdisplay -g devgroup1 Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M devgroup1 pair1(L) (CL1-A , 0, 1) 12345 1..P-VOL PAIR ASYNC,54321 609 - devgroup1 pair1(R) (CL1-C , 0, 20)54321 609..S-VOL PAIR ASYNC,----- 1 - devgroup1 pair2(L) (CL1-A , 0, 2) 12345 2..P-VOL PAIR ASYNC,54321 610 - devgroup1 pair2(R) (CL1-C , 0,21) 54321 610..S-VOL PAIR ASYNC,----- 2 - |
pairvolchk -g <DG> -ss コマンドを実行すると、値 23 が戻ります。
phys-paris-1# pairvolchk -g devgroup1 -ss parivolchk : Volstat is P-VOL.[status = PAIR fence = ASYNC] phys-paris-1# echo $? 23 |
pairvolchk コマンドの出力は 23 です。これは、表 2–1 内で、Regular Primary の個々のデバイスグループ状態に対応します。保護グループにはデバイスグループが 1 つだけ含まれているため、全体的なデバイスグループ状態は個々のデバイスグループ状態と同じです。-o オプションで指定した保護グループのローカルな役割は、表 2–3 からわかるように primary です。このため、このデバイスグループ状態は有効です。
クラスタノードの 1 つにログインします。
この手順を行うには、Geo Management RBAC 権利プロファイルがユーザーに割り当てられている必要があります。RBAC の詳細は、『Sun Cluster Geographic Edition のシステム管理』の「Sun Cluster Geographic Edition ソフトウェアと RBAC」を参照してください。
デバイスグループを変更します。
このコマンドは、ローカルクラスタ上の保護グループに存在するデバイスグループのプロパティーを変更します。このコマンドは次に、パートナークラスタに同じ名前の保護グループが含まれている場合、新しい構成をパートナークラスタに伝達します。
# geopg modify-device-group -p property [-p...] \ TCdevicegroupname protectiongroupname |
データ複製デバイスグループのプロパティーを指定します。
設定できるプロパティーの詳細は、『Sun Cluster Geographic Edition のシステム管理』の付録 A「Sun Cluster Geographic Edition の標準プロパティー」を参照してください。
新しいデータ複製デバイスグループの名前を指定します。
新しいデータ複製デバイスグループを追加する保護グループの名前を指定します。
この例では、Hitachi TrueCopy 保護グループの一部であるデータ複製デバイスグループのプロパティーを変更します。
# geopg modify-device-group -p fence_level=async tcdg tcpg |
保護グループにデータ複製デバイスグループを追加した場合、保護グループからそのデータ複製デバイスグループを削除することがあります。通常、ディスクセットに書き込むようにアプリケーションを構成したあとでそのディスクを変更することはありません。
データ複製デバイスグループを削除しても、複製は停止せず、またデータ複製デバイスグループの複製状態は変更されません。
保護グループを削除する方法については、「Hitachi TrueCopy 保護グループを削除する方法」を参照してください。保護グループからアプリケーションリソースグループを削除する方法については、「Hitachi TrueCopy 保護グループからアプリケーションリソースグループを削除する方法」を参照してください。
クラスタノードの 1 つにログインします。
この手順を行うには、Geo Management RBAC 権利プロファイルがユーザーに割り当てられている必要があります。RBAC の詳細は、『Sun Cluster Geographic Edition のシステム管理』の「Sun Cluster Geographic Edition ソフトウェアと RBAC」を参照してください。
デバイスグループを除去します。
このコマンドは、ローカルクラスタ上の保護グループからデバイスグループを除去します。このコマンドは次に、パートナークラスタに同じ名前の保護グループが含まれている場合、新しい構成をパートナークラスタに伝達します。
# geopg remove-device-group devicegroupname protectiongroupname |
データ複製デバイスグループの名前を指定します
保護グループの名前を指定します
Hitachi TrueCopy 保護グループからデバイスグループが削除されるとき、対応する Sun Cluster リソース r-tc-protectiongroupname-devicegroupname が複製リソースグループから除去されます。結果として、それ以降、削除されたデバイスグループは監視されません。リソースグループは、保護グループが削除されるときに除去されます。
この例では、Hitachi TrueCopy データ複製デバイスグループを削除します。
# geopg remove-device-group tcdg tcpg |
主クラスタと二次クラスタ上のデータ複製、リソースグループ、およびリソースを構成して終わると、保護グループの構成を二次クラスタに複製できます。
Hitachi TrueCopy 保護グループの構成を二次クラスタに複製する前に、次の条件が満たされていることを確認します。
保護グループが (ローカルクラスタ上ではなく) リモートクラスタで定義されている。
リモートクラスタ上の保護グループ内に存在するデバイスグループがローカルクラスタに存在している。
リモートクラスタ上の保護グループ内に存在するアプリケーションリソースグループがローカルクラスタに存在している。
リソースグループの Auto_start_on_new_cluster プロパティーが False に設定されている。このプロパティーは、scrgadm コマンドを使用して表示できます。
# scrgadm -pvv -g apprg1 | grep Auto_start_on_new_cluster |
Auto_start_on_new_cluster プロパティーを False に設定することにより、Sun Cluster リソースグループマネージャーが保護グループで自動的にリソースグループを起動するのを防ぐことができます。このため、Sun Cluster Geographic Edition ソフトウェアは再起動後にリモートクラスタと通信して、リモートクラスタが確実に起動して、そのリソースグループの二次クラスタとなるようにします。Sun Cluster Geographic Edition ソフトウェアは、主クラスタではリソースグループを自動的に起動しません。
アプリケーションリソースグループは、保護グループが有効なときに主クラスタでのみオンラインにするようにしてください。
次のように、Auto_start_on_new_cluster プロパティーを False に設定します。
scrgadm -c -g apprg1 -y Auto_start_on_new_cluster=False |
phys-newyork-1 にログインします。
この手順を行うには、Geo Management RBAC 権利プロファイルがユーザーに割り当てられている必要があります。RBAC の詳細は、『Sun Cluster Geographic Edition のシステム管理』の「Sun Cluster Geographic Edition ソフトウェアと RBAC」を参照してください。
phys-newyork-1 は、二次クラスタ上の唯一のノードです。どのノードが phys-newyork-1 かを確認するには、『Sun Cluster Geographic Edition のシステム管理』の「Sun Cluster Geographic Edition クラスタ構成の例」を参照してください。
geopg get コマンドを使用して、保護グループの構成をパートナークラスタに複製します。
このコマンドは、リモートクラスタから保護グループの構成情報を取得して、その保護グループをローカルクラスタ上に作成します。
phys-newyork-1# geopg get -s partnershipname [protectiongroup] |
保護グループ構成情報を取得するべきパートナーシップの名前と、保護グループをローカルに作成するパートナーシップの名前を指定します。
保護グループの名前を指定します。
保護グループを指定しないと、リモートパートナー上の指定されたパートナーシップ内に存在するすべての保護グループがローカルクラスタ上に作成されます。
geopg get コマンドは、Sun Cluster Geographic Edition に関連するエンティティーを複製します。Sun Cluster エンティティーを複製する方法については、『Sun Cluster データサービスの計画と管理 (Solaris OS 版)』の「リソースグループ、リソースタイプ、およびリソースの構成データを複製およびアップグレードする」を参照してください。
この例では、tcpg の構成を cluster-paris から cluster-newyork に複製します。
# rlogin phys-newyork-1 -l root phys-newyork-1# geopg get -s paris-newyork-ps tcpg |
保護グループを有効にすると、その保護グループは構成時に割り当てられた役割を引き受けます。保護グループの構成についての詳細は、「Hitachi TrueCopy 保護グループを作成および構成する (Oracle Real Application Clusters を使用しない場合)」を参照してください。
保護グループは、次のレベルで有効にできます。
グローバルに有効にする – つまり、保護グループが構成されている両方のクラスタで保護グループを有効にします。
主クラスタ上だけを有効にする – 二次クラスタは無効なままです。
二次クラスタ上だけを有効にする – 主クラスタは無効なままです。
一方のクラスタで Hitachi TrueCopy 保護グループを有効にすると、データ複製層に次のような影響が出ます。
保護グループのデータ複製構成が検証されます。検証中、保護グループの現在のローカルな役割が全体的なデバイスグループ状態と比較されます (表 2–3 を参照)。検証が成功した場合、データ複製が開始されます。
保護グループに構成されているデータ複製デバイスグループ上で、データ複製が開始されます。主クラスタと二次クラスタのどちらで保護グループを有効にしたのかは関係ありません。データは常に保護グループのローカルの役割が primary であるクラスタから、保護グループのローカルの役割が secondary であるクラスタに複製されます。
アプリケーションの処理が行われるのは、データ複製が正常に開始されたあとだけです。
保護グループを有効にすると、アプリケーション層に次のような影響が出ます。
主クラスタで保護グループが有効になった場合、保護グループに構成されているアプリケーションリソースグループも起動されます。
二次クラスタで保護グループが有効になった場合、アプリケーションリソースグループは起動されません。
データ複製の開始に使用する Hitachi TrueCopy コマンドは、次の要因によって変わります。
全体的なデバイスグループ状態
保護グループのローカルな役割
現在のペアの状態
次の表に、これらの要因の考えられる組み合わせごとに、データ複製の開始に使用する Hitachi TrueCopy コマンドを示します。コマンド中、dg はデバイスグループ名であり、fl はデバイスグループに構成されたフェンスレベルです。
表 2–4 Hitachi TrueCopy データ複製の開始に使用するコマンド
全体的なデバイスグループ状態 |
保護グループの有効なローカルな役割 |
Hitachi TrueCopy 開始コマンド |
---|---|---|
SMPL |
primary または secondary |
paircreate -vl -g dg -f fl paircreate -vr -g dg -f fl
どちらのコマンドでも、horcmd プロセスがリモートクラスタで起動している必要があります。 |
Regular Primary |
primary |
ローカル状態コードが 22、23、25、26、29、42、43、45、46、または 47 の場合、データがすでに複製されているため、コマンドは実行されません。 ローカル状態コードが 24、44、または 48 の場合は、次のコマンドが実行されます。pairresync -g dg [-l] ローカル状態コードが 11 の場合は、次のコマンドが実行されます。 paircreate -vl -g dg -f fl どちらのコマンドでも、horcmd プロセスがリモートクラスタで起動している必要があります。 |
Regular Secondary |
secondary |
ローカル状態コードが 32、33、35、36、39、52、53、55、56、または 57 の場合、データがすでに複製されているため、コマンドは実行されません。 ローカル状態コードが 34、54、または 58 の場合は、次のコマンドが実行されます。pairresync -g dg ローカル状態コードが 11 の場合は、次のコマンドが実行されます。 paircreate -vr -g dg -f fl どちらのコマンドでも、horcmd プロセスがリモートクラスタで起動している必要があります。 |
Takeover Primary |
primary |
ローカル状態コードが 34 または 54 の場合は、次のコマンドが実行されます。 pairresync -swaps -g ローカル状態コードが 11 の場合は、次のコマンドが実行されます。 paircreate -vl -g dg -f fl paircreate コマンドでは、horcmd プロセスがリモートクラスタで起動している必要があります。 |
Takeover Secondary |
secondary |
ローカル状態コードが 24、44、25、または 45 の場合は、次のコマンドが実行されます。pairresync -swapp -g dg ローカル状態コードが 11 の場合は、次のコマンドが実行されます。 paircreate -vr -g dg -f fl. どちらのコマンドでも、horcmd プロセスがリモートクラスタで起動している必要があります。 |
クラスタノードの 1 つにログインします。
この手順を行うには、Geo Management RBAC 権利プロファイルがユーザーに割り当てられている必要があります。RBAC の詳細は、『Sun Cluster Geographic Edition のシステム管理』の「Sun Cluster Geographic Edition ソフトウェアと RBAC」を参照してください。
保護グループを有効にします。
保護グループを有効にすると、そのアプリケーションリソースグループもオンラインになります。
# geopg start -e scope [-n] protectiongroupname |
コマンドの範囲を指定します。
範囲が Local の場合、このコマンドはローカルクラスタだけを対象に実行されます。範囲が Global の場合、このコマンドは保護グループが配備されている両方のクラスタを対象に実行されます。
Global や Local などのプロパティー値は、大文字と小文字は区別されません。
保護グループを有効にしたときにデータ複製を開始しないようにします。
このオプションを省略した場合、データ複製サブシステムは保護グループと同時に起動されます。
保護グループの名前を指定します。
geopg start コマンドは、scswitch -Z -g resourcegroups コマンドを使用して、リソースグループとリソースをオンラインにします。このコマンドの使用法についての詳細は、scswitch(1M) のマニュアルページを参照してください。
次の例では、データ複製の開始に使用する Hitachi TrueCopy コマンドを Sun Cluster Geographic Edition がどのように決定するかを示します。
まず、Hitachi TrueCopy 保護グループを作成します。
phys-paris-1# geopg create -s paris-newyork-ps -o primary -d truecopy tcpg |
デバイスグループ devgroup1 を保護グループに追加します。
phys-paris-1# geopg add-device-group -p fence_level=async devgroup1 tcpg |
Hitachi TrueCopy デバイスグループ devgroup1 の現在の状態は、pairdisplay コマンドの出力に示されます。
phys-paris-1# pairdisplay -g devgroup1 Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M devgroup1 pair1(L) (CL1-A , 0, 1) 12345 1..SMPL ---- ----, ----- ---- - devgroup1 pair1(R) (CL1-C , 0, 20)54321 609..SMPL ---- ----, ----- ---- - devgroup1 pair2(L) (CL1-A , 0, 2) 12345 2..SMPL ---- ----, ----- ---- - devgroup1 pair2(R) (CL1-C , 0,21) 54321 610..SMPL ---- ----, ----- ---- - |
全体的なデバイスグループ状態は SMPL です。
次に、geopg start コマンドを使用して、保護グループ tcpgを有効にします。
phys-paris-1# geopg start -e local tcpg |
Sun Cluster Geographic Edition ソフトウェアは paircreate -g devgroup1 -vl -f async コマンドをデータ複製レベルで実行します。このコマンドが成功した場合、pairdisplay コマンドの出力に devgroup1 の状態が次のように表示されます。
phys-paris-1# pairdisplay -g devgroup1 Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M devgroup1 pair1(L) (CL1-A , 0, 1) 12345 1..P-VOL COPY ASYNC,54321 609 - devgroup1 pair1(R) (CL1-C , 0, 20)54321 609..S-VOL COPY ASYNC,----- 1 - devgroup1 pair2(L) (CL1-A , 0, 2) 12345 2..P-VOL COPY ASYNC,54321 610 - devgroup1 pair2(R) (CL1-C , 0,21) 54321 610..S-VOL COPY ASYNC,----- 2 - |
この例では、保護グループをグローバルに有効にします。
# geopg start -e global tcpg |
保護グループ tcpg は、保護グループが構成されている両方のクラスタで有効になります。
この例では、保護グループをローカルクラスタでのみ有効にします。このローカルクラスタは、その役割に応じ、主クラスタの場合も二次クラスタの場合もあります。
# geopg start -e local tcpg |
保護グループは、次のレベルでアクティブ化を解除できます。
グローバルに無効にする – つまり、保護グループが構成されている両方のクラスタで保護グループを無効にします
主クラスタだけを無効にする – 二次クラスタは有効なままです。
二次クラスタだけを無効にする – 主クラスタは有効なままです。
一方のクラスタで Hitachi TrueCopy 保護グループを無効にすると、データ複製層に次のような影響が出ます。
保護グループのデータ複製構成が検証されます。検証中、保護グループの現在のローカルの役割が表 2–3で説明した全体的なデバイスグループの状態と比較されます。検証が成功した場合、データ複製が停止されます。
データ複製が停止されるのは、保護グループに構成されているデータ複製デバイスグループです。主クラスタと二次クラスタのどちらで無効にしたのかは関係ありません。
保護グループを無効にすると、アプリケーション層に次のような影響が出ます。
主クラスタで保護グループが無効になった場合、保護グループに構成されているすべてのアプリケーションリソースグループが停止され、管理の対象から外されます。
二次クラスタで保護グループが無効になった場合、二次クラスタのリソースグループは影響を受けません。保護グループに構成されているアプリケーションリソースグループは、主クラスタの有効状態によって、主クラスタで有効なままである場合もあります。
データ複製の停止に使用する Hitachi TrueCopy コマンドは、次の要因によって変わります。
全体的なデバイスグループ状態
保護グループのローカルな役割
現在のペアの状態
次の表に、これらの要因の考えられる組み合わせごとに、データ複製の開始に使用する Hitachi TrueCopy コマンドを示します。コマンド中、dg はデバイスグループ名です。
表 2–5 Hitachi TrueCopy データ複製の停止に使用するコマンド
全体的なデバイスグループ状態 |
保護グループの有効なローカルな役割 |
Hitachi TrueCopy 停止コマンド |
---|---|---|
SMPL |
primary または secondary |
複製されるデータがないため、コマンドは実行されません。 |
Regular Primary |
primary |
ローカル状態コードが 22、23、26、29、42、43、46、または 47 の場合は、次のコマンドが実行されます。pairsplit -g dg [-l]. ローカル状態コードが 11、24、25、44、45、または 48 の場合は、複製されるデータがないため、コマンドは実行されません。 |
Regular Secondary |
secondary |
ローカル状態コードが 32、33、35、36、39、52、53、55、56、または 57 の場合は、次のコマンドが実行されます。pairsplit -g dg . ローカル状態コードが 33 または 53 で、リモート状態が PSUE の場合、複製を停止するコマンドは実行されません。 ローカル状態コードが 11、34、54、または 58 の場合は、複製されるデータがないため、コマンドは実行されません。 |
Takeover Primary |
primary |
複製されるデータがないため、コマンドは実行されません。 |
Takeover Secondary |
secondary |
複製されるデータがないため、コマンドは実行されません。 |
クラスタノードの 1 つにログインします。
この手順を行うには、Geo Management RBAC 権利プロファイルがユーザーに割り当てられている必要があります。RBAC の詳細は、『Sun Cluster Geographic Edition のシステム管理』の「Sun Cluster Geographic Edition ソフトウェアと RBAC」を参照してください。
保護グループを無効にします。
保護グループを無効にすると、そのアプリケーションリソースグループも管理対象から外れます。
# geopg stop -e scope [-D] protectiongroupname |
コマンドの範囲を指定します。
範囲が Local の場合、このコマンドはローカルクラスタだけを対象に実行されます。この範囲が Global の場合、このコマンドは保護グループが配備されている両方のクラスタを対象に実行されます。
Global や Local などのプロパティー値は、大文字と小文字は区別されません。
保護グループをオンラインにしたままデータ複製だけを停止することを指定します。
このオプションを省略した場合、データ複製サブシステムと保護グループは両方とも停止されます。
保護グループの名前を指定します。
この例では、データ複製の停止に使用する Hitachi TrueCopy コマンドを Sun Cluster Geographic Edition ソフトウェアがどのように決定するかを示します。
Hitachi TrueCopy デバイスグループ devgroup1 の現在の状態は、pairdisplay コマンドの出力に示されます。
phys-paris-1# pairdisplay -g devgroup1 Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M devgroup1 pair1(L) (CL1-A , 0, 1) 12345 1..P-VOL PAIR ASYNC,54321 609 - devgroup1 pair1(R) (CL1-C , 0, 20)54321 609..S-VOL PAIR ASYNC,----- 1 - devgroup1 pair2(L) (CL1-A , 0, 2) 12345 2..P-VOL PAIR ASYNC,54321 610 - devgroup1 pair2(R) (CL1-C , 0,21) 54321 610..S-VOL PAIR ASYNC,----- 2 - |
デバイスグループ devgroup1 を保護グループに追加します。
phys-paris-1# geopg add-device-group -p fence_level=async devgroup1 tcpg |
Sun Cluster Geographic Edition ソフトウェアは pairvolchk -g <DG> -ss コマンドをデータ複製レベルで実行します。そして、値 43 を返します。
pairvolchk -g devgroup1 -ss Volstat is P-VOL.[status = PAIR fence = ASYNC] phys-paris-1# echo $? 43 |
次に、geopg stop コマンドを使用して、保護グループ tcpgを無効にします。
phys-paris-1# geopg stop -s local tcpg |
Sun Cluster Geographic Edition ソフトウェアは pairsplit -g devgroup1 コマンドをデータ複製レベルで実行します。
このコマンドが成功した場合、pairdisplay コマンドの出力に devgroup1 の状態が次のように表示されます。
phys-paris-1# pairdisplay -g devgroup1 Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M devgroup1 pair1(L) (CL1-A , 0, 1) 12345 1..P-VOL PSUS ASYNC,54321 609 - devgroup1 pair1(R) (CL1-C , 0, 20)54321 609..S-VOL SSUS ASYNC,----- 1 - devgroup1 pair2(L) (CL1-A , 0, 2) 12345 2..P-VOL PSUS ASYNC,54321 610 - devgroup1 pair2(R) (CL1-C , 0,21) 54321 610..S-VOL SSUS ASYNC,----- 2 - |
この例では、保護グループをすべてのクラスタで無効にします。
# geopg stop -e global tcpg |
この例では、保護グループをローカルクラスタで無効にします。
# geopg stop -e local tcpg |
この例では、ローカルクラスタでデータの複製のみを停止します。
# geopg stop -e local -D tcpg |
このコマンドを実行したあと、保護グループとその基盤であるデータ複製サブシステムの両方を無効にすることを管理者が決定した場合、-D オプションを指定せずにこのコマンドをもう一度実行できます。
# geopg stop -e local tcpg |
この例では、2 つのアプリケーションリソースグループ apprg1 と apprg2 をオンラインにしたまま両方のクラスタ上の保護グループ tcpg を無効にします。
保護グループからアプリケーションリソースグループを除去します。
# geopg remove-resource-group apprg1,apprg2 tcpg |
保護グループを無効にします。
# geopg stop -e global tcpg |
ローカル保護グループの構成情報は、パートナークラスタから取得した構成情報と再同期させることができます。保護グループを再同期させる必要があるのは、geoadm status コマンドを実行した結果、保護グループの Synchronization 状態が Error になっている場合です。
たとえば、クラスタの起動後に保護グループの再同期が必要となることがあります。詳細は、『Sun Cluster Geographic Edition のシステム管理』の「クラスタの起動」を参照してください。
保護グループを再同期させると、Sun Cluster Geographic Edition ソフトウェアに関連するエンティティーだけが更新されます。Sun Cluster エンティティーを更新する方法については、『Sun Cluster データサービスの計画と管理 (Solaris OS 版)』の「 リソースグループ、リソースタイプ、およびリソースの構成データを複製およびアップグレードする」を参照してください。
geopg update コマンドを実行するクラスタでは、保護グループを無効にする必要があります。保護グループを無効にする方法については、「Hitachi TrueCopy 保護グループの無効化」を参照してください。
クラスタノードの 1 つにログインします。
この手順を行うには、Geo Management RBAC 権利プロファイルがユーザーに割り当てられている必要があります。RBAC の詳細は、『Sun Cluster Geographic Edition のシステム管理』の「Sun Cluster Geographic Edition ソフトウェアと RBAC」を参照してください。
保護グループを再同期させます。
# geopg update protectiongroupname |
保護グループの名前を指定します
この例では、保護グループを再同期します。
# geopg update tcpg |
複製の状態は、全体的な状態も、Hitachi TrueCopy 複製リソースグループの詳しい実行時状態も取得できます。この節では、各状態を検査する手順について説明します。
各 Hitachi TrueCopy データ複製リソースの状態は、特定のデバイスグループにおける複製の状態を示します。保護グループ内のすべてのリソースの状態は、複製状態としてまとめられます。この複製状態は、保護グループ状態の 2 つ目の構成要素です。保護グループの状態についての詳細は、『Sun Cluster Geographic Edition のシステム管理』の「Sun Cluster Geographic Edition ソフトウェアの実行時状態の監視」を参照してください。
複製の全体的な状態を確認するには、次の手順で説明している方法で保護グループの状態を表示します。
保護グループが定義されているクラスタのノードの 1 つにアクセスします。
この手順を行うには、Basic Solaris User RBAC 権利プロファイルがユーザーに割り当てられている必要があります。RBAC の詳細は、『Sun Cluster Geographic Edition のシステム管理』の「Sun Cluster Geographic Edition ソフトウェアと RBAC」を参照してください。
複製の実行時状態を検査します。
# geoadm status |
複製情報の出力の保護グループセクションを参照してください。このコマンドで表示される情報は次のとおりです。
ローカルクラスタがパートナーシップに参加できるように有効になっているかどうか
ローカルクラスタがパートナーシップに参加しているかどうか
ハートビート構成の状態
定義されている保護グループの状態
現在進行しているトランザクションの状態
Hitachi TrueCopy デバイスグループごとに、データ複製の実行時状態を検査します。
# scstat -g |
検査するデータ複製デバイスグループの Status フィールドと Status Message フィールドを参照してください。
これらのフィールドについては、表 2–6 を参照してください。
Sun Cluster Geographic Edition ソフトウェアは内部的に、保護グループごとに複製リソースグループを 1 つ作成し、保持します。複製リソースグループの名前の書式は次のとおりです。
rg-tc_truecopyprotectiongroupname |
保護グループに Hitachi TrueCopy デバイスグループを追加する場合、Sun Cluster Geographic Edition ソフトウェアはデバイスグループごとにリソースを 1 つ作成します。このリソースは、そのデバイスグループの複製の状態を監視します。各リソースの名前の書式は次のとおりです。
r-tc-truecopyprotectiongroupname-truecopydevicegroupname |
このデバイスグループの複製の状態は、このリソースの Status と Status Message を確認することで監視できます。scstat -g コマンドを使用して、リソースの状態および状態メッセージを表示します。
次の表に、Hitachi TrueCopy 複製リソースグループの State が Online のときに、 scstat -g コマンドが返す Status と Status Message の値を示します。
表 2–6 Hitachi TrueCopy 複製リソースグループがオンラインになっているときの状態と状態メッセージ
状態 |
状態メッセージ |
---|---|
オンライン |
P-Vol/S-Vol:PAIR |
オンライン |
P-Vol/S-Vol:PAIR:Remote horcmd not reachable |
オンライン |
P-Vol/S-Vol:PFUL |
オンライン |
P-Vol/S-Vol:PFUL:Remote horcmd not reachable |
縮退 |
SMPL:SMPL |
縮退 |
SMPL:SMPL:Remote horcmd not reachable |
縮退 |
P-Vol/S-Vol:COPY |
縮退 |
P-Vol/S-Vol:COPY:Remote horcmd not reachable |
縮退 |
P-Vol/S-Vol:PSUS |
縮退 |
P-Vol/S-Vol:PSUS:Remote horcmd not reachable |
縮退 |
P-Vol/S-Vol:PFUS |
縮退 |
P-Vol/S-Vol:PFUS:Remote horcmd not reachable |
障害発生 |
P-Vol/S-Vol:PDFUB |
障害発生 |
P-Vol/S-Vol:PDUB:Remote horcmd not reachable |
障害発生 |
P-Vol/S-Vol:PSUE |
障害発生 |
P-Vol/S-Vol:PSUE:Remote horcmd not reachable |
縮退 |
S-Vol:SSWS:Takeover Volumes |
障害発生 |
P-Vol/S-Vol:Suspicious role configuration. Actual Role=x, Config Role=y |
これらの値についての詳細は、Hitachi TrueCopy のマニュアルを参照してください。
scstat コマンドの詳細は、scstat(1M) のマニュアルページを参照してください。