データ複製中、主クラスタのデータはバックアップクラスタまたは二次クラスタにコピーされます。二次クラスタは、主クラスタから地理的に離れていてもかまいません。この距離は、使用しているデータ複製製品がサポートする距離に依存します。
Sun Cluster Geographic Edition ソフトウェアは、Hitachi TrueCopy ソフトウェアによるデータ複製をサポートします。Hitachi TrueCopy ソフトウェアを使用してデータの複製を開始するためには、Hitachi TrueCopy のマニュアルによく目を通し、Hitachi TrueCopy 製品と最新の Hitachi TrueCopy パッチを、使用しているシステムにインストールする必要があります。Hitachi TrueCopy ソフトウェアのインストール方法については、Hitachi TrueCopy 製品のマニュアルを参照してください。
この章では、Hitachi TrueCopy ソフトウェアを使用して、データ複製を構成する手順と管理する手順を示します。この章は、次の節で構成されます。
データ複製デバイスグループを作成する方法と削除する方法については、「Hitachi TrueCopy データ複製デバイスグループの管理」を参照してください。複製のグローバルな実行時状態と詳細な実行時状態を取得する方法については、「Hitachi TrueCopy データ複製の実行時状態の検査」を参照してください。
この節では、保護グループにおける Hitachi TrueCopy データ複製を構成する手順を要約します。
表 1–1 Hitachi TrueCopy データ複製の管理作業
作業 |
説明 |
|
---|---|---|
構成要件とガイドランを検討し、Hitachi TrueCopy ソフトウェアの初期構成を実行します。 |
「Hitachi TrueCopy ソフトウェアの初期構成」を参照してください。 |
|
Hitachi TrueCopy データ複製が行えるように構成する保護グループを作成します。 |
「Hitachi TrueCopy 保護グループを作成および構成する方法 (Oracle Real Application Clusters を使用しない場合)」 または 「Oracle Real Application Clusters の保護グループを作成する方法」を参照してください。 |
|
Hitachi TrueCopy が制御するデバイスグループを追加します。 | ||
保護グループにアプリケーションリソースグループを追加します。 | ||
保護グループの構成を二次クラスタに複製します。 | ||
設定を検証するため、構成済みのパートナーシップと保護グループをテストします。 |
スイッチオーバーまたはテイクオーバーを試しに実行し、単純な障害状況を予想したテストを実施します。第 3 章「Hitachi TrueCopy データ複製を使用するサービスの移行」を参照してください。 |
|
保護グループを有効にします。 |
「Hitachi TrueCopy 保護グループを有効にする方法」を参照してください。 |
|
複製の実行時状態を検査します。 |
「Hitachi TrueCopy データ複製の実行時状態の検査」を参照してください。 |
|
障害を検出します。 | ||
スイッチオーバーを使用してサービスを移行します。 | ||
テイクオーバーを使用してサービスを移行します。 | ||
テイクオーバーの強制実行のあと、データを回復します | ||
データ複製エラーを検出し、エラーから回復します。 |
「Hitachi TrueCopy データ複製エラーからの回復」を参照してください。 |
この節では、主クラスタおよび二次クラスタ上の Hitachi TrueCopy ソフトウェアを構成する方法について説明します。また、Hitachi TrueCopy 保護グループを作成するための前提条件についても説明します。この節では、次の内容について説明します。
主クラスタと二次クラスタの初期構成では、次のような作業を行います。
必要な数のディスクによる Hitachi TrueCopy デバイスグループ devgroup1 の構成
raw ディスクデバイスグループを使用している場合は、raw ディスクグループ rawdg の構成
VERITAS Volume Manager を使用している場合:
VERITAS Volume Manager ディスクグループ oradg1 の構成
VERITAS Volume Manager ボリューム vol1 の構成
VERITAS Volume Manager ディスクグループ oradg1 の Sun Cluster デバイスグループの構成
ファイルシステムの構成。この手順には、ファイルシステムの作成、マウントポイントの作成、および、/etc/vfstab ファイルへのエントリの追加が含まれます
アプリケーションリソースグループ apprg1 の作成。このリソースグループには、HAStoragePlus リソースが含まれます
次に示す要件とガイドラインを確認してください。
ストレージベースの複製を使用している場合は、複製されたボリュームを定足数デバイスとして構成しないでください。Sun Cluster Geographic Edition ソフトウェアは、Hitachi TrueCopy S-VOL と Command Device を Sun Cluster 定足数デバイスとして使用することはサポートしていません。詳細は、『Sun Cluster System Administration Guide for Solaris OS』の「Using Storage-Based Data Replication」を参照してください。
Hitachi TrueCopy Command Control Interface (CCI) を使用してデータを複製する場合は、RAID Manager を使用する必要があります。どのバージョンを使用するべきかについては、『Sun Cluster Geographic Edition のインストール』を参照してください。
このモデルでは、Sun StorEdgeTM 9970/9980 Array または Hitachi Lightning 9900 Series Storage を使用する特定のハードウェア構成を必要とします。現在サポートされている Sun Cluster 構成については、Sun のサポートセンターに問い合わせてください。
I/O 整合性の要件があるデバイスペアは、同一のデバイスグループに属している必要があります。
Sun Cluster Geographic Edition ソフトウェアが管理する Hitachi TrueCopy デバイスグループは、システム上の他の Hitachi TrueCopy デバイスグループと同じ CTGID を共有できません。
Sun Cluster Geographic Edition ソフトウェアは、Hitachi TrueCopy デバイスの管理にデフォルトの CCI インスタンスを使用します。Sun Cluster Geographic Edition ソフトウェアは、TrueCopy デバイスグループが Sun Cluster Geographic Edition ソフトウェアによって管理されるといつでもデフォルトの CCI インスタンスを開始します。Sun Cluster Geographic Edition ソフトウェアが管理していないアプリケーションも、Sun Cluster Geographic Edition やアプリケーションプロセスまたはデータを危険にさらすことなく、デフォルトの CCI インスタンスや他の任意のインスタンスを使用することができます。
Sun Cluster Geographic Edition ソフトウェアは、Sun Cluster ソフトウェアがサポートするハードウェア構成をサポートします。現在サポートされている Sun Cluster 構成については、Sun のサポートセンターに問い合わせてください。
この節では、Sun Cluster Geographic Edition ソフトウェアに Hitachi TrueCopy データ複製を構成する前に、主クラスタで実行しておく必要がある手順について説明します。各手順を例示するために、この節では d1 と d2 という 2 つのディスク (LUN) を使用します。これらのディスクは、apprg1 というアプリケーション用のデータを保持している Hitachi TrueCopy アレイにあります。
Hitachi ディスクアレイにアクセス権を持つクラスタの各ノード上の /etc/horcm.conf ファイルを編集して、主クラスタの共有ディスク上で Hitachi TrueCopy デバイスグループを構成します。ディスク d1 と d2 は、devgroup1 という Hitachi TrueCopy デバイスグループに属するように構成します。アプリケーション apprg1 は、Hitachi TrueCopy デバイスグループを構成したすべてのノード上で実行できます。
/etc/horcm.conf ファイルの構成方法の詳細は、『Sun StorEdge SE 9900 V Series Command and Control Interface User and Reference Guide 』を参照してください。
次の表に、この例で使用する/etc/horcm.conf ファイルの構成情報を示します。
表 1–2 主クラスタの /etc/horcm.conf ファイルのセクション例
dev_group |
dev_name |
port number |
TargetID |
LU number |
MU number |
devgroup1 |
pair1 |
CL1–A |
0 |
1 | |
devgroup1 |
pair2 |
CL1–A |
0 |
2 |
この表にある構成情報は、Hitachi TrueCopy デバイスグループ devgroup1 には 2 つのペアが含まれていることを示しています。1 番目のペアは pair1 で、d1 ディスクにあります (<CL1–A , 0, 1> という組からわかります)。2 番目のペアは pair2 で、d2 ディスクにあります (<CL1–A, 0, 2> という組からわかります)。ディスク d1 と d2 の複製は、地理的に離れた Hitachi TrueCopy アレイにあります。リモートの Hitachi TrueCopy はパートナークラスタに接続されています。
Sun Cluster Geographic Edition では、各種のボリュームマネージャーに加えて raw ディスクデバイスグループの使用がサポートされています。Sun Cluster を最初に構成する際、クラスタ内の raw デバイスごとにデバイスグループが自動的に構成されます。ここで説明する手順を使用して、これらの自動作成されたデバイスグループを Sun Cluster Geographic Edition で使用できるように再構成します。
使用する各デバイスについて、定義済みのデバイスグループの構成を解除します。
次のコマンドは、d7 および d8 に対する定義済みのデバイスグループを除去します。
phys-paris-1# cldevicegroup disable dsk/d7 dsk/d8 phys-paris-1# cldevicegroup offline dsk/d7 dsk/d8 phys-paris-1# cldevicegroup delete dsk/d7 dsk/d8 |
必要なデバイスを含む、新しい raw ディスクデバイスグループを作成します。
新しい DID にスラッシュが含まれていないことを確認します。次のコマンドで、d7 と d8 を含むグローバルデバイスグループ rawdg を作成します。
phys-paris-1# cldevicegroup create -n phys-paris-1,phys-paris-2 \ -t rawdisk -d d7,d8 rawdg |
次のコマンドは、主クラスタ上でのデバイスグループの構成、パートナークラスタ上での同一デバイスグループの構成、および Hitachi TrueCopy 保護グループへのグループの追加を示しています。
自動的に作成されたデバイスグループを主クラスタから削除します。 phys-paris-1# cldevicegroup disable dsk/d7 dsk/d8 phys-paris-1# cldevicegroup offline dsk/d7 dsk/d8 phys-paris-1# cldevicegroup delete dsk/d7 dsk/d8 主クラスタに raw ディスクデバイスグループを作成します。 phys-paris-1# cldevicegroup create -n phys-paris-1,phys-paris-2 \ -t rawdisk -d d7,d8 rawdg 自動的に作成されたデバイスグループをパートナークラスタから削除します。 phys-newyork-1# cldevicegroup disable dsk/d5 dsk/d6 phys-newyork-1# cldevicegroup offline dsk/d5 dsk/d6 phys-newyork-1# cldevicegroup delete dsk/d5 dsk/d6 パートナークラスタに raw ディスクデバイスグループを作成します。 phys-newyork-1# cldevicegroup create -n phys-newyork-1,phys-newyork-2 \ -t rawdisk -d d5,d6 rawdg raw ディスクデバイスグループを保護グループ rawpg に追加します。 phys-paris-1# geopg create -d truecopy -p Nodelist=phys-paris-1,phys-paris-2 \ -o Primary -p cluster_dgs=rawdg -s paris-newyork-ps rawpg |
パートナークラスタを構成するときに、ここで作成したのと同じ名前の raw ディスクデバイスグループを作成します。このタスクの手順については、「raw ディスクデバイスグループを使用する場合に主クラスタから構成情報を複製する方法」を参照してください。
両方のクラスタでデバイスグループを構成したら、geopg などの Sun Cluster Geographic Edition コマンドで必要な場合にどこででもこのデバイスグループ名を使用できます。
Hitachi TrueCopy は、VERITAS Volume Manager ボリュームおよび raw ディスクデバイスグループをサポートしています。VERITAS Volume Manager を使用している場合、ディスク d1 と d2 で VERITAS Volume Manager ボリュームを構成する必要があります。
ストレージベースの複製を使用している場合は、複製されたボリュームを定足数デバイスとして構成しないでください。Sun Cluster Geographic Edition ソフトウェアは、Hitachi TrueCopy S-VOL と Command Device を Sun Cluster 定足数デバイスとして使用することはサポートしていません。詳細は、『Sun Cluster System Administration Guide for Solaris OS』の「Using Storage-Based Data Replication」を参照してください。
cluster-paris の共有ディスクに VERITAS Volume Manager ディスクグループを作成します。
たとえば、vxdiskadm や vxdg などのコマンドを使用して、ディスク d1 と d2 をoradg1 という VERITAS Volume Manager ディスクグループの一部として構成します。
構成が完了したあと、vxdg list コマンドを使用して、このディスクグループが作成されたことを確認します。
このコマンドで、oradg1 がディスクグループとしてリストされるはずです。
VERITAS Volume Manager ボリュームを作成します。
たとえば、vol1 というボリュームを oradg1 ディスクグループに作成します。適切な VERITAS Volume Manager コマンド (vxassist など) を使用して、ボリュームを構成してください。
構成を完了するには、「Hitachi TrueCopy ソフトウェアが制御する Sun Cluster デバイスグループを構成する方法」に進んで、このディスクグループの Sun Cluster デバイスグループを作成します。
ストレージベースの複製を使用している場合は、複製されたボリュームを定足数デバイスとして構成しないでください。Sun Cluster Geographic Edition ソフトウェアは、Hitachi TrueCopy S-VOL と Command Device を Sun Cluster 定足数デバイスとして使用することはサポートしていません。詳細は、『Sun Cluster System Administration Guide for Solaris OS』の「Using Storage-Based Data Replication」を参照してください。
前の手順で構成した VERITAS Volume Manager ディスクグループを登録します。
Sun Cluster コマンド cldevicegroup を使用します。
このコマンドの詳細は、cldevicegroup(1CL) のマニュアルページを参照してください。
クラスタの各ノードにマウントディレクトリを作成します。
phys-newyork-1# mkdir -p /mounts/sample phys-newyork-2# mkdir -p /mounts/sample |
もう一度 cldevicegroup コマンドを使用して、VERITAS Volume Manager 構成を Sun Cluster ソフトウェアに同期させます。
構成が完了したあと、ディスクグループが登録されていることを確認します。
# cldevicegroup status |
このコマンドの出力には、VERITAS Volume Manager ディスクグループ oradg1 が表示されます。
cldevicegroup コマンドについての詳細は、cldevicegroup(1CL) のマニュアルページを参照してください。
cluster-paris でファイルシステムを構成する前に、必要な Sun Cluster エンティティー (アプリケーションリソースグループ、デバイスグループ、マウントポイントなど) がすでに構成されていることを確認します。
ストレージベースの複製を使用している場合は、複製されたボリュームを定足数デバイスとして構成しないでください。Sun Cluster Geographic Edition ソフトウェアは、Hitachi TrueCopy S-VOL と Command Device を Sun Cluster 定足数デバイスとして使用することはサポートしていません。詳細は、『Sun Cluster System Administration Guide for Solaris OS』の「Using Storage-Based Data Replication」を参照してください。
コマンド行で、必要なファイルシステムを vol1 ボリュームに作成します。
マウント位置などの情報を含む /etc/vfstab ファイルにエントリを追加します。
ファイルシステムをローカルにマウントするかグローバルにマウントするかは、パフォーマンス要件や使用しているアプリケーションリソースグループの種類など、さまざまな要因によって変わります。
このファイル内の mount at boot フィールドの値は no に設定する必要があります。この値を設定することによって、クラスタの起動時、ファイルシステムは二次クラスタにマウントされないようになります。代わりに、Sun Cluster ソフトウェアと Sun Cluster Geographic Edition フレームワークは、主クラスタ上でアプリケーションがオンラインになる場合に HAStoragePlus リソースを使用してファイルシステムをマウントします。二次クラスタにはデータをマウントしないでください。二次クラスタにデータをマウントすると、主クラスタ上のデータは二次クラスタに複製されなくなります。この方法以外では、主クラスタから二次クラスタへのデータ複製は行われません。
HAStoragePlus リソースをアプリケーションリソースグループ apprg1 に追加します。
このリソースをアプリケーションリソースグループに追加することによって、アプリケーションがオンラインになる前に、必ず、必要なファイルシステムが再マウントされるようになります。
HAStoragePlus リソースタイプについての詳細は、『Sun Cluster Data Services Planning and Administration Guide for Solaris OS』を参照してください。
この例では、apprg1 リソースグループがすでに存在すると仮定します。
UNIX ファイルシステム (UFS) を作成します。
phys-paris-1# newfs dev/vx/dsk/oradg1/vol1 |
/etc/vfstab ファイルに次のエントリが作成されます。
# /dev/vs/dsk/oradg1/vol1 /dev/vx/rdsk/oradg1/vol1 /mounts/sample \ ufs 2 no logging |
HAStoragePlus リソースタイプを追加します。
phys-paris-1# clresource create -g apprg1 -t SUNW.HAStoragePlus \ -p FilesystemMountPoints=/mounts/sample -p Affinityon=TRUE \ -p GlobalDevicePaths=oradg1 rs-has |
この節では、Sun Cluster Geographic Edition ソフトウェアに Hitachi TrueCopy データ複製を構成する前に、二次クラスタで実行しておく必要がある手順について説明します。
主クラスタで行ったのと同じように、Hitachi ディスクアレイにアクセス権を持つクラスタの各ノード上の /etc/horcm.conf ファイルを編集して、二次クラスタの共有ディスク上で Hitachi TrueCopy デバイスグループを構成する必要があります。ディスク d1 と d2 は、devgroup1 という Hitachi TrueCopy デバイスグループに属するように構成します。アプリケーション apprg1 は、Hitachi TrueCopy デバイスグループを構成したすべてのノード上で実行できます。
/etc/horcm.conf ファイルの構成方法の詳細は、『Sun StorEdge SE 9900 V Series Command and Control Interface User and Reference Guide 』を参照してください。
次の表に、この例で使用する /etc/horcm.conf ファイルの構成情報を示します。
表 1–3 二次クラスタの /etc/horcm.conf ファイルのセクションの例
dev_group |
dev_name |
port number |
TargetID |
LU number |
MU number |
devgroup1 |
pair1 |
CL1–C |
0 |
20 | |
devgroup1 |
pair2 |
CL1–C |
0 |
21 |
この表にある構成情報は、Hitachi TrueCopy デバイスグループ devgroup1 には 2 つのペアが含まれていることを示しています。1 番目のペアは pair1 で、d1 ディスクにあります (<CL1–C , 0, 20> という組からわかります)。2 番目のペアは pair2 で、d2 ディスクにあります (<CL1–C, 0, 21> という組からわかります)。
二次クラスタ上の /etc/horcm.conf ファイルを構成したあと、pairdisplay コマンドを次のように使用すると、ペアの状態を表示できます。
phys-paris-1# pairdisplay -g devgroup1 Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M devgroup1 pair1(L) (CL1-A , 0, 1) 54321 1.. SMPL ---- ------,----- ---- - devgroup1 pair1(R) (CL1-C , 0, 20)12345 609..SMPL ---- ------,----- ---- - devgroup1 pair2(L) (CL1-A , 0, 2) 54321 2.. SMPL ---- ------,----- ---- - devgroup1 pair2(R) (CL1-C , 0, 21)12345 610..SMPL ---- ------,----- ---- - |
次に、ボリュームマネージャー、Sun Cluster デバイスグループ、および高可用性クラスタファイルシステムを構成する必要があります。このプロセスは、VERITAS Volume Manager を使用するか、raw ディスクデバイスグループを使用するかによって少し異なります。次の手順を参照してください。
ストレージベースの複製を使用している場合は、複製されたボリュームを定足数デバイスとして構成しないでください。Sun Cluster Geographic Edition ソフトウェアは、Hitachi TrueCopy S-VOL と Command Device を Sun Cluster 定足数デバイスとして使用することはサポートしていません。詳細は、『Sun Cluster System Administration Guide for Solaris OS』の「Using Storage-Based Data Replication」を参照してください。
devgroup1 デバイスグループの複製を開始します。
phys-paris-1# paircreate -g devgroup1 -vl -f async phys-paris-1# pairdisplay -g devgroup1 Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M devgroup1 pair1(L) (CL1-A , 0, 1) 54321 1..P-VOL COPY ASYNC ,12345 609 - devgroup1 pair1(R) (CL1-C , 0, 20)12345 609..S-VOL COPY ASYNC ,----- 1 - devgroup1 pair2(L) (CL1-A , 0, 2) 54321 2..P-VOL COPY ASYNC ,12345 610 - devgroup1 pair2(R) (CL1-C , 0, 21)12345 610..S-VOL COPY ASYNC ,----- 2 - |
二次クラスタでペアが PAIR の状態になるまで待機します。
phys-newyork-1# pairdisplay -g devgroup1 Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M devgroup1 pair1(L) (CL1-C , 0, 20)12345 609..S-VOL PAIR ASYNC,-----, 1 - devgroup1 pair1(R) (CL1-A , 0, 1) 54321 1..P-VOL PAIR ASYNC,12345, 609 - devgroup1 pair2(L) (CL1-C , 0, 21)12345 610..S-VOL PAIR ASYNC,-----, 2 - devgroup1 pair2(R) (CL1-A , 0, 2)54321 2..P-VOL PAIR ASYNC,12345, 610 - |
pairsplit コマンドを使用して、このペアを分割します。そして、-rw オプションを使用して、cluster-newyork の二次ボリュームが書き込み可能であることを確認します。
phys-newyork-1# pairsplit -g devgroup1 -rw phys-newyork-1# pairdisplay -g devgroup1 Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M devgroup1 pair1(L) (CL1-C , 0, 20)12345 609..S-VOL SSUS ASYNC, ----- 1 - devgroup1 pair1(R) (CL1-A , 0, 1) 54321 1..P-VOL PSUS ASYNC,12345 609 W devgroup1 pair2(L) (CL1-C , 0,21) 12345 610..S-VOL SSUS ASYNC,----- 2 - devgroup1 pair2(R) (CL1-A , 0, 2) 54321 2..P-VOL PSUS ASYNC,12345 610 W |
VERITAS Volume Manager ディスクグループ oradg1 をインポートします。
phys-newyork-1# vxdg -C import oradg1 |
VERITAS Volume Manager ディスクグループが正常にインポートされたことを確認します。
phys-newyork-1# vxdg list |
VERITAS Volume Manager ボリュームを有効にします。
phys-newyork-1# /usr/sbin/vxrecover -g oradg1 -s -b |
VERITAS Volume Manager ボリュームが認識されており、有効であることを確認します。
phys-newyork-1# vxprint |
VERITAS Volume Manager ディスクグループ oradg1 を Sun Cluster に登録します。
phys-newyork-1# cldevicegroup create -t vxvm -n phys-newyork-1,phys-newyork-2 oradg1 |
ボリュームマネージャー情報を Sun Cluster デバイスグループに同期させ、その出力を確認します。
phys-newyork-1# cldevicegroup sync oradg1 phys-newyork-1# cldevicegroup status |
phys-newyork-1 の /etc/vfstab ファイルにエントリを追加します。
phys-newyork-1# /dev/vx/dsk/oradg1/vol1 /dev/vx/rdsk/oradg1/vol1 \ /mounts/sample ufs 2 no logging |
phys-newyork-1 にマウントディレクトリを作成します。
phys-newyork-1# mkdir -p /mounts/sample |
scrgadm コマンドを使用して、アプリケーションリソースグループ apprg1 を作成します。
phys-newyork-1# clresourcegroup create apprg1 |
apprg1 に HAStoragePlus リソースを作成します。
phys-newyork-1# clresource create -g apprg1 -t SUNW.HAStoragePlus \ -p FilesystemMountPoints=/mounts/sample -p Affinityon=TRUE \ -p GlobalDevicePaths=oradg1 rs-hasp |
この HAStoragePlus リソースは Sun Cluster Geographic Edition システムで必要になります。これは、主クラスタで保護グループが起動するとソフトウェアがこのリソースを利用してデバイスグループとファイルシステムをオンラインにするためです。
必要に応じて、アプリケーションリソースグループをオンラインにし、もう一度オフラインに戻すことによって、このアプリケーションリソースグループが正しく構成されていることを確認します。
phys-newyork-1# clresourcegroup switch -emM -n phys-newyork-1 apprg1 phs-newyork-1# clresourcegroup offline apprg1 |
ファイルシステムをマウント解除します。
phys-newyork-1# umount /mounts/sample |
Sun Cluster デバイスグループをオフラインにします。
phys-newyork-1# cldevicegroup offline oradg1 |
VERITAS Volume Manager ディスクグループがデポートされたことを確認します。
phys-newyork-1# vxdg list |
Hitachi TrueCopy ペアを確立し直します。
phys-newyork-1# pairresync -g devgroup1 phys-newyork-1# pairdisplay -g devgroup1 Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M devgroup1 pair1(L) (CL1-C , 0, 20)12345 609..S-VOL PAIR ASYNC,----- 1 - devgroup1 pair1(R) (CL1-A , 0, 1) 54321 1..P-VOL PAIR ASYNC,12345 609 W devgroup1 pair2(L) (CL1-C , 0,21) 12345 610..S-VOL PAIR ASYNC,----- 2 - devgroup1 pair2(R) (CL1-A , 0, 2) 54321 2..P-VOL PAIR ASYNC,12345 610 W |
これで、二次クラスタの初期構成は完了しました。
この作業では、VERITAS Volume Manager コマンド vxdiskadm と vxassist を使用して、主クラスタ cluster-paris から二次クラスタ cluster-newyork の LUN にボリュームマネージャー構成をコピーします。
この手順の間、デバイスグループ devgroup1 は継続して SMPL 状態である必要があります。
ペアが SMPL 状態であることを確認します。
phys-newyork-1# pairdisplay -g devgroup1 Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M devgroup1 pair1(L) (CL1-C , 0, 20)12345 609..SMPL ---- ------,----- ---- - devgroup1 pair1(R) (CL1-A , 0, 1) 54321 1..SMPL ---- ------,----- ---- - devgroup1 pair2(L) (CL1-C , 0, 21)12345 610..SMPL ---- ------,----- ---- - devgroup1 pair2(R) (CL1-A, 0, 2) 54321 2..SMPL ---- ------,----- ---- - |
cluster-paris の共有ディスクに VERITAS Volume Manager ディスクグループを作成します。
たとえば、vxdiskadm や vxdg などのコマンドを使用して、ディスク d1 と d2 をoradg1 という VERITAS Volume Manager ディスクグループの一部として構成します。
構成が完了したあと、vxdg list コマンドを使用して、このディスクグループが作成されたことを確認します。
このコマンドで、oradg1 がディスクグループとしてリストされるはずです。
VERITAS Volume Manager ボリュームを作成します。
たとえば、vol1 というボリュームを oradg1 ディスクグループに作成します。適切な VERITAS Volume Manager コマンド (vxassist など) を使用して、ボリュームを構成してください。
VERITAS Volume Manager ディスクグループをインポートします。
phys-newyork-1# vxdg -C import oradg1 |
VERITAS Volume Manager ディスクグループが正常にインポートされたことを確認します。
phys-newyork-1# vxdg list |
VERITAS Volume Manager ボリュームを有効にします。
phys-newyork-1# /usr/sbin/vxrecover -g oradg1 -s -b |
VERITAS Volume Manager ボリュームが認識されており、有効であることを確認します。
phys-newyork-1# vxprint |
VERITAS Volume Manager ディスクグループ oradg1 を Sun Cluster に登録します。
phys-newyork-1# cldevicegroup create -t vxvm -n phys-newyork-1,phys-newyork-2 oradg1 |
VERITAS Volume Manager 情報を Sun Cluster デバイスグループに同期させ、その出力を確認します。
phys-newyork-1# cldevicegroup sync oradg1 phys-newyork-1# cldevicegroup status |
UNIX ファイルシステムを作成します。
phys-newyork-1# newfs dev/vx/dsk/oradg1/vol1 |
phys-newyork-1 の /etc/vfstab ファイルにエントリを追加します。
/dev/vx/dsk/oradg1/vol1 /dev/vx/rdsk/oradg1/vol1 /mounts/sample ufs 2 no logging |
phys-newyork-1 にマウントディレクトリを作成します。
phys-newyork-1# mkdir -p /mounts/sample |
clresourcegroup コマンドを使用して、アプリケーションリソースグループ apprg1 を作成します。
phys-newyork-1# clresourcegroup create apprg1 |
apprg1 に HAStoragePlus リソースを作成します。
phys-newyork-1# clresource create -g apprg1 -t SUNW.HAStoragePlus \ -p FilesystemMountPoints=/mounts/sample -p Affinityon=TRUE \ -p GlobalDevicePaths=oradg1 rs-hasp |
この HAStoragePlus リソースは Sun Cluster Geographic Edition システムで必要になります。これは、主クラスタで保護グループが起動するとソフトウェアがこのリソースを利用してデバイスグループとファイルシステムをオンラインにするためです。
必要に応じて、アプリケーションリソースグループをオンラインにし、もう一度オフラインに戻すことによって、このアプリケーションリソースグループが正しく構成されていることを確認します。
phys-newyork-1# clresourcegroup switch -emM -n phys-newyork-1 apprg1 phs-newyork-1# clresourcegroup offline apprg1 |
ファイルシステムをマウント解除します。
phys-newyork-1# umount /mounts/sample |
Sun Cluster デバイスグループをオフラインにします。
phys-newyork-1# cldevicegroup offline oradg1 |
VERITAS Volume Manager ディスクグループがデポートされたことを確認します。
phys-newyork-1# vxdg list |
ペアがまだ SMPL 状態であることを確認します。
phys-newyork-1# pairdisplay -g devgroup1 Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M devgroup1 pair1(L) (CL1-C , 0, 20)12345 609..SMPL ---- ------,----- ---- - devgroup1 pair1(R) (CL1-A , 0, 1) 54321 1..SMPL ---- ------,----- ---- - devgroup1 pair2(L) (CL1-C , 0, 21)12345 610..SMPL ---- ------,----- ---- - devgroup1 pair2(R) (CL1-A, 0, 2) 54321 2..SMPL ---- ------,----- ---- - |
ストレージベースの複製を使用している場合は、複製されたボリュームを定足数デバイスとして構成しないでください。Sun Cluster Geographic Edition ソフトウェアは、Hitachi TrueCopy S-VOL と Command Device を Sun Cluster 定足数デバイスとして使用することはサポートしていません。詳細は、『Sun Cluster System Administration Guide for Solaris OS』の「Using Storage-Based Data Replication」を参照してください。
devgroup1 デバイスグループの複製を開始します。
phys-paris-1# paircreate -g devgroup1 -vl -f async phys-paris-1# pairdisplay -g devgroup1 Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M devgroup1 pair1(L) (CL1-A , 0, 1) 54321 1..P-VOL COPY ASYNC ,12345 609 - devgroup1 pair1(R) (CL1-C , 0, 20)12345 609..S-VOL COPY ASYNC ,----- 1 - devgroup1 pair2(L) (CL1-A , 0, 2) 54321 2..P-VOL COPY ASYNC ,12345 610 - devgroup1 pair2(R) (CL1-C , 0, 21)12345 610..S-VOL COPY ASYNC ,----- 2 - |
二次クラスタでペアが PAIR の状態になるまで待機します。
phys-newyork-1# pairdisplay -g devgroup1 Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M devgroup1 pair1(L) (CL1-C , 0, 20)12345 609..S-VOL PAIR ASYNC,-----, 1 - devgroup1 pair1(R) (CL1-A , 0, 1) 54321 1..P-VOL PAIR ASYNC,12345, 609 - devgroup1 pair2(L) (CL1-C , 0, 21)12345 610..S-VOL PAIR ASYNC,-----, 2 - devgroup1 pair2(R) (CL1-A , 0, 2)54321 2..P-VOL PAIR ASYNC,12345, 610 - |
pairsplit コマンドを使用して、このペアを分割します。そして、-rw オプションを使用して、cluster-newyork の二次ボリュームが書き込み可能であることを確認します。
phys-newyork-1# pairsplit -g devgroup1 -rw phys-newyork-1# pairdisplay -g devgroup1 Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M devgroup1 pair1(L) (CL1-C , 0, 20)12345 609..S-VOL SSUS ASYNC, ----- 1 - devgroup1 pair1(R) (CL1-A , 0, 1) 54321 1..P-VOL PSUS ASYNC,12345 609 W devgroup1 pair2(L) (CL1-C , 0,21) 12345 610..S-VOL SSUS ASYNC,----- 2 - devgroup1 pair2(R) (CL1-A , 0, 2) 54321 2..P-VOL PSUS ASYNC,12345 610 W |
パートナークラスタ上に raw ディスクデバイスグループを作成します。
主クラスタ上で使用したものと同じデバイスグループ名を使用します。
各クラスタで同じ DID を使用することができます。次のコマンドで、newyork クラスタは paris クラスタのパートナーです。
phys-newyork-1# cldevicegroup disable dsk/d5 dsk/d6 phys-newyork-1# cldevicegroup offline dsk/d5 dsk/d6 phys-newyork-1# cldevicegroup delete dsk/d5 dsk/d6 phys-newyork-1# cldevicegroup create -n phys-newyork-1,phys-newyork-2 \ -t rawdisk -d d5,d6 rawdg phys-newyork-1# /usr/cluster/lib/dcs/dgconv -d d5 rawdg phys-newyork-1# /usr/cluster/lib/dcs/dgconv -d d6 rawdg |
ボリュームマネージャー情報を Sun Cluster デバイスグループに同期させ、その出力を確認します。
phys-newyork-1# cldevicegroup sync rawdg1 phys-newyork-1# cldevicegroup status |
newyork クラスタの各ノードで /etc/vfstab ファイルにエントリを追加します。
/dev/global/dsk/d5s2 /dev/global/rdsk/d5s2 /mounts/sample ufs 2 no logging |
newyork クラスタの各ノードにマウントディレクトリを作成します。
phys-newyork-1# mkdir -p /mounts/sample phys-newyork-2# mkdir -p /mounts/sample |
clresourcegroup コマンドを使用して、アプリケーションリソースグループ apprg1 を作成します。
phys-newyork-1# clresourcegroup create apprg1 |
apprg1 に HAStoragePlus リソースを作成します。
phys-newyork-1# clresource create -g apprg1 -t SUNW.HAStoragePlus \ -p FilesystemMountPoints=/mounts/sample -p Affinityon=TRUE \ -p GlobalDevicePaths=rawdg1 rs-hasp |
この HAStoragePlus リソースは Sun Cluster Geographic Edition システムで必要になります。これは、主クラスタで保護グループが起動するとソフトウェアがこのリソースを利用してデバイスグループとファイルシステムをオンラインにするためです。
必要に応じて、アプリケーションリソースグループをオンラインにし、もう一度オフラインに戻すことによって、このアプリケーションリソースグループが正しく構成されていることを確認します。
phys-newyork-1# clresourcegroup switch -emM -n phys-newyork-1 apprg1 phs-newyork-1# clresourcegroup offline apprg1 |
ファイルシステムをマウント解除します。
phys-newyork-1# umount /mounts/sample |
Sun Cluster デバイスグループをオフラインにします。
phys-newyork-1# cldevicegroup offline rawdg1 |
Hitachi TrueCopy ペアを確立し直します。
phys-newyork-1# pairresync -g devgroup1 phys-newyork-1# pairdisplay -g devgroup1 Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M devgroup1 pair1(L) (CL1-C , 0, 20)12345 609..S-VOL PAIR ASYNC,----- 1 - devgroup1 pair1(R) (CL1-A , 0, 1) 54321 1..P-VOL PAIR ASYNC,12345 609 W devgroup1 pair2(L) (CL1-C , 0,21) 12345 610..S-VOL PAIR ASYNC,----- 2 - devgroup1 pair2(R) (CL1-A , 0, 2) 54321 2..P-VOL PAIR ASYNC,12345 610 W |
これで、二次クラスタの初期構成は完了しました。