データ複製中、主クラスタのデータはバックアップクラスタまたは二次クラスタにコピーされます。二次クラスタは、主クラスタから地理的に離れていてもかまいません。この距離は、使用しているデータ複製製品がサポートする距離に依存します。
Sun Cluster Geographic Edition ソフトウェアは、Hitachi TrueCopy ソフトウェアによるデータ複製をサポートします。Hitachi TrueCopy ソフトウェアを使用してデータの複製を開始するためには、Hitachi TrueCopy のマニュアルによく目を通し、Hitachi TrueCopy 製品と最新の Hitachi TrueCopy パッチを、使用しているシステムにインストールする必要があります。Hitachi TrueCopy ソフトウェアのインストール方法については、Hitachi TrueCopy 製品のマニュアルを参照してください。
この章では、Hitachi TrueCopy ソフトウェアを使用して、データ複製を構成する手順と管理する手順を示します。この章では、次の節について説明します。
データ複製デバイスグループを作成する方法と削除する方法については、「Hitachi TrueCopy データ複製デバイスグループの管理」を参照してください。複製のグローバルな実行時状態と詳細な実行時状態を取得する方法については、「Hitachi TrueCopy データ複製の実行時状態の検査」を参照してください。
この節では、保護グループにおける Hitachi TrueCopy データ複製を構成する手順を要約します。
表 1–1 Hitachi TrueCopy データ複製の管理作業
仕事 |
説明 |
|
---|---|---|
Hitachi TrueCopy ソフトウェアの初期構成を実行します。 |
「Hitachi TrueCopy ソフトウェアの初期構成」を参照してください。 |
|
Hitachi TrueCopy データ複製が行えるように構成する保護グループを作成します。 |
「Hitachi TrueCopy 保護グループを作成および構成する (Oracle Real Application Clusters を使用しない場合)」を参照してください。 |
|
Hitachi TrueCopy が制御するデバイスグループを追加します。 | ||
保護グループにアプリケーションリソースグループを追加します。 | ||
保護グループの構成を二次クラスタに複製します。 | ||
設定を検証するため、構成済みのパートナーシップと保護グループをテストします。 |
スイッチオーバーまたはテイクオーバーを試しに実行し、単純な障害状況を予想したテストを実施します。第 3 章「Hitachi TrueCopy データ複製を使用するサービスの移行」を参照してください。 |
|
保護グループを有効にします。 |
「Hitachi TrueCopy 保護グループを有効にする方法」を参照してください。 |
|
複製の実行時状態を検査します。 |
「Hitachi TrueCopy データ複製の実行時状態の検査」を参照してください。 |
|
障害を検出します。 | ||
スイッチオーバーを使用してサービスを移行します。 | ||
テイクオーバーを使用してサービスを移行します。 | ||
テイクオーバーの強制実行のあと、データを回復します | ||
データ複製エラーを検出し、エラーから回復します。 |
「Hitachi TrueCopy データ複製エラーからの回復」を参照してください。 |
この節では、主クラスタおよび二次クラスタ上の Hitachi TrueCopy ソフトウェアを構成する方法について説明します。また、Hitachi TrueCopy 保護グループを作成するための前提条件についても説明します。
主クラスタと二次クラスタの初期構成では、次のような作業を行います。
必要な数のディスクによる Hitachi TrueCopy デバイスグループ devgroup1 の構成
raw ディスクデバイスグループを使用している場合は、raw ディスクグループ rawdg の構成
VERITAS Volume Manager を使用している場合:
VERITAS Volume Manager ディスクグループ oradg1 の構成
VERITAS Volume Manager ボリューム vol1 の構成
VERITAS Volume Manager ディスクグループ oradg1 の Sun Cluster デバイスグループの構成
ファイルシステムの構成。この手順には、ファイルシステムの作成、マウントポイントの作成、および、/etc/vfstab ファイルへのエントリの追加が含まれます
アプリケーションリソースグループ apprg1 の作成。このリソースグループには、HAStoragePlus リソースが含まれます
Hitachi TrueCopy Command Control Interface (CCI) を使用してデータを複製する場合は、RAID Manager を使用する必要があります。どのバージョンを使用するべきかについては、『Sun Cluster Geographic Edition のインストール』を参照してください。
このモデルでは、Sun StorEdge 9970/9980 Array または Hitachi Lightning 9900 Series Storage を使用する特定のハードウェア構成を必要とします。現在サポートされている Sun Cluster 構成については、Sun のサポートセンターに問い合わせてください。
Sun Cluster Geographic Edition ソフトウェアは、Sun Cluster ソフトウェアがサポートするハードウェア構成をサポートします。現在サポートされている Sun Cluster 構成については、Sun のサポートセンターに問い合わせてください。
ストレージベースの複製を使用している場合は、複製されたボリュームを定足数デバイスとして構成しないでください。Sun Cluster Geographic Edition ソフトウェアは、Hitachi TrueCopy S-VOL と Command Device を Sun Cluster 定足数デバイスとして使用することはサポートしていません。詳細は、『Sun Cluster のシステム管理 (Solaris OS)』の「ストレージベースのデータ複製の使用法」を参照してください。
この節では、Sun Cluster Geographic Edition ソフトウェアに Hitachi TrueCopy データ複製を構成する前に、主クラスタで実行しておく必要がある手順について説明します。各手順を例示するために、この節では d1 と d2 という 2 つのディスク (LUN) を使用します。これらのディスクは、apprg1 というアプリケーション用のデータを保持している Hitachi TrueCopy アレイにあります。
Hitachi ディスクアレイにアクセス権を持つクラスタの各ノード上の /etc/horcm.conf ファイルを編集して、主クラスタの共有ディスク上で Hitachi TrueCopy デバイスグループを構成します。ディスク d1 と d2 は、devgroup1 という Hitachi TrueCopy デバイスグループに属するように構成します。アプリケーション apprg1 は、Hitachi TrueCopy デバイスグループを構成したすべてのノード上で実行できます。
/etc/horcm.conf ファイルの構成方法の詳細は、『Sun StorEdge SE 9900 V Series Command and Control Interface User and Reference Guide 』を参照してください。
次の表に、この例で使用する/etc/horcm.conf ファイルの構成情報を示します。
表 1–2 主クラスタの /etc/horcm.conf ファイルのセクション例
dev_group |
dev_name |
port number |
TargetID |
LU number |
MU number |
devgroup1 |
pair1 |
CL1–A |
0 |
1 | |
devgroup1 |
pair2 |
CL1–A |
0 |
2 |
この表にある構成情報は、Hitachi TrueCopy デバイスグループ devgroup1 には 2 つのペアが含まれていることを示しています。1 番目のペアは pair1 で、d1 ディスクにあります (<CL1–A , 0, 1> という組からわかります)。2 番目のペアは pair2 で、d2 ディスクにあります (<CL1–A, 0, 2> という組からわかります)。ディスク d1 と d2 の複製は、地理的に離れた Hitachi TrueCopy アレイにあります。リモートの Hitachi TrueCopy はパートナークラスタに接続されています。
Sun Cluster Geographic Edition は、さまざまなボリュームマネージャーのほかに、raw ディスクデバイスグループの使用をサポートしています。初めて Sun Cluster を構成するときに、クラスタ内の各 raw デバイスにデバイスグループが自動的に構成されます。次の手順に従って、これらの自動的に作成されたデバイスグループを Sun Cluster Geographic Edition で使用するように再構成します。
使用するデバイスに関して、事前定義のデバイスグループを構成解除します。
次のコマンドで、d7 および d8 の事前定義のデバイスグループを削除します。
phys-paris-1# cldevicegroup disable dsk/d7 dsk/d8 phys-paris-1# cldevicegroup offline dsk/d7 dsk/d8 phys-paris-1# cldevicegroup delete dsk/d7 dsk/d8 |
必要なデバイスを含む新規の raw ディスクデバイスグループを作成します。
新しい DID にスラッシュが含まれていないことを確認します。次のコマンドで、 d7 と d8 を含むグローバルデバイスグループ rawdg を作成します。
phys-paris-1# cldevicegroup create -n phys-paris-1,phys-paris-2 \ -t rawdisk -d d7,d8 rawdg |
次のコマンドは、主クラスタ上でのデバイスグループの構成、パートナークラスタ上での同一デバイスグループの構成、および Hitachi TrueCopy 保護グループへのグループの追加を示しています。
Remove the automatically created device groups from the primary cluster. phys-paris-1# cldevicegroup disable dsk/d7 dsk/d8 phys-paris-1# cldevicegroup offline dsk/d7 dsk/d8 phys-paris-1# cldevicegroup delete dsk/d7 dsk/d8 Create the raw-disk device group on the primary cluster. phys-paris-1# cldevicegroup create -n phys-paris-1,phys-paris-2 \ -t rawdisk -d d7,d8 rawdg Remove the automatically created device groups from the partner cluster. phys-newyork-1# cldevicegroup disable dsk/d5 dsk/d6 phys-newyork-1# cldevicegroup offline dsk/d5 dsk/d6 phys-newyork-1# cldevicegroup delete dsk/d5 dsk/d6 Create the raw-disk device group on the partner cluster. phys-newyork-1# cldevicegroup create -n phys-newyork-1,phys-newyork-2 \ -t rawdisk -d d5,d6 rawdg Add the raw-disk device group to the protection group rawpg. phys-paris-1# geopg create -d truecopy -p Nodelist=phys-paris-1,phys-paris-2 \ -o Primary -p cluster_dgs=rawdg -s paris-newyork-ps rawpg |
パートナークラスタを構成するときに、ここで作成したのと同じ名前の raw ディスクデバイスグループを作成します。このタスクの手順については、「raw ディスクデバイスグループを使用する場合に主クラスタから構成情報を複製する方法」を参照してください。
両方のクラスタでデバイスグループを構成したら、geopg などの Sun Cluster Geographic Edition コマンドで必要な場合にどこででもこのデバイスグループ名を使用できます。
Hitachi TrueCopy は、VERITAS Volume Manager ボリュームおよび raw ディスクデバイスグループをサポートしています。VERITAS Volume Manager を使用している場合、ディスク d1 と d2 で VERITAS Volume Manager ボリュームを構成する必要があります。
ストレージベースの複製を使用している場合は、複製されたボリュームを定足数デバイスとして構成しないでください。Sun Cluster Geographic Edition ソフトウェアは、Hitachi TrueCopy S-VOL と Command Device を Sun Cluster 定足数デバイスとして使用することはサポートしていません。詳細は、『Sun Cluster のシステム管理 (Solaris OS 版)』の「ストレージベースのデータ複製の使用法」を参照してください。
cluster-paris の共有ディスクに VERITAS Volume Manager ディスクグループを作成します。
たとえば、vxdiskadm や vxdg などのコマンドを使用して、ディスク d1 と d2 をoradg1 という VERITAS Volume Manager ディスクグループの一部として構成します。
構成が完了したあと、vxdg list コマンドを使用して、このディスクグループが作成されたことを確認します。
このコマンドで、oradg1 がディスクグループとしてリストされるはずです。
VERITAS Volume Manager ボリュームを作成します。
たとえば、vol1 というボリュームを oradg1 ディスクグループに作成します。適切な VERITAS Volume Manager コマンド (vxassist など) を使用して、ボリュームを構成してください。
構成を完了するには、「Hitachi TrueCopy ソフトウェアが制御する Sun Cluster デバイスグループを構成する方法」に進んで、このディスクグループの Sun Cluster デバイスグループを作成します。
ストレージベースの複製を使用している場合は、複製されたボリュームを定足数デバイスとして構成しないでください。Sun Cluster Geographic Edition ソフトウェアは、Hitachi TrueCopy S-VOL と Command Device を Sun Cluster 定足数デバイスとして使用することはサポートしていません。詳細は、『Sun Cluster のシステム管理 (Solaris OS 版)』の「ストレージベースのデータ複製の使用法」を参照してください。
前の手順で構成した VERITAS Volume Manager ディスクグループを登録します。
Sun Cluster コマンド cldevicegroup を使用します。
このコマンドについての詳細は、cldevicegroup(1CL) のマニュアルページを参照してください。
クラスタの各ノードにマウントディレクトリを作成します。
phys-newyork-1# mkdir -p /mounts/sample phys-newyork-2# mkdir -p /mounts/sample |
もう一度 cldevicegroup コマンドを使用して、VERITAS Volume Manager 構成を Sun Cluster ソフトウェアに同期させます。
構成が完了したあと、ディスクグループが登録されていることを確認します。
# cldevicegroup status |
このコマンドの出力には、VERITAS Volume Manager ディスクグループ oradg1 が表示されます。
cldevicegroup コマンドについての詳細は、cldevicegroup(1CL) のマニュアルページを参照してください。
cluster-paris でファイルシステムを構成する前に、必要な Sun Cluster エンティティー (アプリケーションリソースグループ、デバイスグループ、マウントポイントなど) がすでに構成されていることを確認します。
ストレージベースの複製を使用している場合は、複製されたボリュームを定足数デバイスとして構成しないでください。Sun Cluster Geographic Edition ソフトウェアは、Hitachi TrueCopy S-VOL と Command Device を Sun Cluster 定足数デバイスとして使用することはサポートしていません。詳細は、『Sun Cluster のシステム管理 (Solaris OS 版)』の「ストレージベースのデータ複製の使用法」を参照してください。
コマンド行で、必要なファイルシステムを vol1 ボリュームに作成します。
マウント位置などの情報を含む /etc/vfstab ファイルにエントリを追加します。
ファイルシステムをローカルにマウントするかグローバルにマウントするかは、パフォーマンス要件や使用しているアプリケーションリソースグループの種類など、さまざまな要因によって変わります。
このファイル内の mount at boot フィールドの値は no に設定する必要があります。この値を設定することによって、クラスタの起動時、ファイルシステムは二次クラスタにマウントされないようになります。代わりに、Sun Cluster ソフトウェアと Sun Cluster Geographic Edition フレームワークは、主クラスタ上でアプリケーションがオンラインになる場合に HAStoragePlus リソースを使用してファイルシステムをマウントします。二次クラスタにはデータをマウントしないでください。二次クラスタにデータをマウントすると、主クラスタ上のデータは二次クラスタに複製されなくなります。この方法以外では、主クラスタから二次クラスタへのデータ複製は行われません。
HAStoragePlus リソースをアプリケーションリソースグループ apprg1 に追加します。
このリソースをアプリケーションリソースグループに追加することによって、アプリケーションがオンラインになる前に、必ず、必要なファイルシステムが再マウントされるようになります。
HAStoragePlus リソースタイプの詳細は、『Sun Cluster データサービスの計画と管理 (Solaris OS 版)』を参照してください。
この例では、apprg1 リソースグループがすでに存在すると仮定します。
UNIX ファイルシステム (UFS) を作成します。
phys-paris-1# newfs dev/vx/dsk/oradg1/vol1 |
/etc/vfstab ファイルに次のエントリが作成されます。
# /dev/vs/dsk/oradg1/vol1 /dev/vx/rdsk/oradg1/vol1 /mounts/sample \ ufs 2 no logging |
HAStoragePlus リソースタイプを追加します。
phys-paris-1# clresource create -g apprg1 -t SUNW.HAStoragePlus \ -p FilesystemMountPoints=/mounts/sample -p Affinityon=TRUE -p GlobalDevicePaths=oradg1 rs-has |
この節では、Sun Cluster Geographic Edition ソフトウェアに Hitachi TrueCopy データ複製を構成する前に、二次クラスタで実行しておく必要がある手順について説明します。
主クラスタで行ったのと同じように、Hitachi ディスクアレイにアクセス権を持つクラスタの各ノード上の /etc/horcm.conf ファイルを編集して、二次クラスタの共有ディスク上で Hitachi TrueCopy デバイスグループを構成する必要があります。ディスク d1 と d2 は、devgroup1 という Hitachi TrueCopy デバイスグループに属するように構成します。アプリケーション apprg1 は、Hitachi TrueCopy デバイスグループを構成したすべてのノード上で実行できます。
/etc/horcm.conf ファイルの構成方法の詳細は、『Sun StorEdge SE 9900 V Series Command and Control Interface User and Reference Guide 』を参照してください。
次の表に、この例で使用する /etc/horcm.conf ファイルの構成情報を示します。
表 1–3 二次クラスタの /etc/horcm.conf ファイルのセクションの例
dev_group |
dev_name |
port number |
TargetID |
LU number |
MU number |
devgroup1 |
pair1 |
CL1–C |
0 |
20 | |
devgroup1 |
pair2 |
CL1–C |
0 |
21 |
この表にある構成情報は、Hitachi TrueCopy デバイスグループ devgroup1 には 2 つのペアが含まれていることを示しています。1 番目のペアは pair1 で、d1 ディスクにあります (<CL1–C , 0, 20> という組からわかります)。2 番目のペアは pair2 で、d2 ディスクにあります (<CL1–C, 0, 21> という組からわかります)。
二次クラスタ上の /etc/horcm.conf ファイルを構成したあと、pairdisplay コマンドを次のように使用すると、ペアの状態を表示できます。
phys-paris-1# pairdisplay -g devgroup1 Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M devgroup1 pair1(L) (CL1-A , 0, 1) 54321 1.. SMPL ---- ------,----- ---- - devgroup1 pair1(R) (CL1-C , 0, 20)12345 609..SMPL ---- ------,----- ---- - devgroup1 pair2(L) (CL1-A , 0, 2) 54321 2.. SMPL ---- ------,----- ---- - devgroup1 pair2(R) (CL1-C , 0, 21)12345 610..SMPL ---- ------,----- ---- - |
次に、ボリュームマネージャー、Sun Cluster デバイスグループ、および高可用性クラスタファイルシステムを構成する必要があります。このプロセスは、VERITAS Volume Manager を使用するか、raw ディスクデバイスグループを使用するかによって少し異なります。次の手順を参照してください。
ストレージベースの複製を使用している場合は、複製されたボリュームを定足数デバイスとして構成しないでください。Sun Cluster Geographic Edition ソフトウェアは、Hitachi TrueCopy S-VOL と Command Device を Sun Cluster 定足数デバイスとして使用することはサポートしていません。詳細は、『Sun Cluster のシステム管理 (Solaris OS 版)』の「ストレージベースのデータ複製の使用法」を参照してください。
devgroup1 デバイスグループの複製を開始します。
phys-paris-1# paircreate -g devgroup1 -vl -f async phys-paris-1# pairdisplay -g devgroup1 Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M devgroup1 pair1(L) (CL1-A , 0, 1) 54321 1..P-VOL COPY ASYNC ,12345 609 - devgroup1 pair1(R) (CL1-C , 0, 20)12345 609..S-VOL COPY ASYNC ,----- 1 - devgroup1 pair2(L) (CL1-A , 0, 2) 54321 2..P-VOL COPY ASYNC ,12345 610 - devgroup1 pair2(R) (CL1-C , 0, 21)12345 610..S-VOL COPY ASYNC ,----- 2 - |
二次クラスタでペアが PAIR の状態になるまで待機します。
phys-newyork-1# pairdisplay -g devgroup1 Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M devgroup1 pair1(L) (CL1-C , 0, 20)12345 609..S-VOL PAIR ASYNC,-----, 1 - devgroup1 pair1(R) (CL1-A , 0, 1) 54321 1..P-VOL PAIR ASYNC,12345, 609 - devgroup1 pair2(L) (CL1-C , 0, 21)12345 610..S-VOL PAIR ASYNC,-----, 2 - devgroup1 pair2(R) (CL1-A , 0, 2)54321 2..P-VOL PAIR ASYNC,12345, 610 - |
pairsplit コマンドを使用して、このペアを分割します。そして、-rw オプションを使用して、cluster-newyork の二次ボリュームが書き込み可能であることを確認します。
phys-newyork-1# pairsplit -g devgroup1 -rw phys-newyork-1# pairdisplay -g devgroup1 Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M devgroup1 pair1(L) (CL1-C , 0, 20)12345 609..S-VOL SSUS ASYNC, ----- 1 - devgroup1 pair1(R) (CL1-A , 0, 1) 54321 1..P-VOL PSUS ASYNC,12345 609 W devgroup1 pair2(L) (CL1-C , 0,21) 12345 610..S-VOL SSUS ASYNC,----- 2 - devgroup1 pair2(R) (CL1-A , 0, 2) 54321 2..P-VOL PSUS ASYNC,12345 610 W |
VERITAS Volume Manager ディスクグループ oradg1 をインポートします。
phys-newyork-1# vxdg -C import oradg1 |
VERITAS Volume Manager ディスクグループが正常にインポートされたことを確認します。
phys-newyork-1# vxdg list |
VERITAS Volume Manager ボリュームを有効にします。
phys-newyork-1# /usr/sbin/vxrecover -g oradg1 -s -b |
VERITAS Volume Manager ボリュームが認識されており、有効であることを確認します。
phys-newyork-1# vxprint |
VERITAS Volume Manager ディスクグループ oradg1 を Sun Cluster に登録します。
phys-newyork-1# cldevicegroup create -t vxvm -n phys-newyork-1,phys-newyork-2 oradg1 |
ボリュームマネージャー情報を Sun Cluster デバイスグループに同期させ、その出力を確認します。
phys-newyork-1# cldevicegroup sync oradg1 phys-newyork-1# cldevicegroup status |
phys-newyork-1 の /etc/vfstab ファイルにエントリを追加します。
phys-newyork-1# /dev/vx/dsk/oradg1/vol1 /dev/vx/rdsk/oradg1/vol1 \ /mounts/sample ufs 2 no logging |
phys-newyork-1 にマウントディレクトリを作成します。
phys-newyork-1# mkdir -p /mounts/sample |
scrgadm コマンドを使用して、アプリケーションリソースグループ apprg1 を作成します。
phys-newyork-1# clresourcegroup create apprg1 |
apprg1 に HAStoragePlus リソースを作成します。
phys-newyork-1# clresource create -g apprg1 -t SUNW.HAStoragePlus \ -p FilesystemMountPoints=/mounts/sample -p Affinityon=TRUE / -p GlobalDevicePaths=oradg1 rs-hasp |
この HAStoragePlus リソースは Sun Cluster Geographic Edition システムで必要になります。これは、主クラスタで保護グループが起動するとソフトウェアがこのリソースを利用してデバイスグループとファイルシステムをオンラインにするためです。
必要に応じて、アプリケーションリソースグループをオンラインにし、もう一度オフラインに戻すことによって、このアプリケーションリソースグループが正しく構成されていることを確認します。
phys-newyork-1# clresourcegroup switch -emM -n phys-newyork-1 apprg1 phs-newyork-1# clresourcegroup offline apprg1 |
ファイルシステムをマウント解除します。
phys-newyork-1# umount /mounts/sample |
Sun Cluster デバイスグループをオフラインにします。
phys-newyork-1# cldevicegroup offline oradg1 |
VERITAS Volume Manager ディスクグループがデポートされたことを確認します。
phys-newyork-1# vxdg list |
Hitachi TrueCopy ペアを確立し直します。
phys-newyork-1# pairresync -g devgroup1 phys-newyork-1# pairdisplay -g devgroup1 Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M devgroup1 pair1(L) (CL1-C , 0, 20)12345 609..S-VOL PAIR ASYNC,----- 1 - devgroup1 pair1(R) (CL1-A , 0, 1) 54321 1..P-VOL PAIR ASYNC,12345 609 W devgroup1 pair2(L) (CL1-C , 0,21) 12345 610..S-VOL PAIR ASYNC,----- 2 - devgroup1 pair2(R) (CL1-A , 0, 2) 54321 2..P-VOL PAIR ASYNC,12345 610 W |
これで、二次クラスタの初期構成は完了しました。
この作業では、VERITAS Volume Manager コマンド vxdiskadm と vxassist を使用して、主クラスタ cluster-paris から二次クラスタ cluster-newyork の LUN にボリュームマネージャー構成をコピーします。
この手順の間、デバイスグループ devgroup1 は継続して SMPL 状態である必要があります。
ペアが SMPL 状態であることを確認します。
phys-newyork-1# pairdisplay -g devgroup1 Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M devgroup1 pair1(L) (CL1-C , 0, 20)12345 609..SMPL ---- ------,----- ---- - devgroup1 pair1(R) (CL1-A , 0, 1) 54321 1..SMPL ---- ------,----- ---- - devgroup1 pair2(L) (CL1-C , 0, 21)12345 610..SMPL ---- ------,----- ---- - devgroup1 pair2(R) (CL1-A, 0, 2) 54321 2..SMPL ---- ------,----- ---- - |
cluster-paris の共有ディスクに VERITAS Volume Manager ディスクグループを作成します。
たとえば、vxdiskadm や vxdg などのコマンドを使用して、ディスク d1 と d2 をoradg1 という VERITAS Volume Manager ディスクグループの一部として構成します。
構成が完了したあと、vxdg list コマンドを使用して、このディスクグループが作成されたことを確認します。
このコマンドで、oradg1 がディスクグループとしてリストされるはずです。
VERITAS Volume Manager ボリュームを作成します。
たとえば、vol1 というボリュームを oradg1 ディスクグループに作成します。適切な VERITAS Volume Manager コマンド (vxassist など) を使用して、ボリュームを構成してください。
VERITAS Volume Manager ディスクグループをインポートします。
phys-newyork-1# vxdg -C import oradg1 |
VERITAS Volume Manager ディスクグループが正常にインポートされたことを確認します。
phys-newyork-1# vxdg list |
VERITAS Volume Manager ボリュームを有効にします。
phys-newyork-1# /usr/sbin/vxrecover -g oradg1 -s -b |
VERITAS Volume Manager ボリュームが認識されており、有効であることを確認します。
phys-newyork-1# vxprint |
VERITAS Volume Manager ディスクグループ oradg1 を Sun Cluster に登録します。
phys-newyork-1# cldevicegroup create -t vxvm -n phys-newyork-1,phys-newyork-2 oradg1 |
VERITAS Volume Manager 情報を Sun Cluster デバイスグループに同期させ、その出力を確認します。
phys-newyork-1# cldevicegroup sync oradg1 phys-newyork-1# cldevicegroup status |
UNIX ファイルシステムを作成します。
phys-newyork-1# newfs dev/vx/dsk/oradg1/vol1 |
phys-newyork-1 の /etc/vfstab ファイルにエントリを追加します。
phys-newyork-1# /dev/vx/dsk/oradg1/vol1 /dev/vx/rdsk/oradg1/vol1 /mounts/sample \ ufs 2 no logging |
phys-newyork-1 にマウントディレクトリを作成します。
phys-newyork-1# mkdir -p /mounts/sample |
clresourcegroup コマンドを使用して、アプリケーションリソースグループ apprg1 を作成します。
phys-newyork-1# clresourcegroup create apprg1 |
apprg1 に HAStoragePlus リソースを作成します。
phys-newyork-1# clresource create -g apprg1 -t SUNW.HAStoragePlus \ -p FilesystemMountPoints=/mounts/sample -p Affinityon=TRUE \ -p GlobalDevicePaths=oradg1 rs-hasp |
この HAStoragePlus リソースは Sun Cluster Geographic Edition システムで必要になります。これは、主クラスタで保護グループが起動するとソフトウェアがこのリソースを利用してデバイスグループとファイルシステムをオンラインにするためです。
必要に応じて、アプリケーションリソースグループをオンラインにし、もう一度オフラインに戻すことによって、このアプリケーションリソースグループが正しく構成されていることを確認します。
phys-newyork-1# clresourcegroup switch -emM -n phys-newyork-1 apprg1 phs-newyork-1# clresourcegroup offline apprg1 |
ファイルシステムをマウント解除します。
phys-newyork-1# umount /mounts/sample |
Sun Cluster デバイスグループをオフラインにします。
phys-newyork-1# cldevicegroup offline oradg1 |
VERITAS Volume Manager ディスクグループがデポートされたことを確認します。
phys-newyork-1# vxdg list |
ペアがまだ SMPL 状態であることを確認します。
phys-newyork-1# pairdisplay -g devgroup1 Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M devgroup1 pair1(L) (CL1-C , 0, 20)12345 609..SMPL ---- ------,----- ---- - devgroup1 pair1(R) (CL1-A , 0, 1) 54321 1..SMPL ---- ------,----- ---- - devgroup1 pair2(L) (CL1-C , 0, 21)12345 610..SMPL ---- ------,----- ---- - devgroup1 pair2(R) (CL1-A, 0, 2) 54321 2..SMPL ---- ------,----- ---- - |
ストレージベースの複製を使用している場合は、複製されたボリュームを定足数デバイスとして構成しないでください。Sun Cluster Geographic Edition ソフトウェアは、Hitachi TrueCopy S-VOL と Command Device を Sun Cluster 定足数デバイスとして使用することはサポートしていません。詳細は、『Sun Cluster のシステム管理 (Solaris OS 版)』の「ストレージベースのデータ複製の使用法」を参照してください。
devgroup1 デバイスグループの複製を開始します。
phys-paris-1# paircreate -g devgroup1 -vl -f async phys-paris-1# pairdisplay -g devgroup1 Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M devgroup1 pair1(L) (CL1-A , 0, 1) 54321 1..P-VOL COPY ASYNC ,12345 609 - devgroup1 pair1(R) (CL1-C , 0, 20)12345 609..S-VOL COPY ASYNC ,----- 1 - devgroup1 pair2(L) (CL1-A , 0, 2) 54321 2..P-VOL COPY ASYNC ,12345 610 - devgroup1 pair2(R) (CL1-C , 0, 21)12345 610..S-VOL COPY ASYNC ,----- 2 - |
二次クラスタでペアが PAIR の状態になるまで待機します。
phys-newyork-1# pairdisplay -g devgroup1 Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M devgroup1 pair1(L) (CL1-C , 0, 20)12345 609..S-VOL PAIR ASYNC,-----, 1 - devgroup1 pair1(R) (CL1-A , 0, 1) 54321 1..P-VOL PAIR ASYNC,12345, 609 - devgroup1 pair2(L) (CL1-C , 0, 21)12345 610..S-VOL PAIR ASYNC,-----, 2 - devgroup1 pair2(R) (CL1-A , 0, 2)54321 2..P-VOL PAIR ASYNC,12345, 610 - |
pairsplit コマンドを使用して、このペアを分割します。そして、-rw オプションを使用して、cluster-newyork の二次ボリュームが書き込み可能であることを確認します。
phys-newyork-1# pairsplit -g devgroup1 -rw phys-newyork-1# pairdisplay -g devgroup1 Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M devgroup1 pair1(L) (CL1-C , 0, 20)12345 609..S-VOL SSUS ASYNC, ----- 1 - devgroup1 pair1(R) (CL1-A , 0, 1) 54321 1..P-VOL PSUS ASYNC,12345 609 W devgroup1 pair2(L) (CL1-C , 0,21) 12345 610..S-VOL SSUS ASYNC,----- 2 - devgroup1 pair2(R) (CL1-A , 0, 2) 54321 2..P-VOL PSUS ASYNC,12345 610 W |
パートナークラスタ上に raw ディスクデバイスグループを作成します。
主クラスタで使用したのと同じデバイスグループ名を使用してください。
各クラスタで同じ DID を使用することができます。次のコマンドでは、newyork クラスタが paris クラスタのパートナーになっています。
phys-newyork-1# cldevicegroup disable dsk/d5 dsk/d6 phys-newyork-1# cldevicegroup offline dsk/d5 dsk/d6 phys-newyork-1# cldevicegroup delete dsk/d5 dsk/d6 phys-newyork-1# cldevicegroup create -n phys-newyork-1,phys-newyork-2 \ -t rawdisk -d d5,d6 rawdg phys-newyork-1# /usr/cluster/lib/dcs/dgconv -d d5 rawdg phys-newyork-1# /usr/cluster/lib/dcs/dgconv -d d6 rawdg |
ボリュームマネージャー情報を Sun Cluster デバイスグループに同期させ、その出力を確認します。
phys-newyork-1# cldevicegroup sync rawdg1 phys-newyork-1# cldevicegroup status |
newyork クラスタの各ノードで /etc/vfstab ファイルにエントリを追加します。
/dev/global/dsk/d5s2 /dev/global/rdsk/d5s2 \ /mounts/sample ufs 2 no logging |
newyork クラスタの各ノードにマウントディレクトリを作成します。
phys-newyork-1# mkdir -p /mounts/sample phys-newyork-2# mkdir -p /mounts/sample |
clresourcegroup コマンドを使用して、アプリケーションリソースグループ apprg1 を作成します。
phys-newyork-1# clresourcegroup create apprg1 |
apprg1 に HAStoragePlus リソースを作成します。
phys-newyork-1# clresource create -g apprg1 -t SUNW.HAStoragePlus \ -p FilesystemMountPoints=/mounts/sample -p Affinityon=TRUE / -p GlobalDevicePaths=rawdg1 rs-hasp |
この HAStoragePlus リソースは Sun Cluster Geographic Edition システムで必要になります。これは、主クラスタで保護グループが起動するとソフトウェアがこのリソースを利用してデバイスグループとファイルシステムをオンラインにするためです。
必要に応じて、アプリケーションリソースグループをオンラインにし、もう一度オフラインに戻すことによって、このアプリケーションリソースグループが正しく構成されていることを確認します。
phys-newyork-1# clresourcegroup switch -emM -n phys-newyork-1 apprg1 phs-newyork-1# clresourcegroup offline apprg1 |
ファイルシステムをマウント解除します。
phys-newyork-1# umount /mounts/sample |
Sun Cluster デバイスグループをオフラインにします。
phys-newyork-1# cldevicegroup offline rawdg1 |
Hitachi TrueCopy ペアを確立し直します。
phys-newyork-1# pairresync -g devgroup1 phys-newyork-1# pairdisplay -g devgroup1 Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M devgroup1 pair1(L) (CL1-C , 0, 20)12345 609..S-VOL PAIR ASYNC,----- 1 - devgroup1 pair1(R) (CL1-A , 0, 1) 54321 1..P-VOL PAIR ASYNC,12345 609 W devgroup1 pair2(L) (CL1-C , 0,21) 12345 610..S-VOL PAIR ASYNC,----- 2 - devgroup1 pair2(R) (CL1-A , 0, 2) 54321 2..P-VOL PAIR ASYNC,12345 610 W |
これで、二次クラスタの初期構成は完了しました。