Sun Cluster Geographic Edition Hitachi TrueCopy 向けデータ複製ガイド

Hitachi TrueCopy ソフトウェアの初期構成

この節では、主クラスタおよび二次クラスタ上の Hitachi TrueCopy ソフトウェアを構成する方法について説明します。また、Hitachi TrueCopy 保護グループを作成するための前提条件についても説明します。

主クラスタと二次クラスタの初期構成では、次のような作業を行います。

Hitachi TrueCopy Command Control Interface (CCI) を使用してデータを複製する場合は、RAID Manager を使用する必要があります。どのバージョンを使用するべきかについては、『Sun Cluster Geographic Edition のインストール』を参照してください。


注 –

このモデルでは、Sun StorEdge 9970/9980 Array または Hitachi Lightning 9900 Series Storage を使用する特定のハードウェア構成を必要とします。現在サポートされている Sun Cluster 構成については、Sun のサポートセンターに問い合わせてください。


Sun Cluster Geographic Edition ソフトウェアは、Sun Cluster ソフトウェアがサポートするハードウェア構成をサポートします。現在サポートされている Sun Cluster 構成については、Sun のサポートセンターに問い合わせてください。


注意 – 注意 –

ストレージベースの複製を使用している場合は、複製されたボリュームを定足数デバイスとして構成しないでください。Sun Cluster Geographic Edition ソフトウェアは、Hitachi TrueCopy S-VOL と Command Device を Sun Cluster 定足数デバイスとして使用することはサポートしていません。詳細は、『Sun Cluster のシステム管理 (Solaris OS)』「ストレージベースのデータ複製の使用法」を参照してください。


主クラスタ上の Hitachi TrueCopy ソフトウェアにデータ複製を構成する

この節では、Sun Cluster Geographic Edition ソフトウェアに Hitachi TrueCopy データ複製を構成する前に、主クラスタで実行しておく必要がある手順について説明します。各手順を例示するために、この節では d1d2 という 2 つのディスク (LUN) を使用します。これらのディスクは、apprg1 というアプリケーション用のデータを保持している Hitachi TrueCopy アレイにあります。

/etc/horcm.conf ファイルの構成

Hitachi ディスクアレイにアクセス権を持つクラスタの各ノード上の /etc/horcm.conf ファイルを編集して、主クラスタの共有ディスク上で Hitachi TrueCopy デバイスグループを構成します。ディスク d1d2 は、devgroup1 という Hitachi TrueCopy デバイスグループに属するように構成します。アプリケーション apprg1 は、Hitachi TrueCopy デバイスグループを構成したすべてのノード上で実行できます。

/etc/horcm.conf ファイルの構成方法の詳細は、『Sun StorEdge SE 9900 V Series Command and Control Interface User and Reference Guide 』を参照してください。

次の表に、この例で使用する/etc/horcm.conf ファイルの構成情報を示します。

表 1–2 主クラスタの /etc/horcm.conf ファイルのセクション例

dev_group

dev_name

port number

TargetID

LU number

MU number

devgroup1

pair1

CL1–A

0

1

 

devgroup1

pair2

CL1–A

0

2

 

この表にある構成情報は、Hitachi TrueCopy デバイスグループ devgroup1 には 2 つのペアが含まれていることを示しています。1 番目のペアは pair1 で、d1 ディスクにあります (<CL1–A , 0, 1> という組からわかります)。2 番目のペアは pair2 で、d2 ディスクにあります (<CL1–A, 0, 2> という組からわかります)。ディスク d1d2 の複製は、地理的に離れた Hitachi TrueCopy アレイにあります。リモートの Hitachi TrueCopy はパートナークラスタに接続されています。

ProcedureSun Cluster Geographic Edition システムの Raw ディスクデバイスグループを設定する

Sun Cluster Geographic Edition は、さまざまなボリュームマネージャーのほかに、raw ディスクデバイスグループの使用をサポートしています。初めて Sun Cluster を構成するときに、クラスタ内の各 raw デバイスにデバイスグループが自動的に構成されます。次の手順に従って、これらの自動的に作成されたデバイスグループを Sun Cluster Geographic Edition で使用するように再構成します。

  1. 使用するデバイスに関して、事前定義のデバイスグループを構成解除します。

    次のコマンドで、d7 および d8 の事前定義のデバイスグループを削除します。


    phys-paris-1# cldevicegroup disable dsk/d7 dsk/d8
    phys-paris-1# cldevicegroup offline dsk/d7 dsk/d8
    phys-paris-1# cldevicegroup delete dsk/d7 dsk/d8
  2. 必要なデバイスを含む新規の raw ディスクデバイスグループを作成します。

    新しい DID にスラッシュが含まれていないことを確認します。次のコマンドで、 d7d8 を含むグローバルデバイスグループ rawdg を作成します。


    phys-paris-1# cldevicegroup create -n phys-paris-1,phys-paris-2 \
    -t rawdisk -d d7,d8 rawdg

例 1–1 raw ディスクデバイスグループの構成

次のコマンドは、主クラスタ上でのデバイスグループの構成、パートナークラスタ上での同一デバイスグループの構成、および Hitachi TrueCopy 保護グループへのグループの追加を示しています。


Remove the automatically created device groups from the primary cluster.
phys-paris-1# cldevicegroup disable dsk/d7 dsk/d8
phys-paris-1# cldevicegroup offline dsk/d7 dsk/d8
phys-paris-1# cldevicegroup delete dsk/d7 dsk/d8

Create the raw-disk device group on the primary cluster.
phys-paris-1# cldevicegroup create -n phys-paris-1,phys-paris-2 \
-t rawdisk -d d7,d8 rawdg

Remove the automatically created device groups from the partner cluster.
phys-newyork-1# cldevicegroup disable dsk/d5 dsk/d6
phys-newyork-1# cldevicegroup offline dsk/d5 dsk/d6
phys-newyork-1# cldevicegroup delete dsk/d5 dsk/d6

Create the raw-disk device group on the partner cluster.
phys-newyork-1# cldevicegroup create -n phys-newyork-1,phys-newyork-2 \
-t rawdisk -d d5,d6 rawdg

Add the raw-disk device group to the protection group rawpg.
phys-paris-1# geopg create -d truecopy -p Nodelist=phys-paris-1,phys-paris-2 \
-o Primary -p cluster_dgs=rawdg -s paris-newyork-ps rawpg

次の手順

パートナークラスタを構成するときに、ここで作成したのと同じ名前の raw ディスクデバイスグループを作成します。このタスクの手順については、「raw ディスクデバイスグループを使用する場合に主クラスタから構成情報を複製する方法」を参照してください。

両方のクラスタでデバイスグループを構成したら、geopg などの Sun Cluster Geographic Edition コマンドで必要な場合にどこででもこのデバイスグループ名を使用できます。

ProcedureHitachi TrueCopy 複製で使用するように VERITAS Volume Manager ボリュームを構成する方法

Hitachi TrueCopy は、VERITAS Volume Manager ボリュームおよび raw ディスクデバイスグループをサポートしています。VERITAS Volume Manager を使用している場合、ディスク d1d2 で VERITAS Volume Manager ボリュームを構成する必要があります。


注意 – 注意 –

ストレージベースの複製を使用している場合は、複製されたボリュームを定足数デバイスとして構成しないでください。Sun Cluster Geographic Edition ソフトウェアは、Hitachi TrueCopy S-VOL と Command Device を Sun Cluster 定足数デバイスとして使用することはサポートしていません。詳細は、『Sun Cluster のシステム管理 (Solaris OS 版)』「ストレージベースのデータ複製の使用法」を参照してください。


  1. cluster-paris の共有ディスクに VERITAS Volume Manager ディスクグループを作成します。

    たとえば、vxdiskadmvxdg などのコマンドを使用して、ディスク d1d2oradg1 という VERITAS Volume Manager ディスクグループの一部として構成します。

  2. 構成が完了したあと、vxdg list コマンドを使用して、このディスクグループが作成されたことを確認します。

    このコマンドで、oradg1 がディスクグループとしてリストされるはずです。

  3. VERITAS Volume Manager ボリュームを作成します。

    たとえば、vol1 というボリュームを oradg1 ディスクグループに作成します。適切な VERITAS Volume Manager コマンド (vxassist など) を使用して、ボリュームを構成してください。

次の手順

構成を完了するには、「Hitachi TrueCopy ソフトウェアが制御する Sun Cluster デバイスグループを構成する方法」に進んで、このディスクグループの Sun Cluster デバイスグループを作成します。

ProcedureHitachi TrueCopy ソフトウェアが制御する Sun Cluster デバイスグループを構成する方法

始める前に

ストレージベースの複製を使用している場合は、複製されたボリュームを定足数デバイスとして構成しないでください。Sun Cluster Geographic Edition ソフトウェアは、Hitachi TrueCopy S-VOL と Command Device を Sun Cluster 定足数デバイスとして使用することはサポートしていません。詳細は、『Sun Cluster のシステム管理 (Solaris OS 版)』「ストレージベースのデータ複製の使用法」を参照してください。

  1. 前の手順で構成した VERITAS Volume Manager ディスクグループを登録します。

    Sun Cluster コマンド cldevicegroup を使用します。

    このコマンドについての詳細は、cldevicegroup(1CL) のマニュアルページを参照してください。

  2. クラスタの各ノードにマウントディレクトリを作成します。


    phys-newyork-1# mkdir -p /mounts/sample
    phys-newyork-2# mkdir -p /mounts/sample
  3. もう一度 cldevicegroup コマンドを使用して、VERITAS Volume Manager 構成を Sun Cluster ソフトウェアに同期させます。

  4. 構成が完了したあと、ディスクグループが登録されていることを確認します。


    # cldevicegroup status
    

    このコマンドの出力には、VERITAS Volume Manager ディスクグループ oradg1 が表示されます。

    cldevicegroup コマンドについての詳細は、cldevicegroup(1CL) のマニュアルページを参照してください。

ProcedureHitachi TrueCopy 複製用に高可用性ファイルシステムを構成する方法

始める前に

cluster-paris でファイルシステムを構成する前に、必要な Sun Cluster エンティティー (アプリケーションリソースグループ、デバイスグループ、マウントポイントなど) がすでに構成されていることを確認します。

ストレージベースの複製を使用している場合は、複製されたボリュームを定足数デバイスとして構成しないでください。Sun Cluster Geographic Edition ソフトウェアは、Hitachi TrueCopy S-VOL と Command Device を Sun Cluster 定足数デバイスとして使用することはサポートしていません。詳細は、『Sun Cluster のシステム管理 (Solaris OS 版)』「ストレージベースのデータ複製の使用法」を参照してください。

  1. コマンド行で、必要なファイルシステムを vol1 ボリュームに作成します。

  2. マウント位置などの情報を含む /etc/vfstab ファイルにエントリを追加します。

    ファイルシステムをローカルにマウントするかグローバルにマウントするかは、パフォーマンス要件や使用しているアプリケーションリソースグループの種類など、さまざまな要因によって変わります。


    注 –

    このファイル内の mount at boot フィールドの値は no に設定する必要があります。この値を設定することによって、クラスタの起動時、ファイルシステムは二次クラスタにマウントされないようになります。代わりに、Sun Cluster ソフトウェアと Sun Cluster Geographic Edition フレームワークは、主クラスタ上でアプリケーションがオンラインになる場合に HAStoragePlus リソースを使用してファイルシステムをマウントします。二次クラスタにはデータをマウントしないでください。二次クラスタにデータをマウントすると、主クラスタ上のデータは二次クラスタに複製されなくなります。この方法以外では、主クラスタから二次クラスタへのデータ複製は行われません。


  3. HAStoragePlus リソースをアプリケーションリソースグループ apprg1 に追加します。

    このリソースをアプリケーションリソースグループに追加することによって、アプリケーションがオンラインになる前に、必ず、必要なファイルシステムが再マウントされるようになります。

    HAStoragePlus リソースタイプの詳細は、『Sun Cluster データサービスの計画と管理 (Solaris OS 版)』を参照してください。


例 1–2 高可用性クラスタグローバルファイルシステムを構成する

この例では、apprg1 リソースグループがすでに存在すると仮定します。

  1. UNIX ファイルシステム (UFS) を作成します。


    phys-paris-1# newfs dev/vx/dsk/oradg1/vol1

    /etc/vfstab ファイルに次のエントリが作成されます。


    # /dev/vs/dsk/oradg1/vol1 /dev/vx/rdsk/oradg1/vol1 /mounts/sample \
    ufs 2 no logging
  2. HAStoragePlus リソースタイプを追加します。


    phys-paris-1# clresource create -g apprg1 -t SUNW.HAStoragePlus \
       -p FilesystemMountPoints=/mounts/sample -p Affinityon=TRUE -p GlobalDevicePaths=oradg1 rs-has

二次クラスタ上の Hitachi TrueCopy ソフトウェアにデータ複製を構成する

この節では、Sun Cluster Geographic Edition ソフトウェアに Hitachi TrueCopy データ複製を構成する前に、二次クラスタで実行しておく必要がある手順について説明します。

/etc/horcm.conf ファイルの構成

主クラスタで行ったのと同じように、Hitachi ディスクアレイにアクセス権を持つクラスタの各ノード上の /etc/horcm.conf ファイルを編集して、二次クラスタの共有ディスク上で Hitachi TrueCopy デバイスグループを構成する必要があります。ディスク d1d2 は、devgroup1 という Hitachi TrueCopy デバイスグループに属するように構成します。アプリケーション apprg1 は、Hitachi TrueCopy デバイスグループを構成したすべてのノード上で実行できます。

/etc/horcm.conf ファイルの構成方法の詳細は、『Sun StorEdge SE 9900 V Series Command and Control Interface User and Reference Guide 』を参照してください。

次の表に、この例で使用する /etc/horcm.conf ファイルの構成情報を示します。

表 1–3 二次クラスタの /etc/horcm.conf ファイルのセクションの例

dev_group

dev_name

port number

TargetID

LU number

MU number

devgroup1

pair1

CL1–C

0

20

 

devgroup1

pair2

CL1–C

0

21

 

この表にある構成情報は、Hitachi TrueCopy デバイスグループ devgroup1 には 2 つのペアが含まれていることを示しています。1 番目のペアは pair1 で、d1 ディスクにあります (<CL1–C , 0, 20> という組からわかります)。2 番目のペアは pair2 で、d2 ディスクにあります (<CL1–C, 0, 21> という組からわかります)。

二次クラスタ上の /etc/horcm.conf ファイルを構成したあと、pairdisplay コマンドを次のように使用すると、ペアの状態を表示できます。


phys-paris-1# pairdisplay -g devgroup1
Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M
devgroup1 pair1(L) (CL1-A , 0, 1) 54321 1..  SMPL ----  ------,----- ----  -
devgroup1 pair1(R) (CL1-C , 0, 20)12345 609..SMPL ----  ------,----- ----  -
devgroup1 pair2(L) (CL1-A , 0, 2) 54321 2..  SMPL ----  ------,----- ----  -
devgroup1 pair2(R) (CL1-C , 0, 21)12345 610..SMPL ----  ------,----- ----  -

二次クラスタ上のほかのエンティティーの構成

次に、ボリュームマネージャー、Sun Cluster デバイスグループ、および高可用性クラスタファイルシステムを構成する必要があります。このプロセスは、VERITAS Volume Manager を使用するか、raw ディスクデバイスグループを使用するかによって少し異なります。次の手順を参照してください。

Procedure主クラスタから VERITAS Volume Manager 構成情報を複製する方法

始める前に

ストレージベースの複製を使用している場合は、複製されたボリュームを定足数デバイスとして構成しないでください。Sun Cluster Geographic Edition ソフトウェアは、Hitachi TrueCopy S-VOL と Command Device を Sun Cluster 定足数デバイスとして使用することはサポートしていません。詳細は、『Sun Cluster のシステム管理 (Solaris OS 版)』「ストレージベースのデータ複製の使用法」を参照してください。

  1. devgroup1 デバイスグループの複製を開始します。


    phys-paris-1# paircreate -g devgroup1 -vl -f async
    
    phys-paris-1# pairdisplay -g devgroup1
    Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M 
    devgroup1 pair1(L) (CL1-A , 0, 1) 54321   1..P-VOL COPY ASYNC ,12345 609   -
    devgroup1 pair1(R) (CL1-C , 0, 20)12345 609..S-VOL COPY ASYNC ,-----   1   -
    devgroup1 pair2(L) (CL1-A , 0, 2) 54321   2..P-VOL COPY ASYNC ,12345 610   -
    devgroup1 pair2(R) (CL1-C , 0, 21)12345 610..S-VOL COPY ASYNC ,-----   2   -
  2. 二次クラスタでペアが PAIR の状態になるまで待機します。


    phys-newyork-1# pairdisplay -g devgroup1
    Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M
    devgroup1 pair1(L) (CL1-C , 0, 20)12345 609..S-VOL PAIR ASYNC,-----, 1     - 
    devgroup1 pair1(R) (CL1-A , 0, 1) 54321   1..P-VOL PAIR ASYNC,12345, 609   - 
    devgroup1 pair2(L) (CL1-C , 0, 21)12345 610..S-VOL PAIR ASYNC,-----, 2     - 
    devgroup1 pair2(R) (CL1-A , 0, 2)54321    2..P-VOL PAIR ASYNC,12345, 610   -
  3. pairsplit コマンドを使用して、このペアを分割します。そして、-rw オプションを使用して、cluster-newyork の二次ボリュームが書き込み可能であることを確認します。


    phys-newyork-1# pairsplit -g devgroup1 -rw 
    phys-newyork-1# pairdisplay -g devgroup1
    Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M 
    devgroup1 pair1(L) (CL1-C , 0, 20)12345 609..S-VOL SSUS ASYNC, -----  1    - 
    devgroup1 pair1(R) (CL1-A , 0, 1) 54321   1..P-VOL PSUS ASYNC,12345  609   W 
    devgroup1 pair2(L) (CL1-C , 0,21) 12345 610..S-VOL SSUS ASYNC,-----   2    - 
    devgroup1 pair2(R) (CL1-A , 0, 2) 54321   2..P-VOL PSUS ASYNC,12345  610   W
  4. VERITAS Volume Manager ディスクグループ oradg1 をインポートします。


    phys-newyork-1# vxdg -C import oradg1
    
  5. VERITAS Volume Manager ディスクグループが正常にインポートされたことを確認します。


    phys-newyork-1# vxdg list
    
  6. VERITAS Volume Manager ボリュームを有効にします。


    phys-newyork-1# /usr/sbin/vxrecover -g oradg1 -s -b
    
  7. VERITAS Volume Manager ボリュームが認識されており、有効であることを確認します。


    phys-newyork-1# vxprint
    
  8. VERITAS Volume Manager ディスクグループ oradg1 を Sun Cluster に登録します。


    phys-newyork-1# cldevicegroup create -t vxvm -n phys-newyork-1,phys-newyork-2 oradg1
    
  9. ボリュームマネージャー情報を Sun Cluster デバイスグループに同期させ、その出力を確認します。


    phys-newyork-1# cldevicegroup sync oradg1
    phys-newyork-1# cldevicegroup status
    
  10. phys-newyork-1/etc/vfstab ファイルにエントリを追加します。


    phys-newyork-1# /dev/vx/dsk/oradg1/vol1 /dev/vx/rdsk/oradg1/vol1 \
    /mounts/sample ufs 2 no logging
    
  11. phys-newyork-1 にマウントディレクトリを作成します。


    phys-newyork-1# mkdir -p /mounts/sample
    
  12. scrgadm コマンドを使用して、アプリケーションリソースグループ apprg1 を作成します。


    phys-newyork-1# clresourcegroup create apprg1
    
  13. apprg1HAStoragePlus リソースを作成します。


    phys-newyork-1# clresource create -g apprg1 -t SUNW.HAStoragePlus \
    -p FilesystemMountPoints=/mounts/sample -p Affinityon=TRUE /
    -p GlobalDevicePaths=oradg1 rs-hasp
    

    この HAStoragePlus リソースは Sun Cluster Geographic Edition システムで必要になります。これは、主クラスタで保護グループが起動するとソフトウェアがこのリソースを利用してデバイスグループとファイルシステムをオンラインにするためです。

  14. 必要に応じて、アプリケーションリソースグループをオンラインにし、もう一度オフラインに戻すことによって、このアプリケーションリソースグループが正しく構成されていることを確認します。


    phys-newyork-1# clresourcegroup switch -emM -n phys-newyork-1 apprg1
    phs-newyork-1# clresourcegroup offline apprg1
    
  15. ファイルシステムをマウント解除します。


    phys-newyork-1# umount /mounts/sample
    
  16. Sun Cluster デバイスグループをオフラインにします。


    phys-newyork-1# cldevicegroup offline oradg1
    
  17. VERITAS Volume Manager ディスクグループがデポートされたことを確認します。


    phys-newyork-1# vxdg list
    
  18. Hitachi TrueCopy ペアを確立し直します。


    phys-newyork-1# pairresync -g devgroup1 
    phys-newyork-1# pairdisplay -g devgroup1 
    Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M 
    devgroup1 pair1(L) (CL1-C , 0, 20)12345 609..S-VOL PAIR ASYNC,-----   1    - 
    devgroup1 pair1(R) (CL1-A , 0, 1) 54321   1..P-VOL PAIR ASYNC,12345  609   W 
    devgroup1 pair2(L) (CL1-C , 0,21) 12345 610..S-VOL PAIR ASYNC,-----   2    - 
    devgroup1 pair2(R) (CL1-A , 0, 2) 54321   2..P-VOL PAIR ASYNC,12345  610   W

    これで、二次クラスタの初期構成は完了しました。

Procedureボリュームマネージャー構成のコピーを作成する方法

この作業では、VERITAS Volume Manager コマンド vxdiskadmvxassist を使用して、主クラスタ cluster-paris から二次クラスタ cluster-newyork の LUN にボリュームマネージャー構成をコピーします。


注 –

この手順の間、デバイスグループ devgroup1 は継続して SMPL 状態である必要があります。


  1. ペアが SMPL 状態であることを確認します。


    phys-newyork-1# pairdisplay -g devgroup1
    Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M 
    devgroup1 pair1(L) (CL1-C , 0, 20)12345 609..SMPL ---- ------,----- ----   - 
    devgroup1 pair1(R) (CL1-A , 0, 1) 54321   1..SMPL ---- ------,----- ----   - 
    devgroup1 pair2(L) (CL1-C , 0, 21)12345 610..SMPL ---- ------,----- ----   - 
    devgroup1 pair2(R) (CL1-A, 0, 2) 54321    2..SMPL ---- ------,----- ----   -
  2. cluster-paris の共有ディスクに VERITAS Volume Manager ディスクグループを作成します。

    たとえば、vxdiskadmvxdg などのコマンドを使用して、ディスク d1d2oradg1 という VERITAS Volume Manager ディスクグループの一部として構成します。

  3. 構成が完了したあと、vxdg list コマンドを使用して、このディスクグループが作成されたことを確認します。

    このコマンドで、oradg1 がディスクグループとしてリストされるはずです。

  4. VERITAS Volume Manager ボリュームを作成します。

    たとえば、vol1 というボリュームを oradg1 ディスクグループに作成します。適切な VERITAS Volume Manager コマンド (vxassist など) を使用して、ボリュームを構成してください。

  5. VERITAS Volume Manager ディスクグループをインポートします。


    phys-newyork-1# vxdg -C import oradg1
    
  6. VERITAS Volume Manager ディスクグループが正常にインポートされたことを確認します。


    phys-newyork-1# vxdg list
    
  7. VERITAS Volume Manager ボリュームを有効にします。


    phys-newyork-1# /usr/sbin/vxrecover -g oradg1 -s -b
    
  8. VERITAS Volume Manager ボリュームが認識されており、有効であることを確認します。


    phys-newyork-1# vxprint
    
  9. VERITAS Volume Manager ディスクグループ oradg1 を Sun Cluster に登録します。


    phys-newyork-1# cldevicegroup create -t vxvm -n phys-newyork-1,phys-newyork-2 oradg1
    
  10. VERITAS Volume Manager 情報を Sun Cluster デバイスグループに同期させ、その出力を確認します。


    phys-newyork-1# cldevicegroup sync oradg1
    phys-newyork-1# cldevicegroup status
    
  11. UNIX ファイルシステムを作成します。


    phys-newyork-1# newfs dev/vx/dsk/oradg1/vol1
    
  12. phys-newyork-1/etc/vfstab ファイルにエントリを追加します。


    phys-newyork-1# /dev/vx/dsk/oradg1/vol1 /dev/vx/rdsk/oradg1/vol1 /mounts/sample \
    ufs 2 no logging
    
  13. phys-newyork-1 にマウントディレクトリを作成します。


    phys-newyork-1# mkdir -p /mounts/sample
  14. clresourcegroup コマンドを使用して、アプリケーションリソースグループ apprg1 を作成します。


    phys-newyork-1# clresourcegroup create apprg1
    
  15. apprg1HAStoragePlus リソースを作成します。


    phys-newyork-1# clresource create -g apprg1 -t SUNW.HAStoragePlus \
    -p FilesystemMountPoints=/mounts/sample -p Affinityon=TRUE \
    -p GlobalDevicePaths=oradg1 rs-hasp
    

    この HAStoragePlus リソースは Sun Cluster Geographic Edition システムで必要になります。これは、主クラスタで保護グループが起動するとソフトウェアがこのリソースを利用してデバイスグループとファイルシステムをオンラインにするためです。

  16. 必要に応じて、アプリケーションリソースグループをオンラインにし、もう一度オフラインに戻すことによって、このアプリケーションリソースグループが正しく構成されていることを確認します。


    phys-newyork-1# clresourcegroup switch -emM -n phys-newyork-1 apprg1
    phs-newyork-1# clresourcegroup offline apprg1
    
  17. ファイルシステムをマウント解除します。


    phys-newyork-1# umount /mounts/sample
    
  18. Sun Cluster デバイスグループをオフラインにします。


    phys-newyork-1# cldevicegroup offline oradg1
    
  19. VERITAS Volume Manager ディスクグループがデポートされたことを確認します。


    phys-newyork-1# vxdg list
    
  20. ペアがまだ SMPL 状態であることを確認します。


    phys-newyork-1# pairdisplay -g devgroup1 
    Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M 
    devgroup1 pair1(L) (CL1-C , 0, 20)12345 609..SMPL ---- ------,-----  ----  - 
    devgroup1 pair1(R) (CL1-A , 0, 1) 54321   1..SMPL ---- ------,-----  ----  - 
    devgroup1 pair2(L) (CL1-C , 0, 21)12345 610..SMPL ---- ------,-----  ----  - 
    devgroup1 pair2(R) (CL1-A, 0, 2)  54321   2..SMPL ---- ------,-----  ----  -

Procedureraw ディスクデバイスグループを使用する場合に主クラスタから構成情報を複製する方法

始める前に

ストレージベースの複製を使用している場合は、複製されたボリュームを定足数デバイスとして構成しないでください。Sun Cluster Geographic Edition ソフトウェアは、Hitachi TrueCopy S-VOL と Command Device を Sun Cluster 定足数デバイスとして使用することはサポートしていません。詳細は、『Sun Cluster のシステム管理 (Solaris OS 版)』「ストレージベースのデータ複製の使用法」を参照してください。

  1. devgroup1 デバイスグループの複製を開始します。


    phys-paris-1# paircreate -g devgroup1 -vl -f async
    
    phys-paris-1# pairdisplay -g devgroup1
    Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M 
    devgroup1 pair1(L) (CL1-A , 0, 1) 54321   1..P-VOL COPY ASYNC ,12345 609   -
    devgroup1 pair1(R) (CL1-C , 0, 20)12345 609..S-VOL COPY ASYNC ,-----   1   -
    devgroup1 pair2(L) (CL1-A , 0, 2) 54321   2..P-VOL COPY ASYNC ,12345 610   -
    devgroup1 pair2(R) (CL1-C , 0, 21)12345 610..S-VOL COPY ASYNC ,-----   2   -
  2. 二次クラスタでペアが PAIR の状態になるまで待機します。


    phys-newyork-1# pairdisplay -g devgroup1
    Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M
    devgroup1 pair1(L) (CL1-C , 0, 20)12345 609..S-VOL PAIR ASYNC,-----, 1     - 
    devgroup1 pair1(R) (CL1-A , 0, 1) 54321   1..P-VOL PAIR ASYNC,12345, 609   - 
    devgroup1 pair2(L) (CL1-C , 0, 21)12345 610..S-VOL PAIR ASYNC,-----, 2     - 
    devgroup1 pair2(R) (CL1-A , 0, 2)54321    2..P-VOL PAIR ASYNC,12345, 610   -
  3. pairsplit コマンドを使用して、このペアを分割します。そして、-rw オプションを使用して、cluster-newyork の二次ボリュームが書き込み可能であることを確認します。


    phys-newyork-1# pairsplit -g devgroup1 -rw 
    phys-newyork-1# pairdisplay -g devgroup1
    Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M 
    devgroup1 pair1(L) (CL1-C , 0, 20)12345 609..S-VOL SSUS ASYNC, -----  1    - 
    devgroup1 pair1(R) (CL1-A , 0, 1) 54321   1..P-VOL PSUS ASYNC,12345  609   W 
    devgroup1 pair2(L) (CL1-C , 0,21) 12345 610..S-VOL SSUS ASYNC,-----   2    - 
    devgroup1 pair2(R) (CL1-A , 0, 2) 54321   2..P-VOL PSUS ASYNC,12345  610   W
  4. パートナークラスタ上に raw ディスクデバイスグループを作成します。

    主クラスタで使用したのと同じデバイスグループ名を使用してください。

    各クラスタで同じ DID を使用することができます。次のコマンドでは、newyork クラスタが paris クラスタのパートナーになっています。


    phys-newyork-1# cldevicegroup disable dsk/d5 dsk/d6
    phys-newyork-1# cldevicegroup offline dsk/d5 dsk/d6
    phys-newyork-1# cldevicegroup delete dsk/d5 dsk/d6
    phys-newyork-1# cldevicegroup create -n phys-newyork-1,phys-newyork-2 \
    -t rawdisk -d d5,d6 rawdg
    phys-newyork-1# /usr/cluster/lib/dcs/dgconv -d d5 rawdg
    phys-newyork-1# /usr/cluster/lib/dcs/dgconv -d d6 rawdg
    
  5. ボリュームマネージャー情報を Sun Cluster デバイスグループに同期させ、その出力を確認します。


    phys-newyork-1# cldevicegroup sync rawdg1
    phys-newyork-1# cldevicegroup status
    
  6. newyork クラスタの各ノードで /etc/vfstab ファイルにエントリを追加します。


    /dev/global/dsk/d5s2 /dev/global/rdsk/d5s2 \
    /mounts/sample ufs 2 no logging
    
  7. newyork クラスタの各ノードにマウントディレクトリを作成します。


    phys-newyork-1# mkdir -p /mounts/sample
    phys-newyork-2# mkdir -p /mounts/sample
    
  8. clresourcegroup コマンドを使用して、アプリケーションリソースグループ apprg1 を作成します。


    phys-newyork-1# clresourcegroup create apprg1
    
  9. apprg1HAStoragePlus リソースを作成します。


    phys-newyork-1# clresource create -g apprg1 -t SUNW.HAStoragePlus \
    -p FilesystemMountPoints=/mounts/sample -p Affinityon=TRUE /
    -p GlobalDevicePaths=rawdg1 rs-hasp
    

    この HAStoragePlus リソースは Sun Cluster Geographic Edition システムで必要になります。これは、主クラスタで保護グループが起動するとソフトウェアがこのリソースを利用してデバイスグループとファイルシステムをオンラインにするためです。

  10. 必要に応じて、アプリケーションリソースグループをオンラインにし、もう一度オフラインに戻すことによって、このアプリケーションリソースグループが正しく構成されていることを確認します。


    phys-newyork-1# clresourcegroup switch -emM -n phys-newyork-1 apprg1
    phs-newyork-1# clresourcegroup offline apprg1
    
  11. ファイルシステムをマウント解除します。


    phys-newyork-1# umount /mounts/sample
    
  12. Sun Cluster デバイスグループをオフラインにします。


    phys-newyork-1# cldevicegroup offline rawdg1
    
  13. Hitachi TrueCopy ペアを確立し直します。


    phys-newyork-1# pairresync -g devgroup1 
    phys-newyork-1# pairdisplay -g devgroup1 
    Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M 
    devgroup1 pair1(L) (CL1-C , 0, 20)12345 609..S-VOL PAIR ASYNC,-----   1    - 
    devgroup1 pair1(R) (CL1-A , 0, 1) 54321   1..P-VOL PAIR ASYNC,12345  609   W 
    devgroup1 pair2(L) (CL1-C , 0,21) 12345 610..S-VOL PAIR ASYNC,-----   2    - 
    devgroup1 pair2(R) (CL1-A , 0, 2) 54321   2..P-VOL PAIR ASYNC,12345  610   W

    これで、二次クラスタの初期構成は完了しました。