Sun Cluster Geographic Edition のシステム管理

Hitachi TrueCopy ソフトウェアの初期構成

この節では、主クラスタおよび二次クラスタ上の Hitachi TrueCopy ソフトウェアを構成する方法について説明します。また、Hitachi TrueCopy 保護グループを作成するための前提条件についても説明します。

主クラスタと二次クラスタの初期構成では、次のような作業を行います。

Hitachi TrueCopy Command Control Interface (CCI) を使用してデータを複製する場合は、RAID Manager を使用する必要があります。どのバージョンを使用するべきかについては、『Sun Cluster Geographic Edition のインストール』を参照してください。


注 –

このモデルでは、Sun StorEdge 9970/9980 Array または Hitachi Lightning 9900 Series Storage を使用する特定のハードウェア構成を必要とします。現在サポートされている Sun Cluster 構成については、Sun のサポートセンターに問い合わせてください。


Sun Cluster Geographic Edition ソフトウェアは、Sun Cluster ソフトウェアがサポートするハードウェア構成をサポートします。現在サポートされている Sun Cluster 構成については、Sun のサポートセンターに問い合わせてください。


注意 – 注意 –

ストレージベースの複製を使用している場合は、複製されたボリュームを定足数デバイスとして構成しないでください。Sun Cluster Geographic Edition ソフトウェアは、Hitachi TrueCopy S-VOL と Command Device を Sun Cluster 定足数デバイスとして使用することはサポートしていません。詳細は、『Sun Cluster 3.0-3.1 Hardware Administration Manual for Solaris OS』「Using Storage-Based Data Replication」を参照してください。


主クラスタ上の Hitachi TrueCopy ソフトウェアにデータ複製を構成する

この節では、Sun Cluster Geographic Edition ソフトウェアに Hitachi TrueCopy データ複製を構成する前に、主クラスタで実行しておく必要がある手順について説明します。各手順を例示するために、この節では d1d2 という 2 つのディスク (LUN) を使用します。これらのディスクは、apprg1 というアプリケーション用のデータを保持している Hitachi TrueCopy アレイにあります。

/etc/horcm.conf ファイルの構成

まず、主クラスタの共有ディスクに Hitachi TrueCopy デバイスグループを構成します。ディスク d1d2 は、devgroup1 という Hitachi TrueCopy デバイスグループに属するように構成します。この構成情報は、Hitachi アレイへのアクセス権を持つ各クラスタノード上の /etc/horcm.conf ファイルに指定します。 アプリケーション apprg1 は、これらのクラスタノードで実行できます。

/etc/horcm.conf ファイルの構成方法の詳細は、『Sun StorEdge SE 9900 V Series Command and Control Interface User and Reference Guide』を参照してください。

次の表に、この例で使用する /etc/horcm.conf ファイルの構成情報を示します。

表 9–2 主クラスタの /etc/horcm.conf ファイルのセクション例

dev_group

dev_name

port number

TargetID

LU number

MU number

devgroup1

pair1

CL1–A

0

1

 

devgroup1

pair2

CL1–A

0

2

 

この表にある構成情報は、Hitachi TrueCopy デバイスグループ devgroup1 には 2 つのペアが含まれていることを示しています。1 番目のペアは pair1 で、d1 ディスクにあります (<CL1–A , 0, 1> という組からわかります)。2 番目のペアは pair2 で、d2 ディスクにあります (<CL1–A, 0, 2> という組からわかります)。ディスク d1d2 の複製は、地理的に離れた Hitachi TrueCopy アレイにあります。リモートの Hitachi TrueCopy はパートナークラスタに接続されています。

ProcedureHitachi TrueCopy 複製で使用するようにボリュームを構成する方法

Hitachi TrueCopy は VERITAS Volume Manager ボリュームをサポートします。ディスク d1d2 に VERITAS Volume Manager ボリュームを構成する必要があります。


注意 – 注意 –

ストレージベースの複製を使用している場合は、複製されたボリュームを定足数デバイスとして構成しないでください。Sun Cluster Geographic Edition ソフトウェアは、Hitachi TrueCopy S-VOL と Command Device を Sun Cluster 定足数デバイスとして使用することはサポートしていません。詳細は、『Sun Cluster 3.0-3.1 Hardware Administration Manual for Solaris OS』「Using Storage-Based Data Replication」を参照してください。


手順
  1. cluster-paris の共有ディスクに VERITAS Volume Manager ディスクグループを作成します。

    たとえば、vxdiskadmvxdg などのコマンドを使用して、ディスク d1d2oradg1 という VERITAS Volume Manager ディスクグループの一部として構成します。

  2. 構成が完了したあと、vxdg list コマンドを使用して、このディスクグループが作成されたことを確認します。

    このコマンドの出力には、oradg1 がディスクグループとして表示されます。

  3. VERITAS Volume Manager ボリュームを作成します。

    たとえば、vol1 というボリュームを oradg1 ディスクグループに作成します。適切な VERITAS Volume Manager コマンド (vxassist など) を使用してボリュームを構成します。

ProcedureHitachi TrueCopy が制御する Sun Cluster デバイスグループを構成する方法

始める前に

ストレージベースの複製を使用している場合は、複製されたボリュームを定足数デバイスとして構成しないでください。Sun Cluster Geographic Edition ソフトウェアは、Hitachi TrueCopy S-VOL と Command Device を Sun Cluster 定足数デバイスとして使用することはサポートしていません。詳細は、『Sun Cluster 3.0-3.1 Hardware Administration Manual for Solaris OS』「Using Storage-Based Data Replication」を参照してください。

手順
  1. 前の手順で構成した VERITAS Volume Manager ディスクグループを登録します。

    Sun Cluster コマンド scsetup または scconf を使用します。

    これらのコマンドについては、scsetup(1M) または scconf(1M) のマニュアルページを参照してください。

  2. もう一度 Sun Cluster コマンド scsetup または scconf を使用して、VERITAS Volume Manager 構成を Sun Cluster ソフトウェアに同期させます。

  3. 構成が完了したあと、ディスクグループが登録されていることを確認します。


    # scstat -D

    このコマンドの出力には、VERITAS Volume Manager ディスクグループ oradg1 が表示されます。

    scstat コマンドの詳細は、scstat(1M) のマニュアルページを参照してください。

ProcedureHitachi TrueCopy 複製用に高可用性ファイルシステムを構成する方法

始める前に

cluster-paris でファイルシステムを構成する前に、必要な Sun Cluster エンティティー (アプリケーションリソースグループ、デバイスグループ、マウントポイントなど) がすでに構成されていることを確認します。

ストレージベースの複製を使用している場合は、複製されたボリュームを定足数デバイスとして構成しないでください。Sun Cluster Geographic Edition ソフトウェアは、Hitachi TrueCopy S-VOL と Command Device を Sun Cluster 定足数デバイスとして使用することはサポートしていません。詳細は、『Sun Cluster 3.0-3.1 Hardware Administration Manual for Solaris OS』「Using Storage-Based Data Replication」を参照してください。

手順
  1. コマンド行で、必要なファイルシステムを vol1 ボリュームに作成します。

  2. マウント位置などの情報を含む /etc/vfstab ファイルにエントリを追加します。

    ファイルシステムがローカルにマウントされるかグローバルにマウントされるかは、パフォーマンス要件や使用しているアプリケーションリソースグループの種類など、さまざまな要因によって変わります。


    注 –

    このファイル内の mount at boot フィールドの値は no に設定する必要があります。この値を設定することによって、クラスタの起動時、ファイルシステムは二次クラスタにマウントされないようになります。代わりに、Sun Cluster ソフトウェアと Sun Cluster Geographic Edition フレームワークは、主クラスタ上でアプリケーションがオンラインになる場合に HAStoragePlus リソースを使用してファイルシステムをマウントします。二次クラスタにはデータをマウントしないでください。二次クラスタにデータをマウントすると、主クラスタ上のデータは二次クラスタに複製されなくなります。この方法以外では、主クラスタから二次クラスタへのデータ複製は行われません。


  3. HAStoragePlus リソースをアプリケーションリソースグループ apprg1 に追加します。

    このリソースをアプリケーションリソースグループに追加することによって、アプリケーションがオンラインになる前に、必ず、必要なファイルシステムが再マウントされるようになります。

    HAStoragePlus リソースタイプについての詳細は、『Sun Cluster 3.1 データサービスの計画と管理』を参照してください。


例 9–1 高可用性クラスタグローバルファイルシステムを構成する

この例では、apprg1 リソースグループがすでに存在すると仮定します。

  1. UNIX ファイルシステム (UFS) を作成します。


    # newfs dev/vx/dsk/oradg1/vol1
  2. /etc/vfstab ファイルに次のようなエントリを作成します。


    # /dev/vs/dsk/oradg1/vol1 /dev/vx/rdsk/oradg1/vol1 /mounts/sample 
    ufs 2 no logging
  3. HAStoragePlus リソースタイプを追加します。


    # scrgadm -a -j rs-hasp -g apprg1 -t SUNW.HAStoragePlus 
    -x FilesystemMountPoints=/mounts/sample -x AffinityOn=TRUE 
    -x GlobalDevicePaths=oradg1

二次クラスタ上の Hitachi TrueCopy ソフトウェアにデータ複製を構成する

この節では、Sun Cluster Geographic Edition ソフトウェアに Hitachi TrueCopy データ複製を構成する前に、二次クラスタで実行しておく必要がある手順について説明します。

/etc/horcm.conf ファイルの構成

主クラスタのときと同様に、二次クラスタの共有ディスクに Hitachi TrueCopy デバイスグループを構成する必要があります。ディスク d1d2 は、devgroup1 という Hitachi TrueCopy デバイスグループに属するように構成します。この構成情報は、Hitachi アレイへのアクセス権を持つ各クラスタノードの /etc/horcm.conf ファイルに指定します。 アプリケーション apprg1 は、これらのクラスタノードで実行できます。

/etc/horcm.conf ファイルの構成方法の詳細は、『Sun StorEdge SE 9900 V Series Command and Control Interface User and Reference Guide』を参照してください。

次の表に、この例で使用する /etc/horcm.conf ファイルの構成情報を示します。

表 9–3 二次クラスタの /etc/horcm.conf ファイルのセクションの例

dev_group

dev_name

port number

TargetID

LU number

MU number

devgroup1

pair1

CL1–C

0

20

 

devgroup1

pair2

CL1–C

0

21

 

この表にある構成情報は、Hitachi TrueCopy デバイスグループ devgroup1 には 2 つのペアが含まれていることを示しています。1 番目のペアは pair1 で、d1 ディスクにあります (<CL1–C , 0, 20> という組からわかります)。2 番目のペアは pair2 で、d2 ディスクにあります (<CL1–C, 0, 21> という組からわかります)。

二次クラスタ上の /etc/horcm.conf ファイルを構成したあと、pairdisplay コマンドを次のように使用すると、ペアの状態を表示できます。


phys-paris-1# pairdisplay -g devgroup1
Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M
devgroup1 pair1(L) (CL1-A , 0, 1) 54321 1..  SMPL ----  ------,----- ----  -
devgroup1 pair1(R) (CL1-C , 0, 20)12345 609..SMPL ----  ------,----- ----  -
devgroup1 pair2(L) (CL1-A , 0, 2) 54321 2..  SMPL ----  ------,----- ----  -
devgroup1 pair2(R) (CL1-C , 0, 21)12345 610..SMPL ----  ------,----- ----  -

二次クラスタ上のほかのエンティティーの構成

次に、ボリュームマネージャー、Sun Cluster デバイスグループ、および高可用性クラスタグローバルファイルシステムを構成する必要があります。これらのエンティティーを構成するには、2 つの方法があります。

これらの方法については、それぞれ、次に示す手順の中で説明します。

Procedure主クラスタからボリュームマネージャー構成情報を複製する方法

始める前に

ストレージベースの複製を使用している場合は、複製されたボリュームを定足数デバイスとして構成しないでください。Sun Cluster Geographic Edition ソフトウェアは、Hitachi TrueCopy S-VOL と Command Device を Sun Cluster 定足数デバイスとして使用することはサポートしていません。詳細は、『Sun Cluster 3.0-3.1 Hardware Administration Manual for Solaris OS』「Using Storage-Based Data Replication」を参照してください。

手順
  1. devgroup1 デバイスグループの複製を開始します。


    phys-paris-1# paircreate -g devgroup1 -vl -f async
    
    phys-paris-1# pairdisplay -g devgroup1
    Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M 
    devgroup1 pair1(L) (CL1-A , 0, 1) 54321   1..P-VOL COPY ASYNC ,12345 609   -
    devgroup1 pair1(R) (CL1-C , 0, 20)12345 609..S-VOL COPY ASYNC ,-----   1   -
    devgroup1 pair2(L) (CL1-A , 0, 2) 54321   2..P-VOL COPY ASYNC ,12345 610   -
    devgroup1 pair2(R) (CL1-C , 0, 21)12345 610..S-VOL COPY ASYNC ,-----   2   -
  2. 二次クラスタでペアが PAIR の状態になるまで待機します。


    phys-newyork-1# pairdisplay -g devgroup1
    Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M
    devgroup1 pair1(L) (CL1-C , 0, 20)12345 609..S-VOL PAIR ASYNC,-----, 1     - 
    devgroup1 pair1(R) (CL1-A , 0, 1) 54321   1..P-VOL PAIR ASYNC,12345, 609   - 
    devgroup1 pair2(L) (CL1-C , 0, 21)12345 610..S-VOL PAIR ASYNC,-----, 2     - 
    devgroup1 pair2(R) (CL1-A , 0, 2)54321    2..P-VOL PAIR ASYNC,12345, 610   -
  3. pairsplit コマンドを使用して、このペアを分割します。そして、-rw オプションを使用して、cluster-newyork の二次ボリュームが書き込み可能であることを確認します。


    phys-newyork-1# pairsplit -g devgroup1 -rw 
    phys-newyork-1# pairdisplay -g devgroup1
    Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M 
    devgroup1 pair1(L) (CL1-C , 0, 20)12345 609..S-VOL SSUS ASYNC, -----  1    - 
    devgroup1 pair1(R) (CL1-A , 0, 1) 54321   1..P-VOL PSUS ASYNC,12345  609   W 
    devgroup1 pair2(L) (CL1-C , 0,21) 12345 610..S-VOL SSUS ASYNC,-----   2    - 
    devgroup1 pair2(R) (CL1-A , 0, 2) 54321   2..P-VOL PSUS ASYNC,12345  610   W
  4. VERITAS Volume Manager ディスクグループ oradg1 をインポートします。


    phys-newyork-1# vxdg -C import oradg1
  5. VERITAS Volume Manager ディスクグループが正常にインポートされたことを確認します。


    phys-newyork-1# vxdg list
  6. VERITAS Volume Manager ボリュームを有効にします。


    phys-newyork-1# /usr/sbin/vxrecover -g oradg1 -s -b
  7. VERITAS Volume Manager ボリュームが認識されており、有効であることを確認します。


    phys-newyork-1# vxprint
  8. VERITAS Volume Manager ディスクグループ oradg1 を Sun Cluster に登録します。


    phys-newyork-1# scconf -a -D type=vxvm, name=oradg1, \
    nodelist=phys-newyork-1:phys-newyork-2
  9. ボリュームマネージャー情報を Sun Cluster デバイスグループに同期させ、その出力を確認します。


    phys-newyork-1# scconf -c -D name=oradg1,sync
    phys-newyork-1# scstat -D
  10. phys-newyork-1/etc/vfstab ファイルにエントリを追加します。


    phys-newyork-1# /dev/vx/dsk/oradg1/vol1 /dev/vx/rdsk/oradg1/vol1 \
    /mounts/sample ufs 2 no logging
  11. phys-newyork-1 にマウントディレクトリを作成します。


    phys-newyork-1# mkdir -p /mounts/sample
  12. scrgadm コマンドを使用して、アプリケーションリソースグループ apprg1 を作成します。


    phys-newyork-1# scrgadm -a -g apprg1
  13. apprg1HAStoragePlus リソースを作成します。


    phys-newyork-1# scrgadm -a -j rs-hasp -g apprg1 -t SUNW.HAStoragePlus \
    -x FilesystemMountPoints=/mounts/sample -x AffinityOn=TRUE \
    -x GlobalDevicePaths=oradg1 \
  14. 必要に応じて、アプリケーションリソースグループをオンラインにし、もう一度オフラインに戻すことによって、このアプリケーションリソースグループが正しく構成されていることを確認します。


    phys-newyork-1# scswitch -z -g apprg1 -h phys-newyork-1
    phs-newyork-1# scswitch -F -g apprg1
  15. ファイルシステムをマウント解除します。


    phys-newyork-1# umount /mounts/sample
  16. Sun Cluster デバイスグループをオフラインにします。


    phys-newyork-1# scswitch -F -D oradg1
  17. VERITAS Volume Manager ディスクグループがデポートされたことを確認します。


    phys-newyork-1# vxdg list
  18. Hitachi TrueCopy ペアを確立し直します。


    phys-newyork-1# pairresync -g devgroup1 
    phys-newyork-1# pairdisplay -g devgroup1 
    Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M 
    devgroup1 pair1(L) (CL1-C , 0, 20)12345 609..S-VOL PAIR ASYNC,-----   1    - 
    devgroup1 pair1(R) (CL1-A , 0, 1) 54321   1..P-VOL PAIR ASYNC,12345  609   W 
    devgroup1 pair2(L) (CL1-C , 0,21) 12345 610..S-VOL PAIR ASYNC,-----   2    - 
    devgroup1 pair2(R) (CL1-A , 0, 2) 54321   2..P-VOL PAIR ASYNC,12345  610   W

    これで、二次クラスタの初期構成は完了しました。

Procedureボリュームマネージャー構成のコピーを作成する方法

この作業では、VERITAS Volume Manager コマンド vxdiskadmvxassist を使用して、主クラスタ cluster-paris から二次クラスタ cluster-newyork の LUN にボリュームマネージャー構成をコピーします。


注 –

この手順の間、デバイスグループ devgroup1 は継続して SMPL 状態である必要があります。


手順
  1. ペアが SMPL 状態であることを確認します。


    phys-newyork-1# pairdisplay -g devgroup1
    Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M 
    devgroup1 pair1(L) (CL1-C , 0, 20)12345 609..SMPL ---- ------,----- ----   - 
    devgroup1 pair1(R) (CL1-A , 0, 1) 54321   1..SMPL ---- ------,----- ----   - 
    devgroup1 pair2(L) (CL1-C , 0, 21)12345 610..SMPL ---- ------,----- ----   - 
    devgroup1 pair2(R) (CL1-A, 0, 2) 54321    2..SMPL ---- ------,----- ----   -
  2. cluster-paris の共有ディスクに VERITAS Volume Manager ディスクグループを作成します。

    たとえば、vxdiskadmvxdg などのコマンドを使用して、ディスク d1d2oradg1 という VERITAS Volume Manager ディスクグループの一部として構成します。

  3. 構成が完了したあと、vxdg list コマンドを使用して、このディスクグループが作成されたことを確認します。

    このコマンドの出力には、oradg1 がディスクグループとして表示されます。

  4. VERITAS Volume Manager ボリュームを作成します。

    たとえば、vol1 というボリュームを oradg1 ディスクグループに作成します。適切な VERITAS Volume Manager コマンド (vxassist など) を使用してボリュームを構成します。

  5. VERITAS Volume Manager ディスクグループをインポートします。


    phys-newyork-1# vxdg -C import oradg1
  6. VERITAS Volume Manager ディスクグループが正常にインポートされたことを確認します。


    phys-newyork-1# vxdg list
  7. VERITAS Volume Manager ボリュームを有効にします。


    phys-newyork-1# /usr/sbin/vxrecover -g oradg1 -s -b
  8. VERITAS Volume Manager ボリュームが認識されており、有効であることを確認します。


    phys-newyork-1# vxprint
  9. VERITAS Volume Manager ディスクグループ oradg1 を Sun Cluster に登録します。


    phys-newyork-1# scconf -a -D type=vxvm, name=oradg1, \
    nodelist=phys-newyork-1:phys-newyork-2
  10. VERITAS Volume Manager 情報を Sun Cluster デバイスグループに同期させ、その出力を確認します。


    phys-newyork-1# scconf -c -D name=oradg1, sync
    phys-newyork-1# scstat -D
  11. UNIX ファイルシステムを作成します。


    phys-newyork-1# newfs dev/vx/dsk/oradg1/vol1
  12. phys-newyork-1/etc/vfstab ファイルにエントリを追加します。


    phys-newyork-1# /dev/vx/dsk/oradg1/vol1 /dev/vx/rdsk/oradg1/vol1 /mounts/sample \
    ufs 2 no logging
  13. phys-newyork-1 にマウントディレクトリを作成します。


    phys-newyork-1# mkdir -p /mounts/sample
  14. scrgadm コマンドを使用して、アプリケーションリソースグループ apprg1 を作成します。


    phys-newyork-1# scrgadm -a -g apprg1
  15. apprg1HAStoragePlus リソースを作成します。


    phys-newyork-1# scrgadm -a -j rs-hasp -g apprg1 -t SUNW.HAStoragePlus \
    -x FilesystemMountPoints=/mounts/sample -x AffinityOn=TRUE \
    -x GlobalDevicePaths=oradg1 \
  16. 必要に応じて、アプリケーションリソースグループをオンラインにし、もう一度オフラインに戻すことによって、このアプリケーションリソースグループが正しく構成されていることを確認します。


    phys-newyork-1# scswitch -z -g apprg1 -h phys-newyork-1
    phs-newyork-1# scswitch -F -g apprg1
  17. ファイルシステムをマウント解除します。


    phys-newyork-1# umount /mounts/sample
  18. Sun Cluster デバイスグループをオフラインにします。


    phys-newyork-1# scswitch -F -D oradg1
  19. VERITAS Volume Manager ディスクグループがデポートされたことを確認します。


    phys-newyork-1# vxdg list
  20. ペアがまだ SMPL 状態であることを確認します。


    phys-newyork-1# pairdisplay -g devgroup1 
    Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M 
    devgroup1 pair1(L) (CL1-C , 0, 20)12345 609..SMPL ---- ------,-----  ----  - 
    devgroup1 pair1(R) (CL1-A , 0, 1) 54321   1..SMPL ---- ------,-----  ----  - 
    devgroup1 pair2(L) (CL1-C , 0, 21)12345 610..SMPL ---- ------,-----  ----  - 
    devgroup1 pair2(R) (CL1-A, 0, 2)  54321   2..SMPL ---- ------,-----  ----  -