Sun Cluster Geographic Edition Hitachi TrueCopy 向けデータ複製ガイド

第 1 章 Hitachi TrueCopy ソフトウェアによるデータ複製

データ複製中、主クラスタのデータはバックアップクラスタまたは二次クラスタにコピーされます。二次クラスタは、主クラスタから地理的に離れていてもかまいません。この距離は、使用しているデータ複製製品がサポートする距離に依存します。

Sun Cluster Geographic Edition ソフトウェアは、Hitachi TrueCopy ソフトウェアによるデータ複製をサポートします。Hitachi TrueCopy ソフトウェアを使用してデータの複製を開始するためには、Hitachi TrueCopy のマニュアルによく目を通し、Hitachi TrueCopy 製品と最新の Hitachi TrueCopy パッチを、使用しているシステムにインストールする必要があります。Hitachi TrueCopy ソフトウェアのインストール方法については、Hitachi TrueCopy 製品のマニュアルを参照してください。

この章では、Hitachi TrueCopy ソフトウェアを使用して、データ複製を構成する手順と管理する手順を示します。この章は、次の節で構成されます。

データ複製デバイスグループを作成する方法と削除する方法については、「Hitachi TrueCopy データ複製デバイスグループの管理」を参照してください。複製のグローバルな実行時状態と詳細な実行時状態を取得する方法については、「Hitachi TrueCopy データ複製の実行時状態の検査」を参照してください。

Hitachi TrueCopy 保護グループ内のデータ複製の管理

この節では、保護グループにおける Hitachi TrueCopy データ複製を構成する手順を要約します。

表 1–1 Hitachi TrueCopy データ複製の管理作業

作業 

説明 

構成要件とガイドランを検討し、Hitachi TrueCopy ソフトウェアの初期構成を実行します。 

「Hitachi TrueCopy ソフトウェアの初期構成」を参照してください。

Hitachi TrueCopy データ複製が行えるように構成する保護グループを作成します。 

「Hitachi TrueCopy 保護グループを作成および構成する方法 (Oracle Real Application Clusters を使用しない場合)」 または 「Oracle Real Application Clusters の保護グループを作成する方法」を参照してください。

Hitachi TrueCopy が制御するデバイスグループを追加します。 

「Hitachi TrueCopy 保護グループにデータ複製デバイスグループを追加する方法」を参照してください。

保護グループにアプリケーションリソースグループを追加します。 

「Hitachi TrueCopy 保護グループにアプリケーションリソースグループを追加する方法」を参照してください。

保護グループの構成を二次クラスタに複製します。 

「Hitachi TrueCopy 保護グループ構成を二次クラスタに複製する方法」を参照してください。

設定を検証するため、構成済みのパートナーシップと保護グループをテストします。 

スイッチオーバーまたはテイクオーバーを試しに実行し、単純な障害状況を予想したテストを実施します。第 3 章「Hitachi TrueCopy データ複製を使用するサービスの移行」を参照してください。

保護グループを有効にします。 

「Hitachi TrueCopy 保護グループを有効にする方法」を参照してください。

複製の実行時状態を検査します。 

「Hitachi TrueCopy データ複製の実行時状態の検査」を参照してください。

障害を検出します。 

「Hitachi TrueCopy データ複製を使用するシステムでのクラスタ障害の検出」を参照してください。

スイッチオーバーを使用してサービスを移行します。 

「Hitachi TrueCopy データ複製を使用するサービスをスイッチオーバーで移行する」を参照してください。

テイクオーバーを使用してサービスを移行します。 

「Hitachi TrueCopy データ複製を使用するシステムでのテイクオーバーの強制実行」を参照してください。

テイクオーバーの強制実行のあと、データを回復します 

「Hitachi TrueCopy 複製を使用するシステムでのクラスタへのサービスの回復」を参照してください。

データ複製エラーを検出し、エラーから回復します。 

「Hitachi TrueCopy データ複製エラーからの回復」を参照してください。

Hitachi TrueCopy ソフトウェアの初期構成

この節では、主クラスタおよび二次クラスタ上の Hitachi TrueCopy ソフトウェアを構成する方法について説明します。また、Hitachi TrueCopy 保護グループを作成するための前提条件についても説明します。この節では、次の内容について説明します。

初期構成プロセスの概要

主クラスタと二次クラスタの初期構成では、次のような作業を行います。

構成要件とガイドライン

次に示す要件とガイドラインを確認してください。

主クラスタ上の Hitachi TrueCopy ソフトウェアにデータ複製を構成する

この節では、Sun Cluster Geographic Edition ソフトウェアに Hitachi TrueCopy データ複製を構成する前に、主クラスタで実行しておく必要がある手順について説明します。各手順を例示するために、この節では d1d2 という 2 つのディスク (LUN) を使用します。これらのディスクは、apprg1 というアプリケーション用のデータを保持している Hitachi TrueCopy アレイにあります。

/etc/horcm.conf ファイルの構成

Hitachi ディスクアレイにアクセス権を持つクラスタの各ノード上の /etc/horcm.conf ファイルを編集して、主クラスタの共有ディスク上で Hitachi TrueCopy デバイスグループを構成します。ディスク d1d2 は、devgroup1 という Hitachi TrueCopy デバイスグループに属するように構成します。アプリケーション apprg1 は、Hitachi TrueCopy デバイスグループを構成したすべてのノード上で実行できます。

/etc/horcm.conf ファイルの構成方法の詳細は、『Sun StorEdge SE 9900 V Series Command and Control Interface User and Reference Guide 』を参照してください。

次の表に、この例で使用する/etc/horcm.conf ファイルの構成情報を示します。

表 1–2 主クラスタの /etc/horcm.conf ファイルのセクション例

dev_group

dev_name

port number

TargetID

LU number

MU number

devgroup1

pair1

CL1–A

0

1

 

devgroup1

pair2

CL1–A

0

2

 

この表にある構成情報は、Hitachi TrueCopy デバイスグループ devgroup1 には 2 つのペアが含まれていることを示しています。1 番目のペアは pair1 で、d1 ディスクにあります (<CL1–A , 0, 1> という組からわかります)。2 番目のペアは pair2 で、d2 ディスクにあります (<CL1–A, 0, 2> という組からわかります)。ディスク d1d2 の複製は、地理的に離れた Hitachi TrueCopy アレイにあります。リモートの Hitachi TrueCopy はパートナークラスタに接続されています。

ProcedureSun Cluster Geographic Edition システム用の raw ディスクデバイスグループを設定する方法

Sun Cluster Geographic Edition では、各種のボリュームマネージャーに加えて raw ディスクデバイスグループの使用がサポートされています。Sun Cluster を最初に構成する際、クラスタ内の raw デバイスごとにデバイスグループが自動的に構成されます。ここで説明する手順を使用して、これらの自動作成されたデバイスグループを Sun Cluster Geographic Edition で使用できるように再構成します。

  1. 使用する各デバイスについて、定義済みのデバイスグループの構成を解除します。

    次のコマンドは、d7 および d8 に対する定義済みのデバイスグループを除去します。


    phys-paris-1# cldevicegroup disable dsk/d7 dsk/d8
    phys-paris-1# cldevicegroup offline dsk/d7 dsk/d8
    phys-paris-1# cldevicegroup delete dsk/d7 dsk/d8
    
  2. 必要なデバイスを含む、新しい raw ディスクデバイスグループを作成します。

    新しい DID にスラッシュが含まれていないことを確認します。次のコマンドで、d7d8 を含むグローバルデバイスグループ rawdg を作成します。


    phys-paris-1# cldevicegroup create -n phys-paris-1,phys-paris-2 \
    -t rawdisk -d d7,d8 rawdg
    

例 1–1 raw ディスクデバイスグループの構成

次のコマンドは、主クラスタ上でのデバイスグループの構成、パートナークラスタ上での同一デバイスグループの構成、および Hitachi TrueCopy 保護グループへのグループの追加を示しています。


自動的に作成されたデバイスグループを主クラスタから削除します。
phys-paris-1# cldevicegroup disable dsk/d7 dsk/d8
phys-paris-1# cldevicegroup offline dsk/d7 dsk/d8
phys-paris-1# cldevicegroup delete dsk/d7 dsk/d8

主クラスタに raw ディスクデバイスグループを作成します。
phys-paris-1# cldevicegroup create -n phys-paris-1,phys-paris-2 \
-t rawdisk -d d7,d8 rawdg

自動的に作成されたデバイスグループをパートナークラスタから削除します。
phys-newyork-1# cldevicegroup disable dsk/d5 dsk/d6
phys-newyork-1# cldevicegroup offline dsk/d5 dsk/d6
phys-newyork-1# cldevicegroup delete dsk/d5 dsk/d6

パートナークラスタに raw ディスクデバイスグループを作成します。
phys-newyork-1# cldevicegroup create -n phys-newyork-1,phys-newyork-2 \
-t rawdisk -d d5,d6 rawdg

raw ディスクデバイスグループを保護グループ rawpg に追加します。
phys-paris-1# geopg create -d truecopy -p Nodelist=phys-paris-1,phys-paris-2 \
-o Primary -p cluster_dgs=rawdg -s paris-newyork-ps rawpg

次の手順

パートナークラスタを構成するときに、ここで作成したのと同じ名前の raw ディスクデバイスグループを作成します。このタスクの手順については、「raw ディスクデバイスグループを使用する場合に主クラスタから構成情報を複製する方法」を参照してください。

両方のクラスタでデバイスグループを構成したら、geopg などの Sun Cluster Geographic Edition コマンドで必要な場合にどこででもこのデバイスグループ名を使用できます。

ProcedureHitachi TrueCopy 複製で使用するように VERITAS Volume Manager ボリュームを構成する方法

Hitachi TrueCopy は、VERITAS Volume Manager ボリュームおよび raw ディスクデバイスグループをサポートしています。VERITAS Volume Manager を使用している場合、ディスク d1d2 で VERITAS Volume Manager ボリュームを構成する必要があります。


注意 – 注意 –

ストレージベースの複製を使用している場合は、複製されたボリュームを定足数デバイスとして構成しないでください。Sun Cluster Geographic Edition ソフトウェアは、Hitachi TrueCopy S-VOL と Command Device を Sun Cluster 定足数デバイスとして使用することはサポートしていません。詳細は、『Sun Cluster System Administration Guide for Solaris OS』「Using Storage-Based Data Replication」を参照してください。


  1. cluster-paris の共有ディスクに VERITAS Volume Manager ディスクグループを作成します。

    たとえば、vxdiskadmvxdg などのコマンドを使用して、ディスク d1d2oradg1 という VERITAS Volume Manager ディスクグループの一部として構成します。

  2. 構成が完了したあと、vxdg list コマンドを使用して、このディスクグループが作成されたことを確認します。

    このコマンドで、oradg1 がディスクグループとしてリストされるはずです。

  3. VERITAS Volume Manager ボリュームを作成します。

    たとえば、vol1 というボリュームを oradg1 ディスクグループに作成します。適切な VERITAS Volume Manager コマンド (vxassist など) を使用して、ボリュームを構成してください。

次の手順

構成を完了するには、「Hitachi TrueCopy ソフトウェアが制御する Sun Cluster デバイスグループを構成する方法」に進んで、このディスクグループの Sun Cluster デバイスグループを作成します。

ProcedureHitachi TrueCopy ソフトウェアが制御する Sun Cluster デバイスグループを構成する方法

始める前に

ストレージベースの複製を使用している場合は、複製されたボリュームを定足数デバイスとして構成しないでください。Sun Cluster Geographic Edition ソフトウェアは、Hitachi TrueCopy S-VOL と Command Device を Sun Cluster 定足数デバイスとして使用することはサポートしていません。詳細は、『Sun Cluster System Administration Guide for Solaris OS』「Using Storage-Based Data Replication」を参照してください。

  1. 前の手順で構成した VERITAS Volume Manager ディスクグループを登録します。

    Sun Cluster コマンド cldevicegroup を使用します。

    このコマンドの詳細は、cldevicegroup(1CL) のマニュアルページを参照してください。

  2. クラスタの各ノードにマウントディレクトリを作成します。


    phys-newyork-1# mkdir -p /mounts/sample
    phys-newyork-2# mkdir -p /mounts/sample
    
  3. もう一度 cldevicegroup コマンドを使用して、VERITAS Volume Manager 構成を Sun Cluster ソフトウェアに同期させます。

  4. 構成が完了したあと、ディスクグループが登録されていることを確認します。


    # cldevicegroup status
    

    このコマンドの出力には、VERITAS Volume Manager ディスクグループ oradg1 が表示されます。

    cldevicegroup コマンドについての詳細は、cldevicegroup(1CL) のマニュアルページを参照してください。

ProcedureHitachi TrueCopy 複製用に高可用性ファイルシステムを構成する方法

始める前に

cluster-paris でファイルシステムを構成する前に、必要な Sun Cluster エンティティー (アプリケーションリソースグループ、デバイスグループ、マウントポイントなど) がすでに構成されていることを確認します。

ストレージベースの複製を使用している場合は、複製されたボリュームを定足数デバイスとして構成しないでください。Sun Cluster Geographic Edition ソフトウェアは、Hitachi TrueCopy S-VOL と Command Device を Sun Cluster 定足数デバイスとして使用することはサポートしていません。詳細は、『Sun Cluster System Administration Guide for Solaris OS』「Using Storage-Based Data Replication」を参照してください。

  1. コマンド行で、必要なファイルシステムを vol1 ボリュームに作成します。

  2. マウント位置などの情報を含む /etc/vfstab ファイルにエントリを追加します。

    ファイルシステムをローカルにマウントするかグローバルにマウントするかは、パフォーマンス要件や使用しているアプリケーションリソースグループの種類など、さまざまな要因によって変わります。


    注 –

    このファイル内の mount at boot フィールドの値は no に設定する必要があります。この値を設定することによって、クラスタの起動時、ファイルシステムは二次クラスタにマウントされないようになります。代わりに、Sun Cluster ソフトウェアと Sun Cluster Geographic Edition フレームワークは、主クラスタ上でアプリケーションがオンラインになる場合に HAStoragePlus リソースを使用してファイルシステムをマウントします。二次クラスタにはデータをマウントしないでください。二次クラスタにデータをマウントすると、主クラスタ上のデータは二次クラスタに複製されなくなります。この方法以外では、主クラスタから二次クラスタへのデータ複製は行われません。


  3. HAStoragePlus リソースをアプリケーションリソースグループ apprg1 に追加します。

    このリソースをアプリケーションリソースグループに追加することによって、アプリケーションがオンラインになる前に、必ず、必要なファイルシステムが再マウントされるようになります。

    HAStoragePlus リソースタイプについての詳細は、『Sun Cluster Data Services Planning and Administration Guide for Solaris OS』を参照してください。


例 1–2 高可用性クラスタグローバルファイルシステムを構成する

この例では、apprg1 リソースグループがすでに存在すると仮定します。

  1. UNIX ファイルシステム (UFS) を作成します。


    phys-paris-1# newfs dev/vx/dsk/oradg1/vol1
    

    /etc/vfstab ファイルに次のエントリが作成されます。


    # /dev/vs/dsk/oradg1/vol1 /dev/vx/rdsk/oradg1/vol1 /mounts/sample \
    ufs 2 no logging
  2. HAStoragePlus リソースタイプを追加します。


    phys-paris-1# clresource create -g apprg1 -t SUNW.HAStoragePlus \
    -p FilesystemMountPoints=/mounts/sample -p Affinityon=TRUE \
    -p GlobalDevicePaths=oradg1 rs-has
    

二次クラスタ上の Hitachi TrueCopy ソフトウェアにデータ複製を構成する

この節では、Sun Cluster Geographic Edition ソフトウェアに Hitachi TrueCopy データ複製を構成する前に、二次クラスタで実行しておく必要がある手順について説明します。

/etc/horcm.conf ファイルの構成

主クラスタで行ったのと同じように、Hitachi ディスクアレイにアクセス権を持つクラスタの各ノード上の /etc/horcm.conf ファイルを編集して、二次クラスタの共有ディスク上で Hitachi TrueCopy デバイスグループを構成する必要があります。ディスク d1d2 は、devgroup1 という Hitachi TrueCopy デバイスグループに属するように構成します。アプリケーション apprg1 は、Hitachi TrueCopy デバイスグループを構成したすべてのノード上で実行できます。

/etc/horcm.conf ファイルの構成方法の詳細は、『Sun StorEdge SE 9900 V Series Command and Control Interface User and Reference Guide 』を参照してください。

次の表に、この例で使用する /etc/horcm.conf ファイルの構成情報を示します。

表 1–3 二次クラスタの /etc/horcm.conf ファイルのセクションの例

dev_group

dev_name

port number

TargetID

LU number

MU number

devgroup1

pair1

CL1–C

0

20

 

devgroup1

pair2

CL1–C

0

21

 

この表にある構成情報は、Hitachi TrueCopy デバイスグループ devgroup1 には 2 つのペアが含まれていることを示しています。1 番目のペアは pair1 で、d1 ディスクにあります (<CL1–C , 0, 20> という組からわかります)。2 番目のペアは pair2 で、d2 ディスクにあります (<CL1–C, 0, 21> という組からわかります)。

二次クラスタ上の /etc/horcm.conf ファイルを構成したあと、pairdisplay コマンドを次のように使用すると、ペアの状態を表示できます。


phys-paris-1# pairdisplay -g devgroup1
Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M
devgroup1 pair1(L) (CL1-A , 0, 1) 54321 1..  SMPL ----  ------,----- ----  -
devgroup1 pair1(R) (CL1-C , 0, 20)12345 609..SMPL ----  ------,----- ----  -
devgroup1 pair2(L) (CL1-A , 0, 2) 54321 2..  SMPL ----  ------,----- ----  -
devgroup1 pair2(R) (CL1-C , 0, 21)12345 610..SMPL ----  ------,----- ----  -

二次クラスタ上のほかのエンティティーの構成

次に、ボリュームマネージャー、Sun Cluster デバイスグループ、および高可用性クラスタファイルシステムを構成する必要があります。このプロセスは、VERITAS Volume Manager を使用するか、raw ディスクデバイスグループを使用するかによって少し異なります。次の手順を参照してください。

Procedure主クラスタから VERITAS Volume Manager 構成情報を複製する方法

始める前に

ストレージベースの複製を使用している場合は、複製されたボリュームを定足数デバイスとして構成しないでください。Sun Cluster Geographic Edition ソフトウェアは、Hitachi TrueCopy S-VOL と Command Device を Sun Cluster 定足数デバイスとして使用することはサポートしていません。詳細は、『Sun Cluster System Administration Guide for Solaris OS』「Using Storage-Based Data Replication」を参照してください。

  1. devgroup1 デバイスグループの複製を開始します。


    phys-paris-1# paircreate -g devgroup1 -vl -f async
    
    phys-paris-1# pairdisplay -g devgroup1
    Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M 
    devgroup1 pair1(L) (CL1-A , 0, 1) 54321   1..P-VOL COPY ASYNC ,12345 609   -
    devgroup1 pair1(R) (CL1-C , 0, 20)12345 609..S-VOL COPY ASYNC ,-----   1   -
    devgroup1 pair2(L) (CL1-A , 0, 2) 54321   2..P-VOL COPY ASYNC ,12345 610   -
    devgroup1 pair2(R) (CL1-C , 0, 21)12345 610..S-VOL COPY ASYNC ,-----   2   -
  2. 二次クラスタでペアが PAIR の状態になるまで待機します。


    phys-newyork-1# pairdisplay -g devgroup1
    Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M
    devgroup1 pair1(L) (CL1-C , 0, 20)12345 609..S-VOL PAIR ASYNC,-----, 1     - 
    devgroup1 pair1(R) (CL1-A , 0, 1) 54321   1..P-VOL PAIR ASYNC,12345, 609   - 
    devgroup1 pair2(L) (CL1-C , 0, 21)12345 610..S-VOL PAIR ASYNC,-----, 2     - 
    devgroup1 pair2(R) (CL1-A , 0, 2)54321    2..P-VOL PAIR ASYNC,12345, 610   -
  3. pairsplit コマンドを使用して、このペアを分割します。そして、-rw オプションを使用して、cluster-newyork の二次ボリュームが書き込み可能であることを確認します。


    phys-newyork-1# pairsplit -g devgroup1 -rw 
    phys-newyork-1# pairdisplay -g devgroup1
    Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M 
    devgroup1 pair1(L) (CL1-C , 0, 20)12345 609..S-VOL SSUS ASYNC, -----  1    - 
    devgroup1 pair1(R) (CL1-A , 0, 1) 54321   1..P-VOL PSUS ASYNC,12345  609   W 
    devgroup1 pair2(L) (CL1-C , 0,21) 12345 610..S-VOL SSUS ASYNC,-----   2    - 
    devgroup1 pair2(R) (CL1-A , 0, 2) 54321   2..P-VOL PSUS ASYNC,12345  610   W
  4. VERITAS Volume Manager ディスクグループ oradg1 をインポートします。


    phys-newyork-1# vxdg -C import oradg1
    
  5. VERITAS Volume Manager ディスクグループが正常にインポートされたことを確認します。


    phys-newyork-1# vxdg list
    
  6. VERITAS Volume Manager ボリュームを有効にします。


    phys-newyork-1# /usr/sbin/vxrecover -g oradg1 -s -b
    
  7. VERITAS Volume Manager ボリュームが認識されており、有効であることを確認します。


    phys-newyork-1# vxprint
    
  8. VERITAS Volume Manager ディスクグループ oradg1 を Sun Cluster に登録します。


    phys-newyork-1# cldevicegroup create -t vxvm -n phys-newyork-1,phys-newyork-2 oradg1
    
  9. ボリュームマネージャー情報を Sun Cluster デバイスグループに同期させ、その出力を確認します。


    phys-newyork-1# cldevicegroup sync oradg1
    phys-newyork-1# cldevicegroup status
    
  10. phys-newyork-1/etc/vfstab ファイルにエントリを追加します。


    phys-newyork-1# /dev/vx/dsk/oradg1/vol1 /dev/vx/rdsk/oradg1/vol1 \
    /mounts/sample ufs 2 no logging
    
  11. phys-newyork-1 にマウントディレクトリを作成します。


    phys-newyork-1# mkdir -p /mounts/sample
    
  12. scrgadm コマンドを使用して、アプリケーションリソースグループ apprg1 を作成します。


    phys-newyork-1# clresourcegroup create apprg1
    
  13. apprg1HAStoragePlus リソースを作成します。


    phys-newyork-1# clresource create -g apprg1 -t SUNW.HAStoragePlus \
    -p FilesystemMountPoints=/mounts/sample -p Affinityon=TRUE \
    -p GlobalDevicePaths=oradg1 rs-hasp
    

    この HAStoragePlus リソースは Sun Cluster Geographic Edition システムで必要になります。これは、主クラスタで保護グループが起動するとソフトウェアがこのリソースを利用してデバイスグループとファイルシステムをオンラインにするためです。

  14. 必要に応じて、アプリケーションリソースグループをオンラインにし、もう一度オフラインに戻すことによって、このアプリケーションリソースグループが正しく構成されていることを確認します。


    phys-newyork-1# clresourcegroup switch -emM -n phys-newyork-1 apprg1
    phs-newyork-1# clresourcegroup offline apprg1
    
  15. ファイルシステムをマウント解除します。


    phys-newyork-1# umount /mounts/sample
    
  16. Sun Cluster デバイスグループをオフラインにします。


    phys-newyork-1# cldevicegroup offline oradg1
    
  17. VERITAS Volume Manager ディスクグループがデポートされたことを確認します。


    phys-newyork-1# vxdg list
    
  18. Hitachi TrueCopy ペアを確立し直します。


    phys-newyork-1# pairresync -g devgroup1
    phys-newyork-1# pairdisplay -g devgroup1
    Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M 
    devgroup1 pair1(L) (CL1-C , 0, 20)12345 609..S-VOL PAIR ASYNC,-----   1    - 
    devgroup1 pair1(R) (CL1-A , 0, 1) 54321   1..P-VOL PAIR ASYNC,12345  609   W 
    devgroup1 pair2(L) (CL1-C , 0,21) 12345 610..S-VOL PAIR ASYNC,-----   2    - 
    devgroup1 pair2(R) (CL1-A , 0, 2) 54321   2..P-VOL PAIR ASYNC,12345  610   W

    これで、二次クラスタの初期構成は完了しました。

Procedureボリュームマネージャー構成のコピーを作成する方法

この作業では、VERITAS Volume Manager コマンド vxdiskadmvxassist を使用して、主クラスタ cluster-paris から二次クラスタ cluster-newyork の LUN にボリュームマネージャー構成をコピーします。


注 –

この手順の間、デバイスグループ devgroup1 は継続して SMPL 状態である必要があります。


  1. ペアが SMPL 状態であることを確認します。


    phys-newyork-1# pairdisplay -g devgroup1
    Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M 
    devgroup1 pair1(L) (CL1-C , 0, 20)12345 609..SMPL ---- ------,----- ----   - 
    devgroup1 pair1(R) (CL1-A , 0, 1) 54321   1..SMPL ---- ------,----- ----   - 
    devgroup1 pair2(L) (CL1-C , 0, 21)12345 610..SMPL ---- ------,----- ----   - 
    devgroup1 pair2(R) (CL1-A, 0, 2) 54321    2..SMPL ---- ------,----- ----   -
  2. cluster-paris の共有ディスクに VERITAS Volume Manager ディスクグループを作成します。

    たとえば、vxdiskadmvxdg などのコマンドを使用して、ディスク d1d2oradg1 という VERITAS Volume Manager ディスクグループの一部として構成します。

  3. 構成が完了したあと、vxdg list コマンドを使用して、このディスクグループが作成されたことを確認します。

    このコマンドで、oradg1 がディスクグループとしてリストされるはずです。

  4. VERITAS Volume Manager ボリュームを作成します。

    たとえば、vol1 というボリュームを oradg1 ディスクグループに作成します。適切な VERITAS Volume Manager コマンド (vxassist など) を使用して、ボリュームを構成してください。

  5. VERITAS Volume Manager ディスクグループをインポートします。


    phys-newyork-1# vxdg -C import oradg1
    
  6. VERITAS Volume Manager ディスクグループが正常にインポートされたことを確認します。


    phys-newyork-1# vxdg list
    
  7. VERITAS Volume Manager ボリュームを有効にします。


    phys-newyork-1# /usr/sbin/vxrecover -g oradg1 -s -b
    
  8. VERITAS Volume Manager ボリュームが認識されており、有効であることを確認します。


    phys-newyork-1# vxprint
    
  9. VERITAS Volume Manager ディスクグループ oradg1 を Sun Cluster に登録します。


    phys-newyork-1# cldevicegroup create -t vxvm -n phys-newyork-1,phys-newyork-2 oradg1
    
  10. VERITAS Volume Manager 情報を Sun Cluster デバイスグループに同期させ、その出力を確認します。


    phys-newyork-1# cldevicegroup sync oradg1
    phys-newyork-1# cldevicegroup status
    
  11. UNIX ファイルシステムを作成します。


    phys-newyork-1# newfs dev/vx/dsk/oradg1/vol1
    
  12. phys-newyork-1/etc/vfstab ファイルにエントリを追加します。


    /dev/vx/dsk/oradg1/vol1 /dev/vx/rdsk/oradg1/vol1 /mounts/sample ufs 2 no logging
    
  13. phys-newyork-1 にマウントディレクトリを作成します。


    phys-newyork-1# mkdir -p /mounts/sample
  14. clresourcegroup コマンドを使用して、アプリケーションリソースグループ apprg1 を作成します。


    phys-newyork-1# clresourcegroup create apprg1
    
  15. apprg1HAStoragePlus リソースを作成します。


    phys-newyork-1# clresource create -g apprg1 -t SUNW.HAStoragePlus \
    -p FilesystemMountPoints=/mounts/sample -p Affinityon=TRUE \
    -p GlobalDevicePaths=oradg1 rs-hasp
    

    この HAStoragePlus リソースは Sun Cluster Geographic Edition システムで必要になります。これは、主クラスタで保護グループが起動するとソフトウェアがこのリソースを利用してデバイスグループとファイルシステムをオンラインにするためです。

  16. 必要に応じて、アプリケーションリソースグループをオンラインにし、もう一度オフラインに戻すことによって、このアプリケーションリソースグループが正しく構成されていることを確認します。


    phys-newyork-1# clresourcegroup switch -emM -n phys-newyork-1 apprg1
    phs-newyork-1# clresourcegroup offline apprg1
    
  17. ファイルシステムをマウント解除します。


    phys-newyork-1# umount /mounts/sample
    
  18. Sun Cluster デバイスグループをオフラインにします。


    phys-newyork-1# cldevicegroup offline oradg1
    
  19. VERITAS Volume Manager ディスクグループがデポートされたことを確認します。


    phys-newyork-1# vxdg list
    
  20. ペアがまだ SMPL 状態であることを確認します。


    phys-newyork-1# pairdisplay -g devgroup1 
    Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M 
    devgroup1 pair1(L) (CL1-C , 0, 20)12345 609..SMPL ---- ------,-----  ----  - 
    devgroup1 pair1(R) (CL1-A , 0, 1) 54321   1..SMPL ---- ------,-----  ----  - 
    devgroup1 pair2(L) (CL1-C , 0, 21)12345 610..SMPL ---- ------,-----  ----  - 
    devgroup1 pair2(R) (CL1-A, 0, 2)  54321   2..SMPL ---- ------,-----  ----  -

Procedureraw ディスクデバイスグループを使用する場合に主クラスタから構成情報を複製する方法

始める前に

ストレージベースの複製を使用している場合は、複製されたボリュームを定足数デバイスとして構成しないでください。Sun Cluster Geographic Edition ソフトウェアは、Hitachi TrueCopy S-VOL と Command Device を Sun Cluster 定足数デバイスとして使用することはサポートしていません。詳細は、『Sun Cluster System Administration Guide for Solaris OS』「Using Storage-Based Data Replication」を参照してください。

  1. devgroup1 デバイスグループの複製を開始します。


    phys-paris-1# paircreate -g devgroup1 -vl -f async
    
    phys-paris-1# pairdisplay -g devgroup1
    Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M 
    devgroup1 pair1(L) (CL1-A , 0, 1) 54321   1..P-VOL COPY ASYNC ,12345 609   -
    devgroup1 pair1(R) (CL1-C , 0, 20)12345 609..S-VOL COPY ASYNC ,-----   1   -
    devgroup1 pair2(L) (CL1-A , 0, 2) 54321   2..P-VOL COPY ASYNC ,12345 610   -
    devgroup1 pair2(R) (CL1-C , 0, 21)12345 610..S-VOL COPY ASYNC ,-----   2   -
  2. 二次クラスタでペアが PAIR の状態になるまで待機します。


    phys-newyork-1# pairdisplay -g devgroup1
    Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M
    devgroup1 pair1(L) (CL1-C , 0, 20)12345 609..S-VOL PAIR ASYNC,-----, 1     - 
    devgroup1 pair1(R) (CL1-A , 0, 1) 54321   1..P-VOL PAIR ASYNC,12345, 609   - 
    devgroup1 pair2(L) (CL1-C , 0, 21)12345 610..S-VOL PAIR ASYNC,-----, 2     - 
    devgroup1 pair2(R) (CL1-A , 0, 2)54321    2..P-VOL PAIR ASYNC,12345, 610   -
  3. pairsplit コマンドを使用して、このペアを分割します。そして、-rw オプションを使用して、cluster-newyork の二次ボリュームが書き込み可能であることを確認します。


    phys-newyork-1# pairsplit -g devgroup1 -rw 
    phys-newyork-1# pairdisplay -g devgroup1
    Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M 
    devgroup1 pair1(L) (CL1-C , 0, 20)12345 609..S-VOL SSUS ASYNC, -----  1    - 
    devgroup1 pair1(R) (CL1-A , 0, 1) 54321   1..P-VOL PSUS ASYNC,12345  609   W 
    devgroup1 pair2(L) (CL1-C , 0,21) 12345 610..S-VOL SSUS ASYNC,-----   2    - 
    devgroup1 pair2(R) (CL1-A , 0, 2) 54321   2..P-VOL PSUS ASYNC,12345  610   W
  4. パートナークラスタ上に raw ディスクデバイスグループを作成します。

    主クラスタ上で使用したものと同じデバイスグループ名を使用します。

    各クラスタで同じ DID を使用することができます。次のコマンドで、newyork クラスタは paris クラスタのパートナーです。


    phys-newyork-1# cldevicegroup disable dsk/d5 dsk/d6
    phys-newyork-1# cldevicegroup offline dsk/d5 dsk/d6
    phys-newyork-1# cldevicegroup delete dsk/d5 dsk/d6
    phys-newyork-1# cldevicegroup create -n phys-newyork-1,phys-newyork-2 \
    -t rawdisk -d d5,d6 rawdg
    phys-newyork-1# /usr/cluster/lib/dcs/dgconv -d d5 rawdg
    phys-newyork-1# /usr/cluster/lib/dcs/dgconv -d d6 rawdg
    
  5. ボリュームマネージャー情報を Sun Cluster デバイスグループに同期させ、その出力を確認します。


    phys-newyork-1# cldevicegroup sync rawdg1
    phys-newyork-1# cldevicegroup status
    
  6. newyork クラスタの各ノードで /etc/vfstab ファイルにエントリを追加します。


    /dev/global/dsk/d5s2 /dev/global/rdsk/d5s2 /mounts/sample ufs 2 no logging
    
  7. newyork クラスタの各ノードにマウントディレクトリを作成します。


    phys-newyork-1# mkdir -p /mounts/sample
    phys-newyork-2# mkdir -p /mounts/sample
    
  8. clresourcegroup コマンドを使用して、アプリケーションリソースグループ apprg1 を作成します。


    phys-newyork-1# clresourcegroup create apprg1
    
  9. apprg1HAStoragePlus リソースを作成します。


    phys-newyork-1# clresource create -g apprg1 -t SUNW.HAStoragePlus \
    -p FilesystemMountPoints=/mounts/sample -p Affinityon=TRUE \
    -p GlobalDevicePaths=rawdg1 rs-hasp
    

    この HAStoragePlus リソースは Sun Cluster Geographic Edition システムで必要になります。これは、主クラスタで保護グループが起動するとソフトウェアがこのリソースを利用してデバイスグループとファイルシステムをオンラインにするためです。

  10. 必要に応じて、アプリケーションリソースグループをオンラインにし、もう一度オフラインに戻すことによって、このアプリケーションリソースグループが正しく構成されていることを確認します。


    phys-newyork-1# clresourcegroup switch -emM -n phys-newyork-1 apprg1
    phs-newyork-1# clresourcegroup offline apprg1
    
  11. ファイルシステムをマウント解除します。


    phys-newyork-1# umount /mounts/sample
    
  12. Sun Cluster デバイスグループをオフラインにします。


    phys-newyork-1# cldevicegroup offline rawdg1
    
  13. Hitachi TrueCopy ペアを確立し直します。


    phys-newyork-1# pairresync -g devgroup1
    phys-newyork-1# pairdisplay -g devgroup1
    Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M 
    devgroup1 pair1(L) (CL1-C , 0, 20)12345 609..S-VOL PAIR ASYNC,-----   1    - 
    devgroup1 pair1(R) (CL1-A , 0, 1) 54321   1..P-VOL PAIR ASYNC,12345  609   W 
    devgroup1 pair2(L) (CL1-C , 0,21) 12345 610..S-VOL PAIR ASYNC,-----   2    - 
    devgroup1 pair2(R) (CL1-A , 0, 2) 54321   2..P-VOL PAIR ASYNC,12345  610   W

    これで、二次クラスタの初期構成は完了しました。