Sun Cluster のシステム管理 (Solaris OS 版)

ストレージベースの複製されたデバイスの管理

ストレージベースの複製によって複製されたデバイスを含めるよう、Sun Cluster デバイスグループを構成することができます。Sun Cluster ソフトウェアは、ストレージベースの複製用に Hitachi TrueCopy および EMC Symmetrix Remote Data Facility ソフトウェアをサポートしています。

Hitachi TrueCopy または EMC Symmetrix Remote Data Facility ソフトウェアでデータを複製する前に、ストレージベースの複製用ソフトウェアのマニュアルによく目を通し、ストレージベースの複製製品と最新のパッチを、使用しているシステムにインストールしておいてください。ストレージベースの複製ソフトウェアのインストールについては、製品のマニュアルを参照してください。

ストレージベースの複製ソフトウェアは、デバイスのペアを複製として構成する際、一方のデバイスを主複製、もう一方のデバイスを二次複製とします。一方のノードのセットに接続されたデバイスが、常に主複製になります。もう一方のノードのセットに接続されたデバイスは、二次複製になります。

Sun Cluster 構成では、複製が属する Sun Cluster デバイスグループが移動されると、常に、主複製が自動的に移動されます。そのため、Sun Cluster 構成下では、主複製を直接移動してはいけません。その代わりに、テイクオーバーは関連する Sun Cluster デバイスグループを移動することによって行うべきです。


注意 – 注意 –

作成する Sun Cluster デバイスグループ (Solaris Volume Manager、Veritas Volume Manager、または raw ディスク) の名前は、複製されたデバイスグループと同じ名前にしてください。


ここでは、次の手順について説明します。

Hitachi TrueCopy で複製されたデバイスの管理

次の表に、Hitachi TrueCopy によるストレージベースの複製されたデバイスを設定するために実行する作業を示します。

表 5–2 作業マップ: Hitachi TrueCopy によるストレージベースの複製デバイスの管理

作業 

参照先 

ストレージデバイスとノードに TrueCopy ソフトウェアをインストールする 

Hitachi ストレージデバイスに付属するマニュアル。 

Hitachi 複製グループを構成する 

「Hitachi TrueCopy 複製グループを構成する」

DID デバイスを構成する 

「Hitachi TrueCopy を使用して DID デバイスを複製用に構成する」

複製されたグループを登録する 

「デバイスグループを追加および登録する (Solaris Volume Manager)」または「SPARC: ディスクグループをデバイスグループとして登録する (VERITAS Volume Manager)」

構成を確認する  

「Hitachi TrueCopy で複製されたグローバルデバイスグループ構成を確認する」

ProcedureHitachi TrueCopy 複製グループを構成する

始める前に

まず、主クラスタの共有ディスクに Hitachi TrueCopy デバイスグループを構成します。この構成情報は、Hitachi アレイへのアクセス権を持つ各クラスタノードの /etc/horcm.conf ファイルに指定します。 /etc/horcm.conf ファイルを構成する方法についての詳細は、『Sun StorEdge SE 9900 V Series Command and Control Interface User and Reference Guide』を参照してください。


注意 – 注意 –

作成する Sun Cluster デバイスグループ (Solaris Volume Manager、Veritas Volume Manager、または raw ディスク) の名前は、複製されたデバイスグループと同じ名前にしてください。


  1. ストレージアレイに接続されたすべてのノードで、スーパーユーザーになるか、RBAC の承認 solaris.cluster.modify を提供する役割になります。

  2. /etc/services ファイルに horcm エントリを追加します。


    horcm  9970/udp

    新しいエントリのポート番号とプロトコル名を指定します。

  3. /etc/horcm.conf ファイルに Hitachi TrueCopy デバイスグループの構成情報を指定します。

    手順については、TrueCopy ソフトウェアに付属するマニュアルを参照してください。

  4. すべてのノード上で horcmstart.sh コマンドを実行することにより、TrueCopy CCI デーモンを起動します。


    # /usr/bin/horcmstart.sh
  5. まだ複製のペアを作成していない場合は、この時点で作成します。

    paircreate コマンドを使用して、希望のフェンスレベルを持つ複製のペアを作成します。複製のペアの作成方法の手順については、TrueCopy のマニュアルを参照してください。

  6. 複製されたデバイスを使用して構成された各ノード上で、pairdisplay コマンドを使用することでデータ複製が正しく設定されていることを確認します。


    # pairdisplay -g group-name
    Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M 
    group-name pair1(L) (CL1-C , 0, 9) 54321   58..P-VOL PAIR DATA ,12345 29   -
    group-name pair1(R) (CL1-A , 0, 29)12345   29..S-VOL PAIR DATA ,----- 58   -
  7. すべてのノードが複製グループをマスターできることを確認します。

    1. どのノードに主複製が含まれ、どのノードに二次複製が含まれているかを判別するには、pairdisplay コマンドを使用します。


      # pairdisplay -g group-name
      Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M 
      group-name pair1(L) (CL1-C , 0, 9) 54321   58..P-VOL PAIR DATA ,12345 29   -
      group-name pair1(R) (CL1-A , 0, 29)12345   29..S-VOL PAIR DATA ,----- 58   -

      P-VOL 状態のローカル (L) デバイスを持つノードには主複製が含まれ、S-VOL 状態のローカル (L) デバイスを持つノードには二次複製が含まれます。

    2. 二次ノードをマスターにするには、二次複製が含まれるノード上で horctakeover コマンドを実行します。


      # horctakeover -g group-name
      

      次の手順に進む前に、初期データコピーが完了するのを待ちます。

    3. horctakeover を実行したノードが、この時点で、P-VOL 状態のロー カル (L) デバイスを持っていることを確認します。


      # pairdisplay -g group-name
      Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M 
      group-name pair1(L) (CL1-C , 0, 9) 54321   58..S-VOL PAIR DATA ,12345 29   -
      group-name pair1(R) (CL1-A , 0, 29)12345   29..P-VOL PAIR DATA ,----- 58   -
    4. もとは主複製が含まれていたノード上で horctakeover コマンドを実行します。


      # horctakeover -g group-name
      
    5. pairdisplay コマンドを実行することで、主ノードが元の構成に戻ったことを確認します。


      # pairdisplay -g group-name
      Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M 
      group-name pair1(L) (CL1-C , 0, 9) 54321   58..P-VOL PAIR DATA ,12345 29   -
      group-name pair1(R) (CL1-A , 0, 29)12345   29..S-VOL PAIR DATA ,----- 58   -
次の手順

「Hitachi TrueCopy を使用して DID デバイスを複製用に構成する」の手順に従って、複製されたデバイスの構成を続けます。

ProcedureHitachi TrueCopy を使用して DID デバイスを複製用に構成する

始める前に

複製されたデバイス用にデバイスグループを構成したあと、複製されたデバイスが使用するデバイス識別子 (Device Identifier、DID) ドライバを構成します。

phys-schost# プロンプトは、グローバルクラスタのプロンプトを表します。この手順は、グローバルクラスタ上で実行します。

この手順では、長形式の Sun Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。コマンドのリストとその短縮形については、付録 B Sun Cluster オブジェクト指向コマンドを参照してください。

  1. クラスタの任意のノードで、スーパーユーザーになるか、RBAC の承認 solaris.cluster.modify を提供する役割になります。

  2. すべてのノード上で horcm デーモンが実行中であることを確認します。

    実行されていない場合は、次のコマンドでデーモンが起動されます。デーモンがすでに実行されている場合は、システムによりメッセージが表示されます。


    # /usr/bin/horcmstart.sh
  3. pairdisplay コマンドを実行して、どのノードに二次複製が含まれているかを判別します。


    # pairdisplay -g group-name
    Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M 
    group-name pair1(L) (CL1-C , 0, 9) 54321   58..P-VOL PAIR DATA ,12345 29   -
    group-name pair1(R) (CL1-A , 0, 29)12345   29..S-VOL PAIR DATA ,----- 58   -

    S-VOL 状態のローカル (L) デバイスを持つノードには二次複製が含まれています。

  4. (前の手順で判別した) 二次複製を持つノードで、ストレージベースの複製で使用するための DID デバイスを構成します。

    このコマンドは、デバイス複製ペアの 2 つの独立した DID インスタンスを、1 つの論理 DID インスタンスに結合します。この 1 つのインスタンスにより、そのデバイスをボリューム管理ソフトウェアで両側から使用できるようになります。


    注意 – 注意 –

    二次複製に複数のノードが接続されている場合、このコマンドは、それらのノードのうちの 1 つのノード上でのみ実行してください。



    # cldevice replicate -D primary-replica-nodename -S secondary replica-nodename
    
    primary-replica-nodename

    主複製が格納されているリモートノードの名前を指定します。

    -S

    現在のノード以外のソースノードを指定します。

    secondary replica-nodename

    二次複製が格納されているリモートノードの名前を指定します。


    注 –

    デフォルトでは、現在のノードがソースノードです。-S オプションは、別のソースノードを指定するのに使用します。


  5. DID インスタンスが結合されていることを確認します。


    # cldevice list -v logical_DID_device
    
  6. TrueCopy 複製が設定されていることを確認します。


    # cldevice show logical_DID_device
    

    コマンド出力には、TrueCopy が複製タイプであることが示されるはずです。

  7. DID の再マッピングによって、すべての複製されたデバイスが正しく結合されなかった場合、手動で個別の複製されたデバイスを結合します。


    注意 – 注意 –

    DID インスタンスを手動で結合する際には、特に注意してください。デバイスの再マッピングが正しくないと、データが破損する可能性があります。


    1. 二次複製が含まれるすべてのノード上で cldevice combine コマンドを実行します。


      # cldevice combine -d destination-instance source-instance
      
      -d destination-instance

      主複製に対応するリモート DID インスタンス。

      source-instance

      二次複製に対応するローカル DID インスタンス。

    2. DID の再マッピングが正しく行われたことを確認します。


      # cldevice list desination-instance source-instance
      

    DID インスタンスの 1 つは表示されないはずです。

  8. すべてのノード上で、すべての結合された DID インスタンスの DID デバイスがアクセス可能であることを確認します。


    # cldevice list -v
    
次の手順

複製されたデバイスグループの構成をを完了するには、次の手順を実行します。

ProcedureHitachi TrueCopy で複製されたグローバルデバイスグループ構成を確認する

始める前に

グローバルデバイスグループを確認する前に、まずそれを作成します。Solaris ボリュームマネージャー デバイスグループ、Veritas Volume Manager デバイスグループ、または raw ディスクデバイスグループを使用できます。Solaris Volume Manager デバイスグループの作成についての詳細は、「デバイスグループを追加および登録する (Solaris Volume Manager)」を参照してください。Veritas Volume Manager デバイスグループの作成については、「SPARC: ディスクをカプセル化する際に新しいディスクグループを作成する (VERITAS Volume Manager)」を参照してください。

phys-schost# プロンプトは、グローバルクラスタのプロンプトを表します。この手順は、グローバルクラスタ上で実行します。

この手順では、長形式の Sun Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。コマンドのリストとその短縮形については、付録 B Sun Cluster オブジェクト指向コマンドを参照してください。

  1. 主デバイスグループが、主複製が含まれるノードと同じノードに対応することを確認します。


    # pairdisplay -g group-name
    # cldevicegroup status -n nodename group-name
    
  2. デバイスグループに複製のプロパティーが設定されていることを確認します。


    # cldevicegroup show -n nodename group-name
    
  3. デバイスに複製されたプロパティーが設定されていることを確認します。


    # usr/cluster/bin/cldevice status [-s state] [-n node[,?]] [+| [disk-device ]]
    
  4. 試験的にスイッチオーバーを実行して、デバイスグループが正しく構成され、複製がノード間を移動できることを確認します。

    デバイスグループがオフラインのときは、オンラインにします。


    # cldevicegroup switch -n nodename group-name
    
    -n nodename

    デバイスグループの切り替え先のノード。このノードが新しい主ノードになります。

  5. 次のコマンドの出力を比較することにより、スイッチオーバーが成功したことを確認します。


    # pairdisplay -g group-name
    # cldevicegroup status -n nodename group-name
    

例: Sun Cluster 向けの TrueCopy 複製グループの構成

この例では、クラスタの TrueCopy 複製を設定するのに必要な Sun Cluster 固有の手順を完了します。この例では、すでに次の作業が完了していることが前提となっています。

この例では、TrueCopy を使用する 3 ノードクラスタを扱います。クラスタは 2 つのリモートサイトにまたがっており、一方のサイトに 2 つのノードがあり、もう一方のサイトに 1 つのノードがあります。各サイトにはそれぞれ Hitachi ストレージデバイスがあります。

次の例に、各ノード上の TrueCopy /etc/horcm.conf 構成ファイルを示します。


例 5–1 ノード 1 上の TrueCopy 構成ファイル


HORCM_DEV 
#dev_group     dev_name    port#       TargetID     LU#       MU# 
VG01           pair1       CL1-A         0          29 
VG01           pair2       CL1-A         0          30 
VG01           pair3       CL1-A         0          31 
HORCM_INST 
#dev_group     ip_address   service 
VG01           node-3       horcm


例 5–2 ノード 2 上の TrueCopy 構成ファイル


HORCM_DEV 
#dev_group        dev_name       port#       TargetID    LU#       MU#
VG01              pair1          CL1-A         0         29 
VG01              pair2          CL1-A         0         30 
VG01              pair3          CL1-A         0         31 
HORCM_INST 
#dev_group        ip_address      service 
VG01              node-3          horcm


例 5–3 ノード 3 上の TrueCopy 構成ファイル


HORCM_DEV 
#dev_group        dev_name       port#       TargetID    LU#       MU# 
VG01              pair1          CL1-C         0         09 
VG01              pair2          CL1-C         0         10 
VG01              pair3          CL1-C         0         11 
HORCM_INST 
#dev_group        ip_address      service 
VG01              node-1          horcm 
VG01              node-2          horcm

上記の例では、3 つの LUN が 2 つのサイト間で複製されます。LUN はすべて VG01 という名前の複製グループ内にあります。pairdisplay コマンドを使用すると、この情報が確認され、またノード 3 には主複製があることが示されます。


例 5–4 ノード 1 上の pairdisplay コマンドの出力


# pairdisplay -g VG01 
Group   PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#.P/S,Status,Fence, Seq#,P-LDEV# M 
VG01    pair1(L)    (CL1-A , 0, 29)61114   29..S-VOL PAIR DATA  ,-----    58  - 
VG01    pair1(R)    (CL1-C , 0,  9)20064   58..P-VOL PAIR DATA  ,61114    29  - 
VG01    pair2(L)    (CL1-A , 0, 30)61114   30..S-VOL PAIR DATA  ,-----    59  - 
VG01    pair2(R)    (CL1-C , 0, 10)20064   59..P-VOL PAIR DATA  ,61114    30  - 
VG01    pair3(L)    (CL1-A , 0, 31)61114   31..S-VOL PAIR DATA  ,-----    60  - 
VG01    pair3(R)    (CL1-C , 0, 11)20064   60..P-VOL PAIR DATA  ,61114    31  -


例 5–5 ノード 2 上の pairdisplay コマンドの出力


# pairdisplay -g VG01 
Group   PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#.P/S,Status,Fence, Seq#,P-LDEV# M 
VG01    pair1(L)    (CL1-A , 0, 29)61114   29..S-VOL PAIR DATA  ,-----    58  - 
VG01    pair1(R)    (CL1-C , 0,  9)20064   58..P-VOL PAIR DATA  ,61114    29  - 
VG01    pair2(L)    (CL1-A , 0, 30)61114   30..S-VOL PAIR DATA  ,-----    59  - 
VG01    pair2(R)    (CL1-C , 0, 10)20064   59..P-VOL PAIR DATA  ,61114    30  - 
VG01    pair3(L)    (CL1-A , 0, 31)61114   31..S-VOL PAIR DATA  ,-----    60  - 
VG01    pair3(R)    (CL1-C , 0, 11)20064   60..P-VOL PAIR DATA  ,61114    31  -


例 5–6 ノード 3 上の pairdisplay コマンドの出力


# pairdisplay -g VG01 
Group   PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#.P/S,Status,Fence, Seq#,P-LDEV# M 
VG01    pair1(L)    (CL1-C , 0,  9)20064   58..P-VOL PAIR DATA  ,61114    29  - 
VG01    pair1(R)    (CL1-A , 0, 29)61114   29..S-VOL PAIR DATA  ,-----    58  - 
VG01    pair2(L)    (CL1-C , 0, 10)20064   59..P-VOL PAIR DATA  ,61114    30  - 
VG01    pair2(R)    (CL1-A , 0, 30)61114   30..S-VOL PAIR DATA  ,-----    59  - 
VG01    pair3(L)    (CL1-C , 0, 11)20064   60..P-VOL PAIR DATA  ,61114    31  - 
VG01    pair3(R)    (CL1-A , 0, 31)61114   31..S-VOL PAIR DATA  ,-----    60  - 

どのディスクが使用されているかを確認するには、次の例に示すように、pairdisplay コマンドの -fd オプションを使用します。


例 5–7 使用されているディスクを示す、ノード 1 上の pairdisplay コマンドの出力


# pairdisplay -fd -g VG01 
Group PairVol(L/R) Device_File                       ,Seq#,LDEV#.P/S,Status,Fence,Seq#,P-LDEV# M 
VG01 pair1(L) c6t500060E8000000000000EEBA0000001Dd0s2 61114 29..S-VOL PAIR DATA  ,-----    58  - 
VG01 pair1(R) c5t50060E800000000000004E600000003Ad0s2 20064 58..P-VOL PAIR DATA  ,61114    29  - 
VG01 pair2(L) c6t500060E8000000000000EEBA0000001Ed0s2 61114 30..S-VOL PAIR DATA  ,-----    59  - 
VG01 pair2(R) c5t50060E800000000000004E600000003Bd0s2 0064  59..P-VOL PAIR DATA  ,61114    30  - 
VG01 pair3(L) c6t500060E8000000000000EEBA0000001Fd0s2 61114 31..S-VOL PAIR DATA  ,-----    60  - 
VG01 pair3(R) c5t50060E800000000000004E600000003Cd0s2 20064 60..P-VOL PAIR DATA  ,61114    31  -


例 5–8 使用されているディスクを示す、ノード 2 上の pairdisplay コマンドの出力


# pairdisplay -fd -g VG01
Group PairVol(L/R) Device_File                       ,Seq#,LDEV#.P/S,Status,Fence,Seq#,P-LDEV# M
VG01 pair1(L) c5t500060E8000000000000EEBA0000001Dd0s2 61114 29..S-VOL PAIR DATA  ,-----    58  -
VG01 pair1(R) c5t50060E800000000000004E600000003Ad0s2 20064 58..P-VOL PAIR DATA  ,61114    29  -
VG01 pair2(L) c5t500060E8000000000000EEBA0000001Ed0s2 61114 30..S-VOL PAIR DATA  ,-----    59  -
VG01 pair2(R) c5t50060E800000000000004E600000003Bd0s2 20064 59..P-VOL PAIR DATA  ,61114    30  -
VG01 pair3(L) c5t500060E8000000000000EEBA0000001Fd0s2 61114 31..S-VOL PAIR DATA  ,-----    60  -
VG01 pair3(R) c5t50060E800000000000004E600000003Cd0s2 20064 60..P-VOL PAIR DATA  ,61114    31  -


例 5–9 使用されているディスクを示す、ノード 3 上の pairdisplay コマンドの出力


# pairdisplay -fd -g VG01
Group PairVol(L/R) Device_File                       ,Seq#,LDEV#.P/S,Status,Fence ,Seq#,P-LDEV# M 
VG01 pair1(L) c5t50060E800000000000004E600000003Ad0s2 20064  58..P-VOL PAIR DATA  ,61114    29  - 
VG01 pair1(R) c6t500060E8000000000000EEBA0000001Dd0s2 61114  29..S-VOL PAIR DATA  ,-----    58  - 
VG01 pair2(L) c5t50060E800000000000004E600000003Bd0s2 20064  59..P-VOL PAIR DATA  ,61114    30  - 
VG01 pair2(R) c6t500060E8000000000000EEBA0000001Ed0s2 61114  30..S-VOL PAIR DATA  ,-----    59  - 
VG01 pair3(L) c5t50060E800000000000004E600000003Cd0s2 20064  60..P-VOL PAIR DATA  ,61114    31  - 
VG01 pair3(R) c6t500060E8000000000000EEBA0000001Fd0s2 61114  31..S-VOL PAIR DATA  ,-----    60  -

これらの例は、次のディスクが使用されていることを示しています。

これらのディスクに対応する DID デバイスを確認するには、次の例に示すように、cldevice list コマンドを使用します。


例 5–10 使用されているディスクに対応する DID の表示


# cldevice list -v

DID Device  Full Device Path
----------  ----------------
1           node-1:/dev/rdsk/c0t0d0  /dev/did/rdsk/d1
2           node-1:/dev/rdsk/c0t6d0  /dev/did/rdsk/d2
11          node-1:/dev/rdsk/c6t500060E8000000000000EEBA00000020d0 /dev/did/rdsk/d11
11          node-2:/dev/rdsk/c5t500060E8000000000000EEBA00000020d0 /dev/did/rdsk/d11
12              node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Fd0 /dev/did/rdsk/d12
12              node-2:/dev/rdsk/c5t500060E8000000000000EEBA0000001Fd0 /dev/did/rdsk/d12
13              node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Ed0 /dev/did/rdsk/d13
13              node-2:/dev/rdsk/c5t500060E8000000000000EEBA0000001Ed0 /dev/did/rdsk/d13
14              node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Dd0 /dev/did/rdsk/d14
14              node-2:/dev/rdsk/c5t500060E8000000000000EEBA0000001Dd0 /dev/did/rdsk/d14
18          node-3:/dev/rdsk/c0t0d0  /dev/did/rdsk/d18
19          node-3:/dev/rdsk/c0t6d0  /dev/did/rdsk/d19
20          node-3:/dev/rdsk/c5t50060E800000000000004E6000000013d0 /dev/did/rdsk/d20
21          node-3:/dev/rdsk/c5t50060E800000000000004E600000003Dd0 /dev/did/rdsk/d21
22          node-3:/dev/rdsk/c5t50060E800000000000004E600000003Cd0 /dev/did/rdsk/d2223  
23              node-3:/dev/rdsk/c5t50060E800000000000004E600000003Bd0 /dev/did/rdsk/d23
24              node-3:/dev/rdsk/c5t50060E800000000000004E600000003Ad0 /dev/did/rdsk/d24

複製されたデバイスの各ペアの DID インスタンスを結合する場合、 cldevice list は DID インスタンス 12 を 22、インスタンス 13 を 23、インスタンス 14 を 24 と結合するはずです。ノード 3 には主複製があるため、ノード 1 またはノード 2 のいずれかから cldevice -T コマンドを実行します。インスタンスの結合は常に、二次複製があるノードから行います。このコマンドは 1 つのノードからのみ実行し、両方のノード上では実行しないでください。

次の例に、ノード 1 上でこのコマンドを実行することにより DID インスタンスを結合した場合の出力を示します。


例 5–11 DID インスタンスの結合


# cldevice replicate -D node-3
Remapping instances for devices replicated with node-3...
VG01 pair1 L node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Dd0
VG01 pair1 R node-3:/dev/rdsk/c5t50060E800000000000004E600000003Ad0
Combining instance 14 with 24
VG01 pair2 L node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Ed0
VG01 pair2 R node-3:/dev/rdsk/c5t50060E800000000000004E600000003Bd0
Combining instance 13 with 23
VG01 pair3 L node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Fd0
VG01 pair3 R node-3:/dev/rdsk/c5t50060E800000000000004E600000003Cd0
Combining instance 12 with 22

cldevice list の出力を確認すると、両方のサイトの LUN には同じ DID インスタンスがあります。次の例に示すように、同じ DID インスタンスを持っていると、各複製ペアは単一の DID デバイスのように見えます。


例 5–12 結合された DID の表示


# cldevice list -v
DID Device  Full Device Path
----------  ----------------
1           node-1:/dev/rdsk/c0t0d0  /dev/did/rdsk/d1
2           node-1:/dev/rdsk/c0t6d0  /dev/did/rdsk/d2
11          node-1:/dev/rdsk/c6t500060E8000000000000EEBA00000020d0 /dev/did/rdsk/d11
11          node-2:/dev/rdsk/c5t500060E8000000000000EEBA00000020d0 /dev/did/rdsk/d11
18          node-3:/dev/rdsk/c0t0d0  /dev/did/rdsk/d18
19          node-3:/dev/rdsk/c0t6d0  /dev/did/rdsk/d19
20          node-3:/dev/rdsk/c5t50060E800000000000004E6000000013d0 /dev/did/rdsk/d20
21          node-3:/dev/rdsk/c5t50060E800000000000004E600000003Dd0 /dev/did/rdsk/d21
22          node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Fd0 /dev/did/rdsk/d1222  
22          node-2:/dev/rdsk/c5t500060E8000000000000EEBA0000001Fd0 /dev/did/rdsk/d12
22          node-3:/dev/rdsk/c5t50060E800000000000004E600000003Cd0 /dev/did/rdsk/d22
23          node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Ed0 /dev/did/rdsk/d13
23          node-2:/dev/rdsk/c5t500060E8000000000000EEBA0000001Ed0 /dev/did/rdsk/d13
23          node-3:/dev/rdsk/c5t50060E800000000000004E600000003Bd0 /dev/did/rdsk/d23
24          node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Dd0 /dev/did/rdsk/d24
24          node-2:/dev/rdsk/c5t500060E8000000000000EEBA0000001Dd0 /dev/did/rdsk/d24
24          node-3:/dev/rdsk/c5t50060E800000000000004E600000003Ad0 /dev/did/rdsk/d24

次に、ボリュームマネージャーデバイスグループを作成します。このコマンドは、主複製があるノード (この例ではノード 3) から実行します。次の例に示すように、デバイスグループには複製グループと同じ名前を指定します。


例 5–13 Solaris Volume Manager デバイスグループの作成


# metaset -s VG01 -ah phys-deneb-3
# metaset -s VG01 -ah phys-deneb-1
# metaset -s VG01 -ah phys-deneb-2
# metaset -s VG01 -a /dev/did/rdsk/d22
# metaset -s VG01 -a /dev/did/rdsk/d23
# metaset -s VG01 -a /dev/did/rdsk/d24
# metaset
Set name = VG01, Set number = 1

Host                Owner
  phys-deneb-3       Yes
  phys-deneb-1
  phys-deneb-2

Drive Dbase
d22   Yes
d23   Yes
d24   Yes

この時点で、デバイスグループは使用でき、メタデバイスの作成が可能であり、またデバイスグループは 3 つのノードのうち任意のノードに移動できます。ただし、スイッチオーバーとフェイルオーバーをより効率的にするため、cldevicegroup set を実行して、デバイスグループをクラスタ構成内で複製済みにマークします。


例 5–14 スイッチオーバーとフェイルオーバーの効率化


# cldevicegroup sync VG01 
# cldevicegroup show VG01
=== Device Groups===

Device Group Name                       VG01   
  Type:                                   SVM   
  failback:                               no   
  Node List:                              phys-deneb-3, phys-deneb-1, phys-deneb-2   
  preferenced:                            yes   
  numsecondaries:                         1   
  device names:                           VG01   
  Replication type:                       truecopy

複製グループの構成はこの手順で完了します。構成が正しく行われたことを確認するには、「Hitachi TrueCopy で複製されたグローバルデバイスグループ構成を確認する」の手順を実行します。

EMC Symmetrix Remote Data Facility で複製したデバイスの管理

次の表に、EMC Symmetrix Remote Data Facility (SRDF) ストレージベースの複製されたデバイスを設定するために実行する作業を示します。

表 5–3 作業マップ: EMC SRDF ストレージベースの複製されたデバイスの管理

作業 

参照先 

ストレージデバイスとノードに SRDF ソフトウェアをインストールする 

EMC ストレージデバイスに付属するマニュアル。 

EMC 複製グループを構成する 

「EMC Symmetrix Remote Data Facility 複製グループを構成する」

DID デバイスを構成する  

「EMC Symmetrix Remote Data Facility (SRDF) を使用して DID デバイスを複製用に構成する」

複製されたグループを登録する 

「デバイスグループを追加および登録する (Solaris Volume Manager)」または「SPARC: ディスクグループをデバイスグループとして登録する (VERITAS Volume Manager)」

構成を確認する  

「EMC Symmetrix Remote Data Facility (SRDF) で複製されたグローバルデバイスグループ構成を確認する」

ProcedureEMC Symmetrix Remote Data Facility 複製グループを構成する

始める前に

EMC Symmetrix Remote Data Facility (SRDF) 複製グループを構成する前に、すべてのクラスタノードに EMC Solutions Enabler ソフトウェアをインストールしてください。まず、主クラスタの共有ディスクに EMC SRDF デバイスグループを構成します。EMC SRDF デバイスグループを構成する方法についての詳細は、EMC SRDF 製品のマニュアルを参照してください。

EMC SRDF を使用するときは、静的デバイスではなく、動的デバイスを使用します。静的デバイスでは主複製を変更するのに数分かかり、フェイルオーバー時間に影響を与えることがあります。


注意 – 注意 –

作成する Sun Cluster デバイスグループ (Solaris Volume Manager、Veritas Volume Manager、または raw ディスク) の名前は、複製されたデバイスグループと同じ名前にしてください。


  1. ストレージアレイに接続されたすべてのノードで、スーパーユーザーになるか、RBAC の承認 solaris.cluster.modify を提供する役割になります。

  2. 複製データで構成された各ノードで、シンメトリックスデバイス構成を検出します。

    この処理には数分かかることがあります。


    # /usr/symcli/bin/symcfg discover
    
  3. まだ複製のペアを作成していない場合は、この時点で作成します。

    複製のペアを作成するには、symrdf コマンドを使用します。複製のペアの作成方法の手順については、SRDF のマニュアルを参照してください。

  4. 複製されたデバイスによって構成された各ノードで、データの複製が正しく設定されていることを確認します。


    # /usr/symcli/bin/symdg show group-name
    
  5. デバイスグループのスワップを実行します。

    1. 主複製と二次複製が同期していることを確認します。


      # /usr/symcli/bin/symrdf -g group-name verify -synchronized
      
    2. どのノードに主複製が含まれ、どのノードに二次複製が含まれているかを判別するには、symdg show コマンドを使用します。


      # /usr/symcli/bin/symdg show group-name
      

      RDF1 デバイスのノードには主複製が含まれ、RDF2 デバイス状態のノードには二次複製が含まれます。

    3. 二次複製を有効にします。


      # /usr/symcli/bin/symrdf -g group-name failover
      
    4. RDF1 デバイスと RDF2 デバイスをスワップします。


      # /usr/symcli/bin/symrdf -g group-name swap -refresh R1
      
    5. 複製ペアを有効にします。


      # /usr/symcli/bin/symrdf -g group-name establish
      
    6. 主ノードと二次複製が同期していることを確認します。


      # /usr/symcli/bin/symrdf -g group-name verify -synchronized
      
  6. もともと主複製があったノードで上記 5 つの手順をすべて繰り返します。

次の手順

EMC SRDF で複製されたデバイス用にデバイスグループを構成したあと、複製されたデバイスが使用するデバイス識別子 (Device Identifier、DID) ドライバを構成します。

ProcedureEMC Symmetrix Remote Data Facility (SRDF) を使用して DID デバイスを複製用に構成する

この手順では、複製されたデバイスが使用するデバイス識別名 (Device Identifier、DID) ドライバを構成します。

始める前に

phys-schost# プロンプトは、グローバルクラスタのプロンプトを表します。この手順は、グローバルクラスタ上で実行します。

この手順では、長形式の Sun Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。コマンドのリストとその短縮形については、付録 B Sun Cluster オブジェクト指向コマンドを参照してください。

  1. クラスタの任意のノードで、スーパーユーザーになるか、RBAC の承認 solaris.cluster.modify を提供する役割になります。

  2. RDF1 デバイスおよび RDF2 デバイスに対応する DID デバイスを判別します。


    # /usr/symcli/bin/symdg show group-name
    

    注 –

    システムに Solaris デバイスのパッチ全体が表示されない場合は、環境変数 SYMCLI_FULL_PDEVNAME を 1 に設定して、symdg -show コマンドをもう一度入力します。


  3. Solaris デバイスに対応する DID デバイスを判別します。


    # cldevice list -v
    
  4. 一致した DID デバイスのペアごとに、インスタンスを 1 つの複製された DID デバイスにまとめます。RDF2 (二次側) から次のコマンドを実行します。


    # cldevice combine -t srdf -g replication-device-group \
     -d destination-instance source-instance
    

    注 –

    SRDF データ複製デバイスでは、-T オプションはサポートされていません。


    -t replication-type

    複製タイプを指定します。EMC SRDF の場合、SRDF を入力します。

    -g replication-device-group

    symdg show コマンドで表示されるデバイスグループの名前を指定します。

    -d destination-instance

    RDF1 デバイスに対応する DID インスタンスを指定します。

    source-instance

    RDF2 デバイスに対応する DID インスタンスを指定します。


    注 –

    誤った DID デバイスを結合した場合は、scdidadm コマンドで -b オプションを使用して、2 つの DID デバイスの結合を取り消します。


    # scdidadm -b device 
    
    -b device

    インスタンスを結合したときに destination_device に対応していた DID インスタンス。


  5. 複製デバイスグループの名前が変更された場合は、Hitachi TrueCopy および SRDF に関する追加の手順が必要です。手順 1 - 4 が完了したら、該当する追加手順を実行します。

    項目 

    説明 

    TrueCopy 

    複製デバイスグループと、対応するグローバルデバイスグループの名前が変更された場合は、cldevice replicate コマンドを再実行して、複製されたデバイス情報を更新してください。

    SRDF 

    複製デバイスグループと、対応するグローバルデバイスグループの名前が変更された場合は、複製されたデバイス情報を更新してください。それには、まず、scdidadm -b コマンドを使用して既存の情報を削除します。最後に、cldevice combine コマンドを使用して、更新された新しいデバイスを作成します。

  6. DID インスタンスが結合されていることを確認します。


    # cldevice list -v device
    
  7. SRDF 複製が設定されていることを確認します。


    # cldevice show device
    
  8. すべてのノード上で、すべての結合された DID インスタンスの DID デバイスがアクセス可能であることを確認します。


    # cldevice list -v
    
次の手順

複製されたデバイスが使用するデバイス識別名 (Device Identifier、DID) を構成したら、EMC SRDF で複製されたグローバルデバイスグループ構成を必ず確認してください。

ProcedureEMC Symmetrix Remote Data Facility (SRDF) で複製されたグローバルデバイスグループ構成を確認する

始める前に

グローバルデバイスグループを確認する前に、まずそれを作成します。Solaris Volume Manager デバイスグループの作成についての詳細は、「デバイスグループを追加および登録する (Solaris Volume Manager)」を参照してください。Veritas Volume Manager デバイスグループの作成については、「SPARC: ディスクをカプセル化する際に新しいディスクグループを作成する (VERITAS Volume Manager)」を参照してください。

phys-schost# プロンプトは、グローバルクラスタのプロンプトを表します。この手順は、グローバルクラスタ上で実行します。

この手順では、長形式の Sun Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。コマンドのリストとその短縮形については、付録 B Sun Cluster オブジェクト指向コマンドを参照してください。

  1. 主デバイスグループが、主複製が含まれるノードと同じノードに対応することを確認します。


    # symdg -show group-name
    # cldevicegroup status -n nodename group-name
    
  2. 試験的にスイッチオーバーを実行して、デバイスグループが正しく構成され、複製がノード間を移動できることを確認します。

    デバイスグループがオフラインのときは、オンラインにします。


    # cldevicegroup switch -n nodename group-name
    
    -n nodename

    デバイスグループの切り替え先のノード。このノードが新しい主ノードになります。

  3. 次のコマンドの出力を比較することにより、スイッチオーバーが成功したことを確認します。


    # symdg -show group-name
    # cldevicegroup status -n nodename group-name
    

例: Sun Cluster 向けの SRDF 複製グループの構成

この例では、クラスタの SRDF 複製を設定するのに必要な Sun Cluster 固有の手順を完了します。この例では、すでに次の作業が完了していることが前提となっています。

この例には 4 ノードクラスタが含まれ、そのうちの 2 ノードは 1 つのシンメトリックスに接続され、ほかの 2 ノードはもう 1 つのシンメトリックスに接続されています。SRDF デバイスグループは、dg1 と呼ばれます。


例 5–15 複製ペアの作成

すべてのノードで次のコマンドを実行します。


# symcfg discover
! This operation might take up to a few minutes.
# symdev list pd

Symmetrix ID: 000187990182

        Device Name          Directors                   Device                
--------------------------- ------------ --------------------------------------
                                                                           Cap 
Sym  Physical               SA :P DA :IT  Config        Attribute    Sts   (MB)
--------------------------- ------------- -------------------------------------

0067 c5t600604800001879901* 16D:0 02A:C1  RDF2+Mir      N/Grp'd      RW    4315
0068 c5t600604800001879901* 16D:0 16B:C0  RDF1+Mir      N/Grp'd      RW    4315
0069 c5t600604800001879901* 16D:0 01A:C0  RDF1+Mir      N/Grp'd      RW    4315
...

RDF1 側のすべてのノードで、次のように入力します。


# symdg -type RDF1 create dg1
# symld -g dg1 add dev 0067

RDF2 側のすべてのノードで、次のように入力します。


# symdg -type RDF2 create dg1
# symld -g dg1 add dev 0067


例 5–16 データ複製設定の確認

クラスタ内の 1 つのノードから、次のように入力します。


# symdg show dg1

Group Name:  dg1

    Group Type                                   : RDF1     (RDFA)
    Device Group in GNS                          : No
    Valid                                        : Yes
    Symmetrix ID                                 : 000187900023
    Group Creation Time                          : Thu Sep 13 13:21:15 2007
    Vendor ID                                    : EMC Corp
    Application ID                               : SYMCLI

    Number of STD Devices in Group               :    1
    Number of Associated GK's                    :    0
    Number of Locally-associated BCV's           :    0
    Number of Locally-associated VDEV's          :    0
    Number of Remotely-associated BCV's (STD RDF):    0
    Number of Remotely-associated BCV's (BCV RDF):    0
    Number of Remotely-assoc'd RBCV's (RBCV RDF) :    0

    Standard (STD) Devices (1):
        {
        --------------------------------------------------------------------
                                                      Sym               Cap 
        LdevName              PdevName                Dev  Att. Sts     (MB)
        --------------------------------------------------------------------
        DEV001                /dev/rdsk/c5t6006048000018790002353594D303637d0s2 0067      RW      4315
        }

    Device Group RDF Information
...
# symrdf -g dg1 establish

Execute an RDF 'Incremental Establish' operation for device
group 'dg1' (y/[n]) ? y

An RDF 'Incremental Establish' operation execution is
in progress for device group 'dg1'. Please wait...

    Write Disable device(s) on RA at target (R2)..............Done.
    Suspend RDF link(s).......................................Done.
    Mark target (R2) devices to refresh from source (R1)......Started.
    Device: 0067 ............................................ Marked.
    Mark target (R2) devices to refresh from source (R1)......Done.
    Merge device track tables between source and target.......Started.
    Device: 0067 ............................................ Merged.
    Merge device track tables between source and target.......Done.
    Resume RDF link(s)........................................Started.
    Resume RDF link(s)........................................Done.

The RDF 'Incremental Establish' operation successfully initiated for
device group 'dg1'.

#  
# symrdf -g dg1 query  


Device Group (DG) Name             : dg1
DG's Type                          : RDF2
DG's Symmetrix ID                  : 000187990182


       Target (R2) View                 Source (R1) View     MODES           
--------------------------------    ------------------------ ----- ------------
             ST                  LI      ST                                    
Standard      A                   N       A                                   
Logical       T  R1 Inv   R2 Inv  K       T  R1 Inv   R2 Inv       RDF Pair    
Device  Dev   E  Tracks   Tracks  S Dev   E  Tracks   Tracks MDA   STATE       
-------------------------------- -- ------------------------ ----- ------------

DEV001  0067 WD       0        0 RW 0067 RW       0        0 S..   Synchronized

Total          -------- --------           -------- --------
  MB(s)             0.0      0.0                0.0      0.0

Legend for MODES:

 M(ode of Operation): A = Async, S = Sync, E = Semi-sync, C = Adaptive Copy
 D(omino)           : X = Enabled, . = Disabled
 A(daptive Copy)    : D = Disk Mode, W = WP Mode, . = ACp off

# 


例 5–17 使用されているディスクに対応する DID の表示

RDF1 側と RDF2 側で同じ手順を実行します。

dymdg show dg コマンドの出力の PdevName フィールドの下 に DID を表示できます。

RDF1 側で次のように入力します。


# symdg show dg1

Group Name:  dg1

    Group Type                                   : RDF1     (RDFA)
...
    Standard (STD) Devices (1):
        {
        --------------------------------------------------------------------
                                                      Sym               Cap 
        LdevName              PdevName                Dev  Att. Sts     (MB)
        --------------------------------------------------------------------
        DEV001                /dev/rdsk/c5t6006048000018790002353594D303637d0s2 0067      RW      4315
        }

    Device Group RDF Information
...

対応する DID を取得するには、次のように入力します。


# scdidadm -L | grep c5t6006048000018790002353594D303637d0
217      pmoney1:/dev/rdsk/c5t6006048000018790002353594D303637d0 /dev/did/rdsk/d217   
217      pmoney2:/dev/rdsk/c5t6006048000018790002353594D303637d0 /dev/did/rdsk/d217 
#

対応する DID の一覧を表示するには、次のように入力します。


# cldevice show d217

=== DID Device Instances ===                   

DID Device Name:                                /dev/did/rdsk/d217
  Full Device Path:                                pmoney2:/dev/rdsk/c5t6006048000018790002353594D303637d0
  Full Device Path:                                pmoney1:/dev/rdsk/c5t6006048000018790002353594D303637d0
  Replication:                                     none
  default_fencing:                                 global

# 

RDF2 側で次のように入力します。

dymdg show dg コマンドの出力の PdevName フィールドの下 に DID を表示できます。


# symdg show dg1

Group Name:  dg1

    Group Type                                   : RDF2     (RDFA)
...
    Standard (STD) Devices (1):
        {
        --------------------------------------------------------------------
                                                      Sym               Cap 
        LdevName              PdevName                Dev  Att. Sts     (MB)
        --------------------------------------------------------------------
        DEV001                /dev/rdsk/c5t6006048000018799018253594D303637d0s2 0067      WD      4315
        }

    Device Group RDF Information
...

対応する DID を取得するには、次のように入力します。


# scdidadm -L | grep c5t6006048000018799018253594D303637d0
108      pmoney4:/dev/rdsk/c5t6006048000018799018253594D303637d0 /dev/did/rdsk/d108   
108      pmoney3:/dev/rdsk/c5t6006048000018799018253594D303637d0 /dev/did/rdsk/d108   
# 

対応する DID の一覧を表示するには、次のように入力します。


# cldevice show d108

=== DID Device Instances ===                   

DID Device Name:                                /dev/did/rdsk/d108
  Full Device Path:                                pmoney3:/dev/rdsk/c5t6006048000018799018253594D303637d0
  Full Device Path:                                pmoney4:/dev/rdsk/c5t6006048000018799018253594D303637d0
  Replication:                                     none
  default_fencing:                                 global

# 


例 5–18 DID インスタンスの結合

RDF2 側から次のように入力します。


# cldevice combine -t srdf -g dg1 -d d217 d108
# 


例 5–19 結合された DID の表示

クラスタ内の任意のノードから、次のように入力します。


# cldevice show d217 d108
cldevice:  (C727402) Could not locate instance "108".

=== DID Device Instances ===                   

DID Device Name:                                /dev/did/rdsk/d217
  Full Device Path:                                pmoney1:/dev/rdsk/c5t6006048000018790002353594D303637d0
  Full Device Path:                                pmoney2:/dev/rdsk/c5t6006048000018790002353594D303637d0
  Full Device Path:                                pmoney4:/dev/rdsk/c5t6006048000018799018253594D303637d0
  Full Device Path:                                pmoney3:/dev/rdsk/c5t6006048000018799018253594D303637d0
  Replication:                                     srdf
  default_fencing:                                 global

#