JavaScript is required to for searching.
ナビゲーションリンクをスキップ
印刷ビューの終了
Oracle Solaris Cluster システム管理     Oracle Solaris Cluster 3.3 3/13 (日本語)
search filter icon
search icon

ドキュメントの情報

はじめに

1.  Oracle Solaris Cluster の管理の概要

2.  Oracle Solaris Cluster と RBAC

3.  クラスタの停止とブート

4.  データ複製のアプローチ

5.  グローバルデバイス、ディスクパス監視、およびクラスタファイルシステムの管理

グローバルデバイスとグローバルな名前空間の管理の概要

Solaris Volume Manager のグローバルデバイスのアクセス権

グローバルデバイスでの動的再構成

ストレージベースの複製されたデバイスの管理

Hitachi TrueCopy で複製されたデバイスの管理

Hitachi TrueCopy 複製グループを構成する方法

Hitachi TrueCopy を使用して DID デバイスを複製用に構成する方法

HITACHI TrueCopy で複製されたグローバルデバイスグループ構成を確認する方法

例: Oracle Solaris Cluster の TrueCopy 複製グループの構成

EMC Symmetrix Remote Data Facility で複製されたデバイスの管理

EMC SRDF 複製グループを構成する方法

EMC SRDF を使用して DID デバイスを複製用に構成する方法

EMC SRDF で複製されたグローバルデバイスグループ構成を確認する方法

例: Oracle Solaris Cluster の SRDF 複製グループの構成

クラスタファイルシステムの管理の概要

クラスタファイルシステムの制限事項

デバイスグループの管理

グローバルデバイス名前空間を更新する方法

グローバルデバイス名前空間で使用する lofi デバイスのサイズを変更する方法

グローバルデバイス名前空間を移行する

専用パーティションから lofi デバイスにグローバルデバイス名前空間を移行する方法

lofi デバイスから専用パーティションにグローバルデバイス名前空間を移行する方法

デバイスグループを追加および登録する

デバイスグループを追加および登録する方法 (Solaris Volume Manager)

デバイスグループ (raw ディスク) を追加および登録する方法

複製デバイスグループ(ZFS)の追加と登録方法

デバイスグループ名を保守する

デバイスグループを削除して登録を解除する方法 (Solaris Volume Manager )

すべてのデバイスグループからノードを削除する方法

デバイスグループからノードを削除する方法 (Solaris Volume Manager)

raw ディスクデバイスグループからノードを削除する方法

デバイスグループのプロパティーを変更する方法

デバイスグループのセカンダリノードの希望数を設定する方法

デバイスグループ構成の一覧を表示する方法

デバイスグループのプライマリノードを切り替える

デバイスグループを保守状態にする方法

ストレージデバイス用の SCSI プロトコル設定の管理

すべてのストレージデバイスのデフォルトのグローバルな SCSI プロトコル設定を表示する方法

単一ストレージデバイスの SCSI プロトコルを表示する方法

すべてのストレージデバイスのデフォルトのグローバルなフェンシングプロトコル設定を変更する方法

単一ストレージデバイスのフェンシングプロトコルを変更する方法

クラスタファイルシステムの管理

クラスタファイルシステムを追加する方法

クラスタファイルシステムを削除する方法

クラスタ内のグローバルマウントを確認する方法

ディスクパス監視の管理

ディスクパスを監視する方法

ディスクパスの監視を解除する方法

障害のあるディスクパスを表示する方法

ディスクパスのステータスエラーを解決する方法

ファイルからディスクパスを監視する方法

監視しているすべての共有ディスクパスが失敗したときのノードの自動リブートを有効にする方法

すべての監視共有ディスクパスが失敗した場合にノードの自動リブートを無効にする方法

6.  定足数の管理

7.  クラスタインターコネクトとパブリックネットワークの管理

8.  ノードの追加と削除

9.  クラスタの管理

10.  CPU 使用率の制御の構成

11.  Oracle Solaris Cluster ソフトウェアおよびファームウェアのパッチ適用

12.  クラスタのバックアップと復元

13.  グラフィカルユーザーインタフェースによる Oracle Solaris Cluster の管理

A.  例

索引

ストレージベースの複製されたデバイスの管理

ストレージベースの複製を使用して複製されるデバイスが含まれるように、Oracle Solaris Cluster デバイスグループを構成できます。Oracle Solaris Cluster ソフトウェアは、ストレージベースの複製用に Hitachi TrueCopy および EMC Symmetrix Remote Data Facility ソフトウェアをサポートしています。

Hitachi TrueCopy または EMC Symmetrix Remote Data Facility ソフトウェアでデータを複製する前に、ストレージベースの複製のドキュメントによく目を通し、ストレージベースの複製製品と最新のパッチをシステムにインストールしておいてください。ストレージベースの複製ソフトウェアのインストールについては、製品のドキュメントを参照してください。

ストレージベースの複製ソフトウェアは、デバイスのペアを複製として構成する際、一方のデバイスをプライマリ複製、もう一方のデバイスをセカンダリ複製とします。一方のノードのセットに接続されたデバイスが、常にプライマリ複製になります。もう一方のノードのセットに接続されたデバイスは、セカンダリ複製になります。

Oracle Solaris Cluster 構成では、複製が属する Oracle Solaris Cluster デバイスグループが移動されると、常に、プライマリ複製が自動的に移動されます。そのため、Oracle Solaris Cluster 構成下では、プライマリ複製を直接移動しないでください。その代わりに、テイクオーバーは関連する Oracle Solaris Cluster デバイスグループを移動することによって行うようにしてください。


注意

注意 - 作成する Oracle Solaris Cluster デバイスグループ (Solaris Volume Manager、または raw ディスク) の名前は、複製されたデバイスグループと同じ名前にする必要があります。


ここでは、次の手順について説明します。

Hitachi TrueCopy で複製されたデバイスの管理

次の表に、Hitachi TrueCopy ストレージベースの複製されたデバイスを設定するために実行する必要のあるタスクを示します。

表 5-2 タスクマップ: Hitachi TrueCopy ストレージベースの複製されたデバイスの管理

タスク
手順
ストレージデバイスとノードに TrueCopy ソフトウェアをインストールする
Hitachi ストレージデバイスに付属するドキュメントを参照してください。
Hitachi 複製グループを構成する
DID デバイスを構成する
複製されたグループを登録する
構成を確認する

Hitachi TrueCopy 複製グループを構成する方法

始める前に

まず、プライマリクラスタの共有ディスクに Hitachi TrueCopy デバイスグループを構成します。この構成情報は、HITACHI アレイにアクセスするクラスタの各ノードで、/etc/horcm.conf ファイルに指定します。/etc/horcm.conf ファイルを構成する方法の詳細については、Sun StorEdge SE 9900 V シリーズのコマンドおよび制御インタフェースのユーザーおよびリファレンスガイドを参照してください。


注意

注意 - 作成する Oracle Solaris Cluster デバイスグループ (Solaris Volume Manager、ZFS、または raw ディスク) の名前は、複製されたデバイスグループと同じ名前にする必要があります。


  1. ストレージアレイに接続されたすべてのノードで、スーパーユーザーになるか、RBAC の承認 solaris.cluster.modify を提供する役割になります。
  2. /etc/services ファイルに horcm エントリを追加します。
    horcm  9970/udp

    新しいエントリのポート番号とプロトコル名を指定します。

  3. /etc/horcm.conf ファイルに Hitachi TrueCopy デバイスグループの構成情報を指定します。

    手順については、TrueCopy ソフトウェアに付属するドキュメントを参照してください。

  4. すべてのノードで horcmstart.sh コマンドを実行し、TrueCopy CCI デーモンを起動します。
    # /usr/bin/horcmstart.sh
  5. まだ複製ペアを作成していない場合は、この時点で作成します。

    paircreate コマンドを使用して、必要な防御レベルで複製ペアを作成します。複製ペアの作成手順については、TrueCopy のドキュメントを参照してください。

  6. 複製されたデバイスによって構成された各ノードで、pairdisplay コマンドを使用して、データの複製が正しく設定されていることを確認します。 fence_level が ASYNC の Hitachi TrueCopy または Hitachi Universal Replicator デバイスグループは、ctgid をシステム上のほかのデバイスグループと共有できません。
    # pairdisplay -g group-name
    Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M 
    group-name pair1(L) (CL1-C , 0, 9) 54321   58..P-VOL PAIR NEVER ,12345 29   -
    group-name pair1(R) (CL1-A , 0, 29)12345   29..S-VOL PAIR NEVER ,----- 58   -
  7. すべてのノードが複製グループをマスターできることを確認します。
    1. どのノードにプライマリ複製が含まれ、どのノードにセカンダリ複製が含まれているかを判別するには、pairdisplay コマンドを使用します。
      # pairdisplay -g group-name
      Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M 
      group-name pair1(L) (CL1-C , 0, 9) 54321   58..P-VOL PAIR NEVER ,12345 29   -
      group-name pair1(R) (CL1-A , 0, 29)12345   29..S-VOL PAIR NEVER ,----- 58   -

      状態が P-VOL のローカル (L) デバイスがあるノードにはプライマリ複製が含まれ、状態が S-VOL のローカル (L) デバイスがあるノードにはセカンダリ複製が含まれます。

    2. セカンダリ複製を含むノードで horctakeover コマンドを実行し、セカンダリノードをマスターにします。
      # horctakeover -g group-name

      最初のデータコピーが完了するまで待ってから、次の手順に進みます。

    3. horctakeover を実行したノードに、状態が P-VOL のローカル (L) デバイスがあることを確認します。
      # pairdisplay -g group-name
      Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M 
      group-name pair1(L) (CL1-C , 0, 9) 54321   58..S-VOL PAIR NEVER ,12345 29   -
      group-name pair1(R) (CL1-A , 0, 29)12345   29..P-VOL PAIR NEVER ,----- 58   -
    4. 最初にプライマリ複製があったノードで horctakeover コマンドを実行します。
      # horctakeover -g group-name
    5. pairdisplay コマンドを実行して、プライマリノードが元の構成に戻ったことを確認します。
      # pairdisplay -g group-name
      Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M 
      group-name pair1(L) (CL1-C , 0, 9) 54321   58..P-VOL PAIR NEVER ,12345 29   -
      group-name pair1(R) (CL1-A , 0, 29)12345   29..S-VOL PAIR NEVER ,----- 58   -

次の手順

「Hitachi TrueCopy を使用して DID デバイスを複製用に構成する方法」の手順に従って、複製されたデバイスの構成を続行します。

Hitachi TrueCopy を使用して DID デバイスを複製用に構成する方法

始める前に

複製されるデバイス用にデバイスグループを構成したら、複製されるデバイスが使用するデバイス識別子 (DID) ドライバを構成する必要があります。

phys-schost# プロンプトは、グローバルクラスタのプロンプトを表します。この手順は、グローバルクラスタ上で実行します。

この手順では、長形式の Oracle Solaris Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。

  1. クラスタの任意のノードで、スーパーユーザーになるか、RBAC の承認 solaris.cluster.modify を提供する役割になります。
  2. すべてのノードで horcmd デーモンが実行中であることを確認します。

    実行中でなければ、次のコマンドでデーモンが起動されます。デーモンがすでに実行中の場合は、システムによりメッセージが表示されます。

    # /usr/bin/horcmstart.sh
  3. pairdisplay コマンドを使用して、どのノードにセカンダリ複製が含まれているかを判別します。
    # pairdisplay -g group-name
    Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M 
    group-name pair1(L) (CL1-C , 0, 9) 54321   58..P-VOL PAIR NEVER ,12345 29   -
    group-name pair1(R) (CL1-A , 0, 29)12345   29..S-VOL PAIR NEVER ,----- 58   -

    状態が S-VOL のローカル (L) デバイスがあるノードにはセカンダリ複製が含まれます。

  4. 前の手順で判別されたセカンダリ複製があるノードで、ストレージベースの複製に使用する DID デバイスを構成します。

    このコマンドは、デバイス複製ペアの 2 つの独立した DID インスタンスを組み合わせて、1 つの論理的 DID インスタンスにします。1 つのインスタンスであることで、どちらの側からもボリューム管理ソフトウェアでデバイスを使用できます。


    注意

    注意 - セカンダリ複製に複数のノードが接続されている場合、これらのノードの 1 つでのみ、次のコマンドを実行します。


    # cldevice replicate -D primary-replica-nodename -S secondary replica-nodename
    primary-replica-nodename

    プライマリ複製を含むリモートノードの名前を指定します。

    -S

    現在のノード以外のソースノードを指定します。

    secondary replica-nodename

    セカンダリ複製を含むリモートノードの名前を指定します。


    注 - デフォルトでは、現在のノードがソースノードです。-S オプションは、別のソースノードを指定するのに使用します。


  5. DID インスタンスが結合されていることを確認します。
    # cldevice list -v logical_DID_device
  6. TrueCopy 複製が設定されていることを確認します。
    # cldevice show logical_DID_device

    コマンド出力に、複製タイプは TrueCopy であることが示されます。

  7. DID の再マッピングによって、複製されたすべてのデバイスが正しく結合されなかった場合は、複製された個々のデバイスを手動で結合します。

    注意

    注意 - DID インスタンスを手動で結合する場合は十分に注意してください。デバイスの再マッピングが不適切だと、データが破損する可能性があります。


    1. セカンダリ複製を含むすべてのノードで、cldevice combine コマンドを実行します。
      # cldevice combine -d destination-instance source-instance
      -d destination-instance

      プライマリ複製に対応するリモート DID インスタンス。

      source-instance

      セカンダリ複製に対応するローカル DID インスタンス。

    2. DID の再マッピングが正しく行われたことを確認します。
      # cldevice list desination-instance source-instance

    DID インスタンスの 1 つが表示されないはずです。

  8. すべてのノード上で、結合されたすべての DID インスタンスの DID デバイスがアクセス可能であることを確認します。
    # cldevice list -v

次の手順

複製されるデバイスグループの構成を完了するために、次の手順を実行します。

HITACHI TrueCopy で複製されたグローバルデバイスグループ構成を確認する方法

始める前に

グローバルデバイスグループを確認する前に、まずそれを作成する必要があります。Solaris Volume Manager、ZFS、または raw ディスクからデバイスグループを使用できます。詳細は、次を参照してください。


注意

注意 - 作成した Oracle Solaris Cluster デバイスグループ (Solaris Volume Manager または raw ディスク) の名前は、複製されたデバイスグループの名前と同じである必要があります。


phys-schost# プロンプトは、グローバルクラスタのプロンプトを表します。この手順は、グローバルクラスタ上で実行します。

この手順では、長形式の Oracle Solaris Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。

  1. プライマリデバイスグループが、プライマリ複製が含まれるノードと同じノードに対応することを確認します。
    # pairdisplay -g group-name
    # cldevicegroup status -n nodename group-name
  2. デバイスグループに対して複製プロパティーが設定されていることを確認します。
    # cldevicegroup show -n nodename group-name
  3. デバイスに対して複製プロパティーが設定されていることを確認します。
    # usr/cluster/bin/cldevice status [-s state] [-n node[,?]] [+| [disk-device ]]
  4. 試験的にスイッチオーバーを実行し、デバイスグループが正しく構成され、複製がノード間を移動できることを確認します。

    デバイスグループがオフラインの場合は、オンラインにします。

    # cldevicegroup switch -n nodename group-name
    -n nodename

    デバイスグループの切り替え先のノード。このノードが新しいプライマリになります。

  5. 次のコマンドの出力を比較し、スイッチオーバーが成功したことを確認します。
    # pairdisplay -g group-name
    # cldevicegroup status -n nodename group-name

例: Oracle Solaris Cluster の TrueCopy 複製グループの構成

この例では、クラスタの TrueCopy 複製を設定するのに必要な Oracle Solaris Cluster 固有の手順を完了します。この例では、次のタスクが実行済みであることを前提とします。

この例には、TrueCopy を使用する 3 ノードのクラスタが含まれます。クラスタは 2 つのリモートサイトにまたがっており、一方のサイトに 2 つのノードがあり、他方のサイトには 1 つのノードがあります。それぞれのサイトに独自の Hitachi ストレージデバイスがあります。

次の例は、各ノードの TrueCopy /etc/horcm.conf 構成ファイルを示しています。

例 5-1 ノード 1 の TrueCopy 構成ファイル

HORCM_DEV 
#dev_group     dev_name    port#       TargetID     LU#       MU# 
VG01           pair1       CL1-A         0          29 
VG01           pair2       CL1-A         0          30 
VG01           pair3       CL1-A         0          31 
HORCM_INST 
#dev_group     ip_address   service 
VG01           node-3       horcm

例 5-2 ノード 2 の TrueCopy 構成ファイル

HORCM_DEV 
#dev_group        dev_name       port#       TargetID    LU#       MU#
VG01              pair1          CL1-A         0         29 
VG01              pair2          CL1-A         0         30 
VG01              pair3          CL1-A         0         31 
HORCM_INST 
#dev_group        ip_address      service 
VG01              node-3          horcm

例 5-3 ノード 3 の TrueCopy 構成ファイル

HORCM_DEV 
#dev_group        dev_name       port#       TargetID    LU#       MU# 
VG01              pair1          CL1-C         0         09 
VG01              pair2          CL1-C         0         10 
VG01              pair3          CL1-C         0         11 
HORCM_INST 
#dev_group        ip_address      service 
VG01              node-1          horcm 
VG01              node-2          horcm

上記の例では、2 つのサイト間で 3 つの LUN が複製されます。LUN はすべて VG01 という名前の複製グループに属しています。pairdisplay コマンドにより、この情報が確認され、ノード 3 にプライマリ複製があることが示されます。

例 5-4 ノード 1 での pairdisplay コマンドの出力

# pairdisplay -g VG01 
Group   PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#.P/S,Status,Fence, Seq#,P-LDEV# M 
VG01    pair1(L)    (CL1-A , 0, 29)61114   29..S-VOL PAIR NEVER  ,-----    58  - 
VG01    pair1(R)    (CL1-C , 0,  9)20064   58..P-VOL PAIR NEVER  ,61114    29  - 
VG01    pair2(L)    (CL1-A , 0, 30)61114   30..S-VOL PAIR NEVER  ,-----    59  - 
VG01    pair2(R)    (CL1-C , 0, 10)20064   59..P-VOL PAIR NEVER  ,61114    30  - 
VG01    pair3(L)    (CL1-A , 0, 31)61114   31..S-VOL PAIR NEVER  ,-----    60  - 
VG01    pair3(R)    (CL1-C , 0, 11)20064   60..P-VOL PAIR NEVER  ,61114    31  -

例 5-5 ノード 2 での pairdisplay コマンドの出力

# pairdisplay -g VG01 
Group   PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#.P/S,Status,Fence, Seq#,P-LDEV# M 
VG01    pair1(L)    (CL1-A , 0, 29)61114   29..S-VOL PAIR NEVER  ,-----    58  - 
VG01    pair1(R)    (CL1-C , 0,  9)20064   58..P-VOL PAIR NEVER  ,61114    29  - 
VG01    pair2(L)    (CL1-A , 0, 30)61114   30..S-VOL PAIR NEVER  ,-----    59  - 
VG01    pair2(R)    (CL1-C , 0, 10)20064   59..P-VOL PAIR NEVER  ,61114    30  - 
VG01    pair3(L)    (CL1-A , 0, 31)61114   31..S-VOL PAIR NEVER  ,-----    60  - 
VG01    pair3(R)    (CL1-C , 0, 11)20064   60..P-VOL PAIR NEVER  ,61114    31  -

例 5-6 ノード 3 での pairdisplay コマンドの出力

# pairdisplay -g VG01 
Group   PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#.P/S,Status,Fence, Seq#,P-LDEV# M 
VG01    pair1(L)    (CL1-C , 0,  9)20064   58..P-VOL PAIR NEVER  ,61114    29  - 
VG01    pair1(R)    (CL1-A , 0, 29)61114   29..S-VOL PAIR NEVER  ,-----    58  - 
VG01    pair2(L)    (CL1-C , 0, 10)20064   59..P-VOL PAIR NEVER  ,61114    30  - 
VG01    pair2(R)    (CL1-A , 0, 30)61114   30..S-VOL PAIR NEVER  ,-----    59  - 
VG01    pair3(L)    (CL1-C , 0, 11)20064   60..P-VOL PAIR NEVER  ,61114    31  - 
VG01    pair3(R)    (CL1-A , 0, 31)61114   31..S-VOL PAIR NEVER  ,-----    60  - 

使用中のディスクを確認するには、次の例に示すように、pairdisplayコマンドの -fdオプションを使用します。

例 5-7 ノード 1 での pairdisplay コマンドの出力: 使用されているディスクの表示

# pairdisplay -fd -g VG01 
Group PairVol(L/R) Device_File                       ,Seq#,LDEV#.P/S,Status,Fence,Seq#,P-LDEV# M 
VG01 pair1(L) c6t500060E8000000000000EEBA0000001Dd0s2 61114 29..S-VOL PAIR NEVER  ,-----    58  - 
VG01 pair1(R) c5t50060E800000000000004E600000003Ad0s2 20064 58..P-VOL PAIR NEVER  ,61114    29  - 
VG01 pair2(L) c6t500060E8000000000000EEBA0000001Ed0s2 61114 30..S-VOL PAIR NEVER  ,-----    59  - 
VG01 pair2(R) c5t50060E800000000000004E600000003Bd0s2 0064  59..P-VOL PAIR NEVER  ,61114    30  - 
VG01 pair3(L) c6t500060E8000000000000EEBA0000001Fd0s2 61114 31..S-VOL PAIR NEVER  ,-----    60  - 
VG01 pair3(R) c5t50060E800000000000004E600000003Cd0s2 20064 60..P-VOL PAIR NEVER  ,61114    31  -

例 5-8 ノード 2 での pairdisplay コマンドの出力: 使用されているディスクの表示

# pairdisplay -fd -g VG01
Group PairVol(L/R) Device_File                       ,Seq#,LDEV#.P/S,Status,Fence,Seq#,P-LDEV# M
VG01 pair1(L) c5t500060E8000000000000EEBA0000001Dd0s2 61114 29..S-VOL PAIR NEVER  ,-----    58  -
VG01 pair1(R) c5t50060E800000000000004E600000003Ad0s2 20064 58..P-VOL PAIR NEVER  ,61114    29  -
VG01 pair2(L) c5t500060E8000000000000EEBA0000001Ed0s2 61114 30..S-VOL PAIR NEVER  ,-----    59  -
VG01 pair2(R) c5t50060E800000000000004E600000003Bd0s2 20064 59..P-VOL PAIR NEVER  ,61114    30  -
VG01 pair3(L) c5t500060E8000000000000EEBA0000001Fd0s2 61114 31..S-VOL PAIR NEVER  ,-----    60  -
VG01 pair3(R) c5t50060E800000000000004E600000003Cd0s2 20064 60..P-VOL PAIR NEVER  ,61114    31  -

例 5-9 ノード 3 での pairdisplay コマンドの出力: 使用されているディスクの表示

# pairdisplay -fd -g VG01
Group PairVol(L/R) Device_File                       ,Seq#,LDEV#.P/S,Status,Fence ,Seq#,P-LDEV# M 
VG01 pair1(L) c5t50060E800000000000004E600000003Ad0s2 20064  58..P-VOL PAIR NEVER  ,61114    29  - 
VG01 pair1(R) c6t500060E8000000000000EEBA0000001Dd0s2 61114  29..S-VOL PAIR NEVER  ,-----    58  - 
VG01 pair2(L) c5t50060E800000000000004E600000003Bd0s2 20064  59..P-VOL PAIR NEVER  ,61114    30  - 
VG01 pair2(R) c6t500060E8000000000000EEBA0000001Ed0s2 61114  30..S-VOL PAIR NEVER  ,-----    59  - 
VG01 pair3(L) c5t50060E800000000000004E600000003Cd0s2 20064  60..P-VOL PAIR NEVER  ,61114    31  - 
VG01 pair3(R) c6t500060E8000000000000EEBA0000001Fd0s2 61114  31..S-VOL PAIR NEVER  ,-----    60  -

これらの例は、次のディスクが使用中であることを示しています。

これらのディスクに対応する DID デバイスを表示するには、次の例に示すように、cldevice list コマンドを使用します。

例 5-10 使用されているディスクに対応する DID の表示

# cldevice list -v

DID Device  Full Device Path
----------  ----------------
1           node-1:/dev/rdsk/c0t0d0  /dev/did/rdsk/d1
2           node-1:/dev/rdsk/c0t6d0  /dev/did/rdsk/d2
11          node-1:/dev/rdsk/c6t500060E8000000000000EEBA00000020d0 /dev/did/rdsk/d11
11          node-2:/dev/rdsk/c5t500060E8000000000000EEBA00000020d0 /dev/did/rdsk/d11
12              node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Fd0 /dev/did/rdsk/d12
12              node-2:/dev/rdsk/c5t500060E8000000000000EEBA0000001Fd0 /dev/did/rdsk/d12
13              node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Ed0 /dev/did/rdsk/d13
13              node-2:/dev/rdsk/c5t500060E8000000000000EEBA0000001Ed0 /dev/did/rdsk/d13
14              node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Dd0 /dev/did/rdsk/d14
14              node-2:/dev/rdsk/c5t500060E8000000000000EEBA0000001Dd0 /dev/did/rdsk/d14
18          node-3:/dev/rdsk/c0t0d0  /dev/did/rdsk/d18
19          node-3:/dev/rdsk/c0t6d0  /dev/did/rdsk/d19
20          node-3:/dev/rdsk/c5t50060E800000000000004E6000000013d0 /dev/did/rdsk/d20
21          node-3:/dev/rdsk/c5t50060E800000000000004E600000003Dd0 /dev/did/rdsk/d21
22          node-3:/dev/rdsk/c5t50060E800000000000004E600000003Cd0 /dev/did/rdsk/d2223  
23              node-3:/dev/rdsk/c5t50060E800000000000004E600000003Bd0 /dev/did/rdsk/d23
24              node-3:/dev/rdsk/c5t50060E800000000000004E600000003Ad0 /dev/did/rdsk/d24

複製されたデバイスの各ペアの DID インスタンスを結合する場合は、cldevice list により、DID インスタンス 12 と 22、インスタンス 13 と 23、インスタンス 14 と 24 を結合します。ノード 3 にはプライマリ複製があるため、ノード 1 またはノード 2 のいずれかから cldevice -T コマンドを実行します。必ず、セカンダリ複製があるノードのインスタンスを結合します。このコマンドは、両方のノードではなく、1 つのノードからのみ実行します。

次の例は、ノード 1 でコマンドを実行して DID インスタンスを結合した場合の出力を示しています。

例 5-11 DID インスタンスの結合

# cldevice replicate -D node-3
Remapping instances for devices replicated with node-3...
VG01 pair1 L node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Dd0
VG01 pair1 R node-3:/dev/rdsk/c5t50060E800000000000004E600000003Ad0
Combining instance 14 with 24
VG01 pair2 L node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Ed0
VG01 pair2 R node-3:/dev/rdsk/c5t50060E800000000000004E600000003Bd0
Combining instance 13 with 23
VG01 pair3 L node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Fd0
VG01 pair3 R node-3:/dev/rdsk/c5t50060E800000000000004E600000003Cd0
Combining instance 12 with 22

cldevice list の出力を確認すると、両方のサイトの LUN に同じ DID インスタンスがあります。次の例に示すように、同じ DID インスタンスがあるそれぞれの複製ペアは、単一の DID デバイスのように見えます。

例 5-12 結合された DID の表示

# cldevice list -v
DID Device  Full Device Path
----------  ----------------
1           node-1:/dev/rdsk/c0t0d0  /dev/did/rdsk/d1
2           node-1:/dev/rdsk/c0t6d0  /dev/did/rdsk/d2
11          node-1:/dev/rdsk/c6t500060E8000000000000EEBA00000020d0 /dev/did/rdsk/d11
11          node-2:/dev/rdsk/c5t500060E8000000000000EEBA00000020d0 /dev/did/rdsk/d11
18          node-3:/dev/rdsk/c0t0d0  /dev/did/rdsk/d18
19          node-3:/dev/rdsk/c0t6d0  /dev/did/rdsk/d19
20          node-3:/dev/rdsk/c5t50060E800000000000004E6000000013d0 /dev/did/rdsk/d20
21          node-3:/dev/rdsk/c5t50060E800000000000004E600000003Dd0 /dev/did/rdsk/d21
22          node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Fd0 /dev/did/rdsk/d1222  
22          node-2:/dev/rdsk/c5t500060E8000000000000EEBA0000001Fd0 /dev/did/rdsk/d12
22          node-3:/dev/rdsk/c5t50060E800000000000004E600000003Cd0 /dev/did/rdsk/d22
23          node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Ed0 /dev/did/rdsk/d13
23          node-2:/dev/rdsk/c5t500060E8000000000000EEBA0000001Ed0 /dev/did/rdsk/d13
23          node-3:/dev/rdsk/c5t50060E800000000000004E600000003Bd0 /dev/did/rdsk/d23
24          node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Dd0 /dev/did/rdsk/d24
24          node-2:/dev/rdsk/c5t500060E8000000000000EEBA0000001Dd0 /dev/did/rdsk/d24
24          node-3:/dev/rdsk/c5t50060E800000000000004E600000003Ad0 /dev/did/rdsk/d24

次の手順では、ボリュームマネージャーデバイスグループを作成します。このコマンドは、プライマリ複製があるノードから発行します。この例ではノード 3 です。次の例に示すように、デバイスグループに複製グループと同じ名前を付けます。

例 5-13 Solaris ボリュームマネージャーデバイスグループの作成

# metaset -s VG01 -ah phys-deneb-3
# metaset -s VG01 -ah phys-deneb-1
# metaset -s VG01 -ah phys-deneb-2
# metaset -s VG01 -a /dev/did/rdsk/d22
# metaset -s VG01 -a /dev/did/rdsk/d23
# metaset -s VG01 -a /dev/did/rdsk/d24
# metaset
Set name = VG01, Set number = 1

Host                Owner
  phys-deneb-3       Yes
  phys-deneb-1
  phys-deneb-2

Drive Dbase
d22   Yes
d23   Yes
d24   Yes

この時点でデバイスグループは使用可能なので、メタデバイスを作成でき、3 つのノードのうち、任意のノードにデバイスグループを移動できます。ただし、スイッチオーバーとフェイルオーバーの効率を高めるため、cldevicegroup set を実行し、クラスタ構成内でそのデバイスグループを複製済みとマークします。

例 5-14 スイッチオーバーとフェイルオーバーの効率向上

# cldevicegroup sync VG01 
# cldevicegroup show VG01
=== Device Groups===

Device Group Name                       VG01   
  Type:                                   SVM   
  failback:                               no   
  Node List:                              phys-deneb-3, phys-deneb-1, phys-deneb-2   
  preferenced:                            yes   
  numsecondaries:                         1   
  device names:                           VG01   
  Replication type:                       truecopy

複製グループの構成はこの手順で完了です。構成に成功したことを確認するには、「HITACHI TrueCopy で複製されたグローバルデバイスグループ構成を確認する方法」の手順を実行します。

EMC Symmetrix Remote Data Facility で複製されたデバイスの管理

次の表に、EMC Symmetrix Remote Data Facility (SRDF) ストレージベースの複製されたデバイスを設定および管理するために実行する必要のあるタスクを示します。

表 5-3 タスクマップ: EMC SRDF ストレージベースの複製されたデバイスの管理

タスク
手順
ストレージデバイスとノードに SRDF ソフトウェアをインストールする
EMC ストレージデバイスに付属するドキュメント。
EMC 複製グループを構成する
DID デバイスを構成する
複製されたグループを登録する
構成を確認する
キャンパスクラスタのプライマリルームが完全に失敗したあとに手動でデータを回復する

EMC SRDF 複製グループを構成する方法

始める前に

EMC Symmetrix Remote Data Facility (SRDF) 複製グループを構成する前に、すべてのクラスタノードに EMC Solutions Enabler ソフトウェアをインストールする必要があります。まず、クラスタの共有ディスクに EMC SRDF デバイスグループを構成します。EMC SRDF デバイスグループを構成する方法の詳細は、EMC SRDF 製品のドキュメントを参照してください。

EMC SRDF を使用する場合は、静的デバイスではなく、動的デバイスを使用します。静的デバイスでは複製プライマリを変更するのに数分かかり、フェイルオーバー時間に影響を与えることがあります。


注意

注意 - 作成する Oracle Solaris Cluster デバイスグループ (Solaris Volume Manager、または raw ディスク) の名前は、複製されたデバイスグループと同じ名前にしてください。


  1. ストレージアレイに接続されたすべてのノードで、スーパーユーザーになるか、RBAC の承認 solaris.cluster.modify を提供する役割になります。
  2. 並列 SRDF または直列接続されたデバイスを使用し、サイトが 3 つまたはデータセンターが 3 つある実装の場合、SYMAPI_2SITE_CLUSTER_DG パラメータを設定します。

    参加しているすべてのクラスタノードで、Solutions Enabler のオプションファイルに次のエントリを追加します。

    SYMAPI_2SITE_CLUSTER_DG=:rdf-group-number
    device-group

    デバイスグループの名前を指定します。

    rdf-group-number

    ホストのローカル Symmetrix を 2 番目のサイトの Symmetrix に接続する RDF グループを指定します。

    このエントリにより、クラスタソフトウェアで、2 つの SRDF 同期サイト間でのアプリケーションの移動を自動化できます。

    3 つのデータセンター構成の詳細については、『Oracle Solaris Cluster Geographic Edition Overview』の「Three-Data-Center (3DC) Topologies」を参照してください。

  3. 複製データで構成された各ノードで、シンメトリックスデバイス構成を検出します。

    これには数分かかることがあります。

    # /usr/symcli/bin/symcfg discover
  4. まだ複製ペアを作成していない場合は、この時点で作成します。

    複製ペアを作成するには、symrdf コマンドを使用します。複製ペアの作成方法の手順については、SRDF のドキュメントを参照してください。


    注 - サイトが 3 つまたはデータセンターが 3 つある実装で並列 RDF デバイスを使用する場合は、すべての symrdf コマンドに次のパラメータを追加します。

    -rdfg rdf-group-number

    symrdf コマンドに RDF グループ番号を指定することで、symrdf の操作が正しい RDF グループに向けられるようにします。


  5. 複製されたデバイスによって構成された各ノードで、データの複製が正しく設定されていることを確認します。
    # /usr/symcli/bin/symdg show group-name
  6. デバイスグループのスワップを実行します。
    1. プライマリ複製とセカンダリ複製が同期していることを確認します。
      # /usr/symcli/bin/symrdf -g group-name verify -synchronized
    2. どのノードにプライマリ複製が含まれ、どのノードにセカンダリ複製が含まれているかを判別するには、symdg show コマンドを使用します。
      # /usr/symcli/bin/symdg show group-name

      RDF1 デバイスのノードにはプライマリ複製が含まれ、RDF2 デバイス状態のノードにはセカンダリ複製が含まれます。

    3. セカンダリ複製を有効にします。
      # /usr/symcli/bin/symrdf -g group-name failover
    4. RDF1 デバイスと RDF2 デバイスをスワップします。
      # /usr/symcli/bin/symrdf -g group-name swap -refresh R1
    5. 複製ペアを有効にします。
      # /usr/symcli/bin/symrdf -g group-name establish
    6. プライマリノードとセカンダリ複製が同期していることを確認します。
      # /usr/symcli/bin/symrdf -g group-name verify -synchronized
  7. 最初にプライマリ複製があったノードで、手順 5 のすべてを繰り返します。

次の手順

EMC SRDF で複製されたデバイス用にデバイスグループを構成したら、複製されたデバイスが使用するデバイス識別子 (DID) ドライバを構成する必要があります。

EMC SRDF を使用して DID デバイスを複製用に構成する方法

この手順では、複製されたデバイスが使用するデバイス識別名 (DID) ドライバを構成します。

始める前に

phys-schost# プロンプトは、グローバルクラスタのプロンプトを表します。この手順は、グローバルクラスタ上で実行します。

この手順では、長形式の Oracle Solaris Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。

  1. クラスタの任意のノードで、スーパーユーザーになるか、RBAC の承認 solaris.cluster.modify を提供する役割になります。
  2. 構成される RDF1 デバイスおよび RDF2 デバイスに対応する DID デバイスを判別します。
    # /usr/symcli/bin/symdg show group-name

    注 - システムに Oracle Solaris デバイスのパッチ全体が表示されない場合は、環境変数 SYMCLI_FULL_PDEVNAME を 1 に設定して、symdg -show コマンドを再入力します。


  3. Oracle Solaris デバイスに対応する DID デバイスを判別します。
    # cldevice list -v
  4. 一致した DID デバイスのペアごとに、複製された 1 つの DID デバイスにインスタンスを結合します。RDF2/セカンダリ側から次のコマンドを実行します。
    # cldevice combine -t srdf -g replication-device-group \
     -d destination-instance source-instance

    注 - SRDF データ複製デバイスでは、-T オプションはサポートされていません。


    -t replication-type

    複製タイプを指定します。EMC SRDF の場合、SRDF を入力します。

    -g replication-device-group

    symdg show コマンドで表示されるデバイスグループの名前を指定します。

    -d destination-instance

    RDF1 デバイスに対応する DID インスタンスを指定します。

    source-instance

    RDF2 デバイスに対応する DID インスタンスを指定します。


    注 - 間違った DID デバイスを結合した場合は、scdidadm コマンドで -b オプションを使用して、2 つの DID デバイスの結合を取り消します。

    # scdidadm -b device 
    -b device

    インスタンスを結合したときに destination_device に対応していた DID インスタンス。


  5. 複製デバイスグループの名前が変更された場合は、Hitachi TrueCopy や SRDF で追加の手順が必要です。手順 1 - 4 が完了したら、該当する追加手順を実行します。
    項目
    説明
    TrueCopy
    複製デバイスグループ (および対応するグローバルデバイスグループ) の名前が変更された場合、cldevice replicate コマンドを再実行し、複製されたデバイスの情報を更新する必要があります。
    SRDF
    複製デバイスグループと、対応するグローバルデバイスグループの名前が変更された場合は、最初に、scdidadm -b コマンドを使用して既存の情報を削除し、複製されたデバイス情報を更新する必要があります。最後の手順では、cldevice combine コマンドを使用して、更新された新しいデバイスを作成します。
  6. DID インスタンスが結合されていることを確認します。
    # cldevice list -v device
  7. SRDF 複製が設定されていることを確認します。
    # cldevice show device
  8. すべてのノード上で、結合されたすべての DID インスタンスの DID デバイスがアクセス可能であることを確認します。
    # cldevice list -v

次の手順

複製されたデバイスが使用するデバイス識別名 (DID) ドライバを構成したら、EMC SRDF で複製されたグローバルデバイスグループ構成を確認する必要があります。

EMC SRDF で複製されたグローバルデバイスグループ構成を確認する方法

始める前に

グローバルデバイスグループを確認する前に、まずそれを作成する必要があります。Solaris Volume Manager、ZFS、または raw ディスクからデバイスグループを使用できます。詳細は、次を参照してください。


注意

注意 - 作成する Oracle Solaris Cluster デバイスグループ (Solaris Volume Manager または raw ディスク) の名前は、複製されたデバイスグループと同じ名前にする必要があります。


phys-schost# プロンプトは、グローバルクラスタのプロンプトを表します。この手順は、グローバルクラスタ上で実行します。

この手順では、長形式の Oracle Solaris Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。

  1. プライマリデバイスグループが、プライマリ複製が含まれるノードと同じノードに対応することを確認します。
    # symdg -show group-name
    # cldevicegroup status -n nodename group-name
  2. 試験的にスイッチオーバーを実行し、デバイスグループが正しく構成され、複製がノード間を移動できることを確認します。

    デバイスグループがオフラインの場合は、オンラインにします。

    # cldevicegroup switch -n nodename group-name
    -n nodename

    デバイスグループの切り替え先のノード。このノードが新しいプライマリになります。

  3. 次のコマンドの出力を比較し、スイッチオーバーが成功したことを確認します。
    # symdg -show group-name
    # cldevicegroup status -n nodename group-name

例: Oracle Solaris Cluster の SRDF 複製グループの構成

この例では、クラスタの SRDF 複製を設定するのに必要な Oracle Solaris Cluster 固有の手順を完了します。この例では、次のタスクが実行済みであることを前提とします。

この例には 4 ノードクラスタが含まれ、そのうちの 2 ノードは 1 つのシンメトリックスに接続され、残りの 2 ノードはもう 1 つのシンメトリックスに接続されています。SRDF デバイスグループは、dg1 と呼ばれます。

例 5-15 複製ペアの作成

すべてのノードで次のコマンドを実行します。

# symcfg discover
! This operation might take up to a few minutes.
# symdev list pd

Symmetrix ID: 000187990182

        Device Name          Directors                   Device                
--------------------------- ------------ --------------------------------------
                                                                           Cap 
Sym  Physical               SA :P DA :IT  Config        Attribute    Sts   (MB)
--------------------------- ------------- -------------------------------------

0067 c5t600604800001879901* 16D:0 02A:C1  RDF2+Mir      N/Grp'd      RW    4315
0068 c5t600604800001879901* 16D:0 16B:C0  RDF1+Mir      N/Grp'd      RW    4315
0069 c5t600604800001879901* 16D:0 01A:C0  RDF1+Mir      N/Grp'd      RW    4315
...

RDF1 側のすべてのノードで、次のように入力します。

# symdg -type RDF1 create dg1
# symld -g dg1 add dev 0067

RDF2 側のすべてのノードで、次のように入力します。

# symdg -type RDF2 create dg1
# symld -g dg1 add dev 0067

例 5-16 データ複製設定の確認

クラスタ内の 1 つのノードから、次のように入力します。

# symdg show dg1

Group Name:  dg1

    Group Type                                   : RDF1     (RDFA)
    Device Group in GNS                          : No
    Valid                                        : Yes
    Symmetrix ID                                 : 000187900023
    Group Creation Time                          : Thu Sep 13 13:21:15 2007
    Vendor ID                                    : EMC Corp
    Application ID                               : SYMCLI

    Number of STD Devices in Group               :    1
    Number of Associated GK's                    :    0
    Number of Locally-associated BCV's           :    0
    Number of Locally-associated VDEV's          :    0
    Number of Remotely-associated BCV's (STD RDF):    0
    Number of Remotely-associated BCV's (BCV RDF):    0
    Number of Remotely-assoc'd RBCV's (RBCV RDF) :    0

    Standard (STD) Devices (1):
        {
        --------------------------------------------------------------------
                                                      Sym               Cap 
        LdevName              PdevName                Dev  Att. Sts     (MB)
        --------------------------------------------------------------------
        DEV001                /dev/rdsk/c5t6006048000018790002353594D303637d0s2 0067      RW      4315
        }

    Device Group RDF Information
...
# symrdf -g dg1 establish

Execute an RDF 'Incremental Establish' operation for device
group 'dg1' (y/[n]) ? y

An RDF 'Incremental Establish' operation execution is
in progress for device group 'dg1'. Please wait...

    Write Disable device(s) on RA at target (R2)..............Done.
    Suspend RDF link(s).......................................Done.
    Mark target (R2) devices to refresh from source (R1)......Started.
    Device: 0067 ............................................ Marked.
    Mark target (R2) devices to refresh from source (R1)......Done.
    Merge device track tables between source and target.......Started.
    Device: 0067 ............................................ Merged.
    Merge device track tables between source and target.......Done.
    Resume RDF link(s)........................................Started.
    Resume RDF link(s)........................................Done.

The RDF 'Incremental Establish' operation successfully initiated for
device group 'dg1'.

#  
# symrdf -g dg1 query  


Device Group (DG) Name             : dg1
DG's Type                          : RDF2
DG's Symmetrix ID                  : 000187990182


       Target (R2) View                 Source (R1) View     MODES           
--------------------------------    ------------------------ ----- ------------
             ST                  LI      ST                                    
Standard      A                   N       A                                   
Logical       T  R1 Inv   R2 Inv  K       T  R1 Inv   R2 Inv       RDF Pair    
Device  Dev   E  Tracks   Tracks  S Dev   E  Tracks   Tracks MDA   STATE       
-------------------------------- -- ------------------------ ----- ------------

DEV001  0067 WD       0        0 RW 0067 RW       0        0 S..   Synchronized

Total          -------- --------           -------- --------
  MB(s)             0.0      0.0                0.0      0.0

Legend for MODES:

 M(ode of Operation): A = Async, S = Sync, E = Semi-sync, C = Adaptive Copy
 D(omino)           : X = Enabled, . = Disabled
 A(daptive Copy)    : D = Disk Mode, W = WP Mode, . = ACp off

# 

例 5-17 使用されているディスクに対応する DID の表示

RDF1 側と RDF2 側に同じ手順を適用します。

dymdg show dg コマンドの出力の PdevName フィールドの下に DID が表示されます。

RDF1 側で、次のように入力します。

# symdg show dg1

Group Name:  dg1

    Group Type                                   : RDF1     (RDFA)
...
    Standard (STD) Devices (1):
        {
        --------------------------------------------------------------------
                                                      Sym               Cap 
        LdevName              PdevName                Dev  Att. Sts     (MB)
        --------------------------------------------------------------------
        DEV001                /dev/rdsk/c5t6006048000018790002353594D303637d0s2 0067      RW      4315
        }

    Device Group RDF Information
...

対応する DID を取得するには、次のように入力します。

# scdidadm -L | grep c5t6006048000018790002353594D303637d0
217      pmoney1:/dev/rdsk/c5t6006048000018790002353594D303637d0 /dev/did/rdsk/d217   
217      pmoney2:/dev/rdsk/c5t6006048000018790002353594D303637d0 /dev/did/rdsk/d217 
#

対応する DID の一覧を表示するには、次のように入力します。

# cldevice show d217

=== DID Device Instances ===                   

DID Device Name:                                /dev/did/rdsk/d217
  Full Device Path:                                pmoney2:/dev/rdsk/c5t6006048000018790002353594D303637d0
  Full Device Path:                                pmoney1:/dev/rdsk/c5t6006048000018790002353594D303637d0
  Replication:                                     none
  default_fencing:                                 global

# 

RDF2 側で、次のように入力します。

dymdg show dg コマンドの出力の PdevName フィールドの下に DID が表示されます。

# symdg show dg1

Group Name:  dg1

    Group Type                                   : RDF2     (RDFA)
...
    Standard (STD) Devices (1):
        {
        --------------------------------------------------------------------
                                                      Sym               Cap 
        LdevName              PdevName                Dev  Att. Sts     (MB)
        --------------------------------------------------------------------
        DEV001                /dev/rdsk/c5t6006048000018799018253594D303637d0s2 0067      WD      4315
        }

    Device Group RDF Information
...

対応する DID を取得するには、次のように入力します。

# scdidadm -L | grep c5t6006048000018799018253594D303637d0
108      pmoney4:/dev/rdsk/c5t6006048000018799018253594D303637d0 /dev/did/rdsk/d108   
108      pmoney3:/dev/rdsk/c5t6006048000018799018253594D303637d0 /dev/did/rdsk/d108   
# 

対応する DID の一覧を表示するには、次のように入力します。

# cldevice show d108

=== DID Device Instances ===                   

DID Device Name:            /dev/did/rdsk/d108
  Full Device Path:               pmoney3:/dev/rdsk/c5t6006048000018799018253594D303637d0
  Full Device Path:               pmoney4:/dev/rdsk/c5t6006048000018799018253594D303637d0
  Replication:                    none
  default_fencing:                global

# 

例 5-18 DID インスタンスの結合

RDF2 側から、次のように入力します。

# cldevice combine -t srdf -g dg1 -d d217 d108
# 

例 5-19 結合された DID の表示

クラスタ内の任意のノードから、次のように入力します。

# cldevice show d217 d108
cldevice:  (C727402) Could not locate instance "108".

=== DID Device Instances ===                   

DID Device Name:                                /dev/did/rdsk/d217
  Full Device Path:                                pmoney1:/dev/rdsk/c5t6006048000018790002353594D303637d0
  Full Device Path:                                pmoney2:/dev/rdsk/c5t6006048000018790002353594D303637d0
  Full Device Path:                                pmoney4:/dev/rdsk/c5t6006048000018799018253594D303637d0
  Full Device Path:                                pmoney3:/dev/rdsk/c5t6006048000018799018253594D303637d0
  Replication:                                     srdf
  default_fencing:                                 global

# 

プライマリルームの完全な失敗後に EMC SRDF データを回復する方法

この手順では、キャンパスクラスタのプライマリルームが完全に失敗し、プライマリルームがセカンダリルームにフェイルオーバーして、プライマリルームがオンラインに戻ったとき、データ回復を実行します。キャンパスクラスタのプライマリルームは、プライマリノードとストレージサイトです。ルームの完全な失敗には、そのルームのホストとストレージの両方の不具合が含まれます。プライマリルームが失敗した場合、Oracle Solaris Cluster は自動的にセカンダリルームにフェイルオーバーし、セカンダリルームのストレージデバイスを読み書き可能にし、対応するデバイスグループとリソースグループのフェイルオーバーを有効にします。

プライマリルームがオンラインに戻ったら、セカンダリルームに書き込まれた SRDF デバイスグループからデータを手動で回復し、データを再同期できます。この手順では、元のセカンダリルーム (この手順では、セカンダリルームに phys-campus-2 を使用) のデータを元のプライマリルーム (phys-campus-1) と同期して、SRDF デバイスグループを回復します。また、この手順では、SRDF デバイスグループタイプを、phys-campus-2 では RDF1 に変更し、phys-campus-1 では RDF2 に変更します。

始める前に

手動でフェイルオーバーを実行する前に、EMC 複製グループおよび DID デバイスを構成し、EMC 複製グループを登録する必要があります。Solaris Volume Manager デバイスグループの作成については、「デバイスグループを追加および登録する方法 (Solaris Volume Manager)」を参照してください。


注 - これらの説明は、プライマリルームが完全にフェイルオーバーしてからオンラインに戻ったあとに、SRDF データを手動で回復するための 1 つの方法を示しています。その他の方法については、EMC のドキュメントを確認してください。


これらの手順を実行するには、キャンパスクラスタのプライマリルームにログインします。次の手順では、dg1 は SRDF デバイスグループ名です。失敗した時点では、この手順のプライマリルームは phys-campus-1 で、セカンダリルームは phys-campus-2 です。

  1. キャンパスクラスタのプライマリルームにログインし、スーパーユーザーになるか、solaris.cluster.modify RBAC の承認を提供する役割になります。
  2. プライマリルームから、symrdf コマンドを使用して RDF デバイスの複製ステータスに対するクエリーを実行し、これらのデバイスに関する情報を表示します。
    phys-campus-1# symrdf -g dg1 query

    ヒント - split 状態にあるデバイスグループは同期されません。


  3. RDF ペア状態が split で、デバイスグループタイプが RDF1 の場合、SRDF デバイスグループのフェイルオーバーを強制実行します。
    phys-campus-1# symrdf -g dg1 -force failover
  4. RDF デバイスのステータスを表示します。
    phys-campus-1# symrdf -g dg1 query
  5. フェイルオーバー後、フェイルオーバーした RDF デバイスのデータをスワップできます。
    phys-campus-1# symrdf -g dg1 swap
  6. RDF デバイスに関するステータスおよびその他の情報を確認します。
    phys-campus-1# symrdf -g dg1 query
  7. プライマリルームで SRDF デバイスグループを確立します。
    phys-campus-1# symrdf -g dg1 establish
  8. デバイスグループが同期状態にあり、デバイスグループタイプが RDF2 であることを確認します。
    phys-campus-1# symrdf -g dg1 query

例 5-20 プライマリサイトフェイルオーバー後の EMC SRDF データの手動回復

この例では、キャンパスクラスタのプライマリルームがフェイルオーバーし、セカンダリルームがテイクオーバーしてデータを記録し、プライマリルームがオンラインに戻ったあとで、EMC SRDF データを手動で回復するために必要な Oracle Solaris Cluster 固有の手順が示されています。この例では、SRDF デバイスグループは dg1 と呼ばれ、標準論理デバイスは DEV001 です。失敗した時点では、プライマリルームは phys-campus-1 で、セカンダリルームは phys-campus-2 です。キャンパスクラスタのプライマリルーム phys-campus-1 から各手順を実行します。

phys-campus-1# symrdf -g dg1 query | grep DEV
DEV001 0012RW  0  0NR 0012RW  2031   O S.. Split

phys-campus-1# symdg list | grep RDF
dg1 RDF1  Yes  00187990182  1  0  0  0  0

phys-campus-1# symrdf -g dg1 -force failover
...

phys-campus-1# symrdf -g dg1 query | grep DEV
DEV001  0012  WD  0  0 NR 0012 RW  2031  O S..  Failed Over

phys-campus-1# symdg list | grep RDF
dg1  RDF1  Yes  00187990182  1  0  0  0  0

phys-campus-1# symrdf -g dg1 swap
...

phys-campus-1# symrdf -g dg1 query | grep DEV
DEV001  0012 WD  0  0 NR 0012 RW  0  2031 S.. Suspended

phys-campus-1# symdg list | grep RDF
dg1  RDF2  Yes  000187990182  1  0  0  0  0

phys-campus-1# symrdf -g dg1 establish
...

phys-campus-1# symrdf -g dg1 query | grep DEV
DEV001  0012 WD  0  0 RW 0012 RW  0  0 S.. Synchronized

phys-campus-1# symdg list | grep RDF
dg1  RDF2  Yes  000187990182  1  0  0  0  0