ナビゲーションリンクをスキップ | |
印刷ビューの終了 | |
Oracle Solaris Cluster システム管理 Oracle Solaris Cluster 3.3 3/13 (日本語) |
1. Oracle Solaris Cluster の管理の概要
2. Oracle Solaris Cluster と RBAC
5. グローバルデバイス、ディスクパス監視、およびクラスタファイルシステムの管理
Solaris Volume Manager のグローバルデバイスのアクセス権
Hitachi TrueCopy で複製されたデバイスの管理
Hitachi TrueCopy 複製グループを構成する方法
Hitachi TrueCopy を使用して DID デバイスを複製用に構成する方法
HITACHI TrueCopy で複製されたグローバルデバイスグループ構成を確認する方法
例: Oracle Solaris Cluster の TrueCopy 複製グループの構成
EMC Symmetrix Remote Data Facility で複製されたデバイスの管理
EMC SRDF を使用して DID デバイスを複製用に構成する方法
グローバルデバイス名前空間で使用する lofi デバイスのサイズを変更する方法
専用パーティションから lofi デバイスにグローバルデバイス名前空間を移行する方法
lofi デバイスから専用パーティションにグローバルデバイス名前空間を移行する方法
デバイスグループを追加および登録する方法 (Solaris Volume Manager)
デバイスグループ (raw ディスク) を追加および登録する方法
デバイスグループを削除して登録を解除する方法 (Solaris Volume Manager )
デバイスグループからノードを削除する方法 (Solaris Volume Manager)
すべてのストレージデバイスのデフォルトのグローバルな SCSI プロトコル設定を表示する方法
単一ストレージデバイスの SCSI プロトコルを表示する方法
すべてのストレージデバイスのデフォルトのグローバルなフェンシングプロトコル設定を変更する方法
単一ストレージデバイスのフェンシングプロトコルを変更する方法
監視しているすべての共有ディスクパスが失敗したときのノードの自動リブートを有効にする方法
すべての監視共有ディスクパスが失敗した場合にノードの自動リブートを無効にする方法
7. クラスタインターコネクトとパブリックネットワークの管理
11. Oracle Solaris Cluster ソフトウェアおよびファームウェアのパッチ適用
ストレージベースの複製を使用して複製されるデバイスが含まれるように、Oracle Solaris Cluster デバイスグループを構成できます。Oracle Solaris Cluster ソフトウェアは、ストレージベースの複製用に Hitachi TrueCopy および EMC Symmetrix Remote Data Facility ソフトウェアをサポートしています。
Hitachi TrueCopy または EMC Symmetrix Remote Data Facility ソフトウェアでデータを複製する前に、ストレージベースの複製のドキュメントによく目を通し、ストレージベースの複製製品と最新のパッチをシステムにインストールしておいてください。ストレージベースの複製ソフトウェアのインストールについては、製品のドキュメントを参照してください。
ストレージベースの複製ソフトウェアは、デバイスのペアを複製として構成する際、一方のデバイスをプライマリ複製、もう一方のデバイスをセカンダリ複製とします。一方のノードのセットに接続されたデバイスが、常にプライマリ複製になります。もう一方のノードのセットに接続されたデバイスは、セカンダリ複製になります。
Oracle Solaris Cluster 構成では、複製が属する Oracle Solaris Cluster デバイスグループが移動されると、常に、プライマリ複製が自動的に移動されます。そのため、Oracle Solaris Cluster 構成下では、プライマリ複製を直接移動しないでください。その代わりに、テイクオーバーは関連する Oracle Solaris Cluster デバイスグループを移動することによって行うようにしてください。
注意 - 作成する Oracle Solaris Cluster デバイスグループ (Solaris Volume Manager、または raw ディスク) の名前は、複製されたデバイスグループと同じ名前にする必要があります。 |
ここでは、次の手順について説明します。
次の表に、Hitachi TrueCopy ストレージベースの複製されたデバイスを設定するために実行する必要のあるタスクを示します。
表 5-2 タスクマップ: Hitachi TrueCopy ストレージベースの複製されたデバイスの管理
|
始める前に
まず、プライマリクラスタの共有ディスクに Hitachi TrueCopy デバイスグループを構成します。この構成情報は、HITACHI アレイにアクセスするクラスタの各ノードで、/etc/horcm.conf ファイルに指定します。/etc/horcm.conf ファイルを構成する方法の詳細については、Sun StorEdge SE 9900 V シリーズのコマンドおよび制御インタフェースのユーザーおよびリファレンスガイドを参照してください。
注意 - 作成する Oracle Solaris Cluster デバイスグループ (Solaris Volume Manager、ZFS、または raw ディスク) の名前は、複製されたデバイスグループと同じ名前にする必要があります。 |
horcm 9970/udp
新しいエントリのポート番号とプロトコル名を指定します。
手順については、TrueCopy ソフトウェアに付属するドキュメントを参照してください。
# /usr/bin/horcmstart.sh
paircreate コマンドを使用して、必要な防御レベルで複製ペアを作成します。複製ペアの作成手順については、TrueCopy のドキュメントを参照してください。
# pairdisplay -g group-name Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M group-name pair1(L) (CL1-C , 0, 9) 54321 58..P-VOL PAIR NEVER ,12345 29 - group-name pair1(R) (CL1-A , 0, 29)12345 29..S-VOL PAIR NEVER ,----- 58 -
# pairdisplay -g group-name Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M group-name pair1(L) (CL1-C , 0, 9) 54321 58..P-VOL PAIR NEVER ,12345 29 - group-name pair1(R) (CL1-A , 0, 29)12345 29..S-VOL PAIR NEVER ,----- 58 -
状態が P-VOL のローカル (L) デバイスがあるノードにはプライマリ複製が含まれ、状態が S-VOL のローカル (L) デバイスがあるノードにはセカンダリ複製が含まれます。
# horctakeover -g group-name
最初のデータコピーが完了するまで待ってから、次の手順に進みます。
# pairdisplay -g group-name Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M group-name pair1(L) (CL1-C , 0, 9) 54321 58..S-VOL PAIR NEVER ,12345 29 - group-name pair1(R) (CL1-A , 0, 29)12345 29..P-VOL PAIR NEVER ,----- 58 -
# horctakeover -g group-name
# pairdisplay -g group-name Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M group-name pair1(L) (CL1-C , 0, 9) 54321 58..P-VOL PAIR NEVER ,12345 29 - group-name pair1(R) (CL1-A , 0, 29)12345 29..S-VOL PAIR NEVER ,----- 58 -
次の手順
「Hitachi TrueCopy を使用して DID デバイスを複製用に構成する方法」の手順に従って、複製されたデバイスの構成を続行します。
始める前に
複製されるデバイス用にデバイスグループを構成したら、複製されるデバイスが使用するデバイス識別子 (DID) ドライバを構成する必要があります。
phys-schost# プロンプトは、グローバルクラスタのプロンプトを表します。この手順は、グローバルクラスタ上で実行します。
この手順では、長形式の Oracle Solaris Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。
実行中でなければ、次のコマンドでデーモンが起動されます。デーモンがすでに実行中の場合は、システムによりメッセージが表示されます。
# /usr/bin/horcmstart.sh
# pairdisplay -g group-name Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M group-name pair1(L) (CL1-C , 0, 9) 54321 58..P-VOL PAIR NEVER ,12345 29 - group-name pair1(R) (CL1-A , 0, 29)12345 29..S-VOL PAIR NEVER ,----- 58 -
状態が S-VOL のローカル (L) デバイスがあるノードにはセカンダリ複製が含まれます。
このコマンドは、デバイス複製ペアの 2 つの独立した DID インスタンスを組み合わせて、1 つの論理的 DID インスタンスにします。1 つのインスタンスであることで、どちらの側からもボリューム管理ソフトウェアでデバイスを使用できます。
注意 - セカンダリ複製に複数のノードが接続されている場合、これらのノードの 1 つでのみ、次のコマンドを実行します。 |
# cldevice replicate -D primary-replica-nodename -S secondary replica-nodename
プライマリ複製を含むリモートノードの名前を指定します。
現在のノード以外のソースノードを指定します。
セカンダリ複製を含むリモートノードの名前を指定します。
注 - デフォルトでは、現在のノードがソースノードです。-S オプションは、別のソースノードを指定するのに使用します。
# cldevice list -v logical_DID_device
# cldevice show logical_DID_device
コマンド出力に、複製タイプは TrueCopy であることが示されます。
注意 - DID インスタンスを手動で結合する場合は十分に注意してください。デバイスの再マッピングが不適切だと、データが破損する可能性があります。 |
# cldevice combine -d destination-instance source-instance
プライマリ複製に対応するリモート DID インスタンス。
セカンダリ複製に対応するローカル DID インスタンス。
# cldevice list desination-instance source-instance
DID インスタンスの 1 つが表示されないはずです。
# cldevice list -v
次の手順
複製されるデバイスグループの構成を完了するために、次の手順を実行します。
「デバイスグループを追加および登録する方法 (Solaris Volume Manager)」
デバイスグループを登録するときには、TrueCopy 複製グループと同じ名前を指定するようにします。
始める前に
グローバルデバイスグループを確認する前に、まずそれを作成する必要があります。Solaris Volume Manager、ZFS、または raw ディスクからデバイスグループを使用できます。詳細は、次を参照してください。
注意 - 作成した Oracle Solaris Cluster デバイスグループ (Solaris Volume Manager または raw ディスク) の名前は、複製されたデバイスグループの名前と同じである必要があります。 |
phys-schost# プロンプトは、グローバルクラスタのプロンプトを表します。この手順は、グローバルクラスタ上で実行します。
この手順では、長形式の Oracle Solaris Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。
# pairdisplay -g group-name # cldevicegroup status -n nodename group-name
# cldevicegroup show -n nodename group-name
# usr/cluster/bin/cldevice status [-s state] [-n node[,?]] [+| [disk-device ]]
デバイスグループがオフラインの場合は、オンラインにします。
# cldevicegroup switch -n nodename group-name
デバイスグループの切り替え先のノード。このノードが新しいプライマリになります。
# pairdisplay -g group-name # cldevicegroup status -n nodename group-name
この例では、クラスタの TrueCopy 複製を設定するのに必要な Oracle Solaris Cluster 固有の手順を完了します。この例では、次のタスクが実行済みであることを前提とします。
Hitachi の LUN を設定済み
ストレージデバイスとクラスタノードに TrueCopy ソフトウェアがインストール済み
クラスタノードで複製ペアを構成済み
複製ペアを構成する手順については、「Hitachi TrueCopy 複製グループを構成する方法」を参照してください。
この例には、TrueCopy を使用する 3 ノードのクラスタが含まれます。クラスタは 2 つのリモートサイトにまたがっており、一方のサイトに 2 つのノードがあり、他方のサイトには 1 つのノードがあります。それぞれのサイトに独自の Hitachi ストレージデバイスがあります。
次の例は、各ノードの TrueCopy /etc/horcm.conf 構成ファイルを示しています。
例 5-1 ノード 1 の TrueCopy 構成ファイル
HORCM_DEV #dev_group dev_name port# TargetID LU# MU# VG01 pair1 CL1-A 0 29 VG01 pair2 CL1-A 0 30 VG01 pair3 CL1-A 0 31 HORCM_INST #dev_group ip_address service VG01 node-3 horcm
例 5-2 ノード 2 の TrueCopy 構成ファイル
HORCM_DEV #dev_group dev_name port# TargetID LU# MU# VG01 pair1 CL1-A 0 29 VG01 pair2 CL1-A 0 30 VG01 pair3 CL1-A 0 31 HORCM_INST #dev_group ip_address service VG01 node-3 horcm
例 5-3 ノード 3 の TrueCopy 構成ファイル
HORCM_DEV #dev_group dev_name port# TargetID LU# MU# VG01 pair1 CL1-C 0 09 VG01 pair2 CL1-C 0 10 VG01 pair3 CL1-C 0 11 HORCM_INST #dev_group ip_address service VG01 node-1 horcm VG01 node-2 horcm
上記の例では、2 つのサイト間で 3 つの LUN が複製されます。LUN はすべて VG01 という名前の複製グループに属しています。pairdisplay コマンドにより、この情報が確認され、ノード 3 にプライマリ複製があることが示されます。
例 5-4 ノード 1 での pairdisplay コマンドの出力
# pairdisplay -g VG01 Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#.P/S,Status,Fence, Seq#,P-LDEV# M VG01 pair1(L) (CL1-A , 0, 29)61114 29..S-VOL PAIR NEVER ,----- 58 - VG01 pair1(R) (CL1-C , 0, 9)20064 58..P-VOL PAIR NEVER ,61114 29 - VG01 pair2(L) (CL1-A , 0, 30)61114 30..S-VOL PAIR NEVER ,----- 59 - VG01 pair2(R) (CL1-C , 0, 10)20064 59..P-VOL PAIR NEVER ,61114 30 - VG01 pair3(L) (CL1-A , 0, 31)61114 31..S-VOL PAIR NEVER ,----- 60 - VG01 pair3(R) (CL1-C , 0, 11)20064 60..P-VOL PAIR NEVER ,61114 31 -
例 5-5 ノード 2 での pairdisplay コマンドの出力
# pairdisplay -g VG01 Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#.P/S,Status,Fence, Seq#,P-LDEV# M VG01 pair1(L) (CL1-A , 0, 29)61114 29..S-VOL PAIR NEVER ,----- 58 - VG01 pair1(R) (CL1-C , 0, 9)20064 58..P-VOL PAIR NEVER ,61114 29 - VG01 pair2(L) (CL1-A , 0, 30)61114 30..S-VOL PAIR NEVER ,----- 59 - VG01 pair2(R) (CL1-C , 0, 10)20064 59..P-VOL PAIR NEVER ,61114 30 - VG01 pair3(L) (CL1-A , 0, 31)61114 31..S-VOL PAIR NEVER ,----- 60 - VG01 pair3(R) (CL1-C , 0, 11)20064 60..P-VOL PAIR NEVER ,61114 31 -
例 5-6 ノード 3 での pairdisplay コマンドの出力
# pairdisplay -g VG01 Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#.P/S,Status,Fence, Seq#,P-LDEV# M VG01 pair1(L) (CL1-C , 0, 9)20064 58..P-VOL PAIR NEVER ,61114 29 - VG01 pair1(R) (CL1-A , 0, 29)61114 29..S-VOL PAIR NEVER ,----- 58 - VG01 pair2(L) (CL1-C , 0, 10)20064 59..P-VOL PAIR NEVER ,61114 30 - VG01 pair2(R) (CL1-A , 0, 30)61114 30..S-VOL PAIR NEVER ,----- 59 - VG01 pair3(L) (CL1-C , 0, 11)20064 60..P-VOL PAIR NEVER ,61114 31 - VG01 pair3(R) (CL1-A , 0, 31)61114 31..S-VOL PAIR NEVER ,----- 60 -
使用中のディスクを確認するには、次の例に示すように、pairdisplayコマンドの -fdオプションを使用します。
例 5-7 ノード 1 での pairdisplay コマンドの出力: 使用されているディスクの表示
# pairdisplay -fd -g VG01 Group PairVol(L/R) Device_File ,Seq#,LDEV#.P/S,Status,Fence,Seq#,P-LDEV# M VG01 pair1(L) c6t500060E8000000000000EEBA0000001Dd0s2 61114 29..S-VOL PAIR NEVER ,----- 58 - VG01 pair1(R) c5t50060E800000000000004E600000003Ad0s2 20064 58..P-VOL PAIR NEVER ,61114 29 - VG01 pair2(L) c6t500060E8000000000000EEBA0000001Ed0s2 61114 30..S-VOL PAIR NEVER ,----- 59 - VG01 pair2(R) c5t50060E800000000000004E600000003Bd0s2 0064 59..P-VOL PAIR NEVER ,61114 30 - VG01 pair3(L) c6t500060E8000000000000EEBA0000001Fd0s2 61114 31..S-VOL PAIR NEVER ,----- 60 - VG01 pair3(R) c5t50060E800000000000004E600000003Cd0s2 20064 60..P-VOL PAIR NEVER ,61114 31 -
例 5-8 ノード 2 での pairdisplay コマンドの出力: 使用されているディスクの表示
# pairdisplay -fd -g VG01 Group PairVol(L/R) Device_File ,Seq#,LDEV#.P/S,Status,Fence,Seq#,P-LDEV# M VG01 pair1(L) c5t500060E8000000000000EEBA0000001Dd0s2 61114 29..S-VOL PAIR NEVER ,----- 58 - VG01 pair1(R) c5t50060E800000000000004E600000003Ad0s2 20064 58..P-VOL PAIR NEVER ,61114 29 - VG01 pair2(L) c5t500060E8000000000000EEBA0000001Ed0s2 61114 30..S-VOL PAIR NEVER ,----- 59 - VG01 pair2(R) c5t50060E800000000000004E600000003Bd0s2 20064 59..P-VOL PAIR NEVER ,61114 30 - VG01 pair3(L) c5t500060E8000000000000EEBA0000001Fd0s2 61114 31..S-VOL PAIR NEVER ,----- 60 - VG01 pair3(R) c5t50060E800000000000004E600000003Cd0s2 20064 60..P-VOL PAIR NEVER ,61114 31 -
例 5-9 ノード 3 での pairdisplay コマンドの出力: 使用されているディスクの表示
# pairdisplay -fd -g VG01 Group PairVol(L/R) Device_File ,Seq#,LDEV#.P/S,Status,Fence ,Seq#,P-LDEV# M VG01 pair1(L) c5t50060E800000000000004E600000003Ad0s2 20064 58..P-VOL PAIR NEVER ,61114 29 - VG01 pair1(R) c6t500060E8000000000000EEBA0000001Dd0s2 61114 29..S-VOL PAIR NEVER ,----- 58 - VG01 pair2(L) c5t50060E800000000000004E600000003Bd0s2 20064 59..P-VOL PAIR NEVER ,61114 30 - VG01 pair2(R) c6t500060E8000000000000EEBA0000001Ed0s2 61114 30..S-VOL PAIR NEVER ,----- 59 - VG01 pair3(L) c5t50060E800000000000004E600000003Cd0s2 20064 60..P-VOL PAIR NEVER ,61114 31 - VG01 pair3(R) c6t500060E8000000000000EEBA0000001Fd0s2 61114 31..S-VOL PAIR NEVER ,----- 60 -
これらの例は、次のディスクが使用中であることを示しています。
ノード 1 上:
c6t500060E8000000000000EEBA0000001Dd0s2
c6t500060E8000000000000EEBA0000001Ed0s2
c6t500060E8000000000000EEBA0000001Fd0s
ノード 2 上:
c5t500060E8000000000000EEBA0000001Dd0s2
c5t500060E8000000000000EEBA0000001Ed0s2
c5t500060E8000000000000EEBA0000001Fd0s2
ノード 3 上:
c5t50060E800000000000004E600000003Ad0s2
c5t50060E800000000000004E600000003Bd0s2
c5t50060E800000000000004E600000003Cd0s2
これらのディスクに対応する DID デバイスを表示するには、次の例に示すように、cldevice list コマンドを使用します。
例 5-10 使用されているディスクに対応する DID の表示
# cldevice list -v DID Device Full Device Path ---------- ---------------- 1 node-1:/dev/rdsk/c0t0d0 /dev/did/rdsk/d1 2 node-1:/dev/rdsk/c0t6d0 /dev/did/rdsk/d2 11 node-1:/dev/rdsk/c6t500060E8000000000000EEBA00000020d0 /dev/did/rdsk/d11 11 node-2:/dev/rdsk/c5t500060E8000000000000EEBA00000020d0 /dev/did/rdsk/d11 12 node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Fd0 /dev/did/rdsk/d12 12 node-2:/dev/rdsk/c5t500060E8000000000000EEBA0000001Fd0 /dev/did/rdsk/d12 13 node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Ed0 /dev/did/rdsk/d13 13 node-2:/dev/rdsk/c5t500060E8000000000000EEBA0000001Ed0 /dev/did/rdsk/d13 14 node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Dd0 /dev/did/rdsk/d14 14 node-2:/dev/rdsk/c5t500060E8000000000000EEBA0000001Dd0 /dev/did/rdsk/d14 18 node-3:/dev/rdsk/c0t0d0 /dev/did/rdsk/d18 19 node-3:/dev/rdsk/c0t6d0 /dev/did/rdsk/d19 20 node-3:/dev/rdsk/c5t50060E800000000000004E6000000013d0 /dev/did/rdsk/d20 21 node-3:/dev/rdsk/c5t50060E800000000000004E600000003Dd0 /dev/did/rdsk/d21 22 node-3:/dev/rdsk/c5t50060E800000000000004E600000003Cd0 /dev/did/rdsk/d2223 23 node-3:/dev/rdsk/c5t50060E800000000000004E600000003Bd0 /dev/did/rdsk/d23 24 node-3:/dev/rdsk/c5t50060E800000000000004E600000003Ad0 /dev/did/rdsk/d24
複製されたデバイスの各ペアの DID インスタンスを結合する場合は、cldevice list により、DID インスタンス 12 と 22、インスタンス 13 と 23、インスタンス 14 と 24 を結合します。ノード 3 にはプライマリ複製があるため、ノード 1 またはノード 2 のいずれかから cldevice -T コマンドを実行します。必ず、セカンダリ複製があるノードのインスタンスを結合します。このコマンドは、両方のノードではなく、1 つのノードからのみ実行します。
次の例は、ノード 1 でコマンドを実行して DID インスタンスを結合した場合の出力を示しています。
例 5-11 DID インスタンスの結合
# cldevice replicate -D node-3 Remapping instances for devices replicated with node-3... VG01 pair1 L node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Dd0 VG01 pair1 R node-3:/dev/rdsk/c5t50060E800000000000004E600000003Ad0 Combining instance 14 with 24 VG01 pair2 L node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Ed0 VG01 pair2 R node-3:/dev/rdsk/c5t50060E800000000000004E600000003Bd0 Combining instance 13 with 23 VG01 pair3 L node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Fd0 VG01 pair3 R node-3:/dev/rdsk/c5t50060E800000000000004E600000003Cd0 Combining instance 12 with 22
cldevice list の出力を確認すると、両方のサイトの LUN に同じ DID インスタンスがあります。次の例に示すように、同じ DID インスタンスがあるそれぞれの複製ペアは、単一の DID デバイスのように見えます。
例 5-12 結合された DID の表示
# cldevice list -v DID Device Full Device Path ---------- ---------------- 1 node-1:/dev/rdsk/c0t0d0 /dev/did/rdsk/d1 2 node-1:/dev/rdsk/c0t6d0 /dev/did/rdsk/d2 11 node-1:/dev/rdsk/c6t500060E8000000000000EEBA00000020d0 /dev/did/rdsk/d11 11 node-2:/dev/rdsk/c5t500060E8000000000000EEBA00000020d0 /dev/did/rdsk/d11 18 node-3:/dev/rdsk/c0t0d0 /dev/did/rdsk/d18 19 node-3:/dev/rdsk/c0t6d0 /dev/did/rdsk/d19 20 node-3:/dev/rdsk/c5t50060E800000000000004E6000000013d0 /dev/did/rdsk/d20 21 node-3:/dev/rdsk/c5t50060E800000000000004E600000003Dd0 /dev/did/rdsk/d21 22 node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Fd0 /dev/did/rdsk/d1222 22 node-2:/dev/rdsk/c5t500060E8000000000000EEBA0000001Fd0 /dev/did/rdsk/d12 22 node-3:/dev/rdsk/c5t50060E800000000000004E600000003Cd0 /dev/did/rdsk/d22 23 node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Ed0 /dev/did/rdsk/d13 23 node-2:/dev/rdsk/c5t500060E8000000000000EEBA0000001Ed0 /dev/did/rdsk/d13 23 node-3:/dev/rdsk/c5t50060E800000000000004E600000003Bd0 /dev/did/rdsk/d23 24 node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Dd0 /dev/did/rdsk/d24 24 node-2:/dev/rdsk/c5t500060E8000000000000EEBA0000001Dd0 /dev/did/rdsk/d24 24 node-3:/dev/rdsk/c5t50060E800000000000004E600000003Ad0 /dev/did/rdsk/d24
次の手順では、ボリュームマネージャーデバイスグループを作成します。このコマンドは、プライマリ複製があるノードから発行します。この例ではノード 3 です。次の例に示すように、デバイスグループに複製グループと同じ名前を付けます。
例 5-13 Solaris ボリュームマネージャーデバイスグループの作成
# metaset -s VG01 -ah phys-deneb-3 # metaset -s VG01 -ah phys-deneb-1 # metaset -s VG01 -ah phys-deneb-2 # metaset -s VG01 -a /dev/did/rdsk/d22 # metaset -s VG01 -a /dev/did/rdsk/d23 # metaset -s VG01 -a /dev/did/rdsk/d24 # metaset Set name = VG01, Set number = 1 Host Owner phys-deneb-3 Yes phys-deneb-1 phys-deneb-2 Drive Dbase d22 Yes d23 Yes d24 Yes
この時点でデバイスグループは使用可能なので、メタデバイスを作成でき、3 つのノードのうち、任意のノードにデバイスグループを移動できます。ただし、スイッチオーバーとフェイルオーバーの効率を高めるため、cldevicegroup set を実行し、クラスタ構成内でそのデバイスグループを複製済みとマークします。
例 5-14 スイッチオーバーとフェイルオーバーの効率向上
# cldevicegroup sync VG01 # cldevicegroup show VG01 === Device Groups=== Device Group Name VG01 Type: SVM failback: no Node List: phys-deneb-3, phys-deneb-1, phys-deneb-2 preferenced: yes numsecondaries: 1 device names: VG01 Replication type: truecopy
複製グループの構成はこの手順で完了です。構成に成功したことを確認するには、「HITACHI TrueCopy で複製されたグローバルデバイスグループ構成を確認する方法」の手順を実行します。
次の表に、EMC Symmetrix Remote Data Facility (SRDF) ストレージベースの複製されたデバイスを設定および管理するために実行する必要のあるタスクを示します。
表 5-3 タスクマップ: EMC SRDF ストレージベースの複製されたデバイスの管理
|
始める前に
EMC Symmetrix Remote Data Facility (SRDF) 複製グループを構成する前に、すべてのクラスタノードに EMC Solutions Enabler ソフトウェアをインストールする必要があります。まず、クラスタの共有ディスクに EMC SRDF デバイスグループを構成します。EMC SRDF デバイスグループを構成する方法の詳細は、EMC SRDF 製品のドキュメントを参照してください。
EMC SRDF を使用する場合は、静的デバイスではなく、動的デバイスを使用します。静的デバイスでは複製プライマリを変更するのに数分かかり、フェイルオーバー時間に影響を与えることがあります。
注意 - 作成する Oracle Solaris Cluster デバイスグループ (Solaris Volume Manager、または raw ディスク) の名前は、複製されたデバイスグループと同じ名前にしてください。 |
参加しているすべてのクラスタノードで、Solutions Enabler のオプションファイルに次のエントリを追加します。
SYMAPI_2SITE_CLUSTER_DG=:rdf-group-number
デバイスグループの名前を指定します。
ホストのローカル Symmetrix を 2 番目のサイトの Symmetrix に接続する RDF グループを指定します。
このエントリにより、クラスタソフトウェアで、2 つの SRDF 同期サイト間でのアプリケーションの移動を自動化できます。
3 つのデータセンター構成の詳細については、『Oracle Solaris Cluster Geographic Edition Overview』の「Three-Data-Center (3DC) Topologies」を参照してください。
これには数分かかることがあります。
# /usr/symcli/bin/symcfg discover
複製ペアを作成するには、symrdf コマンドを使用します。複製ペアの作成方法の手順については、SRDF のドキュメントを参照してください。
注 - サイトが 3 つまたはデータセンターが 3 つある実装で並列 RDF デバイスを使用する場合は、すべての symrdf コマンドに次のパラメータを追加します。
-rdfg rdf-group-number
symrdf コマンドに RDF グループ番号を指定することで、symrdf の操作が正しい RDF グループに向けられるようにします。
# /usr/symcli/bin/symdg show group-name
# /usr/symcli/bin/symrdf -g group-name verify -synchronized
# /usr/symcli/bin/symdg show group-name
RDF1 デバイスのノードにはプライマリ複製が含まれ、RDF2 デバイス状態のノードにはセカンダリ複製が含まれます。
# /usr/symcli/bin/symrdf -g group-name failover
# /usr/symcli/bin/symrdf -g group-name swap -refresh R1
# /usr/symcli/bin/symrdf -g group-name establish
# /usr/symcli/bin/symrdf -g group-name verify -synchronized
次の手順
EMC SRDF で複製されたデバイス用にデバイスグループを構成したら、複製されたデバイスが使用するデバイス識別子 (DID) ドライバを構成する必要があります。
この手順では、複製されたデバイスが使用するデバイス識別名 (DID) ドライバを構成します。
始める前に
phys-schost# プロンプトは、グローバルクラスタのプロンプトを表します。この手順は、グローバルクラスタ上で実行します。
この手順では、長形式の Oracle Solaris Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。
# /usr/symcli/bin/symdg show group-name
注 - システムに Oracle Solaris デバイスのパッチ全体が表示されない場合は、環境変数 SYMCLI_FULL_PDEVNAME を 1 に設定して、symdg -show コマンドを再入力します。
# cldevice list -v
# cldevice combine -t srdf -g replication-device-group \ -d destination-instance source-instance
注 - SRDF データ複製デバイスでは、-T オプションはサポートされていません。
複製タイプを指定します。EMC SRDF の場合、SRDF を入力します。
symdg show コマンドで表示されるデバイスグループの名前を指定します。
RDF1 デバイスに対応する DID インスタンスを指定します。
RDF2 デバイスに対応する DID インスタンスを指定します。
注 - 間違った DID デバイスを結合した場合は、scdidadm コマンドで -b オプションを使用して、2 つの DID デバイスの結合を取り消します。
# scdidadm -b device
インスタンスを結合したときに destination_device に対応していた DID インスタンス。
|
# cldevice list -v device
# cldevice show device
# cldevice list -v
次の手順
複製されたデバイスが使用するデバイス識別名 (DID) ドライバを構成したら、EMC SRDF で複製されたグローバルデバイスグループ構成を確認する必要があります。
始める前に
グローバルデバイスグループを確認する前に、まずそれを作成する必要があります。Solaris Volume Manager、ZFS、または raw ディスクからデバイスグループを使用できます。詳細は、次を参照してください。
注意 - 作成する Oracle Solaris Cluster デバイスグループ (Solaris Volume Manager または raw ディスク) の名前は、複製されたデバイスグループと同じ名前にする必要があります。 |
phys-schost# プロンプトは、グローバルクラスタのプロンプトを表します。この手順は、グローバルクラスタ上で実行します。
この手順では、長形式の Oracle Solaris Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。
# symdg -show group-name # cldevicegroup status -n nodename group-name
デバイスグループがオフラインの場合は、オンラインにします。
# cldevicegroup switch -n nodename group-name
デバイスグループの切り替え先のノード。このノードが新しいプライマリになります。
# symdg -show group-name # cldevicegroup status -n nodename group-name
この例では、クラスタの SRDF 複製を設定するのに必要な Oracle Solaris Cluster 固有の手順を完了します。この例では、次のタスクが実行済みであることを前提とします。
アレイ間の複製の LUN のペア作成が完了している。
ストレージデバイスとクラスタノードに SRDF ソフトウェアがインストール済みである。
この例には 4 ノードクラスタが含まれ、そのうちの 2 ノードは 1 つのシンメトリックスに接続され、残りの 2 ノードはもう 1 つのシンメトリックスに接続されています。SRDF デバイスグループは、dg1 と呼ばれます。
例 5-15 複製ペアの作成
すべてのノードで次のコマンドを実行します。
# symcfg discover ! This operation might take up to a few minutes. # symdev list pd Symmetrix ID: 000187990182 Device Name Directors Device --------------------------- ------------ -------------------------------------- Cap Sym Physical SA :P DA :IT Config Attribute Sts (MB) --------------------------- ------------- ------------------------------------- 0067 c5t600604800001879901* 16D:0 02A:C1 RDF2+Mir N/Grp'd RW 4315 0068 c5t600604800001879901* 16D:0 16B:C0 RDF1+Mir N/Grp'd RW 4315 0069 c5t600604800001879901* 16D:0 01A:C0 RDF1+Mir N/Grp'd RW 4315 ...
RDF1 側のすべてのノードで、次のように入力します。
# symdg -type RDF1 create dg1 # symld -g dg1 add dev 0067
RDF2 側のすべてのノードで、次のように入力します。
# symdg -type RDF2 create dg1 # symld -g dg1 add dev 0067
例 5-16 データ複製設定の確認
クラスタ内の 1 つのノードから、次のように入力します。
# symdg show dg1 Group Name: dg1 Group Type : RDF1 (RDFA) Device Group in GNS : No Valid : Yes Symmetrix ID : 000187900023 Group Creation Time : Thu Sep 13 13:21:15 2007 Vendor ID : EMC Corp Application ID : SYMCLI Number of STD Devices in Group : 1 Number of Associated GK's : 0 Number of Locally-associated BCV's : 0 Number of Locally-associated VDEV's : 0 Number of Remotely-associated BCV's (STD RDF): 0 Number of Remotely-associated BCV's (BCV RDF): 0 Number of Remotely-assoc'd RBCV's (RBCV RDF) : 0 Standard (STD) Devices (1): { -------------------------------------------------------------------- Sym Cap LdevName PdevName Dev Att. Sts (MB) -------------------------------------------------------------------- DEV001 /dev/rdsk/c5t6006048000018790002353594D303637d0s2 0067 RW 4315 } Device Group RDF Information ... # symrdf -g dg1 establish Execute an RDF 'Incremental Establish' operation for device group 'dg1' (y/[n]) ? y An RDF 'Incremental Establish' operation execution is in progress for device group 'dg1'. Please wait... Write Disable device(s) on RA at target (R2)..............Done. Suspend RDF link(s).......................................Done. Mark target (R2) devices to refresh from source (R1)......Started. Device: 0067 ............................................ Marked. Mark target (R2) devices to refresh from source (R1)......Done. Merge device track tables between source and target.......Started. Device: 0067 ............................................ Merged. Merge device track tables between source and target.......Done. Resume RDF link(s)........................................Started. Resume RDF link(s)........................................Done. The RDF 'Incremental Establish' operation successfully initiated for device group 'dg1'. # # symrdf -g dg1 query Device Group (DG) Name : dg1 DG's Type : RDF2 DG's Symmetrix ID : 000187990182 Target (R2) View Source (R1) View MODES -------------------------------- ------------------------ ----- ------------ ST LI ST Standard A N A Logical T R1 Inv R2 Inv K T R1 Inv R2 Inv RDF Pair Device Dev E Tracks Tracks S Dev E Tracks Tracks MDA STATE -------------------------------- -- ------------------------ ----- ------------ DEV001 0067 WD 0 0 RW 0067 RW 0 0 S.. Synchronized Total -------- -------- -------- -------- MB(s) 0.0 0.0 0.0 0.0 Legend for MODES: M(ode of Operation): A = Async, S = Sync, E = Semi-sync, C = Adaptive Copy D(omino) : X = Enabled, . = Disabled A(daptive Copy) : D = Disk Mode, W = WP Mode, . = ACp off #
例 5-17 使用されているディスクに対応する DID の表示
RDF1 側と RDF2 側に同じ手順を適用します。
dymdg show dg コマンドの出力の PdevName フィールドの下に DID が表示されます。
RDF1 側で、次のように入力します。
# symdg show dg1 Group Name: dg1 Group Type : RDF1 (RDFA) ... Standard (STD) Devices (1): { -------------------------------------------------------------------- Sym Cap LdevName PdevName Dev Att. Sts (MB) -------------------------------------------------------------------- DEV001 /dev/rdsk/c5t6006048000018790002353594D303637d0s2 0067 RW 4315 } Device Group RDF Information ...
対応する DID を取得するには、次のように入力します。
# scdidadm -L | grep c5t6006048000018790002353594D303637d0 217 pmoney1:/dev/rdsk/c5t6006048000018790002353594D303637d0 /dev/did/rdsk/d217 217 pmoney2:/dev/rdsk/c5t6006048000018790002353594D303637d0 /dev/did/rdsk/d217 #
対応する DID の一覧を表示するには、次のように入力します。
# cldevice show d217 === DID Device Instances === DID Device Name: /dev/did/rdsk/d217 Full Device Path: pmoney2:/dev/rdsk/c5t6006048000018790002353594D303637d0 Full Device Path: pmoney1:/dev/rdsk/c5t6006048000018790002353594D303637d0 Replication: none default_fencing: global #
RDF2 側で、次のように入力します。
dymdg show dg コマンドの出力の PdevName フィールドの下に DID が表示されます。
# symdg show dg1 Group Name: dg1 Group Type : RDF2 (RDFA) ... Standard (STD) Devices (1): { -------------------------------------------------------------------- Sym Cap LdevName PdevName Dev Att. Sts (MB) -------------------------------------------------------------------- DEV001 /dev/rdsk/c5t6006048000018799018253594D303637d0s2 0067 WD 4315 } Device Group RDF Information ...
対応する DID を取得するには、次のように入力します。
# scdidadm -L | grep c5t6006048000018799018253594D303637d0 108 pmoney4:/dev/rdsk/c5t6006048000018799018253594D303637d0 /dev/did/rdsk/d108 108 pmoney3:/dev/rdsk/c5t6006048000018799018253594D303637d0 /dev/did/rdsk/d108 #
対応する DID の一覧を表示するには、次のように入力します。
# cldevice show d108 === DID Device Instances === DID Device Name: /dev/did/rdsk/d108 Full Device Path: pmoney3:/dev/rdsk/c5t6006048000018799018253594D303637d0 Full Device Path: pmoney4:/dev/rdsk/c5t6006048000018799018253594D303637d0 Replication: none default_fencing: global #
例 5-18 DID インスタンスの結合
RDF2 側から、次のように入力します。
# cldevice combine -t srdf -g dg1 -d d217 d108 #
例 5-19 結合された DID の表示
クラスタ内の任意のノードから、次のように入力します。
# cldevice show d217 d108 cldevice: (C727402) Could not locate instance "108". === DID Device Instances === DID Device Name: /dev/did/rdsk/d217 Full Device Path: pmoney1:/dev/rdsk/c5t6006048000018790002353594D303637d0 Full Device Path: pmoney2:/dev/rdsk/c5t6006048000018790002353594D303637d0 Full Device Path: pmoney4:/dev/rdsk/c5t6006048000018799018253594D303637d0 Full Device Path: pmoney3:/dev/rdsk/c5t6006048000018799018253594D303637d0 Replication: srdf default_fencing: global #
この手順では、キャンパスクラスタのプライマリルームが完全に失敗し、プライマリルームがセカンダリルームにフェイルオーバーして、プライマリルームがオンラインに戻ったとき、データ回復を実行します。キャンパスクラスタのプライマリルームは、プライマリノードとストレージサイトです。ルームの完全な失敗には、そのルームのホストとストレージの両方の不具合が含まれます。プライマリルームが失敗した場合、Oracle Solaris Cluster は自動的にセカンダリルームにフェイルオーバーし、セカンダリルームのストレージデバイスを読み書き可能にし、対応するデバイスグループとリソースグループのフェイルオーバーを有効にします。
プライマリルームがオンラインに戻ったら、セカンダリルームに書き込まれた SRDF デバイスグループからデータを手動で回復し、データを再同期できます。この手順では、元のセカンダリルーム (この手順では、セカンダリルームに phys-campus-2 を使用) のデータを元のプライマリルーム (phys-campus-1) と同期して、SRDF デバイスグループを回復します。また、この手順では、SRDF デバイスグループタイプを、phys-campus-2 では RDF1 に変更し、phys-campus-1 では RDF2 に変更します。
始める前に
手動でフェイルオーバーを実行する前に、EMC 複製グループおよび DID デバイスを構成し、EMC 複製グループを登録する必要があります。Solaris Volume Manager デバイスグループの作成については、「デバイスグループを追加および登録する方法 (Solaris Volume Manager)」を参照してください。
注 - これらの説明は、プライマリルームが完全にフェイルオーバーしてからオンラインに戻ったあとに、SRDF データを手動で回復するための 1 つの方法を示しています。その他の方法については、EMC のドキュメントを確認してください。
これらの手順を実行するには、キャンパスクラスタのプライマリルームにログインします。次の手順では、dg1 は SRDF デバイスグループ名です。失敗した時点では、この手順のプライマリルームは phys-campus-1 で、セカンダリルームは phys-campus-2 です。
phys-campus-1# symrdf -g dg1 query
ヒント - split 状態にあるデバイスグループは同期されません。
phys-campus-1# symrdf -g dg1 -force failover
phys-campus-1# symrdf -g dg1 query
phys-campus-1# symrdf -g dg1 swap
phys-campus-1# symrdf -g dg1 query
phys-campus-1# symrdf -g dg1 establish
phys-campus-1# symrdf -g dg1 query
例 5-20 プライマリサイトフェイルオーバー後の EMC SRDF データの手動回復
この例では、キャンパスクラスタのプライマリルームがフェイルオーバーし、セカンダリルームがテイクオーバーしてデータを記録し、プライマリルームがオンラインに戻ったあとで、EMC SRDF データを手動で回復するために必要な Oracle Solaris Cluster 固有の手順が示されています。この例では、SRDF デバイスグループは dg1 と呼ばれ、標準論理デバイスは DEV001 です。失敗した時点では、プライマリルームは phys-campus-1 で、セカンダリルームは phys-campus-2 です。キャンパスクラスタのプライマリルーム phys-campus-1 から各手順を実行します。
phys-campus-1# symrdf -g dg1 query | grep DEV DEV001 0012RW 0 0NR 0012RW 2031 O S.. Split phys-campus-1# symdg list | grep RDF dg1 RDF1 Yes 00187990182 1 0 0 0 0 phys-campus-1# symrdf -g dg1 -force failover ... phys-campus-1# symrdf -g dg1 query | grep DEV DEV001 0012 WD 0 0 NR 0012 RW 2031 O S.. Failed Over phys-campus-1# symdg list | grep RDF dg1 RDF1 Yes 00187990182 1 0 0 0 0 phys-campus-1# symrdf -g dg1 swap ... phys-campus-1# symrdf -g dg1 query | grep DEV DEV001 0012 WD 0 0 NR 0012 RW 0 2031 S.. Suspended phys-campus-1# symdg list | grep RDF dg1 RDF2 Yes 000187990182 1 0 0 0 0 phys-campus-1# symrdf -g dg1 establish ... phys-campus-1# symrdf -g dg1 query | grep DEV DEV001 0012 WD 0 0 RW 0012 RW 0 0 S.. Synchronized phys-campus-1# symdg list | grep RDF dg1 RDF2 Yes 000187990182 1 0 0 0 0