ナビゲーションリンクをスキップ | |
印刷ビューの終了 | |
![]() |
Oracle Solaris Cluster システム管理 Oracle Solaris Cluster (日本語) |
1. Oracle Solaris Cluster の管理の概要
2. Oracle Solaris Cluster と RBAC
5. グローバルデバイス、ディスクパス監視、およびクラスタファイルシステムの管理
Solaris Volume Manager のグローバルデバイスのアクセス権
Veritas Volume Manager による管理に関する注意事項
Hitachi TrueCopy で複製されたデバイスの管理
Hitachi TrueCopy を使用して DID デバイスを複製用に構成する
Hitachi TrueCopy で複製されたグローバルデバイスグループ構成を確認する
例: Oracle Solaris Cluster 向けの TrueCopy 複製グループの構成
EMC Symmetrix Remote Data Facility で複製したデバイスの管理
EMC SRDF を使用して DID デバイスを複製用に構成する
グローバルデバイス名前空間で使用する lofi デバイスのサイズを変更する
専用パーティションから lofi デバイスにグローバルデバイス名前空間を移行する
lofi デバイスから専用パーティションにグローバルデバイス名前空間を移行する
デバイスグループを追加および登録する (Solaris Volume Manager)
デバイスグループ (raw ディスク) を追加および登録する
ディスクの初期化時に新しいディスクグループを作成 (Veritas Volume Manager)
デバイスグループを削除して登録を解除する (Solaris Volume Manager )
デバイスグループからノードを削除する (Solaris Volume Manager)
ディスクをカプセル化する際に新しいディスクグループを作成する (Veritas Volume Manager)
新しいボリュームを既存のデバイスグループに追加する (Veritas Volume Manager)
既存のディスクグループをデバイスグループに変換する (Veritas Volume Manager)
デバイスグループに新しいマイナー番号を割り当てる (Veritas Volume Manager)
ディスクグループをデバイスグループとして登録する (Veritas Volume Manager)
ディスクグループの構成変更を登録する (Veritas Volume Manager)
ローカルディスクグループをデバイスグループに変換する (VxVM)
デバイスグループをローカルディスクグループに変換する (VxVM)
デバイスグループからボリュームを削除する (Veritas Volume Manager)
デバイスグループを削除して登録を解除する (Veritas Volume Manager )
デバイスグループにノードを追加する (Veritas Volume Manager)
デバイスグループからノードを削除する (Veritas Volume Manager)
すべてのストレージデバイスのデフォルトのグローバルな SCSI プロトコル設定を表示する
すべてのストレージデバイスのデフォルトのグローバルなフェンシングプロトコル設定を変更する
監視しているすべての共有ディスクパスが失敗したときのノードの自動再起動を有効にする
すべての監視共有ディスクパスが失敗した場合にノードの自動再起動を無効にする
7. クラスタインターコネクトとパブリックネットワークの管理
11. Oracle Solaris Cluster ソフトウェアとファームウェアのパッチ
ストレージベースの複製によって複製されたデバイスを含めるよう、Oracle Solaris Cluster デバイスグループを構成できます。 Oracle Solaris Cluster ソフトウェアは、ストレージベースの複製用に Hitachi TrueCopy および EMC Symmetrix Remote Data Facility ソフトウェアをサポートしています。
Hitachi TrueCopy または EMC Symmetrix Remote Data Facility ソフトウェアでデータを複製する前に、ストレージベースの複製用ソフトウェアのマニュアルによく目を通し、ストレージベースの複製製品と最新のパッチを、使用しているシステムにインストールしておいてください。ストレージベースの複製ソフトウェアのインストールについては、製品のマニュアルを参照してください。
ストレージベースの複製ソフトウェアは、デバイスのペアを複製として構成する際、一方のデバイスを主複製、もう一方のデバイスを二次複製とします。一方のノードのセットに接続されたデバイスが、常に主複製になります。もう一方のノードのセットに接続されたデバイスは、二次複製になります。
Oracle Solaris Cluster 構成では、複製が属する Oracle Solaris Cluster デバイスグループが移動されると、常に、主複製が自動的に移動されます。 そのため、Oracle Solaris Cluster 構成下では、主複製を直接移動してはいけません。 その代わりに、テイクオーバーは関連する Oracle Solaris Cluster デバイスグループを移動することによって行うべきです。
![]() | 注意 - 作成する Oracle Solaris Cluster デバイスグループ (Solaris Volume Manager、Veritas Volume Manager、または raw ディスク) の名前は、複製されたデバイスグループと同じ名前にしてください。 |
ここでは、次の手順について説明します。
次の表に、Hitachi TrueCopy によるストレージベースの複製されたデバイスを設定するために実行する作業を示します。
表 5-2 作業マップ: Hitachi TrueCopy によるストレージベースの複製デバイスの管理
|
始める前に
まず、主クラスタの共有ディスクに Hitachi TrueCopy デバイスグループを構成します。この構成情報は、Hitachi アレイへのアクセス権を持つ各クラスタノードの /etc/horcm.conf ファイルに指定します。 /etc/horcm.conf ファイルを構成する方法についての詳細は、『Sun StorEdge SE 9900 V Series Command and Control Interface User and Reference Guide』を参照してください。
![]() | 注意 - 作成する Oracle Solaris Cluster デバイスグループ (Solaris Volume Manager、Veritas Volume Manager、ZFS、または raw ディスク) の名前は、複製されたデバイスグループと同じ名前にしてください。 |
horcm 9970/udp
新しいエントリのポート番号とプロトコル名を指定します。
手順については、TrueCopy ソフトウェアに付属するマニュアルを参照してください。
# /usr/bin/horcmstart.sh
paircreate コマンドを使用して、希望のフェンスレベルを持つ複製のペアを作成します。複製のペアの作成方法の手順については、TrueCopy のマニュアルを参照してください。
# pairdisplay -g group-name Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M group-name pair1(L) (CL1-C , 0, 9) 54321 58..P-VOL PAIR NEVER ,12345 29 - group-name pair1(R) (CL1-A , 0, 29)12345 29..S-VOL PAIR NEVER ,----- 58 -
# pairdisplay -g group-name Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M group-name pair1(L) (CL1-C , 0, 9) 54321 58..P-VOL PAIR NEVER ,12345 29 - group-name pair1(R) (CL1-A , 0, 29)12345 29..S-VOL PAIR NEVER ,----- 58 -
P-VOL 状態のローカル (L) デバイスを持つノードには主複製が含まれ、S-VOL 状態のローカル (L) デバイスを持つノードには二次複製が含まれます。
# horctakeover -g group-name
次の手順に進む前に、初期データコピーが完了するのを待ちます。
# pairdisplay -g group-name Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M group-name pair1(L) (CL1-C , 0, 9) 54321 58..S-VOL PAIR NEVER ,12345 29 - group-name pair1(R) (CL1-A , 0, 29)12345 29..P-VOL PAIR NEVER ,----- 58 -
# horctakeover -g group-name
# pairdisplay -g group-name Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M group-name pair1(L) (CL1-C , 0, 9) 54321 58..P-VOL PAIR NEVER ,12345 29 - group-name pair1(R) (CL1-A , 0, 29)12345 29..S-VOL PAIR NEVER ,----- 58 -
次の手順
「Hitachi TrueCopy を使用して DID デバイスを複製用に構成する」の手順に従って、複製されたデバイスの構成を続けます。
始める前に
複製されたデバイス用にデバイスグループを構成したあと、複製されたデバイスが使用するデバイス識別子 (DID) ドライバを構成します。
phys-schost# プロンプトは、グローバルクラスタのプロンプトを表します。この手順は、グローバルクラスタ上で実行します。
この手順では、長形式の Oracle Solaris Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。
実行されていない場合は、次のコマンドでデーモンが起動されます。デーモンがすでに実行されている場合は、システムによりメッセージが表示されます。
# /usr/bin/horcmstart.sh
# pairdisplay -g group-name Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M group-name pair1(L) (CL1-C , 0, 9) 54321 58..P-VOL PAIR NEVER ,12345 29 - group-name pair1(R) (CL1-A , 0, 29)12345 29..S-VOL PAIR NEVER ,----- 58 -
S-VOL 状態のローカル (L) デバイスを持つノードには二次複製が含まれています。
このコマンドは、デバイス複製ペアの 2 つの独立した DID インスタンスを、1 つの論理 DID インスタンスに結合します。この 1 つのインスタンスにより、そのデバイスをボリューム管理ソフトウェアで両側から使用できるようになります。
![]() | 注意 - 二次複製に複数のノードが接続されている場合、このコマンドは、それらのノードのうちの 1 つのノード上でのみ実行してください。 |
# cldevice replicate -D primary-replica-nodename -S secondary replica-nodename
主複製が格納されているリモートノードの名前を指定します。
現在のノード以外のソースノードを指定します。
二次複製が格納されているリモートノードの名前を指定します。
注 - デフォルトでは、現在のノードがソースノードです。-S オプションは、別のソースノードを指定するのに使用します。
# cldevice list -v logical_DID_device
# cldevice show logical_DID_device
コマンド出力には、TrueCopy が複製タイプであることが示されるはずです。
![]() | 注意 - DID インスタンスを手動で結合する際には、特に注意してください。デバイスの再マッピングが正しくないと、データが破損する可能性があります。 |
# cldevice combine -d destination-instance source-instance
主複製に対応するリモート DID インスタンス。
二次複製に対応するローカル DID インスタンス。
# cldevice list desination-instance source-instance
DID インスタンスの 1 つは表示されないはずです。
# cldevice list -v
次の手順
複製されたデバイスグループの構成をを完了するには、次の手順を実行します。
「デバイスグループを追加および登録する (Solaris Volume Manager)」または「ディスクグループをデバイスグループとして登録する (Veritas Volume Manager)」
デバイスグループを登録する際には、必ず TrueCopy 複製グループと同じ名前を指定します。
始める前に
グローバルデバイスグループを確認する前に、まずそれを作成します。Solaris Volume Manager、Veritas Volume Manager、ZFS、raw ディスクからデバイスグループを使用することができます。詳細は、次を参照してください。
![]() | 注意 - 作成する Oracle Solaris Cluster デバイスグループ (Solaris Volume Manager、Veritas Volume Manager、または raw ディスク) の名前は、複製されたデバイスグループと同じ名前にしてください。 |
phys-schost# プロンプトは、グローバルクラスタのプロンプトを表します。この手順は、グローバルクラスタ上で実行します。
この手順では、長形式の Oracle Solaris Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。
# pairdisplay -g group-name # cldevicegroup status -n nodename group-name
# cldevicegroup show -n nodename group-name
# usr/cluster/bin/cldevice status [-s state] [-n node[,?]] [+| [disk-device ]]
デバイスグループがオフラインのときは、オンラインにします。
# cldevicegroup switch -n nodename group-name
デバイスグループの切り替え先のノード。このノードが新しい主ノードになります。
# pairdisplay -g group-name # cldevicegroup status -n nodename group-name
この例では、クラスタの TrueCopy 複製を設定するのに必要な Oracle Solaris Cluster 固有の手順を完了します。この例では、すでに次の作業が完了していることが前提となっています。
Hitachi LUN の設定が完了している
ストレージデバイスとクラスタノードに TrueCopy ソフトウェアがインストール済みである
クラスタノード上で複製ペアが構成済みである
複製ペアの構成手順については、「Hitachi TrueCopy 複製グループを構成する」を参照してください。
この例では、TrueCopy を使用する 3 ノードクラスタを扱います。クラスタは 2 つのリモートサイトにまたがっており、一方のサイトに 2 つのノードがあり、もう一方のサイトに 1 つのノードがあります。各サイトにはそれぞれ Hitachi ストレージデバイスがあります。
次の例に、各ノード上の TrueCopy /etc/horcm.conf 構成ファイルを示します。
例 5-1 ノード 1 上の TrueCopy 構成ファイル
HORCM_DEV #dev_group dev_name port# TargetID LU# MU# VG01 pair1 CL1-A 0 29 VG01 pair2 CL1-A 0 30 VG01 pair3 CL1-A 0 31 HORCM_INST #dev_group ip_address service VG01 node-3 horcm
例 5-2 ノード 2 上の TrueCopy 構成ファイル
HORCM_DEV #dev_group dev_name port# TargetID LU# MU# VG01 pair1 CL1-A 0 29 VG01 pair2 CL1-A 0 30 VG01 pair3 CL1-A 0 31 HORCM_INST #dev_group ip_address service VG01 node-3 horcm
例 5-3 ノード 3 上の TrueCopy 構成ファイル
HORCM_DEV #dev_group dev_name port# TargetID LU# MU# VG01 pair1 CL1-C 0 09 VG01 pair2 CL1-C 0 10 VG01 pair3 CL1-C 0 11 HORCM_INST #dev_group ip_address service VG01 node-1 horcm VG01 node-2 horcm
上記の例では、3 つの LUN が 2 つのサイト間で複製されます。LUN はすべて VG01 という名前の複製グループ内にあります。pairdisplay コマンドを使用すると、この情報が確認され、またノード 3 には主複製があることが示されます。
例 5-4 ノード 1 上の pairdisplay コマンドの出力
# pairdisplay -g VG01 Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#.P/S,Status,Fence, Seq#,P-LDEV# M VG01 pair1(L) (CL1-A , 0, 29)61114 29..S-VOL PAIR NEVER ,----- 58 - VG01 pair1(R) (CL1-C , 0, 9)20064 58..P-VOL PAIR NEVER ,61114 29 - VG01 pair2(L) (CL1-A , 0, 30)61114 30..S-VOL PAIR NEVER ,----- 59 - VG01 pair2(R) (CL1-C , 0, 10)20064 59..P-VOL PAIR NEVER ,61114 30 - VG01 pair3(L) (CL1-A , 0, 31)61114 31..S-VOL PAIR NEVER ,----- 60 - VG01 pair3(R) (CL1-C , 0, 11)20064 60..P-VOL PAIR NEVER ,61114 31 -
例 5-5 ノード 2 上の pairdisplay コマンドの出力
# pairdisplay -g VG01 Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#.P/S,Status,Fence, Seq#,P-LDEV# M VG01 pair1(L) (CL1-A , 0, 29)61114 29..S-VOL PAIR NEVER ,----- 58 - VG01 pair1(R) (CL1-C , 0, 9)20064 58..P-VOL PAIR NEVER ,61114 29 - VG01 pair2(L) (CL1-A , 0, 30)61114 30..S-VOL PAIR NEVER ,----- 59 - VG01 pair2(R) (CL1-C , 0, 10)20064 59..P-VOL PAIR NEVER ,61114 30 - VG01 pair3(L) (CL1-A , 0, 31)61114 31..S-VOL PAIR NEVER ,----- 60 - VG01 pair3(R) (CL1-C , 0, 11)20064 60..P-VOL PAIR NEVER ,61114 31 -
例 5-6 ノード 3 上の pairdisplay コマンドの出力
# pairdisplay -g VG01 Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#.P/S,Status,Fence, Seq#,P-LDEV# M VG01 pair1(L) (CL1-C , 0, 9)20064 58..P-VOL PAIR NEVER ,61114 29 - VG01 pair1(R) (CL1-A , 0, 29)61114 29..S-VOL PAIR NEVER ,----- 58 - VG01 pair2(L) (CL1-C , 0, 10)20064 59..P-VOL PAIR NEVER ,61114 30 - VG01 pair2(R) (CL1-A , 0, 30)61114 30..S-VOL PAIR NEVER ,----- 59 - VG01 pair3(L) (CL1-C , 0, 11)20064 60..P-VOL PAIR NEVER ,61114 31 - VG01 pair3(R) (CL1-A , 0, 31)61114 31..S-VOL PAIR NEVER ,----- 60 -
どのディスクが使用されているかを確認するには、次の例に示すように、pairdisplay コマンドの -fd オプションを使用します。
例 5-7 使用されているディスクを示す、ノード 1 上の pairdisplay コマンドの出力
# pairdisplay -fd -g VG01 Group PairVol(L/R) Device_File ,Seq#,LDEV#.P/S,Status,Fence,Seq#,P-LDEV# M VG01 pair1(L) c6t500060E8000000000000EEBA0000001Dd0s2 61114 29..S-VOL PAIR NEVER ,----- 58 - VG01 pair1(R) c5t50060E800000000000004E600000003Ad0s2 20064 58..P-VOL PAIR NEVER ,61114 29 - VG01 pair2(L) c6t500060E8000000000000EEBA0000001Ed0s2 61114 30..S-VOL PAIR NEVER ,----- 59 - VG01 pair2(R) c5t50060E800000000000004E600000003Bd0s2 0064 59..P-VOL PAIR NEVER ,61114 30 - VG01 pair3(L) c6t500060E8000000000000EEBA0000001Fd0s2 61114 31..S-VOL PAIR NEVER ,----- 60 - VG01 pair3(R) c5t50060E800000000000004E600000003Cd0s2 20064 60..P-VOL PAIR NEVER ,61114 31 -
例 5-8 使用されているディスクを示す、ノード 2 上の pairdisplay コマンドの出力
# pairdisplay -fd -g VG01 Group PairVol(L/R) Device_File ,Seq#,LDEV#.P/S,Status,Fence,Seq#,P-LDEV# M VG01 pair1(L) c5t500060E8000000000000EEBA0000001Dd0s2 61114 29..S-VOL PAIR NEVER ,----- 58 - VG01 pair1(R) c5t50060E800000000000004E600000003Ad0s2 20064 58..P-VOL PAIR NEVER ,61114 29 - VG01 pair2(L) c5t500060E8000000000000EEBA0000001Ed0s2 61114 30..S-VOL PAIR NEVER ,----- 59 - VG01 pair2(R) c5t50060E800000000000004E600000003Bd0s2 20064 59..P-VOL PAIR NEVER ,61114 30 - VG01 pair3(L) c5t500060E8000000000000EEBA0000001Fd0s2 61114 31..S-VOL PAIR NEVER ,----- 60 - VG01 pair3(R) c5t50060E800000000000004E600000003Cd0s2 20064 60..P-VOL PAIR NEVER ,61114 31 -
例 5-9 使用されているディスクを示す、ノード 3 上の pairdisplay コマンドの出力
# pairdisplay -fd -g VG01 Group PairVol(L/R) Device_File ,Seq#,LDEV#.P/S,Status,Fence ,Seq#,P-LDEV# M VG01 pair1(L) c5t50060E800000000000004E600000003Ad0s2 20064 58..P-VOL PAIR NEVER ,61114 29 - VG01 pair1(R) c6t500060E8000000000000EEBA0000001Dd0s2 61114 29..S-VOL PAIR NEVER ,----- 58 - VG01 pair2(L) c5t50060E800000000000004E600000003Bd0s2 20064 59..P-VOL PAIR NEVER ,61114 30 - VG01 pair2(R) c6t500060E8000000000000EEBA0000001Ed0s2 61114 30..S-VOL PAIR NEVER ,----- 59 - VG01 pair3(L) c5t50060E800000000000004E600000003Cd0s2 20064 60..P-VOL PAIR NEVER ,61114 31 - VG01 pair3(R) c6t500060E8000000000000EEBA0000001Fd0s2 61114 31..S-VOL PAIR NEVER ,----- 60 -
これらの例は、次のディスクが使用されていることを示しています。
ノード 1 で、次のコマンドを実行します。
c6t500060E8000000000000EEBA0000001Dd0s2
c6t500060E8000000000000EEBA0000001Ed0s2
c6t500060E8000000000000EEBA0000001Fd0s
ノード 2 :
c5t500060E8000000000000EEBA0000001Dd0s2
c5t500060E8000000000000EEBA0000001Ed0s2
c5t500060E8000000000000EEBA0000001Fd0s2
ノード 3 :
c5t50060E800000000000004E600000003Ad0s2
c5t50060E800000000000004E600000003Bd0s2
c5t50060E800000000000004E600000003Cd0s2
これらのディスクに対応する DID デバイスを確認するには、次の例に示すように、cldevice list コマンドを使用します。
例 5-10 使用されているディスクに対応する DID の表示
# cldevice list -v DID Device Full Device Path ---------- ---------------- 1 node-1:/dev/rdsk/c0t0d0 /dev/did/rdsk/d1 2 node-1:/dev/rdsk/c0t6d0 /dev/did/rdsk/d2 11 node-1:/dev/rdsk/c6t500060E8000000000000EEBA00000020d0 /dev/did/rdsk/d11 11 node-2:/dev/rdsk/c5t500060E8000000000000EEBA00000020d0 /dev/did/rdsk/d11 12 node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Fd0 /dev/did/rdsk/d12 12 node-2:/dev/rdsk/c5t500060E8000000000000EEBA0000001Fd0 /dev/did/rdsk/d12 13 node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Ed0 /dev/did/rdsk/d13 13 node-2:/dev/rdsk/c5t500060E8000000000000EEBA0000001Ed0 /dev/did/rdsk/d13 14 node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Dd0 /dev/did/rdsk/d14 14 node-2:/dev/rdsk/c5t500060E8000000000000EEBA0000001Dd0 /dev/did/rdsk/d14 18 node-3:/dev/rdsk/c0t0d0 /dev/did/rdsk/d18 19 node-3:/dev/rdsk/c0t6d0 /dev/did/rdsk/d19 20 node-3:/dev/rdsk/c5t50060E800000000000004E6000000013d0 /dev/did/rdsk/d20 21 node-3:/dev/rdsk/c5t50060E800000000000004E600000003Dd0 /dev/did/rdsk/d21 22 node-3:/dev/rdsk/c5t50060E800000000000004E600000003Cd0 /dev/did/rdsk/d2223 23 node-3:/dev/rdsk/c5t50060E800000000000004E600000003Bd0 /dev/did/rdsk/d23 24 node-3:/dev/rdsk/c5t50060E800000000000004E600000003Ad0 /dev/did/rdsk/d24
複製されたデバイスの各ペアの DID インスタンスを結合する場合、 cldevice list は DID インスタンス 12 を 22、インスタンス 13 を 23、インスタンス 14 を 24 と結合するはずです。ノード 3 には主複製があるため、ノード 1 またはノード 2 のいずれかから cldevice -T コマンドを実行します。インスタンスの結合は常に、二次複製があるノードから行います。このコマンドは 1 つのノードからのみ実行し、両方のノード上では実行しないでください。
次の例に、ノード 1 上でこのコマンドを実行することにより DID インスタンスを結合した場合の出力を示します。
例 5-11 DID インスタンスの結合
# cldevice replicate -D node-3 Remapping instances for devices replicated with node-3... VG01 pair1 L node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Dd0 VG01 pair1 R node-3:/dev/rdsk/c5t50060E800000000000004E600000003Ad0 Combining instance 14 with 24 VG01 pair2 L node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Ed0 VG01 pair2 R node-3:/dev/rdsk/c5t50060E800000000000004E600000003Bd0 Combining instance 13 with 23 VG01 pair3 L node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Fd0 VG01 pair3 R node-3:/dev/rdsk/c5t50060E800000000000004E600000003Cd0 Combining instance 12 with 22
cldevice list の出力を確認すると、両方のサイトの LUN には同じ DID インスタンスがあります。次の例に示すように、同じ DID インスタンスを持っていると、各複製ペアは単一の DID デバイスのように見えます。
例 5-12 結合された DID の表示
# cldevice list -v DID Device Full Device Path ---------- ---------------- 1 node-1:/dev/rdsk/c0t0d0 /dev/did/rdsk/d1 2 node-1:/dev/rdsk/c0t6d0 /dev/did/rdsk/d2 11 node-1:/dev/rdsk/c6t500060E8000000000000EEBA00000020d0 /dev/did/rdsk/d11 11 node-2:/dev/rdsk/c5t500060E8000000000000EEBA00000020d0 /dev/did/rdsk/d11 18 node-3:/dev/rdsk/c0t0d0 /dev/did/rdsk/d18 19 node-3:/dev/rdsk/c0t6d0 /dev/did/rdsk/d19 20 node-3:/dev/rdsk/c5t50060E800000000000004E6000000013d0 /dev/did/rdsk/d20 21 node-3:/dev/rdsk/c5t50060E800000000000004E600000003Dd0 /dev/did/rdsk/d21 22 node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Fd0 /dev/did/rdsk/d1222 22 node-2:/dev/rdsk/c5t500060E8000000000000EEBA0000001Fd0 /dev/did/rdsk/d12 22 node-3:/dev/rdsk/c5t50060E800000000000004E600000003Cd0 /dev/did/rdsk/d22 23 node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Ed0 /dev/did/rdsk/d13 23 node-2:/dev/rdsk/c5t500060E8000000000000EEBA0000001Ed0 /dev/did/rdsk/d13 23 node-3:/dev/rdsk/c5t50060E800000000000004E600000003Bd0 /dev/did/rdsk/d23 24 node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Dd0 /dev/did/rdsk/d24 24 node-2:/dev/rdsk/c5t500060E8000000000000EEBA0000001Dd0 /dev/did/rdsk/d24 24 node-3:/dev/rdsk/c5t50060E800000000000004E600000003Ad0 /dev/did/rdsk/d24
次に、ボリュームマネージャーデバイスグループを作成します。このコマンドは、主複製があるノード (この例ではノード 3) から実行します。次の例に示すように、デバイスグループには複製グループと同じ名前を指定します。
例 5-13 Solaris ボリュームマネージャーデバイスグループの作成
# metaset -s VG01 -ah phys-deneb-3 # metaset -s VG01 -ah phys-deneb-1 # metaset -s VG01 -ah phys-deneb-2 # metaset -s VG01 -a /dev/did/rdsk/d22 # metaset -s VG01 -a /dev/did/rdsk/d23 # metaset -s VG01 -a /dev/did/rdsk/d24 # metaset Set name = VG01, Set number = 1 Host Owner phys-deneb-3 Yes phys-deneb-1 phys-deneb-2 Drive Dbase d22 Yes d23 Yes d24 Yes
この時点で、デバイスグループは使用でき、メタデバイスの作成が可能であり、またデバイスグループは 3 つのノードのうち任意のノードに移動できます。ただし、スイッチオーバーとフェイルオーバーをより効率的にするため、cldevicegroup set を実行して、デバイスグループをクラスタ構成内で複製済みにマークします。
例 5-14 スイッチオーバーとフェイルオーバーの効率化
# cldevicegroup sync VG01 # cldevicegroup show VG01 === Device Groups=== Device Group Name VG01 Type: SVM failback: no Node List: phys-deneb-3, phys-deneb-1, phys-deneb-2 preferenced: yes numsecondaries: 1 device names: VG01 Replication type: truecopy
複製グループの構成はこの手順で完了します。構成が正しく行われたことを確認するには、「Hitachi TrueCopy で複製されたグローバルデバイスグループ構成を確認する」の手順を実行します。
次の表に、EMC Symmetrix Remote Data Facility (SRDF) ストレージベースの複製されたデバイスを設定および管理するために実行する作業を示します。
表 5-3 作業マップ: EMC SRDF ストレージベースの複製されたデバイスの管理
|
始める前に
EMC Symmetrix Remote Data Facility (SRDF) 複製グループを構成する前に、すべてのクラスタノードに EMC Solutions Enabler ソフトウェアをインストールしてください。まず、主クラスタの共有ディスクに EMC SRDF デバイスグループを構成します。EMC SRDF デバイスグループを構成する方法についての詳細は、EMC SRDF 製品のマニュアルを参照してください。
EMC SRDF を使用するときは、静的デバイスではなく、動的デバイスを使用します。静的デバイスでは主複製を変更するのに数分かかり、フェイルオーバー時間に影響を与えることがあります。
![]() | 注意 - 作成する Oracle Solaris Cluster デバイスグループ (Solaris Volume Manager、Veritas Volume Manager、または raw ディスク) の名前は、複製されたデバイスグループと同じ名前にしてください。 |
この処理には数分かかることがあります。
# /usr/symcli/bin/symcfg discover
複製のペアを作成するには、symrdf コマンドを使用します。複製のペアの作成方法の手順については、SRDF のマニュアルを参照してください。
# /usr/symcli/bin/symdg show group-name
# /usr/symcli/bin/symrdf -g group-name verify -synchronized
# /usr/symcli/bin/symdg show group-name
RDF1 デバイスのノードには主複製が含まれ、RDF2 デバイス状態のノードには二次複製が含まれます。
# /usr/symcli/bin/symrdf -g group-name failover
# /usr/symcli/bin/symrdf -g group-name swap -refresh R1
# /usr/symcli/bin/symrdf -g group-name establish
# /usr/symcli/bin/symrdf -g group-name verify -synchronized
次の手順
EMC SRDF で複製されたデバイス用にデバイスグループを構成したあと、複製されたデバイスが使用するデバイス識別子 (DID) ドライバを構成します。
この手順では、複製されたデバイスが使用するデバイス識別名 (DID) ドライバを構成します。
始める前に
phys-schost# プロンプトは、グローバルクラスタのプロンプトを表します。この手順は、グローバルクラスタ上で実行します。
この手順では、長形式の Oracle Solaris Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。
# /usr/symcli/bin/symdg show group-name
注 - システムに Oracle Solaris デバイスのパッチ全体が表示されない場合は、環境変数 SYMCLI_FULL_PDEVNAME を 1 に設定して、symdg -show コマンドをもう一度入力します。
# cldevice list -v
# cldevice combine -t srdf -g replication-device-group \ -d destination-instance source-instance
注 - SRDF データ複製デバイスでは、-T オプションはサポートされていません。
複製タイプを指定します。EMC SRDF の場合、SRDF を入力します。
symdg show コマンドで表示されるデバイスグループの名前を指定します。
RDF1 デバイスに対応する DID インスタンスを指定します。
RDF2 デバイスに対応する DID インスタンスを指定します。
注 - 誤った DID デバイスを結合した場合は、scdidadm コマンドで -b オプションを使用して、2 つの DID デバイスの結合を取り消します。
# scdidadm -b device
インスタンスを結合したときに destination_device に対応していた DID インスタンス。
|
# cldevice list -v device
# cldevice show device
# cldevice list -v
次の手順
複製されたデバイスが使用するデバイス識別名 (DID) を構成したら、EMC SRDF で複製されたグローバルデバイスグループ構成を必ず確認してください。
始める前に
グローバルデバイスグループを確認する前に、まずそれを作成します。Solaris Volume Manager、Veritas Volume Manager、ZFS、または raw ディスクからデバイスグループを使用することができます。詳細は、次を参照してください。
![]() | 注意 - 作成する Oracle Solaris Cluster デバイスグループ (Solaris Volume Manager、Veritas Volume Manager、または raw ディスク) の名前は、複製されたデバイスグループと同じ名前にしてください。 |
phys-schost# プロンプトは、グローバルクラスタのプロンプトを表します。この手順は、グローバルクラスタ上で実行します。
この手順では、長形式の Oracle Solaris Cluster コマンドを使用して説明します。多くのコマンドには短縮形もあります。コマンド名の形式の長短を除き、コマンドは同一です。
# symdg -show group-name # cldevicegroup status -n nodename group-name
デバイスグループがオフラインのときは、オンラインにします。
# cldevicegroup switch -n nodename group-name
デバイスグループの切り替え先のノード。このノードが新しい主ノードになります。
# symdg -show group-name # cldevicegroup status -n nodename group-name
この例では、クラスタの SRDF 複製を設定するのに必要な Oracle Solaris Cluster 固有の手順を完了します。この例では、すでに次の作業が完了していることが前提となっています。
アレイ間の複製の LUN のペア作成が完了している。
ストレージデバイスとクラスタノードに SRDF ソフトウェアがインストール済みである。
この例には 4 ノードクラスタが含まれ、そのうちの 2 ノードは 1 つのシンメトリックスに接続され、ほかの 2 ノードはもう 1 つのシンメトリックスに接続されています。SRDF デバイスグループは、dg1 と呼ばれます。
例 5-15 複製ペアの作成
すべてのノードで次のコマンドを実行します。
# symcfg discover ! This operation might take up to a few minutes. # symdev list pd Symmetrix ID: 000187990182 Device Name Directors Device --------------------------- ------------ -------------------------------------- Cap Sym Physical SA :P DA :IT Config Attribute Sts (MB) --------------------------- ------------- ------------------------------------- 0067 c5t600604800001879901* 16D:0 02A:C1 RDF2+Mir N/Grp'd RW 4315 0068 c5t600604800001879901* 16D:0 16B:C0 RDF1+Mir N/Grp'd RW 4315 0069 c5t600604800001879901* 16D:0 01A:C0 RDF1+Mir N/Grp'd RW 4315 ...
RDF1 側のすべてのノードで、次のように入力します。
# symdg -type RDF1 create dg1 # symld -g dg1 add dev 0067
RDF2 側のすべてのノードで、次のように入力します。
# symdg -type RDF2 create dg1 # symld -g dg1 add dev 0067
例 5-16 データ複製設定の確認
クラスタ内の 1 つのノードから、次のように入力します。
# symdg show dg1 Group Name: dg1 Group Type : RDF1 (RDFA) Device Group in GNS : No Valid : Yes Symmetrix ID : 000187900023 Group Creation Time : Thu Sep 13 13:21:15 2007 Vendor ID : EMC Corp Application ID : SYMCLI Number of STD Devices in Group : 1 Number of Associated GK's : 0 Number of Locally-associated BCV's : 0 Number of Locally-associated VDEV's : 0 Number of Remotely-associated BCV's (STD RDF): 0 Number of Remotely-associated BCV's (BCV RDF): 0 Number of Remotely-assoc'd RBCV's (RBCV RDF) : 0 Standard (STD) Devices (1): { -------------------------------------------------------------------- Sym Cap LdevName PdevName Dev Att. Sts (MB) -------------------------------------------------------------------- DEV001 /dev/rdsk/c5t6006048000018790002353594D303637d0s2 0067 RW 4315 } Device Group RDF Information ... # symrdf -g dg1 establish Execute an RDF 'Incremental Establish' operation for device group 'dg1' (y/[n]) ? y An RDF 'Incremental Establish' operation execution is in progress for device group 'dg1'. Please wait... Write Disable device(s) on RA at target (R2)..............Done. Suspend RDF link(s).......................................Done. Mark target (R2) devices to refresh from source (R1)......Started. Device: 0067 ............................................ Marked. Mark target (R2) devices to refresh from source (R1)......Done. Merge device track tables between source and target.......Started. Device: 0067 ............................................ Merged. Merge device track tables between source and target.......Done. Resume RDF link(s)........................................Started. Resume RDF link(s)........................................Done. The RDF 'Incremental Establish' operation successfully initiated for device group 'dg1'. # # symrdf -g dg1 query Device Group (DG) Name : dg1 DG's Type : RDF2 DG's Symmetrix ID : 000187990182 Target (R2) View Source (R1) View MODES -------------------------------- ------------------------ ----- ------------ ST LI ST Standard A N A Logical T R1 Inv R2 Inv K T R1 Inv R2 Inv RDF Pair Device Dev E Tracks Tracks S Dev E Tracks Tracks MDA STATE -------------------------------- -- ------------------------ ----- ------------ DEV001 0067 WD 0 0 RW 0067 RW 0 0 S.. Synchronized Total -------- -------- -------- -------- MB(s) 0.0 0.0 0.0 0.0 Legend for MODES: M(ode of Operation): A = Async, S = Sync, E = Semi-sync, C = Adaptive Copy D(omino) : X = Enabled, . = Disabled A(daptive Copy) : D = Disk Mode, W = WP Mode, . = ACp off #
例 5-17 使用されているディスクに対応する DID の表示
RDF1 側と RDF2 側で同じ手順を実行します。
dymdg show dg コマンドの出力の PdevName フィールドの下 に DID を表示できます。
RDF1 側で次のように入力します。
# symdg show dg1 Group Name: dg1 Group Type : RDF1 (RDFA) ... Standard (STD) Devices (1): { -------------------------------------------------------------------- Sym Cap LdevName PdevName Dev Att. Sts (MB) -------------------------------------------------------------------- DEV001 /dev/rdsk/c5t6006048000018790002353594D303637d0s2 0067 RW 4315 } Device Group RDF Information ...
対応する DID を取得するには、次のように入力します。
# scdidadm -L | grep c5t6006048000018790002353594D303637d0 217 pmoney1:/dev/rdsk/c5t6006048000018790002353594D303637d0 /dev/did/rdsk/d217 217 pmoney2:/dev/rdsk/c5t6006048000018790002353594D303637d0 /dev/did/rdsk/d217 #
対応する DID の一覧を表示するには、次のように入力します。
# cldevice show d217 === DID Device Instances === DID Device Name: /dev/did/rdsk/d217 Full Device Path: pmoney2:/dev/rdsk/c5t6006048000018790002353594D303637d0 Full Device Path: pmoney1:/dev/rdsk/c5t6006048000018790002353594D303637d0 Replication: none default_fencing: global #
RDF2 側で次のように入力します。
dymdg show dg コマンドの出力の PdevName フィールドの下 に DID を表示できます。
# symdg show dg1 Group Name: dg1 Group Type : RDF2 (RDFA) ... Standard (STD) Devices (1): { -------------------------------------------------------------------- Sym Cap LdevName PdevName Dev Att. Sts (MB) -------------------------------------------------------------------- DEV001 /dev/rdsk/c5t6006048000018799018253594D303637d0s2 0067 WD 4315 } Device Group RDF Information ...
対応する DID を取得するには、次のように入力します。
# scdidadm -L | grep c5t6006048000018799018253594D303637d0 108 pmoney4:/dev/rdsk/c5t6006048000018799018253594D303637d0 /dev/did/rdsk/d108 108 pmoney3:/dev/rdsk/c5t6006048000018799018253594D303637d0 /dev/did/rdsk/d108 #
対応する DID の一覧を表示するには、次のように入力します。
# cldevice show d108 === DID Device Instances === DID Device Name: /dev/did/rdsk/d108 Full Device Path: pmoney3:/dev/rdsk/c5t6006048000018799018253594D303637d0 Full Device Path: pmoney4:/dev/rdsk/c5t6006048000018799018253594D303637d0 Replication: none default_fencing: global #
例 5-18 DID インスタンスの結合
RDF2 側から次のように入力します。
# cldevice combine -t srdf -g dg1 -d d217 d108 #
例 5-19 結合された DID の表示
クラスタ内の任意のノードから、次のように入力します。
# cldevice show d217 d108 cldevice: (C727402) Could not locate instance "108". === DID Device Instances === DID Device Name: /dev/did/rdsk/d217 Full Device Path: pmoney1:/dev/rdsk/c5t6006048000018790002353594D303637d0 Full Device Path: pmoney2:/dev/rdsk/c5t6006048000018790002353594D303637d0 Full Device Path: pmoney4:/dev/rdsk/c5t6006048000018799018253594D303637d0 Full Device Path: pmoney3:/dev/rdsk/c5t6006048000018799018253594D303637d0 Replication: srdf default_fencing: global #
この手順は、キャンパスクラスタの主ルームが完全に失敗し、主ルームが二次ルームにフェイルオーバーして、主ルームがオンラインに戻ったとき、データ復元を実行します。キャンパスクラスタの主ルームは、主ノードとストレージサイトです。ルームの完全な失敗には、そのルームのホストとストレージ両方の不具合が含まれます。主ルームが失敗した場合、Oracle Solaris Cluster は自動的に二次ルームにフェイルオーバーし、二次ルームのストレージデバイスを読み書き可能にし、対応するデバイスグループとリソースグループのフェイルオーバーを有効にします。
主ルームがオンラインに戻ったら、二次ルームに書き込まれた SRDF デバイスグループからデータを手動で復元し、データを同期することができます。この手順では、元の二次ルーム (この手順では、二次ルームに phys-campus-2 を使用) からのデータを元の主ルーム (phys-campus-1) に同期して、SRDF デバイスグループを復元します。また、この手順では、SRDF デバイスグループタイプを、phys-campus-2 では RDF1 に、phys-campus-1 では RDF2 に変更します。
始める前に
手動でフェイルオーバーを実行する前に、EMC 複製グループおよび DID デバイスを構成し、EMC 複製グループを登録する必要があります。Solaris ボリュームマネージャー デバイスグループの作成についての詳細は、「デバイスグループを追加および登録する (Solaris Volume Manager)」を参照してください。Veritas Volume Manager デバイスグループの作成については、「ディスクをカプセル化する際に新しいディスクグループを作成する (Veritas Volume Manager)」を参照してください。
注 - これらの説明は、主ルームが完全にフェイルオーバーしてからオンラインに戻ったあとに、SRDF データを手動で復元するための 1 つの方法を示しています。他の方法については、EMC マニュアルを確認してください。
これらのステップを実行するには、キャンパスクラスタの主ルームにログインしてください。下記の手順では、dg1 は SRDF デバイスグループ名です。失敗した時点では、この手順の主ルームは phys-campus-1 で、二次ルームは phys-campus-2 です。
phys-campus-1# symrdf -g dg1 query
ヒント - split 状態にあるデバイスグループは同期されません。
phys-campus-1# symrdf -g dg1 -force failover
phys-campus-1# symrdf -g dg1 query
phys-campus-1# symrdf -g dg1 swap
phys-campus-1# symrdf -g dg1 query
phys-campus-1# symrdf -g dg1 establish
phys-campus-1# symrdf -g dg1 query
例 5-20 主サイトフェイルオーバー後に EMC SRDF データを手動で復元する
この例では、キャンパスクラスタの主ルームがフェイルオーバーし、二次ルームが代わりにデータを記録するようになり、主ルームがオンラインに戻ったあとで、EMC SRDF データを手動で復元するために必要な Oracle Solaris Cluster 固有の手順が示されています。 例では、SRDF デバイスグループは dg1 と呼ばれ、標準論理デバイスは DEV001 です。失敗した時点では、主ルームは phys-campus-1 で、二次ルームは phys-campus-2 です。キャンパスクラスタの主ルーム phys-campus-1 からステップを実行します。
phys-campus-1# symrdf -g dg1 query | grep DEV DEV001 0012RW 0 0NR 0012RW 2031 O S.. Split phys-campus-1# symdg list | grep RDF dg1 RDF1 Yes 00187990182 1 0 0 0 0 phys-campus-1# symrdf -g dg1 -force failover ... phys-campus-1# symrdf -g dg1 query | grep DEV DEV001 0012 WD 0 0 NR 0012 RW 2031 O S.. Failed Over phys-campus-1# symdg list | grep RDF dg1 RDF1 Yes 00187990182 1 0 0 0 0 phys-campus-1# symrdf -g dg1 swap ... phys-campus-1# symrdf -g dg1 query | grep DEV DEV001 0012 WD 0 0 NR 0012 RW 0 2031 S.. Suspended phys-campus-1# symdg list | grep RDF dg1 RDF2 Yes 000187990182 1 0 0 0 0 phys-campus-1# symrdf -g dg1 establish ... phys-campus-1# symrdf -g dg1 query | grep DEV DEV001 0012 WD 0 0 RW 0012 RW 0 0 S.. Synchronized phys-campus-1# symdg list | grep RDF dg1 RDF2 Yes 000187990182 1 0 0 0 0