탐색 링크 건너뛰기 | |
인쇄 보기 종료 | |
![]() |
Oracle Solaris Cluster 시스템 관리 설명서 Oracle Solaris Cluster 3.3 3/13 (한국어) |
1. Oracle Solaris Cluster 관리 방법 소개
2. Oracle Solaris Cluster 및 RBAC
5. 전역 장치, 디스크 경로 모니터링 및 클러스터 파일 시스템 관리
Solaris Volume Manager에 대한 전역 장치 사용 권한
Hitachi TrueCopy 복제 그룹을 구성하는 방법
Hitachi TrueCopy를 사용하여 복제를 위해 DID 장치를 구성하는 방법
Hitachi TrueCopy 복제된 전역 장치 그룹 구성을 확인하는 방법
예: Oracle Solaris Cluster에 대한 TrueCopy 복제 그룹 구성
EMC Symmetrix Remote Data Facility 복제된 장치 관리
EMC SRDF를 사용하여 복제를 위해 DID 장치를 구성하는 방법
전역 장치 이름 공간에 사용되는 lofi 장치의 크기 변경 방법
전용 파티션에서 lofi 장치로 전역 장치 이름 공간 마이그레이션 방법
lofi 장치에서 전용 파티션으로 전역 장치 이름 공간 마이그레이션 방법
장치 그룹 추가 및 등록 방법(Solaris Volume Manager)
장치 그룹 제거 및 등록 해제 방법(Solaris Volume Manager)
장치 그룹에서 노드를 제거하는 방법(Solaris Volume Manager)
모든 저장 장치에 대한 기본 전역 SCSI 프로토콜 설정을 표시하는 방법
모든 저장 장치에 대한 기본 전역 보호(fencing) 프로토콜 설정을 변경하는 방법
단일 저장 장치에 대한 보호(fencing) 프로토콜을 변경하는 방법
모니터링된 모든 공유 디스크 경로가 실패할 경우 노드의 자동 재부트를 활성화하는 방법
모니터링된 모든 공유 디스크 경로가 실패할 경우 노드의 자동 재부트를 비활성화하는 방법
11. Oracle Solaris Cluster 소프트웨어 및 펌웨어 패치 작업
저장소 기반 복제를 사용하여 복제되는 장치를 포함하도록 Oracle Solaris Cluster 장치 그룹을 구성할 수 있습니다. Oracle Solaris Cluster 소프트웨어는 저장소 기반 복제를 위해 Hitachi TrueCopy 및 EMC Symmetrix Remote Data Facility 소프트웨어를 지원합니다.
Hitachi TrueCopy 또는 EMC Symmetrix Remote Data Facility 소프트웨어를 사용하여 데이터를 복제하기 전에 저장소 기반 복제 설명서를 숙지하고 저장소 기반 복제 제품 및 최신 패치를 시스템에 설치해야 합니다. 저장소 기반 복제 소프트웨어 설치에 대한 자세한 내용은 제품 설명서를 참조하십시오.
저장소 기반 복제 소프트웨어는 장치 한 쌍을 복제본으로 구성하며 이때 장치 한 개는 기본 복제본, 다른 장치는 보조 복제본입니다. 모든 지정된 시간에 하나의 노드 세트에 연결된 장치가 기본 복제본이 됩니다. 다른 노드 세트에 연결된 장치는 보조 복제본이 됩니다.
Oracle Solaris Cluster 구성에서 복제본이 속한 Oracle Solaris Cluster 장치 그룹이 이동할 때마다 기본 복제본이 자동으로 이동합니다. 따라서 Oracle Solaris Cluster 구성에서 직접 기본 복제본을 이동하면 안됩니다. 대신 연결된 Oracle Solaris Cluster 장치 그룹을 이동하여 인계해야 합니다.
![]() | 주의 - 사용자가 만든 Oracle Solaris Cluster 장치 그룹(Solaris Volume Manager 또는 원시 디스크)의 이름은 복제된 장치 그룹의 이름과 같아야 합니다. |
이 절에서는 다음 절차에 대해 설명합니다.
다음 표에는 Hitachi TrueCopy 저장소 기반의 복제된 장치를 설정하기 위해 수행할 작업이 나열되어 있습니다.
표 5-2 작업 맵: Hitachi TrueCopy 저장소 기반 복제 장치 관리
|
시작하기 전에
먼저 기본 클러스터의 공유 디스크에 Hitachi TrueCopy 장치 그룹을 구성합니다. 이 구성 정보는 Hitachi 어레이에 대한 액세스 권한을 가지는 각 클러스터 노드의 /etc/horcm.conf 파일에 지정됩니다. /etc/horcm.conf 파일을 구성하는 방법에 대한 자세한 내용은 Sun StorEdge SE 9900 V Series Command and Control Interface User and Reference Guide를 참조하십시오.
![]() | 주의 - 사용자가 만든 Oracle Solaris Cluster 장치 그룹(Solaris Volume Manager, ZFS 또는 원시 디스크)의 이름은 복제된 장치 그룹의 이름과 같아야 합니다. |
horcm 9970/udp
새 항목에 대한 포트 번호 및 프로토콜 이름을 지정합니다.
지침은 TrueCopy 소프트웨어와 함께 제공된 설명서를 참조하십시오.
# /usr/bin/horcmstart.sh
paircreate 명령을 사용하여 원하는 보호 레벨로 복제본 쌍을 만듭니다. 복제본 쌍 만들기에 대한 지침은 TrueCopy 설명서를 참조하십시오.
# pairdisplay -g group-name Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M group-name pair1(L) (CL1-C , 0, 9) 54321 58..P-VOL PAIR NEVER ,12345 29 - group-name pair1(R) (CL1-A , 0, 29)12345 29..S-VOL PAIR NEVER ,----- 58 -
# pairdisplay -g group-name Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M group-name pair1(L) (CL1-C , 0, 9) 54321 58..P-VOL PAIR NEVER ,12345 29 - group-name pair1(R) (CL1-A , 0, 29)12345 29..S-VOL PAIR NEVER ,----- 58 -
P-VOL 상태의 로컬(L) 장치가 있는 노드는 기본 복제본을 포함하고 S-VOL 상태의 로컬(L) 장치가 있는 노드는 보조 복제본을 포함합니다.
# horctakeover -g group-name
다음 단계로 진행하기 전에 초기 데이터 복사가 완료될 때까지 기다립니다.
# pairdisplay -g group-name Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M group-name pair1(L) (CL1-C , 0, 9) 54321 58..S-VOL PAIR NEVER ,12345 29 - group-name pair1(R) (CL1-A , 0, 29)12345 29..P-VOL PAIR NEVER ,----- 58 -
# horctakeover -g group-name
# pairdisplay -g group-name Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M group-name pair1(L) (CL1-C , 0, 9) 54321 58..P-VOL PAIR NEVER ,12345 29 - group-name pair1(R) (CL1-A , 0, 29)12345 29..S-VOL PAIR NEVER ,----- 58 -
다음 순서
Hitachi TrueCopy를 사용하여 복제를 위해 DID 장치를 구성하는 방법의 지침을 따라 복제된 장치의 구성을 계속합니다.
시작하기 전에
복제된 장치에 대해 장치 그룹을 구성한 후에 복제된 장치에 사용되는 DID(장치 식별자) 드라이버를 구성해야 합니다.
phys-schost# 프롬프트는 전역 클러스터 프롬프트를 반영합니다. 전역 클러스터에서 이 절차를 수행합니다.
이 절차에서는 장문형 Oracle Solaris Cluster 명령을 제공합니다. 대부분의 명령에는 단문형도 있습니다. 명령은 명령 이름이 장문형과 단문형인 것을 제외하면 동일합니다.
실행되고 있지 않은 경우 다음 명령이 데몬을 시작합니다. 데몬이 이미 실행 중인 경우 시스템에서 메시지를 표시합니다.
# /usr/bin/horcmstart.sh
# pairdisplay -g group-name Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M group-name pair1(L) (CL1-C , 0, 9) 54321 58..P-VOL PAIR NEVER ,12345 29 - group-name pair1(R) (CL1-A , 0, 29)12345 29..S-VOL PAIR NEVER ,----- 58 -
S-VOL 상태의 로컬(L) 장치가 있는 노드가 보조 복제본을 포함합니다.
이 명령은 장치 복제본 쌍을 위한 두 개의 별도 DID 인스턴스를 하나의 논리적 DID 인스턴스로 결합합니다. 단일 인스턴스를 통해 양측 모두의 볼륨 관리 소프트웨어에서 장치를 사용할 수 있습니다.
![]() | 주의 - 여러 노드가 보조 복제본에 연결된 경우 이러한 노드 중 하나에서만 이 명령을 실행하십시오. |
# cldevice replicate -D primary-replica-nodename -S secondary replica-nodename
기본 복제본을 포함하는 원격 노드의 이름을 지정합니다.
현재 노드 이외의 소스 노드를 지정합니다.
보조 복제본을 포함하는 원격 노드의 이름을 지정합니다.
주 - 기본적으로 현재 노드가 소스 노드입니다. -S 옵션을 사용하여 다른 소스 노드를 지정하십시오.
# cldevice list -v logical_DID_device
# cldevice show logical_DID_device
명령 출력에서 TrueCopy가 복제 유형임을 나타내야 합니다.
![]() | 주의 - DID 인스턴스를 수동으로 결합할 때는 특히 주의하십시오. 장치 재매핑이 잘못되면 데이터가 손상될 수 있습니다. |
# cldevice combine -d destination-instance source-instance
기본 복제본에 해당하는 원격 DID 인스턴스입니다.
보조 복제본에 해당하는 로컬 DID 인스턴스입니다.
# cldevice list desination-instance source-instance
DID 인스턴스 중 하나가 나열되지 않아야 합니다.
# cldevice list -v
다음 순서
복제된 장치 그룹의 구성을 완료하려면 다음 절차의 단계를 수행하십시오.
장치 그룹 추가 및 등록 방법(Solaris Volume Manager)
장치 그룹을 등록할 때 TrueCopy 복제 그룹과 동일한 이름을 지정하십시오.
시작하기 전에
전역 장치 그룹을 확인하기 전에 먼저 해당 그룹을 만듭니다. Solaris Volume Manager, ZFS 또는 원시 디스크에서 장치 그룹을 사용할 수 있습니다. 자세한 내용은 다음을 참조하십시오.
![]() | 주의 - 사용자가 만든 Oracle Solaris Cluster 장치 그룹(Solaris Volume Manager 또는 원시 디스크)의 이름은 복제된 장치 그룹 이름과 같아야 합니다. |
phys-schost# 프롬프트는 전역 클러스터 프롬프트를 반영합니다. 전역 클러스터에서 이 절차를 수행합니다.
이 절차에서는 장문형 Oracle Solaris Cluster 명령을 제공합니다. 대부분의 명령에는 단문형도 있습니다. 명령은 명령 이름이 장문형과 단문형인 것을 제외하면 동일합니다.
# pairdisplay -g group-name # cldevicegroup status -n nodename group-name
# cldevicegroup show -n nodename group-name
# usr/cluster/bin/cldevice status [-s state] [-n node[,?]] [+| [disk-device ]]
장치 그룹이 오프라인일 경우 온라인으로 전환합니다.
# cldevicegroup switch -n nodename group-name
장치 그룹이 전환되는 노드입니다. 이 노드가 새 기본 노드가 됩니다
# pairdisplay -g group-name # cldevicegroup status -n nodename group-name
이 예에서는 클러스터에서 TrueCopy 복제를 설정하는 데 필요한 Oracle Solaris Cluster 특정 단계를 완료합니다. 이 예에서는 다음 작업을 이미 수행했다고 가정합니다.
Hitachi LUN 설정
저장 장치 및 클러스터 노드에 TrueCopy 소프트웨어 설치
클러스터 노드에서 복제 쌍 구성
복제 쌍 구성에 대한 지침은 Hitachi TrueCopy 복제 그룹을 구성하는 방법을 참조하십시오.
이 예에서는 TrueCopy를 사용하는 3노드 클러스터를 다룹니다. 클러스터는 두 원격 사이트에 걸쳐 있으며, 한 사이트에 두 노드가 있고 다른 사이트에 하나의 노드가 있습니다. 각 사이트에는 고유의 Hitachi 저장 장치가 있습니다.
다음 예에서는 각 노드의 TrueCopy /etc/horcm.conf 구성 파일을 보여 줍니다.
예 5-1 노드 1의 TrueCopy 구성 파일
HORCM_DEV #dev_group dev_name port# TargetID LU# MU# VG01 pair1 CL1-A 0 29 VG01 pair2 CL1-A 0 30 VG01 pair3 CL1-A 0 31 HORCM_INST #dev_group ip_address service VG01 node-3 horcm
예 5-2 노드 2의 TrueCopy 구성 파일
HORCM_DEV #dev_group dev_name port# TargetID LU# MU# VG01 pair1 CL1-A 0 29 VG01 pair2 CL1-A 0 30 VG01 pair3 CL1-A 0 31 HORCM_INST #dev_group ip_address service VG01 node-3 horcm
예 5-3 노드 3의 TrueCopy 구성 파일
HORCM_DEV #dev_group dev_name port# TargetID LU# MU# VG01 pair1 CL1-C 0 09 VG01 pair2 CL1-C 0 10 VG01 pair3 CL1-C 0 11 HORCM_INST #dev_group ip_address service VG01 node-1 horcm VG01 node-2 horcm
위의 예에서 세 LUN이 두 사이트 간에 복제됩니다. LUN은 VG01 이름의 복제 그룹에 모두 있습니다. pairdisplay 명령은 이 정보를 확인하고 노드 3에 기본 복제본이 있음을 보여 줍니다.
예 5-4 노드 1의 pairdisplay 명령 출력
# pairdisplay -g VG01 Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#.P/S,Status,Fence, Seq#,P-LDEV# M VG01 pair1(L) (CL1-A , 0, 29)61114 29..S-VOL PAIR NEVER ,----- 58 - VG01 pair1(R) (CL1-C , 0, 9)20064 58..P-VOL PAIR NEVER ,61114 29 - VG01 pair2(L) (CL1-A , 0, 30)61114 30..S-VOL PAIR NEVER ,----- 59 - VG01 pair2(R) (CL1-C , 0, 10)20064 59..P-VOL PAIR NEVER ,61114 30 - VG01 pair3(L) (CL1-A , 0, 31)61114 31..S-VOL PAIR NEVER ,----- 60 - VG01 pair3(R) (CL1-C , 0, 11)20064 60..P-VOL PAIR NEVER ,61114 31 -
예 5-5 노드 2의 pairdisplay 명령 출력
# pairdisplay -g VG01 Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#.P/S,Status,Fence, Seq#,P-LDEV# M VG01 pair1(L) (CL1-A , 0, 29)61114 29..S-VOL PAIR NEVER ,----- 58 - VG01 pair1(R) (CL1-C , 0, 9)20064 58..P-VOL PAIR NEVER ,61114 29 - VG01 pair2(L) (CL1-A , 0, 30)61114 30..S-VOL PAIR NEVER ,----- 59 - VG01 pair2(R) (CL1-C , 0, 10)20064 59..P-VOL PAIR NEVER ,61114 30 - VG01 pair3(L) (CL1-A , 0, 31)61114 31..S-VOL PAIR NEVER ,----- 60 - VG01 pair3(R) (CL1-C , 0, 11)20064 60..P-VOL PAIR NEVER ,61114 31 -
예 5-6 노드 3의 pairdisplay 명령 출력
# pairdisplay -g VG01 Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#.P/S,Status,Fence, Seq#,P-LDEV# M VG01 pair1(L) (CL1-C , 0, 9)20064 58..P-VOL PAIR NEVER ,61114 29 - VG01 pair1(R) (CL1-A , 0, 29)61114 29..S-VOL PAIR NEVER ,----- 58 - VG01 pair2(L) (CL1-C , 0, 10)20064 59..P-VOL PAIR NEVER ,61114 30 - VG01 pair2(R) (CL1-A , 0, 30)61114 30..S-VOL PAIR NEVER ,----- 59 - VG01 pair3(L) (CL1-C , 0, 11)20064 60..P-VOL PAIR NEVER ,61114 31 - VG01 pair3(R) (CL1-A , 0, 31)61114 31..S-VOL PAIR NEVER ,----- 60 -
어떤 디스크가 사용되고 있는지 보려면 다음 예에 나온 대로 pairdisplay 명령의 -fd 옵션을 사용합니다.
예 5-7 노드 1의 pairdisplay 명령 출력, 사용되는 디스크 표시
# pairdisplay -fd -g VG01 Group PairVol(L/R) Device_File ,Seq#,LDEV#.P/S,Status,Fence,Seq#,P-LDEV# M VG01 pair1(L) c6t500060E8000000000000EEBA0000001Dd0s2 61114 29..S-VOL PAIR NEVER ,----- 58 - VG01 pair1(R) c5t50060E800000000000004E600000003Ad0s2 20064 58..P-VOL PAIR NEVER ,61114 29 - VG01 pair2(L) c6t500060E8000000000000EEBA0000001Ed0s2 61114 30..S-VOL PAIR NEVER ,----- 59 - VG01 pair2(R) c5t50060E800000000000004E600000003Bd0s2 0064 59..P-VOL PAIR NEVER ,61114 30 - VG01 pair3(L) c6t500060E8000000000000EEBA0000001Fd0s2 61114 31..S-VOL PAIR NEVER ,----- 60 - VG01 pair3(R) c5t50060E800000000000004E600000003Cd0s2 20064 60..P-VOL PAIR NEVER ,61114 31 -
예 5-8 노드 2의 pairdisplay 명령 출력, 사용되는 디스크 표시
# pairdisplay -fd -g VG01 Group PairVol(L/R) Device_File ,Seq#,LDEV#.P/S,Status,Fence,Seq#,P-LDEV# M VG01 pair1(L) c5t500060E8000000000000EEBA0000001Dd0s2 61114 29..S-VOL PAIR NEVER ,----- 58 - VG01 pair1(R) c5t50060E800000000000004E600000003Ad0s2 20064 58..P-VOL PAIR NEVER ,61114 29 - VG01 pair2(L) c5t500060E8000000000000EEBA0000001Ed0s2 61114 30..S-VOL PAIR NEVER ,----- 59 - VG01 pair2(R) c5t50060E800000000000004E600000003Bd0s2 20064 59..P-VOL PAIR NEVER ,61114 30 - VG01 pair3(L) c5t500060E8000000000000EEBA0000001Fd0s2 61114 31..S-VOL PAIR NEVER ,----- 60 - VG01 pair3(R) c5t50060E800000000000004E600000003Cd0s2 20064 60..P-VOL PAIR NEVER ,61114 31 -
예 5-9 노드 3의 pairdisplay 명령 출력, 사용되는 디스크 표시
# pairdisplay -fd -g VG01 Group PairVol(L/R) Device_File ,Seq#,LDEV#.P/S,Status,Fence ,Seq#,P-LDEV# M VG01 pair1(L) c5t50060E800000000000004E600000003Ad0s2 20064 58..P-VOL PAIR NEVER ,61114 29 - VG01 pair1(R) c6t500060E8000000000000EEBA0000001Dd0s2 61114 29..S-VOL PAIR NEVER ,----- 58 - VG01 pair2(L) c5t50060E800000000000004E600000003Bd0s2 20064 59..P-VOL PAIR NEVER ,61114 30 - VG01 pair2(R) c6t500060E8000000000000EEBA0000001Ed0s2 61114 30..S-VOL PAIR NEVER ,----- 59 - VG01 pair3(L) c5t50060E800000000000004E600000003Cd0s2 20064 60..P-VOL PAIR NEVER ,61114 31 - VG01 pair3(R) c6t500060E8000000000000EEBA0000001Fd0s2 61114 31..S-VOL PAIR NEVER ,----- 60 -
이러한 예에서는 다음 디스크가 사용되고 있음을 보여 줍니다.
노드 1:
c6t500060E8000000000000EEBA0000001Dd0s2
c6t500060E8000000000000EEBA0000001Ed0s2
c6t500060E8000000000000EEBA0000001Fd0s
노드 2:
c5t500060E8000000000000EEBA0000001Dd0s2
c5t500060E8000000000000EEBA0000001Ed0s2
c5t500060E8000000000000EEBA0000001Fd0s2
노드 3:
c5t50060E800000000000004E600000003Ad0s2
c5t50060E800000000000004E600000003Bd0s2
c5t50060E800000000000004E600000003Cd0s2
이러한 디스크에 해당하는 DID 장치를 보려면 다음 예에 나온 대로 cldevice list 명령을 사용합니다.
예 5-10 사용된 디스크에 해당하는 DID 표시
# cldevice list -v DID Device Full Device Path ---------- ---------------- 1 node-1:/dev/rdsk/c0t0d0 /dev/did/rdsk/d1 2 node-1:/dev/rdsk/c0t6d0 /dev/did/rdsk/d2 11 node-1:/dev/rdsk/c6t500060E8000000000000EEBA00000020d0 /dev/did/rdsk/d11 11 node-2:/dev/rdsk/c5t500060E8000000000000EEBA00000020d0 /dev/did/rdsk/d11 12 node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Fd0 /dev/did/rdsk/d12 12 node-2:/dev/rdsk/c5t500060E8000000000000EEBA0000001Fd0 /dev/did/rdsk/d12 13 node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Ed0 /dev/did/rdsk/d13 13 node-2:/dev/rdsk/c5t500060E8000000000000EEBA0000001Ed0 /dev/did/rdsk/d13 14 node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Dd0 /dev/did/rdsk/d14 14 node-2:/dev/rdsk/c5t500060E8000000000000EEBA0000001Dd0 /dev/did/rdsk/d14 18 node-3:/dev/rdsk/c0t0d0 /dev/did/rdsk/d18 19 node-3:/dev/rdsk/c0t6d0 /dev/did/rdsk/d19 20 node-3:/dev/rdsk/c5t50060E800000000000004E6000000013d0 /dev/did/rdsk/d20 21 node-3:/dev/rdsk/c5t50060E800000000000004E600000003Dd0 /dev/did/rdsk/d21 22 node-3:/dev/rdsk/c5t50060E800000000000004E600000003Cd0 /dev/did/rdsk/d2223 23 node-3:/dev/rdsk/c5t50060E800000000000004E600000003Bd0 /dev/did/rdsk/d23 24 node-3:/dev/rdsk/c5t50060E800000000000004E600000003Ad0 /dev/did/rdsk/d24
복제된 장치의 각 쌍에 대해 DID 인스턴스를 결합할 경우 cldevice list는 DID 인스턴스 12와 22, 인스턴스 13과 23, 인스턴스 14와 24를 결합해야 합니다. 노드 3에는 기본 복제본이 있으므로 노드 1 또는 노드 2에서 cldevice -T 명령을 실행합니다. 항상 보조 복제본이 있는 노드에서 인스턴스를 결합하십시오. 두 노드가 아닌 하나의 노드에서만 이 명령을 실행하십시오.
다음 예에서는 노드 1에서 명령을 실행하여 DID 인스턴스를 결합할 경우 출력을 보여 줍니다.
예 5-11 DID 인스턴스 결합
# cldevice replicate -D node-3 Remapping instances for devices replicated with node-3... VG01 pair1 L node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Dd0 VG01 pair1 R node-3:/dev/rdsk/c5t50060E800000000000004E600000003Ad0 Combining instance 14 with 24 VG01 pair2 L node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Ed0 VG01 pair2 R node-3:/dev/rdsk/c5t50060E800000000000004E600000003Bd0 Combining instance 13 with 23 VG01 pair3 L node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Fd0 VG01 pair3 R node-3:/dev/rdsk/c5t50060E800000000000004E600000003Cd0 Combining instance 12 with 22
cldevice list 결과를 확인하면 두 사이트의 LUN이 이제 동일한 DID 인스턴스를 가집니다. 동일한 DID 인스턴스를 가지면 다음 예에 나온 대로 각 복제본 쌍이 단일 DID 장치와 같이 보입니다.
예 5-12 조합된 DID 표시
# cldevice list -v DID Device Full Device Path ---------- ---------------- 1 node-1:/dev/rdsk/c0t0d0 /dev/did/rdsk/d1 2 node-1:/dev/rdsk/c0t6d0 /dev/did/rdsk/d2 11 node-1:/dev/rdsk/c6t500060E8000000000000EEBA00000020d0 /dev/did/rdsk/d11 11 node-2:/dev/rdsk/c5t500060E8000000000000EEBA00000020d0 /dev/did/rdsk/d11 18 node-3:/dev/rdsk/c0t0d0 /dev/did/rdsk/d18 19 node-3:/dev/rdsk/c0t6d0 /dev/did/rdsk/d19 20 node-3:/dev/rdsk/c5t50060E800000000000004E6000000013d0 /dev/did/rdsk/d20 21 node-3:/dev/rdsk/c5t50060E800000000000004E600000003Dd0 /dev/did/rdsk/d21 22 node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Fd0 /dev/did/rdsk/d1222 22 node-2:/dev/rdsk/c5t500060E8000000000000EEBA0000001Fd0 /dev/did/rdsk/d12 22 node-3:/dev/rdsk/c5t50060E800000000000004E600000003Cd0 /dev/did/rdsk/d22 23 node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Ed0 /dev/did/rdsk/d13 23 node-2:/dev/rdsk/c5t500060E8000000000000EEBA0000001Ed0 /dev/did/rdsk/d13 23 node-3:/dev/rdsk/c5t50060E800000000000004E600000003Bd0 /dev/did/rdsk/d23 24 node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Dd0 /dev/did/rdsk/d24 24 node-2:/dev/rdsk/c5t500060E8000000000000EEBA0000001Dd0 /dev/did/rdsk/d24 24 node-3:/dev/rdsk/c5t50060E800000000000004E600000003Ad0 /dev/did/rdsk/d24
다음 단계는 볼륨 관리자 장치 그룹을 만드는 것입니다. 기본 복제본이 있는 노드(이 예에서는 노드 3)에서 이 명령을 실행합니다. 다음 예에 나온 대로 장치 그룹에 복제본 그룹과 동일한 이름을 지정합니다.
예 5-13 Solaris Volume Manager 장치 그룹 만들기
# metaset -s VG01 -ah phys-deneb-3 # metaset -s VG01 -ah phys-deneb-1 # metaset -s VG01 -ah phys-deneb-2 # metaset -s VG01 -a /dev/did/rdsk/d22 # metaset -s VG01 -a /dev/did/rdsk/d23 # metaset -s VG01 -a /dev/did/rdsk/d24 # metaset Set name = VG01, Set number = 1 Host Owner phys-deneb-3 Yes phys-deneb-1 phys-deneb-2 Drive Dbase d22 Yes d23 Yes d24 Yes
이제 장치 그룹을 사용할 수 있으므로 메타 장치를 만들 수 있고, 장치 그룹을 세 노드 중 어디에나 이동할 수 있습니다. 하지만 스위치오버 및 페일오버를 더욱 효율적으로 만들려면 cldevicegroup set을 실행하여 클러스터 구성에서 장치 그룹을 복제된 것으로 표시합니다.
예 5-14 스위치오버 및 페일오버를 효율적으로 만들기
# cldevicegroup sync VG01 # cldevicegroup show VG01 === Device Groups=== Device Group Name VG01 Type: SVM failback: no Node List: phys-deneb-3, phys-deneb-1, phys-deneb-2 preferenced: yes numsecondaries: 1 device names: VG01 Replication type: truecopy
복제 그룹의 구성은 이 단계로 완료됩니다. 성공적으로 구성되었는지 확인하려면 Hitachi TrueCopy 복제된 전역 장치 그룹 구성을 확인하는 방법의 단계를 수행하십시오.
다음 표에는 EMC SRDF(Symmetrix Remote Data Facility) 저장소 기반의 복제된 장치를 설정 및 관리하기 위해 수행할 작업이 나열되어 있습니다.
표 5-3 작업 맵: EMC SRDF 저장소 기반의 복제된 장치 관리
|
시작하기 전에
EMC SRDF(Symmetrix Remote Data Facility) 복제 그룹을 구성하기 전에 EMC Solutions Enabler 소프트웨어를 모든 클러스터 노드에 설치해야 합니다. 먼저 클러스터의 공유 디스크에 EMC SRDF 장치 그룹을 구성합니다. EMC SRDF 장치 그룹 구성 방법에 대한 자세한 내용은 EMC SRDF 제품 설명서를 참조하십시오.
EMC SRDF를 사용하는 경우 정적 장치 대신 동적 장치를 사용하십시오. 정적 장치는 복제 기본 변경에 몇 분 가량 소요되며 페일오버 시간에 영향을 줄 수 있습니다.
![]() | 주의 - 사용자가 만든 Oracle Solaris Cluster 장치 그룹(Solaris Volume Manager 또는 원시 디스크)의 이름은 복제된 장치 그룹의 이름과 같아야 합니다. |
모든 참여 클러스터 노드의 Solutions Enabler 옵션 파일에 다음 항목을 추가합니다.
SYMAPI_2SITE_CLUSTER_DG=:rdf-group-number
장치 그룹의 이름을 지정합니다.
호스트의 로컬 Symmetrix를 보조 사이트의 Symmetrix에 연결하는 RDF 그룹을 지정합니다.
이 항목을 통해 클러스터 소프트웨어가 두 SRDF 동기 사이트 간에 응용 프로그램의 이동을 자동화할 수 있습니다.
세 데이터 센터 구성에 대한 자세한 내용은 Oracle Solaris Cluster Geographic Edition Overview의 Three-Data-Center (3DC) Topologies를 참조하십시오.
이 작업은 몇 분 가량 소요될 수 있습니다.
# /usr/symcli/bin/symcfg discover
symrdf 명령을 사용하여 복제본 쌍을 만듭니다. 복제본 쌍 만들기에 대한 지침은 SRDF 설명서를 참조하십시오.
주 - 세 사이트 또는 세 데이터 센터 구현을 위해 동시 RDF 장치를 사용 중인 경우 모든 symrdf 명령에 다음 매개변수를 추가합니다.
-rdfg rdf-group-number
symrdf 명령에 RDF 그룹 번호를 지정하면 symrdf 작업이 올바른 RDF 그룹으로 지정됩니다.
# /usr/symcli/bin/symdg show group-name
# /usr/symcli/bin/symrdf -g group-name verify -synchronized
# /usr/symcli/bin/symdg show group-name
RDF1 장치가 있는 노드는 기본 복제본을 포함하고 RDF2 장치 상태인 노드는 보조 복제본을 포함합니다.
# /usr/symcli/bin/symrdf -g group-name failover
# /usr/symcli/bin/symrdf -g group-name swap -refresh R1
# /usr/symcli/bin/symrdf -g group-name establish
# /usr/symcli/bin/symrdf -g group-name verify -synchronized
다음 순서
EMC SRDF 복제된 장치에 대해 장치 그룹을 구성한 후에 복제된 장치에 사용되는 DID(장치 식별자) 드라이버를 구성해야 합니다.
이 절차에서는 복제된 장치에 사용되는 DID(장치 식별자) 드라이버를 구성합니다.
시작하기 전에
phys-schost# 프롬프트는 전역 클러스터 프롬프트를 반영합니다. 전역 클러스터에서 이 절차를 수행합니다.
이 절차에서는 장문형 Oracle Solaris Cluster 명령을 제공합니다. 대부분의 명령에는 단문형도 있습니다. 명령은 명령 이름이 장문형과 단문형인 것을 제외하면 동일합니다.
# /usr/symcli/bin/symdg show group-name
주 - 시스템에 전체 Oracle Solaris 장치 패치가 표시되지 않으면 환경 변수 SYMCLI_FULL_PDEVNAME을 1로 설정하고 symdg -show 명령을 다시 입력합니다.
# cldevice list -v
# cldevice combine -t srdf -g replication-device-group \ -d destination-instance source-instance
주 - SRDF 데이터 복제 장치에는 -T 옵션이 지원되지 않습니다.
복제 유형을 지정합니다. EMC SRDF일 경우 SRDF를 입력합니다.
symdg show 명령에 표시된 대로 장치 그룹 이름을 지정합니다.
RDF1 장치에 해당하는 DID 인스턴스를 지정합니다.
RDF2 장치에 해당하는 DID 인스턴스를 지정합니다.
주 - 잘못된 DID 장치를 조합할 경우 -b 옵션을 scdidadm 명령에 사용하여 두 DID 장치의 조합을 실행 취소합니다.
# scdidadm -b device
인스턴스가 결합되었을 때 destination_device에 해당하는 DID 인스턴스입니다.
|
# cldevice list -v device
# cldevice show device
# cldevice list -v
다음 순서
복제된 장치에 사용되는 DID(장치 식별자) 드라이버를 구성한 후 EMC SRDF 복제된 전역 장치 그룹 구성을 확인해야 합니다.
시작하기 전에
전역 장치 그룹을 확인하기 전에 먼저 해당 그룹을 만듭니다. Solaris Volume Manager, ZFS 또는 원시 디스크에서 장치 그룹을 사용할 수 있습니다. 자세한 내용은 다음을 참조하십시오.
![]() | 주의 - 사용자가 만든 Oracle Solaris Cluster 장치 그룹(Solaris Volume Manager 또는 원시 디스크)의 이름은 복제된 장치 그룹 이름과 같아야 합니다. |
phys-schost# 프롬프트는 전역 클러스터 프롬프트를 반영합니다. 전역 클러스터에서 이 절차를 수행합니다.
이 절차에서는 장문형 Oracle Solaris Cluster 명령을 제공합니다. 대부분의 명령에는 단문형도 있습니다. 명령은 명령 이름이 장문형과 단문형인 것을 제외하면 동일합니다.
# symdg -show group-name # cldevicegroup status -n nodename group-name
장치 그룹이 오프라인일 경우 온라인으로 전환합니다.
# cldevicegroup switch -n nodename group-name
장치 그룹이 전환되는 노드입니다. 이 노드가 새 기본 노드가 됩니다.
# symdg -show group-name # cldevicegroup status -n nodename group-name
이 예에서는 클러스터에서 SRDF 복제를 설정하는 데 필요한 Oracle Solaris Cluster 특정 단계를 완료합니다. 이 예에서는 다음 작업을 이미 수행했다고 가정합니다.
어레이 간에 LUNS 복제 쌍 지정 완료
저장 장치 및 클러스터 노드에 SRDF 소프트웨어 설치
이 예에는 노드 2개가 symmetrix 하나에 연결되고 나머지 노드 2개가 두번째 symmetrix에 연결되는 4노드 클러스터가 포함됩니다. SRDF 장치를 dg1이라고 합니다.
예 5-15 복제본 쌍 만들기
모든 노드에서 다음 명령을 실행합니다.
# symcfg discover ! This operation might take up to a few minutes. # symdev list pd Symmetrix ID: 000187990182 Device Name Directors Device --------------------------- ------------ -------------------------------------- Cap Sym Physical SA :P DA :IT Config Attribute Sts (MB) --------------------------- ------------- ------------------------------------- 0067 c5t600604800001879901* 16D:0 02A:C1 RDF2+Mir N/Grp'd RW 4315 0068 c5t600604800001879901* 16D:0 16B:C0 RDF1+Mir N/Grp'd RW 4315 0069 c5t600604800001879901* 16D:0 01A:C0 RDF1+Mir N/Grp'd RW 4315 ...
RDF1 측의 모든 노드에서 다음을 입력합니다.
# symdg -type RDF1 create dg1 # symld -g dg1 add dev 0067
RDF2 측의 모든 노드에서 다음을 입력합니다.
# symdg -type RDF2 create dg1 # symld -g dg1 add dev 0067
예 5-16 데이터 복제 설정 확인
클러스터의 노드 하나에서 다음을 입력합니다.
# symdg show dg1 Group Name: dg1 Group Type : RDF1 (RDFA) Device Group in GNS : No Valid : Yes Symmetrix ID : 000187900023 Group Creation Time : Thu Sep 13 13:21:15 2007 Vendor ID : EMC Corp Application ID : SYMCLI Number of STD Devices in Group : 1 Number of Associated GK's : 0 Number of Locally-associated BCV's : 0 Number of Locally-associated VDEV's : 0 Number of Remotely-associated BCV's (STD RDF): 0 Number of Remotely-associated BCV's (BCV RDF): 0 Number of Remotely-assoc'd RBCV's (RBCV RDF) : 0 Standard (STD) Devices (1): { -------------------------------------------------------------------- Sym Cap LdevName PdevName Dev Att. Sts (MB) -------------------------------------------------------------------- DEV001 /dev/rdsk/c5t6006048000018790002353594D303637d0s2 0067 RW 4315 } Device Group RDF Information ... # symrdf -g dg1 establish Execute an RDF 'Incremental Establish' operation for device group 'dg1' (y/[n]) ? y An RDF 'Incremental Establish' operation execution is in progress for device group 'dg1'. Please wait... Write Disable device(s) on RA at target (R2)..............Done. Suspend RDF link(s).......................................Done. Mark target (R2) devices to refresh from source (R1)......Started. Device: 0067 ............................................ Marked. Mark target (R2) devices to refresh from source (R1)......Done. Merge device track tables between source and target.......Started. Device: 0067 ............................................ Merged. Merge device track tables between source and target.......Done. Resume RDF link(s)........................................Started. Resume RDF link(s)........................................Done. The RDF 'Incremental Establish' operation successfully initiated for device group 'dg1'. # # symrdf -g dg1 query Device Group (DG) Name : dg1 DG's Type : RDF2 DG's Symmetrix ID : 000187990182 Target (R2) View Source (R1) View MODES -------------------------------- ------------------------ ----- ------------ ST LI ST Standard A N A Logical T R1 Inv R2 Inv K T R1 Inv R2 Inv RDF Pair Device Dev E Tracks Tracks S Dev E Tracks Tracks MDA STATE -------------------------------- -- ------------------------ ----- ------------ DEV001 0067 WD 0 0 RW 0067 RW 0 0 S.. Synchronized Total -------- -------- -------- -------- MB(s) 0.0 0.0 0.0 0.0 Legend for MODES: M(ode of Operation): A = Async, S = Sync, E = Semi-sync, C = Adaptive Copy D(omino) : X = Enabled, . = Disabled A(daptive Copy) : D = Disk Mode, W = WP Mode, . = ACp off #
예 5-17 사용된 디스크에 해당하는 DID 표시
RDF1 및 RDF2 측에 같은 절차가 적용됩니다.
dymdg show dg 명령 출력의 PdevName 필드에서 확인할 수 있습니다.
RDF1 측에서 다음을 입력합니다.
# symdg show dg1 Group Name: dg1 Group Type : RDF1 (RDFA) ... Standard (STD) Devices (1): { -------------------------------------------------------------------- Sym Cap LdevName PdevName Dev Att. Sts (MB) -------------------------------------------------------------------- DEV001 /dev/rdsk/c5t6006048000018790002353594D303637d0s2 0067 RW 4315 } Device Group RDF Information ...
해당 DID를 확인하려면 다음을 입력합니다.
# scdidadm -L | grep c5t6006048000018790002353594D303637d0 217 pmoney1:/dev/rdsk/c5t6006048000018790002353594D303637d0 /dev/did/rdsk/d217 217 pmoney2:/dev/rdsk/c5t6006048000018790002353594D303637d0 /dev/did/rdsk/d217 #
해당 DID를 나열하려면 다음을 입력합니다.
# cldevice show d217 === DID Device Instances === DID Device Name: /dev/did/rdsk/d217 Full Device Path: pmoney2:/dev/rdsk/c5t6006048000018790002353594D303637d0 Full Device Path: pmoney1:/dev/rdsk/c5t6006048000018790002353594D303637d0 Replication: none default_fencing: global #
RDF2 측에서 다음을 입력합니다.
dymdg show dg 명령 출력의 PdevName 필드에서 확인할 수 있습니다.
# symdg show dg1 Group Name: dg1 Group Type : RDF2 (RDFA) ... Standard (STD) Devices (1): { -------------------------------------------------------------------- Sym Cap LdevName PdevName Dev Att. Sts (MB) -------------------------------------------------------------------- DEV001 /dev/rdsk/c5t6006048000018799018253594D303637d0s2 0067 WD 4315 } Device Group RDF Information ...
해당 DID를 확인하려면 다음을 입력합니다.
# scdidadm -L | grep c5t6006048000018799018253594D303637d0 108 pmoney4:/dev/rdsk/c5t6006048000018799018253594D303637d0 /dev/did/rdsk/d108 108 pmoney3:/dev/rdsk/c5t6006048000018799018253594D303637d0 /dev/did/rdsk/d108 #
해당 DID를 나열하려면 다음을 입력합니다.
# cldevice show d108 === DID Device Instances === DID Device Name: /dev/did/rdsk/d108 Full Device Path: pmoney3:/dev/rdsk/c5t6006048000018799018253594D303637d0 Full Device Path: pmoney4:/dev/rdsk/c5t6006048000018799018253594D303637d0 Replication: none default_fencing: global #
예 5-18 DID 인스턴스 조합
RDF2 사이드에서 다음을 입력합니다.
# cldevice combine -t srdf -g dg1 -d d217 d108 #
예 5-19 조합된 DID 표시
클러스터의 아무 노드에서나 다음을 입력합니다.
# cldevice show d217 d108 cldevice: (C727402) Could not locate instance "108". === DID Device Instances === DID Device Name: /dev/did/rdsk/d217 Full Device Path: pmoney1:/dev/rdsk/c5t6006048000018790002353594D303637d0 Full Device Path: pmoney2:/dev/rdsk/c5t6006048000018790002353594D303637d0 Full Device Path: pmoney4:/dev/rdsk/c5t6006048000018799018253594D303637d0 Full Device Path: pmoney3:/dev/rdsk/c5t6006048000018799018253594D303637d0 Replication: srdf default_fencing: global #
이 절차에서는 캠퍼스 클러스터의 기본 공간이 전체 실패한 후 기본 공간이 보조 공간으로 페일오버한 다음 기본 공간이 다시 온라인 상태로 전환될 경우 데이터 복구를 수행합니다. 캠퍼스 클러스터의 기본 공간은 기본 노드이며 저장 사이트입니다. 공간의 전체 실패에는 공간에 있는 호스트와 저장소 둘 다의 실패가 포함됩니다. 기본 공간이 실패할 경우 Oracle Solaris Cluster에서는 보조 공간으로 자동 페일오버하고 보조 공간의 저장 장치를 읽고 쓸 수 있게 하며 해당 장치 그룹 및 리소스 그룹의 페일오버를 사용으로 설정합니다.
기본 공간이 다시 온라인 상태로 전환하면 보조 공간에 쓴 SRDF 장치 그룹에서 데이터를 수동으로 복구하고 데이터를 재동기화할 수 있습니다. 이 절차에서는 원래의 보조 공간(이 절차에서는 보조 공간에 phys-campus-2 사용)에서 원래의 기본 공간(phys-campus-1)으로 데이터를 동기화하여 SRDF 장치를 복구합니다. 또한 이 절차에서는 SRDF 장치 그룹 유형을 phys-campus-2에서 RDF1로, phys-campus-1에서 RDF2로 변경합니다.
시작하기 전에
수동 페일오버를 수행하려면 먼저 EMC 복제 그룹을 등록하고 EMC 복제 그룹 및 DID 장치를 구성해야 합니다. Solaris Volume Manager 장치 그룹 만들기에 대한 자세한 내용은 장치 그룹 추가 및 등록 방법(Solaris Volume Manager)을 참조하십시오.
주 - 이 지침은 기본 공간이 완전히 페일오버하고 다시 온라인 상태로 전환한 후 수동으로 SRDF 데이터를 복구하는 데 사용할 수 있는 한 가지 방법을 보여 줍니다. 다른 방법은 EMC 설명서를 확인하십시오.
이 단계를 수행하려면 캠퍼스 클러스터의 기본 공간에 로그인합니다. 아래 절차에서 dg1은 SRDF 장치 그룹 이름입니다. 실패할 때 이 절차의 기본 공간은 phys-campus-1이고 보조 공간은 phys-campus-2입니다.
phys-campus-1# symrdf -g dg1 query
참고 - split 상태의 장치 그룹은 동기화되지 않습니다.
phys-campus-1# symrdf -g dg1 -force failover
phys-campus-1# symrdf -g dg1 query
phys-campus-1# symrdf -g dg1 swap
phys-campus-1# symrdf -g dg1 query
phys-campus-1# symrdf -g dg1 establish
phys-campus-1# symrdf -g dg1 query
예 5-20 기본 사이트 페일오버 후 수동으로 EMC SRDF 데이터 복구
이 예에서는 캠퍼스 클러스터의 기본 공간이 페일오버하고 보조 공간이 데이터를 인계 및 기록한 다음 기본 공간이 다시 온라인 상태로 전환된 후 수동으로 EMC SRDF 데이터를 복구하는 데 필요한 Oracle Solaris Cluster 특정 단계를 제공합니다. 예에서 SRDF 장치 그룹은 dg1이고 표준 논리 장치는 DEV001입니다. 실패할 때 기본 공간은 phys-campus-1이고 보조 공간은 phys-campus-2입니다. 캠퍼스 클러스터의 기본 공간 phys-campus-1에서 단계를 수행합니다.
phys-campus-1# symrdf -g dg1 query | grep DEV DEV001 0012RW 0 0NR 0012RW 2031 O S.. Split phys-campus-1# symdg list | grep RDF dg1 RDF1 Yes 00187990182 1 0 0 0 0 phys-campus-1# symrdf -g dg1 -force failover ... phys-campus-1# symrdf -g dg1 query | grep DEV DEV001 0012 WD 0 0 NR 0012 RW 2031 O S.. Failed Over phys-campus-1# symdg list | grep RDF dg1 RDF1 Yes 00187990182 1 0 0 0 0 phys-campus-1# symrdf -g dg1 swap ... phys-campus-1# symrdf -g dg1 query | grep DEV DEV001 0012 WD 0 0 NR 0012 RW 0 2031 S.. Suspended phys-campus-1# symdg list | grep RDF dg1 RDF2 Yes 000187990182 1 0 0 0 0 phys-campus-1# symrdf -g dg1 establish ... phys-campus-1# symrdf -g dg1 query | grep DEV DEV001 0012 WD 0 0 RW 0012 RW 0 0 S.. Synchronized phys-campus-1# symdg list | grep RDF dg1 RDF2 Yes 000187990182 1 0 0 0 0