데이터 복제 중에 기본 클러스터의 데이터가 백업 또는 보조 클러스터로 복사됩니다. 보조 클러스터는 기본 클러스터와 지리적으로 떨어져 있는 현장에 위치할 수 있습니다. 이 거리는 데이터 복제 제품에서 사용 가능한 거리 지원에 따라 다릅니다.
Sun Cluster Geographic Edition 소프트웨어는 데이터 복제를 위해 Hitachi TrueCopy 소프트웨어의 사용을 지원합니다. Hitachi TrueCopy 소프트웨어를 사용하여 데이터를 복제하기 전에 Hitachi TrueCopy 설명서에 익숙하고 Hitachi TrueCopy 제품 및 최신 Hitachi TrueCopy 패치가 사용자 시스템에 설치되어 있어야 합니다. Hitachi TrueCopy 소프트웨어의 설치 정보는 Hitachi TrueCopy 제품 설명서를 참조하십시오.
이 장에서는 Hitachi TrueCopy 소프트웨어를 사용한 데이터 복제 구성 및 관리 절차를 설명합니다. 이 장은 다음 절로 구성되어 있습니다.
데이터 복제 장치 그룹 작성 및 삭제에 대한 정보는 Hitachi TrueCopy 데이터 복제 장치 그룹 관리를 참조하십시오. 복제의 전역 및 자세한 런타임 상태 얻기에 대한 정보는 Hitachi TrueCopy 데이터 복제의 런타임 상태 점검을 참조하십시오.
이 절은 보호 그룹에서 Hitachi TrueCopy 데이터 복제 구성 단계를 요약합니다.
표 1–1 Hitachi TrueCopy 데이터 복제용 작업 관리
작업 |
설명 |
|
---|---|---|
구성 요구 사항 및 지침을 검토한 후 Hitachi TrueCopy 소프트웨어의 초기 구성을 수행합니다. |
Hitachi TrueCopy 소프트웨어의 초기 구성을 참조하십시오. |
|
Hitachi TrueCopy 데이터 복제를 위해 구성되는 보호 그룹을 작성합니다. |
자세한 내용은 Oracle Real Application Clusters를 사용하지 않는 Hitachi TrueCopy 보호 그룹 작성 및 구성 방법 또는 Oracle Real Application Clusters에 대한 보호 그룹 작성 방법을 참조하십시오. |
|
Hitachi TrueCopy 에 의해 제어되는 장치 그룹을 추가합니다. | ||
보호 그룹에 응용 프로그램 자원 그룹을 추가합니다. | ||
보조 클러스터에 보호 그룹 구성을 복제합니다. | ||
설정을 검증하기 위한 구성된 파트너쉽 및 보호 그룹 테스트 |
시험 전환 또는 인계를 수행하고 몇 가지 간단한 실패 시나리오를 테스트합니다. 3 장, Hitachi TrueCopy 데이터 복제를 사용하는 서비스의 마이그레이션을 참조하십시오. |
|
보호 그룹을 활성화합니다. |
Hitachi TrueCopy 보호 그룹 활성화 방법을 참조하십시오. |
|
복제의 런타임 상태를 점검합니다. |
Hitachi TrueCopy 데이터 복제의 런타임 상태 점검을 참조하십시오. |
|
실패를 감지합니다. | ||
전환을 사용하여 서비스를 이전합니다. | ||
인계를 사용하여 서비스를 이전합니다. | ||
강제 인계 후 데이터를 복구합니다. | ||
데이터 복제 오류를 감지하고 복구합니다. |
Hitachi TrueCopy 데이터 복제 오류에서 복구를 참조하십시오. |
이 절에서는 기본 및 보조 클러스터에서 Hitachi TrueCopy 소프트웨어를 구성하는 방법에 대해 설명합니다. 또한 Hitachi TrueCopy 보호 그룹 작성을 위한 사전조건에 대한 정보가 포함되어 있습니다. 이 절에서는 다음 내용을 설명합니다.
기본 및 보조 클러스터의 초기 구성은 다음을 포함합니다.
필요한 디스크 수를 갖는 Hitachi TrueCopy 장치 그룹 devgroup1 구성
원시 디스크 장치 그룹을 사용할 경우, 원시 디스크 그룹 rawdg 구성
VERITAS Volume Manager를 사용할 경우
VERITAS Volume Manager 디스크 그룹 oradg1 구성
VERITAS Volume Manager 볼륨 vol1 구성
VERITAS Volume Manager 디스크 그룹 oradg1에 대한 Sun Cluster 장치 그룹 구성
파일 시스템 작성, 마운트 지점 작성 및 /etc/vfstab 파일에 항목 추가를 포함한 파일 시스템 구성
HAStoragePlus 자원을 포함하는 응용 프로그램 자원 그룹 apprg1 작성
다음 요구 사항 및 지침을 준수하십시오.
저장소 기반 복제를 사용할 경우, 복제된 볼륨을 쿼럼 장치로서 구성하지 마십시오. Sun Cluster Geographic Edition 소프트웨어는 Hitachi TrueCopy S-VOL 및 명령 장치를 Sun Cluster 쿼럼 장치로 사용하는 것을 지원하지 않습니다. 자세한 내용은 Sun Cluster System Administration Guide for Solaris OS의 Using Storage-Based Data Replication을 참조하십시오.
데이터 복제를 위해 Hitachi TrueCopy 명령 제어 인터페이스(CCI)를 사용하는 경우 RAID Manager를 사용해야 합니다. 사용해야 하는 버전에 대한 자세한 내용은 Sun Cluster Geographic Edition 설치 안내서를 참조하십시오.
이 모델은 Sun StorEdgeTM 9970/9980 Array 또는 Hitachi Lightning 9900 Series Storage와의 특정 하드웨어 구성이 필요합니다. 현재 지원되는 Sun Cluster 구성에 대한 정보는 Sun 서비스 담당자에게 문의하십시오.
I/O 일관성에 대한 요구 사항이 있는 장치 쌍이 동일한 장치 그룹에 속해 있어야 합니다.
Sun Cluster Geographic Edition 소프트웨어에 의해 관리되는 Hitachi TrueCopy 장치 그룹은 해당 시스템의 다른 모든 Hitachi TrueCopy 장치 그룹과 동일한 CTGID를 공유하지 않아야 합니다.
Sun Cluster Geographic Edition 소프트웨어는 기본 CCI 인스턴스를 사용하여 Hitachi TrueCopy 장치를 관리합니다. Sun Cluster Geographic Edition 소프트웨어는 TrueCopy 장치 그룹이 Sun Cluster Geographic Edition 소프트웨어에 의해 관리될 때마다 기본 CCI 인스턴스를 시작합니다. 또한 Sun Cluster Geographic Edition 소프트웨어의 제어를 받지 않는 응용 프로그램은 기본 CCI 인스턴스나 Sun Cluster Geographic Edition 또는 응용 프로그램 프로세스 또는 데이터에 대해 위험이 없는 기타 모든 인스턴스를 사용할 수 있습니다.
Sun Cluster Geographic Edition 소프트웨어는 Sun Cluster 소프트웨어에서 지원되는 하드웨어 구성을 지원합니다. 현재 지원되는 Sun Cluster 구성에 대한 정보는 Sun 서비스 담당자에게 문의하십시오.
이 절에서는 Sun Cluster Geographic Edition 소프트웨어의 Hitachi TrueCopy 데이터 복제를 구성하기 전에 기본 클러스터에서 수행해야 하는 단계를 설명합니다. 각 단계를 보여주기 위해 이 절은 d1 및 d2라고 부르는 두 개의 디스크 또는 LUN 예를 사용합니다. 이들 디스크는 apprg1이라는 응용 프로그램용 데이터를 보유하는 Hitachi TrueCopy 어레이에 있습니다.
Hitachi 어레이에 액세스하는 클러스터의 각 노드에서 /etc/horcm.conf 파일을 편집하여 기본 클러스터의 공유 디스크에 Hitachi TrueCopy 장치 그룹을 구성합니다. 디스크 d1 및 d2는 Hitachi TrueCopy 장치 그룹 devgroup1에 속하도록 구성됩니다. 응용 프로그램 apprg1은 Hitachi TrueCopy 장치 그룹이 구성된 모든 노드에서 실행할 수 있습니다.
/etc/horcm.conf 파일을 구성하는 방법에 대한 자세한 내용은 Sun StorEdge SE 9900 V Series Command and Control Interface User and Reference Guide를 참조하십시오.
다음 표는 /etc/horcm.conf 파일에 있는 본 예제의 구성 정보를 설명합니다.
표 1–2 기본 클러스터의 /etc/horcm.conf 파일 절 예
dev_group |
dev_name |
port number |
TargetID |
LU number |
MU number |
devgroup1 |
pair1 |
CL1–A |
0 |
1 | |
devgroup1 |
pair2 |
CL1–A |
0 |
2 |
표에 있는 구성 정보는 Hitachi TrueCopy 장치 그룹 devgroup1이 두 쌍을 포함하고 있음을 표시합니다. 첫 번째 쌍인 pair1은 d1 디스크에서 오며 튜플 <CL1–A , 0, 1>로 식별됩니다. 두 번째 쌍인 pair2는 d2 디스크에서 오며 튜플<CL1–A, 0, 2>로 식별됩니다. 디스크 d1 및 d2의 복제가 지리적으로 분리된 Hitachi TrueCopy 어레이에 위치합니다. 원격 Hitachi TrueCopy가 파트너 클러스터에 연결되어 있습니다.
Sun Cluster Geographic Edition은 다양한 볼륨 관리자 사용과 함께 원시 디스크 장치 그룹의 사용을 지원합니다. Sun Cluster의 초기 구성 시, 장치 그룹은 클러스터에 있는 각각의 원시 장치에 대해 자동으로 구성됩니다. Sun Cluster Geographic Edition과 함께 사용하기 위해 자동으로 작성된 장치 그룹을 재구성하려면 이 절차를 수행하십시오.
사용하려는 장치의 경우 사전 정의된 장치 그룹의 구성을 해제합니다.
다음 명령은 d7 및 d8로 사전 정의된 장치 그룹을 제거합니다.
phys-paris-1# cldevicegroup disable dsk/d7 dsk/d8 phys-paris-1# cldevicegroup offline dsk/d7 dsk/d8 phys-paris-1# cldevicegroup delete dsk/d7 dsk/d8 |
원하는 장치를 포함하는 새 원시 디스크 장치 그룹을 작성합니다.
새 DID가 슬래시를 포함하고 있지 않은지 확인하십시오. 다음 명령은 d7 및 d8이 포함된 전역 장치 그룹 rawdg를 작성합니다.
phys-paris-1# cldevicegroup create -n phys-paris-1,phys-paris-2 \ -t rawdisk -d d7,d8 rawdg |
다음 명령은 기본 클러스터에 장치 그룹 구성, 파트너 클러스터에 동일한 장치 그룹 구성 및 Hitachi TrueCopy 보호 그룹에 그룹 추가 방법을 보여줍니다.
Remove the automatically created device groups from the primary cluster. phys-paris-1# cldevicegroup disable dsk/d7 dsk/d8 phys-paris-1# cldevicegroup offline dsk/d7 dsk/d8 phys-paris-1# cldevicegroup delete dsk/d7 dsk/d8 Create the raw-disk device group on the primary cluster. phys-paris-1# cldevicegroup create -n phys-paris-1,phys-paris-2 \ -t rawdisk -d d7,d8 rawdg Remove the automatically created device groups from the partner cluster. phys-newyork-1# cldevicegroup disable dsk/d5 dsk/d6 phys-newyork-1# cldevicegroup offline dsk/d5 dsk/d6 phys-newyork-1# cldevicegroup delete dsk/d5 dsk/d6 Create the raw-disk device group on the partner cluster. phys-newyork-1# cldevicegroup create -n phys-newyork-1,phys-newyork-2 \ -t rawdisk -d d5,d6 rawdg Add the raw-disk device group to the protection group rawpg. phys-paris-1# geopg create -d truecopy -p Nodelist=phys-paris-1,phys-paris-2 \ -o Primary -p cluster_dgs=rawdg -s paris-newyork-ps rawpg |
파트너 클러스터를 구성할 때 여기서 작성한 것과 동일한 이름의 원시 디스크 장치 그룹을 작성합니다. 이 작업에 대한 지침은 원시 디스크 장치 그룹을 사용할 경우 기본 클러스터에서 구성 정보를 복제하는 방법을 참조하십시오.
두 클러스터에 장치 그룹을 구성하면 geopg와 같은 Sun Cluster Geographic Edition 명령에 필요할 때 언제든지 장치 그룹 이름을 사용할 수 있습니다.
Hitachi TrueCopy는 VERITAS Volume Manager 볼륨 및 원시 디스크 장치 그룹을 지원합니다. VERITAS Volume Manager를 사용할 경우, 디스크 d1 및 d2에 VERITAS Volume Manager 볼륨을 구성해야 합니다.
저장소 기반 복제를 사용할 경우, 복제된 볼륨을 쿼럼 장치로서 구성하지 마십시오. Sun Cluster Geographic Edition 소프트웨어는 Hitachi TrueCopy S-VOL 및 명령 장치를 Sun Cluster 쿼럼 장치로서 지원하지 않습니다. 자세한 내용은 Sun Cluster System Administration Guide for Solaris OS의 Using Storage-Based Data Replication을 참조하십시오.
cluster-paris의 공유 디스크에 VERITAS Volume Manager 디스크 그룹을 작성합니다.
예를 들어, d1 및 d2 디스크가 vxdiskadm 및 vxdg 등의 명령을 사용하여 oradg1이라는 VERITAS Volume Manager 디스크 그룹의 일부로서 구성됩니다.
구성이 완료된 후 vxdg list 명령을 사용하여 디스크 그룹이 작성되었는지 확인합니다.
이 명령을 실행하면 목록에 oradg1이 디스크 그룹으로서 나열되어야 합니다.
VERITAS Volume Manager 볼륨을 작성합니다.
예를 들어 vol1이라는 볼륨이 oradg1 디스크 그룹에 작성됩니다. vxassist와 같은 적당한 VERITAS Volume Manager 명령이 볼륨을 구성하는 데 사용됩니다.
구성을 완료하려면 Hitachi TrueCopy 소프트웨어로 제어되는 Sun Cluster 장치 그룹 구성 방법으로 진행하여 이 디스크 그룹에 대한 Sun Cluster 장치 그룹을 작성합니다.
저장소 기반 복제를 사용할 경우, 복제된 볼륨을 쿼럼 장치로서 구성하지 마십시오. Sun Cluster Geographic Edition 소프트웨어는 Hitachi TrueCopy S-VOL 및 명령 장치를 Sun Cluster 쿼럼 장치로서 지원하지 않습니다. 자세한 내용은 Sun Cluster System Administration Guide for Solaris OS의 Using Storage-Based Data Replication을 참조하십시오.
이전 절차에서 구성한 VERITAS Volume Manager 디스크 그룹을 등록합니다.
Sun Cluster 명령 cldevicegroup을 사용합니다.
이 명령에 대한 자세한 내용은 cldevicegroup(1CL) 매뉴얼 페이지를 참조하십시오.
클러스터의 각 노드에 마운트 디렉토리를 만듭니다.
phys-newyork-1# mkdir -p /mounts/sample phys-newyork-2# mkdir -p /mounts/sample |
다시 cldevicegroup 명령을 사용하여 VERITAS Volume Manager 구성을 Sun Cluster 소프트웨어와 동기화합니다.
구성이 완료된 후 디스크 그룹 등록을 검증합니다.
# cldevicegroup status |
VERITAS Volume Manager 디스크 그룹 oradg1이 출력에 표시되어야 합니다.
cldevicegroup 명령에 대한 자세한 내용은 cldevicegroup(1CL) 매뉴얼 페이지를 참조하십시오.
cluster-paris에 파일 시스템을 구성하기 전에, 응용 프로그램 자원 그룹, 장치 그룹 및 마운트 지점 같이 사용자에게 필요한 Sun Cluster 엔티티가 이미 구성되었는지 확인합니다.
저장소 기반 복제를 사용할 경우, 복제된 볼륨을 쿼럼 장치로서 구성하지 마십시오. Sun Cluster Geographic Edition 소프트웨어는 Hitachi TrueCopy S-VOL 및 명령 장치를 Sun Cluster 쿼럼 장치로서 지원하지 않습니다. 자세한 내용은 Sun Cluster System Administration Guide for Solaris OS의 Using Storage-Based Data Replication을 참조하십시오.
명령행에서 vol1 볼륨에 필수 파일 시스템을 작성합니다.
/etc/vfstab 파일에 마운트 위치 같은 정보가 들어있는 항목을 추가합니다.
파일 시스템이 로컬로 또는 전역으로 마운트될지 여부는 사용자의 성능 요구사항이나 사용 중인 응용 프로그램 자원 그룹의 유형 같은 다양한 요소에 달려있습니다.
이 파일의 mount at boot 필드를 no로 설정해야 합니다. 이 값은 파일 시스템이 클러스터 시작 시 보조 클러스터에 마운트하는 것을 방지합니다. 대신 응용 프로그램이 기본 클러스터에서 온라인 상태로 될 때 Sun Cluster 소프트웨어 및 Sun Cluster Geographic Edition 프레임워크는 HAStoragePlus 자원을 사용하여 파일 시스템을 마운트합니다. 데이터는 보조 클러스터에 마운트되지 않아야 합니다. 그렇지 않으면 데이터가 기본 클러스터에서 보조 클러스터로 복제되지 않습니다.
HAStoragePlus 자원을 응용 프로그램 자원 그룹 apprg1에 추가합니다.
이 자원을 응용 프로그램 자원 그룹에 추가하면 응용 프로그램이 온라인이 되기 전에 필요한 파일 시스템이 다시 마운트됩니다.
HAStoragePlus 자원 유형에 대한 자세한 내용은 Sun Cluster Data Services Planning and Administration Guide for Solaris OS를 참조하십시오.
이 예는 apprg1 자원 그룹이 이미 존재한다고 가정합니다.
UNIX 파일 시스템(UFS)을 작성합니다.
phys-paris-1# newfs dev/vx/dsk/oradg1/vol1 |
다음 항목은 /etc/vfstab 파일에 작성됩니다.
# /dev/vs/dsk/oradg1/vol1 /dev/vx/rdsk/oradg1/vol1 /mounts/sample \ ufs 2 no logging |
HAStoragePlus 자원 유형을 추가합니다.
phys-paris-1# clresource create -g apprg1 -t SUNW.HAStoragePlus \ -p FilesystemMountPoints=/mounts/sample -p Affinityon=TRUE \ -p GlobalDevicePaths=oradg1 rs-has |
이 절에서는 Sun Cluster Geographic Edition 소프트웨어에서 Hitachi TrueCopy 데이터 복제를 구성하기 전에 보조 클러스터에서 수행해야 하는 단계를 설명합니다.
Hitachi 어레이에 액세스하는 클러스터의 각 노드에서 /etc/horcm.conf 파일을 편집하여 기본 클러스터에서 실행한 것처럼 보조 클러스터의 공유 디스크에 Hitachi TrueCopy 장치 그룹을 구성해야 합니다. 디스크 d1 및 d2는 devgroup1이라는 Hitachi TrueCopy 장치 그룹에 속하도록 구성됩니다. 응용 프로그램 apprg1은 Hitachi TrueCopy 장치 그룹이 구성된 모든 노드에서 실행할 수 있습니다.
/etc/horcm.conf 파일을 구성하는 방법에 대한 자세한 내용은 Sun StorEdge SE 9900 V Series Command and Control Interface User and Reference Guide를 참조하십시오.
다음 표는 /etc/horcm.conf 파일에 있는 본 예제의 구성 정보를 설명합니다.
표 1–3 보조 클러스터의 /etc/horcm.conf 파일 절 예
dev_group |
dev_name |
port number |
TargetID |
LU number |
MU number |
devgroup1 |
pair1 |
CL1–C |
0 |
20 | |
devgroup1 |
pair2 |
CL1–C |
0 |
21 |
표에 있는 구성 정보는 Hitachi TrueCopy 장치 그룹 devgroup1이 두 쌍을 포함하고 있음을 표시합니다. 첫 번째 쌍인 pair1은 d1 디스크에서 오며 튜플 <CL1–C , 0, 20>으로 식별됩니다. 두 번째 쌍인 pair2는 d2 디스크에서 오며 튜플 <CL1–C, 0, 21>로 식별됩니다.
보조 클러스터에서 /etc/horcm.conf 파일을 구성한 후 다음과 같이 pairdisplay 명령을 사용하여 쌍의 상태를 볼 수 있습니다.
phys-paris-1# pairdisplay -g devgroup1 Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M devgroup1 pair1(L) (CL1-A , 0, 1) 54321 1.. SMPL ---- ------,----- ---- - devgroup1 pair1(R) (CL1-C , 0, 20)12345 609..SMPL ---- ------,----- ---- - devgroup1 pair2(L) (CL1-A , 0, 2) 54321 2.. SMPL ---- ------,----- ---- - devgroup1 pair2(R) (CL1-C , 0, 21)12345 610..SMPL ---- ------,----- ---- - |
다음으로, 볼륨 관리자, Sun Cluster 장치 그룹 및 고가용성 클러스터 파일 시스템을 구성해야 합니다. 이 절차는 VERITAS Volume Manager 또는 원시 디스크 장치 그룹의 사용 여부에 따라 약간 달라집니다. 다음 절차는 지침을 제공합니다.
저장소 기반 복제를 사용할 경우, 복제된 볼륨을 쿼럼 장치로서 구성하지 마십시오. Sun Cluster Geographic Edition 소프트웨어는 Hitachi TrueCopy S-VOL 및 명령 장치를 Sun Cluster 쿼럼 장치로서 지원하지 않습니다. 자세한 내용은 Sun Cluster System Administration Guide for Solaris OS의 Using Storage-Based Data Replication을 참조하십시오.
devgroup1 장치 그룹에 대한 복제를 시작합니다.
phys-paris-1# paircreate -g devgroup1 -vl -f async phys-paris-1# pairdisplay -g devgroup1 Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M devgroup1 pair1(L) (CL1-A , 0, 1) 54321 1..P-VOL COPY ASYNC ,12345 609 - devgroup1 pair1(R) (CL1-C , 0, 20)12345 609..S-VOL COPY ASYNC ,----- 1 - devgroup1 pair2(L) (CL1-A , 0, 2) 54321 2..P-VOL COPY ASYNC ,12345 610 - devgroup1 pair2(R) (CL1-C , 0, 21)12345 610..S-VOL COPY ASYNC ,----- 2 - |
보조 클러스터에서 해당 쌍의 상태가 PAIR가 되기를 기다립니다.
phys-newyork-1# pairdisplay -g devgroup1 Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M devgroup1 pair1(L) (CL1-C , 0, 20)12345 609..S-VOL PAIR ASYNC,-----, 1 - devgroup1 pair1(R) (CL1-A , 0, 1) 54321 1..P-VOL PAIR ASYNC,12345, 609 - devgroup1 pair2(L) (CL1-C , 0, 21)12345 610..S-VOL PAIR ASYNC,-----, 2 - devgroup1 pair2(R) (CL1-A , 0, 2)54321 2..P-VOL PAIR ASYNC,12345, 610 - |
pairsplit 명령을 사용하여 쌍을 분리하고 -rw 옵션을 사용하여 cluster-newyork의 보조 볼륨이 쓰기 가능한지 확인합니다.
phys-newyork-1# pairsplit -g devgroup1 -rw phys-newyork-1# pairdisplay -g devgroup1 Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M devgroup1 pair1(L) (CL1-C , 0, 20)12345 609..S-VOL SSUS ASYNC, ----- 1 - devgroup1 pair1(R) (CL1-A , 0, 1) 54321 1..P-VOL PSUS ASYNC,12345 609 W devgroup1 pair2(L) (CL1-C , 0,21) 12345 610..S-VOL SSUS ASYNC,----- 2 - devgroup1 pair2(R) (CL1-A , 0, 2) 54321 2..P-VOL PSUS ASYNC,12345 610 W |
VERITAS Volume Manager 디스크 그룹 oradg1을 가져옵니다.
phys-newyork-1# vxdg -C import oradg1 |
VERITAS Volume Manager 디스크 그룹을 성공적으로 가져왔는지 확인합니다.
phys-newyork-1# vxdg list |
VERITAS Volume Manager 볼륨을 활성화합니다.
phys-newyork-1# /usr/sbin/vxrecover -g oradg1 -s -b |
VERITAS Volume Manager 볼륨이 인식되고 사용 가능한지 확인합니다.
phys-newyork-1# vxprint |
VERITAS Volume Manager 디스크 그룹 oradg1을 Sun Cluster에 등록합니다.
phys-newyork-1# cldevicegroup create -t vxvm -n phys-newyork-1,phys-newyork-2 oradg1 |
볼륨 관리자 정보를 Sun Cluster 장치 그룹과 동기화하고 출력을 확인합니다.
phys-newyork-1# cldevicegroup sync oradg1 phys-newyork-1# cldevicegroup status |
phys-newyork-1의 /etc/vfstab 파일에 항목을 추가합니다.
phys-newyork-1# /dev/vx/dsk/oradg1/vol1 /dev/vx/rdsk/oradg1/vol1 \ /mounts/sample ufs 2 no logging |
phys-newyork-1에 마운트 디렉토리를 작성합니다.
phys-newyork-1# mkdir -p /mounts/sample |
scrgadm 명령을 사용하여 응용 프로그램 자원 그룹 apprg1을 작성합니다.
phys-newyork-1# clresourcegroup create apprg1 |
apprg1에 HAStoragePlus 자원을 작성합니다.
phys-newyork-1# clresource create -g apprg1 -t SUNW.HAStoragePlus \ -p FilesystemMountPoints=/mounts/sample -p Affinityon=TRUE \ -p GlobalDevicePaths=oradg1 rs-hasp |
해당 소프트웨어는 보호 그룹이 기본 클러스터에서 시작될 때 장치 그룹과 파일 시스템을 온라인으로 전환하는 자원에 의존하므로 Sun Cluster Geographic Edition 시스템에 이 HAStoragePlus 자원이 필요합니다.
필요한 경우 응용 프로그램 자원 그룹을 온라인으로 만든 후 다시 오프라인으로 만들어서 올바르게 구성되었는지 확인합니다.
phys-newyork-1# clresourcegroup switch -emM -n phys-newyork-1 apprg1 phs-newyork-1# clresourcegroup offline apprg1 |
파일 시스템을 마운트 해제합니다.
phys-newyork-1# umount /mounts/sample |
Sun Cluster 장치 그룹을 오프라인으로 만듭니다.
phys-newyork-1# cldevicegroup offline oradg1 |
VERITAS Volume Manager 디스크 그룹이 추방되었는지 확인합니다.
phys-newyork-1# vxdg list |
Hitachi TrueCopy 쌍을 다시 설정합니다.
phys-newyork-1# pairresync -g devgroup1 phys-newyork-1# pairdisplay -g devgroup1 Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M devgroup1 pair1(L) (CL1-C , 0, 20)12345 609..S-VOL PAIR ASYNC,----- 1 - devgroup1 pair1(R) (CL1-A , 0, 1) 54321 1..P-VOL PAIR ASYNC,12345 609 W devgroup1 pair2(L) (CL1-C , 0,21) 12345 610..S-VOL PAIR ASYNC,----- 2 - devgroup1 pair2(R) (CL1-A , 0, 2) 54321 2..P-VOL PAIR ASYNC,12345 610 W |
보조 클러스터의 초기 구성이 이제 완료되었습니다.
이 작업은 VERITAS Volume Manager 명령인 vxdiskadm 및 vxassist 명령을 사용하여 기본 클러스터 cluster-paris에서 보조 클러스터 cluster-newyork의 LUN으로 볼륨 관리자 구성을 복사합니다.
이 절차 내내 장치 그룹 devgroup1이 SMPL 상태에 있어야 합니다.
쌍이 SMPL 상태에 있는지 확인합니다.
phys-newyork-1# pairdisplay -g devgroup1 Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M devgroup1 pair1(L) (CL1-C , 0, 20)12345 609..SMPL ---- ------,----- ---- - devgroup1 pair1(R) (CL1-A , 0, 1) 54321 1..SMPL ---- ------,----- ---- - devgroup1 pair2(L) (CL1-C , 0, 21)12345 610..SMPL ---- ------,----- ---- - devgroup1 pair2(R) (CL1-A, 0, 2) 54321 2..SMPL ---- ------,----- ---- - |
cluster-paris의 공유 디스크에 VERITAS Volume Manager 디스크 그룹을 작성합니다.
예를 들어, d1 및 d2 디스크가 vxdiskadm 및 vxdg 등의 명령을 사용하여 oradg1이라는 VERITAS Volume Manager 디스크 그룹의 일부로서 구성됩니다.
구성이 완료된 후 vxdg list 명령을 사용하여 디스크 그룹이 작성되었는지 확인합니다.
이 명령을 실행하면 목록에 oradg1이 디스크 그룹으로서 나열되어야 합니다.
VERITAS Volume Manager 볼륨을 작성합니다.
예를 들어 vol1이라는 볼륨이 oradg1 디스크 그룹에 작성됩니다. vxassist와 같은 적당한 VERITAS Volume Manager 명령이 볼륨을 구성하는 데 사용됩니다.
VERITAS Volume Manager 디스크 그룹을 가져옵니다.
phys-newyork-1# vxdg -C import oradg1 |
VERITAS Volume Manager 디스크 그룹을 성공적으로 가져왔는지 확인합니다.
phys-newyork-1# vxdg list |
VERITAS Volume Manager 볼륨을 활성화합니다.
phys-newyork-1# /usr/sbin/vxrecover -g oradg1 -s -b |
VERITAS Volume Manager 볼륨이 인식되고 사용 가능한지 확인합니다.
phys-newyork-1# vxprint |
VERITAS Volume Manager 디스크 그룹 oradg1을 Sun Cluster에 등록합니다.
phys-newyork-1# cldevicegroup create -t vxvm -n phys-newyork-1,phys-newyork-2 oradg1 |
VERITAS Volume Manager 정보를 Sun Cluster 장치 그룹과 동기화하고 출력을 확인합니다.
phys-newyork-1# cldevicegroup sync oradg1 phys-newyork-1# cldevicegroup status |
UNIX 파일 시스템을 작성합니다.
phys-newyork-1# newfs dev/vx/dsk/oradg1/vol1 |
phys-newyork-1의 /etc/vfstab 파일에 항목을 추가합니다.
/dev/vx/dsk/oradg1/vol1 /dev/vx/rdsk/oradg1/vol1 /mounts/sample ufs 2 no logging |
phys-newyork-1에 마운트 디렉토리를 작성합니다.
phys-newyork-1# mkdir -p /mounts/sample |
clresourcegroup 명령을 사용하여 응용 프로그램 자원 그룹 apprg1을 작성합니다.
phys-newyork-1# clresourcegroup create apprg1 |
apprg1에 HAStoragePlus 자원을 작성합니다.
phys-newyork-1# clresource create -g apprg1 -t SUNW.HAStoragePlus \ -p FilesystemMountPoints=/mounts/sample -p Affinityon=TRUE \ -p GlobalDevicePaths=oradg1 rs-hasp |
해당 소프트웨어는 보호 그룹이 기본 클러스터에서 시작될 때 장치 그룹과 파일 시스템을 온라인으로 전환하는 자원에 의존하므로 Sun Cluster Geographic Edition 시스템에 이 HAStoragePlus 자원이 필요합니다.
필요한 경우 응용 프로그램 자원 그룹을 온라인으로 만든 후 다시 오프라인으로 만들어서 올바르게 구성되었는지 확인합니다.
phys-newyork-1# clresourcegroup switch -emM -n phys-newyork-1 apprg1 phs-newyork-1# clresourcegroup offline apprg1 |
파일 시스템을 마운트 해제합니다.
phys-newyork-1# umount /mounts/sample |
Sun Cluster 장치 그룹을 오프라인으로 만듭니다.
phys-newyork-1# cldevicegroup offline oradg1 |
VERITAS Volume Manager 디스크 그룹이 추방되었는지 확인합니다.
phys-newyork-1# vxdg list |
쌍이 여전히 SMPL 상태에 있는지 확인합니다.
phys-newyork-1# pairdisplay -g devgroup1 Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M devgroup1 pair1(L) (CL1-C , 0, 20)12345 609..SMPL ---- ------,----- ---- - devgroup1 pair1(R) (CL1-A , 0, 1) 54321 1..SMPL ---- ------,----- ---- - devgroup1 pair2(L) (CL1-C , 0, 21)12345 610..SMPL ---- ------,----- ---- - devgroup1 pair2(R) (CL1-A, 0, 2) 54321 2..SMPL ---- ------,----- ---- - |
저장소 기반 복제를 사용할 경우, 복제된 볼륨을 쿼럼 장치로서 구성하지 마십시오. Sun Cluster Geographic Edition 소프트웨어는 Hitachi TrueCopy S-VOL 및 명령 장치를 Sun Cluster 쿼럼 장치로서 지원하지 않습니다. 자세한 내용은 Sun Cluster System Administration Guide for Solaris OS의 Using Storage-Based Data Replication을 참조하십시오.
devgroup1 장치 그룹에 대한 복제를 시작합니다.
phys-paris-1# paircreate -g devgroup1 -vl -f async phys-paris-1# pairdisplay -g devgroup1 Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M devgroup1 pair1(L) (CL1-A , 0, 1) 54321 1..P-VOL COPY ASYNC ,12345 609 - devgroup1 pair1(R) (CL1-C , 0, 20)12345 609..S-VOL COPY ASYNC ,----- 1 - devgroup1 pair2(L) (CL1-A , 0, 2) 54321 2..P-VOL COPY ASYNC ,12345 610 - devgroup1 pair2(R) (CL1-C , 0, 21)12345 610..S-VOL COPY ASYNC ,----- 2 - |
보조 클러스터에서 해당 쌍의 상태가 PAIR가 되기를 기다립니다.
phys-newyork-1# pairdisplay -g devgroup1 Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M devgroup1 pair1(L) (CL1-C , 0, 20)12345 609..S-VOL PAIR ASYNC,-----, 1 - devgroup1 pair1(R) (CL1-A , 0, 1) 54321 1..P-VOL PAIR ASYNC,12345, 609 - devgroup1 pair2(L) (CL1-C , 0, 21)12345 610..S-VOL PAIR ASYNC,-----, 2 - devgroup1 pair2(R) (CL1-A , 0, 2)54321 2..P-VOL PAIR ASYNC,12345, 610 - |
pairsplit 명령을 사용하여 쌍을 분리하고 -rw 옵션을 사용하여 cluster-newyork의 보조 볼륨이 쓰기 가능한지 확인합니다.
phys-newyork-1# pairsplit -g devgroup1 -rw phys-newyork-1# pairdisplay -g devgroup1 Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M devgroup1 pair1(L) (CL1-C , 0, 20)12345 609..S-VOL SSUS ASYNC, ----- 1 - devgroup1 pair1(R) (CL1-A , 0, 1) 54321 1..P-VOL PSUS ASYNC,12345 609 W devgroup1 pair2(L) (CL1-C , 0,21) 12345 610..S-VOL SSUS ASYNC,----- 2 - devgroup1 pair2(R) (CL1-A , 0, 2) 54321 2..P-VOL PSUS ASYNC,12345 610 W |
파트너 클러스터에 원시 디스크 장치 그룹을 작성합니다.
기본 클러스터에서 사용한 장치 그룹 이름과 동일한 장치 그룹 이름을 사용합니다.
각 클러스터에서 동일한 DID를 사용할 수 있습니다. 다음 명령에서 newyork 클러스터는 paris 클러스터의 파트너 클러스터입니다.
phys-newyork-1# cldevicegroup disable dsk/d5 dsk/d6 phys-newyork-1# cldevicegroup offline dsk/d5 dsk/d6 phys-newyork-1# cldevicegroup delete dsk/d5 dsk/d6 phys-newyork-1# cldevicegroup create -n phys-newyork-1,phys-newyork-2 \ -t rawdisk -d d5,d6 rawdg phys-newyork-1# /usr/cluster/lib/dcs/dgconv -d d5 rawdg phys-newyork-1# /usr/cluster/lib/dcs/dgconv -d d6 rawdg |
볼륨 관리자 정보를 Sun Cluster 장치 그룹과 동기화하고 출력을 확인합니다.
phys-newyork-1# cldevicegroup sync rawdg1 phys-newyork-1# cldevicegroup status |
newyork 클러스터에 있는 각 노드의 /etc/vfstab 파일에 항목을 추가합니다.
/dev/global/dsk/d5s2 /dev/global/rdsk/d5s2 /mounts/sample ufs 2 no logging |
newyork 클러스터의 각 노드에 마운트 디렉토리를 작성합니다.
phys-newyork-1# mkdir -p /mounts/sample phys-newyork-2# mkdir -p /mounts/sample |
clresourcegroup 명령을 사용하여 응용 프로그램 자원 그룹 apprg1을 작성합니다.
phys-newyork-1# clresourcegroup create apprg1 |
apprg1에 HAStoragePlus 자원을 작성합니다.
phys-newyork-1# clresource create -g apprg1 -t SUNW.HAStoragePlus \ -p FilesystemMountPoints=/mounts/sample -p Affinityon=TRUE \ -p GlobalDevicePaths=rawdg1 rs-hasp |
해당 소프트웨어는 보호 그룹이 기본 클러스터에서 시작될 때 장치 그룹과 파일 시스템을 온라인으로 전환하는 자원에 의존하므로 Sun Cluster Geographic Edition 시스템에 이 HAStoragePlus 자원이 필요합니다.
필요한 경우 응용 프로그램 자원 그룹을 온라인으로 만든 후 다시 오프라인으로 만들어서 올바르게 구성되었는지 확인합니다.
phys-newyork-1# clresourcegroup switch -emM -n phys-newyork-1 apprg1 phs-newyork-1# clresourcegroup offline apprg1 |
파일 시스템을 마운트 해제합니다.
phys-newyork-1# umount /mounts/sample |
Sun Cluster 장치 그룹을 오프라인으로 만듭니다.
phys-newyork-1# cldevicegroup offline rawdg1 |
Hitachi TrueCopy 쌍을 다시 설정합니다.
phys-newyork-1# pairresync -g devgroup1 phys-newyork-1# pairdisplay -g devgroup1 Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M devgroup1 pair1(L) (CL1-C , 0, 20)12345 609..S-VOL PAIR ASYNC,----- 1 - devgroup1 pair1(R) (CL1-A , 0, 1) 54321 1..P-VOL PAIR ASYNC,12345 609 W devgroup1 pair2(L) (CL1-C , 0,21) 12345 610..S-VOL PAIR ASYNC,----- 2 - devgroup1 pair2(R) (CL1-A , 0, 2) 54321 2..P-VOL PAIR ASYNC,12345 610 W |
보조 클러스터의 초기 구성이 이제 완료되었습니다.