이 장에서는 Hitachi TrueCopy 소프트웨어를 사용한 데이터 복제 구성 및 관리 절차를 설명합니다. 이 장은 다음 항목으로 구성되어 있습니다.
보호 그룹을 작성하기 전에 다음의 전략을 고려하십시오.
보호 그룹 작성 전 응용 프로그램을 오프라인으로 전환
이 전략은 단일 명령을 사용하여 한 클러스터에 보호 그룹을 작성하고 다른 클러스터의 정보를 검색하고 보호 그룹을 시작하기 때문에 가장 간단합니다. 그러나 프로세스가 끝날 때까지 보호 그룹이 온라인이 되지 않기 때문에 응용 프로그램 자원 그룹을 보호 그룹에 추가하기 위해서 오프라인으로 전환해야 합니다.
응용 프로그램이 온라인인 상태에서 보호 그룹 작성
이 전략으로 어떤 응용 프로그램 부족 없이 보호 그룹을 작성할 수 있지만, 더 많은 명령을 발행해야 합니다.
다음 절은 각 전략의 단계에 대해 설명합니다.
응용 프로그램 자원 그룹이 오프라인 상태에서 보호 그룹을 작성하려면 다음 단계를 완료합니다.
클러스터 노드에서 보호 그룹을 작성합니다.
자세한 내용은 Oracle Real Application Clusters를 사용하지 않는 Hitachi TrueCopy 보호 그룹 작성 및 구성 방법을 참조하십시오.
보호 그룹에 데이터 복제 장치 그룹을 추가합니다.
자세한 정보는 Hitachi TrueCopy 보호 그룹에 데이터 복제 장치 그룹을 추가하는 방법을 참조하십시오.
응용 프로그램 자원 그룹을 오프라인으로 전환합니다.
보호 그룹에 응용 프로그램 자원 그룹을 추가합니다.
자세한 정보는 Hitachi TrueCopy 보호 그룹에 응용 프로그램 자원 그룹을 추가하는 방법을 참조하십시오.
다른 클러스터에서 보호 그룹 구성을 검색합니다.
자세한 내용은 Hitachi TrueCopy 보호 그룹 구성을 보조 클러스터에 복제하는 방법을 참조하십시오.
어느 한 클러스터에서 보호 그룹을 전역으로 시작합니다.
자세한 정보는 Hitachi TrueCopy 보호 그룹 활성화 방법을 참조하십시오.
응용 프로그램을 오프라인으로 전환하지 않고 새 보호 그룹에 기존 응용 프로그램 자원 그룹을 추가하려면 응용 프로그램 자원 그룹이 온라인 상태인 클러스터에서 다음 단계를 완료합니다.
클러스터 노드에서 보호 그룹을 작성합니다.
자세한 내용은 Oracle Real Application Clusters를 사용하지 않는 Hitachi TrueCopy 보호 그룹 작성 및 구성 방법을 참조하십시오.
보호 그룹에 데이터 복제 장치 그룹을 추가합니다.
자세한 정보는 Hitachi TrueCopy 보호 그룹에 데이터 복제 장치 그룹을 추가하는 방법을 참조하십시오.
보호 그룹을 로컬로 시작합니다.
자세한 정보는 Hitachi TrueCopy 보호 그룹 활성화 방법을 참조하십시오.
보호 그룹에 응용 프로그램 자원 그룹을 추가합니다.
자세한 정보는 Hitachi TrueCopy 보호 그룹에 응용 프로그램 자원 그룹을 추가하는 방법을 참조하십시오.
다른 클러스터에서 다음 단계를 완료합니다.
보호 그룹 구성을 검색합니다.
자세한 내용은 Hitachi TrueCopy 보호 그룹 구성을 보조 클러스터에 복제하는 방법을 참조하십시오.
보호 그룹을 전역으로 활성화합니다.
자세한 정보는 Hitachi TrueCopy 보호 그룹 활성화 방법을 참조하십시오.
이 예에서는 응용 프로그램을 오프라인으로 만들지 않고 보호 그룹을 작성합니다.
이 예에서, apprg1 자원 그룹은 cluster-paris 클러스터에서 온라인입니다.
cluster-paris에 보호 그룹을 작성합니다.
phys-paris-1# geopg create -d truecopy -p Nodelist=phys-paris-1,phys-paris-2 \ -o Primary -s paris-newyork-ps tcpg Protection group "tcpg" has been successfully created |
보호 그룹에 장치 그룹 tcdg를 추가합니다.
phys-paris-1# geopg add-device-group -p fence_level=async tcdg tcpg |
보호 그룹을 전역으로 활성화합니다.
phys-paris-1# geopg start -e local tcpg Processing operation.... this may take a while.... Protection group "tcpg" successfully started. |
보호 그룹에 이미 온라인 상태인 응용 프로그램 자원 그룹을 추가합니다.
phys-paris-1# geopg add-resource-group apprg1 tcpg Following resource groups were successfully inserted: "apprg1" |
응용 프로그램 자원 그룹이 성공적으로 추가되었는지 확인합니다.
phys-paris-1# geoadm status Cluster: cluster-paris Partnership "paris-newyork-ps" : OK Partner clusters : newyork Synchronization : OK ICRM Connection : OK Heartbeat "hb_cluster-paris~cluster-newyork" monitoring \ "paris-newyork-ps" OK Plug-in "ping-plugin" : Inactive Plug-in "tcp_udp_plugin" : OK Protection group "tcpg" : Degraded Partnership : paris-newyork-ps Synchronization : OK Cluster cluster-paris : Degraded Role : Primary Configuration : OK Data replication : Degraded Resource groups : OK Cluster cluster-newyork : Unknown Role : Unknown Configuration : Unknown Data Replication : Unknown Resource Groups : Unknown |
파트너 클러스터의 한 노드에서 보호 그룹을 검색합니다.
phys-newyork-1# geopg get -s paris-newyork-ps tcpg Protection group "tcpg" has been successfully created. |
파트너 클러스터에서 로컬로 보호 그룹을 활성화합니다.
phys-newyork-1# geopg start -e local tcpg Processing operation.... this may take a while.... Protection group "tcpg" successfully started. |
보호 그룹이 성공적으로 작성되고 활성화되었는지 확인합니다.
cluster-paris에서 geoadm status 명령을 실행하면 다음 출력이 생성됩니다.
phys-paris-1# geoadm status Cluster: cluster-paris Partnership "paris-newyork-ps" : OK Partner clusters : newyork Synchronization : OK ICRM Connection : OK Heartbeat "hb_cluster-paris~cluster-newyork" monitoring \ "paris-newyork-ps": OK Plug-in "ping-plugin" : Inactive Plug-in "tcp_udp_plugin" : OK Protection group "tcpg" : Degraded Partnership : paris-newyork-ps Synchronization : OK Cluster cluster-paris : Degraded Role : Primary Configuration : OK Data replication : Degraded Resource groups : OK Cluster cluster-newyork : Degraded Role : Secondary Configuration : OK Data Replication : Degraded Resource Groups : OK |
이 절에는 다음 작업에 필요한 절차가 포함되어 있습니다.
데이터 복제를 사용하도록 구성되지 않은 보호 그룹을 작성할 수 있습니다. 데이터 복제 서브시스템을 사용하지 않는 보호 그룹을 작성하려면 geopg 명령을 사용할 때 -d datareplicationtype 옵션을 생략합니다. geoadm status 명령은 이들 보호 그룹에 대해 Degraded 상태를 표시합니다.
자세한 내용은 Sun Cluster Geographic Edition System Administration Guide의 Sun Cluster Geographic Edition 시스템 관리 설명서의 데이터 복제가 필요하지 않은 보호 그룹 작성을 참조하십시오.
Hitachi TrueCopy 보호 그룹을 작성 및 구성하려면 이 작업의 단계를 사용합니다. Oracle Real Application Clusters를 사용하려는 경우, Oracle Real Application Clusters에 대한 보호 그룹 작성 방법을 참조하십시오.
보호 그룹을 작성하기 전에 다음 조건이 만족되는지 확인하십시오.
로컬 클러스터가 파트너쉽의 구성원입니다.
작성 중인 보호 그룹이 아직 존재하지 않습니다.
보호 그룹 이름이 전역 Sun Cluster Geographic Edition 이름공간에서 고유합니다. 동일한 시스템의 두 파트너쉽에서 동일한 보호 그룹 이름을 사용할 수 없습니다.
보호 그룹의 기존 구성을 또한 원격 클러스터에서 로컬 클러스터로 복제할 수 있습니다. 자세한 내용은 보조 클러스터에 Hitachi TrueCopy 보호 그룹 구성 복제를 참조하십시오.
클러스터 노드에 로그인합니다.
이 절차를 완료하려면 Geo Management RBAC 권리 프로파일이 지정되어야 합니다. RBAC에 대한 자세한 내용은 Sun Cluster Geographic Edition 시스템 관리 설명서의 Sun Cluster Geographic Edition 소프트웨어와 RBAC를 참조하십시오.
geopg create 명령을 사용하여 새 보호 그룹을 작성합니다.
이 명령은 로컬 클러스터의 모든 노드에 보호 그룹을 작성합니다.
# geopg create -s partnershipname -o localrole -d truecopy [-p property [-p...]] \ protectiongroupname |
파트너쉽의 이름을 지정합니다.
로컬 클러스터에서 이 보호 그룹의 역할을 primary 또는 secondary 중 하나로 지정합니다.
보호 그룹 데이터가 Hitachi TrueCopy 소프트웨어에 의해 복제되도록 지정합니다.
보호 그룹의 등록 정보를 지정합니다.
다음 등록 정보를 지정할 수 있습니다.
설명 – 보호 그룹을 설명합니다.
시간 초과 – 보호 그룹에 대한 시간 초과 기간을 초 단위로 지정합니다.
Nodelist – 복제 서브시스템에 대한 기본이 될 수 있는 시스템의 호스트 이름을 나열합니다.
Cluster_dgs – 데이터가 기록되는 장치 그룹을 나열합니다.
설정할 수 있는 등록 정보에 대한 자세한 내용은 Sun Cluster Geographic Edition 시스템 관리 설명서의 부록 A, 표준 Sun Cluster Geographic Edition 등록 정보를 참조하십시오.
보호 그룹의 이름을 지정합니다.
Sun Cluster Geographic Edition 소프트웨어에서 지원하는 이름 및 값에 대한 내용은 Sun Cluster Geographic Edition 시스템 관리 설명서의 부록 B, Sun Cluster Geographic Edition 엔티티의 합법적 이름 및 값를 참조하십시오.
geopg 명령에 대한 자세한 내용은 geopg(1M) 매뉴얼 페이지를 참조하십시오.
이 예에서는 기본 클러스터로 설정된 cluster-paris에서 Hitachi TrueCopy 보호 그룹을 작성합니다.
# geopg create -s paris-newyork-ps -o primary -d truecopy \ -p Nodelist=phys-paris-1,phys-paris-2 tcpg |
이 예에서는 현재 cluster-newyork에서 온라인인 응용 프로그램 자원 그룹 resourcegroup1에 대한 Hitachi TrueCopy 보호 그룹 tcpg를 작성합니다.
응용 프로그램 자원 그룹 없이 보호 그룹을 작성합니다.
# geopg create -s paris-newyork-ps -o primary -d truecopy \ -p nodelist=phys-paris-1,phys-paris-2 tcpg |
보호 그룹을 활성화합니다.
# geopg start -e local tcpg |
응용 프로그램 자원 그룹을 추가합니다.
# geopg add-resource-group resourcegroup1 tcpg |
Oracle Real Application Clusters에 대한 보호 그룹을 작성하기 전에 다음 조건이 만족되는지 확인하십시오.
보호 그룹의 노드 목록은 Oracle Real Application Clusters 프레임워크 자원 그룹의 노드 목록과 동일해야 합니다.
한 클러스터가 다른 클러스터와 다른 수의 노드에서 Oracle Real Application Clusters를 실행 중인 경우, 두 클러스터에 있는 모든 노드가 동일한 자원 그룹으로 정의되었는지 확인합니다.
모든 Oracle Real Application Clusters 서버 자원 그룹 및 모든 Oracle Real Application Clusters 수신기 자원 그룹이 동일한 보호 그룹에 속해야 합니다.
클러스터 볼륨 관리자를 사용하여 데이터를 관리하려면, cluster_dgs 등록 정보에서 기타 데이터 볼륨에 대한 클러스터 볼륨 관리자 디스크 그룹 및 Sun Cluster 장치 그룹을 지정해야 합니다.
클러스터 및 클러스터 볼륨 관리자 소프트웨어가 재시작되면 Oracle Real Application Clusters 프레임워크는 클러스터가 다운되기 전에 이미 가져온 모든 클러스터 볼륨 관리자 장치 그룹을 가져오려고 자동으로 시도합니다. 따라서 장치 그룹을 원래 기본 클러스터에 가져오려는 시도는 실패합니다.
기본 클러스터에서 클러스터 노드에 로그인합니다.
이 절차를 완료하려면 Geo Management RBAC 권리 프로파일이 지정되어야 합니다. RBAC에 대한 자세한 내용은 Sun Cluster Geographic Edition 시스템 관리 설명서의 Sun Cluster Geographic Edition 소프트웨어와 RBAC를 참조하십시오.
geopg create 명령을 사용하여 클러스터 볼륨 관리자 디스크 그룹을 포함하는 새 보호 그룹을 작성합니다.
이 명령은 로컬 클러스터의 모든 노드에 보호 그룹을 작성합니다.
# geopg create -s partnershipname -o localrole -d truecopy [-p property [-p...]] \ protectiongroupname |
파트너쉽의 이름을 지정합니다.
로컬 클러스터에서 이 보호 그룹의 역할을 primary로 지정합니다.
보호 그룹 데이터가 Hitachi TrueCopy 소프트웨어에 의해 복제되도록 지정합니다.
보호 그룹의 등록 정보를 지정합니다.
다음 등록 정보를 지정할 수 있습니다.
설명 – 보호 그룹을 설명합니다.
시간 초과 – 보호 그룹에 대한 시간 초과 기간을 초 단위로 지정합니다.
Nodelist – 복제 서브시스템에 대한 기본이 될 수 있는 시스템의 호스트 이름을 나열합니다.
Cluster_dgs – 데이터가 쓰여진 클러스터 볼륨 관리자 디스크 그룹을 지정합니다.
설정할 수 있는 등록 정보에 대한 자세한 내용은 Sun Cluster Geographic Edition 시스템 관리 설명서의 부록 A, 표준 Sun Cluster Geographic Edition 등록 정보를 참조하십시오.
보호 그룹의 이름을 지정합니다.
Sun Cluster Geographic Edition 소프트웨어에서 지원하는 이름 및 값에 대한 내용은 Sun Cluster Geographic Edition 시스템 관리 설명서의 부록 B, Sun Cluster Geographic Edition 엔티티의 합법적 이름 및 값를 참조하십시오.
geopg 명령에 대한 자세한 내용은 geopg(1M) 매뉴얼 페이지를 참조하십시오.
보호 그룹에 Hitachi TrueCopy 장치 그룹을 추가합니다.
# geopg add-device-group [-p property [-p...]] \ protectiongroupname |
보호 그룹의 등록 정보를 지정합니다.
디스크 장치 그룹에서 사용되는 경계 레벨을 정의하는 Fence_level 등록 정보를 지정할 수 있습니다. 경계 레벨은 해당 디스크 장치 그룹에 대한 기본 및 보조 볼륨 사이의 일관성 레벨을 결정합니다. 이를 never로 설정해야 합니다.
1차 클러스터의 응용프로그램 실패를 피하려면 never 또는 async의 Fence_level을 지정하십시오. Fence_level 매개변수가 never 또는 async로 설정되지 않은 상태에서 보조 사이트가 중지되는 경우 데이터 복제가 올바르게 작동하지 않을 수도 있습니다.
Fence_level을 never로 지정할 경우 인계를 수행한 후 데이터 복제 역할이 변경되지 않습니다.
특수 환경에서 이러한 값이 필요할 수도 있으므로 Fence_level 매개변수가 data 또는 status로 설정되는 것을 막는 프로그램을 사용하지 마십시오.
Fence_level을 data 또는 status로 설정하여 사용하기 위한 특수 요구 사항이 있는 경우, Sun 담당자에게 문의하십시오.
설정할 수 있는 등록 정보에 대한 자세한 내용은 Sun Cluster Geographic Edition 시스템 관리 설명서의 부록 A, 표준 Sun Cluster Geographic Edition 등록 정보를 참조하십시오.
보호 그룹의 이름을 지정합니다.
Oracle Real Application Clusters 프레임워크 자원 그룹, 모든 Oracle Real Application Clusters 서버 자원 그룹 및 모든 Oracle Real Application Clusters 수신기 자원 그룹을 보호 그룹에 추가합니다.
# geopg add-resource-group resourcegroup protectiongroupname |
보호 그룹에 추가하거나 보호 그룹에서 삭제하려면 쉼표로 구분된 자원 그룹 목록을 지정합니다. 지정된 자원 그룹이 이미 정의되었어야 합니다.
보호 그룹은 자원 그룹을 추가하기 전에 온라인이어야 합니다. 보호 그룹이 오프라인이고 추가될 자원 그룹이 온라인일 때 geopg add-resource-group 명령은 실패합니다.
사용자가 자원 그룹을 추가할 때 보호 그룹이 이미 시작된 경우 자원 그룹은 관리 해제 상태를 유지합니다. geopg start 명령을 실행하여 수동으로 자원 그룹을 시작해야 합니다.
보호 그룹의 이름을 지정합니다.
이 예에서는 Oracle Real Application Clusters 및 클러스터 볼륨 관리자를 사용하는 보호 그룹 pg1을 작성합니다.
클러스터 볼륨 관리자 디스크 그룹 oracle-dg는 Hitachi TrueCopy 장치 그룹 VG01에 의해 복제되는 데이터를 제어합니다. Oracle Real Application Clusters 프레임워크 자원 그룹의 노드 목록이 클러스터의 모든 노드로 설정됩니다.
클러스터 볼륨 관리자 디스크 그룹 oracle-dg를 사용하여 기본 클러스터의 보호 그룹을 작성합니다.
# geopg create -s pts1 -o PRIMARY -d Truecopy -p cluster_dgs=oracle-dg pg1 Protection group "pg1" successfully created. |
Hitachi TrueCopy 장치 그룹 VG01을 보호 그룹 pg1에 추가합니다.
# geopg add-device-group --property fence_level=never VG01 pg1 Device group "VG01" successfully added to the protection group "pg1". |
Oracle Real Application Clusters 프레임워크 자원 그룹 rac-framework-rg , 모든 Oracle Real Application Clusters 서버 자원 그룹 및 모든 Oracle Real Application Clusters 수신기 자원 그룹을 보호 그룹에 추가합니다.
# geopg add-resource-group rac-framework-rg,rac-server-rg1,\ rac-listener-rg1,rac-server-rg2,rac-listener-rg2 pg1 |
보호 그룹을 작성하기 전에 데이터 복제 계층이 horcmd 데몬이 실행 중인지 검증합니다.
데이터 복제 계층은 horcmd 데몬이 Nodelist 등록 정보에 지정된 노드 중 적어도 하나에서 실행 중인지 검증합니다. horcmd 데몬에 대한 자세한 내용은 Sun StorEdge SE 9900 V Series Command and Control Interface User and Reference Guide를 참조하십시오.
Cluster_dgs 등록 정보가 지정되면 데이터 복제 계층이 지정된 장치 그룹이 올바른 Sun Cluster 장치 그룹인지 검증합니다. 데이터 복제 계층은 또한 장치 그룹의 유형이 올바른지 검증합니다.
Cluster_dgs 등록 정보에 지정된 장치 그룹은 보호 그룹에 속하는 응용 프로그램에 의해서만 기록되어야 합니다. 이 등록 정보가 보호 그룹 밖의 응용 프로그램에서 정보를 수신하는 장치 그룹을 지정해서는 안됩니다.
Sun Cluster 자원 그룹은 보호 그룹이 작성될 때 자동으로 작성됩니다.
이 자원 그룹의 이 자원은 데이터 복제를 모니터합니다. Hitachi TrueCopy 데이터 복제 자원 그룹의 이름은 rg-tc- protectiongroupname입니다.
이러한 자동으로 작성된 복제 자원 그룹은 Sun Cluster Geographic Edition 내부 구현 목적만을 위한 것입니다. Sun Cluster 명령을 사용하여 이러한 자원 그룹을 수정할 때 주의하십시오.
보호 그룹의 구성을 수정하기 전에 수정하려는 보호 그룹이 로컬로 존재하는지 확인합니다.
클러스터 노드에 로그인합니다.
이 절차를 완료하려면 Geo Management RBAC 권리 프로파일이 지정되어야 합니다. RBAC에 대한 자세한 내용은 Sun Cluster Geographic Edition 시스템 관리 설명서의 Sun Cluster Geographic Edition 소프트웨어와 RBAC를 참조하십시오.
보호 그룹의 구성을 수정합니다.
이 명령은 로컬 클러스터의 모든 노드의 보호 그룹 등록 정보를 수정합니다. 파트너 클러스터에 동일한 이름의 보호 그룹이 있는 경우 이 명령은 또한 새 구성 정보를 파트너 클러스터로 전파합니다.
# geopg set-prop -p property [-p...] \ protectiongroupname |
보호 그룹의 등록 정보를 지정합니다.
설정할 수 있는 등록 정보에 대한 자세한 내용은 Sun Cluster Geographic Edition 시스템 관리 설명서의 부록 A, 표준 Sun Cluster Geographic Edition 등록 정보를 참조하십시오.
보호 그룹의 이름을 지정합니다.
Sun Cluster Geographic Edition 소프트웨어에서 지원하는 이름 및 값에 대한 내용은 Sun Cluster Geographic Edition 시스템 관리 설명서의 부록 B, Sun Cluster Geographic Edition 엔티티의 합법적 이름 및 값를 참조하십시오.
geopg 명령에 대한 자세한 내용은 geopg(1M) 매뉴얼 페이지를 참조하십시오.
이 예에서는 예 2–2에서 작성된 보호 그룹의 Timeout 등록 정보를 수정합니다.
# geopg set-prop -p Timeout=400 tcpg |
보호 그룹 검증 중에 Hitachi TrueCopy 데이터 복제 서브시스템은 다음 검증을 수행합니다.
horcmd 데몬이 보호 그룹의 Nodelist 등록 정보에 지정된 노드 중 적어도 하나에서 실행 중인지 여부를 검증합니다. 데이터 복제 계층은 또한 horcmd 데몬이 실행 중인 노드에서 Hitachi TrueCopy 저장 장치로의 경로가 존재하는지 확인합니다.
horcmd 데몬에 대한 자세한 내용은 Sun StorEdge SE 9900 V Series Command and Control Interface User and Reference Guide를 참조하십시오.
Cluster_dgs 등록 정보가 지정된 경우, 지정된 장치 그룹은 올바른 Sun Cluster 장치 그룹 또는 CVM 장치 그룹인지 여부를 검증합니다. 데이터 복제 계층은 또한 장치 그룹의 유형이 올바른지 검증합니다.
보호 그룹에 추가된 각 Hitachi TrueCopy 장치 그룹에 대해 등록 정보를 검증합니다.
geoadm status의 출력 결과에서 보호 그룹의 Configuration 상태가 Error로 나타나면 geopg validate 명령을 사용하여 구성을 검증할 수 있습니다. 이 명령은 보호 그룹 및 해당 엔티티의 현재 상태를 점검합니다.
보호 그룹 및 해당 엔티티가 유효한 경우, 보호 그룹의 구성 상태가 OK로 설정됩니다. geopg validate 명령이 구성 파일에서 오류를 발견할 경우, 명령은 오류 및 오류 상태의 구성에 대한 메시지를 표시합니다. 이러한 경우, 해당 구성에서 오류를 수정하여 geopg validate 명령을 다시 실행할 수 있습니다.
검증하려는 보호 그룹이 로컬에 존재하는지 그리고 Common Agent Container가 파트너쉽의 두 클러스터의 모든 노드에서 온라인 상태인지 확인합니다.
클러스터 노드에 로그인합니다.
이 절차를 완료하려면 Geo Management RBAC 권리 프로파일이 지정되어야 합니다. RBAC에 대한 자세한 내용은 Sun Cluster Geographic Edition 시스템 관리 설명서의 Sun Cluster Geographic Edition 소프트웨어와 RBAC를 참조하십시오.
보호 그룹의 구성을 검증합니다.
이 명령은 로컬 클러스터만의 보호 그룹 구성을 검증합니다. 파트너 클러스터의 보호 그룹 구성을 검증하려면 파트너 클러스터에서 이 명령을 다시 실행하십시오.
# geopg validate protectiongroupname |
단일 보호 그룹을 식별하는 고유한 이름을 지정합니다.
이 예에서는 보호 그룹을 검증합니다.
# geopg validate tcpg |
어느 곳에서나 보호 그룹을 삭제하려는 경우 보호 그룹이 존재하는 각 클러스터에서 geopg delete 명령을 실행해야 합니다.
보호 그룹을 삭제하기 전에 다음 조건이 만족되는지 확인하십시오.
삭제하려는 보호 그룹이 로컬로 존재합니다.
보호 그룹이 로컬 클러스터에서 오프라인입니다.
보호 그룹을 삭제할 때 응용 프로그램 자원 그룹을 온라인으로 유지하려면 보호 그룹에서 응용 프로그램 자원 그룹을 제거해야 합니다. 이 절차의 예는 예 2–8 및 예 2–10을 참조하십시오.
기본 클러스터의 노드에 로그인합니다.
이 절차를 완료하려면 Geo Management RBAC 권리 프로파일이 지정되어야 합니다. RBAC에 대한 자세한 내용은 Sun Cluster Geographic Edition 시스템 관리 설명서의 Sun Cluster Geographic Edition 소프트웨어와 RBAC를 참조하십시오.
보호 그룹을 삭제합니다.
이 명령은 로컬 클러스터에서 보호 그룹 구성을 삭제합니다. 명령은 또한 보호 그룹의 각 Hitachi TrueCopy 장치 그룹에 대한 복제 자원 그룹을 제거합니다. 이 명령은 Hitachi TrueCopy 장치 그룹의 쌍 상태를 변경하지 않습니다.
# geopg delete protectiongroupname |
보호 그룹의 이름을 지정합니다.
보조 클러스터의 보호 그룹도 삭제하려면 cluster-newyork에서 1단계와 2단계를 반복하십시오.
이 예에서는 두 파트너 클러스터의 보호 그룹을 삭제합니다.
cluster-paris는 기본 클러스터입니다. 샘플 클러스터 구성을 미리 알려면 Sun Cluster Geographic Edition 시스템 관리 설명서의 Sun Cluster Geographic Edition 클러스터 구성 예을 참조하십시오.
# rlogin phys-paris-1 -l root phys-paris-1# geopg delete tcpg # rlogin phys-newyork-1 -l root phys-newyork-1# geopg delete tcpg |
이 예에서는 해당 보호 그룹 tcpg를 삭제하면서 두 응용 프로그램 자원 그룹인 apprg1 및 apprg2를 온라인으로 유지합니다. 보호 그룹에서 응용 프로그램 자원 그룹을 제거한 후 보호 그룹을 삭제합니다.
# geopg remove-resource-group apprg1,apprg2 tcpg # geopg stop -e global tcpg # geopg delete tcpg |
가용성을 높여 응용 프로그램을 운영하려면, 응용 프로그램이 응용 프로그램 자원 그룹의 자원으로서 관리되어야 합니다.
응용 프로그램 자원, 설치, 응용 프로그램 구성 파일 및 자원 그룹과 같이 기본 클러스터의 응용 프로그램 자원 그룹에 대해 구성하는 모든 엔티티가 보조 클러스터에 복제되어야 합니다. 자원 그룹 이름은 두 클러스터에서 동일해야 합니다. 또한 응용 프로그램 자원이 사용하는 데이터는 보조 클러스터에 복제되어야 합니다.
본 절은 다음 작업으로 구성되어 있습니다.
기존 자원 그룹을 보호 그룹에 대한 응용 프로그램 자원 그룹 목록에 추가할 수 있습니다. 보호 그룹에 응용 프로그램 자원 그룹을 추가하기 전에 다음 조건이 만족되는지 확인하십시오.
보호 그룹이 정의되어 있습니다.
자원 그룹이 두 클러스터에 모두 존재하며 적당한 상태입니다.
자원 그룹의 Auto_start_on_new_cluster 등록 정보가 False로 설정되어 있습니다. scrgadm 명령을 사용하여 이 등록 정보를 볼 수 있습니다.
# scrgadm -pvv -g apprg | grep Auto_start_on_new_cluster |
Auto_start_on_new_cluster 등록 정보를 False로 설정하면 Sun Cluster 자원 그룹 관리자가 보호 그룹의 자원 그룹을 자동으로 시작하지 않습니다. 따라서, Sun Cluster Geographic Edition 소프트웨어가 재시작되고 원격 클러스터와 통신하여 원격 클러스터가 실행 중인지와 원격 클러스터가 자원 그룹의 보조 클러스터인지 확인합니다. Sun Cluster Geographic Edition 소프트웨어는 기본 클러스터에서 자원 그룹을 자동으로 시작하지 않습니다.
응용 프로그램 자원 그룹은 보호 그룹이 활성화될 때 기본 클러스터에서만 온라인되어야 합니다.
다음과 같이 Auto_start_on_new_cluster 등록 정보를 False로 설정합니다.
scrgadm -c -g apprg1 -y Auto_start_on_new_cluster=False |
응용 프로그램 자원 그룹이 이 보호 그룹 밖에 있는 자원 그룹 및 자원에 종속되지 않아야 합니다. 종속성을 공유하는 여러 응용 프로그램 자원 그룹을 추가하려면 한 번의 조작으로 응용 프로그램 자원 그룹을 보호 그룹에 추가해야 합니다. 응용 프로그램 자원 그룹을 개별적으로 추가하면 조작은 실패합니다.
보호 그룹은 활성화 또는 비활성화될 수 있으며 자원 그룹은 Online 또는 Unmanaged 상태가 될 수 있습니다.
보호 그룹의 구성이 변경된 후, 자원 그룹이 Unmanaged 상태이고 보호 그룹이 Active 상태인 경우, 보호 그룹의 로컬 상태는 Degraded로 됩니다.
추가할 자원 그룹이 Online이고 보호 그룹이 비활성화되는 경우 요청은 거부됩니다. 활성 자원 그룹을 추가하기 전에 보호 그룹을 활성화해야 합니다.
클러스터 노드에 로그인합니다.
이 절차를 완료하려면 Geo Management RBAC 권리 프로파일이 지정되어야 합니다. RBAC에 대한 자세한 내용은 Sun Cluster Geographic Edition 시스템 관리 설명서의 Sun Cluster Geographic Edition 소프트웨어와 RBAC를 참조하십시오.
보호 그룹에 응용 프로그램 자원 그룹을 추가합니다.
이 명령은 응용 프로그램 자원 그룹을 로컬 클러스터의 보호 그룹에 추가합니다. 그런 다음 명령은 파트너 클러스터가 동일한 이름의 보호 그룹을 포함하는 경우 새 구성 정보를 파트너 클러스터로 전파합니다.
# geopg add-resource-group resourcegrouplist protectiongroup |
응용 프로그램 자원 그룹의 이름을 지정합니다.
쉼표로 구분된 목록으로 된 둘 이상의 자원 그룹을 지정할 수 있습니다.
보호 그룹의 이름을 지정합니다.
Sun Cluster Geographic Edition 소프트웨어에서 지원하는 이름 및 값에 대한 내용은 Sun Cluster Geographic Edition 시스템 관리 설명서의 부록 B, Sun Cluster Geographic Edition 엔티티의 합법적 이름 및 값를 참조하십시오.
로컬 클러스터에서 추가 조작에 실패하는 경우 보호 그룹의 구성이 수정되지 않습니다. 그렇지 않으면 로컬 클러스터에서 Configuration 상태가 OK로 설정됩니다.
로컬 클러스터에서 Configuration 상태가 OK이지만 파트너 클러스터에서 추가 조작에 실패하는 경우, 파트너 클러스터에서 Configuration 상태가 Error로 설정됩니다.
응용 프로그램 자원 그룹이 보호 그룹에 추가된 후 응용 프로그램 자원 그룹은 보호 그룹의 엔티티로서 관리됩니다. 그러면 응용 프로그램 자원 그룹은 시작, 중지, 전환 및 인계 같은 보호 그룹 조작의 영향을 받습니다.
이 예는 두 응용 프로그램 자원 그룹(apprg1 및 apprg2)을 tcpg에 추가합니다.
# geopg add-resource-group apprg1,apprg2 tcpg |
응용 프로그램 자원 그룹의 상태 또는 내용을 변경하지 않고 보호 그룹에서 응용 프로그램 자원 그룹을 제거할 수 있습니다.
다음 조건이 충족되어 있는지 확인합니다.
보호 그룹이 로컬 클러스터에 정의되어 있습니다.
제거할 자원 그룹은 보호 그룹의 응용 프로그램 자원 그룹의 일부입니다. 예를 들어 데이터 복제 관리 엔티티에 속하는 자원 그룹을 제거할 수 없습니다.
클러스터 노드에 로그인합니다.
이 절차를 완료하려면 Geo Management RBAC 권리 프로파일이 지정되어야 합니다. RBAC에 대한 자세한 내용은 Sun Cluster Geographic Edition 시스템 관리 설명서의 Sun Cluster Geographic Edition 소프트웨어와 RBAC를 참조하십시오.
보호 그룹에서 응용 프로그램 자원 그룹을 제거합니다.
이 명령은 응용 프로그램 자원 그룹을 로컬 클러스터의 보호 그룹에서 제거합니다. 파트너 클러스터에 동일한 이름의 보호 그룹이 있는 경우 명령은 파트너 클러스터의 보호 그룹에서 응용 프로그램 자원 그룹을 제거합니다.
# geopg remove-resource-group resourcegrouplist protectiongroup |
응용 프로그램 자원 그룹의 이름을 지정합니다.
쉼표로 구분된 목록으로 된 둘 이상의 자원 그룹을 지정할 수 있습니다.
보호 그룹의 이름을 지정합니다.
로컬 클러스터에서 제거 조작에 실패하는 경우 보호 그룹의 구성이 수정되지 않습니다. 그렇지 않으면 로컬 클러스터에서 Configuration 상태가 OK로 설정됩니다.
로컬 클러스터에서 Configuration 상태가 OK이지만 파트너 클러스터에서 제거 조작에 실패하는 경우, 파트너 클러스터에서 Configuration 상태가 Error로 설정됩니다.
이 예에서는 두 응용 프로그램 자원 그룹인 apprg1 및 apprg2를 tcpg에서 제거합니다.
# geopg remove-resource-group apprg1,apprg2 tcpg |
이 절에서는 Hitachi TrueCopy 데이터 복제 장치 그룹 관리에 대한 다음 정보를 제공합니다.
Hitachi TrueCopy 데이터 복제 보호 그룹 구성에 대한 자세한 내용은 Oracle Real Application Clusters를 사용하지 않는 Hitachi TrueCopy 보호 그룹 작성 및 구성 방법을 참조하십시오.
클러스터 노드에 로그인합니다.
이 절차를 완료하려면 Geo Management RBAC 권리 프로파일이 지정되어야 합니다. RBAC에 대한 자세한 내용은 Sun Cluster Geographic Edition 시스템 관리 설명서의 Sun Cluster Geographic Edition 소프트웨어와 RBAC를 참조하십시오.
보호 그룹에 데이터 복제 장치 그룹을 작성합니다. .
이 명령은 로컬 클러스터의 보호 그룹에 장치 그룹을 추가하고 파트너 클러스터가 동일한 이름의 보호 그룹을 포함하는 경우 파트너 클러스터로 새 구성을 전파합니다.
# geopg add-device-group -p property [-p...] devicegroupname protectiongroupname |
데이터 복제 장치 그룹의 등록 정보를 지정합니다.
장치 그룹에서 사용되는 경계 레벨을 정의하는 Fence_level 등록 정보를 지정할 수 있습니다. 경계 레벨은 해당 장치 그룹에 대한 기본 및 보조 볼륨 사이의 일관성 레벨을 판별합니다.
이 등록 정보를 data, status, never 또는 async로 설정할 수 있습니다. never 또는 async의 Fence_level 을 사용하면 2차 클러스터의 실패 후에도 응용 프로그램이 계속 1차 클러스터에 쓸 수 있습니다. 그러나 Fence_level 등록 정보를 data 또는 status로 설정하면 보조 클러스터가 다음과 같은 이유로 인해 사용 불가능하므로 기본 클러스터의 응용 프로그램이 실패할 수 있습니다.
데이터 복제 링크 실패
보조 클러스터 및 저장소 정지
보조 클러스터의 저장소 정지
1차 클러스터의 응용프로그램 실패를 피하려면 never 또는 async의 Fence_level을 지정하십시오.
Fence_level을 never로 지정할 경우 인계를 수행한 후 데이터 복제 역할이 변경되지 않습니다.
Fence_level을 data 또는 status로 설정하여 사용하기 위한 특수 요구 사항이 있는 경우, Sun 담당자에게 문의하십시오.
다른 경계 레벨과 연관된 응용 프로그램 오류에 대한 자세한 정보는 Sun StorEdge SE 9900 V Series Command and Control Interface User and Reference Guide를 참조하십시오.
사용자가 지정할 수 있는 기타 등록 정보는 사용 중인 데이터 복제 유형에 따라 다릅니다. 이러한 등록 정보에 대한 자세한 내용은 Sun Cluster Geographic Edition 시스템 관리 설명서의 부록 A, 표준 Sun Cluster Geographic Edition 등록 정보를 참조하십시오.
새 데이터 복제 장치 그룹의 이름을 지정합니다.
새 데이터 복제 장치 그룹을 포함할 보호 그룹의 이름을 지정합니다.
Sun Cluster Geographic Edition 소프트웨어에서 지원하는 이름 및 값에 대한 내용은 Sun Cluster Geographic Edition 시스템 관리 설명서의 부록 B, Sun Cluster Geographic Edition 엔티티의 합법적 이름 및 값를 참조하십시오.
geopg 명령에 대한 자세한 내용은 geopg(1M) 매뉴얼 페이지를 참조하십시오.
|
이 예에서는 tcpg 보호 그룹에 Hitachi TrueCopy 데이터 복제 장치 그룹을 작성합니다.
# geopg add-device-group -p Fence_level=data devgroup1 tcpg |
/etc/horcm.conf 파일에 dev_group으로 구성된 Hitachi TrueCopy 장치 그룹이 보호 그룹에 추가될 때 데이터 복제 계층이 다음 검증을 수행합니다.
horcmd 데몬이 보호 그룹의 Nodelist 등록 정보에 있는 노드 중 적어도 하나에서 실행 중인지 검증합니다.
horcmd 데몬에 대한 자세한 내용은 Sun StorEdge SE 9900 V Series Command and Control Interface User and Reference Guide를 참조하십시오.
Nodelist 등록 정보에 지정된 모든 노드에서 저장소 장치로의 경로가 존재하는지 점검합니다. 저장소 장치는 새 Hitachi TrueCopy 장치 그룹을 제어합니다.
geopg add-device-group 명령에 지정된 Hitachi TrueCopy 장치 그룹 등록 정보가 다음 표에 설명된 대로 검증됩니다.
Hitachi TrueCopy 장치 그룹 등록 정보 |
유효성 검사 |
---|---|
devicegroupname |
지정된 Hitachi TrueCopy 장치 그룹이 Nodelist 등록 정보에 지정되는 모든 클러스터 노드에서 구성되는지 점검합니다. |
Fence_level |
이 Hitachi TrueCopy 장치 그룹에 대해 쌍 하나가 이미 설정된 경우 데이터 복제 계층이 지정된 Fence_level이 이미 설정된 장벽 레벨과 일치하는지 확인합니다. 쌍이 아직 설정되지 않은 경우, 예를 들어 쌍이 SMPL 상태에 있는 경우 모든 Fence_level이 허용됩니다. |
Hitachi TrueCopy 장치 그룹이 보호 그룹에 추가될 때 Sun Cluster 자원이 자동으로 이 명령에 의해 작성됩니다. 이 자원은 데이터 복제를 감시합니다. 자원의 이름은 r-tc-protectiongroupname -devicegroupname입니다. 이 자원은 rg-tc-protectiongroupname이라는 이름의 해당 Sun Cluster 자원 그룹에 위치합니다.
Sun Cluster 명령으로 이 복제 자원을 수정하기 전에 주의해야 합니다. 이들 자원은 내부 구현 전용입니다.
검증을 위해 Sun Cluster Geographic Edition은 각 Hitachi TrueCopy 장치 그룹에 쌍의 현재 상태에 따른 상태를 부여합니다. 이 상태는 pairvolchk -g <DG> -ss 명령에 의해 반환됩니다.
이 절의 나머지는 개별 장치 그룹 상태 및 이들 상태가 보호 그룹의 로컬 역할에 대해 검증되는 방법을 설명합니다.
개별 Hitachi TrueCopy 장치 그룹은 다음 상태 중 하나에 있을 수 있습니다.
SMPL
정상 기본
정상 보조
인계 기본
인계 보조
특정 장치 그룹의 상태는 pairvolchk -g <DG> -ss 명령에 의해 반환되는 값을 사용하여 판별됩니다. 다음 표는 pairvolchk 명령에 의해 반환되는 값과 연관된 장치 그룹 상태를 설명합니다.
표 2–1 개별 Hitachi TrueCopy 장치 그룹 상태
pairvolchk의 출력 |
개별 장치 그룹 상태 |
---|---|
11 = SMPL |
SMPL |
22 / 42 = PVOL_COPY 23 / 42 = PVOL_PAIR 26 / 46 = PVOL_PDUB 47 = PVOL_PFUL 48 = PVOL_PFUS |
정상 기본 |
24 / 44 = PVOL_PSUS 25 / 45 = PVOL_PSUE 이들 반환 코드의 경우 개별 장치 그룹 카테고리 판별은 horcmd 프로세스가 원격 클러스터에서 활성이어서 이 장치 그룹에 대한 remote-pair-state를 얻을 수 있어야 합니다. |
remote-cluster-state !=SSWS인 경우, Regular Primary 또는 remote-cluster-state == SSWS인 경우, Takeover Secondary SSWS(pairdisplay -g <DG> -fc 명령을 사용할 경우) |
32 / 52 = SVOL_COPY 33 / 53 = SVOL_PAIR 35 / 55 = SVOL_PSUE 36 / 56 = SVOL_PDUB 57 = SVOL_PFUL 58 = SVOL_PFUS |
정상 보조 |
34 / 54 = SVOL_PSUS |
Regular Secondary, if local-cluster-state !=SSWS 또는 Takeover Primary, if local-cluster-state == SSWS SSWS(pairdisplay -g <DG> -fc 명령을 사용할 경우) |
보호 그룹에 하나의 Hitachi TrueCopy 장치 그룹만 있는 경우 총계 장치 그룹 상태는 개별 장치 그룹 상태와 같습니다.
보호 그룹에 복수 Hitachi TrueCopy 장치 그룹이 있는 경우 총계 장치 그룹 상태는 다음 표에서 설명하는 대로 판별됩니다.
표 2–2 총계 장치 그룹 상태를 판별하는 조건
조건 |
총계 장치 그룹 상태 |
---|---|
모든 개별 장치 그룹 상태가 SMPL임 |
SMPL |
모든 개별 장치 그룹 상태가 Regular Primary 또는 SMPL임 |
정상 기본 |
모든 개별 장치 그룹 상태가 Regular Secondary 또는 SMPL임 |
정상 보조 |
모든 개별 장치 그룹 상태가 Takeover Primary 또는 SMPL임 |
인계 기본 |
모든 개별 장치 그룹 상태가 Takeover Secondary 또는 SMPL임 |
인계 보조 |
개별 장치 그룹 상태의 다른 결합에 대한 총계 장치 그룹 상태를 얻을 수 없습니다. 이는 쌍 상태 검증 실패로 간주됩니다.
Hitachi TrueCopy 보호 그룹의 로컬 역할은 다음 표에서 설명하는 대로 총계 장치 그룹 상태에 대해 검증됩니다.
표 2–3 보호 그룹의 로컬 역할에 대해 총계 장치 그룹 상태 검증
총계 장치 그룹 상태 |
올바른 로컬 보호 그룹 역할 |
---|---|
SMPL |
primary 또는 secondary |
정상 기본 |
primary |
정상 보조 |
secondary |
인계 기본 |
primary |
인계 보조 |
secondary |
이 예에서는 Hitachi TrueCopy 장치 그룹의 상태를 해당 그룹이 속하는 Hitachi TrueCopy 보호 그룹의 역할에 대해 검증합니다.
첫 번째로, 보호 그룹이 다음과 같이 작성됩니다.
phys-paris-1# geopg create -s paris-newyork-ps -o primary -d truecopy tcpg |
장치 그룹 devgroup1이 다음과 같이 보호 그룹 tcpg에 추가됩니다.
phys-paris-1# geopg add-device-group -p fence_level=async devgroup1 tcpg |
Hitachi TrueCopy 장치 그룹인 devgroup1의 현재 상태가 다음과 같이 pairdisplay 명령의 출력에 나타납니다.
phys-paris-1# pairdisplay -g devgroup1 Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M devgroup1 pair1(L) (CL1-A , 0, 1) 12345 1..P-VOL PAIR ASYNC,54321 609 - devgroup1 pair1(R) (CL1-C , 0, 20)54321 609..S-VOL PAIR ASYNC,----- 1 - devgroup1 pair2(L) (CL1-A , 0, 2) 12345 2..P-VOL PAIR ASYNC,54321 610 - devgroup1 pair2(R) (CL1-C , 0,21) 54321 610..S-VOL PAIR ASYNC,----- 2 - |
pairvolchk -g <DG> -ss 명령이 실행되고 값 23을 반환합니다.
phys-paris-1# pairvolchk -g devgroup1 -ss parivolchk : Volstat is P-VOL.[status = PAIR fence = ASYNC] phys-paris-1# echo $? 23 |
pairvolchk 명령의 결과는 23입니다. 이는 표 2–1에서 개별 장치 그룹 상태가 Regular Primary인 것에 해당합니다. 보호 그룹에 하나의 장치 그룹만 있기 때문에 총계 장치 그룹 상태는 개별 장치 그룹 상태와 같습니다. 표 2–3에 지정된 것처럼 -o 옵션으로 지정된 보호 그룹의 로컬 역할이 primary이므로 장치 그룹 상태는 유효합니다.
클러스터 노드에 로그인합니다.
이 절차를 완료하려면 Geo Management RBAC 권리 프로파일이 지정되어야 합니다. RBAC에 대한 자세한 내용은 Sun Cluster Geographic Edition 시스템 관리 설명서의 Sun Cluster Geographic Edition 소프트웨어와 RBAC를 참조하십시오.
장치 그룹을 수정합니다.
이 명령은 로컬 클러스터의 보호 그룹에 있는 장치 그룹의 등록 정보를 수정합니다. 그런 다음 명령은 파트너 클러스터가 동일한 이름의 보호 그룹을 포함하는 경우 새 구성을 파트너 클러스터로 전파합니다.
# geopg modify-device-group -p property [-p...] \ TCdevicegroupname protectiongroupname |
데이터 복제 장치 그룹의 등록 정보를 지정합니다.
설정할 수 있는 등록 정보에 대한 자세한 내용은 Sun Cluster Geographic Edition 시스템 관리 설명서의 부록 A, 표준 Sun Cluster Geographic Edition 등록 정보를 참조하십시오.
새 데이터 복제 장치 그룹의 이름을 지정합니다.
새 데이터 복제 장치 그룹을 포함할 보호 그룹의 이름을 지정합니다.
이 예에서는 Hitachi TrueCopy 보호 그룹의 일부인 데이터 복제 장치 그룹의 등록 정보를 수정합니다.
# geopg modify-device-group -p fence_level=async tcdg tcpg |
데이터 복제 장치 그룹을 보호 그룹에 추가하는 경우 보호 그룹에서 데이터 복제 장치 그룹을 삭제해야 하는 경우가 있습니다. 일반적으로 응용 프로그램이 디스크 세트에 기록하도록 구성된 후 디스크를 변경하지 않습니다.
데이터 복제 장치 그룹을 삭제해도 복제가 정지되거나 데이터 복제 장치 그룹의 복제 상태가 변경되지 않습니다.
보호 그룹 삭제에 대한 정보는 Hitachi TrueCopy 보호 그룹 삭제 방법을 참조하십시오. 보호 그룹에서 응용 프로그램 자원 그룹 삭제에 대한 정보는 Hitachi TrueCopy 보호 그룹에서 응용 프로그램 자원 그룹을 삭제하는 방법을 참조하십시오.
클러스터 노드에 로그인합니다.
이 절차를 완료하려면 Geo Management RBAC 권리 프로파일이 지정되어야 합니다. RBAC에 대한 자세한 내용은 Sun Cluster Geographic Edition 시스템 관리 설명서의 Sun Cluster Geographic Edition 소프트웨어와 RBAC를 참조하십시오.
장치 그룹을 제거합니다.
이 명령은 장치 그룹을 로컬 클러스터의 보호 그룹에서 제거합니다. 그런 다음 명령은 파트너 클러스터가 동일한 이름의 보호 그룹을 포함하는 경우 새 구성을 파트너 클러스터로 전파합니다.
# geopg remove-device-group devicegroupname protectiongroupname |
데이터 복제 장치 그룹의 이름을 지정합니다.
보호 그룹의 이름을 지정합니다.
장치 그룹이 Hitachi TrueCopy 보호 그룹에서 삭제되면 해당 Sun Cluster 자원 r-tc-protectiongroupname-devicegroupname이 복제 자원 그룹에서 제거됩니다. 결국 삭제된 장치 그룹이 더 이상 감시되지 않습니다. 보호 그룹이 삭제될 때 자원 그룹이 제거됩니다.
이 예에서는 Hitachi TrueCopy 데이터 복제 장치 그룹을 제거합니다.
# geopg remove-device-group tcdg tcpg |
기본 및 보조 클러스터에서 데이터 복제, 자원 그룹 및 자원을 구성한 후 보호 그룹의 구성을 보조 클러스터로 복제할 수 있습니다.
Hitachi TrueCopy 보호 그룹의 구성을 보조 클러스터로 복제하기 전에 다음 조건이 만족되었는지 확인합니다.
보호 그룹이 로컬 클러스터가 아니라 원격 클러스터에 정의되어 있습니다.
원격 클러스터의 보호 그룹에 있는 장치 그룹이 로컬 클러스터에 존재합니다.
원격 클러스터의 보호 그룹에 있는 응용 프로그램 자원 그룹이 로컬 클러스터에 존재합니다.
자원 그룹의 Auto_start_on_new_cluster 등록 정보가 False로 설정되어 있습니다. scrgadm 명령을 사용하여 이 등록 정보를 볼 수 있습니다.
# scrgadm -pvv -g apprg1 | grep Auto_start_on_new_cluster |
Auto_start_on_new_cluster 등록 정보를 False로 설정하면 Sun Cluster 자원 그룹 관리자가 보호 그룹의 자원 그룹을 자동으로 시작하지 않습니다. 따라서, Sun Cluster Geographic Edition 소프트웨어가 재시작되고 원격 클러스터와 통신하여 원격 클러스터가 실행 중인지와 원격 클러스터가 자원 그룹의 보조 클러스터인지 확인합니다. Sun Cluster Geographic Edition 소프트웨어는 기본 클러스터에서 자원 그룹을 자동으로 시작하지 않습니다.
응용 프로그램 자원 그룹은 보호 그룹이 활성화될 때 기본 클러스터에서만 온라인되어야 합니다.
다음과 같이 Auto_start_on_new_cluster 등록 정보를 False로 설정합니다.
scrgadm -c -g apprg1 -y Auto_start_on_new_cluster=False |
phys-newyork-1에 로그인합니다.
이 절차를 완료하려면 Geo Management RBAC 권리 프로파일이 지정되어야 합니다. RBAC에 대한 자세한 내용은 Sun Cluster Geographic Edition 시스템 관리 설명서의 Sun Cluster Geographic Edition 소프트웨어와 RBAC를 참조하십시오.
phys-newyork-1은 보조 클러스터의 유일한 노드입니다. phys-newyork-1이 어느 노드인지 알려면 Sun Cluster Geographic Edition 시스템 관리 설명서의 Sun Cluster Geographic Edition 클러스터 구성 예을 참조하십시오.
geopg get 명령을 사용하여 보호 그룹 구성을 파트너 클러스터에 복제합니다.
이 명령은 원격 클러스터에서 보호 그룹의 구성 정보를 검색하고 로컬 클러스터에 보호 그룹을 작성합니다.
phys-newyork-1# geopg get -s partnershipname [protectiongroup] |
보호 그룹 구성 정보가 검색되어야 하는 파트너쉽의 이름과 보호가 로컬로 작성될 파트너쉽의 이름을 지정합니다.
보호 그룹의 이름을 지정합니다.
보호 그룹이 지정되지 않으면 원격 파트너의 지정된 파트너쉽에 존재하는 모든 보호 그룹이 로컬 클러스터에 작성됩니다.
geopg get 명령이 Sun Cluster Geographic Edition 관련 엔티티를 복제합니다. Sun Cluster 엔티티 복제 방법에 대한 자세한 정보는 Sun Cluster Data Services Planning and Administration Guide for Solaris OS의 Sun Cluster Data Services Planning and Administration Guide for Solaris OS의 Replicating and Upgrading Configuration Data for Resource Groups, Resource Types, and Resources.
이 예에서는 tcpg의 구성을 cluster-paris에서 cluster-newyork로 복제합니다.
# rlogin phys-newyork-1 -l root phys-newyork-1# geopg get -s paris-newyork-ps tcpg |
보호 그룹을 활성화할 때 보호 그룹은 사용자가 구성 중에 지정한 역할을 가정합니다. 보호 그룹 구성에 대한 자세한 내용은 Oracle Real Application Clusters를 사용하지 않는 Hitachi TrueCopy 보호 그룹 작성 및 구성 방법을 참조하십시오.
다음 방법으로 보호 그룹을 활성화할 수 있습니다.
전역으로 – 보호 그룹이 구성되는 두 클러스터 모두에서 보호 그룹을 활성화합니다.
기본 클러스터에서만 – 보조 클러스터는 여전히 비활성입니다.
보조 클러스터에서만 – 기본 클러스터는 여전히 비활성입니다.
클러스터의 Hitachi TrueCopy 보호 그룹 활성화는 데이터 복제 계층에 다음 영향을 줍니다.
보호 그룹의 데이터 복제 구성이 검증됩니다. 검증 중에 보호 그룹의 현재 로컬 역할이 표 2–3에서 설명하는 대로 총계 장치 그룹 상태와 비교됩니다. 검증에 성공하는 경우 데이터 복제가 시작됩니다.
데이터 복제는 활성화가 기본 또는 보조 클러스터에서 발생하는지와 상관없이 보호 그룹에 대해 구성된 데이터 복제 장치 그룹에서 시작됩니다. 데이터는 항상 보호 그룹의 로컬 역할이 primary인 클러스터에서 보호 그룹의 로컬 역할이 secondary인 클러스터로 복제됩니다.
응용 프로그램 처리는 데이터 복제가 성공적으로 시작된 후에만 진행됩니다.
보호 그룹 활성화는 응용 프로그램 계층에 다음 영향을 미칩니다.
보호 그룹이 기본 클러스터에서 활성화될 때 해당 보호 그룹에 대해 구성된 응용 프로그램 자원 그룹도 시작됩니다.
보호 그룹이 보조 클러스터에서 활성화될 때 응용 프로그램 자원 그룹은 시작되지 않습니다.
데이터 복제를 시작하는 데 사용되는 Hitachi TrueCopy 명령은 다음 요소에 의존합니다.
총계 장치 그룹 상태
보호 그룹의 로컬 역할
현재 쌍 상태
다음 표는 요소의 가능한 각 조합에 대해 데이터 복제를 시작하는 데 사용되는 Hitachi TrueCopy 명령을 설명합니다. 명령에서 dg는 장치 그룹 이름이고 fl은 장치 그룹에 대해 구성된 경계 레벨입니다.
표 2–4 Hitachi TrueCopy 데이터 복제를 시작하는 데 사용되는 명령
총계 장치 그룹 상태 |
올바른 로컬 보호 그룹 역할 |
Hitachi TrueCopy 시작 명령 |
---|---|---|
SMPL |
primary 또는 secondary |
paircreate -vl -g dg -f fl paircreate -vr -g dg -f fl
두 명령 모두 horcmd 프로세스가 원격 클러스터에서 실행 중이어야 합니다. |
정상 기본 |
primary |
로컬 상태 코드가 22, 23, 25, 26, 29, 42, 43, 45, 46 또는 47인 경우, 데이터가 이미 복제되고 있기 때문에 실행되는 명령이 없습니다. 로컬 상태 코드가 24, 44 또는 48이면 다음 명령이 실행됩니다. pairresync -g dg [-l] 로컬 상태 코드가 11이면 다음 명령이 실행됩니다. paircreate -vl -g dg -f fl 두 명령 모두 horcmd 프로세스가 원격 클러스터에서 실행 중이어야 합니다. |
정상 보조 |
secondary |
로컬 상태 코드가 32, 33, 35, 36, 39, 52, 53, 55, 56 또는 57인 경우, 데이터가 이미 복제되고 있기 때문에 실행되는 명령이 없습니다. 로컬 상태 코드가 34, 54 또는 58이면 다음 명령이 실행됩니다. pairresync -g dg 로컬 상태 코드가 11이면 다음 명령이 실행됩니다. paircreate -vr -g dg -f fl 두 명령 모두 horcmd 프로세스가 원격 클러스터에서 작동해야 합니다. |
인계 기본 |
primary |
로컬 상태 코드가 34 또는 54이면 다음 명령이 실행됩니다. pairresync -swaps -g 로컬 상태 코드가 11이면 다음 명령이 실행됩니다. paircreate -vl -g dg -f fl paircreate 명령을 실행하려면 horcmd 프로세스가 원격 클러스터에서 실행 중이어야 합니다. |
인계 보조 |
secondary |
로컬 상태 코드가 24, 44, 25 또는 45이면 다음 명령이 실행됩니다. pairresync -swapp -g dg 로컬 상태 코드가 11이면 다음 명령이 실행됩니다. paircreate -vr -g dg -f fl. 두 명령 모두 horcmd 프로세스가 원격 클러스터에서 실행 중이어야 합니다. |
클러스터 노드에 로그인합니다.
이 절차를 완료하려면 Geo Management RBAC 권리 프로파일이 지정되어야 합니다. RBAC에 대한 자세한 내용은 Sun Cluster Geographic Edition 시스템 관리 설명서의 Sun Cluster Geographic Edition 소프트웨어와 RBAC를 참조하십시오.
보호 그룹을 활성화합니다.
보호 그룹을 활성화할 때 그의 응용 프로그램 자원 그룹도 온라인이 됩니다.
# geopg start -e scope [-n] protectiongroupname |
명령의 범위를 지정합니다.
범위가 Local인 경우 명령은 로컬 클러스터에서만 동작합니다. 범위가 Global인 경우 명령은 보호 그룹을 전개하는 두 클러스터 모두에서 동작합니다.
Global 및 Local 같은 등록 정보 값은 대소문자를 구별하지 않습니다.
보호 그룹 시작 시에 데이터 복제의 시작을 막습니다.
이 옵션을 생략하면 데이터 복제 서브시스템이 보호 그룹과 동시에 시작합니다.
보호 그룹의 이름을 지정합니다.
geopg start 명령은 scswitch -Z -g resourcegroups 명령을 사용하여 자원 그룹 및 자원을 온라인으로 전환합니다. 이 명령 사용에 대한 자세한 내용은 scswitch(1M) 매뉴얼 페이지를 참조하십시오.
이 예에서는 Sun Cluster Geographic Edition이 데이터 복제를 시작하는 데 사용되는 Hitachi TrueCopy 명령을 판별하는 방법을 보여줍니다.
먼저, Hitachi TrueCopy 보호 그룹이 작성됩니다.
phys-paris-1# geopg create -s paris-newyork-ps -o primary -d truecopy tcpg |
장치 그룹 devgroup1이 보호 그룹에 추가됩니다.
phys-paris-1# geopg add-device-group -p fence_level=async devgroup1 tcpg |
Hitachi TrueCopy 장치 그룹 devgroup1의 현재 상태가 다음과 같이 pairdisplay 명령의 출력에 나타납니다.
phys-paris-1# pairdisplay -g devgroup1 Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M devgroup1 pair1(L) (CL1-A , 0, 1) 12345 1..SMPL ---- ----, ----- ---- - devgroup1 pair1(R) (CL1-C , 0, 20)54321 609..SMPL ---- ----, ----- ---- - devgroup1 pair2(L) (CL1-A , 0, 2) 12345 2..SMPL ---- ----, ----- ---- - devgroup1 pair2(R) (CL1-C , 0,21) 54321 610..SMPL ---- ----, ----- ---- - |
총계 장치 그룹 상태는 SMPL입니다.
다음으로, 보호 그룹 tcpg가 geopg start 명령을 사용하여 활성화됩니다.
phys-paris-1# geopg start -e local tcpg |
Sun Cluster Geographic Edition 소프트웨어가 데이터 복제 레벨에서 paircreate -g devgroup1 -vl -f async 명령을 실행합니다. 명령이 성공하는 경우 devgroup1의 상태가 pairdisplay 명령의 출력에 다음과 같이 주어집니다.
phys-paris-1# pairdisplay -g devgroup1 Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M devgroup1 pair1(L) (CL1-A , 0, 1) 12345 1..P-VOL COPY ASYNC,54321 609 - devgroup1 pair1(R) (CL1-C , 0, 20)54321 609..S-VOL COPY ASYNC,----- 1 - devgroup1 pair2(L) (CL1-A , 0, 2) 12345 2..P-VOL COPY ASYNC,54321 610 - devgroup1 pair2(R) (CL1-C , 0,21) 54321 610..S-VOL COPY ASYNC,----- 2 - |
이 예에서는 전역으로 보호 그룹을 활성화합니다.
# geopg start -e global tcpg |
보호 그룹 tcpg가 보호 그룹이 구성되는 두 클러스터 모두에서 활성화됩니다.
이 예에서는 로컬 클러스터에서만 보호 그룹을 활성화합니다. 이 로컬 클러스터는 클러스터의 역할에 따라서 기본 클러스터 또는 보조 클러스터가 될 수 있습니다.
# geopg start -e local tcpg |
다음 레벨에서 보호 그룹을 비활성화할 수 있습니다.
전역적으로 – 보호 그룹이 구성되는 두 클러스터 모두에서 보호 그룹을 비활성화합니다.
기본 클러스터에서만 – 보조 클러스터는 여전히 활성 상태입니다.
보조 클러스터에서만 – 기본 클러스터는 여전히 활성 상태입니다.
클러스터의 Hitachi TrueCopy 보호 그룹 비활성화는 데이터 복제 계층에 다음 영향을 줍니다.
보호 그룹의 데이터 복제 구성이 검증됩니다. 검증 중에 보호 그룹의 현재 로컬 역할이 표 2–3에서 설명하는 대로 총계 장치 그룹 상태와 비교됩니다. 검증에 성공하는 경우 데이터 복제가 정지됩니다.
데이터 복제는 비활성화가 기본 또는 보조 클러스터에서 발생하는지와 상관 없이 보호 그룹에 대해 구성된 데이터 복제 장치 그룹에서 정지됩니다.
보호 그룹 비활성화는 응용 프로그램 계층에 다음 영향을 미칩니다.
보호 그룹이 기본 클러스터에서 비활성화되면 해당 보호 그룹에 대해 구성된 모든 응용 프로그램 자원 그룹도 정지되고 관리 해제됩니다.
보호 그룹이 보조 클러스터에서 비활성화되면 보조 클러스터의 자원 그룹은 영향을 받지 않습니다. 보호 그룹에 대해 구성된 응용 프로그램 자원 그룹은 기본 클러스터의 활성화 상태에 따라서 기본 클러스터에서 활성 상태일 수 있습니다.
데이터 복제를 정지하는 데 사용되는 Hitachi TrueCopy 명령은 다음 요소에 의존합니다.
총계 장치 그룹 상태
보호 그룹의 로컬 역할
현재 쌍 상태
다음 표는 요소의 가능한 각 조합에 대해 데이터 복제를 정지하는 데 사용되는 Hitachi TrueCopy 명령을 설명합니다. 명령에서 dg는 장치 그룹 이름입니다.
표 2–5 Hitachi TrueCopy 데이터 복제를 정지하는 데 사용되는 명령
총계 장치 그룹 상태 |
올바른 로컬 보호 그룹 역할 |
Hitachi TrueCopy 정지 명령 |
---|---|---|
SMPL |
primary 또는 secondary |
복제되고 있는 데이터가 없기 때문에 명령이 실행되지 않습니다. |
정상 기본 |
primary |
로컬 상태 코드가 22, 23, 26, 29, 42, 43, 46 또는 47이면 다음 명령이 실행됩니다. pairsplit -g dg [-l]. 로컬 상태 코드가 11, 24, 25, 44, 45 또는 48이면, 복제되고 있는 데이터가 없기 때문에 어떤 명령도 실행되지 않습니다. |
정상 보조 |
secondary |
로컬 상태 코드가 32, 33, 35, 36, 39, 52, 53, 55, 56 또는 57이면 다음 명령이 실행됩니다. pairsplit -g dg . 로컬 상태 코드가 33 또는 53이고 원격 상태가 PSUE인 경우, 복제를 정지하기 위해 명령이 실행되지 않습니다. 로컬 상태 코드가 11, 34, 54 또는 58이면, 복제되고 있는 데이터가 없기 때문에 어떤 명령도 실행되지 않습니다. |
인계 기본 |
primary |
복제되고 있는 데이터가 없기 때문에 명령이 실행되지 않습니다. |
인계 보조 |
secondary |
복제되고 있는 데이터가 없기 때문에 명령이 실행되지 않습니다. |
클러스터 노드에 로그인합니다.
이 절차를 완료하려면 Geo Management RBAC 권리 프로파일이 지정되어야 합니다. RBAC에 대한 자세한 내용은 Sun Cluster Geographic Edition 시스템 관리 설명서의 Sun Cluster Geographic Edition 소프트웨어와 RBAC를 참조하십시오.
보호 그룹을 비활성화합니다.
보호 그룹을 비활성화할 때 해당 응용 프로그램 자원 그룹도 관리 해제됩니다.
# geopg stop -e scope [-D] protectiongroupname |
명령의 범위를 지정합니다.
범위가 Local인 경우 명령은 로컬 클러스터에서만 동작합니다. 범위가 Global인 경우 명령은 보호 그룹이 전개되는 두 클러스터 모두에서 동작합니다.
Global 및 Local 같은 등록 정보 값은 대소문자를 구별하지 않습니다.
데이터 복제가 중지되고 보호 그룹이 온라인이 되도록 지정해야 합니다.
이 옵션을 생략하는 경우 데이터 복제 서브시스템과 보호 그룹이 둘 다 중지됩니다.
보호 그룹의 이름을 지정합니다.
이 예에서는 Sun Cluster Geographic Edition 소프트웨어가 데이터 복제를 정지하는 데 사용되는 Hitachi TrueCopy 명령을 판별하는 방법을 보여줍니다.
Hitachi TrueCopy 장치 그룹 devgroup1의 현재 상태가 다음과 같이 pairdisplay 명령의 출력에 나타납니다.
phys-paris-1# pairdisplay -g devgroup1 Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M devgroup1 pair1(L) (CL1-A , 0, 1) 12345 1..P-VOL PAIR ASYNC,54321 609 - devgroup1 pair1(R) (CL1-C , 0, 20)54321 609..S-VOL PAIR ASYNC,----- 1 - devgroup1 pair2(L) (CL1-A , 0, 2) 12345 2..P-VOL PAIR ASYNC,54321 610 - devgroup1 pair2(R) (CL1-C , 0,21) 54321 610..S-VOL PAIR ASYNC,----- 2 - |
장치 그룹 devgroup1이 다음과 같이 보호 그룹에 추가됩니다.
phys-paris-1# geopg add-device-group -p fence_level=async devgroup1 tcpg |
Sun Cluster Geographic Edition 소프트웨어가 데이터 복제 레벨에서 pairvolchk -g <DG> -ss 명령을 실행하며, 값 43을 반환합니다.
pairvolchk -g devgroup1 -ss Volstat is P-VOL.[status = PAIR fence = ASYNC] phys-paris-1# echo $? 43 |
다음, 보호 그룹 tcpg가 geopg stop 명령을 사용하여 비활성화됩니다.
phys-paris-1# geopg stop -s local tcpg |
Sun Cluster Geographic Edition 소프트웨어가 데이터 복제 레벨에서 pairsplit -g devgroup1 명령을 실행합니다.
명령이 성공하는 경우 devgroup1의 상태가 pairdisplay 명령의 출력에 다음과 같이 주어집니다.
phys-paris-1# pairdisplay -g devgroup1 Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M devgroup1 pair1(L) (CL1-A , 0, 1) 12345 1..P-VOL PSUS ASYNC,54321 609 - devgroup1 pair1(R) (CL1-C , 0, 20)54321 609..S-VOL SSUS ASYNC,----- 1 - devgroup1 pair2(L) (CL1-A , 0, 2) 12345 2..P-VOL PSUS ASYNC,54321 610 - devgroup1 pair2(R) (CL1-C , 0,21) 54321 610..S-VOL SSUS ASYNC,----- 2 - |
이 예에서는 보호 그룹을 모든 클러스터에서 비활성화합니다.
# geopg stop -e global tcpg |
이 예에서는 보호 그룹을 로컬 클러스터에서 비활성화합니다.
# geopg stop -e local tcpg |
이 예에서는 로컬 클러스터의 데이터 복제만 중지합니다.
# geopg stop -e local -D tcpg |
관리자가 나중에 보호 그룹과 그의 기초 데이터 복제 서브시스템을 모두 비활성화할 것을 결정하는 경우 관리자는 -D 옵션이 없이 명령을 다시 실행할 수 있습니다.
# geopg stop -e local tcpg |
이 예에서는 두 클러스터에서 해당 보호 그룹 tcpg를 비활성화하면서 두 응용 프로그램 자원 그룹인 apprg1 및 apprg2를 온라인으로 유지합니다.
보호 그룹에서 응용 프로그램 자원 그룹을 제거합니다.
# geopg remove-resource-group apprg1,apprg2 tcpg |
보호 그룹을 비활성화합니다.
# geopg stop -e global tcpg |
로컬 보호 그룹의 구성 정보를 파트너 클러스터에서 검색된 구성 정보와 재동기화할 수 있습니다. geoadm status 명령의 출력에 있는 Synchronization 상태가 Error일 때 보호 그룹을 재동기화해야 합니다.
예를 들어 클러스터를 부트한 후에 보호 그룹을 재동기화해야 하는 경우가 있습니다. 자세한 내용은 Sun Cluster Geographic Edition 시스템 관리 설명서의 클러스터 부트를 참조하십시오.
보호 그룹 재동기화는 Sun Cluster Geographic Edition 소프트웨어에 관련된 엔티티만이 업데이트됩니다. Sun Cluster 엔티티의 업데이트 방법에 대한 정보는 Sun Cluster Data Services Planning and Administration Guide for Solaris OS의 Sun Cluster Data Services Planning and Administration Guide for Solaris OS의 Replicating and Upgrading Configuration Data for Resource Groups, Resource Types, and Resources.
보호 그룹은 geopg update 명령을 실행하는 클러스터에서 비활성화되어야 합니다. 보호 그룹 비활성화에 대한 정보는 Hitachi TrueCopy 보호 그룹 비활성화를 참조하십시오.
클러스터 노드에 로그인합니다.
이 절차를 완료하려면 Geo Management RBAC 권리 프로파일이 지정되어야 합니다. RBAC에 대한 자세한 내용은 Sun Cluster Geographic Edition 시스템 관리 설명서의 Sun Cluster Geographic Edition 소프트웨어와 RBAC를 참조하십시오.
보호 그룹을 재동기화합니다.
# geopg update protectiongroupname |
보호 그룹의 이름을 지정합니다.
이 예에서는 보호 그룹을 재동기화합니다.
# geopg update tcpg |
Hitachi TrueCopy 복제 자원 그룹의 더욱 자세한 런타임 상태뿐 아니라 복제 상태의 전체 보기를 얻을 수 있습니다. 다음 절은 각 상태 점검을 위한 절차를 설명합니다.
각 Hitachi TrueCopy 데이터 복제 자원의 상태는 특정 장치 그룹의 복제 상태를 나타냅니다. 보호 그룹 아래의 모든 자원의 상태가 복제 상태에 누적됩니다. 이 복제 상태는 보호 그룹 상태의 두 번째 구성요소입니다. 보호 그룹의 상태에 대한 자세한 내용은 Sun Cluster Geographic Edition 시스템 관리 설명서의 Sun Cluster Geographic Edition 소프트웨어 런타임 상태 모니터링 을 참조하십시오.
복제의 전체 상태를 보려면 다음 절차에서 설명하는 대로 복제 그룹 상태를 보십시오.
보호 그룹이 정의되는 클러스터의 노드에 액세스합니다.
이 절차를 완료하려면 기본 Solaris 사용자 RBAC 권리 프로파일이 지정되어야 합니다. RBAC에 대한 자세한 내용은 Sun Cluster Geographic Edition 시스템 관리 설명서의 Sun Cluster Geographic Edition 소프트웨어와 RBAC를 참조하십시오.
복제의 런타임 상태를 점검합니다.
# geoadm status |
복제 정보에 대해서는 출력의 Protection Group 섹션을 참조하십시오. 이 명령에 의해 표시되는 정보에는 다음이 포함됩니다.
로컬 클러스터가 파트너쉽에 참여할 수 있는지 여부
로컬 클러스터가 파트너쉽에 포함되는지 여부
하트비트 구성의 상태
정의된 보호 그룹의 상태
현재 트랜잭션의 상태
각 Hitachi TrueCopy 장치 그룹에 대한 데이터 복제의 런타임 상태를 점검합니다.
# scstat -g |
점검하려는 데이터 복제 장치 그룹은 Status 및 Status Message 필드를 참조하십시오.
이러한 필드에 대한 자세한 내용은 표 2–6을 참조하십시오.
Sun Cluster Geographic Edition 소프트웨어는 내부적으로 각 보호 그룹에 대한 하나의 복제 자원 그룹을 작성하고 유지보수합니다. 복제 자원 그룹의 이름은 다음 형식을 갖습니다.
rg-tc_truecopyprotectiongroupname |
Hitachi TrueCopy 장치 그룹을 보호 그룹에 추가하는 경우 Sun Cluster Geographic Edition 소프트웨어가 각 장치 그룹에 대한 자원을 작성합니다. 이 자원이 그의 장치 그룹에 대한 복제의 상태를 감시합니다. 각 자원의 이름은 다음 형식을 갖습니다.
r-tc-truecopyprotectiongroupname-truecopydevicegroupname |
이 자원의 Status 및 Status Message를 보고 이 장치 그룹의 복제 상태를 확인할 수 있습니다. scstat -g 명령을 사용하여 자원 상태 및 상태 메시지를 표시합니다.
다음 표는 Hitachi TrueCopy 복제 자원 그룹의 State가 Online일 때 scstat -g 명령에 의해 반환되는 Status 및 Status Message에 대해 설명합니다.
표 2–6 온라인 Hitachi TrueCopy 복제 자원 그룹의 상태 및 상태 메시지
상태 |
상태 메시지 |
---|---|
온라인 |
P-Vol/S-Vol:PAIR |
온라인 |
P-Vol/S-Vol:PAIR:원격 horcmd에 접근 불가능 |
온라인 |
P-Vol/S-Vol:PFUL |
온라인 |
P-Vol/S-Vol:PFUL:원격 horcmd에 접근 불가능 |
성능 저하 |
SMPL:SMPL |
성능 저하 |
SMPL:SMPL:원격 horcmd에 접근 불가능 |
성능 저하 |
P-Vol/S-Vol:COPY |
성능 저하 |
P-Vol/S-Vol:COPY:원격 horcmd에 접근 불가능 |
성능 저하 |
P-Vol/S-Vol:PSUS |
성능 저하 |
P-Vol/S-Vol:PSUS:원격 horcmd에 접근 불가능 |
성능 저하 |
P-Vol/S-Vol:PFUS |
성능 저하 |
P-Vol/S-Vol:PFUS:원격 horcmd에 접근 불가능 |
오류 |
P-Vol/S-Vol:PDFUB |
오류 |
P-Vol/S-Vol:PDUB:원격 horcmd에 접근 불가능 |
오류 |
P-Vol/S-Vol:PSUE |
오류 |
P-Vol/S-Vol:PSUE:원격 horcmd에 접근 불가능 |
성능 저하 |
S-Vol:SSWS:인계 볼륨 |
오류 |
P-Vol/S-Vol:의심이 가는 역할 구성. 실제 역할=x, 구성된 역할=y |
이들 값에 대한 자세한 내용은 Hitachi TrueCopy 문서를 참조하십시오.
scstat 명령에 대한 자세한 내용은 scstat(1M) 매뉴얼 페이지를 참조하십시오.