이 장에서는 Hitachi TrueCopy 소프트웨어를 사용한 데이터 복제 구성 및 관리 절차를 설명합니다. 이 장은 다음 항목으로 구성되어 있습니다.
보호 그룹 작성을 시작하기 전에 다음 전략 중에서 사용자에게 가장 잘 맞는 것을 고려하십시오.
보호 그룹 작성 전 응용 프로그램 오프라인 만들기
이 전략은 단일 명령을 사용하여 한 클러스터에 보호 그룹을 작성하고 다른 클러스터의 정보를 검색하고 보호 그룹을 시작하기 때문에 가장 간단합니다. 그러나 프로세스가 끝날 때까지 보호 그룹이 온라인이 되지 않기 때문에 응용 프로그램 자원 그룹을 보호 그룹에 추가하기 위해서 오프라인으로 만들어야 합니다.
응용 프로그램이 온라인인 상태에서 보호 그룹 작성
이 전략으로 어떤 응용 프로그램 부족 없이 보호 그룹을 작성할 수 있지만, 더 많은 명령을 발행해야 합니다.
다음 절은 각 전략에 대해 취할 단계에 대해 설명합니다.
응용 프로그램 자원 그룹이 오프라인인 중에 보호 그룹을 작성하기 위해 취하는 단계는 다음과 같습니다.
한 클러스터의 노드에서 보호 그룹을 작성합니다.
자세한 정보는 Hitachi TrueCopy 보호 그룹 작성 및 구성 방법을 참조하십시오.
보호 그룹에 데이터 복제 장치 그룹을 추가합니다.
자세한 정보는 Hitachi TrueCopy 보호 그룹에 데이터 복제 장치 그룹을 추가하는 방법을 참조하십시오.
응용 프로그램 자원 그룹을 오프라인으로 만듭니다.
보호 그룹에 응용 프로그램 자원 그룹을 추가합니다.
자세한 정보는 Hitachi TrueCopy 보호 그룹에 응용 프로그램 자원 그룹을 추가하는 방법을 참조하십시오.
다른 클러스터에서 보호 그룹 구성을 검색합니다.
자세한 정보는 Hitachi TrueCopy 보호 그룹 구성을 파트너 클러스터에 복제하는 방법을 참조하십시오.
어느 한 클러스터에서 보호 그룹을 “전역으로” 시작합니다.
자세한 정보는 Hitachi TrueCopy 보호 그룹 활성화 방법 을 참조하십시오.
응용 프로그램을 오프라인으로 만들지 않고 새 보호 그룹에 기존 응용 프로그램 자원 그룹을 추가하려면 응용 프로그램 자원 그룹이 온라인인 클러스터에서 다음 단계를 완료합니다.
한 클러스터의 노드에서 보호 그룹을 작성합니다.
자세한 정보는 Hitachi TrueCopy 보호 그룹 작성 및 구성 방법을 참조하십시오.
보호 그룹에 데이터 복제 장치 그룹을 추가합니다. .
자세한 정보는 Hitachi TrueCopy 보호 그룹에 데이터 복제 장치 그룹을 추가하는 방법을 참조하십시오.
보호 그룹을 로컬로 시작합니다.
자세한 정보는 Hitachi TrueCopy 보호 그룹 활성화 방법 을 참조하십시오.
보호 그룹에 응용 프로그램 자원 그룹을 추가합니다.
자세한 정보는 Hitachi TrueCopy 보호 그룹에 응용 프로그램 자원 그룹을 추가하는 방법을 참조하십시오.
다른 클러스터에서 다음 단계를 완료합니다.
보호 그룹 구성을 검색합니다.
자세한 정보는 Hitachi TrueCopy 보호 그룹 구성을 파트너 클러스터에 복제하는 방법을 참조하십시오.
보호 그룹을 전역으로 활성화합니다.
자세한 정보는 Hitachi TrueCopy 보호 그룹 활성화 방법 을 참조하십시오.
이 예는 응용 프로그램을 오프라인으로 만들지 않고 보호 그룹을 작성하는 방법에 대해 설명합니다.
이 예에서 apprg1 자원 그룹은 cluster-paris 클러스터에서 온라인 상태입니다.
cluster-paris에 보호 그룹을 작성합니다.
phys-paris-1# geopg create -d tc -p Nodelist=phys-paris-1,phys-paris-2 -o Primary \ -s paris-newyork-ps tcpg Protection group "tcpg" has been successfully created |
보호 그룹에 장치 그룹 tcdg를 추가합니다.
phys-paris-1# geopg add-device-group -p fence_level=async tcdg tcpg |
보호 그룹을 전역으로 활성화합니다.
phys-paris-1# geopg start-e local tcpg Processing operation.... this may take a while.... Protection group "tcpg" successfully started. |
이미 보호 그룹에 온라인인 응용 프로그램 자원 그룹을 추가합니다.
phys-paris-1# geopg add-resource-group apprg1 tcpg Following resource groups were successfully inserted: "apprg1" |
응용 프로그램 자원 그룹이 성공적으로 추가되었는지 확인합니다.
phys-paris-1# geoadm status Cluster: cluster-paris Partnership "paris-newyork-ps" : OK Partner clusters : newyork Synchronization : OK Heartbeat "hb_cluster-paris~cluster-newyork" monitoring \ "paris-newyork-ps" OK Plug-in "ping-plugin" : Inactive Plug-in "icrm_plugin" : OK Plug-in "tcp_udp_plugin" : OK Protection group "tcpg" : Degraded Partnership : paris-newyork-ps Synchronization : OK Cluster cluster-paris : Degraded Role : Primary Configuration : OK Data replication : Degraded Resource groups : OK Cluster cluster-newyork : Unknown Role : Unknown Configuration : Unknown Data Replication : Unknown Resource Groups : Unknown |
파트너 클러스터의 한 노드에서 다음과 같이 보호 그룹을 검색합니다.
phys-newyork-1# geopg get -s paris-newyork-ps tcpg Protection group "tcpg" has been successfully created. |
파트너 클러스터에서 로컬로 보호 그룹을 활성화합니다.
phys-newyork-1# geopg start-e local tcpg Processing operation.... this may take a while.... Protection group "tcpg" successfully started. |
보호 그룹이 성공적으로 작성되고 활성화되었는지 확인합니다.
cluster-paris에서 geoadm status 명령을 실행하면 cluster-paris 다음 결과를 생성합니다.
phys-paris-1# geoadm status Cluster: cluster-paris Partnership "paris-newyork-ps" : OK Partner clusters : newyork Synchronization : OK Heartbeat "hb_cluster-paris~cluster-newyork" monitoring \ "paris-newyork-ps": OK Plug-in "ping-plugin" : Inactive Plug-in "icrm_plugin" : OK Plug-in "tcp_udp_plugin" : OK Protection group "tcpg" : Degraded Partnership : paris-newyork-ps Synchronization : OK Cluster cluster-paris : Degraded Role : Primary Configuration : OK Data replication : Degraded Resource groups : OK Cluster cluster-newyork : Degraded Role : Secondary Configuration : OK Data Replication : Degraded Resource Groups : OK |
이 절에는 다음 작업에 대한 절차가 들어있습니다.
데이터 복제를 사용하도록 구성되지 않은 보호 그룹을 작성할 수 있습니다. 데이터 복제 서브시스템을 사용하지 않는 보호 그룹을 작성하려면, geopg 명령을 사용할 때 -d data-replication-type 옵션을 생략하십시오. geoadm status 명령은 이들 보호 그룹에 대해 Degraded 상태를 표시합니다.
자세한 정보는 데이터 복제가 필요하지 않은 보호 그룹 작성을 참조하십시오.
보호 그룹을 작성하기 전에 다음 조건이 만족되는지 확인하십시오.
로컬 클러스터가 파트너쉽의 구성원입니다.
작성 중인 보호 그룹이 아직 존재하지 않습니다.
보호 그룹 이름이 전역 Sun Cluster Geographic Edition 이름공간에서 고유합니다. 동일한 시스템의 두 파트너쉽에서 동일한 보호 그룹 이름을 사용할 수 없습니다.
보호 그룹의 기존 구성을 또한 원격 클러스터에서 로컬 클러스터로 복제할 수 있습니다. 자세한 정보는 파트너 클러스터에 Hitachi TrueCopy 보호 그룹 구성 복제를 참조하십시오.
클러스터 노드 중 하나에 로그인합니다.
이 절차를 완료하려면 Geo Management RBAC 권리 프로파일이 지정되어야 합니다. RBAC에 대한 자세한 정보는 Sun Cluster Geographic Edition 소프트웨어와 RBAC를 참조하십시오.
geopg create 명령을 사용하여 새 보호 그룹을 작성합니다.
이 명령은 로컬 클러스터의 모든 노드에 보호 그룹을 작성합니다.
# geopg create -s partnership-name -o local-role -d truecopy [-p property-settings [-p...]] \ protection-group-name |
파트너쉽의 이름을 지정합니다.
로컬 클러스터에서 이 보호 그룹의 역할을 primary 또는 secondary 중 하나로 지정합니다.
보호 그룹 데이터가 Hitachi TrueCopy에 의해 복제되도록 지정합니다.
보호 그룹의 등록 정보를 설정합니다.
사용자가 설정할 수 있는 등록 정보는 다음과 같습니다.
설명 – 보호 그룹을 설명합니다.
시간 초과 – 보호 그룹에 대한 시간 초과 기간을 초 단위로 지정합니다.
Nodelist – 복제 서브시스템에 대한 1차가 될 수 있는 시스템의 호스트 이름을 나열합니다.
Cluster_dgs – 데이터가 기록되는 장치 그룹을 나열합니다.
사용자가 설정할 수 있는 등록 정보에 대한 자세한 정보는 부록 A, 표준 Sun Cluster Geographic Edition 등록 정보를 참조하십시오.
보호 그룹의 이름을 지정합니다.
Sun Cluster Geographic Edition 소프트웨어가 지원하는 이름 및 값에 대한 정보는 부록 B, Sun Cluster Geographic Edition 엔티티의 합법적 이름 및 값를 참조하십시오.
geopg 명령에 대한 자세한 정보는 geopg(1M) 매뉴얼 페이지를 참조하십시오.
다음 예는 1차 클러스터로 설정되는 cluster-paris에 Hitachi TrueCopy 보호 그룹을 작성하는 방법을 보여줍니다.
# geopg create -s paris-newyork-ps -o primary -d truecopy \ -p Nodelist=phys-paris-1,phys-paris-2 tcpg |
다음 예는 현재 cluster-newyork에서 온라인인 응용 프로그램 자원 그룹 resourcegroup1에 대한 Hitachi TrueCopy 보호 그룹 tcpg를 작성하는 방법을 보여줍니다.
응용 프로그램 자원 그룹 없이 보호 그룹을 작성합니다.
# geopg create -s paris-newyork-ps -o primary -d truecopy \ -p nodelist=phys-paris-1,phys-paris-2 tcpg |
보호 그룹을 활성화합니다.
# geopg start -e local tcpg |
응용 프로그램 자원 그룹을 추가합니다.
# geopg add-resource-group resourcegroup1 tcpg |
보호 그룹을 작성하기 전에 데이터 복제 계층이 horcmd 데몬이 실행 중인지 검증합니다.
데이터 복제 계층은 horcmd 데몬이 Nodelist 등록 정보에 주어진 노드 중 적어도 하나에서 실행 중인지 검증합니다. horcmd 데몬에 대한 자세한 정보는 Sun StorEdge SE 9900 V Series Command and Control Interface User and Reference Guide를 참조하십시오.
Cluster_dgs 등록 정보가 지정되면 데이터 복제 계층이 지정된 장치 그룹이 올바른 Sun Cluster 장치 그룹인지 검증합니다. 데이터 복제 계층은 또한 장치 그룹의 유형이 올바른지 검증합니다.
Cluster_dgs 등록 정보에 지정된 장치 그룹은 보호 그룹에 속하는 응용 프로그램에 의해서만 기록되어야 합니다. 이 등록 정보가 보호 그룹 밖의 응용 프로그램에서 정보를 수신하는 장치 그룹을 지정해서는 안됩니다.
Sun Cluster 자원 그룹은 보호 그룹이 작성될 때 자동으로 작성됩니다.
이 자원 그룹의 이 자원은 데이터 복제를 모니터합니다. Hitachi TrueCopy 데이터 복제 자원 그룹의 이름은 rg-tc-protection-group-name입니다.
이러한 자동으로 작성된 복제 자원 그룹은 Sun Cluster Geographic Edition 내부 구현 목적만을 위한 것입니다. Sun Cluster 명령을 사용하여 이러한 자원 그룹을 수정할 때 주의하십시오.
보호 그룹의 구성을 수정하기 전에 수정하려는 보호 그룹이 로컬로 존재하는지 확인합니다.
클러스터 노드 중 하나에 로그인합니다.
이 절차를 완료하려면 Geo Management RBAC 권리 프로파일이 지정되어야 합니다. RBAC에 대한 자세한 정보는 Sun Cluster Geographic Edition 소프트웨어와 RBAC를 참조하십시오.
보호 그룹의 구성을 수정합니다.
이 명령은 로컬 클러스터의 모든 노드의 보호 그룹 등록 정보를 수정합니다. 파트너 클러스터에 동일한 이름의 보호 그룹이 있는 경우 이 명령은 또한 새 구성 정보를 파트너 클러스터로 전파합니다.
# geopg set-prop -p property-settings [-p...] \ protection-group-name |
보호 그룹의 등록 정보를 설정합니다.
사용자가 설정할 수 있는 등록 정보에 대한 자세한 정보는 부록 A, 표준 Sun Cluster Geographic Edition 등록 정보를 참조하십시오.
보호 그룹의 이름을 지정합니다.
Sun Cluster Geographic Edition 소프트웨어가 지원하는 이름 및 값에 대한 정보는 부록 B, Sun Cluster Geographic Edition 엔티티의 합법적 이름 및 값를 참조하십시오.
geopg 명령에 대한 자세한 정보는 geopg(1M) 매뉴얼 페이지를 참조하십시오.
다음 예는 예 10–2에서 작성된 보호 그룹의 Timeout 등록 정보를 수정하는 방법을 보여줍니다.
# geopg set-prop -p Timeout=400 tcpg |
geoadm status의 결과가 보호 그룹의 Configuration 상태를 Error로 표시하면 geopg validate 명령을 사용하여 구성을 검증할 수 있습니다. 이 명령은 보호 그룹 및 해당 엔티티의 현재 상태를 점검합니다.
보호 그룹 및 해당 엔티티가 유효한 경우, 보호 그룹의 Configuration 상태가 OK로 설정됩니다. geopg validate 명령이 구성 파일에서 오류를 발견한 경우, 해당 명령은 오류 및 오류 상태인 구성에 대한 메시지를 표시합니다. 위와 같은 경우, 해당 구성에서 오류를 수정하여 geopg validate 명령을 다시 실행할 수 있습니다.
보호 그룹의 구성을 검증하기 전에 검증하려는 보호 그룹이 로컬로 존재하고 Common Agent Container가 파트너쉽의 두 클러스터의 모든 노드에서 온라인 상태인지 확인합니다.
클러스터 노드 중 하나에 로그인합니다.
이 절차를 완료하려면 Geo Management RBAC 권리 프로파일이 지정되어야 합니다. RBAC에 대한 자세한 정보는 Sun Cluster Geographic Edition 소프트웨어와 RBAC를 참조하십시오.
보호 그룹의 구성을 검증하십시오.
이 명령은 로컬 클러스터만의 보호 그룹 구성을 검증합니다. 파트너 클러스터의 보호 그룹 구성을 검증하려면 파트너 클러스터에서 명령을 다시 실행하십시오.
# geopg validate 보호그룹이름 |
단일 보호 그룹을 식별하는 고유한 이름을 지정합니다.
다음 예는 보호 그룹 검증 방법을 설명합니다.
# geopg validate tcpg |
보호 그룹 검증 중에 Hitachi TrueCopy 데이터 복제 계층은 다음 검증을 수행합니다.
데이터 복제 계층은 horcmd 데몬이 보호 그룹의 Nodelist 등록 정보에 주어진 노드 중 적어도 하나에서 실행 중인지 확인합니다. 데이터 복제 계층은 또한 horcmd 데몬이 실행 중인 노드에서 Hitachi TrueCopy 저장 장치로의 경로가 존재하는지 확인합니다.
horcmd 데몬에 대한 자세한 정보는 Sun StorEdge SE 9900 V Series Command and Control Interface User and Reference Guide를 참조하십시오.
Cluster_dgs 등록 정보가 지정되면 데이터 복제 계층이 scstat -D 명령을 사용하여 지정된 장치 그룹이 올바른 Sun Cluster 장치 그룹인지 검증합니다. 데이터 복제 계층은 또한 장치 그룹의 유형이 올바른지 검증합니다.
데이터 복제 계층은 보호 그룹에 추가된 각 Hitachi TrueCopy 장치 그룹의 등록 정보를 검증합니다.
어느 곳에서나 보호 그룹을 삭제하려는 경우 보호 그룹이 존재하는 각 클러스터에서 geopg delete 명령을 실행해야 합니다.
보호 그룹을 삭제하기 전에 다음 조건이 만족되는지 확인하십시오.
삭제하려는 보호 그룹이 로컬로 존재합니다.
보호 그룹이 로컬 클러스터에서 오프라인입니다.
보호 그룹을 삭제할 때 응용 프로그램 자원 그룹을 온라인으로 유지하려면 보호 그룹에서 응용 프로그램 자원 그룹을 제거해야 합니다. 이 절차의 예는 예 10–7 및 예 10–10을 참조하십시오.
1차 클러스터의 노드에 로그인합니다.
이 절차를 완료하려면 Geo Management RBAC 권리 프로파일이 지정되어야 합니다. RBAC에 대한 자세한 정보는 Sun Cluster Geographic Edition 소프트웨어와 RBAC를 참조하십시오.
보호 그룹을 삭제합니다.
이 명령은 로컬 클러스터에서 보호 그룹 구성을 삭제합니다. 명령은 또한 보호 그룹의 각 Hitachi TrueCopy 장치 그룹에 대한 복제 자원 그룹을 제거합니다. 이 명령은 Hitachi TrueCopy 장치 그룹의 쌍 상태를 변경하지 않습니다.
# geopg delete protection-group-name |
보호 그룹의 이름을 지정합니다.
2차 클러스터의 보호 그룹도 삭제하려면 cluster-newyork에서 1단계와 2단계를 반복하십시오.
다음 예는 두 파트너 클러스터에서 보호 그룹을 삭제하는 방법을 보여줍니다.
cluster-paris가 1차 클러스터입니다. 샘플 클러스터 구성을 다시 보려면 그림 2–1을 참조하십시오.
# rlogin cluster-paris -l root cluster-paris# geopg delete tcpg # rlogin cluster-newyork -l root cluster-newyork# geopg delete tcpg |
다음 예는 보호 그룹 tcpg를 삭제하는 동안 두 응용 프로그램 자원 그룹(apprg1 및 apprg2)을 온라인으로 유지하는 방법을 보여줍니다. 보호 그룹에서 응용 프로그램 자원 그룹을 제거한 후 보호 그룹을 삭제합니다.
# geopg remove-resource-group apprg1,apprg2 tcpg # geopg stop -e global tcpg # geopg delete tcpg |
데이터 복제가 필요하지 않은 보호 그룹의 일부Sun Cluster Geographic Edition 소프트웨어를 사용하여 자원 그룹만 관리하고 데이터 복제를 다르게 처리할 경우 데이터를 복제하지 않은 보호 그룹을 작성할 수 있습니다. geoadm status 명령은 이들 보호 그룹에 대해 Degraded 상태를 표시합니다. 이 절에서는 데이터 복제를 사용하지 않고 보호 그룹을 구성하는 방법에 대해 설명합니다.
데이터 복제를 사용하는 Hitachi TrueCopy 보호 그룹을 작성하는 방법은 Hitachi TrueCopy 보호 그룹 작성 및 구성 방법을 참조하십시오.
데이터 복제를 사용하지 않는 보호 그룹에 장치 그룹을 추가할 수 없습니다.
보호 그룹을 작성하기 전에 다음 조건이 만족되는지 확인하십시오.
로컬 클러스터가 파트너쉽의 구성원입니다.
작성 중인 보호 그룹이 아직 존재하지 않습니다.
보호 그룹 이름이 전역 Sun Cluster Geographic Edition 이름공간에서 고유합니다. 동일한 시스템의 두 파트너쉽에서 동일한 보호 그룹 이름을 사용할 수 없습니다.
클러스터 노드 중 하나에 로그인합니다.
이 절차를 완료하려면 Geo Management RBAC 권리 프로파일이 지정되어야 합니다. RBAC에 대한 자세한 정보는 Sun Cluster Geographic Edition 소프트웨어와 RBAC를 참조하십시오.
geopg create 명령을 사용하여 새 보호 그룹을 작성합니다.
이 명령은 로컬 클러스터의 모든 노드에 보호 그룹을 작성합니다.
# geopg create -s partnership-name -o local-role \ [-p property-settings [-p...]] \ protection-group-name |
파트너쉽의 이름을 지정합니다.
로컬 클러스터에서 이 보호 그룹의 역할을 Primary 또는 Secondary 중 하나로 지정합니다.
보호 그룹의 등록 정보를 설정합니다.
사용자가 설정할 수 있는 등록 정보는 다음과 같습니다.
설명 – 보호 그룹을 설명합니다.
시간 초과 – 보호 그룹에 대한 시간 초과 기간을 초 단위로 지정합니다.
Nodelist – 복제 서브시스템에 대한 1차가 될 수 있는 시스템의 호스트 이름을 나열합니다.
Cluster_dgs – 데이터가 기록되는 장치 그룹을 나열합니다.
사용자가 설정할 수 있는 등록 정보에 대한 자세한 정보는 부록 A, 표준 Sun Cluster Geographic Edition 등록 정보를 참조하십시오.
보호 그룹의 이름을 지정합니다.
Sun Cluster Geographic Edition 소프트웨어가 지원하는 이름 및 값에 대한 정보는 부록 B, Sun Cluster Geographic Edition 엔티티의 합법적 이름 및 값를 참조하십시오.
geopg 명령에 대한 자세한 정보는 geopg(1M) 매뉴얼 페이지를 참조하십시오.
다음 예는 복제되지 않는 보호 그룹 작성 방법을 보여줍니다.
# geopg create -s paris-newyork-ps -o primary example-pg |
보호 그룹에 대한 자원 그룹 추가와 관련된 정보는 Hitachi TrueCopy 응용 프로그램 자원 그룹 관리를 참조하십시오.
높은 가용성을 위해서는 응용 프로그램이 응용 프로그램 자원 그룹의 자원으로 관리되어야 합니다.
응용 프로그램 자원, 설치, 응용 프로그램 구성 파일 및 자원 그룹과 같이 1차 클러스터의 응용 프로그램 자원 그룹에 대해 구성하는 모든 엔티티가 2차 클러스터에 복제되어야 합니다. 자원 그룹 이름은 두 클러스터에서 동일해야 합니다. 또한 응용 프로그램 자원이 사용하는 데이터는 2차 클러스터에 복제되어야 합니다.
본 절은 다음 작업으로 구성되어 있습니다.
기존 자원 그룹을 보호 그룹에 대한 응용 프로그램 자원 그룹 목록에 추가할 수 있습니다. 보호 그룹에 응용 프로그램 자원 그룹을 추가하기 전에 다음 조건이 만족되는지 확인하십시오.
보호 그룹이 정의되어 있습니다.
추가할 자원 그룹이 이미 두 클러스터에 모두 존재하며 적당한 상태에 있습니다.
자원 그룹의 Auto_start_on_new_cluster 등록 정보가 False로 설정되어 있습니다. scrgadm 명령을 사용하여 이 등록 정보를 볼 수 있습니다.
# scrgadm -pvv -g apprg | grep Auto_start_on_new_cluster |
다음과 같이 Auto_start_on_new_cluster 등록 정보를 False로 설정하십시오.
scrgadm -c -g apprg1 -y Auto_start_on_new_cluster=False |
응용 프로그램 자원 그룹이 이 보호 그룹 밖에 있는 자원 그룹 및 자원에 종속되지 않아야 합니다. 종속성을 공유하는 여러 응용 프로그램 자원 그룹을 추가하려면 한 번의 조작으로 응용 프로그램 자원 그룹을 보호 그룹에 추가해야 합니다. 응용 프로그램 자원 그룹을 개별적으로 추가하면 조작은 실패합니다.
보호 그룹을 활성화 또는 비활성화할 수 있으며 자원 그룹은 Online 또는 Offline일 수 있습니다.
보호 그룹의 구성이 변경된 후, 자원 그룹이 Offline 상태이고 보호 그룹이 Active 상태인 경우, 보호 그룹의 로컬 상태는Degraded 로 됩니다.
추가할 자원 그룹이 Online이고 보호 그룹이 비활성화되는 경우 요청은 거부됩니다. 활성 자원 그룹을 추가하기 전에 보호 그룹을 활성화해야 합니다.
클러스터 노드 중 하나에 로그인합니다.
이 절차를 완료하려면 Geo Management RBAC 권리 프로파일이 지정되어야 합니다. RBAC에 대한 자세한 정보는 Sun Cluster Geographic Edition 소프트웨어와 RBAC를 참조하십시오.
보호 그룹에 응용 프로그램 자원 그룹을 추가합니다.
이 명령은 응용 프로그램 자원 그룹을 로컬 클러스터의 보호 그룹에 추가합니다. 그런 다음 명령은 파트너 클러스터가 동일한 이름의 보호 그룹을 포함하는 경우 새 구성 정보를 파트너 클러스터로 전파합니다.
# geopg add-resource-group resource-group-list protection-group |
응용 프로그램 자원 그룹의 이름을 지정합니다.
쉼표로 구분된 목록으로 된 둘 이상의 자원 그룹을 지정할 수 있습니다.
보호 그룹의 이름을 지정합니다.
Sun Cluster Geographic Edition 소프트웨어가 지원하는 이름 및 값에 대한 정보는 부록 B, Sun Cluster Geographic Edition 엔티티의 합법적 이름 및 값를 참조하십시오.
로컬 클러스터에서 추가 조작에 실패하는 경우 보호 그룹의 구성이 수정되지 않습니다. 그렇지 않으면 로컬 클러스터에서 구성 상태가 OK로 설정됩니다.
로컬 클러스터에서 구성 상태가 OK이지만 파트너 클러스터에서 추가 조작에 실패하는 경우, 파트너 클러스터에서 구성 상태가 Error로 설정됩니다.
응용 프로그램 자원 그룹이 보호 그룹에 추가된 후 응용 프로그램 자원 그룹은 보호 그룹의 엔티티로서 관리됩니다. 그러면 응용 프로그램 자원 그룹은 시작, 정지, 작업 전환 및 작업 인계 같은 보호 그룹 조작의 영향을 받습니다.
다음 예는 두 개의 응용 프로그램 자원 그룹 apprg1 및 apprg2를 tcpg에 추가하는 방법을 보여줍니다.
# geopg add-resource-group apprg1,apprg2 tcpg |
응용 프로그램 자원 그룹의 상태나 내용을 변경하지 않고 보호 그룹에서 기존 응용 프로그램 자원 그룹을 제거할 수 있습니다.
보호 그룹에서 응용 프로그램 자원 그룹을 제거하기 전에 다음 조건이 만족되는지 확인하십시오.
보호 그룹이 로컬 클러스터에 정의되어 있습니다.
제거될 자원 그룹이 보호 그룹의 응용 프로그램 자원 그룹의 일부입니다. 예를 들어 데이터 복제 관리 엔티티에 속하는 자원 그룹을 제거할 수 없습니다.
클러스터 노드 중 하나에 로그인합니다.
이 절차를 완료하려면 Geo Management RBAC 권리 프로파일이 지정되어야 합니다. RBAC에 대한 자세한 정보는 Sun Cluster Geographic Edition 소프트웨어와 RBAC를 참조하십시오.
보호 그룹에서 응용 프로그램 자원 그룹을 제거합니다.
이 명령은 응용 프로그램 자원 그룹을 로컬 클러스터의 보호 그룹에서 제거합니다. 파트너 클러스터에 동일한 이름의 보호 그룹이 있는 경우 명령은 파트너 클러스터의 보호 그룹에서 응용 프로그램 자원 그룹을 제거합니다.
# geopg remove-resource-group resource-group-list protection-group |
응용 프로그램 자원 그룹의 이름을 지정합니다.
쉼표로 구분된 목록으로 된 둘 이상의 자원 그룹을 지정할 수 있습니다.
보호 그룹의 이름을 지정합니다.
로컬 클러스터에서 제거 조작에 실패하는 경우 보호 그룹의 구성이 수정되지 않습니다. 그렇지 않으면 로컬 클러스터에서 구성 상태가 OK로 설정됩니다.
로컬 클러스터에서 구성 상태가 OK이지만 파트너 클러스터에서 제거 조작에 실패하는 경우, 파트너 클러스터에서 구성 상태가 Error로 설정됩니다.
다음 예는 두 개의 응용 프로그램 자원 그룹 apprg1 및 apprg2를 tcpg에서 제거하는 방법을 보여줍니다.
# geopg remove-resource-group apprg1,apprg2 tcpg |
이 절에서는 Hitachi TrueCopy 데이터 복제 장치 그룹 관리에 대한 다음 정보를 제공합니다.
Hitachi TrueCopy 데이터 복제 보호 그룹 구성에 대한 자세한 내용은 Hitachi TrueCopy 보호 그룹 작성 및 구성 방법을 참조하십시오.
클러스터 노드 중 하나에 로그인합니다.
이 절차를 완료하려면 Geo Management RBAC 권리 프로파일이 지정되어야 합니다. RBAC에 대한 자세한 정보는 Sun Cluster Geographic Edition 소프트웨어와 RBAC를 참조하십시오.
보호 그룹에 데이터 복제 장치 그룹을 작성합니다. .
이 명령은 로컬 클러스터의 보호 그룹에 장치 그룹을 추가하고 파트너 클러스터가 동일한 이름의 보호 그룹을 포함하는 경우 파트너 클러스터로 새 구성을 전파합니다.
# geopg add-device-group -p property-settings [-p...] device-group-name protection-group-name |
데이터 복제 장치 그룹의 등록 정보를 설정합니다.
사용자가 설정할 수 있는 Hitachi TrueCopy 특정 등록 정보는 다음과 같습니다.
Fence_level – 장치 그룹이 사용하는 장벽 레벨을 정의합니다. 장벽 레벨은 해당 장치 그룹에 대한 1차 및 2차 볼륨 사이의 일관성 레벨을 판별합니다.
이 등록 정보는 data, status, never 또는 async의 값을 가질 수 있습니다. never 또는 async의 Fence_level 을 사용하면 2차 클러스터의 실패 후에도 응용 프로그램이 계속 1차 클러스터에 쓸 수 있습니다. 그러나 Fence_level을 data 또는 status로 설정하면 2차 클러스터가 다음과 같은 이유로 사용 불가능하기 때문에 1차 클러스터의 응용 프로그램이 실패할 수 있습니다.
데이터 복제 링크 실패
2차 클러스터 및 저장소 정지
2차 클러스터의 저장소 정지
1차 클러스터의 응용프로그램 실패를 피하려면 never 또는 async의 Fence_level을 지정하십시오. data 또는 status의 Fence_level을 사용하기 위한 특수 요구 사항이 있는 경우, Sun 담당자에게 문의하십시오.
다른 장벽 레벨과 연관된 응용 프로그램 오류에 대한 자세한 정보는 Sun StorEdge SE 9900 V Series Command and Control Interface User and Reference Guide를 참조하십시오.
사용자가 설정할 수 있는 기타 등록 정보는 사용 중인 데이터 복제 유형에 따라 다릅니다. 이들 등록 정보에 대한 자세한 내용은 부록 A, 표준 Sun Cluster Geographic Edition 등록 정보를 참조하십시오.
새 데이터 복제 장치 그룹의 이름을 지정합니다.
새 데이터 복제 장치 그룹을 포함할 보호 그룹의 이름을 지정합니다.
Sun Cluster Geographic Edition 소프트웨어가 지원하는 이름 및 값에 대한 정보는 부록 B, Sun Cluster Geographic Edition 엔티티의 합법적 이름 및 값를 참조하십시오.
geopg 명령에 대한 자세한 정보는 geopg(1M) 매뉴얼 페이지를 참조하십시오.
|
다음 예는 tcpg 보호 그룹에 Hitachi TrueCopy 데이터 복제 장치 그룹을 작성하는 방법을 보여줍니다.
# geopg add-device-group -p Fence_level=data devgroup1 tcpg |
/etc/horcm.conf 파일에 dev_group으로 구성된 Hitachi TrueCopy 장치 그룹이 보호 그룹에 추가될 때 데이터 복제 계층이 다음 검증을 수행합니다.
horcmd 데몬이 보호 그룹의 Nodelist 등록 정보에 주어진 모든 노드에서 실행 중인지 검증합니다.
horcmd 데몬에 대한 자세한 정보는 Sun StorEdge SE 9900 V Series Command and Control Interface User and Reference Guide를 참조하십시오.
Nodelist 등록 정보에서 주어진 모든 노드에서 저장소 장치로의 경로가 존재하는지 점검합니다. 저장소 장치는 새 Hitachi TrueCopy 장치 그룹을 제어합니다.
geopg add-device-group 명령에 지정된 Hitachi TrueCopy 장치 그룹 등록 정보가 다음 표에 설명된 대로 검증됩니다.
Hitachi TrueCopy 장치 그룹 등록 정보 |
유효성 검사 |
---|---|
device-group-name |
지정된 Hitachi TrueCopy 장치 그룹이 Nodelist 등록 정보에 지정되는 모든 클러스터 노드에서 구성되는지 점검합니다. |
Fence_level |
이 Hitachi TrueCopy 장치 그룹에 대해 쌍 하나가 이미 설정된 경우 데이터 복제 계층이 지정된 Fence_level이 이미 설정된 장벽 레벨과 일치하는지 확인합니다. 쌍이 아직 설정되지 않은 경우, 예를 들어 쌍이 SMPL 상태에 있는 경우 모든 Fence_level이 허용됩니다. |
Hitachi TrueCopy 장치 그룹이 보호 그룹에 추가될 때 Sun Cluster 자원이 자동으로 이 명령에 의해 작성됩니다. 이 자원은 데이터 복제를 감시합니다. 자원의 이름은 r-tc-protection-group-name-device-group-name입니다. 이 자원은 대응하는 Sun Cluster 자원 그룹에 위치하는데, 해당 그룹의 이름은 rg-tc-protection-group-name입니다.
Sun Cluster 명령으로 이 복제 자원을 수정하기 전에 주의해야 합니다. 이들 자원은 내부 구현 전용입니다.
검증을 위해 Sun Cluster Geographic Edition은 각 Hitachi TrueCopy 장치 그룹에 쌍의 현재 상태에 따른 상태를 부여합니다. 이 상태는 pairvolchk -g <DG> -ss 명령에 의해 리턴됩니다.
이 절의 나머지는 개별 장치 그룹 상태 및 이들 상태가 보호 그룹의 로컬 역할에 대해 검증되는 방법을 설명합니다.
개별 Hitachi TrueCopy 장치 그룹은 다음 상태 중 하나에 있을 수 있습니다.
SMPL
정상 기본
정상 보조
인계 기본
인계 보조
특정 장치 그룹의 상태는 pairvolchk -g <DG> -ss 명령에 의해 리턴되는 값을 사용하여 판별됩니다. 다음 표는 pairvolchk 명령에 의해 리턴되는 값과 연관된 장치 그룹 상태를 설명합니다.
표 10–1 개별 Hitachi TrueCopy 장치 그룹 상태
pairvolchk의 출력 |
개별 장치 그룹 상태 |
---|---|
11 = SMPL |
SMPL |
22 / 42 = PVOL_COPY 23 / 42 = PVOL_PAIR 26 / 46 = PVOL_PDUB 47 = PVOL_PFUL 48 = PVOL_PFUS |
정상 기본 |
24 / 44 = PVOL_PSUS 25 / 45 = PVOL_PSUE 이들 리턴 코드의 경우 개별 장치 그룹 카테고리 판별은 horcmd 프로세스가 원격 클러스터에서 활성이어서 이 장치 그룹에 대한 remote-pair-state를 얻을 수 있어야 합니다. |
remote-cluster-state !=SSWS인 경우, Regular Primary 또는 remote-cluster-state == SSWS인 경우, Takeover Secondary SSWS의 상태는 pairdisplay -g <DG> -fc 명령을 사용할 때 볼 수 있습니다. |
32 / 52 = SVOL_COPY 33 / 53 = SVOL_PAIR 35 / 55 = SVOL_PSUE 36 / 56 = SVOL_PDUB 57 = SVOL_PFUL 58 = SVOL_PFUS |
정상 보조 |
34 / 54 = SVOL_PSUS |
Regular Secondary, if local-cluster-state !=SSWS 또는 Takeover Primary, if local-cluster-state == SSWS SSWS의 상태는 pairdisplay -g <DG> -fc 명령을 사용할 때 볼 수 있습니다. |
보호 그룹에 하나의 Hitachi TrueCopy 장치 그룹만 있는 경우 총계 장치 그룹 상태는 개별 장치 그룹 상태와 같습니다.
보호 그룹에 복수 Hitachi TrueCopy 장치 그룹이 있는 경우 총계 장치 그룹 상태는 다음 표에서 설명하는 대로 판별됩니다.
표 10–2 총계 장치 그룹 상태를 판별하는 조건
조건 |
총계 장치 그룹 상태 |
---|---|
모든 개별 장치 그룹 상태가 SMPL임 |
SMPL |
모든 개별 장치 그룹 상태가 정상 기본 또는 SMPL임 |
정상 기본 |
모든 개별 장치 그룹 상태가 정상 보조 또는 SMPL임 |
정상 보조 |
모든 개별 장치 그룹 상태가 인계 기본 또는 SMPL임 |
인계 기본 |
모든 개별 장치 그룹 상태가 인계 보조 또는 SMPL임 |
인계 보조 |
개별 장치 그룹 상태의 다른 모든 조합의 경우 총계 장치 그룹 상태를 판별할 수 없으며 쌍 상태 검증 실패로 간주됩니다.
Hitachi TrueCopy 보호 그룹의 로컬 역할은 다음 표에서 설명하는 대로 총계 장치 그룹 상태에 대해 검증됩니다.
표 10–3 보호 그룹의 로컬 역할에 대해 총계 장치 그룹 상태 검증
총계 장치 그룹 상태 |
올바른 로컬 보호 그룹 역할 |
---|---|
SMPL |
primary 또는 secondary |
정상 기본 |
primary |
정상 보조 |
secondary |
인계 기본 |
primary |
인계 보조 |
secondary |
다음 예는 Hitachi TrueCopy 장치 그룹의 상태가 해당 그룹이 속하는 Hitachi TrueCopy 보호 그룹의 역할에 대해 검증되는 방법을 보여줍니다. 첫 번째로, 보호 그룹이 다음과 같이 작성됩니다.
phys-paris-1# geopg create -s paris-newyork-ps -o primary -d truecopy tcpg |
장치 그룹 devgroup1이 다음과 같이 보호 그룹 tcpg에 추가됩니다.
phys-paris-1# geopg add-device-group -p fence_level=async devgroup1 tcpg |
Hitachi TrueCopy 장치 그룹 devgroup1의 현재 상태가 다음과 같이 pairdisplay 명령의 출력에 제공됩니다.
phys-paris-1# pairdisplay -g devgroup1 Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M devgroup1 pair1(L) (CL1-A , 0, 1) 12345 1..P-VOL PAIR ASYNC,54321 609 - devgroup1 pair1(R) (CL1-C , 0, 20)54321 609..S-VOL PAIR ASYNC,----- 1 - devgroup1 pair2(L) (CL1-A , 0, 2) 12345 2..P-VOL PAIR ASYNC,54321 610 - devgroup1 pair2(R) (CL1-C , 0,21) 54321 610..S-VOL PAIR ASYNC,----- 2 - |
pairvolchk -g <DG> -ss 명령이 실행되고 값 23을 리턴합니다.
phys-paris-1# pairvolchk -g devgroup1 -ss parivolchk : Volstat is P-VOL.[status = PAIR fence = ASYNC] phys-paris-1# echo $? 23 |
pairvolchk 명령의 결과는 23입니다. 이는 표 10–1의 Regular Primary의 개별 장치 그룹 상태와 일치합니다. 보호 그룹에 하나의 장치 그룹만 있기 때문에 총계 장치 그룹 상태는 개별 장치 그룹 상태와 같습니다. 표 10–3에 지정된 것처럼 -o 옵션으로 지정된 보호 그룹의 로컬 역할이 primary이므로 장치 그룹 상태는 유효합니다.
클러스터 노드 중 하나에 로그인합니다.
이 절차를 완료하려면 Geo Management RBAC 권리 프로파일이 지정되어야 합니다. RBAC에 대한 자세한 정보는 Sun Cluster Geographic Edition 소프트웨어와 RBAC를 참조하십시오.
장치 그룹을 수정합니다.
이 명령은 로컬 클러스터의 보호 그룹에 있는 장치 그룹의 등록 정보를 수정합니다. 그런 다음 명령은 파트너 클러스터가 동일한 이름의 보호 그룹을 포함하는 경우 새 구성을 파트너 클러스터로 전파합니다.
# geopg modify-device-group -p property-settings [-p...] \ TC-device-group-name protection-group-name |
데이터 복제 장치 그룹의 등록 정보를 설정합니다.
사용자가 설정할 수 있는 등록 정보에 대한 자세한 정보는 부록 A, 표준 Sun Cluster Geographic Edition 등록 정보를 참조하십시오.
새 데이터 복제 장치 그룹의 이름을 지정합니다.
새 데이터 복제 장치 그룹을 포함할 보호 그룹의 이름을 지정합니다.
다음 예는 Hitachi TrueCopy 보호 그룹의 일부인 데이터 복제 장치 그룹의 등록 정보를 수정하는 방법을 보여줍니다.
# geopg modify-device-group -p fence_level=async tcdg tcpg |
데이터 복제 장치 그룹을 보호 그룹에 추가하는 경우 보호 그룹에서 데이터 복제 장치 그룹을 삭제해야 하는 경우가 있습니다. 일반적으로 응용 프로그램이 디스크 세트에 기록하도록 구성된 후 디스크를 변경하지 않습니다.
데이터 복제 장치 그룹을 삭제해도 복제가 정지되거나 데이터 복제 장치 그룹의 복제 상태가 변경되지 않습니다.
보호 그룹 삭제에 대한 정보는 Hitachi TrueCopy 보호 그룹 삭제 방법을 참조하십시오. 보호 그룹에서 응용 프로그램 자원 그룹 삭제에 대한 정보는 Hitachi TrueCopy 보호 그룹에서 응용 프로그램 자원 그룹을 삭제하는 방법을 참조하십시오.
클러스터 노드 중 하나에 로그인합니다.
이 절차를 완료하려면 Geo Management RBAC 권리 프로파일이 지정되어야 합니다. RBAC에 대한 자세한 정보는 Sun Cluster Geographic Edition 소프트웨어와 RBAC를 참조하십시오.
장치 그룹을 제거합니다.
이 명령은 장치 그룹을 로컬 클러스터의 보호 그룹에서 제거합니다. 그런 다음 명령은 파트너 클러스터가 동일한 이름의 보호 그룹을 포함하는 경우 새 구성을 파트너 클러스터로 전파합니다.
# geopg remove-device-group device-group-name protection-group-name |
데이터 복제 장치 그룹의 이름을 지정합니다.
보호 그룹의 이름을 지정합니다.
장치 그룹이 Hitachi TrueCopy 보호 그룹에서 삭제될 때 대응하는 Sun Cluster 자원 r-tc-protection-group-name-device-group-name이 복제 자원 그룹에서 제거됩니다. 결국 삭제된 장치 그룹이 더 이상 감시되지 않습니다. 보호 그룹이 삭제될 때 자원 그룹이 제거됩니다.
다음 예는 Hitachi TrueCopy 데이터 복제 장치 그룹 제거 방법을 보여줍니다.
# geopg remove-device-group tcdg tcpg |
1차 및 2차 클러스터에서 데이터 복제, 자원 그룹 및 자원을 구성한 후 보호 그룹의 구성을 2차 클러스터로 복제할 수 있습니다.
Hitachi TrueCopy 보호 그룹의 구성을 파트너 클러스터로 복제하기 전에 다음 조건이 만족되는지 확인하십시오.
보호 그룹이 로컬 클러스터가 아니라 원격 클러스터에 정의되어 있습니다.
원격 클러스터의 보호 그룹에 있는 장치 그룹이 로컬 클러스터에 존재합니다.
원격 클러스터의 보호 그룹에 있는 응용 프로그램 자원 그룹이 로컬 클러스터에 존재합니다.
자원 그룹의 Auto_start_on_new_cluster 등록 정보가 False로 설정되어 있습니다. scrgadm 명령을 사용하여 이 등록 정보를 볼 수 있습니다.
# scrgadm -pvv -g apprg1 | grep Auto_start_on_new_cluster |
다음과 같이 Auto_start_on_new_cluster 등록 정보를 False로 설정하십시오.
scrgadm -c -g apprg1 -y Auto_start_on_new_cluster=False |
phys-newyork-1에 로그인합니다.
이 절차를 완료하려면 Geo Management RBAC 권리 프로파일이 지정되어야 합니다. RBAC에 대한 자세한 정보는 Sun Cluster Geographic Edition 소프트웨어와 RBAC를 참조하십시오.
phys-newyork-1은 2차 클러스터의 유일한 노드입니다. phys-newyork-1이 어떤 노드인지 다시 보려면 그림 2–1을 참조하십시오.
geopg get 명령을 사용하여 보호 그룹 구성을 파트너 클러스터에 복제합니다.
이 명령은 원격 클러스터에서 보호 그룹의 구성 정보를 검색하고 로컬 클러스터에 보호 그룹을 작성합니다.
phys-newyork-1# geopg get -s partnership-name [protection-group] |
보호 그룹 구성 정보가 검색되어야 하는 파트너쉽의 이름과 보호가 로컬로 작성될 파트너쉽의 이름을 지정합니다.
보호 그룹의 이름을 지정합니다.
보호 그룹이 지정되지 않으면 원격 파트너의 지정된 파트너쉽에 존재하는 모든 보호 그룹이 로컬 클러스터에 작성됩니다.
geopg get 명령이 Sun Cluster Geographic Edition 관련 엔티티를 복제합니다. Sun Cluster 엔티티 복제 방법에 대한 정보는 Sun Cluster Data Services Planning and Administration Guide for Solaris OS의 Sun Cluster Data Services Planning and Administration Guide for Solaris OS의 Replicating and Upgrading Configuration Data for Resource Groups, Resource Types, and Resources를 참조하십시오.
다음 예는 tcpg의 구성을 cluster-paris에서 cluster-newyork으로 복제하는 방법을 보여줍니다.
# rlogin phys-newyork-1 -l root phys-newyork-1# geopg get -s paris-newyork-ps tcpg |
보호 그룹을 활성화할 때 보호 그룹은 사용자가 구성 중에 지정한 역할을 가정합니다. 다음 방법으로 보호 그룹을 활성화할 수 있습니다.
전역으로, 이는 보호 그룹이 구성되는 두 클러스터 모두에서 보호 그룹을 활성화함을 의미합니다.
2차 클러스터는 여전히 비활성이도록 1차 클러스터에서만.
1차 클러스터에서 여전히 비활성이도록 2차 클러스터에서만.
클러스터의 Hitachi TrueCopy 보호 그룹 활성화는 데이터 복제 계층에 다음 영향을 줍니다.
보호 그룹의 데이터 복제 구성이 검증됩니다. 검증 중에, 보호 그룹의 현재 로컬 역할은 표 10–3의 설명과 같이 총계 장치 그룹 상태와 비교됩니다. 검증에 성공하는 경우 데이터 복제가 시작됩니다.
데이터 복제는 활성화가 1차 또는 2차 클러스터에서 발생하는지와 상관없이 보호 그룹에 대해 구성된 데이터 복제 장치 그룹에서 시작됩니다. 데이터는 항상 보호 그룹의 로컬 역할이 primary인 클러스터에서 보호 그룹의 로컬 역할이 secondary인 클러스터로 복제됩니다.
응용 프로그램 처리는 데이터 복제가 성공적으로 시작된 후에만 진행됩니다.
보호 그룹 활성화는 응용 프로그램 계층에 다음 영향을 미칩니다.
보호 그룹이 1차 클러스터에서 활성화될 때 해당 보호 그룹에 대해 구성된 응용 프로그램 자원 그룹도 시작됩니다.
보호 그룹이 2차 클러스터에서 활성화될 때 응용 프로그램 자원 그룹은 시작되지 않습니다.
데이터 복제를 시작하는 데 사용되는 Hitachi TrueCopy 명령은 다음 요소에 의존합니다.
총계 장치 그룹 상태
보호 그룹의 로컬 역할
현재 쌍 상태
다음 표는 요소의 가능한 각 조합에 대해 데이터 복제를 시작하는 데 사용되는 Hitachi TrueCopy 명령을 설명합니다. 명령에서 dg는 장치 그룹 이름이고 fl은 장치 그룹에 대해 구성된 장벽 레벨입니다.
표 10–4 Hitachi TrueCopy 데이터 복제를 시작하는 데 사용되는 명령
총계 장치 그룹 상태 |
올바른 로컬 보호 그룹 역할 |
Hitachi TrueCopy 시작 명령 |
---|---|---|
SMPL |
primary 또는 secondary |
paircreate -vl -g dg -f fl paircreate -vr -g dg -f fl
두 명령 모두 horcmd 프로세스가 원격 클러스터에서 작동해야 합니다. |
정상 기본 |
primary |
로컬 상태 코드가 22, 23, 25, 26, 29, 42, 43, 45, 46 또는 47인 경우, 데이터가 이미 복제되고 있기 때문에 실행되는 명령이 없습니다. 로컬 상태 코드가 24, 44 또는 48이면 다음 명령이 실행됩니다. pairresync -g dg [-l] 로컬 상태 코드가 11이면 다음 명령이 실행됩니다. paircreate -vl -g dg -f fl 두 명령 모두 horcmd 프로세스가 원격 클러스터에서 작동해야 합니다. |
정상 보조 |
secondary |
로컬 상태 코드가 32, 33, 35, 36, 39, 52, 53, 55, 56 또는 57인 경우, 데이터가 이미 복제되고 있기 때문에 실행되는 명령이 없습니다. 로컬 상태 코드가 34, 54 또는 58이면 다음 명령이 실행됩니다. pairresync -g dg 로컬 상태 코드가 11이면 다음 명령이 실행됩니다. paircreate -vr -g dg -f fl 두 명령 모두 horcmd 프로세스가 원격 클러스터에서 작동해야 합니다. |
인계 기본 |
primary |
로컬 상태 코드가 34 또는 54이면 다음 명령이 실행됩니다. pairresync -swaps -g 로컬 상태 코드가 11이면 다음 명령이 실행됩니다. paircreate -vl -g dg -f fl paircreate 명령은 horcmd 프로세스가 원격 클러스터에서 작동해야 합니다. |
인계 보조 |
secondary |
로컬 상태 코드가 24, 44, 25 또는 45이면 다음 명령이 실행됩니다. pairresync -swapp -g dg 로컬 상태 코드가 11이면 다음 명령이 실행됩니다. paircreate -vr -g dg -f fl 두 명령 모두 horcmd 프로세스가 원격 클러스터에서 작동해야 합니다. |
클러스터 노드 중 하나에 로그인합니다.
이 절차를 완료하려면 Geo Management RBAC 권리 프로파일이 지정되어야 합니다. RBAC에 대한 자세한 정보는 Sun Cluster Geographic Edition 소프트웨어와 RBAC를 참조하십시오.
보호 그룹을 활성화합니다.
보호 그룹을 활성화할 때 그의 응용 프로그램 자원 그룹도 온라인이 됩니다.
# geopg start -e scope [-n] protection-group-name |
명령의 범위를 지정합니다.
범위가 Local인 경우 명령은 로컬 클러스터에서만 동작합니다. 범위가 Global인 경우 명령은 보호 그룹을 전개하는 두 클러스터 모두에서 동작합니다.
Global 및 Local 같은 등록 정보 값은 대소문자를 구별하지 않습니다.
보호 그룹 시작 시에 데이터 복제의 시작을 막습니다.
이 옵션을 생략하면 데이터 복제 서브시스템이 보호 그룹과 동시에 시작합니다.
보호 그룹의 이름을 지정합니다.
geopg start 명령은 scswitch -Z -g resource-groups 명령을 사용하여 자원 그룹 및 자원을 온라인으로 만듭니다. 이 명령의 사용에 대한 자세한 정보는 scswitch(1M) 매뉴얼 페이지를 참조하십시오.
다음 예는 Sun Cluster Geographic Edition이 데이터 복제를 시작하는 데 사용되는 Hitachi TrueCopy 명령을 판별하는 방법을 보여줍니다.
먼저, Hitachi TrueCopy 보호 그룹이 작성됩니다.
phys-paris-1# geopg create -s paris-newyork-ps -o primary -d truecopy tcpg |
장치 그룹 devgroup1이 보호 그룹에 추가됩니다.
phys-paris-1# geopg add-device-group -p fence_level=async devgroup1 tcpg |
Hitachi TrueCopy 장치 그룹인 devgroup1 의 현재 상태가 pairdisplay 명령의 출력에 다음과 같이 주어집니다.
phys-paris-1# pairdisplay -g devgroup1 Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M devgroup1 pair1(L) (CL1-A , 0, 1) 12345 1..SMPL ---- ----, ----- ---- - devgroup1 pair1(R) (CL1-C , 0, 20)54321 609..SMPL ---- ----, ----- ---- - devgroup1 pair2(L) (CL1-A , 0, 2) 12345 2..SMPL ---- ----, ----- ---- - devgroup1 pair2(R) (CL1-C , 0,21) 54321 610..SMPL ---- ----, ----- ---- - |
총계 장치 그룹 상태는 SMPL입니다.
다음, 보호 그룹 tcpg가 geopg start 명령을 사용하여 활성화됩니다.
phys-paris-1# geopg start -e local tcpg |
Sun Cluster Geographic Edition 소프트웨어가 데이터 복제 레벨에서 paircreate -g devgroup1 -vl -f async 명령을 실행합니다. 명령이 성공하는 경우 devgroup1의 상태가 pairdisplay 명령의 출력에 다음과 같이 주어집니다.
phys-paris-1# pairdisplay -g devgroup1 Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M devgroup1 pair1(L) (CL1-A , 0, 1) 12345 1..P-VOL COPY ASYNC,54321 609 - devgroup1 pair1(R) (CL1-C , 0, 20)54321 609..S-VOL COPY ASYNC,----- 1 - devgroup1 pair2(L) (CL1-A , 0, 2) 12345 2..P-VOL COPY ASYNC,54321 610 - devgroup1 pair2(R) (CL1-C , 0,21) 54321 610..S-VOL COPY ASYNC,----- 2 - |
다음 예는 보호 그룹은 전역으로 활성화하는 방법을 설명합니다.
# geopg start -e global tcpg |
보호 그룹 tcpg가 보호 그룹이 구성되는 두 클러스터 모두에서 활성화됩니다.
다음 예는 로컬 클러스터에서만 보호 그룹을 활성화하는 방법을 보여줍니다. 이 로컬 클러스터는 클러스터의 역할에 따라서 1차 클러스터 또는 2차 클러스터일 수 있습니다.
# geopg start -e local tcpg |
다음 방법으로 보호 그룹을 비활성화할 수 있습니다.
전역으로, 이는 보호 그룹이 구성된 1차 및 2차 클러스터 모두의 보호 그룹을 비활성화함을 의미합니다.
1차 클러스터는 여전히 활성이도록 2차 클러스터에서만
보호 그룹이 이전에 2차 클러스터에서 비활성화된 후 1차 클러스터에서만
클러스터의 Hitachi TrueCopy 보호 그룹 비활성화는 데이터 복제 계층에 다음 영향을 줍니다.
보호 그룹의 데이터 복제 구성이 검증됩니다. 검증 중에 보호 그룹의 현재 로컬 역할은 표 10–3에 설명된 것처럼 총계 장치 그룹 상태와 비교합니다. 검증에 성공하는 경우 데이터 복제가 정지됩니다.
데이터 복제는 비활성화가 1차 또는 2차 클러스터에서 발생하는지와 상관없이 보호 그룹에 대해 구성된 데이터 복제 장치 그룹에서 정지됩니다.
보호 그룹 비활성화는 응용 프로그램 계층에 다음 영향을 미칩니다.
보호 그룹이 1차 클러스터에서 비활성화되면 해당 보호 그룹에 대해 구성된 모든 응용 프로그램 자원 그룹도 정지되고 관리 해제됩니다.
보호 그룹이 2차 클러스터에서 비활성화되면 2차 클러스터의 자원 그룹은 영향을 받지 않습니다. 보호 그룹에 대해 구성된 응용 프로그램 자원 그룹은 1차 클러스터의 활성화 상태에 따라서 1차 클러스터에서 활성 상태일 수 있습니다.
데이터 복제를 정지하는 데 사용되는 Hitachi TrueCopy 명령은 다음 요소에 의존합니다.
총계 장치 그룹 상태
보호 그룹의 로컬 역할
현재 쌍 상태
다음 표는 요소의 가능한 각 조합에 대해 데이터 복제를 정지하는 데 사용되는 Hitachi TrueCopy 명령을 설명합니다. 명령에서 dg는 장치 그룹 이름입니다.
표 10–5 Hitachi TrueCopy 데이터 복제를 정지하는 데 사용되는 명령
총계 장치 그룹 상태 |
올바른 로컬 보호 그룹 역할 |
Hitachi TrueCopy 정지 명령 |
---|---|---|
SMPL |
primary 또는 secondary |
복제되고 있는 데이터가 없기 때문에 명령이 실행되지 않습니다. |
정상 기본 |
primary |
로컬 상태 코드가 22, 23, 26, 29, 42, 43, 46 또는 47이면 다음 명령이 실행됩니다. pairsplit -g dg [- l] 로컬 상태 코드가 11, 24, 25, 44, 45 또는 48이면, 복제되고 있는 데이터가 없기 때문에 어떤 명령도 실행되지 않습니다. |
정상 보조 |
secondary |
로컬 상태 코드가 32, 33, 35, 36, 39, 52, 53, 55, 56 또는 57이면 다음 명령이 실행됩니다. pairsplit -g dg 로컬 상태 코드가 33 또는 53이고 원격 상태가 PSUE인 경우, 복제를 정지하기 위해 명령이 실행되지 않습니다. 로컬 상태 코드가 11, 34, 54 또는 58이면, 복제되고 있는 데이터가 없기 때문에 어떤 명령도 실행되지 않습니다. |
인계 기본 |
primary |
복제되고 있는 데이터가 없기 때문에 명령이 실행되지 않습니다. |
인계 보조 |
secondary |
복제되고 있는 데이터가 없기 때문에 명령이 실행되지 않습니다. |
클러스터 노드에 로그인합니다.
이 절차를 완료하려면 Geo Management RBAC 권리 프로파일이 지정되어야 합니다. RBAC에 대한 자세한 정보는 Sun Cluster Geographic Edition 소프트웨어와 RBAC를 참조하십시오.
보호 그룹을 비활성화합니다.
보호 그룹을 비활성화할 때 그의 응용 프로그램 자원 그룹도 오프라인이 됩니다.
# geopg stop -e scope [-D] protection-group-name |
명령의 범위를 지정합니다.
범위가 Local인 경우 명령은 로컬 클러스터에서만 동작합니다. 범위가 Global인 경우 명령은 보호 그룹이 전개되는 두 클러스터 모두에서 동작합니다.
Global 및 Local 같은 등록 정보 값은 대소문자를 구별하지 않습니다.
보호 그룹이 온라인인 상태에서 데이터 복제가 정지되어야 함을 지정합니다.
이 옵션을 생략하는 경우 데이터 복제 서브시스템과 보호 그룹이 둘 다 정지됩니다.
보호 그룹의 이름을 지정합니다.
다음 예는 Sun Cluster Geographic Edition 소프트웨어가 데이터 복제를 정지하는 데 사용되는 Hitachi TrueCopy 명령을 판별하는 방법을 보여줍니다.
Hitachi TrueCopy 장치 그룹 devgroup1의 현재 상태가 다음과 같이 pairdisplay 명령의 출력에 제공됩니다.
phys-paris-1# pairdisplay -g devgroup1 Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M devgroup1 pair1(L) (CL1-A , 0, 1) 12345 1..P-VOL PAIR ASYNC,54321 609 - devgroup1 pair1(R) (CL1-C , 0, 20)54321 609..S-VOL PAIR ASYNC,----- 1 - devgroup1 pair2(L) (CL1-A , 0, 2) 12345 2..P-VOL PAIR ASYNC,54321 610 - devgroup1 pair2(R) (CL1-C , 0,21) 54321 610..S-VOL PAIR ASYNC,----- 2 - |
장치 그룹 devgroup1이 다음과 같이 보호 그룹에 추가됩니다.
phys-paris-1# geopg add-device-group -p fence_level=async devgroup1 tcpg |
Sun Cluster Geographic Edition 소프트웨어가 데이터 복제 레벨에서 pairvolchk -g <DG> -ss 명령을 실행하며, 값 43을 리턴합니다.
pairvolchk -g devgroup1 -ss Volstat is P-VOL.[status = PAIR fence = ASYNC] phys-paris-1# echo $? 43 |
다음, 보호 그룹 tcpg가 geopg stop 명령을 사용하여 비활성화됩니다.
phys-paris-1# geopg stop -s local tcpg |
Sun Cluster Geographic Edition 소프트웨어가 데이터 복제 레벨에서 pairsplit -g devgroup1 명령을 실행합니다.
명령이 성공하는 경우 devgroup1의 상태가 pairdisplay 명령의 출력에 다음과 같이 주어집니다.
phys-paris-1# pairdisplay -g devgroup1 Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M devgroup1 pair1(L) (CL1-A , 0, 1) 12345 1..P-VOL PSUS ASYNC,54321 609 - devgroup1 pair1(R) (CL1-C , 0, 20)54321 609..S-VOL SSUS ASYNC,----- 1 - devgroup1 pair2(L) (CL1-A , 0, 2) 12345 2..P-VOL PSUS ASYNC,54321 610 - devgroup1 pair2(R) (CL1-C , 0,21) 54321 610..S-VOL SSUS ASYNC,----- 2 - |
다음 예는 모든 클러스터에서 보호 그룹을 비활성화하는 방법을 보여줍니다.
# geopg stop -e global tcpg |
다음 예는 로컬 클러스터에서 보호 그룹을 비활성화하는 방법을 보여줍니다.
# geopg stop -e local tcpg |
다음 예는 로컬 클러스터의 데이터 복제만 정지하는 방법을 보여줍니다.
# geopg stop -e local -D tcpg |
관리자가 나중에 보호 그룹과 그의 기초 데이터 복제 서브시스템을 모두 비활성화할 것을 결정하는 경우 관리자는 -D 옵션이 없이 명령을 다시 실행할 수 있습니다.
# geopg stop -e local tcpg |
다음 예는 두 클러스터의 보호 그룹 tcpg를 비활성화하는 동안 두 응용 프로그램 자원 그룹(apprg1 및 apprg2)을 온라인으로 유지하는 방법을 보여줍니다.
보호 그룹에서 응용 프로그램 자원 그룹을 제거합니다.
# geopg remove-resource-group apprg1,apprg2 tcpg |
보호 그룹을 비활성화합니다.
# geopg stop -e global tcpg |
로컬 보호 그룹의 구성 정보를 파트너 클러스터에서 검색된 구성 정보와 재동기화할 수 있습니다. geoadm status 명령의 출력에 있는 동기화 상태가 Error일 때 보호 그룹을 재동기화해야 합니다.
예를 들어 클러스터를 부팅한 후 보호 그룹을 재동기화해야 합니다. 자세한 정보는 클러스터 부트를 참조하십시오.
보호 그룹 재동기화는 Sun Cluster Geographic Edition 소프트웨어에 관련된 엔티티만이 갱신됩니다. Sun Cluster 엔티티의 업데이트 방법에 대한 정보는 Sun Cluster Data Services Planning and Administration Guide for Solaris OS의 Replicating and Upgrading Configuration Data for Resource Groups, Resource Types, and Resources를 참조하십시오.
보호 그룹은 geopg update 명령을 실행하는 클러스터에서 비활성화되어야 합니다. 보호 그룹 비활성화에 대한 정보는 Hitachi TrueCopy 보호 그룹 비활성화를 참조하십시오.
클러스터 노드 중 하나에 로그인합니다.
이 절차를 완료하려면 Geo Management RBAC 권리 프로파일이 지정되어야 합니다. RBAC에 대한 자세한 정보는 Sun Cluster Geographic Edition 소프트웨어와 RBAC를 참조하십시오.
보호 그룹을 재동기화합니다.
# geopg update protection-group-name |
보호 그룹의 이름을 지정합니다.
다음 예는 보호 그룹 재동기화 방법을 설명합니다.
# geopg update tcpg |
Hitachi TrueCopy 복제 자원 그룹의 더욱 자세한 런타임 상태뿐 아니라 복제 상태의 전체 보기를 얻을 수 있습니다. 다음 절은 각 상태 점검을 위한 절차를 설명합니다.
각 Hitachi TrueCopy 데이터 복제 자원의 상태는 특정 장치 그룹의 복제 상태를 나타냅니다. 보호 그룹 아래의 모든 자원의 상태가 복제 상태에 누적됩니다. 이 복제 상태는 보호 그룹 상태의 두 번째 구성요소입니다. 보호 그룹 상태에 대한 자세한 정보는 Sun Cluster Geographic Edition 소프트웨어 런타임 상태 모니터링 을 참조하십시오.
복제의 전체 상태를 보려면 다음 절차에서 설명하는 대로 복제 그룹 상태를 보십시오.
보호 그룹이 정의되는 클러스터의 노드에 액세스합니다. .
이 절차를 완료하려면 기본 Solaris 사용자 RBAC 권리 프로파일이 지정되어야 합니다. RBAC에 대한 자세한 정보는 Sun Cluster Geographic Edition 소프트웨어와 RBAC를 참조하십시오.
복제의 런타임 상태를 점검합니다.
# geoadm status |
복제 정보에 대해서는 출력의 Protection Group 섹션을 참조하십시오. 이 명령에 의해 인쇄되는 정보에는 다음이 포함됩니다.
로컬 클러스터가 파트너쉽에 참여할 수 있는지 여부
로컬 클러스터가 파트너쉽에 포함되는지 여부
심박동 구성의 상태
정의된 보호 그룹의 상태
현재 트랜잭션의 상태
각 Hitachi TrueCopy 장치 그룹에 대한 데이터 복제의 런타임 상태를 점검합니다.
# scstat -g |
점검하려는 데이터 복제 장치 그룹에 대해 제공되는 상태 및 상태 메시지 필드를 참조하십시오.
이러한 필드에 대한 자세한 정보는 표 10–6을 참조하십시오.
Sun Cluster Geographic Edition 소프트웨어는 내부적으로 각 보호 그룹에 대한 하나의 복제 자원 그룹을 작성하고 유지보수합니다. 복제 자원 그룹의 이름은 다음 형식을 갖습니다.
rg-tc_truecopy-protection-group-name |
Hitachi TrueCopy 장치 그룹을 보호 그룹에 추가하는 경우 Sun Cluster Geographic Edition 소프트웨어가 각 장치 그룹에 대한 자원을 작성합니다. 이 자원이 그의 장치 그룹에 대한 복제의 상태를 감시합니다. 각 자원의 이름은 다음 형식을 갖습니다.
r-tc-truecopy-protection-group-name-truecopy-devicegroup-name |
이 자원의 상태 및 상태 메시지를 보고 이 장치 그룹의 복제 상태를 감시할 수 있습니다. 자원 상태 및 상태 메시지는 scstat -g 명령에 의해 표시됩니다.
다음 표는 Hitachi TrueCopy 복제 자원 그룹의 상태가 Online일 때 scstat -g 명령에 의해 리턴되는 상태 및 상태 메시지에 대해 설명합니다.
표 10–6 온라인 Hitachi TrueCopy 복제 자원 그룹의 상태 및 상태 메시지
상태 |
상태 메시지 |
---|---|
온라인 |
P-Vol/S-Vol:PAIR |
온라인 |
P-Vol/S-Vol:PAIR:원격 horcmd에 접근 불가능 |
온라인 |
P-Vol/S-Vol:PFUL |
온라인 |
P-Vol/S-Vol:PFUL:원격 horcmd에 접근 불가능 |
성능 저하 |
SMPL:SMPL |
성능 저하 |
SMPL:SMPL:원격 horcmd에 접근 불가능 |
성능 저하 |
P-Vol/S-Vol:COPY |
성능 저하 |
P-Vol/S-Vol:COPY:원격 horcmd에 접근 불가능 |
성능 저하 |
P-Vol/S-Vol:PSUS |
성능 저하 |
P-Vol/S-Vol:PSUS:원격 horcmd에 접근 불가능 |
성능 저하 |
P-Vol/S-Vol:PFUS |
성능 저하 |
P-Vol/S-Vol:PFUS:원격 horcmd에 접근 불가능 |
오류 |
P-Vol/S-Vol:PDFUB |
오류 |
P-Vol/S-Vol:PDUB:원격 horcmd에 접근 불가능 |
오류 |
P-Vol/S-Vol:PSUE |
오류 |
P-Vol/S-Vol:PSUE:원격 horcmd에 접근 불가능 |
성능 저하 |
S-Vol:SSWS:인계 볼륨 |
오류 |
P-Vol/S-Vol:의심이 가는 역할 구성. 실제 역할=x, 구성된 역할=y |
이들 값에 대한 자세한 내용은 Hitachi TrueCopy 문서를 참조하십시오.
scstat 명령에 대한 자세한 정보는 scstat(1M) 매뉴얼 페이지를 참조하십시오.