이 장에서는 Sun Cluster에서 사용 가능한 데이터 복제 접근 방식에 대해 설명합니다. 사용 중인 클러스터에 최적인 복제 접근 방식의 조합을 선택하려면 먼저 호스트 기반 및 저장소 기반 데이터 복제에 대해 알아야 합니다.
본 Sun Cluster 릴리스는 다음과 같은 Sun Availability Suite 소프트웨어 릴리스를 지원합니다.
Sun StorageTek Availability Suite 4
Sun StorEdge Availability Suite 3.2.1
이 문서에서 Sun StorageTek Availability Suite 소프트웨어에 대한 참조 문서는 특별히 언급되지 않는 한 Sun StorEdge Availability Suite 소프트웨어에도 적용됩니다.
이 장의 내용은 다음과 같습니다.
데이터 복제는 기본 저장소 장치의 데이터를 백업 또는 보조 장치로 복사하는 것입니다. 기본 장치가 실패할 경우, 보조 장치의 데이터를 사용할 수 있습니다. 이와 같이 데이터 복제를 통해 클러스터의 고가용성 및 재난 복구를 보장할 수 있습니다.
Sun Cluster에서는 다음과 같은 데이터 복제 접근 방식이 지원됩니다.
호스트 기반 데이터 복제는 지리적으로 분산된 노드 사이의 디스크 볼륨을 실시간으로 복제하기 위한 특수한 소프트웨어를 사용합니다. 원격 미러 복제로 기본 노드에 있는 마스터 볼륨의 데이터가 TCP/IP 연결을 통해 지리적으로 분산된 보조 노드에 있는 마스터 볼륨으로 복제될 수 있습니다. 원격 미러 비트맵에서는 기본 디스크의 마스터 볼륨과 보조 디스크의 마스터 볼륨 간의 차이를 추적합니다.
호스트 기반 데이터 복제는 저장소 어레이가 필요하지 않으므로 보다 적은 비용이 드는 데이터 복제 솔루션입니다. 호스트 기반 데이터 복제에는 로컬로 연결된 디스크가 사용됩니다. 그러나 호스트 기반 데이터 복제에는 데이터 복제를 수행하기 위해 호스트 자원이 사용되며 Oracle RAC과 같은 확장 가능 응용 프로그램이 지원되지 않습니다. 캠퍼스 클러스터 환경에서의 호스트 기반 데이터 복제 사용에 대한 내용은 호스트 기반 데이터 복제 사용 을 참조하십시오. 두 개 이상의 클러스터 간 호스트 기반 데이터 복제 사용에 대한 자세한 내용은 Sun Cluster Geographic Edition Data Replication Guide for Hitachi TrueCopy를 참조하십시오.
저장소 기반 데이터 복제는 데이터 복제 작업물을 클러스터 노드에서 저장소 장치로 이동하기 위해 특수한 소프트웨어를 사용합니다. 이러한 소프트웨어 재배치를 통해 일부 노드 처리 능력은 클러스터 요청을 수행하는 데 사용됩니다. 저장소 기반 데이터 복제는 확장 가능 응용 프로그램을 지원하고 호스트의 부하를 덜어주므로 캠퍼스 클러스터 구성에서 특히 중요할 수 있습니다. 또한, 저장소 기반 복제는 Oracle RAC와 같은 확장 가능 응용 프로그램을 지원합니다. 캠퍼스 클러스터 환경에서의 저장소 기반 데이터 복제 사용에 대한 내용은 저장소 기반 데이터 복제 사용을 참조하십시오. 둘 이상의 클러스터 간 저장소 기반 복제와 프로세스를 자동화하는 Sun Cluster GeoEdition 제품에 대한 자세한 내용은 Sun Cluster Geographic Edition Data Replication Guide for Sun StorageTek Availability Suite를 참조하십시오.
Sun StorageTek Availability Suite 소프트웨어는 지리적으로 멀리 떨어져 있는 클러스터 간 호스트 기반 데이터 복제를 위한 메커니즘을 제공합니다. 이 장의 마지막 절인 예: Sun StorEdge Availability Suite 또는 Sun StorageTek Availability Suite 소프트웨어로 호스트 기반 데이터 복제 구성에서는 해당 클러스터 구성의 전체 예를 제공합니다.
이 절에서는 방이 두 개인 캠퍼스 클러스터의 호스트 기반 데이터 복제에 대해 설명합니다. 호스트 기반 데이터 복제를 사용하는 방이 두 개인 구성은 다음과 같이 정의됩니다.
분리된 두 개의 방
방마다 각각 노드 하나와 디스크 하위 시스템 설치
방의 디스크 하위 시스템 사이에 데이터 복제
최소 하나의 디스크 하위 시스템. 두 호스트에 연결되어 쿼럼 장치로 사용되고 두 개의 방 중 하나에 위치합니다.
이 절의 예는 일반적인 캠퍼스 클러스터 구성을 설명한 것으로, 이러한 구성은 필요하거나 권장된 구성이 아닙니다. 간략하게 하기 위해, 다이어그램과 설명은 캠퍼스 클러스터링의 이해를 위한 특정 기능에만 집중되어 있습니다. 예를 들어, 공용 네트워크 이더넷 연결은 표시되어 있지 않습니다.
이 구성에서 쿼럼 디스크가 손실될 경우, 시스템은 자동으로 복구되지 않습니다.복구하려면 Sun 서비스 공급자의 도움을 받아야 합니다.
그림 4–1은 표준 비캠퍼스 구성과 유사합니다. 캠퍼스 클러스터의 가장 큰 차이점은 복수 모드에서 단일 모두 광섬유로 전환시키기 위해 광섬유 채널 스위치가 추가된 것입니다.
저장소 기반 데이터 복제는 복제 관리를 위해 저장소 장치에 설치된 소프트웨어를 사용합니다. 이러한 소프트웨어는 사용 중인 특정 저장소 장치에 따라 다릅니다. 저장소 기반 데이터 복제를 구성할 때에는 저장소 장치와 함께 제공되는 문서를 항상 참조하십시오.
사용하는 소프트웨어에 따라 저장소 기반 데이터 복제를 사용한 자동 또는 수동 페일오버를 사용할 수 있습니다. Sun Cluster는 Hitachi TrueCopy 소프트웨어를 사용한 사본의 수동 및 자동 페일오버를 모두 지원합니다.
이 절에서는 캠퍼스 클러스터에서 사용되는 저장소 기반 데이터 복제에 대해 설명합니다. 그림 4–2는 데이터가 두 개의 저장소 어레이 간에 복제되는 방이 두 개인 구성의 예를 보여줍니다. 이 구성에서, 기본 저장소 어레이는 첫 번째 방에 있으며 이 어레이는 두 방의 노드에 데이터를 제공합니다. 기본 저장소 어레이는 복제된 데이터가 있는 보조 저장소 어레이도 제공합니다.
정상적인 클러스터 작업 중에는 클러스터에서 보조 저장소 어레이를 볼 수 없습니다. 그러나 기본 저장소 어레이를 사용할 수 없게 될 경우, Sun 서비스 공급자가 보조 저장소 어레이를 클러스터에 수동으로 구성할 수 있습니다.
그림 4–2에 표시된 바와 같이, 쿼럼 장치는 복제되지 않은 볼륨에 있습니다. 복제된 볼륨은 쿼럼 장치로 사용될 수 없습니다.
사용되는 응용 프로그램의 유형에 따라 저장소 기반 데이터 복제는 Sun Cluster 환경에서 동기식 또는 비동기식으로 수행될 수 있습니다.
데이터 무결성을 보장하려면 다중 경로 지정 및 적절한 RAID 패키지를 사용해야 합니다. 다음 목록에는 저장소 기반 데이터 복제를 사용하는 캠퍼스 클러스터 구성을 구현하는 데 필요한 고려 사항이 포함되어 있습니다.
노드 간 거리는 Sun Cluster Fibre Channel 및 상호 연결 하부구조에 의해 제한됩니다. 현재의 제한 사항 및 지원되는 기술에 대한 자세한 내용은 Sun 서비스 공급자에게 문의하십시오.
복제된 볼륨을 쿼럼 장치로 구성하지 마십시오. 복제되지 않은 볼륨의 쿼럼 장치를 모두 찾습니다.
클러스터 노드에서는 데이터의 기본 사본만 볼 수 있어야 합니다. 그렇지 않으면, 볼륨 관리자가 데이터의 기본 및 보조 사본에 모두 액세스를 시도할 수 있게 되고 보조 사본이 읽기 전용이므로 데이터가 손상될 수 있습니다.
복제된 장치를 사용하고 있는 디스크 그룹 또는 디스크 세트를 만들 때에는 디스크 그룹 또는 디스크 세트와 Hitachi TrueCopy 복제 쌍에 동일한 이름을 사용하십시오.
데이터 사본의 가시성 제어에 대한 자세한 내용은 저장소 어레이와 함께 제공된 문서를 참조하십시오.
특정한 응용 프로그램 고유 데이터는 비동기식 데이터 복제에 적합하지 않을 수 있습니다. 사용 중인 응용 프로그램의 동작에 대한 이해를 바탕으로 응용 프로그램 고유의 데이터를 저장소 장치로 복제하는 최적의 방법을 결정합니다.
자동 페일오버를 위한 클러스터를 구성할 경우, 동기식 복제를 사용합니다.
복제된 볼륨의 자동 페일오버를 위한 클러스터 구성에 대한 지침은 저장소 기반의 복제된 장치 관리를 참조하십시오.
다음 제한 사항은 자동 장애 복구와 함께 저장소 기반 데이터 복제를 사용할 때 적용됩니다.
Oracle RAC(Real Application Clusters)는 지원되지 않습니다.
동기식 모드만 지원됩니다.
복제된 장치는 쿼럼 장치가 될 수 없습니다.
Sun Cluster용 CVM 및 Solaris Volume Manager가 지원되지 않습니다.
모든 캠퍼스 클러스터와 마찬가지로, 저장소 기반 데이터 복제를 사용하는 클러스터는 단일 장애 발생 시 일반적으로 개입이 필요하지 않습니다. 그러나 수동 페일오버를 사용 중이고 기본 저장소 장치가 있는 방이 손실될 경우, 그림 4–2에서와 같이 2–노드 클러스터에 문제가 발생합니다. 나머지 노드는 쿼럼 장치를 예약할 수 없으며 클러스터 구성원으로 부트될 수 없습니다. 이러한 경우, 해당 클러스터에는 다음과 같은 수동 개입이 필요합니다.
Sun 서비스 공급자는 나머지 노드가 클러스터 구성원으로 부트되도록 재구성해야 합니다.
사용자 또는 Sun 서비스 공급자는 보조 저장소 장치의 복제되지 않은 볼륨을 쿼럼 장치로 구성해야 합니다.
사용자 또는 Sun 서비스 공급자는 나머지 노드가 보조 저장소 장치를 기본 저장소로 사용하도록 구성해야 합니다. 위와 같이 재구성할 경우, 볼륨 관리자 볼륨을 재구축하고 데이터를 복원하거나 저장소 볼륨과의 응용 프로그램 연결을 변경하게 될 수도 있습니다.
저장소 기반 데이터 복제에 Hitachi TrueCopy 소프트웨어를 사용하는 장치 그룹을 설정할 때에는 다음 사용 용례를 참조하십시오.
항상 가장 높은 경계 레벨인 data를 사용하여 데이터의 기존 사본에 대한 페일오버를 방지하십시오.
각 자원 그룹에 Hitachi TrueCopy 장치 그룹을 하나씩 만듭니다. 클러스터 자원 그룹, 클러스터 장치 그룹, VxVM 디스크 그룹 및 Hitachi TrueCopy 장치 그룹 간에 일대일 관계가 존재해야 합니다.
전역 파일 시스템 볼륨 및 페일오버 파일 시스템 볼륨은 동일한 Hitachi TrueCopy 장치 그룹에 혼합될 수 없습니다.
모든 RAID 관리자 인스턴스는 항상 가동 및 실행되어야 합니다.
이 절에서는 Sun StorageTek Availability Suite 3.1 또는 3.2 소프트웨어나 Sun StorageTek Availability Suite 4.0 소프트웨어를 사용하여 클러스터 간 호스트 기반 데이터 복제를 구성하는 전체 예를 제공합니다. 이 예에서는 NFS 응용 프로그램의 전체 클러스터 구성을 보여주어 개별 작업을 수행할 수 있는 방법을 알려줍니다. 모든 작업은 전역 영역에서 수행해야 합니다. 이 예에 다른 응용 프로그램이나 클러스터 구성에 필요한 단계가 모두 포함되어 있지는 않습니다.
수퍼유저 대신 역할 기반 액세스 제어(RBAC)를 사용하여 클러스터 노드에 액세스할 경우, 모든 Sun Cluster 명령에 대한 인증을 제공하는 RBAC 역할로 전환할 수 있어야 합니다. 사용자가 수퍼유저가 아닐 경우, 이러한 일련의 데이터 복제 절차에는 다음 Sun Cluster RBAC 인증이 필요합니다.
solaris.cluster.modify
solaris.cluster.admin
solaris.cluster.read
RBAC 역할 사용에 대한 자세한 내용은 2 장, Sun Cluster 및 RBAC을 참조하십시오. 각 Sun Cluster 하위 명령에 필요한 RBAC 인증에 대해서는 Sun Cluster 매뉴얼 페이지를 참조하십시오.
이 절에서는 재난 복구를 소개하고 Sun StorageTek Availability Suite 소프트웨어에서 사용하는 데이터 복제 방법을 설명합니다.
재난 복구는 시스템에서 기본 클러스터가 실패하면 대체 클러스터에서 응용 프로그램을 복원하는 능력입니다. 재난 복구는 데이터 복제 및 페일오버를 기반으로 합니다. 페일오버는 기본 클러스터의 자원 그룹 또는 장치 그룹을 보조 클러스터로 자동 재배치하는 것입니다. 기본 클러스터가 실패하면 자동으로 보조 클러스터에서 응용 프로그램 및 데이터를 사용할 수 있습니다.
이 절에서는 Sun StorageTek Availability Suite 소프트웨어가 사용하는 원격 미러 복제 방법 및 포인트 인 타임 스냅샷 방법을 설명합니다. 이 소프트웨어에서는 sndradm(1RPC) 및 iiadm(1II) 명령을 사용하여 데이터를 복제합니다.
그림 4–3은 원격 미러 복제를 보여 줍니다. 기본 디스크의 마스터 볼륨 데이터가 TCP/IP 연결을 통해 보조 디스크의 마스터 볼륨으로 복제됩니다. 원격 미러 비트맵이 1차 디스크의 마스터 볼륨과 2차 디스크의 마스터 볼륨 사이의 차이를 추적합니다.
원격 미러 복제는 동기식 또는 비동기식으로 실시간 수행할 수 있습니다. 각 클러스터에 설정된 볼륨 각각은 동기식 복제나 비동기식 복제로 개별 구성될 수 있습니다.
비동기식 데이터 복제에서는 원격 볼륨이 업데이트되기 전에 쓰기 작업이 완료된 것으로 확인됩니다. 비동기식 데이터 복제는 원거리 및 낮은 대역폭 환경에서 보다 융통성있게 활용할 수 있습니다.
그림 4–4는 포인트 인 타임 스냅샷을 나타냅니다. 각 디스크의 마스터 볼륨 데이터가 동일한 디스크의 섀도우 볼륨으로 복사됩니다. 포인트 인 타임 비트맵은 마스터 볼륨과 섀도우 볼륨 간의 차이점을 추적합니다. 섀도우 볼륨에 데이터가 복사되면 포인트 인 타임 비트맵이 다시 설정됩니다.
그림 4–5는 이 구성 예에서 원격 미러 복제 및 포인트 인 타임 스냅샷을 사용하는 방법을 보여줍니다.
이 절에서는 클러스터간 데이터 복제에 대한 지침을 제공합니다. 또한 복제 자원 그룹 및 응용 프로그램 자원 그룹 구성에 대한 팁을 제공합니다. 클러스터에서 데이터 복제를 구성할 때 이 지침을 사용합니다.
이 절은 다음 내용으로 구성되어 있습니다.
복제 자원 그룹은 Sun StorageTek Availability Suite 소프트웨어 제어 하의 장치 그룹과 논리 호스트 이름 자원을 나란히 배열합니다. 복제 자원 그룹은 다음과 같은 특징을 가져야 합니다.
페일오버 자원 그룹 만들기
페일오버 자원은 한 번에 한 노드에서만 실행할 수 있습니다. 페일오버가 발생하면 페일오버 자원이 페일오버에 참여합니다.
논리 호스트 이름은 기본 클러스터에서 호스트해야 합니다. 페일오버나 스위치오버가 수행된 후에는 보조 클러스터에서 논리 호스트 이름을 호스트해야 합니다. DNS(Domain Name System)는 논리 호스트 이름과 클러스터를 연결시킬 때 사용합니다.
HAStoragePlus 자원 소유
HAStoragePlus 자원은 복제 자원 그룹이 스위치오버 또는 페일오버될 때 장치 그룹의 스위치오버를 적용합니다. Sun Cluster 소프트웨어 역시 장치 그룹이 스위치오버될 때 복제 자원 그룹의 스위치오버를 적용합니다. 이런 식으로 복제 자원 그룹과 장치 그룹은 항상 동일한 노드에서 나란히 배열되거나 마스터됩니다.
다음 확장 등록 정보가 HAStoragePlus 자원에 정의되어야 합니다.
AffinityOn 등록 정보 = True. 이 확장 등록 정보는 복제 자원 그룹이 스위치오버 또는 페일오버될 때 해당 자원 그룹을 스위치오버 또는 페일오버합니다. 이 기능을 유사 스위치오버라고 합니다.
HAStoragePlus에 대한 자세한 내용은 SUNW.HAStoragePlus(5) 매뉴얼 페이지를 참조하십시오.
이 나란히 배열된 장치 그룹의 이름을 지정하고 그 뒤에 -stor-rg를 붙입니다.
예를 들어, devgrp-stor-rg와 같습니다.
기본 클러스터 및 보조 클러스터 모두에서 온라인화
가용성을 높이려면 응용 프로그램 자원 그룹의 자원으로 응용 프로그램을 관리해야 합니다. 응용 프로그램 자원 그룹은 페일오버 응용 프로그램이나 확장 가능 응용 프로그램으로 구성할 수 있습니다.
기본 클러스터에서 구성된 응용 프로그램 자원 및 응용 프로그램 자원 그룹은 보조 클러스터에서도 구성되어야 합니다. 또한 응용 프로그램 자원에서 액세스하는 데이터는 보조 클러스터에 복제되어야 합니다.
이 절에서는 다음 응용 프로그램 자원 그룹 구성에 대한 지침을 제공합니다.
페일오버 응용 프로그램에서는 하나의 응용 프로그램이 한 번에 한 노드에서 실행됩니다. 해당 노드가 실패하면 응용 프로그램은 동일한 클러스터의 다른 노드로 페일오버됩니다. 페일오버 응용 프로그램의 자원 그룹은 다음과 같은 특징을 가져야 합니다.
응용 프로그램 자원 그룹이 스위치오버 또는 페일오버될 때 장치 그룹 스위치오버를 적용할 HAStoragePlus 자원 소유
장치 그룹은 복제 자원 그룹 및 응용 프로그램 자원 그룹과 함께 나란히 배열됩니다. 따라서 응용 프로그램 자원 그룹이 스위치오버되면 장치 그룹 및 복제 자원 그룹도 스위치오버됩니다. 응용 프로그램 자원 그룹, 복제 자원 그룹 및 장치 그룹은 동일한 노드에서 마스터됩니다.
그러나 장치 그룹이나 복제 자원 그룹이 스위치오버 또는 페일오버되어도 응용 프로그램 자원 그룹이 스위치오버되거나 페일오버되지 않습니다.
응용 프로그램 데이터가 전역으로 마운트될 경우, 응용 프로그램 자원 그룹에 HAStoragePlus 자원이 반드시 있을 필요는 없지만, 있는 것이 좋습니다.
응용 프로그램 데이터가 로컬로 마운트될 경우, 응용 프로그램 자원 그룹에 HAStoragePlus 자원이 반드시 있어야 합니다.
HAStoragePlus 자원이 없으면 응용 프로그램 자원 그룹의 스위치오버나 페일오버가 복제 자원 그룹 및 장치 그룹의 스위치오버나 페일오버를 트리거하지 않습니다. 스위치오버나 페일오버가 수행된 후에는 응용 프로그램 자원 그룹, 복제 자원 그룹 및 장치 그룹이 동일한 노드에서 마스터되지 않습니다.
HAStoragePlus에 대한 자세한 내용은 SUNW.HAStoragePlus(5) 매뉴얼 페이지를 참조하십시오.
기본 클러스터에서는 온라인, 보조 클러스터에서는 오프라인이어야 함
보조 클러스터가 기본 클러스터를 대신하는 경우 응용 프로그램 자원 그룹은 보조 클러스터에서 온라인화되어야 합니다.
그림 4–6에서는 페일오버 응용 프로그램에서 응용 프로그램 자원 그룹과 복제 자원 그룹의 구성을 보여줍니다.
확장 가능 응용 프로그램에서는 하나의 응용 프로그램이 여러 노드에서 실행되어 단일한 논리 서비스를 만듭니다. 확장 가능 응용 프로그램을 실행하는 노드가 실패할 경우 페일오버가 발생하지 않습니다. 응용 프로그램은 다른 노드에서 계속 실행됩니다.
확장 가능 응용 프로그램이 응용 프로그램 자원 그룹의 자원으로 관리되는 경우 응용 프로그램 자원 그룹을 장치 그룹과 함께 배치할 필요는 없습니다. 따라서 응용 프로그램 자원 그룹에 대해 HAStoragePlus 자원을 만들지 않아도 됩니다.
확장 가능 응용 프로그램의 자원 그룹은 다음과 같은 특징을 가져야 합니다.
확장 가능 응용 프로그램을 실행하는 노드는 들어오는 데이터를 분산하기 위해 공유 주소를 사용합니다.
기본 클러스터에서는 온라인, 보조 클러스터에서는 오프라인이어야 함
그림 4–7에서는 확장 가능 응용 프로그램에서의 자원 그룹 구성을 보여 줍니다.
기본 클러스터에 장애가 발생하면 응용 프로그램을 최대한 빨리 보조 클러스터로 스위치오버해야 합니다. 보조 클러스터로 스위치오버하려면 DNS를 업데이트해야 합니다.
DNS는 클라이언트를 응용 프로그램의 논리 호스트 이름과 연관시킵니다. 페일오버나 스위치오버를 수행한 후에는 기본 클러스터에 대한 DNS 매핑이 제거되고 보조 클러스터에 대한 DNS 매핑이 만들어져야 합니다. 그림 4–8에서는 DNS가 클라이언트를 클러스터에 매핑하는 방법을 보여 줍니다.
DNS를 업데이트하려면 nsupdate 명령을 사용합니다. 자세한 내용은 nsupdate(1M) 매뉴얼 페이지를 참조하십시오. 페일오버 또는 스위치오버 관리 방법에 대한 예는 페일오버 또는 스위치오버 관리 방법의 예를 참조하십시오.
복구한 후에 기본 클러스터를 다시 온라인 상태로 전환할 수 있습니다. 원래의 기본 클러스터로 다시 전환하려면 다음 작업을 수행합니다.
기본 클러스터를 보조 클러스터와 동기화하여 기본 볼륨이 최신이 되게 합니다.
클라이언트가 기본 클러스터의 응용 프로그램에 액세스할 수 있도록 DNS를 업데이트합니다.
표 4–1은 이번 예에서 NFS 응용 프로그램에 대해 Sun StorageTek Availability Suite 소프트웨어를 사용하여 데이터 복제를 구성하는 방법의 작업 목록입니다.
표 4–1 작업 맵: 데이터 복제 구성의 예
작업 |
지침 |
---|---|
1. 클러스터를 연결하고 설치합니다. | |
2. 기본 및 보조 클러스터에서 장치 그룹, NFS 응용 프로그램용 파일 시스템 및 자원 그룹을 구성합니다. | |
3. 기본 및 보조 클러스터에서 데이터 복제를 활성화합니다. | |
4. 데이터 복제를 수행합니다. | |
5. 데이터 복제 구성을 확인합니다. |
그림 4–9는 구성 예에서 사용되는 클러스터 구성을 보여줍니다. 이 구성 예에서 보조 클러스터는 단일 노드를 포함하지만 다른 클러스터 구성도 사용할 수 있습니다.
표 4–2에는 구성 예에 필요한 하드웨어 및 소프트웨어가 요약되어 있습니다. Sun StorageTek Availability Suite 소프트웨어 및 패치를 설치하기 전에 Solaris OS, Sun Cluster 소프트웨어 및 볼륨 관리자 소프트웨어를 클러스터 노드에 설치해야 합니다.
표 4–2 필수 하드웨어 및 소프트웨어
하드웨어 또는 소프트웨어 |
요구 사항 |
---|---|
노드 하드웨어 |
Sun StorageTek Availability Suite 소프트웨어는 Solaris OS를 사용하는 모든 서버에서 지원됩니다. 사용할 하드웨어에 대한 정보는 Sun Cluster 3.1 - 3.2 Hardware Administration Manual for Solaris OS를 참조하십시오. |
디스크 공간 |
약 15MB |
Solaris OS |
Sun Cluster 소프트웨어에서 지원하는 Solaris OS 릴리스 모든 노드는 같은 Solaris OS 버전을 사용해야 합니다. 설치 정보는 Solaris OS용 Sun Cluster 소프트웨어 설치 안내서를 참조하십시오. |
Sun Cluster 소프트웨어 |
Sun Cluster 3.2 소프트웨어 설치 정보는 Solaris OS용 Sun Cluster 소프트웨어 설치 안내서를 참조하십시오. |
볼륨 관리자 소프트웨어 |
Solstice DiskSuite 또는 Solaris Volume Manager 소프트웨어 또는 VERITAS Volume Manager(VxVM) 소프트웨어 모든 노드에서 동일한 버전의 볼륨 관리자 소프트웨어를 사용해야 합니다. 설치에 대한 자세한 내용은 Solaris OS용 Sun Cluster 소프트웨어 설치 안내서의 4 장, Solaris Volume Manager 소프트웨어 구성 및 Solaris OS용 Sun Cluster 소프트웨어 설치 안내서의 5 장, VERITAS Volume Manager 설치 및 구성을 참조하십시오. |
Sun StorageTek Availability Suite 소프트웨어 |
소프트웨어 설치 방법에 대한 자세한 내용은 해당 Sun StorageTek Availability Suite 또는 Sun StorageTek Availability Suite 소프트웨어 릴리스의 설치 설명서를 참조하십시오.
|
Sun StorageTek Availability Suite 소프트웨어 패치 |
최신 패치에 대한 자세한 내용은 http://www.sunsolve.com을 참조하십시오. |
이 절에서는 NFS 응용 프로그램에서 장치 그룹 및 자원 그룹을 구성하는 방법에 대해 설명합니다. 자세한 내용은 복제 자원 그룹 구성 및 응용 프로그램 자원 그룹 구성을 참조하십시오.
이절은 다음 절차로 구성되어 있습니다.
다음 표에서는 구성 예에서 만든 그룹 및 자원의 이름 목록을 표시합니다.
표 4–3 구성 예의 그룹 및 자원 요약
그룹 또는 자원 |
이름 |
설명 |
---|---|---|
장치 그룹 |
devgrp |
장치 그룹 |
복제 자원 그룹 및 자원 |
devgrp-stor-rg |
복제 자원 그룹 |
lhost-reprg-prim, lhost-reprg-sec |
기본 및 보조 클러스터에서 복제 자원 그룹의 논리 호스트 이름 |
|
devgrp-stor |
복제 자원 그룹의 HAStoragePlus 자원 |
|
응용 프로그램 자원 그룹 및 자원 |
nfs-rg |
응용 프로그램 자원 그룹 |
lhost-nfsrg-prim, lhost-nfsrg-sec |
기본 및 보조 클러스터에서 응용 프로그램 자원 그룹의 논리 호스트 이름 |
|
nfs-dg-rs |
응용 프로그램의 HAStoragePlus 자원 |
|
nfs-rs |
NFS 자원 |
devgrp-stor-rg 이외에 그룹 및 자원의 이름은 예로 든 것이며 필요한 경우 변경할 수 있습니다. 복제 자원 그룹의 이름은 devicegroupname-stor-rg 형식이어야 합니다.
이 구성 예에서는 VxVM 소프트웨어를 사용합니다. Solstice DiskSuite 또는 Solaris Volume Manager 소프트웨어에 대한 자세한 내용은 Solaris OS용 Sun Cluster 소프트웨어 설치 안내서의 4 장, Solaris Volume Manager 소프트웨어 구성을 참조하십시오.
다음 그림은 장치 그룹에서 만든 볼륨을 보여줍니다.
이 절차에서 정의된 볼륨에는 디스크 레이블 전용 영역(예: 실린더 0)이 포함될 수 없습니다. VxVM 소프트웨어는 이 제약 조건을 자동으로 관리합니다.
다음 작업을 완료했는지 확인합니다.
다음 절의 지침 및 요구 사항을 읽습니다.
클러스터 연결 및 설치에 설명된 대로 기본 및 보조 클러스터를 설정합니다.
수퍼유저 또는 solaris.cluster.modify RBAC 인증을 제공하는 역할로 nodeA에 액세스합니다.
노드 nodeA는 기본 클러스터의 첫 번째 노드입니다. 어떤 노드가 nodeA인지 미리 알리려면 그림 4–9를 참조하십시오.
볼륨 1, vol01에서 볼륨 4, vol04까지 포함된 nodeA에 디스크 그룹을 만듭니다.
VxVM 소프트웨어를 사용하여 디스크 그룹을 구성하는 방법에 대한 자세한 내용은 Solaris OS용 Sun Cluster 소프트웨어 설치 안내서의 5 장, VERITAS Volume Manager 설치 및 구성을 참조하십시오.
디스크 그룹을 구성하여 장치 그룹을 만듭니다.
nodeA# cldevicegroup create -t vxvm -n nodeA nodeB devgrp |
장치 그룹의 이름은 devgrp입니다.
장치 그룹의 파일 시스템을 만듭니다.
nodeA# newfs /dev/vx/rdsk/devgrp/vol01 < /dev/null nodeA# newfs /dev/vx/rdsk/devgrp/vol02 < /dev/null |
vol03 또는 vol04에 대해서는 파일 시스템이 필요하지 않으며, 이 항목들은 원시 볼륨으로 대신 사용됩니다.
보조 클러스터에서 장치 그룹을 구성하는 방법으로 이동합니다.
기본 클러스터에서 장치 그룹을 구성하는 방법 절차를 완료합니다.
수퍼유저 또는 solaris.cluster.modify RBAC 인증을 제공하는 역할로 nodeC에 액세스합니다.
다음 4개의 볼륨이 있는 nodeC에서 디스크 그룹을 만듭니다. 볼륨 1, vol01 ~ 볼륨 4, vol04
디스크 그룹을 구성하여 장치 그룹을 만듭니다.
nodeC# cldevicegroup create -t vxvm -n nodeC devgrp |
장치 그룹의 이름은 devgrp입니다.
장치 그룹의 파일 시스템을 만듭니다.
nodeC# newfs /dev/vx/rdsk/devgrp/vol01 < /dev/null nodeC# newfs /dev/vx/rdsk/devgrp/vol02 < /dev/null |
vol03 또는 vol04에 대해서는 파일 시스템이 필요하지 않으며, 이 항목들은 원시 볼륨으로 대신 사용됩니다.
NFS 응용 프로그램에서 기본 클러스터 파일 시스템을 구성하는 방법으로 이동합니다.
보조 클러스터에서 장치 그룹을 구성하는 방법 절차를 완료합니다.
nodeA 및 nodeB에서 수퍼유저 또는 solaris.cluster.admin RBAC 인증을 제공하는 역할로 전환합니다.
nodeA 및 nodeB에서 NFS 파일 시스템을 위한 마운트 지점 디렉토리를 만듭니다.
예를 들면 다음과 같습니다.
nodeA# mkdir /global/mountpoint |
nodeA 및 nodeB에서 마스터 볼륨이 해당 마운트 지점에 자동으로 마운트되도록 구성합니다.
nodeA 및 nodeB의 /etc/vfstab 파일에 다음 텍스트를 추가 또는 교체합니다. 텍스트는 한 줄이어야 합니다.
/dev/vx/dsk/devgrp/vol01 /dev/vx/rdsk/devgrp/vol01 \ /global/mountpoint ufs 3 no global,logging |
장치 그룹에서 사용되는 볼륨 이름 및 볼륨 번호를 미리 알리려면 그림 4–10을 참조하십시오.
nodeA의 Sun Cluster HA for NFS 데이터 서비스에서 사용하는 파일 시스템 정보에 대한 볼륨을 만듭니다.
nodeA# vxassist -g devgrp make vol05 120m disk1 |
볼륨 5, vol05에는 Sun Cluster HA for NFS 데이터 서비스에서 사용하는 파일 시스템 정보가 들어 있습니다.
nodeA에서 해당 장치 그룹을 Sun Cluster 소프트웨어와 재동기화합니다.
nodeA# cldevicegroup sync devgrp |
nodeA에서 vol05용 파일 시스템을 만듭니다.
nodeA# newfs /dev/vx/rdsk/devgrp/vol05 |
nodeA 및 nodeB에서 vol05의 마운트 지점을 만듭니다.
다음은 /global/etc 마운트 지점을 만드는 예입니다.
nodeA# mkdir /global/etc |
nodeA 및 nodeB에서 vol05가 마운트 지점에 자동으로 마운트되도록 구성합니다.
nodeA 및 nodeB의 /etc/vfstab 파일에 다음 텍스트를 추가 또는 교체합니다. 텍스트는 한 줄이어야 합니다.
/dev/vx/dsk/devgrp/vol05 /dev/vx/rdsk/devgrp/vol05 \ /global/etc ufs 3 yes global,logging |
vol05를 nodeA에 마운트합니다.
nodeA# mount /global/etc |
원격 시스템에서 vol05에 액세스할 수 있도록 만듭니다.
NFS 응용 프로그램에서 보조 클러스터 파일 시스템을 구성하는 방법으로 이동합니다.
NFS 응용 프로그램에서 기본 클러스터 파일 시스템을 구성하는 방법 절차를 완료합니다.
nodeC에서 수퍼유저 또는 solaris.cluster.admin RBAC 인증을 제공하는 역할로 전환합니다.
nodeC에 NFS 파일 시스템의 마운트 지점 디렉토리를 만듭니다.
예를 들면 다음과 같습니다.
nodeC# mkdir /global/mountpoint |
nodeC에서 마스터 볼륨이 마운트 지점에 자동으로 마운트되도록 구성합니다.
nodeC의 /etc/vfstab 파일에서 다음 텍스트를 추가하거나 대체합니다. 텍스트는 한 줄이어야 합니다.
/dev/vx/dsk/devgrp/vol01 /dev/vx/rdsk/devgrp/vol01 \ /global/mountpoint ufs 3 no global,logging |
nodeC의 Sun Cluster HA for NFS 데이터 서비스에서 사용하는 파일 시스템 정보에 대한 볼륨을 만듭니다.
nodeC# vxassist -g devgrp make vol05 120m disk1 |
볼륨 5, vol05에는 Sun Cluster HA for NFS 데이터 서비스에서 사용하는 파일 시스템 정보가 들어 있습니다.
nodeC에서 장치 그룹을 Sun Cluster 소프트웨어와 재동기화합니다.
nodeC# cldevicegroup sync devgrp |
nodeC에서 vol05에 대한 파일 시스템을 만듭니다.
nodeC# newfs /dev/vx/rdsk/devgrp/vol05 |
nodeC에서 vol05에 대한 마운트 지점을 만듭니다.
다음은 /global/etc 마운트 지점을 만드는 예입니다.
nodeC# mkdir /global/etc |
nodeC에서 vol05가 마운트 지점에 자동으로 마운트되도록 구성합니다.
nodeC의 /etc/vfstab 파일에서 다음 텍스트를 추가하거나 대체합니다. 텍스트는 한 줄이어야 합니다.
/dev/vx/dsk/devgrp/vol05 /dev/vx/rdsk/devgrp/vol05 \ /global/etc ufs 3 yes global,logging |
vol05를 nodeC에 마운트합니다.
nodeC# mount /global/etc |
원격 시스템에서 vol05에 액세스할 수 있도록 만듭니다.
기본 클러스터에서 복제 자원 그룹을 만드는 방법으로 이동합니다.
NFS 응용 프로그램에서 보조 클러스터 파일 시스템을 구성하는 방법 절차를 완료합니다.
수퍼유저 또는 solaris.cluster.modify, solaris.cluster.admin 및 solaris.cluster.read RBAC 인증을 제공하는 역할로 nodeA에 액세스합니다.
SUNW.HAStoragePlus 자원 유형을 등록합니다.
nodeA# clresourcetype register SUNW.HAStoragePlus |
장치 그룹의 복제 자원 그룹을 만듭니다.
nodeA# clresourcegroup create -n nodeA,nodeB devgrp-stor-rg |
클러스터 노드 nodeA 및 nodeB가 복제 자원 그룹을 마스터할 수 있도록 지정합니다.
복제 자원 그룹의 이름입니다. 이 이름에서 devgrp은 장치 그룹의 이름을 지정합니다.
복제 자원 그룹에 SUNW.HAStoragePlus 자원을 추가합니다.
nodeA# clresource create -g devgrp-stor-rg -t SUNW.HAStoragePlus \ -p GlobalDevicePaths=devgrp \ -p AffinityOn=True \ devgrp-stor |
자원을 추가할 자원 그룹을 지정합니다.
Sun StorageTek Availability Suite 소프트웨어에서 사용하는 확장 등록 정보를 지정합니다.
SUNW.HAStoragePlus 자원이 -x GlobalDevicePaths=에 정의된 전역 장치 및 클러스터 파일 시스템에 대한 유사 스위치오버를 반드시 수행하도록 지정합니다. 따라서 복제 자원 그룹이 페일오버하거나 스위치오버되면 관련 장치 그룹도 스위치오버됩니다.
이러한 확장 등록 정보에 대한 자세한 내용은 SUNW.HAStoragePlus(5) 매뉴얼 페이지를 참조하십시오.
복제 자원 그룹에 논리 호스트 이름 자원을 추가합니다.
nodeA# clreslogicalhostname create -g devgrp-stor-rg lhost-reprg-prim |
기본 클러스터의 복제 자원 그룹에 대한 논리 호스트 이름은 lhost-reprg-prim입니다.
자원을 활성화하고 자원 그룹을 관리 및 온라인화합니다.
nodeA# clresourcegroup online -e -M -n nodeA devgrp-stor-rg |
연결된 자원을 활성화합니다.
자원 그룹을 관리합니다.
자원 그룹을 온라인으로 전환할 노드를 지정합니다.
자원 그룹이 온라인 상태인지 확인합니다.
nodeA# clresourcegroup status devgrp-stor-rg |
자원 그룹 상태 필드를 검사하여 복제 자원 그룹이 nodeA에서 온라인 상태인지 확인합니다.
보조 클러스터에서 복제 자원 그룹을 만드는 방법으로 이동합니다.
기본 클러스터에서 복제 자원 그룹을 만드는 방법 절차를 완료합니다.
nodeC에 수퍼유저 또는 solaris.cluster.modify, solaris.cluster.admin 및 solaris.cluster.read RBAC 인증을 제공하는 역할로 액세스합니다.
SUNW.HAStoragePlus를 자원 유형으로 등록합니다.
nodeC# clresourcetype register SUNW.HAStoragePlus |
장치 그룹의 복제 자원 그룹을 만듭니다.
nodeC# clresourcegroup create -n nodeC devgrp-stor-rg |
자원 그룹을 만듭니다.
자원 그룹의 노드 목록을 지정합니다.
장치 그룹의 이름입니다.
복제 자원 그룹의 이름입니다.
복제 자원 그룹에 SUNW.HAStoragePlus 자원을 추가합니다.
nodeC# clresource create \ -t SUNW.HAStoragePlus \ -p GlobalDevicePaths=devgrp \ -p AffinityOn=True \ devgrp-stor |
자원을 만듭니다.
자원 유형을 지정합니다.
Sun StorageTek Availability Suite 소프트웨어에서 사용하는 확장 등록 정보를 지정합니다.
SUNW.HAStoragePlus 자원이 -x GlobalDevicePaths=에 정의된 전역 장치 및 클러스터 파일 시스템에 대한 유사 스위치오버를 반드시 수행하도록 지정합니다. 따라서 복제 자원 그룹이 페일오버하거나 스위치오버되면 관련 장치 그룹도 스위치오버됩니다.
복제 자원 그룹의 HAStoragePlus 자원
이러한 확장 등록 정보에 대한 자세한 내용은 SUNW.HAStoragePlus(5) 매뉴얼 페이지를 참조하십시오.
복제 자원 그룹에 논리 호스트 이름 자원을 추가합니다.
nodeC# clreslogicalhostname create -g devgrp-stor-rg lhost-reprg-sec |
기본 클러스터에 있는 복제 자원 그룹의 논리 호스트 이름은 lhost-reprg-sec입니다.
자원을 활성화하고 자원 그룹을 관리 및 온라인화합니다.
nodeC# clresourcegroup online -e -M -n nodeC devgrp-stor-rg |
온라인으로 전환합니다.
연결된 자원을 활성화합니다.
자원 그룹을 관리합니다.
자원 그룹을 온라인으로 전환할 노드를 지정합니다.
자원 그룹이 온라인 상태인지 확인합니다.
nodeC# clresourcegroup status devgrp-stor-rg |
자원 그룹 상태 필드를 검사하여 복제 자원 그룹이 nodeC에서 온라인 상태인지 확인합니다.
기본 클러스터에서 NFS 응용 프로그램 자원 그룹을 만드는 방법으로 이동합니다.
이 절차에서는 NFS에서 응용 프로그램 자원 그룹을 만드는 방법에 대해 설명합니다. 이 절차는 이 응용 프로그램에만 해당되며, 다른 유형의 응용 프로그램에서는 사용할 수 없습니다.
보조 클러스터에서 복제 자원 그룹을 만드는 방법 절차를 완료합니다.
수퍼유저 또는 solaris.cluster.modify, solaris.cluster.admin 및 solaris.cluster.read RBAC 인증을 제공하는 역할로 nodeA에 액세스합니다.
SUNW.nfs를 자원 유형으로 등록합니다.
nodeA# clresourcetype register SUNW.nfs |
SUNW.HAStoragePlus가 자원 유형으로 등록되지 않았다면 등록하십시오.
nodeA# clresourcetype register SUNW.HAStoragePlus |
자원 그룹 devgrp의 응용 프로그램 자원 그룹을 만듭니다.
nodeA# clresourcegroup create \ -p Pathprefix=/global/etc \ -p Auto_start_on_new_cluster=False \ -p RG_dependencies=devgrp-stor-rg \ nfs-rg |
그룹의 자원에서 관리 파일을 기록할 수 있는 디렉토리를 지정합니다.
응용 프로그램 자원 그룹이 자동으로 시작되지 않도록 지정합니다.
응용 프로그램 자원 그룹이 종속되는 자원 그룹을 지정합니다. 이 예에서 응용 프로그램 자원 그룹은 복제 자원 그룹 devgrp-stor-rg에 의존합니다.
응용 프로그램 자원 그룹이 새로운 기본 노드로 스위치오버될 경우 복제 자원 그룹은 자동으로 스위치오버됩니다. 그러나 복제 자원 그룹이 새 기본 노드로 스위치오버될 경우 응용 프로그램 자원 그룹은 수동으로 스위치오버해야 합니다.
응용 프로그램 자원 그룹의 이름
응용 프로그램 자원 그룹에 SUNW.HAStoragePlus 자원을 추가합니다.
nodeA# clresource create -g nfs-rg \ -t SUNW.HAStoragePlus \ -p FileSystemMountPoints=/global/mountpoint \ -p AffinityOn=True \ nfs-dg-rs |
자원을 만듭니다.
자원이 추가되는 자원 그룹을 지정합니다.
자원 유형을 SUNW.HAStoragePlus로 지정합니다.
파일 시스템의 마운트 지점을 전역으로 지정합니다.
응용 프로그램 자원이 -p GlobalDevicePaths=에 정의된 전역 장치와 클러스터 파일 시스템에 대한 유사 스위치오버를 반드시 수행하도록 지정합니다. 따라서 응용 프로그램 자원 그룹이 페일오버하거나 스위치오버되면 관련 장치 그룹도 스위치오버됩니다.
NFS 응용 프로그램의 HAStoragePlus 자원 이름입니다.
이러한 확장 등록 정보에 대한 자세한 내용은 SUNW.HAStoragePlus(5) 매뉴얼 페이지를 참조하십시오.
논리 호스트 이름 자원을 응용 프로그램 자원 그룹에 추가합니다.
nodeA# clreslogicalhostname create -g nfs-rg \ lhost-nfsrg-prim |
기본 클러스터의 응용 프로그램 자원 그룹의 논리 호스트 이름은 lhost-nfsrg-prim입니다.
자원을 활성화하고 응용 프로그램 자원 그룹을 관리 및 온라인화합니다.
응용 프로그램 자원 그룹이 온라인 상태인지 확인합니다.
nodeA# clresourcegroup status |
자원 그룹 상태 필드를 검사하여 응용 프로그램 자원 그룹이 nodeA 및 nodeB에서 온라인 상태인지 확인합니다.
보조 클러스터에서 NFS 응용 프로그램 자원 그룹을 만드는 방법으로 이동합니다.
기본 클러스터에서 NFS 응용 프로그램 자원 그룹을 만드는 방법 절차를 완료합니다.
nodeC에 수퍼유저 또는 solaris.cluster.modify, solaris.cluster.admin 및 solaris.cluster.read RBAC 인증을 제공하는 역할로 액세스합니다.
SUNW.nfs를 자원 유형으로 등록합니다.
nodeC# clresourcetype register SUNW.nfs |
SUNW.HAStoragePlus가 자원 유형으로 등록되지 않았다면 등록하십시오.
nodeC# clresourcetype register SUNW.HAStoragePlus |
장치 그룹의 응용 프로그램 자원 그룹을 만듭니다.
nodeC# clresourcegroup create \ -p Pathprefix=/global/etc \ -p Auto_start_on_new_cluster=False \ -p RG_dependencies=devgrp-stor-rg \ nfs-rg |
자원 그룹을 만듭니다.
자원 그룹의 등록 정보를 지정합니다.
그룹의 자원에서 관리 파일을 기록할 수 있는 디렉토리를 지정합니다.
응용 프로그램 자원 그룹이 자동으로 시작되지 않도록 지정합니다.
응용 프로그램 자원 그룹이 종속되는 자원 그룹을 지정합니다. 이 예에서 응용 프로그램 자원 그룹은 복제 자원 그룹에 의존합니다.
응용 프로그램 자원 그룹이 새로운 기본 노드로 스위치오버될 경우 복제 자원 그룹은 자동으로 스위치오버됩니다. 그러나 복제 자원 그룹이 새 기본 노드로 스위치오버될 경우 응용 프로그램 자원 그룹은 수동으로 스위치오버해야 합니다.
응용 프로그램 자원 그룹의 이름
응용 프로그램 자원 그룹에 SUNW.HAStoragePlus 자원을 추가합니다.
nodeC# clresource create -g nfs-rg \ -t SUNW.HAStoragePlus \ -p FileSystemMountPoints=/global/mountpoint \ -p AffinityOn=True \ nfs-dg-rs |
자원을 만듭니다.
자원이 추가되는 자원 그룹을 지정합니다.
자원 유형을 SUNW.HAStoragePlus로 지정합니다.
자원의 등록 정보를 지정합니다.
파일 시스템의 마운트 지점을 전역으로 지정합니다.
응용 프로그램 자원이 -x GlobalDevicePaths=에 정의된 전역 장치와 클러스터 파일 시스템에 대한 유사 스위치오버를 반드시 수행하도록 지정합니다. 따라서 응용 프로그램 자원 그룹이 페일오버하거나 스위치오버되면 관련 장치 그룹도 스위치오버됩니다.
NFS 응용 프로그램의 HAStoragePlus 자원 이름입니다.
이러한 확장 등록 정보에 대한 자세한 내용은 SUNW.HAStoragePlus(5) 매뉴얼 페이지를 참조하십시오.
논리 호스트 이름 자원을 응용 프로그램 자원 그룹에 추가합니다.
nodeC# clreslogicalhostname create -g nfs-rg \ lhost-nfsrg-sec |
보조 클러스터에 있는 응용 프로그램 자원 그룹의 논리 호스트 이름은 lhost-nfsrg-sec입니다.
응용 프로그램 자원 그룹에 NFS 자원을 추가합니다.
nodeC# clresource create -g nfs-rg \ -t SUNW.nfs -p Resource_dependencies=nfs-dg-rs nfs-rg |
nodeC에서 응용 프로그램 자원 그룹이 온라인화되지 않도록 합니다.
nodeC# clresource disable -n nodeC nfs-rs nodeC# clresource disable -n nodeC nfs-dg-rs nodeC# clresource disable -n nodeC lhost-nfsrg-sec nodeC# clresourcegroup online -n "" nfs-rg |
Auto_start_on_new_cluster=False이므로 재부트 후 자원 그룹은 오프라인 상태를 유지합니다.
전역 볼륨이 기본 클러스터에 마운트되는 경우 보조 클러스터에서 전역 볼륨을 마운트 해제합니다.
nodeC# umount /global/mountpoint |
보조 클러스터에 볼륨이 마운트되는 경우 동기화는 실패합니다.
데이터 복제 활성화 방법 예로 이동합니다.
이 절에서는 구성 예에서 데이터 복제가 활성화되는 방법에 대해 설명합니다. 이 절에서는 Sun StorageTek Availability Suite 소프트웨어 명령 sndradm 및 iiadm을 사용합니다. 이러한 명령에 대한 자세한 내용은 Sun StorageTek Availability 문서, 를 참조하십시오.
이절은 다음 절차로 구성되어 있습니다.
수퍼유저 또는 solaris.cluster.read RBAC 인증을 제공하는 역할로 nodeA에 액세스합니다.
모든 트랜잭션을 비웁니다.
nodeA# lockfs -a -f |
논리 호스트 이름 lhost-reprg-prim과 lhost-reprg-sec가 온라인 상태인지 확인합니다.
nodeA# clresourcegroup status nodeC# clresourcegroup status |
자원 그룹의 상태 필드를 검사합니다.
기본 클러스터에서 보조 클러스터로의 원격 미러 복제를 활성화합니다.
이 단계에서는 기본 클러스터 마스터 볼륨에서 보조 클러스터 마스터 볼륨으로의 복제를 활성화합니다. 또한 이 단계에서는 vol04의 원격 미러 비트맵에 대한 복제도 활성화합니다.
기본 클러스터와 보조 클러스터가 비동기화되는 경우 다음 명령을 실행합니다.
Sun StorEdge Availability Suite 소프트웨어:
nodeA# /usr/opt/SUNWesm/sbin/sndradm -n -e lhost-reprg-prim \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 lhost-reprg-sec \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 ip sync |
Sun StorageTek Availability Suite 소프트웨어:
nodeA# /usr/sbin/sndradm -n -e lhost-reprg-prim \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 lhost-reprg-sec \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 ip sync |
기본 클러스터와 보조 클러스터가 동기화되는 경우 다음 명령을 실행합니다.
Sun StorEdge Availability Suite 소프트웨어:
nodeA# /usr/opt/SUNWesm/sbin/sndradm -n -E lhost-reprg-prim \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 lhost-reprg-sec \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 ip sync |
Sun StorageTek Availability Suite 소프트웨어:
nodeA# /usr/sbin/sndradm -n -E lhost-reprg-prim \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 lhost-reprg-sec \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 ip sync |
자동 동기화를 활성화합니다.
Sun StorEdge Availability Suite 소프트웨어:
nodeA# /usr/opt/SUNWesm/sbin/sndradm -n -a on lhost-reprg-prim \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 lhost-reprg-sec \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 ip sync |
Sun StorageTek Availability Suite 소프트웨어:
nodeA# /usr/sbin/sndradm -n -a on lhost-reprg-prim \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 lhost-reprg-sec \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 ip sync |
이 단계에서는 자동 동기화를 활성화합니다. 자동 동기화 활성 상태가 on으로 설정될 때 시스템이 재부트하거나 장애가 발생하면 볼륨 세트가 재동기화됩니다.
클러스터가 로깅 모드인지 확인합니다.
Sun StorEdge Availability Suite 소프트웨어:
nodeA# /usr/opt/SUNWesm/sbin/sndradm -P |
Sun StorageTek Availability Suite 소프트웨어:
nodeA# /usr/sbin/sndradm -P |
출력 내용이 다음과 같이 표시됩니다.
/dev/vx/rdsk/devgrp/vol01 -> lhost-reprg-sec:/dev/vx/rdsk/devgrp/vol01 autosync: off, max q writes:4194304, max q fbas:16384, mode:sync,ctag: devgrp, state: logging |
로깅 모드에서 상태는 logging이고 자동 동기화의 활성 상태는 off입니다. 디스크의 데이터 볼륨에 기록될 때 동일한 디스크의 비트맵 파일이 업데이트됩니다.
포인트 인 타임 스냅샷을 활성화합니다.
Sun StorEdge Availability Suite 소프트웨어:
nodeA# /usr/opt/SUNWesm/sbin/iiadm -e ind \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol02 \ /dev/vx/rdsk/devgrp/vol03 nodeA# /usr/opt/SUNWesm/sbin/iiadm -w \ /dev/vx/rdsk/devgrp/vol02 |
Sun StorageTek Availability Suite 소프트웨어:
nodeA# /usr/sbin/iiadm -e ind \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol02 \ /dev/vx/rdsk/devgrp/vol03 nodeA# /usr/sbin/iiadm -w \ /dev/vx/rdsk/devgrp/vol02 |
이 단계에서는 기본 클러스터 마스터 볼륨을 동일한 클러스터의 섀도우 볼륨으로 복사할 수 있습니다. 마스터 볼륨, 섀도우 볼륨 및 포인트 인 타임 비트맵 볼륨은 동일한 장치 그룹에 있어야 합니다. 이 예에서 마스터 볼륨은 vol01, 섀도우 볼륨은 vol02, 포인트 인 타임 비트맵 볼륨은 vol03입니다.
포인트 인 타임 스냅샷을 원격 미러 세트에 추가합니다.
Sun StorEdge Availability Suite 소프트웨어:
nodeA# /usr/opt/SUNWesm/sbin/sndradm -I a \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol02 \ /dev/vx/rdsk/devgrp/vol03 |
Sun StorageTek Availability Suite 소프트웨어:
nodeA# /usr/sbin/sndradm -I a \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol02 \ /dev/vx/rdsk/devgrp/vol03 |
이 단계에서는 포인트 인 타임 스냅샷을 원격 미러 볼륨 세트와 연결합니다. Sun StorageTek Availability Suite 소프트웨어를 사용하면 원격 미러 복제가 발생하기 전에 포인트 인 타임 스냅샷이 수행됩니다.
보조 클러스터에서 복제 활성화 방법으로 이동합니다.
기본 클러스터에서 복제 활성화 방법 절차를 완료합니다.
수퍼유저로 nodeC에 액세스합니다.
모든 트랜잭션을 비웁니다.
nodeC# lockfs -a -f |
기본 클러스터에서 보조 클러스터로의 원격 미러 복제를 활성화합니다.
Sun StorEdge Availability Suite 소프트웨어:
nodeC# /usr/opt/SUNWesm/sbin/sndradm -n -e lhost-reprg-prim \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 lhost-reprg-sec \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 ip sync |
Sun StorageTek Availability Suite 소프트웨어:
nodeC# /usr/sbin/sndradm -n -e lhost-reprg-prim \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 lhost-reprg-sec \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 ip sync |
기본 클러스터는 보조 클러스터를 감지하고 동기화를 시작합니다. 클러스터 상태에 대한 정보는 시스템 로그 파일 /var/opt/SUNWesm/ds.log(Sun StorEdge Availability Suite) 또는 /var/adm(Sun StorageTek Availability Suite)을 참조하십시오.
독립 포인트 인 타임 스냅샷을 활성화합니다.
Sun StorEdge Availability Suite 소프트웨어:
nodeC# /usr/opt/SUNWesm/sbin/iiadm -e ind \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol02 \ /dev/vx/rdsk/devgrp/vol03 nodeC# /usr/opt/SUNWesm/sbin/iiadm -w \ /dev/vx/rdsk/devgrp/vol02 |
Sun StorageTek Availability Suite 소프트웨어:
nodeC# /usr/sbin/iiadm -e ind \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol02 \ /dev/vx/rdsk/devgrp/vol03 nodeC# /usr/sbin/iiadm -w \ /dev/vx/rdsk/devgrp/vol02 |
포인트 인 타임 스냅샷을 원격 미러 세트에 추가합니다.
Sun StorEdge Availability Suite 소프트웨어:
nodeC# /usr/opt/SUNWesm/sbin/sndradm -I a \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol02 \ /dev/vx/rdsk/devgrp/vol03 |
Sun StorageTek Availability Suite 소프트웨어:
nodeC# /usr/sbin/sndradm -I a \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol02 \ /dev/vx/rdsk/devgrp/vol03 |
데이터 복제 수행 방법의 예로 이동합니다.
이 절에서는 구성 예에서 데이터 복제가 수행되는 방법에 대해 설명합니다. 이 절에서는 Sun StorageTek Availability Suite 소프트웨어 명령 sndradm 및 iiadm을 사용합니다. 이러한 명령에 대한 자세한 내용은 Sun StorageTek Availability Suite 문서를 참조하십시오.
이절은 다음 절차로 구성되어 있습니다.
이 절차에서는 기본 디스크의 마스터 볼륨이 보조 디스크의 마스터 볼륨으로 복제됩니다. 마스터 볼륨은 vol01, 원격 미러 비트맵 볼륨은 vol04입니다.
수퍼유저로 nodeA에 액세스합니다.
클러스터가 로깅 모드인지 확인합니다.
Sun StorEdge Availability Suite 소프트웨어:
nodeA# /usr/opt/SUNWesm/sbin/sndradm -P |
Sun StorageTek Availability Suite 소프트웨어:
nodeA# /usr/sbin/sndradm -P |
출력 내용이 다음과 같이 표시됩니다.
/dev/vx/rdsk/devgrp/vol01 -> lhost-reprg-sec:/dev/vx/rdsk/devgrp/vol01 autosync: off, max q writes:4194304, max q fbas:16384, mode:sync,ctag: devgrp, state: logging |
로깅 모드에서 상태는 logging이고 자동 동기화의 활성 상태는 off입니다. 디스크의 데이터 볼륨에 기록될 때 동일한 디스크의 비트맵 파일이 업데이트됩니다.
모든 트랜잭션을 비웁니다.
nodeA# lockfs -a -f |
nodeA의 마스터 볼륨을 nodeC의 마스터 볼륨으로 복사합니다.
Sun StorEdge Availability Suite 소프트웨어:
nodeA# /usr/opt/SUNWesm/sbin/sndradm -n -m lhost-reprg-prim \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 lhost-reprg-sec \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 ip sync |
Sun StorageTek Availability Suite 소프트웨어:
nodeA# /usr/sbin/sndradm -n -m lhost-reprg-prim \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 lhost-reprg-sec \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 ip sync |
복제가 완료되고 볼륨이 동기화될 때까지 기다립니다.
Sun StorEdge Availability Suite 소프트웨어:
nodeA# /usr/opt/SUNWesm/sbin/sndradm -n -w lhost-reprg-prim \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 lhost-reprg-sec \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 ip sync |
Sun StorageTek Availability Suite 소프트웨어:
nodeA# /usr/sbin/sndradm -n -w lhost-reprg-prim \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 lhost-reprg-sec \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 ip sync |
클러스터가 복제 모드에 있는지 확인합니다.
Sun StorEdge Availability Suite 소프트웨어:
nodeA# /usr/opt/SUNWesm/sbin/sndradm -P |
Sun StorageTek Availability Suite 소프트웨어:
nodeA# /usr/sbin/sndradm -P |
출력 내용이 다음과 같이 표시됩니다.
/dev/vx/rdsk/devgrp/vol01 -> lhost-reprg-sec:/dev/vx/rdsk/devgrp/vol01 autosync: on, max q writes:4194304, max q fbas:16384, mode:sync,ctag: devgrp, state: replicating |
복제 모드에서 상태는 replicating이고 자동 동기화의 활성 상태는 on입니다. 기본 볼륨을 쓸 경우 Sun StorageTek Availability Suite 소프트웨어에서 보조 볼륨이 업데이트됩니다.
포인트 인 타임 스냅샷 수행 방법으로 이동합니다.
이 절차에서는 기본 클러스터의 섀도우 볼륨을 기본 클러스터의 마스터 볼륨으로 동기화하기 위해 포인트 인 타임 스냅샷이 사용됩니다. 마스터 볼륨은 vol01, 비트맵 볼륨은 vol04, 섀도우 볼륨은 vol02입니다.
원격 미러 복제 수행 방법 절차를 완료합니다.
수퍼유저 또는 solaris.cluster.modify 및 solaris.cluster.admin RBAC 인증을 제공하는 역할로 nodeA에 액세스합니다.
nodeA에서 실행 중인 자원을 비활성화합니다.
nodeA# clresource disable -n nodeA nfs-rs |
기본 클러스터를 로깅 모드로 변경합니다.
Sun StorEdge Availability Suite 소프트웨어:
nodeA# /usr/sbin/sndradm -n -l lhost-reprg-prim \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 lhost-reprg-sec \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 ip sync |
Sun StorageTek Availability Suite 소프트웨어:
nodeA# /usr/sbin/sndradm -n -l lhost-reprg-prim \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 lhost-reprg-sec \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 ip sync |
디스크의 데이터 볼륨에 기록될 때 동일한 디스크의 비트맵 파일이 업데이트됩니다. 복제는 수행되지 않습니다.
기본 클러스터의 섀도우 볼륨을 기본 클러스터의 마스터 볼륨과 동기화합니다.
Sun StorEdge Availability Suite 소프트웨어:
nodeA# /usr/opt/SUNWesm/sbin/iiadm -u s /dev/vx/rdsk/devgrp/vol02 nodeA# /usr/opt/SUNWesm/sbin/iiadm -w /dev/vx/rdsk/devgrp/vol02 |
Sun StorageTek Availability Suite 소프트웨어:
nodeA# /usr/sbin/iiadm -u s /dev/vx/rdsk/devgrp/vol02 nodeA# /usr/sbin/iiadm -w /dev/vx/rdsk/devgrp/vol02 |
보조 클러스터의 섀도우 볼륨을 보조 클러스터의 마스터 볼륨과 동기화합니다.
Sun StorEdge Availability Suite 소프트웨어:
nodeC# /usr/opt/SUNWesm/sbin/iiadm -u s /dev/vx/rdsk/devgrp/vol02 nodeC# /usr/opt/SUNWesm/sbin/iiadm -w /dev/vx/rdsk/devgrp/vol02 |
Sun StorageTek Availability Suite 소프트웨어:
nodeC# /usr/sbin/iiadm -u s /dev/vx/rdsk/devgrp/vol02 nodeC# /usr/sbin/iiadm -w /dev/vx/rdsk/devgrp/vol02 |
nodeA에서 응용 프로그램을 다시 시작합니다.
nodeA# clresource enable -n nodeA nfs-rs |
보조 볼륨을 기본 볼륨과 재동기화합니다.
Sun StorEdge Availability Suite 소프트웨어:
nodeA# /usr/opt/SUNWesm/sbin/sndradm -n -u lhost-reprg-prim \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 lhost-reprg-sec \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 ip sync |
Sun StorageTek Availability Suite 소프트웨어:
nodeA# /usr/sbin/sndradm -n -u lhost-reprg-prim \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 lhost-reprg-sec \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 ip sync |
복제가 올바르게 구성되었는지 확인하는 방법으로 이동합니다.
포인트 인 타임 스냅샷 수행 방법 절차를 완료합니다.
수퍼유저 또는 solaris.cluster.admin RBAC 인증을 제공하는 역할로 nodeA 및 nodeC에 액세스합니다.
기본 클러스터가 복제 모드에 있고 자동 동기화가 켜져 있는지 확인합니다.
Sun StorEdge Availability Suite 소프트웨어:
nodeA# /usr/opt/SUNWesm/sbin/sndradm -P |
Sun StorageTek Availability Suite 소프트웨어:
nodeA# /usr/sbin/sndradm -P |
출력 내용이 다음과 같이 표시됩니다.
/dev/vx/rdsk/devgrp/vol01 -> lhost-reprg-sec:/dev/vx/rdsk/devgrp/vol01 autosync: on, max q writes:4194304, max q fbas:16384, mode:sync,ctag: devgrp, state: replicating |
복제 모드에서 상태는 replicating이고 자동 동기화의 활성 상태는 on입니다. 기본 볼륨을 쓸 경우 Sun StorageTek Availability Suite 소프트웨어에서 보조 볼륨이 업데이트됩니다.
기본 클러스터가 복제 모드에 있지 않으면 복제 모드로 변경합니다.
Sun StorEdge Availability Suite 소프트웨어:
nodeA# /usr/opt/SUNWesm/sbin/sndradm -n -u lhost-reprg-prim \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 lhost-reprg-sec \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 ip sync |
Sun StorageTek Availability Suite 소프트웨어:
nodeA# /usr/sbin/sndradm -n -u lhost-reprg-prim \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 lhost-reprg-sec \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 ip sync |
클라이언트 시스템에 디렉토리를 만듭니다.
기본 클러스터에서 응용 프로그램으로 디렉토리를 마운트하고 마운트된 디렉토리를 표시합니다.
보조 클러스터에서 응용 프로그램으로 디렉토리를 마운트하고 마운트된 디렉토리를 표시합니다.
디렉토리를 기본 클러스터의 응용 프로그램으로부터 마운트 해제합니다.
client-machine# umount /dir |
기본 클러스터에서 응용 프로그램 자원 그룹을 오프라인화합니다.
nodeA# clresource disable -n nodeA nfs-rs nodeA# clresource disable -n nodeA nfs-dg-rs nodeA# clresource disable -n nodeA lhost-nfsrg-prim nodeA# clresourcegroup online -n "" nfs-rg |
기본 클러스터를 로깅 모드로 변경합니다.
Sun StorEdge Availability Suite 소프트웨어:
nodeA# /usr/sbin/sndradm -n -l lhost-reprg-prim \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 lhost-reprg-sec \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 ip sync |
Sun StorageTek Availability Suite 소프트웨어:
nodeA# /usr/sbin/sndradm -n -l lhost-reprg-prim \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 lhost-reprg-sec \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 ip sync |
디스크의 데이터 볼륨에 기록될 때 동일한 디스크의 비트맵 파일이 업데이트됩니다. 복제는 수행되지 않습니다.
PathPrefix 디렉토리를 사용할 수 있는지 확인합니다.
nodeC# mount | grep /global/etc |
보조 클러스터에서 응용 프로그램 자원 그룹을 온라인화합니다.
nodeC# clresourcegroup online -n nodeC nfs-rg |
수퍼유저로 클라이언트 시스템에 액세스합니다.
다음과 같은 메시지가 표시됩니다.
client-machine# |
단계 4에서 만든 디렉토리를 보조 클러스터의 응용 프로그램에 마운트합니다.
client-machine# mount -o rw lhost-nfsrg-sec:/global/mountpoint /dir |
마운트된 디렉토리를 표시합니다.
client-machine# ls /dir |
기본 클러스터의 응용 프로그램을 마운트된 디렉토리로 반환합니다.
보조 클러스터에서 응용 프로그램 자원 그룹을 오프라인화합니다.
nodeC# clresource disable -n nodeC nfs-rs nodeC# clresource disable -n nodeC nfs-dg-rs nodeC# clresource disable -n nodeC lhost-nfsrg-sec nodeC# clresourcegroup online -n "" nfs-rg |
전역 볼륨이 보조 클러스터에서 마운트 해제되도록 합니다.
nodeC# umount /global/mountpoint |
기본 클러스터에서 응용 프로그램 자원 그룹을 온라인화합니다.
nodeA# clresourcegroup online -n nodeA nfs-rg |
기본 클러스터를 복제 모드로 변경합니다.
Sun StorEdge Availability Suite 소프트웨어:
nodeA# /usr/opt/SUNWesm/sbin/sndradm -n -u lhost-reprg-prim \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 lhost-reprg-sec \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 ip sync |
Sun StorageTek Availability Suite 소프트웨어:
nodeA# /usr/sbin/sndradm -n -u lhost-reprg-prim \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 lhost-reprg-sec \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 ip sync |
기본 볼륨을 쓸 경우 Sun StorageTek Availability Suite 소프트웨어에서 보조 볼륨이 업데이트됩니다.
이 절에서는 스위치오버를 호출하는 방법과 응용 프로그램을 보조 클러스터로 전송하는 방법에 대해 설명합니다. 스위치오버 또는 페일오버 이후 DNS 항목을 업데이트합니다. 자세한 내용은 페일오버 또는 스위치오버 관리 지침을 참조하십시오.
이절은 다음 절차로 구성되어 있습니다.
수퍼유저 또는 solaris.cluster.admin RBAC 인증을 제공하는 역할로 nodeA 및 nodeC에 액세스합니다.
기본 클러스터를 로깅 모드로 변경합니다.
Sun StorEdge Availability Suite 소프트웨어:
nodeA# /usr/opt/SUNWesm/sbin/sndradm -n -l lhost-reprg-prim \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 lhost-reprg-sec \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 ip sync |
Sun StorageTek Availability Suite 소프트웨어:
nodeA# /usr/sbin/sndradm -n -l lhost-reprg-prim \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 lhost-reprg-sec \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 ip sync |
디스크의 데이터 볼륨을 쓸 경우 동일한 장치 그룹의 비트맵 볼륨이 업데이트됩니다. 복제는 수행되지 않습니다.
기본 클러스터와 보조 클러스터가 로깅 모드에 있고 자동 동기화가 꺼져 있는지 확인합니다.
nodeA에서 모드 및 설정을 확인합니다.
Sun StorEdge Availability Suite 소프트웨어:
nodeA# /usr/opt/SUNWesm/sbin/sndradm -P |
Sun StorageTek Availability Suite 소프트웨어:
nodeA# /usr/sbin/sndradm -P |
출력 내용이 다음과 같이 표시됩니다.
/dev/vx/rdsk/devgrp/vol01 -> lhost-reprg-sec:/dev/vx/rdsk/devgrp/vol01 autosync:off, max q writes:4194304,max q fbas:16384,mode:sync,ctag: devgrp, state: logging |
nodeC에서 모드 및 설정을 확인합니다.
Sun StorEdge Availability Suite 소프트웨어:
nodeC# /usr/opt/SUNWesm/sbin/sndradm -P |
Sun StorageTek Availability Suite 소프트웨어:
nodeC# /usr/sbin/sndradm -P |
출력 내용이 다음과 같이 표시됩니다.
/dev/vx/rdsk/devgrp/vol01 <- lhost-reprg-prim:/dev/vx/rdsk/devgrp/vol01 autosync:off, max q writes:4194304,max q fbas:16384,mode:sync,ctag: devgrp, state: logging |
nodeA와 nodeC의 경우 상태는 logging이고 자동 동기화의 활성 상태는 off가 되어야 합니다.
보조 클러스터가 기본 클러스터를 대신할 준비가 되어 있는지 확인합니다.
nodeC# fsck -y /dev/vx/rdsk/devgrp/vol01 |
보조 클러스터로 스위치오버합니다.
nodeC# clresourcegroup switch -n nodeC nfs-rg |
DNS 항목 업데이트 방법으로 이동합니다.
DNS가 클라이언트를 클러스터에 매핑하는 방법에 대해서는 그림 4–8을 참조하십시오.
스위치오버 호출 방법 절차를 완료합니다.
nsupdate 명령을 시작합니다.
자세한 내용은 nsupdate(1M) 매뉴얼 페이지를 참조하십시오.
두 클러스터 모두에서 응용 프로그램 자원 그룹의 논리 호스트 이름과 클러스터 IP 주소간의 현재 DNS 매핑을 제거합니다.
> update delete lhost-nfsrg-prim A > update delete lhost-nfsrg-sec A > update delete ipaddress1rev.in-addr.arpa ttl PTR lhost-nfsrg-prim > update delete ipaddress2rev.in-addr.arpa ttl PTR lhost-nfsrg-sec |
기본 클러스터의 IP 주소(역방향)
보조 클러스터의 IP 주소(역방향)
지속 시간(초)기본값은 3600입니다.
두 클러스터 모두에서 응용 프로그램 자원 그룹의 논리 호스트 이름과 클러스터 IP 주소간에 새로운 DNS 매핑을 만듭니다.
기본 논리 호스트 이름을 보조 클러스터의 IP 주소로 매핑하고, 보조 논리 호스트 이름을 기본 클러스터의 IP 주소로 매핑합니다.
> update add lhost-nfsrg-prim ttl A ipaddress2fwd > update add lhost-nfsrg-sec ttl A ipaddress1fwd > update add ipaddress2rev.in-addr.arpa ttl PTR lhost-nfsrg-prim > update add ipaddress1rev.in-addr.arpa ttl PTR lhost-nfsrg-sec |
보조 클러스터의 IP 주소(전방향)
기본 클러스터의 IP 주소(전방향)