Sun Cluster 3.0 12/01 릴리스 정보에 있는 "디스크 장치 그룹 구성 워크시트" 및 "볼륨 관리자 구성 워크시트"에 이 계획 정보를 추가하십시오. Solstice DiskSuite의 경우에는 "메타 장치 워크시트(Solstice DiskSuite)"에도 이 계획 정보를 추가하십시오.
이 단락에서는 클러스터 구성의 볼륨 관리 계획에 대하여 설명합니다.
Sun Cluster는 디스크를 하나의 단위로 관리할 수 있도록 볼륨 관리자 소프트웨어를 사용하여 디스크를 디스크 장치 그룹으로 그룹화합니다. Sun Cluster는 Solstice DiskSuite 소프트웨어와 VxVM(VERITAS Volume Manager)을 지원합니다.
Solstice DiskSuite 소프트웨어를 사용할 경우에는 일부 노드에서 디스크를 관리하기 위하여 VxVM을 사용하는 것과 관계없이 클러스터의 모든 노드에 이 소프트웨어를 설치해야 합니다.
VxVM을 사용하고 VxVM 클러스터 기능을 활성화하려면 클러스터의 모든 노드에 VxVM을 설치하고 사용권을 부여해야 합니다.
VxVM을 사용하고 VxVM 클러스터 기능을 활성화하지 않을 경우에는 VxVM이 관리할 기억 장치에 연결된 노드에만 VxVM을 설치하고 사용권을 부여하면 됩니다.
노드 하나에 Solstice DiskSuite 소프트웨어와 VxVM을 모두 설치하면 Solstice DiskSuite 소프트웨어를 사용하여 각 노드에 로컬인 디스크(예: 루트 디스크)를 관리하고 VxVM을 사용하여 모든 공유 디스크를 관리해야 합니다.
볼륨 관리자 소프트웨어를 설치하고 구성하는 방법은 볼륨 관리자 문서와 "Solstice DiskSuite 소프트웨어 설치 및 구성" 또는 "VxVM 소프트웨어 설치 및 구성"을 참조하십시오. 클러스터 구성에서 볼륨을 관리하는 방법은 Sun Cluster 3.0 12/01 개념을 참조하십시오.
디스크를 구성할 때는 다음과 같은 일반 사항을 참고하십시오.
이중화된 멀티호스트 디스크 - 모든 멀티호스트 디스크를 디스크 확장 장치에 이중화해야 합니다. 멀티호스트 디스크를 이중화하는 방법은 "멀티호스트 디스크 이중화"를 참조하십시오. 기억 장치에서 디스크에 대한 중복 경로뿐 아니라 하드웨어 RAID를 제공하면 소프트웨어 이중화를 사용하지 않아도 됩니다.
이중화된 루트 - 루트 디스크를 이중화하면 가용성이 높아지지만 이러한 이중화는 필요없습니다. 루트 디스크를 이중화할 것인지 결정하는 방법은 "이중화 방법"을 참조하십시오.
고유한 이름 지정 - 클러스터 노드에서 로컬 Solstice DiskSuite 메타 장치나 VxVM 볼륨이 /global/.devices/node@nodeid 파일 시스템을 마운트하는 장치로 사용될 경우에는 메타 장치나 볼륨의 이름이 전체 클러스터에서 고유해야 합니다.
노드 목록 - 디스크 장치 그룹의 가용성을 높이려면 마스터가 될 수 있는 노드 목록과 페일백 정책을 연결된 자원 그룹과 동일하게 지정하십시오. 또는 확장 가능한 자원 그룹에서 연결된 디스크 장치 그룹보다 많은 노드를 사용할 경우에는 확장 가능한 자원 그룹의 노드 목록을 디스크 장치 그룹의 노드 목록보다 상위 세트로 만드십시오. 노드 목록에 대한 자세한 내용은 Sun Cluster 3.0 12/01 Data Services Installation and Configuration Guide의 자원 그룹 계획 정보를 참조하십시오.
멀티포트 디스크 - 클러스터에서 장치 그룹을 구성하는 데 사용된 모든 디스크를 해당 장치 그룹에 대한 노드 목록에 구성된 모든 노드에 연결해야 합니다. Solstice DiskSuite 소프트웨어는 디스크가 디스크 세트에 추가될 때 자동으로 이것을 검사할 수 있습니다. 그러나 구성된 VxVM 디스크 그룹이 특정 노드 세트에 연결되지는 않습니다.
핫 스패어 디스크 - 핫 스패어 디스크를 사용하면 가용성을 높일 수 있지만 반드시 필요한 것은 아닙니다.
디스크 레이아웃 권장 사항과 추가 제한에 대한 내용은 볼륨 관리자 문서를 참조하십시오.
Solstice DiskSuite 구성을 계획할 때는 다음 사항을 참고하십시오.
로컬 메타 장치 이름 - 각 로컬 메타 장치 이름은 전체 클러스터에서 고유해야 하고 다른 DID(장치 ID) 이름과 동일하면 안됩니다.
Mediator - 정확히 두 개의 디스크 문자열로 구성되고 정확히 두 개의 노드에 의해 마스터되는 각 디스크 세트에는 디스크 세트용으로 구성된 Solstice DiskSuite mediator가 있어야 합니다. 디스크 문자열은 디스크 인클로저, 포함된 물리적 디스크, 인클로저와 노드 사이의 케이블, 인터페이스 어댑터 카드 등으로 구성됩니다. 각 디스크 세트는 mediator 호스트로 작동하는 두 개의 노드로만 구성해야 합니다. mediator가 필요한 모든 디스크 세트에 동일한 두 개의 노드를 사용해야 하고, 이 두 노드는 디스크 세트를 마스터해야 합니다. 2-문자열 및 2-호스트 요구 사항을 충족시키지 않는 디스크 세트에는 mediator를 구성할 수 없습니다. 자세한 내용은 mediator(7) 설명서 페이지를 참조하십시오.
/kernel/drv/md.conf 설정 - 각 디스크 세트에서 사용하는 모든 메타 장치는 재구성 부트를 실행할 때 /kernel/drv/md.conf 파일에 있는 구성 매개 변수에 따라 사전에 만들어집니다. md.conf 파일의 필드는 Solstice DiskSuite 문서에서 설명합니다. Sun Cluster 구성을 지원하려면 다음과 같이 nmd 및 md_nsets 필드를 수정해야 합니다.
nmd - nmd 필드는 각 디스크 세트에 사용하기 위해 만드는 메타 장치의 수를 지정합니다. nmd 값은 클러스터에 있는 디스크 세트 중 하나에서 사용할 것으로 예상되는 가장 많은 메타 장치 수로 설정해야 합니다. 예를 들어, 클러스터가 처음 15개의 디스크 세트에 10개의 메타 장치를 사용하지만 16번째 디스크 세트에 1000개의 메타 장치를 사용하면 nmd의 값을 1000 이상으로 설정해야 합니다. 또한 각 DID 이름에 사용할 번호 개수가 충분하고 각 로컬 메타 장치 이름이 전체 클러스터에서 고유하려면 nmd의 값이 커야 합니다. 디스크 세트마다 최대 8192개까지 메타 장치를 사용할 수 있습니다. 디스크 세트마다 기본 설정된 메타 장치 수는 128개입니다.
md_nsets - md_nsets 필드는 시스템이 전체 클러스터의 요구를 충족시키기 위해 만들 수 있는 디스크 세트 최대 개수입니다. md_nsets 값은 Solstice DiskSuite 소프트웨어가 로컬 호스트에 있는 독립 디스크(즉, 로컬 디스크 세트에 포함되지 않은 메타 장치)를 관리할 수 있도록 클러스터에서 예상되는 디스크 세트 수에 1을 더한 값으로 설정해야 합니다. 클러스터마다 최대 32개까지 디스크 세트를 사용할 수 있습니다. 기본 설정된 디스크 세트 수는 4개입니다.
설치할 때 예상되는 클러스터 확장을 모두 수용할 수 있도록 이 필드를 설정하십시오. 클러스터가 구성된 후에 이 값을 증가시키려면 각 노드를 재구성하기 위해 다시 부트해야 하기 때문에 시간이 소요됩니다. 이 값을 나중에 증가시키면 요청된 장치를 모두 만들기 위하여 루트(/) 파일 시스템에 잘못된 공간을 할당할 수도 있습니다.
각 노드에서 제공하는 디스크 세트 수와 관계없이 모든 클러스터 노드에 동일한 /kernel/drv/md.conf 파일이 있어야 합니다. 이 지침을 따르지 않으면 심각한 Solstice DiskSuite 오류가 발생하여 데이터가 손실될 수 있습니다.
VxVM(VERITAS Volume Manager) 구성을 계획할 때는 다음 사항을 참고하십시오.
인클로저 기반 이름 지정 - 장치에 대하여 인클로저 기반 이름 지정(VxVM 3.2 버전에서 도입한 기능)을 사용할 경우에는 동일한 기억 장치를 공유하는 모든 클러스터 노드에서 일관된 장치 이름을 사용해야 합니다. VxVM은 이 이름을 조정하지 않기 때문에 VxVM이 다른 노드에서 동일한 장치에 대하여 동일한 이름을 할당하도록 관리자가 조정해야 합니다. 일관된 이름을 할당하지 않아도 정확한 클러스터 작동에 문제가 발생하지는 않지만 클러스터 관리가 복잡해지기 때문에 구성 오류가 발생할 확률이 높아져서 데이터가 손실될 수 있습니다.
루트 디스크 그룹 - 각 노드에 기본 루트 디스크 그룹(rootdg)을 만들어야 합니다. rootdg 디스크 그룹은 다음과 같은 디스크에 만들 수 있습니다.
캡슐화되어야 하는 루트 디스크
캡슐화되거나 초기화될 수 있고 루트가 아닌 하나 이상의 로컬 디스크
루트 디스크와 루트가 아닌 로컬 디스크의 조합
rootdg 디스크 그룹은 노드에 로컬이어야 합니다.
캡슐화 - 캡슐화될 디스크에는 빈 디스크 슬라이스 테이블 항목 두 개가 있어야 합니다.
볼륨 수 - 디스크 장치 그룹이 만들어질 때 디스크 장치 그룹이 사용할 최대 볼륨 수를 계산하십시오.
볼륨 수가 1000보다 작으면 기본 설정된 하위 번호를 사용할 수 있습니다.
볼륨 수가 1000 이상이면 디스크 장치 그룹 볼륨에 하위 번호를 지정하는 방법을 계획해야 합니다. 두 개의 디스크 장치 그룹에 중복된 하위 번호를 할당하면 안됩니다.
DRL(Dirty Region Logging) - DRL은 사용하면 좋지만 반드시 필요한 것은 아닙니다. DRL을 사용하면 노드 장애가 발생한 후에 볼륨 복구 시간이 짧아집니다. DRL을 사용하면 I/O 처리량이 감소할 수 있습니다.
클러스터 파일 시스템에서는 로그 기록이 필요합니다. Sun Cluster는 다음과 같은 로그 기록 파일 시스템을 지원합니다.
Solaris UFS 로그 기록
Solstice DiskSuite 트랜스 메타 장치 UNIX 파일 시스템(UFS) 로그 기록
VxFS(VERITAS File System) 로그 기록
DiskSuite 트랜스 메타 장치에 대한 자세한 내용은 Solstice DiskSuite 문서를 참조하십시오. Solaris UFS 로그 기록에 대한 자세한 내용은 mount_ufs(1M) 설명서 페이지를 참조하십시오. VxFS 로그 기록에 대한 자세한 내용은 VxVM 소프트웨어와 함께 제공되는 mount_vxfs(1M) 설명서 페이지를 참조하십시오.
다음 표에 각 볼륨 관리자에서 지원하는 로그 기록 파일 시스템이 있습니다.
표 1-4 지원되는 파일 시스템 로그 기록 도표
볼륨 관리자 |
지원되는 파일 시스템 로그 기록 |
---|---|
Solstice DiskSuite |
Solaris UFS 로그 기록, Solstice DiskSuite 트랜스 메타 장치 UFS 로그 기록, VxFS 로그 기록 |
VERITAS Volume Manager |
Solaris UFS 로그 기록, VxFS 로그 기록 |
Solaris UFS 로그 기록과 Solstice DiskSuite 트랜스 메타 장치 UFS 로그 기록 중에서 선택할 때는 다음 사항을 참고하십시오.
Solaris UFS 로그 크기 - Solaris UFS 로그 기록에서는 항상 파일 시스템의 크기에 따라 UFS 파일 시스템의 사용 가능한 공간을 사용하여 로그를 할당합니다.
1GB 미만의 시스템에서는 로그가 1MB를 차지합니다.
1GB 이상의 파일 시스템에서는 로그가 파일 시스템에서 GB당 1MB를 차지하고, 최대 64MB까지 할당할 수 있습니다.
로그 메타 장치 - Solstice DiskSuite 트랜스 메타 장치는 UFS 로그 기록을 관리합니다. 트랜스 메타 장치의 로그 기록 장치 구성 요소는 사용자가 이중화하고 스트라이프할 수 있는 메타 장치입니다. 대부분의 파일 시스템에 64MB면 충분하지만 최대 1GB 크기까지 만들 수 있습니다. 최소 로그 크기는 1MB입니다. 트랜스 메타 장치 설정에 대한 자세한 내용은 Solstice DiskSuite 문서를 참조하십시오.
이 단락에서는 클러스터 구성에서 이중화를 계획하는 방법을 설명합니다.
Sun Cluster 구성에서 모든 멀티호스트 디스크를 이중화하면 단일 디스크에서 장애가 발생해도 구성이 계속 작동합니다. Sun Cluster 소프트웨어를 사용하려면 디스크 확장 장치 사이에서 모든 멀티호스트 디스크를 이중화해야 합니다. 기억 장치에서 디스크에 대한 중복 경로뿐 아니라 하드웨어 RAID를 제공하면 소프트웨어 이중화를 사용하지 않아도 됩니다.
멀티호스트 디스크를 이중화할 때는 다음 사항을 참고하십시오.
별도 디스크 확장 장치 - 지정된 미러의 각 하위 미러나 플렉스가 서로 다른 멀티호스트 디스크 확장 장치에 있어야 합니다.
디스크 공간 - 이중화하려면 두 배의 디스크 공간이 필요합니다.
3중 이중화 - Solstice DiskSuite 소프트웨어 및 VxVM(VERITAS Volume Manager)은 3중 이중화를 지원합니다. 그러나 Sun Cluster에서는 2중 이중화만 사용해야 합니다.
메타 장치 수 - Solstice DiskSuite 소프트웨어에서는 미러가 연결 또는 스트라이프와 같은 다른 메타 장치로 구성됩니다. 구성이 크면 많은 메타 장치가 포함될 수 있습니다. 예를 들어, 각 로그 기록 HFS 파일 시스템에 대하여 7개의 메타 장치가 만들어집니다.
서로 다른 디스크 크기 - 크기가 서로 다른 디스크에 이중화할 경우에는 미러 용량이 가장 작은 하위 미러나 플렉스 크기로 제한됩니다.
멀티호스트 디스크에 대한 자세한 내용은 Sun Cluster 3.0 12/01 개념을 참조하십시오.
Sun Cluster 3.0 12/01 릴리스 정보에 있는 "로컬 파일 시스템 레이아웃 워크시트"에 이 계획 정보를 추가하십시오.
가용성을 최대로 높이려면 루트(/), /usr, /var, /opt 및 swap을 로컬 디스크에 이중화해야 합니다. VxVM에서는 루트 디스크를 캡슐화하고 만들어진 하위 디스크를 이중화합니다. 그러나 Sun Cluster 소프트웨어를 사용할 경우에는 루트 디스크를 이중화하지 않아도 됩니다.
루트 디스크를 이중화할 것인지 결정하기 전에 위험, 복잡성, 비용 및 서비스 시간을 고려하여 루트 디스크에 대한 여러 가지 대안을 찾아 보십시오. 한 가지 이중화 전략이 모든 구성에서 작동하지는 않습니다. 루트를 이중화할 것인지 결정하려면 각 지역 엔터프라이즈 서비스 담당자가 주로 사용하는 방법을 고려하는 것이 좋습니다.
루트 디스크를 이중화하는 방법은 볼륨 관리자 문서와 "Solstice DiskSuite 소프트웨어 설치 및 구성" 또는 "VxVM 소프트웨어 설치 및 구성"을 참조하십시오.
루트 디스크를 이중화할 것인지 결정할 때는 다음 사항을 참고하십시오.
복잡성 - 루트 디스크를 이중화하면 시스템 관리가 더욱 복잡해지고 단일 사용자 모드의 부팅이 복잡해집니다.
백업 - 루트 디스크의 이중화 여부에 관계없이 정기적으로 루트를 백업해야 합니다. 관리 오류가 발생할 경우에 이중화만으로는 보호할 수 없습니다. 백업 계획을 세워야만 사고로 변경되거나 삭제된 파일을 복구할 수 있습니다.
정족수 장치 - 정족수 장치로 구성된 디스크는 루트 디스크를 이중화하는 데 사용하지 마십시오.
정족수 - Solstice DiskSuite 소프트웨어에서는 메타 장치 상태 데이터베이스 정족수가 없으면 유지 보수 작업을 수행할 때까지 시스템을 다시 부트할 수 없습니다. 메타 장치 상태 데이터베이스 및 상태 데이터베이스 복제에 대한 자세한 내용은 Solstice DiskSuite 문서를 참조하십시오.
별도 컨트롤러 - 가용성을 최대로 높이는 방법으로 별도 컨트롤러에 루트 디스크를 이중화하는 방법이 있습니다.
부트 디스크 - 1차 부트 디스크에 장애가 발생할 경우에 미러에서 부트할 수 있도록 미러를 부팅 가능한 루트 디스크로 설정할 수 있습니다.
2차 루트 디스크 - 이중화된 루트 디스크가 있으면 1차 루트 디스크에 장애가 발생해도 2차(미러) 루트 디스크에서 작동을 계속할 수 있습니다. 나중에(전원 주기 또는 순간적인 I/O 오류 후에) 1차 루트 디스크가 다시 작동할 수도 있고, 이후의 부트는 OpenBootTM PROM boot-device 필드에 지정된 1차 루트 디스크를 사용하여 수행됩니다. 이러한 경우에는 직접 복구하지 않아도 부트할 수 있도록 드라이브가 정상적으로 작동합니다. Solstice DiskSuite 재동기화가 필요합니다. 재동기화는 드라이브가 다시 작동할 때 직접 해야 합니다.
2차(미러) 루트 디스크에서 파일을 변경한 경우에는 부트할 때 변경 사항이 1차 루트 디스크에 반영되지 않았기 때문에 하위 미러 오류가 발생할 수 있습니다. 예를 들어, /etc/system 파일에 대한 변경 사항은 삭제될 것입니다. 1차 루트 디스크가 작동하지 않는 동안 Solstice DiskSuite의 일부 관리 명령에 의해 /etc/system 파일이 변경될 수 있습니다.
부트 프로그램은 미러에서 부트하는지 아니면 하부 물리적 장치에서 부트하는지 검사하지 않고, 이중화는 전체 부트 프로세스에서 어느 정도(메타 장치가 로드된 후)까지만 작동합니다. 이 시점 이전의 작동으로 인해 시스템의 하위 미러에 문제가 발생할 수 있습니다.