이 계획 정보를 Sun Cluster 3.0 U1 릴리스 정보에 있는 "디스크 장치 그룹 구성 워크시트" 및 "볼륨 관리자 구성 워크시트"에 추가하십시오. Solstice DiskSuite의 경우에는 이 계획 정보를 "메타 장치 워크시트(Solstice DiskSuite)"에도 추가하십시오.
이 장에 수록에서는 클러스터 구성의 볼륨 관리 계획에 대하여 설명합니다.
Sun Cluster는 디스크를 하나의 단위로 관리할 수 있도록 볼륨 관리자 소프트웨어를 사용하여 디스크 장치 그룹으로 그룹화합니다. Sun Cluster는 Solstice DiskSuite 소프트웨어와 VERITAS Volume Manager(VxVM)를 지원합니다.
Solstice DiskSuite 소프트웨어를 사용하려면 일부 노드에서 디스크를 관리하기 위하여 VxVM을 사용하는 것과 관계 없이 클러스터의 모든 노드에 이 소프트웨어를 설치해야 합니다.
VxVM을 사용하고 VxVM 클러스터 기능을 활성화하려면 클러스터의 모든 노드에 VxVM을 설치하고 사용권을 부여해야 합니다.
VxVM을 사용하고 VxVM 클러스터 기능을 활성화하지 않을 경우에는 VxVM이 관리할 기억 장치에 연결된 노드에만 VxVM을 설치하고 사용권을 부여하면 됩니다.
노드 하나에 Solstice DiskSuite 소프트웨어와 VxVM을 모두 설치하면 Solstice DiskSuite 소프트웨어를 사용하여 각 노드에 로컬인 디스크(예: 루트 디스크)를 관리하고 VxVM을 사용하여 모든 공유 디스크를 관리해야 합니다.
볼륨 관리자 소프트웨어를 설치하고 구성하는 방법은 볼륨 관리자 문서와 "Solstice DiskSuite 소프트웨어 설치 및 구성" 또는 "VxVM 소프트웨어 설치 및 구성"을 참조하십시오. 클러스터 구성에서 볼륨을 관리하는 방법은 Sun Cluster 3.0 U1 개념을 참조하십시오.
디스크를 구성할 때 일반적인 다음 사항을 고려하십시오.
이중화된 멀티호스트 디스크 - 모든 멀티호스트 디스크를 디스크 확장 장치에 이중화해야 합니다. 멀티호스트 디스크 이중화에 대한 자세한 내용은 "멀티호스트 디스크 이중화"을 참조하십시오.
이중화된 루트 - 루트 디스크를 이중화하면 가용성이 높아지지만 이러한 이중화는 필요 없습니다. 루트 디스크를 이중화할 것인지 결정하려면 "이중화 지침"을 참조하십시오.
고유한 이름 지정 - 클러스터 노드에서 로컬 Solstice DiskSuite 메타 장치나 VxVM 볼륨이 /global/.devices/node@nodeid 파일 시스템을 마운트하는 장치로 사용될 경우에는 메타 장치나 볼륨의 이름이 전체 클러스터에서 고유해야 합니다.
노드 목록 - 디스크 장치 그룹의 가용성을 높이려면 마스터가 될 수 있는 노드 목록과 페일백 정책을 연결된 자원 그룹과 동일하게 지정하십시오. 또는 확장 가능한 자원 그룹에서 연결된 디스크 장치 그룹보다 많은 노드를 사용할 경우에는 확장 가능한 자원 그룹의 노드 목록을 디스크 장치 그룹의 노드 목록보다 상위 세트로 만드십시오. 노드 목록에 대한 자세한 내용은 Sun Cluster 3.0 U1 Data Services Installation and Configuration Guide의 자원 그룹 계획 정보를 참조하십시오.
멀티 포트 디스크 - 클러스터에서 장치 그룹을 구성하는 데 사용된 모든 디스크를 해당 장치 그룹에 대한 노드 목록에 구성된 모든 노드에 연결해야 합니다. Solstice DiskSuite 소프트웨어는 디스크가 디스크 세트에 추가될 때 자동으로 이것을 검사할 수 있습니다. 그러나 구성된 VxVM 디스크 그룹이 특정 노드 세트에 연결되지는 않습니다. 또한, 클러스터링 소프트웨어를 사용하여 Solstice DiskSuite 디스크 세트, VxVM 디스크 그룹 또는 각 글로벌 장치 세트를 글로벌 장치 그룹으로 등록할 때 제한된 연결 검사만 수행할 수 있습니다.
핫 스패어 디스크 - 핫 스패어 디스크를 사용하면 가용성을 높일 수 있지만 반드시 필요한 것은 아닙니다.
디스크 배치 권장 사항과 추가 제한에 대한 내용은 볼륨 관리자 문서를 참조하십시오.
Solstice DiskSuite 구성을 계획할 때 다음 사항을 고려하십시오.
로컬 메타 장치 이름 - 각 로컬 메타 장치 이름은 전체 클러스터에서 고유해야 하고 다른 DID(장치 ID) 이름과 동일하면 안됩니다.
Mediator - 정확히 두 개의 디스크 문자열로 구성되고 정확히 두 개의 노드에 의해 마스터되는 각 디스크 세트에는 디스크 세트용으로 구성된 Solstice DiskSuite mediator가 있어야 합니다. 디스크 문자열은 디스크 모음, 포함된 물리적 디스크, 디스크 모음과 노드 사이의 케이블, 인터페이스 어댑터 카드 등으로 구성됩니다. 각 디스크 세트는 mediator 호스트로 작동하는 두 개의 노드로만 구성해야 합니다. mediator가 필요한 모든 디스크 세트에 동일한 두 개의 노드를 사용해야 하고, 이 두 노드는 디스크 세트를 마스터해야 합니다. 2-문자열 및 2-호스트 요구 사항을 충족시키지 않는 디스크 세트에는 mediator를 구성할 수 없습니다. 자세한 내용은 mediator(7) 설명서 페이지를 참조하십시오.
/kernel/drv/md.conf 설정 - 각 디스크 세트에서 사용하는 모든 메타 장치는 재구성 부트를 실행할 때 /kernel/drv/md.conf 파일에 있는 구성 매개 변수에 따라 미리 작성됩니다. md.conf 파일의 필드는 Solstice DiskSuite 문서에서 설명합니다. Sun Cluster 구성을 지원하려면 다음과 같이 nmd 및 md_nsets 필드를 수정해야 합니다.
nmd - nmd 필드는 각 디스크 세트에 사용하기 위해 만드는 메타 장치의 수를 정의합니다. nmd 값은 클러스터에 있는 디스크 세트 중 하나에서 사용할 것으로 예상되는 가장 많은 메타 장치 수로 설정해야 합니다. 예를 들어, 클러스터가 처음 15개의 디스크 세트에 10개의 메타 장치를 사용하지만 16번째 디스크 세트에 1000개의 메타 장치를 사용하면 nmd의 값을 1000 이상으로 설정해야 합니다. 또한 각 DID 이름에 사용할 숫자가 충분하고 각 로컬 메타 장치 이름이 전체 클러스터에서 고유하려면 nmd의 값이 커야 합니다. 디스크 세트마다 최대 8192개까지 메타 장치를 사용할 수 있습니다. 디스크 세트마다 기본 설정된 메타 장치 수는 128개입니다.
md_nsets - md_nsets 필드는 시스템이 전체 클러스터의 요구를 충족시키기 위해 만들 수 있는 디스크 세트 최대 개수입니다. md_nsets 값은 클러스터에서 예상되는 디스크 세트 수에 Solstice DiskSuite 소프트웨어가 로컬 호스트에 있는 개인 디스크(즉, 로컬 디스크 세트에 포함되지 않은 메타 장치)를 관리할 수 있도록 1을 더한 값으로 설정해야 합니다. 클러스터마다 최대 32개까지 디스크 세트를 사용할 수 있습니다. 기본 설정된 디스크 세트 수는 4개입니다.
설치할 때 예상되는 클러스터 확장을 모두 수용할 수 있도록 이 필드를 설정하십시오. 운영 환경에서 이 값을 증가시키려면 각 노드를 재구성하기 위해 다시 부트해야 하기 때문에 시간이 소요됩니다. 이 값을 나중에 증가시키면 요청된 장치를 모두 만들기 위하여 루트(/) 파일 시스템에 잘못된 공간을 할당할 수도 있습니다.
각 노드에서 제공하는 디스크 세트 수와 관계 없이 모든 클러스터 노드에 동일한 /kernel/drv/md.conf 파일이 있어야 합니다. 이 지침을 따르지 않으면 심각한 Solstice DiskSuite 오류가 발생하여 데이터가 손실될 수 있습니다.
VERITAS Volume Manager(VxVM)구성을 계획할 때 다음 사항을 고려하십시오.
루트 디스크 그룹 - 각 노드에 기본 루트 디스크 그룹( rootdg)을 만들어야 합니다. rootdg 디스크 그룹은 다음과 같은 디스크에 만들 수 있습니다.
캡슐화되어야 하는 루트 디스크
캡슐화되거나 초기화될 수 있는 루트가 아닌 하나 이상의 로컬 디스크
루트 디스크와 루트가 아닌 로컬 디스크의 조합
rootdg 디스크 그룹은 노드에 로컬이어야 합니다.
캡슐화 - 캡슐화될 디스크에는 빈 디스크 슬라이스 테이블 항목 두 개가 있어야 합니다.
볼륨 수 - 디스크 장치 그룹이 만들어질 때 디스크 장치 그룹이 사용할 최대 볼륨 수를 예측하십시오.
볼륨 수가 1000보다 작으면 기본 설정된 하위 계수를 사용할 수 있습니다.
볼륨 수가 1000 이상이면 디스크 장치 그룹 볼륨에 하위 번호를 지정하는 방법을 계획해야 합니다. 두 개의 디스크 장치 그룹에 중복된 하위 번호를 할당하면 안됩니다.
DRL(Dirty Region Logging) - DRL은 사용하면 좋지만 반드시 필요한 것은 아닙니다. DRL을 사용하면 노드 장애가 발생한 후에 볼륨 복구 시간이 짧아집니다. DRL을 사용하면 I/O 처리량이 감소할 수 있습니다.
로그 기록은 클러스터 파일 시스템에 필요합니다. Sun Cluster는 다음과 같은 로그 기록 파일 시스템을 지원합니다.
Solaris UFS logging
Solstice DiskSuite 트랜스 메타 장치 UNIX 파일 시스템(UFS) 로그 기록
Solstice DiskSuite trans metadevice UFS logging에 대한 자세한 내용은 Solstice DiskSuite 문서를 참조하십시오. Solaris UFS logging에 대한 자세한 내용은 mount_ufs(1M) 설명서 페이지를 참조하십시오.
다음 표에는 각 볼륨 관리자에서 지원하는 로그 기록 파일 시스템이 있습니다.
표 1-4 지원되는 파일 시스템 로그 기록 행렬
볼륨 관리자 |
지원되는 파일 시스템 로그 기록 |
---|---|
Solstice DiskSuite |
Solaris UFS loggingSolstice DiskSuite trans metadevice UFS logging, |
VERITAS Volume Manager |
Solaris UFS logging |
Solstice DiskSuite 볼륨 관리자에 대해 Solaris UFS logging 및 Solstice DiskSuite trans metadevice UFS logging 사이에서 선택할 때 다음 사항을 고려하십시오.
Solaris UFS 로그 크기 - Solaris UFS logging는 UFS 파일 시스템의 사용가능한 공간을 사용하여, 그리고 파일 시스템의 크기에 따라 로그를 할당합니다.
1GB보다 작은 파일 시스템에서는 로그가 1MB를 차지합니다.
1GB 바이트 이상의 파일 시스템에서는 로그가 파일 시스템에서 GB당 1MB를 차지하며, 최대 64MB까지 가능합니다.
로그 메타 장치 - Solstice DiskSuite 트랜스 메타 장치는 UFS 로그 기록을 관리합니다. 트랜스 메타 장치의 로그 기록 장치 구성 요소는 사용자가 이중화하고 스트라이프할 수 있는 메타 장치입니다. 대부분의 파일 시스템에 64MB면 충분하지만 최대 1GB까지 로그를 만들 수 있습니다. 최소 로그 크기는 1 MB입니다. 트랜스 메타장치 설정에 대해서는 Solstice DiskSuite 문서를 참조하십시오
이 절에서는 클러스터 구성의 이중화 계획에 대한 지침을 제공합니다.
Sun Cluster 구성에서 모든 멀티호스트 디스크를 이중화하면 구성에서 단일 디스크 실패를 허용할 수 있습니다. Sun Cluster 소프트웨어에서는 디스크 확장 장치에서 모든 멀티호스트 디스크를 이중화하도록 요구합니다.
별도 디스크 확장 장치 -주어진 미러의 각 서브미러나 플랙스는 서로 다른 멀티호스트 디스크 확장 장치에 있어야 합니다.
디스크 공간 - 이중화을 하면 필요한 디스크 공간이 두배가 됩니다.
3중 이중화 - Solstice DiskSuite 소프트웨어 및 VERITAS Volume Manager(VxVM)는 세방향 이중화을 지원합니다. 그러나 Sun Cluster에서는 두 방향 이중화만 요구합니다.
메타 장치 수 - Solstice DiskSuite 소프트웨어에서, 미러는 연결 또는 스트라이프와 같은 다른 메타장치들로 구성됩니다. 큰 구성에는 많은 메타장치가 포함됩니다. 예를 들어, 각각의 로그 기록 HFS 파일 시스템에 대해 7개의 메타장치가 작성됩니다.
서로 다른 디스크 크기 - 다른 크기의 디스크에 이중화할 경우, 미러 용량은 가장 작은 서브미러나 플랙스의 크기로 제한됩니다.
멀티호스트 디스크에 대한 자세한 내용은 Sun Cluster 3.0 U1 개념을 참조하십시오.
Sun Cluster 3.0 U1 릴리스 정보에서 "로컬 파일 시스템 배치 워크시트"에 이 정보를 추가하십시오.
최대의 가용성을 위해서는 로컬 디스크에서 루트(/), /usr, /var, /opt 및 swap을 이중화해야 합니다. VxVM에서, 루트 디스크를 캡슐화하고 생성된 서브디스크를 이중화합니다. 그러나 루트 디스크를 이중화하는 것은 Sun Cluster의 요구사항이 아닙니다.
루트 디스크를 이중화할 것인지 결정하기 전에, 루트 디스크에 관한 다양한 대체 방안의 위험, 복잡성, 비용 및 서비스 시간을 고려하십시오. 모든 구성에 대해 작동되는 단일 이중화 방법은 없습니다. 루트를 이중화할 것인지 결정할 때 해당 지역의 엔터프라이즈 서비스 담당자가 선호하는 솔루션을 고려할 수도 있습니다.
이중화 방법은 "Solstice DiskSuite 소프트웨어 설치 및 구성" 또는 "VxVM 소프트웨어 설치 및 구성" 및 볼륨 관리자 문서를 참조하십시오.
루트 디스크를 이중화할 것인지 결정할 때 다음 사항을 고려하십시오.
Complexity - 루트 디스크를 이중화하면 시스템 관리에 복잡도가 추가되어 단일 사용자 모드에서의 시동이 복잡해집니다.
Backups - 루트 디스크의 이중화 여부에 관계없이, 루트를 정기적으로 백업해야 합니다. 이중화만 하는 경우에는 관리 오류에 대해서 보호되지 않습니다. 백업 계획은 단지 부주의로 변경되거나 삭제된 파일을 복원할 수 있게 합니다.
정족수 장치 - 루트 디스크를 이중화하는 데 정족수 장치로 구성된 디스크를 사용하지 마십시오.
Quorum - Solstice DiskSuite 소프트웨어에서, 메타장치 상태 데이터베이스 정족수가 유실되는 실패 시나리오의 경우, 유지 보수가 수행될 때까지 시스템을 다시 시동할 수 없습니다. 메타장치 상태 데이터베이스 및 상태 데이터베이스 복제본에 대해서는 Solstice DiskSuite 문서를 참조하십시오.
Separate controllers - 최대의 고가용성에는 별도 제어기에서의 루트 디스크 이중화이 포함됩니다.
Boot disk - 1차 시동 디스크가 실패할 경우, 미러에서 시동할 수 있도록 시동가능한 루트 디스크로의 이중화을 설정할 수 있습니다.
Secondary root disk - 이중화된 루트 디스크를 사용하면, 1차 루트 디스크가 실패해도 2차(미러) 루트 디스크에서 작업을 계속할 수 있습니다. 나중에, 1차 루트 디스크는 서비스로 반환하고(아마도, 전원 주기 또는 임시 I/O 오류 후에) OpenBootTM PROM boot-device 필드에 지정된 1차 루트 디스크를 사용하여 이어지는 부트가 수행됩니다. 이 상황에서 아무 수동 수리 작업도 일어나지 않지만, 드라이브는 시동하기 위해 작동하기 시작합니다. Solstice DiskSuite 재동기화가 발생하므로 유의하십시오. 재동기화는 드라이브가 서비스로 반환될 때 수동 단계를 요구합니다.
2차(미러) 루트 디스크에서 파일을 변경하면, 변경사항은 시동시 1차 루트 디스크에서 반영되지 않아서, 잘못된 서브미러가 야기됩니다. 예를 들어, /etc/system 파일에 대한 변경사항이 유실됩니다. 일부 Solstice DiskSuite 관리 명령은 1차 루트 디스크가 서비스 범위를 벗어났을 때 /etc/system 파일을 변경하였을 수도 있습니다
시동 프로그램은 미러에서 시동하는지, 아니면 기초가 되는 실제 장치에서 시동되는지 확인하지 않으므로 이중화은 시동 프로세스를 통해 부분적으로 활성화됩니다(메타 장치가 로드된 후). 이 지점 이전에, 시스템에는 잘못된 서브미러 문제점이 발생할 가능성이 있습니다.