이 절에서는 클러스터 구성의 볼륨 관리 계획에 대한 지침을 제공합니다.
Sun Cluster는 볼륨 관리자 소프트웨어를 사용하여, 디스크들을 하나의 단위로 관리될 수 있는 디스크 디바이스 그룹으로 그룹화합니다. Sun Cluster는 Solstice DiskSuite 소프트웨어와 VERITAS Volume Manager(VxVM)를 지원합니다. 단일 클러스터 구성에서 단 하나의 볼륨 관리자만 사용할 수 있습니다. 볼륨 관리자 소프트웨어 구성에 관한 지시사항은, 부록 A 또는 부록 B에서 참조하십시오. 클러스터 구성에서의 볼륨 관리에 대한 정보는 Sun Cluster 3.0 Concepts에서 자세한 내용을 참조하십시오.
이 계획 정보를 Sun Cluster 3.0 Release Notes에 있는 "디스크 디바이스 그룹 구성 워크시트" 및 "볼륨 관리자 구성 워크시트"에 추가하고, 해당할 경우 Sun Cluster 3.0 Release Notes에 있는 "메타디바이스 워크시트(Solstice DiskSuite)"에 추가하십시오.
디스크 구성시 다음의 일반 지침을 고려하십시오.
Mirrored multihost disks - 디스크 확장 장치에서 모든 멀티호스트 디스크를 미러링해야 합니다. 멀티호스트 디스크 미러링에 대한 지침은 "멀티호스트 디스크 미러링"의 내용을 참조하십시오.
Mirrored root - 루트 디스크를 미러링하면 고가용성이 보장되지만 그러한 미러링이 반드시 필요한 것은 아닙니다. 루트 디스크를 미러링할 것인지 결정할 때의 지침은 "미러링 지침"의 내용을 참조하십시오.
Unique naming - 클러스터 노드에서, 로컬 Solstice DiskSuite 메타디바이스나 VxVM 볼륨이 /global/.devices/node@nodeid 파일 시스템이 마운트된 디바이스로 사용될 경우, 그 메타디바이스나 볼륨의 이름은 클러스터 전체적으로 고유해야 합니다.
Node lists - 디스크 디바이스 그룹의 가용성을 높이려면, 잠재적인 마스터의 노드 목록 및 페이백 정책이 연관된 자원 그룹과 동일하게 하십시오. 또는 확장가능한 자원 그룹이 연관된 디스크 디바이스 그룹보다 많은 노드를 사용할 경우, 확장가능 자원 그룹의 노드 목록을 디스크 디바이스 그룹의 노드 목록 수퍼세트로 만드십시오. 노드 목록에 관한 정보는 Sun Cluster 3.0 Data Services Installation and Configuration Guide의 자원 그룹 계획 정보를 참조하십시오.
Multiported disks - 클러스터 내에서 디바이스 그룹을 구성하기 위해 사용되는 모든 디스크는 그 디바이스 그룹에 대한 노드 목록에 구성된 모든 노드에 연결하거나 포팅해야 합니다. Solstice DiskSuite 소프트웨어는 디스크들이 디스크세트에 추가될 때 이를 자동으로 검사할 수 있습니다. 그러나 구성된 VxVM 디스크 그룹은 특정 노드 세트와의 연관성을 가지고 있지 않습니다. 또한, 클러스터링 소프트웨어를 사용하여, Solstice DiskSuite 디스크세트, VxVM 디스크 그룹 또는 글로벌 디바이스의 개별 세트를 글로벌 디바이스 그룹으로 등록할 때, 제한된 연결 검사만 수행할 수 있습니다.
Hot spare disks - 가용성을 높이기 위해 긴급 예비 디스크를 사용할 수 있지만, 필수적이지는 않습니다.
디스크 배치 권장사항과 추가 제한사항에 대해서는 볼륨 관리자 문서를 참조하십시오.
Solstice DiskSuite 구성 계획시 다음을 고려하십시오.
Mediators - 정확히 두 개의 디스크 문자열로 구성되고 정확히 두 개의 노드에 의해 마스터링된 각 디스크세트에는 디스크세트용으로 구성된 Solstice DiskSuite 조정자가 구성되어 있어야 합니다. disk string은 디스크 인클로저, 해당되는 실제 디스크, 인클로저와 노드 사이의 케이블 그리고 인터페이스 어댑터 카드로 구성됩니다. 각 디스크세트는 조정자 호스트로 작동하는, 정확히 두 개의 노드로 구성해야 합니다. 조정자를 필요로 하는 모든 디스크세트에 두 개의 동일한 노드를 사용해야 하고 해당되는 두 개의 노드는 그 디스크세트들을 마스터해야 합니다. 2-문자열 및 2-호스트 요구사항을 만족시키지 않는 디스크세트에 대해서는 조정자를 구성할 수 없습니다. 세부사항은 mediator(7) man 페이지를 참조하십시오.
/kernel/drv/md.conf settings - 각 디스크세트에서 사용되는 모든 메타디바이스는 /kernel/drv/md.conf 파일에 있는 구성 매개변수에 따라 재구성 시동 시 미리 작성됩니다. md.conf 파일의 필드들에 대해서는 Solstice DiskSuite 문서에 설명되어 있습니다. Sun Cluster 구성을 지원하려면 nmd 및 md_nsets 필드를 수정해야 합니다.
nmd - The nmd 필드는 각 디스크세트에 대해 작성되는 여러 메타디바이스를 정의합니다. nmd 값을 클러스터에 있는 디스크세트 중 하나에서 사용되는 예측된 가장 많은 메타디바이스 수로 설정해야 합니다. 예를 들어, 클러스터가 처음 15개의 디스크세트에서 10개의 메타디바이스를 사용하지만, 16번째 디스크세트에는 1000개의 메타디바이스가 있을 경우, nmd 값은 최소한 1000으로 설정해야 합니다. 디스크세트당 허용되는 최대 메타디바이스 수는 8192입니다.
md_nsets - The md_nsets 필드는 시스템에 대해 작성될 수 있는 총 디스크세트 수를 전체 클러스터에서의 필요성에 맞도록 정의합니다. md_nsets 값은 클러스터 내의 예상 디스크세트 수에, Solstice DiskSuite 소프트웨어가 로컬 호스트에서 개인 디스크를 관리할 수 있도록(즉, 로컬 디스크세트에 없는 메타디바이스들) 1을 더한 것으로 설정해야 합니다. 클러스터당 허용되는 최대 디스크세트 수는 32입니다.
클러스터의 예측된 확장을 허용하도록 설치 할때 이 필드들을 설정하십시오. 클러스터가 생산 상태에 있을 때 이 값들이 증가하면 각 노드에 대한 재구성 재시동이 필요하므로 시간이 소모됩니다. 이 값을 나중에 증가시키면 요청된 모든 디바이스를 작성하기 위한 루트(/) 파일 시스템에서의 공간 할당에서 부적절하게 이루어질 가능성이 커집니다.
각 노드에 의해 서비스가 제공되는 디스크세트 수에 상관없이, 모든 클러스터 노드에는 동일한 /kernel/drv/md.conf 파일이 있어야 합니다. 이 지침을 따르지 않으면 심각한 Solstice DiskSuite 오류가 야기되어 데이터가 손실될 수 있습니다.
VERITAS Volume Manager(VxVM) 구성 계획시 다음 사항을 고려하십시오.
Root disk group - 각 노드에 기본 루트 디스크 그룹(rootdg)을 작성해야 합니다. rootdg 디스크 그룹은 다음 디스크에 작성할 수 있습니다.
루트 디스크, 캡슐화되어 있어야 합니다.
하나 이상의 로컬 비루트 디스크, 캡슐화 또는 초기화될 수 있습니다.
루트와 로컬 비루트 디스크의 조합
rootdg 디스크 그룹은 노드에 로컬이어야 합니다.
Encapsulation - 캡슐화될 디스크에는 두 개의 사용가능한 디스크 슬라이스 테이블 항목이 있어야 합니다.
Number of volumes - 디스크 디바이스 그룹이 작성될 때 주어진 디스크 디바이스 그룹이 사용할 최대 볼륨 수를 측정하십시오.
볼륨 수가 1000보다 작으면, 기본 부 번호 붙이기를 사용할 수 있습니다.
볼륨 수가 1000 이상이면, 부 번호를 디스크 디바이스 그룹 볼륨에 할당하는 방법을 계획할 때 주의해야 합니다. 어떤 두 개의 디스크 디바이스 그룹도 겹쳐지는 부 번호가 할당될 수 없습니다.
Dirty Region Logging - DRL은 아주 권장되기는 하지만 반드시 필요한 것은 아닙니다. DRL을 사용하면 노드 실패 후 볼륨 복구 시간이 감소됩니다. DRL을 사용하면 I/O 처리량은 감소합니다.
로그 기록은 클러스터 파일 시스템에 필요합니다. Sun Cluster는 다음과 같은 로그 기록 파일을 지원합니다.
Solstice DiskSuite trans 메타디바이스 UNIX 파일 시스템(UFS) 로그 기록
Solaris UFS logging
Solstice DiskSuite trans-metadevice UFS logging 정보에 대해서는 Solstice DiskSuite 문서를 참조하십시오. Solaris UFS logging 정보에 대해서는 mount_ufs(1M) man 페이지와 Solaris Transition Guide를 참조하십시오.
다음 표는 각 볼륨 관리자가 지원하는 로그 기록 파일 시스템을 나열합니다.
표 1-4 지원되는 파일 시스템 로그 기록 행렬
볼륨 관리자 |
지원되는 파일 시스템 로그 기록 |
---|---|
Solstice DiskSuite |
Solstice DiskSuite trans-metadevice UFS logging, Solaris UFS logging |
VERITAS Volume Manager |
Solaris UFS logging |
Solstice DiskSuite 볼륨 관리자에 대해 Solaris UFS logging 및 Solstice DiskSuite trans-metadevice UFS logging 사이에서 선택할 때 다음 사항을 고려하십시오.
Solaris UFS log size - Solaris UFS logging는 UFS 파일 시스템의 사용가능한 공간을 사용하여, 그리고 파일 시스템의 크기에 따라 로그를 할당합니다.
1GB보다 작은 파일 시스템에서는 로그가 1MB를 차지합니다.
1GB 바이트 이상의 파일 시스템에서는 로그가 파일 시스템에서 GB당 1MB를 차지하며, 최대 64MB까지 가능합니다.
Log metadevice - Solstice DiskSuite trans-metadevice UFS logging에서, 로그 기록에 사용되는 trans 디바이스가 메타디바이스를 작성합니다. 로그는 아직 미러링 및 스트라이핑을 할 수 있는 다른 메타디바이스입니다. 또한 Solstice DiskSuite 소프트웨어로 최대 1TB 로그 기록 파일 시스템을 작성할 수 있습니다.
이 절에서는 클러스터 구성의 미러링 계획에 대한 지침을 제공합니다.
Sun Cluster 구성에서 모든 멀티호스트 디스크를 미러링하면 구성에서 단일 디스크 실패를 허용할 수 있습니다. Sun Cluster 소프트웨어에서는 디스크 확장 장치에서 모든 멀티호스트 디스크를 미러링하도록 요구합니다.
Separate disk expansion units - 주어진 미러의 각 서브미러나 플랙스는 서로 다른 멀티호스트 디스크 확장 장치에 있어야 합니다.
Disk space - 미러링을 하면 필요한 디스크 공간이 두배가 됩니다.
Three-way mirroring - Solstice DiskSuite 소프트웨어 및 VERITAS Volume Manager(VxVM)는 세방향 미러링을 지원합니다. 그러나 Sun Cluster에서는 두 방향 미러링만 요구합니다.
Number of metadevices - Solstice DiskSuite 소프트웨어에서, 미러는 연결 또는 스트라이프와 같은 다른 메타디바이스들로 구성됩니다. 큰 구성에는 많은 메타디바이스가 포함됩니다. 예를 들어, 각각의 로그 기록 HFS 파일 시스템에 대해 7개의 메타디바이스가 작성됩니다.
Differing disk sizes - 다른 크기의 디스크에 미러링할 경우, 미러 용량은 가장 작은 서브미러나 플랙스의 크기로 제한됩니다.
멀티호스트 디스크에 대한 자세한 정보는 Sun Cluster 3.0 Concepts의 내용을 참조하십시오.
최대의 가용성을 위해서는 로컬 디스크에서 루트(/), /usr, /var, /opt 및 swap을 미러링해야 합니다. VxVM에서, 루트 디스크를 캡슐화하고 생성된 서브디스크를 미러링합니다. 그러나 루트 디스크를 미러링하는 것은 Sun Cluster의 요구사항이 아닙니다.
루트 디스크를 미러링할 것인지 결정하기 전에, 루트 디스크에 관한 다양한 대체 방안의 위험, 복잡성, 비용 및 서비스 시간을 고려하십시오. 모든 구성에 대해 작동되는 단일 미러링 방법은 없습니다. 루트를 미러링할 것인지 결정할 때 해당 지역의 엔터프라이즈 서비스 담당자가 선호하는 솔루션을 고려할 수도 있습니다.
루트 디스크 미러링에 관한 지시사항은, 부록 A 또는 부록 B에서 참조하십시오.
루트 디스크를 미러링할 것인지 결정할 때 다음 사항을 고려하십시오.
Complexity - 루트 디스크를 미러링하면 시스템 관리에 복잡도가 추가되어 단일 사용자 모드에서의 시동이 복잡해집니다.
Backups - 루트 디스크의 미러링 여부에 관계없이, 루트를 정기적으로 백업해야 합니다. 미러링만 하는 경우에는 관리 오류에 대해서 보호되지 않습니다. 백업 계획은 단지 부주의로 변경되거나 삭제된 파일을 복원할 수 있게 합니다.
Quorum - Solstice DiskSuite 소프트웨어에서, 메타디바이스 상태 데이터베이스 정족수가 유실되는 실패 시나리오의 경우, 유지보수가 수행될 때까지 시스템을 다시 시동할 수 없습니다. 메타디바이스 상태 데이터베이스 및 상태 데이터베이스 복제본에 대해서는 Solstice DiskSuite 문서를 참조하십시오.
Separate controllers - 최대의 고가용성에는 별도 제어기에서의 루트 디스크 미러링이 포함됩니다.
Boot disk - 1차 시동 디스크가 실패할 경우, 미러에서 시동할 수 있도록 시동가능한 루트 디스크로의 미러링을 설정할 수 있습니다.
Secondary root disk - 미러링된 루트 디스크를 사용하면, 1차 루트 디스크가 실패해도 2차(미러) 루트 디스크에서 작업을 계속할 수 있습니다. 나중에, 1차 루트 디스크는 서비스로 리턴하고(아마도, 전원 주기 또는 임시 I/O 오류 후에) OpenBootTM PROM boot-device 필드에 지정된 1차 루트 디스크를 사용하여 후속 시동이 수행됩니다. 이 상황에서 아무 수동 수리 작업도 일어나지 않지만, 드라이브는 시동하기 위해 작동하기 시작합니다. Solstice DiskSuite 재동기화가 발생하므로 유의하십시오. 재동기화는 드라이브가 서비스로 리턴될 때 수동 단계를 요구합니다.
2차(미러) 루트 디스크에서 파일을 변경하면, 변경사항은 시동시 1차 루트 디스크에서 반영되지 않아서, 잘못된 서브미러가 야기됩니다. 예를 들어, /etc/system 파일에 대한 변경사항이 유실됩니다. 일부 Solstice DiskSuite 관리 명령은 1차 루트 디스크가 서비스 범위를 벗어났을 때 /etc/system 파일을 변경하였을 수도 있습니다
시동 프로그램은 미러에서 시동하는지, 아니면 기초가 되는 실제 디바이스에서 시동되는지 확인하지 않으므로 미러링은 시동 프로세스를 통해 부분적으로 활성화됩니다(메타디바이스가 로드된 후). 이 지점 이전에, 시스템에는 잘못된 서브미러 문제점이 발생할 가능성이 있습니다.