이 장에서는 Sun Cluster 구성 설치 지침과 계획 정보가 제공됩니다.
다음과 같은 개요 정보가 이 장에 수록되어 있습니다.
다음 테이블은 다양한 Sun Cluster 소프트웨어 설치 작업 및 작업 수행 순서를 보여줍니다.
표 1-1 Sun Cluster 소프트웨어 설치 작업 정보의 위치
작업 |
지시사항을 보려면, ...로 가십시오. |
---|---|
클러스터 하드웨어 설정 |
Sun Cluster 3.0 Hardware Guide 서버 및 스토리지 디바이스와 함께 제공된 문서 |
클러스터 소프트웨어 설치 계획 |
Sun Cluster 3.0 Release Notes에서 "워크시트 및 예 구성" |
클러스터 프레임워크, 볼륨 관리자 및 데이터 서비스 소프트웨어 패키지 설치 | |
클러스터 프레임워크 및 볼륨 관리자 소프트웨어 구성 |
볼륨 관리자 문서 |
클러스터 프레임워크, 데이터 서비스 및 볼륨 관리자 소프트웨어 업그레이드 |
볼륨 관리자 문서 |
데이터 서비스 및 자원 그룹 계획, 설치, 구성 |
Sun Cluster 3.0 Data Services Installation and Configuration Guide |
API 사용 |
Sun Cluster 3.0 Data Services Developers' Guide |
이 절에서는 클러스터 구성에서의 Solaris 소프트웨어 설치를 계획하기 위한 지침을 제공합니다. Solaris 소프트웨어에 대한 자세한 정보는 Solaris 설치 문서를 참조하십시오.
JumpStartTM 설치 방법을 사용하여 로컬 CD-ROM이나 네트워크 설치 서버로부터 Solaris 소프트웨어를 설치할 수 있습니다. 덧붙여, Sun Cluster 소프트웨어는 사용자 정의 JumpStart를 사용하여 Solaris 운영 환경과 Sun Cluster 소프트웨어 모두를 설치하는 방법을 제공합니다. 여러 개의 클러스터 시스템을 설치할 경우에는 네트워크 설치를 고려해 보십시오.
사용자 정의 JumpStart 설치 방법에 대해서는 "JumpStart를 사용하여 Solaris 운영 환경을 설치하고 새 클러스터 노드를 설정하는 방법"에서 자세한 내용을 참조하십시오. 표준 Solaris 설치 방법에 대한 세부사항은 Solaris 설치 문서를 참조하십시오.
Sun Cluster 3.0 Release Notes에서 "로컬 파일 시스템 배치 워크시트"에 이 정보를 추가하십시오.
Solaris 운영 환경이 설치될 때, 필요한 Sun Cluster 파티션이 작성되고, 모든 파티션이 최소 공간 요구사항을 만족시키는지 확인하십시오.
swap - 최소한 750 MB나 실제 메모리를 두배한 것 중에서 큰 값을 할당하십시오.
/globaldevices - 글로벌 디바이스에 대해 scinstall(1M) 유틸리티에서 사용될 100MB 파일 시스템을 작성하십시오.
Volume manager - 디스크 끝에 있는 슬라이스(슬라이스 7)에서 볼륨 관리자를 사용하기 위해 10MB 파티션을 작성하십시오. 클러스터에서 VERITAS Volume Manager(VxVM)이 사용되는데 루트 디스크를 캡슐화하면, VxVM에서 두 개의 사용되지 않는 슬라이스가 사용될 수 있도록 해야 합니다.
이러한 요구사항을 만족시키려면, Solaris 운영 환경의 대화식 설치를 수행하고 있을 경우 기본 파티션을 사용자에 맞게 정의해야 합니다.
추가 파티션 계획 정보에 대해서는 다음 지침을 참조하십시오.
Solaris 운영 환경을 실행하는 다른 시스템에서처럼, 루트(/), /var, /usr 및 /opt 디렉토리를 별도의 파일 시스템으로 구성하거나 모든 디렉토리를 루트(/) 파일 시스템에 포함시킬 수 있습니다. 다음은 Sun Cluster 구성에서 루트(/), /var, /usr 및 /opt 디렉토리의 소프트웨어 내용을 설명합니다. 파티션 설계를 계획할 때 이 정보를 고려하십시오.
root (/) - Sun Cluster 소프트웨어 자체는 루트(/) 파일 시스템에서 40MB 이하의 공간을 차지합니다. Solstice DiskSuiteTM 소프트웨어에서는 5MB 이하를 요구하고, VxVM 소프트웨어에서는15MB 이하를 요구합니다. 최상의 결과를 위해, Solstice DiskSuite 또는 VxVM 소프트웨어에서 사용되는 문자 특수 디바이스와 블록 디바이스 둘 다를 작성하기 위한 충분한 추가 공간과 i 노드 용량을 구성해야 합니다. 그러므로, 루트(/) 파일 시스템에 일반적으로 할당되는 공간량에 최소 100 메가바이트를 추가하십시오.
/var - Sun Cluster 소프트웨어는 설치 시 /var에서 무시해도 좋을 만큼의 공간을 차지합니다. 그러나 로그 파일용으로 따로 충분한 공간을 설정하십시오. 또한 일반적인 독립형 서버에서 발견되는 것보다 더 많은 메시지가 클러스터링된 노드에 기록될 수도 있습니다. 그러므로 /var에 대해 최소한 100MB를 허용하십시오.
/usr - Sun Cluster 소프트웨어는 /usr에서 25MB 이하의 공간을 차지합니다. Solstice DiskSuite 및 VxVM 소프트웨어 각각은 15MB 이하를 필요로 합니다.
/opt - Sun Cluster 프레임워크 소프트웨어는 /opt에서 2MB 이하를 사용하지만, 각 Sun Cluster 데이터 서비스는 1MB에서 5MB 사이를 사용할 수 있습니다. Solstice DiskSuite 소프트웨어는 /opt에서 어떤 공간도 사용하지 않습니다. VxVM 소프트웨어는 해당되는 모든 패키지 및 도구가 설치될 경우 40MB를 초과하여 사용할 수 있습니다. 또한 대부분의 데이터베이스 및 응용프로그램 소프트웨어는 /opt에 설치됩니다. SunTM Management Center 소프트웨어(공식적으로는 Sun Enterprise SyMONTM)를 사용하여 클러스터를 모니터할 경우, Sun Management Center 에이전트 및 Sun Cluster 모듈 패키지를 지원하기 위해 각 노드에서 25MB의 공간이 추가로 필요합니다.
스왑 파티션의 최소 크기는 750MB나 시스템에서의 실제 메모리 양을 두 배한 것 중에서 큰 값이어야 합니다. 설치하는 타사 응용프로그램에는 스왑 요구사항이 수반될 수도 있습니다. 스왑 요구사항에 대해서는, 타사 응용프로그램 문서를 참조하십시오.
Sun Cluster 소프트웨어에서는 글로벌 디바이스 관리에 사용할 로컬 디스크 중 하나를 별도로 특수 파일 시스템으로 설정해야 합니다. 파일 시스템은 나중에 클러스터 파일 시스템으로 마운트되므로 분리되어야 합니다. 이 파일 시스템의 이름을 /globaldevices라고 지정하십시오. 이것은 scinstall(1M) 명령에서 인식되는 기본 이름입니다. 나중에 scinstall(1M) 명령이 파일 시스템의 이름을 /global/.devices/node@nodeid로 바꿉니다. 여기서 nodeid는 노드가 클러스터 구성원이 될 때 지정된 번호를 나타내며, 본래의 /globaldevices 마운트 지점은 제거됩니다. /globaldevices 파일 시스템에는 특히 클러스터에 많은 수의 디스크가 있을 경우, 블록 특수 디바이스와 문자 특수 디바이스 작성을 위해 풍부한 공간과 노드 용량이 있어야 합니다. 100MB의 파일 시스템 크기는 대부분의 클러스터를 구성하는 데 충분합니다.
Solstice DiskSuite 소프트웨어를 사용할 경우, 복제본 데이터베이스를 작성할 때 사용할 슬라이스를 루트 디스크에 따라 설정해야 합니다. 특히, 각 로컬 디스크에 이러한 목적을 위해 슬라이스를 따로 설정하십시오. 그러나 노드에 로컬 디스크가 하나이면, Solstice DiskSuite 소프트웨어가 제대로 작동되도록 하기 위해서는 같은 슬라이스에 세 개의 복제본 데이터베이스를 작성 할 수도 있습니다. 자세한 정보는 Solstice DiskSuite 문서를 참조하십시오.
VxVM를 사용하고 루트 디스크를 캡슐화할 의도가 있으면, VxVM에서 사용될 두 개의 사용되지 않은 슬라이스가 있어야 하고, 디스크의 시작 또는 끝 부분에 사용가능한 일부 추가 공간이 있어야 합니다. 캡슐화에 대한 자세한 정보는 VxVM 문서를 참조하십시오.
표 1-2에 실제 메모리가 750 MB 이하인 클러스터 노드에 대한 파티션 설계가 나와 있습니다. 이 계획은 Solaris 운영 환경 일반 사용자 시스템 지원 소프트웨어 그룹, Sun Cluster 소프트웨어 및 Sun Cluster HA for NFS 데이터 서비스로 설치됩니다. 디스크의 마지막 슬라이스(슬라이스 7)는 볼륨 관리자에서 사용하도록 작은 공간이 할당되었습니다.
이 배치에서는 Solstice DiskSuite 소프트웨어나 VxVM 사용에 허용됩니다. Solstice DiskSuite 소프트웨어를 사용할 경우, 복제본 데이터베이스에 대해 슬라이스 7을 사용합니다. VxVM를 사용할 경우, 나중에 0 길이를 할당하여 슬라이스 7을 해제할 수 있습니다. 이 배치에서는 슬라이스 4와 7 두 개가 사용가능하고, 디스크 끝에서 사용되지 않는 공간에 제공됩니다.
표 1-2 파일 시스템 할당 샘플
슬라이스 |
내용 |
할당 (MB) |
설명 |
---|---|---|---|
0 |
/ |
1168 |
Solaris 운영 환경 소프트웨어의 경우 441MB. 루트(/)에 대한 100MB 여분. /var에 대한 100MB 여분. Sun Cluster 소프트웨어에 대한 25MB. 볼륨 관리자 소프트웨어에 대한 55MB. Sun Cluster HA for NFS 소프트웨어에 대한 1MB. Sun Management Center 에이전트 및 Sun Cluster 모듈 에이전트 패키지에 대한 25MB. 데이터베이스 및 응용프로그램 소프트웨어에서 나중에 사용할 수 있는 421MB(디스크상의 나머지 사용가능한 공간). |
1 |
swap |
750 |
실제 메모리가 750MB 이하일 경우의 최소 크기. |
2 |
overlap |
2028 |
전체 디스크. |
3 |
/globaldevices |
100 |
Sun Cluster 소프트웨어는 나중에 이 슬라이스에 다른 마운트 지점을 할당하고 이를 클러스터 파일 시스템으로 마운트합니다. |
4 |
unused |
- |
VxVM에서 루트 디스크를 캡슐화하기 위한 빈 슬라이스로 사용가능함. |
5 |
unused |
- |
|
6 |
unused |
- |
|
7 |
볼륨 관리자 |
10 |
복제본 데이터베이스에 대해 Solstice DiskSuite 소프트웨어가 사용될 경우. VxVM의 경우, 나중에 디스크의 끝에서 슬라이스와 일부 공간을 비우십시오. |
이 절에서는 Sun Cluster 소프트웨어 설치를 계획하고 준비하기 위한 지침을 제공합니다. Sun Cluster 구성요소에 대한 세부사항은 Sun Cluster 3.0 Concepts의 내용을 참조하십시오.
소프트웨어 설치를 시작하기 전에 필요한 사용권 인증서를 사용할 수 있는지 확인하십시오. Sun Cluster 소프트웨어는 사용권 인증서가 필요하지 않지만 Sun Cluster 소프트웨어에서 설치된 각 노드는 Sun Cluster 소프트웨어 사용권 계약서 하에 사용됩니다.
볼륨 관리 소프트웨어 및 응용프로그램 소프트웨어에 대한 사용권 부여 요구사항은, 해당 제품의 설치 문서를 참조하십시오.
각 소프트웨어 제품을 설치하고 나면, 필요한 패치도 설치해야 합니다. 필요한 패치의 현재 목록은, Sun Cluster 3.0 Release Notes를 참조하거나 엔터프라이즈 서비스 담당자나 서비스 제공업체에 문의하십시오. 패치 적용에 대한 일반 지침이나 프로시저에 대해서는 Sun Cluster 3.0 System Administration Guide의 내용을 참조하십시오.
클러스터 구성에 따라 다양한 Sun Cluster 구성요소에 대한 IP 주소 번호를 설정해야 합니다. 클러스터 구성의 각 노드는 동일한 공공 서브네트에 최소한 하나의 공공 네트워크 연결이 되어 있어야 합니다.
다음 테이블은 IP 주소를 할당해야 하는 구성요소들을 나열한 것입니다. IP 주소를 사용되는 모든 이름 지정 서비스에 추가하십시오. 또 Sun Cluster 소프트웨어 설치 후에 이 IP 주소들을 각 클러스터 노드의 로컬 /etc/inet/hosts 파일에 추가하십시오.
표 1-3 IP 주소를 사용하는 Sun Cluster 구성요소
구성요소 |
필요한 IP 주소 |
---|---|
관리 콘솔 |
각 서브넷 당 1 |
클러스터 노드 |
노드 당, 서브넷 당 1 |
터미널 콘센트레이터 또는 시스템 서비스 프로세서 |
1 |
논리 주소 |
논리 호스트 자원 당, 서브넷 당 1 |
터미널 콘센트레이터는 관리 콘솔과 클러스터 노드 콘솔 사이에 통신합니다. Sun EnterpriseTM E10000 서버는 터미널 콘센트레이터 대신 SSP(System Service Processor)를 사용합니다. 콘솔 액세스에 대한 자세한 정보는 Sun Cluster 3.0 Concepts의 내용을 참조하십시오.
논리 주소를 사용하는 각 데이터 서비스 자원 그룹은 논리 주소가 액세스될 수 있는 각 공용 네트워크에 대해 지정된 호스트 이름이 있어야 합니다. 자원 그룹 계획에 대한 정보 및 워크시트에 대해서는 Sun Cluster 3.0 Data Services Installation and Configuration Guide의 내용을 참조하십시오. 데이터 서비스 및 자원에 대한 자세한 정보도 Sun Cluster 3.0 Concepts의 내용을 참조하십시오.
이 절에서는 설치 시 구성할 수 있는 Sun Cluster 구성요소에 대한 지침을 제공합니다.
이 계획 정보를 Sun Cluster 3.0 Release Notes에 있는 "클러스터 및 노드 이름 워크시트"에 추가하십시오.
Sun Cluster 설치하는 동안 클러스터에 대한 이름을 지정합니다. 클러스터 이름은 엔터프라이즈 전체에서 고유해야 합니다.
이 계획 정보를 Sun Cluster 3.0 Release Notes에 있는 "클러스터 및 노드 이름 워크시트"에 추가하십시오. 대부분의 다른 워크시트에 대한 정보는 노드 이름별로 그룹화됩니다.
노드 이름은 Solaris 운영 환경 설치 동안 사용자가 시스템에 할당하는 이름입니다. Sun Cluster 설치 동안, 사용자는 클러스터로서 설치 중인 모든 노드의 이름을 지정합니다.
이 계획 정보를 Sun Cluster 3.0 Release Notes에 있는 "클러스터 및 노드 이름 워크시트"에 추가하십시오.
Sun Cluster 소프트웨어는 노드들 사이의 내부 통신에 사설 네트워크를 사용합니다. Sun Cluster에서는 사설 네트워크에 클러스터 상호연결에 대한 최소한 두 개의 연결을 필요로 합니다. 클러스터의 첫번째 노드에서 Sun Cluster 소프트웨어를 설치할 때 사설 네트워크 주소와 네트마스크를 지정합니다. 기본 사설 네트워크 주소(172.16.0.0) 및 네트마스크(255.255.0.0)를 승인할 것을 선택하거나 기본 네트워크 주소가 엔터프라이즈의 다른 곳에서 이미 사용되고 있으면 다른 선택사항을 입력하십시오.
노드를 클러스터 구성원으로 설치하고 나면, 사설 네트워크 주소와 네트마스크를 변경할 수 없습니다.
기본값이 아닌 개인 네트워크 주소를 지정할 경우, 다음 요구사항을 만족시켜야 합니다.
주소의 마지막 두 8중수에 대해 0을 사용해야 합니다.
네트워크 주소 할당에 대해서는 RFC 1597의 지침을 따라야 합니다.
RFC 사본 확보에 대한 지침은 TCP/IP and Data Communications Administration Guide를 참조하십시오.
기본값이 아닌 다른 네트마스크를 지정할 경우, 다음 요구사항을 만족시켜야 합니다.
사설 네트워크 주소에 제공된 모든 비트를 최소한으로 마스킹해야 합니다.
"홀"이 없어야 합니다.
이 계획 정보를 Sun Cluster 3.0 Release Notes에 있는 "클러스터 상호연결 워크시트"에 추가하십시오.
클러스터 상호연결은 클러스터 노드들 사이의 사설 네트워크 통신을 위해 하드웨어 경로를 제공합니다. 각각의 상호연결은 두 개의 전송 프로토콜 사이의 케이블, 전송 어댑터 및 하나의 전송 접합이나 두 개의 전송 접합으로 구성됩니다. Sun Cluster 설치 중에, 두 클러스터 상호연결에 대해 다음 구성 정보를 지정합니다.
Transport adapters - 네트워크 인터페이스의 포트와 같은 전송 어댑터에 대해, 전송 어댑터 이름과 전송 유형을 지정하십시오. 구성이 2-노드 클러스터이면, 상호연결이 직업 연결되는지(어댑터간) 아니면 전송 접합을 사용하는지도 지정합니다.
Transport junctions - 네트워크 스위치와 같이 전송 접합이 사용될 경우, 각 상호 연결에 대한 전송 접합 이름을 지정하십시오. 기본 이름은 switchN입니다. N은 설치 시 자동으로 할당된 숫자입니다. 또한 접합 포트 이름을 지정하거나 기본 이름을 승인하십시오. 기본 포트 이름은 케이블 끝에 있는 어댑터를 호스트하는 노드 ID와 같습니다. 그러나 SCI와 같은 특정 어댑터 유형에 대해서는 기본 포트 이름을 사용할 수 없습니다.
세 개 이상의 노드가 있는 클러스터는 반드시 전송 접합을 사용해야 합니다. 클러스터 노드들 사이의 직접 연결은 2-노드 클러스터에 대해서만 지원됩니다.
scsetup(1M) 유틸리티를 사용하여 설치 이후에 추가 사설 네트워크 연결을 구성할 수 있습니다.
클러스터 상호연결에 대한 자세한 정보는 Sun Cluster 3.0 Concepts의 내용을 참조하십시오.
이 계획 정보를 Sun Cluster 3.0 Release Notes에 있는 "클러스터 및 노드 이름 워크시트"에 추가하십시오.
개인용 호스트 이름은 사설 네트워크 인터페이스를 통한 노드간 통신에 사용되는 이름입니다. 개인용 호스트 이름은 Sun Cluster 설치 시 자동으로 작성되며 이름지정 규칙 clusternodenodeid-priv를 따릅니다. nodeid는 내부 노드 ID 숫자입니다. 이 노드 ID 번호는 클러스터 구성원이 될 때 각 노드에 Sun Cluster 설치를 하는 동안 자동으로 할당됩니다. 설치 후에는 scsetup(1M) 유틸리티를 사용하여 개인용 호스트 이름을 바꿀 수 있습니다.
이 계획 정보를 Sun Cluster 3.0 Release Notes에 있는 "공용 네트워크 워크시트"에 추가하십시오.
공용 네트워크는 클러스터 외부에서 통신합니다. 공용 네트워크 구성 계획시 다음 사항을 고려하십시오.
공용 네트워크 및 사설 네트워크(클러스터 상호연결)는 별도의 어댑터를 사용해야 합니다.
모든 클러스터 노드에 연결된 최소한 하나의 공용 네트워크를 가지고 있어야 합니다.
하드웨어 구성에서 허용하는 것만큼 추가 공용 네트워크 연결을 가질 수 있습니다.
공용 네트워크 어댑터 백업 그룹을 계획하기 위한 지침은 "NAFO 그룹"의 내용도 참조하십시오. 공용 네트워크 인터페이스에 대한 자세한 정보는 Sun Cluster 3.0 Concepts의 내용을 참조하십시오.
이 계획 정보를 Sun Cluster 3.0 Release Notes에 있는 "디스크 디바이스 그룹 구성 워크시트"에 추가하십시오.
모든 볼륨 관리자 디스크 그룹을 Sun Cluster 디스크 디바이스 그룹으로 구성해야 합니다. 이렇게 구성하면 1차 노드가 실패할 경우, 멀티호스트 디스크가 2차 노드에 의해 호스트될 수 있습니다. 디스크 디바이스 그룹 계획시 다음 사항을 고려하십시오.
Failover - 멀티포트된 디스크 및 적절하게 구성된 볼륨 관리자 디바이스를 페일오버 디바이스로 구성할 수 있습니다. 볼륨 관리자 디바이스의 적절한 구성에는 내보내진 디바이스가 여러 노드에 의해 호스트될 수 있도록 멀티포트된 디스크들과 올바른 볼륨 관리자 자체의 설정이 포함됩니다. 테이프 드라이브, CD-ROM 또는 단일 포팅된 디스크를 페일오버 디바이스로 구성할 수 없습니다.
Mirroring - 데이터를 디스크 실패로부터 보호하려면 디스크를 미러링해야 합니다. 미러링에 대한 지시사항은 볼륨 관리자 문서를 참조하십시오.
디스크 디바이스 그룹에 대한 자세한 정보는 Sun Cluster 3.0 Concepts의 내용을 참조하십시오.
이 계획 정보를 Sun Cluster 3.0 Release Notes에 있는"공용 네트워크 워크시트"에 추가하십시오.
NAFO(Network Adapter Failover) 그룹은 공용 네트워크 어댑터 미러링과 페일오버를 제공하므로 네트워크 주소 자원에 대한 기초가 됩니다. 두 개 이상의 어댑터로 구성된 NAFO 그룹의 활동 중인 어댑터가 실패하면, 해당되는 모든 주소가 NAFO 그룹의 다른 어댑터로 페일오버됩니다. 이 방식에서, 활동 중인 NAFO 그룹 어댑터는 NAFO 그룹의 어댑터들이 연결하는 서브넷에 대한 공용 네트워크 연결성을 유지보수합니다.
각 공용 네트워크 어댑터는 NAFO 그룹에 속해야 합니다.
각 노드에는 서브넷 당 단 하나의 NAFO 그룹만 있을 수 있습니다.
주어진 NAFO 그룹에서 단 하나의 어댑터만 /etc/hostname.adapter 파일 양식으로 호스트 이름 연관을 가질 수 있습니다.
NAFO 그룹 이름 지정 규칙은 nafoN입니다. N은 NAFO 그룹을 작성할 때 제공하는 숫자입니다.
네트워크 어댑터 페일오버에 대한 자세한 정보는 Sun Cluster 3.0 Concepts의 내용을 참조하십시오.
Sun Cluster 구성에서는 정족수 디바이스를 사용하여 데이터와 자원 무결성을 유지합니다. 클러스터가 임시로 노드에연결 할 수 없으면, 정족수 디바이스는 클러스터 노드가 클러스터를 다시 조인하려고 할 때 앰네시아나 브레인 분할 문제가 발생하지 않도록 합니다. 정족수 디바이스는 scsetup(1M) 유틸리티를 사용하여 할당합니다.
정족수 디바이스 계획시 다음 사항을 고려하십시오.
Minimum - 2-노드 클러스터에는 정족수 디바이스로 할당된 최소한 하나의 공유 디스크가 있어야 합니다. 다른 토폴로지의 경우, 정족수 디바이스는 선택적입니다.
Odd number rule - 2-노드 클러스터에 또는 정족수 디바이스에 직접 연결된 한 쌍의 노드에 두 개 이상의 정족수 디바이스가 구성되어 있을 경우, 정족수 디바이스가 완전히 독립적인 장애 경로를 갖도록 정족수 디바이스를 홀수로 구성하십시오.
Connection - 정족수 디바이스는 세 개 이상의 노드에 연결될 수 없습니다.
정족수에 대한 자세한 정보는 Sun Cluster 3.0 Concepts의 내용을 참조하십시오.
글로벌 디바이스와 클러스터 파일 시스템 계획에 대한 지침을 제공합니다. 글로벌 디바이스와 클러스터 파일 시스템에 대한 자세한 정보는 Sun Cluster 3.0 Concepts의 내용을 참조하십시오
Sun Cluster에서는 특정 디스크 배치나 파일 시스템 크기를 요구하지 않습니다. 글로벌 디바이스 및 클러스터 파일 시스템 배치 계획시 다음 사항을 고려하십시오.
Mirroring - 모든 글로벌 디바이스는 고가용성으로 간주되도록 미러링되어야 합니다.
Disks - 미러링할 때, 디스크 확장 장치에서 미러링되도록 디스크들을 배치하십시오.
Availability - 글로벌 디바이스는 고가용성으로 간주되려면 클러스터 내에서 두 개 이상의 노드에 연결되어 있어야 합니다. 이 구성은 단일 노드 실패를 허용할 수 있습니다. 실제 연결이 하나인 글로벌 디바이스가 지원되지만, 연결되어 있는 노드가 다운되면 다른 노드에서 액세스할 수 없습니다.
클러스터 파일 시스템에 대한 마운트 지점 계획시 다음을 고려하십시오.
Mount point location - 다른 소프트웨어 제품에서 금지하지 않으면, /global 디렉토리에 마운트 지점을 만드십시오. /global 디렉토리를 사용하면 로컬 파일 시스템에서 글로벌로 사용가능한 클러스터 파일 시스템을 쉽게 구별할 수 있습니다.
Nesting mount points - 보통, 클러스터 파일 시스템에 대해 마운트 지점을 중첩해서는 안됩니다. 예를 들어, /global/a에서 하나의 파일 시스템이 마운트되고 다른 파일 시스템은 /global/a/b에서 마운트되도록 설정하지 마십시오. 이 규칙을 무시하면 상위 마운트 지점이 존재하지 않을 수도 있으므로 가용성 및 노드 시동 순서에 있어서 문제가 발생할 수 있습니다. 이 규칙에 대한 유일한 예외는, 두 파일 시스템의 디바이스가 같은 실제 노드 연결을 갖고 있을 경우입니다(예를 들어, 같은 디스크상의 서로 다른 슬라이스).
이 절에서는 클러스터 구성의 볼륨 관리 계획에 대한 지침을 제공합니다.
Sun Cluster는 볼륨 관리자 소프트웨어를 사용하여, 디스크들을 하나의 단위로 관리될 수 있는 디스크 디바이스 그룹으로 그룹화합니다. Sun Cluster는 Solstice DiskSuite 소프트웨어와 VERITAS Volume Manager(VxVM)를 지원합니다. 단일 클러스터 구성에서 단 하나의 볼륨 관리자만 사용할 수 있습니다. 볼륨 관리자 소프트웨어 구성에 관한 지시사항은, 부록 A 또는 부록 B에서 참조하십시오. 클러스터 구성에서의 볼륨 관리에 대한 정보는 Sun Cluster 3.0 Concepts에서 자세한 내용을 참조하십시오.
이 계획 정보를 Sun Cluster 3.0 Release Notes에 있는 "디스크 디바이스 그룹 구성 워크시트" 및 "볼륨 관리자 구성 워크시트"에 추가하고, 해당할 경우 Sun Cluster 3.0 Release Notes에 있는 "메타디바이스 워크시트(Solstice DiskSuite)"에 추가하십시오.
디스크 구성시 다음의 일반 지침을 고려하십시오.
Mirrored multihost disks - 디스크 확장 장치에서 모든 멀티호스트 디스크를 미러링해야 합니다. 멀티호스트 디스크 미러링에 대한 지침은 "멀티호스트 디스크 미러링"의 내용을 참조하십시오.
Mirrored root - 루트 디스크를 미러링하면 고가용성이 보장되지만 그러한 미러링이 반드시 필요한 것은 아닙니다. 루트 디스크를 미러링할 것인지 결정할 때의 지침은 "미러링 지침"의 내용을 참조하십시오.
Unique naming - 클러스터 노드에서, 로컬 Solstice DiskSuite 메타디바이스나 VxVM 볼륨이 /global/.devices/node@nodeid 파일 시스템이 마운트된 디바이스로 사용될 경우, 그 메타디바이스나 볼륨의 이름은 클러스터 전체적으로 고유해야 합니다.
Node lists - 디스크 디바이스 그룹의 가용성을 높이려면, 잠재적인 마스터의 노드 목록 및 페이백 정책이 연관된 자원 그룹과 동일하게 하십시오. 또는 확장가능한 자원 그룹이 연관된 디스크 디바이스 그룹보다 많은 노드를 사용할 경우, 확장가능 자원 그룹의 노드 목록을 디스크 디바이스 그룹의 노드 목록 수퍼세트로 만드십시오. 노드 목록에 관한 정보는 Sun Cluster 3.0 Data Services Installation and Configuration Guide의 자원 그룹 계획 정보를 참조하십시오.
Multiported disks - 클러스터 내에서 디바이스 그룹을 구성하기 위해 사용되는 모든 디스크는 그 디바이스 그룹에 대한 노드 목록에 구성된 모든 노드에 연결하거나 포팅해야 합니다. Solstice DiskSuite 소프트웨어는 디스크들이 디스크세트에 추가될 때 이를 자동으로 검사할 수 있습니다. 그러나 구성된 VxVM 디스크 그룹은 특정 노드 세트와의 연관성을 가지고 있지 않습니다. 또한, 클러스터링 소프트웨어를 사용하여, Solstice DiskSuite 디스크세트, VxVM 디스크 그룹 또는 글로벌 디바이스의 개별 세트를 글로벌 디바이스 그룹으로 등록할 때, 제한된 연결 검사만 수행할 수 있습니다.
Hot spare disks - 가용성을 높이기 위해 긴급 예비 디스크를 사용할 수 있지만, 필수적이지는 않습니다.
디스크 배치 권장사항과 추가 제한사항에 대해서는 볼륨 관리자 문서를 참조하십시오.
Solstice DiskSuite 구성 계획시 다음을 고려하십시오.
Mediators - 정확히 두 개의 디스크 문자열로 구성되고 정확히 두 개의 노드에 의해 마스터링된 각 디스크세트에는 디스크세트용으로 구성된 Solstice DiskSuite 조정자가 구성되어 있어야 합니다. disk string은 디스크 인클로저, 해당되는 실제 디스크, 인클로저와 노드 사이의 케이블 그리고 인터페이스 어댑터 카드로 구성됩니다. 각 디스크세트는 조정자 호스트로 작동하는, 정확히 두 개의 노드로 구성해야 합니다. 조정자를 필요로 하는 모든 디스크세트에 두 개의 동일한 노드를 사용해야 하고 해당되는 두 개의 노드는 그 디스크세트들을 마스터해야 합니다. 2-문자열 및 2-호스트 요구사항을 만족시키지 않는 디스크세트에 대해서는 조정자를 구성할 수 없습니다. 세부사항은 mediator(7) man 페이지를 참조하십시오.
/kernel/drv/md.conf settings - 각 디스크세트에서 사용되는 모든 메타디바이스는 /kernel/drv/md.conf 파일에 있는 구성 매개변수에 따라 재구성 시동 시 미리 작성됩니다. md.conf 파일의 필드들에 대해서는 Solstice DiskSuite 문서에 설명되어 있습니다. Sun Cluster 구성을 지원하려면 nmd 및 md_nsets 필드를 수정해야 합니다.
nmd - The nmd 필드는 각 디스크세트에 대해 작성되는 여러 메타디바이스를 정의합니다. nmd 값을 클러스터에 있는 디스크세트 중 하나에서 사용되는 예측된 가장 많은 메타디바이스 수로 설정해야 합니다. 예를 들어, 클러스터가 처음 15개의 디스크세트에서 10개의 메타디바이스를 사용하지만, 16번째 디스크세트에는 1000개의 메타디바이스가 있을 경우, nmd 값은 최소한 1000으로 설정해야 합니다. 디스크세트당 허용되는 최대 메타디바이스 수는 8192입니다.
md_nsets - The md_nsets 필드는 시스템에 대해 작성될 수 있는 총 디스크세트 수를 전체 클러스터에서의 필요성에 맞도록 정의합니다. md_nsets 값은 클러스터 내의 예상 디스크세트 수에, Solstice DiskSuite 소프트웨어가 로컬 호스트에서 개인 디스크를 관리할 수 있도록(즉, 로컬 디스크세트에 없는 메타디바이스들) 1을 더한 것으로 설정해야 합니다. 클러스터당 허용되는 최대 디스크세트 수는 32입니다.
클러스터의 예측된 확장을 허용하도록 설치 할때 이 필드들을 설정하십시오. 클러스터가 생산 상태에 있을 때 이 값들이 증가하면 각 노드에 대한 재구성 재시동이 필요하므로 시간이 소모됩니다. 이 값을 나중에 증가시키면 요청된 모든 디바이스를 작성하기 위한 루트(/) 파일 시스템에서의 공간 할당에서 부적절하게 이루어질 가능성이 커집니다.
각 노드에 의해 서비스가 제공되는 디스크세트 수에 상관없이, 모든 클러스터 노드에는 동일한 /kernel/drv/md.conf 파일이 있어야 합니다. 이 지침을 따르지 않으면 심각한 Solstice DiskSuite 오류가 야기되어 데이터가 손실될 수 있습니다.
VERITAS Volume Manager(VxVM) 구성 계획시 다음 사항을 고려하십시오.
Root disk group - 각 노드에 기본 루트 디스크 그룹(rootdg)을 작성해야 합니다. rootdg 디스크 그룹은 다음 디스크에 작성할 수 있습니다.
루트 디스크, 캡슐화되어 있어야 합니다.
하나 이상의 로컬 비루트 디스크, 캡슐화 또는 초기화될 수 있습니다.
루트와 로컬 비루트 디스크의 조합
rootdg 디스크 그룹은 노드에 로컬이어야 합니다.
Encapsulation - 캡슐화될 디스크에는 두 개의 사용가능한 디스크 슬라이스 테이블 항목이 있어야 합니다.
Number of volumes - 디스크 디바이스 그룹이 작성될 때 주어진 디스크 디바이스 그룹이 사용할 최대 볼륨 수를 측정하십시오.
볼륨 수가 1000보다 작으면, 기본 부 번호 붙이기를 사용할 수 있습니다.
볼륨 수가 1000 이상이면, 부 번호를 디스크 디바이스 그룹 볼륨에 할당하는 방법을 계획할 때 주의해야 합니다. 어떤 두 개의 디스크 디바이스 그룹도 겹쳐지는 부 번호가 할당될 수 없습니다.
Dirty Region Logging - DRL은 아주 권장되기는 하지만 반드시 필요한 것은 아닙니다. DRL을 사용하면 노드 실패 후 볼륨 복구 시간이 감소됩니다. DRL을 사용하면 I/O 처리량은 감소합니다.
로그 기록은 클러스터 파일 시스템에 필요합니다. Sun Cluster는 다음과 같은 로그 기록 파일을 지원합니다.
Solstice DiskSuite trans 메타디바이스 UNIX 파일 시스템(UFS) 로그 기록
Solaris UFS logging
Solstice DiskSuite trans-metadevice UFS logging 정보에 대해서는 Solstice DiskSuite 문서를 참조하십시오. Solaris UFS logging 정보에 대해서는 mount_ufs(1M) man 페이지와 Solaris Transition Guide를 참조하십시오.
다음 표는 각 볼륨 관리자가 지원하는 로그 기록 파일 시스템을 나열합니다.
표 1-4 지원되는 파일 시스템 로그 기록 행렬
볼륨 관리자 |
지원되는 파일 시스템 로그 기록 |
---|---|
Solstice DiskSuite |
Solstice DiskSuite trans-metadevice UFS logging, Solaris UFS logging |
VERITAS Volume Manager |
Solaris UFS logging |
Solstice DiskSuite 볼륨 관리자에 대해 Solaris UFS logging 및 Solstice DiskSuite trans-metadevice UFS logging 사이에서 선택할 때 다음 사항을 고려하십시오.
Solaris UFS log size - Solaris UFS logging는 UFS 파일 시스템의 사용가능한 공간을 사용하여, 그리고 파일 시스템의 크기에 따라 로그를 할당합니다.
1GB보다 작은 파일 시스템에서는 로그가 1MB를 차지합니다.
1GB 바이트 이상의 파일 시스템에서는 로그가 파일 시스템에서 GB당 1MB를 차지하며, 최대 64MB까지 가능합니다.
Log metadevice - Solstice DiskSuite trans-metadevice UFS logging에서, 로그 기록에 사용되는 trans 디바이스가 메타디바이스를 작성합니다. 로그는 아직 미러링 및 스트라이핑을 할 수 있는 다른 메타디바이스입니다. 또한 Solstice DiskSuite 소프트웨어로 최대 1TB 로그 기록 파일 시스템을 작성할 수 있습니다.
이 절에서는 클러스터 구성의 미러링 계획에 대한 지침을 제공합니다.
Sun Cluster 구성에서 모든 멀티호스트 디스크를 미러링하면 구성에서 단일 디스크 실패를 허용할 수 있습니다. Sun Cluster 소프트웨어에서는 디스크 확장 장치에서 모든 멀티호스트 디스크를 미러링하도록 요구합니다.
Separate disk expansion units - 주어진 미러의 각 서브미러나 플랙스는 서로 다른 멀티호스트 디스크 확장 장치에 있어야 합니다.
Disk space - 미러링을 하면 필요한 디스크 공간이 두배가 됩니다.
Three-way mirroring - Solstice DiskSuite 소프트웨어 및 VERITAS Volume Manager(VxVM)는 세방향 미러링을 지원합니다. 그러나 Sun Cluster에서는 두 방향 미러링만 요구합니다.
Number of metadevices - Solstice DiskSuite 소프트웨어에서, 미러는 연결 또는 스트라이프와 같은 다른 메타디바이스들로 구성됩니다. 큰 구성에는 많은 메타디바이스가 포함됩니다. 예를 들어, 각각의 로그 기록 HFS 파일 시스템에 대해 7개의 메타디바이스가 작성됩니다.
Differing disk sizes - 다른 크기의 디스크에 미러링할 경우, 미러 용량은 가장 작은 서브미러나 플랙스의 크기로 제한됩니다.
멀티호스트 디스크에 대한 자세한 정보는 Sun Cluster 3.0 Concepts의 내용을 참조하십시오.
최대의 가용성을 위해서는 로컬 디스크에서 루트(/), /usr, /var, /opt 및 swap을 미러링해야 합니다. VxVM에서, 루트 디스크를 캡슐화하고 생성된 서브디스크를 미러링합니다. 그러나 루트 디스크를 미러링하는 것은 Sun Cluster의 요구사항이 아닙니다.
루트 디스크를 미러링할 것인지 결정하기 전에, 루트 디스크에 관한 다양한 대체 방안의 위험, 복잡성, 비용 및 서비스 시간을 고려하십시오. 모든 구성에 대해 작동되는 단일 미러링 방법은 없습니다. 루트를 미러링할 것인지 결정할 때 해당 지역의 엔터프라이즈 서비스 담당자가 선호하는 솔루션을 고려할 수도 있습니다.
루트 디스크 미러링에 관한 지시사항은, 부록 A 또는 부록 B에서 참조하십시오.
루트 디스크를 미러링할 것인지 결정할 때 다음 사항을 고려하십시오.
Complexity - 루트 디스크를 미러링하면 시스템 관리에 복잡도가 추가되어 단일 사용자 모드에서의 시동이 복잡해집니다.
Backups - 루트 디스크의 미러링 여부에 관계없이, 루트를 정기적으로 백업해야 합니다. 미러링만 하는 경우에는 관리 오류에 대해서 보호되지 않습니다. 백업 계획은 단지 부주의로 변경되거나 삭제된 파일을 복원할 수 있게 합니다.
Quorum - Solstice DiskSuite 소프트웨어에서, 메타디바이스 상태 데이터베이스 정족수가 유실되는 실패 시나리오의 경우, 유지보수가 수행될 때까지 시스템을 다시 시동할 수 없습니다. 메타디바이스 상태 데이터베이스 및 상태 데이터베이스 복제본에 대해서는 Solstice DiskSuite 문서를 참조하십시오.
Separate controllers - 최대의 고가용성에는 별도 제어기에서의 루트 디스크 미러링이 포함됩니다.
Boot disk - 1차 시동 디스크가 실패할 경우, 미러에서 시동할 수 있도록 시동가능한 루트 디스크로의 미러링을 설정할 수 있습니다.
Secondary root disk - 미러링된 루트 디스크를 사용하면, 1차 루트 디스크가 실패해도 2차(미러) 루트 디스크에서 작업을 계속할 수 있습니다. 나중에, 1차 루트 디스크는 서비스로 리턴하고(아마도, 전원 주기 또는 임시 I/O 오류 후에) OpenBootTM PROM boot-device 필드에 지정된 1차 루트 디스크를 사용하여 후속 시동이 수행됩니다. 이 상황에서 아무 수동 수리 작업도 일어나지 않지만, 드라이브는 시동하기 위해 작동하기 시작합니다. Solstice DiskSuite 재동기화가 발생하므로 유의하십시오. 재동기화는 드라이브가 서비스로 리턴될 때 수동 단계를 요구합니다.
2차(미러) 루트 디스크에서 파일을 변경하면, 변경사항은 시동시 1차 루트 디스크에서 반영되지 않아서, 잘못된 서브미러가 야기됩니다. 예를 들어, /etc/system 파일에 대한 변경사항이 유실됩니다. 일부 Solstice DiskSuite 관리 명령은 1차 루트 디스크가 서비스 범위를 벗어났을 때 /etc/system 파일을 변경하였을 수도 있습니다
시동 프로그램은 미러에서 시동하는지, 아니면 기초가 되는 실제 디바이스에서 시동되는지 확인하지 않으므로 미러링은 시동 프로세스를 통해 부분적으로 활성화됩니다(메타디바이스가 로드된 후). 이 지점 이전에, 시스템에는 잘못된 서브미러 문제점이 발생할 가능성이 있습니다.