이 장에는 Sun Cluster 구성 설치 지침과 계획 정보가 있습니다.
다음과 같은 개요 정보가 이 장에 수록되어 있습니다.
다음 테이블은 다양한 Sun Cluster 소프트웨어 설치 작업 및 작업 수행 순서를 보여줍니다.
표 1-1 Sun Cluster 소프트웨어 설치 작업 정보의 위치
작업 |
참고 항목 |
||
---|---|---|---|
클러스터 하드웨어 설정 |
Sun Cluster 3.0 U1 Hardware Guide 서버 및 기억 장치 장치와 함께 제공된 문서 |
||
클러스터 소프트웨어 설치 계획 |
이 장에 수록 Sun Cluster 3.0 U1 릴리스 정보에 있는 "Sun Cluster 설치 구성 워크시트 및 예" |
||
새 클러스터 설치 및 기존 클러스터에 노드 추가 |
|
||
|
Solaris 운영 환경, Cluster Control Panel(선택 사항), SunPlex Manager (선택 사항), 클러스터 프레임워크 및 데이터 서비스 소프트웨어 패키지 설치 | ||
|
볼륨 관리 소프트웨어 설치 및 구성 |
|
|
|
|
Solstice DiskSuite |
"Solstice DiskSuite 소프트웨어 설치 및 구성" Solstice DiskSuite 문서 |
|
|
VERITAS Volume Manager (VxVM) |
VxVM 문서 |
|
클러스터 프레임워크 소프트웨어를 구성하고, 필요할 경우에 Sun Management Center 설치 및 구성 | ||
|
자원 그룹과 데이터 서비스 계획, 설치 및 구성 |
Sun Cluster 3.0 U1 Data Services Installation and Configuration Guide Sun Cluster 3.0 U1 릴리스 정보에 있는 "데이터 서비스 구성 워크시트 및 예" |
|
Solaris 운영 환경, 클러스터 프레임워크, 데이터 서비스 및 볼륨 관리자 소프트웨어를 Sun Cluster 2.2에서 Sun Cluster 3.0으로 업그레이드. |
"Sun Cluster 2.2에서 Sun Cluster 3.0 Update 1 소프트웨어로 업그레이드" "Solstice DiskSuite 소프트웨어 설치 및 구성" 또는 "VxVM 소프트웨어 설치 및 구성" 볼륨 관리자 문서 |
||
사용자 정의 데이터 서비스 개발 |
Sun Cluster 3.0 U1 Data Services Developers' Guide |
이 절에서는 클러스터 구성에서의 Solaris 소프트웨어 설치를 계획하기 위한 지침을 제공합니다. Solaris 소프트웨어에 대한 자세한 정보는 Solaris 설치 문서를 참조하십시오.
JumpStartTM 설치 방법을 사용하여 로컬 CD-ROM이나 네트워크 설치 서버로부터 Solaris 소프트웨어를 설치할 수 있습니다. 또한 Sun Cluster 소프트웨어에서는 JumpStart를 사용하여 Solaris 운영 환경과 Sun Cluster 소프트웨어를 모두 설치할 수 있는 사용자 정의 방법(메소드)을 제공합니다. 여러 개의 클러스터 시스템을 설치할 경우에는 네트워크 설치를 고려해 보십시오.
scinstall JumpStart 설치 방법에 대한 자세한 내용은 "Solaris 및 Sun Cluster Software(JumpStart) 설치 방법"을 참조하십시오. 표준 Solaris 설치 방법에 대한 세부사항은 Solaris 설치 문서를 참조하십시오.
Sun Cluster 3.0 U1 릴리스 정보에서 "로컬 파일 시스템 배치 워크시트"에 이 정보를 추가하십시오.
Solaris 운영 환경을 설치할 때 필요한 Sun Cluster 파티션을 만들고 모든 파티션이 최소 공간 요구 사항을 충족시키는지 확인하십시오.
스왑 - 최소 750 MB 또는 물리적 메모리의 두 배 중에서 큰 공간을 할당하십시오.
/globaldevices - scinstall(1M) 유틸리티에서 글로벌 장치에 사용할 100MB 파일 시스템을 만드십시오.
볼륨 관리자 - 디스크 끝에 있는 슬라이스(슬라이스 7)의 볼륨 관리자가 사용할 10MB 파티션을 만드십시오. 클러스터에서 VERITAS Volume Manager(VxVM)를 사용할 경우에 루트 디스크를 캡슐화하려면 VxVM에서 사용할 두 개의 미사용된, 사용되지 않는 슬라이스가 있어야 합니다.
이러한 요구 사항을 만족시키려면, Solaris 운영 환경의 대화식 설치를 수행하고 있을 경우 기본 파티션을 사용자에 맞게 정의해야 합니다.
추가 파티션 계획 정보에 대해서는 다음 지침을 참조하십시오.
Solaris 운영 환경을 실행하는 다른 시스템에서처럼, 루트(/), /var, /usr 및 /opt 디렉토리를 별도의 파일 시스템으로 구성하거나 모든 디렉토리를 루트(/) 파일 시스템에 포함시킬 수 있습니다. 다음은 Sun Cluster 구성에서 루트( /), /var, /usr 및 /opt 디렉토리의 소프트웨어 내용입니다. 파티션 설계를 계획할 때 이 정보를 고려하십시오.
루트(/) - Sun Cluster 소프트웨어는 루트(/) 파일 시스템에서 40MB 미만의 공간을 사용합니다. Solstice DiskSuiteTM 소프트웨어에 5 MB 미만의 공간이 필요하고 VxVM 소프트웨어에는 15 MB 미만의 공간이 필요합니다. 최상의 결과를 위해, Solstice DiskSuite 또는 VxVM 소프트웨어에서 사용되는 문자 특수 장치와 블록 장치를 모두 만들 수 있는 충분한 추가 공간과 inode 용량을 구성해야 합니다. 따라서 100 MB 이상의 공간을 루트(/) 파일 시스템에 할당하는 공간에 추가하십시오.
/var - Sun Cluster 소프트웨어를 설치할 때 /var에서 무시해도 좋을 만큼의 공간을 차지합니다. 그러나 로그 파일용으로 따로 충분한 공간을 설정하십시오. 또한 일반적인 독립형 서버에서 발견되는 것보다 더 많은 메시지가 클러스터링된 노드에 기록될 수도 있습니다. 따라서 100 MB 이상의 공간을 /var 파일 시스템에 할당하십시오.
/usr - Sun Cluster 소프트웨어는 /usr 파일 시스템에서 25MB 미만의 공간을 사용합니다. Solstice DiskSuite 및 VxVM 소프트웨어에는 각각 15 MB 미만의 공간이 필요합니다.
/opt - Sun Cluster 프레임워크 소프트웨어는 /opt 파일 시스템에서 2MB 미만의 공간을 사용합니다. 그러나 각 Sun Cluster 데이터 서비스가 1 MB에서 5 MB 사이의 공간을 사용할 수도 있습니다. Solstice DiskSuite 소프트웨어는 /opt 파일 시스템의 공간을 사용하지 않습니다. VxVM 소프트웨어의 패키지와 도구를 모두 설치하면 40 MB 이상의 공간을 사용할 수 있습니다. 또한 데이터베이스 및 응용프로그램 소프트웨어가 대부분 /opt에 설치됩니다. SunTM Management Center 소프트웨어(이전의 Sun Enterprise SyMONTM)를 사용하여 클러스터를 모니터하면 25 MB 공간을 각 노드에 추가로 사용해야 Sun Management Center 에이전트와 Sun Cluster 모듈 패키지를 지원할 수 있습니다.
스왑 파티션의 최소 크기는 750 MB 또는 시스템에 있는 물리적 메모리의 두 배 중에서 큰 공간을 할당해야 합니다. 또한 설치하는 다른 회사 응용프로그램에도 스왑 요구 사항이 있을 수 있습니다. 스왑 요구 사항에 대한 내용은 다른 회사 응용프로그램 문서를 참조하십시오.
Sun Cluster 소프트웨어에서는 글로벌 장치 관리에 사용할 로컬 디스크 중 하나를 별도로 특수 파일 시스템으로 설정해야 합니다. 파일 시스템은 나중에 클러스터 파일 시스템으로 마운트되므로 분리되어야 합니다. 이 파일 시스템의 이름을 /globaldevices라고 지정하십시오. 이것은 scinstall(1M) 명령에서 인식되는 기본 이름입니다. scinstall(1M) 명령은 나중에 파일 시스템 /global/.devices/node@nodeid의 이름을 변경합니다. 여기서 nodeid는 노드가 클러스터 구성원이 될 때 노드에 할당되는 번호이며, /globaldevices 마운트 포인트는 제거됩니다. 클러스터에 많은 수의 디스크가 있을 경우에 블록 특수 장치와 문자 특수 장치를 모두 만들려면 /globaldevices 파일 시스템에 충분한 공간과 inode 용량이 있어야 합니다. 파일 시스템 크기가 100 MB 정도면 대부분의 클러스터 구성에 충분합니다.
Solstice DiskSuite 소프트웨어를 사용할 경우, 복제본 데이터베이스를 작성할 때 사용할 슬라이스를 루트 디스크에 따로 설정해야 합니다. 특히, 각 로컬 디스크에 이러한 목적을 위해 슬라이스를 따로 설정하십시오. 그러나 노드에 로컬 디스크가 하나이면, Solstice DiskSuite 소프트웨어가 제대로 작동되도록 하기 위해서는 같은 슬라이스에 세 개의 복제본 데이터베이스를 작성할 수도 있습니다. 자세한 내용은 Solstice DiskSuite 문서를 참조하십시오.
VxVM을 사용하고 루트 디스크를 캡슐화하려면 VxVM에서 사용될 두 개의 사용되지 않은 슬라이스가 있어야 하고, 디스크의 시작 또는 끝 부분에 사용가능한 일부 추가 공간이 있어야 합니다. 루트 디스크 캡슐화에 대한 자세한 내용은 VxVM 문서를 참조하십시오.
표 1-2 에는 물리적 메모리가 750 MB 미만인 클러스터 노드에 대한 분할 체계가 있습니다. 이 계획은 Solaris 운영 환경 일반 사용자 시스템 지원 소프트웨어 그룹, Sun Cluster 소프트웨어 및 Sun Cluster HA for NFS 데이터 서비스로 설치됩니다. 디스크의 마지막 슬라이스(슬라이스 7)는 볼륨 관리자에서 사용하도록 작은 공간이 할당되었습니다.
이 배치에서는 Solstice DiskSuite 소프트웨어나 VxVM 사용이 허용됩니다. Solstice DiskSuite 소프트웨어를 사용할 경우, 슬라이스 7은 복제본 데이터베이스에 사용됩니다. VxVM를 사용할 경우에는 나중에 슬라이스 7에 길이 0을 할당하여 비웁니다. 이 배치에서는 필요한 두 개의 슬라이스 4와 7을 제공하고 디스크 끝에서 빈 공간을 제공합니다.
표 1-2 파일 시스템 할당 샘플
슬라이스 |
내용 |
할당(MB) |
설명 |
---|---|---|---|
0 |
/ |
1168 |
441 Solaris 운영 환경 소프트웨어의 경우 441MB 100 루트( /)의 경우 추가 100MB 100 /var의 경우 추가 100MB 25 Sun Cluster 소프트웨어의 경우 25MB 55 볼륨 관리자 소프트웨어의 경우 55MB 1 Sun Cluster HA for NFS 소프트웨어의 경우 1MB 25 Sun Management Center 에이전트 및 Sun Cluster 모듈 에이전트 패키지의 경우 25MB. 데이터베이스 및 응용프로그램 소프트웨어에서 나중에 사용할 수 있는 421MB(디스크상의 나머지 사용가능한 공간). |
1 |
스왑 |
750 |
실제 메모리가 750MB 미만일 경우 최소 크기 . |
2 |
오버랩 |
2028 |
전체 디스크. |
3 |
/globaldevices |
100 |
Sun Cluster 소프트웨어는 나중에 이 슬라이스에 다른 마운트 지점을 할당하고 이를 클러스터 파일 시스템으로 마운트합니다. |
4 |
사용하지 않음 |
- |
VxVM에서 루트 디스크를 캡슐화할 때 빈 슬라이스로 사용 가능. |
5 |
사용하지 않음 |
- |
|
6 |
사용하지 않음 |
- |
|
7 |
볼륨 관리자 |
10 |
복제 데이터베이스를 위해 Solstice DiskSuite 소프트웨어에서 사용하거나 슬라이스를 비운 후에 설치하기 위해 VxVM에서 사용. |
이 절에서는 Sun Cluster 소프트웨어 설치를 계획하고 준비하기 위한 지침을 제공합니다. Sun Cluster 구성요소에 대한 세부사항은 Sun Cluster 3.0 U1 개념의 내용을 참조하십시오.
소프트웨어 설치를 시작하기 전에 필요한 사용권 인증서를 보유하고 있는지 확인하십시오. Sun Cluster 소프트웨어는 사용권 인증서가 필요하지 않지만 Sun Cluster 소프트웨어에서 설치된 각 노드는 Sun Cluster 소프트웨어 사용권 계약서 하에 사용됩니다.
볼륨 관리자 소프트웨어 및 응용프로그램 소프트웨어에 대한 사용권 부여 요구사항은, 해당 제품의 설치 문서를 참조하십시오.
각 소프트웨어 제품을 설치하고 나면, 필수 패치도 설치해야 합니다. 현재 필수 패치에 대한 내용은 Sun Cluster 3.0 U1 릴리스 정보을 참조하거나 사용자 회사의 서비스 담당자나 서비스 제공자에게 문의하십시오. 패치 적용에 대한 일반 지침이나 절차에 대해서는 Sun Cluster 3.0 U1 시스템 관리 안내서의 내용을 참조하십시오.
클러스터 구성에 따라 다양한 Sun Cluster 구성요소에 대한 IP 주소 번호를 설정해야 합니다. 클러스터 구성의 각 노드는 동일한 공공 서브네트에 최소한 하나의 공공 네트워크 연결이 되어 있어야 합니다.
다음 테이블은 IP 주소를 할당해야 하는 구성요소들을 나열한 것입니다. IP 주소를 사용되는 모든 이름 지정 서비스에 추가하십시오. Solaris 소프트웨어가 설치된 후에 이 IP 주소를 각 클러스터 노드의 로컬 /etc/inet/hosts 파일에 추가하십시오.
표 1-3 Sun Cluster IP 주소를 사용하는 구성 요소
구성 요소 |
필요한 IP 주소 |
---|---|
관리 콘솔 |
각 서브넷 당 1 |
클러스터 노드 |
노드 당, 서브넷 당 1 |
터미널 콘센트레이터 또는 시스템 서비스 프로세서 |
1 |
논리 주소 |
논리 호스트 자원 당, 서브넷 당 1 |
터미널 콘센트레이터는 관리 콘솔과 클러스터 노드 콘솔 사이에 통신합니다. Sun EnterpriseTM E10000 서버는 터미널 콘센트레이터 대신 SSP(System Service Processor)를 사용합니다. 콘솔 액세스에 대한 자세한 내용은 Sun Cluster 3.0 U1 개념을 참조하십시오.
논리 주소를 사용하는 각 데이터 서비스 자원 그룹은 논리 주소가 액세스될 수 있는 각 공용 네트워크에 대해 지정된 호스트 이름이 있어야 합니다. 자원 그룹 계획에 대한 정보 및 워크시트에 대해서는 Sun Cluster 3.0 U1 Data Services Installation and Configuration Guide의 내용을 참조하십시오. 데이터 서비스 및 자원에 대한 자세한 정보도 Sun Cluster 3.0 U1 개념의 내용을 참조하십시오.
이 절에서는 설치 시 구성할 수 있는 Sun Cluster 구성요소에 대한 지침을 제공합니다.
이 계획 정보를 Sun Cluster 3.0 U1 릴리스 정보에 있는 "클러스터 및 노드 이름 워크시트"에 추가하십시오.
Sun Cluster 설치하는 동안 클러스터에 대한 이름을 지정합니다. 클러스터 이름은 엔터프라이즈 전체에서 고유해야 합니다.
이 계획 정보를 Sun Cluster 3.0 U1 릴리스 정보에 있는 "클러스터 및 노드 이름 워크시트"에 추가하십시오. 대부분의 다른 워크시트에 대한 정보는 노드 이름별로 그룹화됩니다.
노드 이름은 Solaris 운영 환경 설치 동안 사용자가 시스템에 할당하는 이름입니다. Sun Cluster 설치 동안, 사용자는 클러스터로서 설치 중인 모든 노드의 이름을 지정합니다.
이 계획 정보를 Sun Cluster 3.0 U1 릴리스 정보에 있는 "클러스터 및 노드 이름 워크시트"에 추가하십시오.
Sun Cluster 소프트웨어는 노드들 사이의 내부 통신에 사설 네트워크를 사용합니다. Sun Cluster에서는 사설 네트워크에 클러스터 상호 연결에 대한 최소한 두 개의 연결을 필요로 합니다. 클러스터의 첫번째 노드에서 Sun Cluster 소프트웨어를 설치할 때 사설 네트워크 주소와 네트마스크를 지정합니다. 기본 사설 네트워크 주소(172.16.0.0) 및 네트마스크(255.255.0.0)를 승인할 것을 선택하거나 기본 네트워크 주소가 엔터프라이즈의 다른 곳에서 이미 사용되고 있으면 다른 선택사항을 입력하십시오.
노드를 클러스터 구성원으로 설치하고 나면, 사설 네트워크 주소와 네트마스크를 변경할 수 없습니다.
기본값이 아닌 개인 네트워크 주소를 지정할 경우, 다음 요구사항을 만족시켜야 합니다.
주소의 마지막 두 8진수에 0을 사용해야 합니다.
네트워크 주소 할당은 RFC 1597의 지침을 따르십시오
RFC 사본을 얻으려면 TCP/IP and Data Communications Administration Guide를 참조하십시오.
기본값이 아닌 다른 네트마스크를 지정할 경우, 다음 요구사항을 만족시켜야 합니다.
사설 네트워크 주소에 제공된 모든 비트를 최소한으로 마스킹해야 합니다.
"홀"이 없어야 합니다.
이 계획 정보를 Sun Cluster 3.0 U1 릴리스 정보에 있는 "클러스터 및 노드 이름 워크시트"에 추가하십시오.
개인용 호스트 이름은 사설 네트워크 인터페이스를 통한 노드간 통신에 사용되는 이름입니다. 개인용 호스트 이름은 Sun Cluster 설치 시 자동으로 작성되며 이름 지정 규칙 clusternodenodeid-priv를 따릅니다. nodeid는 내부 노드 ID 숫자입니다. 이 노드 ID 번호는 클러스터 구성원이 될 때 각 노드에 Sun Cluster 설치를 하는 동안 자동으로 할당됩니다. 설치 후에는 scsetup(1M) 유틸리티를 사용하여 개인용 호스트 이름을 바꿀 수 있습니다.
이 계획 정보를 Sun Cluster 3.0 U1 릴리스 정보에 있는 "클러스터 상호 연결 워크시트"에 추가하십시오.
클러스터 상호 연결은 클러스터 노드들 사이의 사설 네트워크 통신을 위해 하드웨어 경로를 제공합니다. 각각의 상호 연결은 두 개의 전송 어댑터간이나 전송어댑터와 전송 연결장치 간, 혹은 두개의 전송 연결장치 사이를 연결하는 케이블로 구성됩니다. Sun Cluster 설치 중에, 두 클러스터 상호 연결에 대해 다음 구성 정보를 지정합니다.
전송 어댑터 - 네트워크 인터페이스의 포트와 같은 전송 어댑터에 대해, 전송 어댑터 이름과 전송 유형을 지정하십시오. 구성이 2-노드 클러스터이면, 상호 연결이 (어댑터간의) 직접 연결인지 아니면 전송 연경 장치를 사용하는지를 지정하십시오. 두 노드로 구성된 클러스터가 직접 연결된 경우에도 상호 연결을 위해 전송 연결 장치를 지정할 수 있습니다. 전송 연결 장치를 지정하면 나중에 다른 노드를 쉽게 클러스터에 추가할 수 있습니다.
전송 연결 장치 - 네트워크 스위치와 같이 전송 접합이 사용될 경우, 각 상호 연결에 대한 전송 연결장치 이름을 지정하십시오. 기본 이름 switchN을 사용할 수도 있고 다른 이름을 만들 수도 있습니다. 여기서 N은 설치할 때 자동으로 할당되는 번호입니다.
또한 연결장치 포트 이름을 지정하거나 기본 이름을 승인하십시오. 기본 포트 이름은 케이블 끝에 있는 어댑터를 호스트하는 내부 노드 ID 번호와 동일합니다. 그러나 SCI와 같은 특정 어댑터 유형에 대해서는 기본 포트 이름을 사용할 수 없습니다.
세 개 이상의 노드가 있는 클러스터는 반드시 전송 접합을 사용해야 합니다. 클러스터 노드들 사이의 직접 연결은 2-노드 클러스터에 대해서만 지원됩니다.
scsetup(1M) 유틸리티를 사용하여 설치 이후에 추가 사설 네트워크 연결을 구성할 수 있습니다.
클러스터 상호 연결에 대한 자세한 내용은 Sun Cluster 3.0 U1 개념을 참조하십시오.
이 계획 정보를 Sun Cluster 3.0 U1 릴리스 정보에 있는 "공용 네트워크 워크시트"에 추가하십시오.
공용 네트워크는 클러스터 외부에서 통신합니다. 공용 네트워크 구성을 계획할 때 다음 사항을 고려하십시오.
공용 네트워크 및 사설 네트워크(클러스터 상호 연결)는 별도의 어댑터를 사용해야 합니다.
모든 클러스터 노드에 연결된 최소한 하나의 공용 네트워크를 가지고 있어야 합니다.
하드웨어 구성에서 허용하는 것만큼 추가 공용 네트워크 연결을 가질 수 있습니다.
local-mac-address 변수는 기본값 false를 사용해야 합니다. Sun Cluster 소프트웨어는 local-mac-address 변수에 true 값을 지원하지 않습니다.
공용 네트워크 어댑터 백업 그룹을 계획하려면 "NAFO 그룹"을 참조하십시오. 공용 네트워크 인터페이스에 대한 자세한 내용은 Sun Cluster 3.0 U1 개념을 참조하십시오.
이 계획 정보를 Sun Cluster 3.0 U1 릴리스 정보에 있는 "디스크 장치 그룹 구성 워크시트"에 추가하십시오.
모든 볼륨 관리자 디스크 그룹을 Sun Cluster 디스크 장치 그룹으로 구성해야 합니다. 이 구성을 사용하면 기본 노드에 장애가 발생할 경우에 두 번째 노드가 멀티호스트 디스크를 호스트할 수 있습니다. 디스크 장치 그룹을 계획할 때 다음 사항을 고려하십시오.
페일오버 - 멀티포트 디스크 및 적절하게 구성된 볼륨 관리자 장치를 페일오버 장치로 구성할 수 있습니다. 올바른 볼륨 관리자 장치의 구성에는 내보내진 장치를 여러 노드가 호스트할 수 있도록 멀티포트 디스크와 정확한 볼륨 관리자 설정이 포함되어 있습니다. 테이프 드라이브, CD-ROM 또는 단일 포트 디스크는 페일오버 장치로 구성할 수 없습니다.
이중화 - 데이터를 디스크 실패로부터 보호하려면 디스크를 이중화해야 합니다. 자세한 내용은 "이중화 지침"을 참조하십시오. 이중화 방법은 "Solstice DiskSuite 소프트웨어 설치 및 구성" 또는 "VxVM 소프트웨어 설치 및 구성" 및 볼륨 관리자 문서를 참조하십시오.
디스크 장치 그룹에 대한 자세한 내용은 Sun Cluster 3.0 U1 개념을 참조하십시오.
이 계획 정보를 Sun Cluster 3.0 U1 릴리스 정보에 있는"공용 네트워크 워크시트"에 추가하십시오.
NAFO(Network Adapter Failover) 그룹은 공용 네트워크 어댑터 모니터링과 페일오버를 제공하는 네트워크 주소 자원의 기반입니다. NAFO 그룹에 어댑터가 두 개 이상 구성되어 있으면, 활성 어댑터에 장애가 발생할 경우에 NAFO 그룹의 모든 주소가 NAFO 그룹의 다른 어댑터로 페일오버됩니다. 이러한 방법으로 활성 NAFO 그룹 어댑터가 NAFO 그룹의 어댑터가 연결된 서브넷과 공용 네트워크 사이의 연결을 유지합니다.
각 공용 네트워크 어댑터가 하나의 NAFO 그룹에 속해야 합니다.
각 노드가 서브넷마다 하나의 NAFO 그룹만 가질 수 있습니다.
지정된 NAFO 그룹에서 하나의 어댑터만이 /etc/hostname.adapter 파일 형식으로 호스트 이름에 연결될 수 있습니다.
NAFO 그룹 이름 지정 규칙은 nafoN입니다. 여기서 N은 NAFO 그룹을 만들 때 사용자가 지정하는 숫자입니다.
네트워크 어댑터 페일오버에 대한 자세한 내용은 Sun Cluster 3.0 U1 개념을 참조하십시오.
Sun Cluster 구성에서는 정족수 장치를 사용하여 데이터 및 자원 무결성을 유지합니다. 클러스터와 노드 사이의 연결이 일시적으로 중단될 경우에 클러스터 노드가 클러스터에 다시 연결하려고 하면 정족수 장치가 앰네시아나 브레인 분할 문제를 방지합니다. 정족수 장치는 scsetup(1M) 유틸리티를 사용하여 할당합니다.
정족수 장치를 계획할 때 다음 사항을 고려하십시오.
최소 - 2-노드 클러스터에는 적어도 하나의 공유 디스크가 정족수 장치로 할당되어 있어야 합니다. 다른 토폴로지의 경우에는 정족수 장치가 선택 사항입니다.
홀수 규칙 - 2-노드 클러스터 또는 정족수 장치에 직접 연결된 한 쌍의 노드에 두 개 이상의 정족수 장치가 구성되어 있으면 정족수 장치가 완전히 독립된 장애 경로를 갖도록 정족수 장치를 홀수로 구성하십시오.
연결 - 정족수 장치를 세 개 이상의 노드에 연결하지 마십시오.
정족수에 대한 자세한 내용은 Sun Cluster 3.0 U1 개념을 참조하십시오.
이 장에 수록에서는 글로벌 장치와 클러스터 파일 시스템을 계획하는 방법을 설명합니다. 글로벌 장치와 클러스터 파일 시스템에 대한 자세한 내용은 Sun Cluster 3.0 U1 개념을 참조하십시오
Sun Cluster 에는 특정 디스크 배치나 파일 시스템 크기가 지정되어 있지 않습니다. 글로벌 장치 및 클러스터 파일 시스템 배치를 계획할 때 다음 사항을 고려하십시오.
이중화 - 글로벌 장치의 가용성을 높이려면 모든 글로벌 장치를 이중화해야 합니다.
디스크 - 이중화할 때는 디스크 배열 사이에 이중화되도록 디스크를 배치하십시오.
가용성 - 글로벌 장치의 가용성을 높이려면 클러스터에 있는 두 개 이상의 노드에 물리적으로 글로벌 장치를 연결해야 합니다. 글로벌 장치가 물리적으로 많이 연결되면 하나의 노드에서 장애가 발생해도 계속 작동할 수 있습니다. 물리적 연결이 하나밖에 없는 글로벌 장치를 사용할 수도 있지만, 연결된 노드가 중단되면 다른 노드에서 글로벌 장치에 액세스할 수 없습니다.
클러스터 파일 시스템에 대한 마운트 포인트를 계획할 때 다음 사항을 고려하십시오.
마운트 포인트 위치 - 다른 소프트웨어 제품에서 금지된 경우가 아니면 /global 디렉토리에 마운트 포인트를 만드십시오. /global 디렉토리를 사용하면 글로벌로 사용할 수 있는 클러스터 파일 시스템을 로컬 파일 시스템과 쉽게 구별할 수 있습니다.
마운트 포인트 중첩 - 일반적으로 클러스터 파일 시스템에서는 마운트 포인트를 중첩하면 안됩니다. 예를 들어, 파일 시스템 하나는 /global/a 디렉토리에 마운트되고 다른 파일 시스템은 /global/a/b 디렉토리에 마운트되도록 설정하지 마십시오. 이 규칙을 무시할 경우, 상위 마운트 포인트가 없을 때 시스템이 해당 파일 시스템의 하위 파일 시스템을 마운트하려고 하면 가용성 및 부트 순서 문제가 발생할 수 있습니다. 동일한 디스크에 서로 다른 슬라이스가 있는 경우처럼 두 파일 시스템의 장치에 동일한 물리적 노드 연결이 있을 경우에는 이 규칙이 적용되지 않습니다.
이 계획 정보를 Sun Cluster 3.0 U1 릴리스 정보에 있는 "디스크 장치 그룹 구성 워크시트" 및 "볼륨 관리자 구성 워크시트"에 추가하십시오. Solstice DiskSuite의 경우에는 이 계획 정보를 "메타 장치 워크시트(Solstice DiskSuite)"에도 추가하십시오.
이 장에 수록에서는 클러스터 구성의 볼륨 관리 계획에 대하여 설명합니다.
Sun Cluster는 디스크를 하나의 단위로 관리할 수 있도록 볼륨 관리자 소프트웨어를 사용하여 디스크 장치 그룹으로 그룹화합니다. Sun Cluster는 Solstice DiskSuite 소프트웨어와 VERITAS Volume Manager(VxVM)를 지원합니다.
Solstice DiskSuite 소프트웨어를 사용하려면 일부 노드에서 디스크를 관리하기 위하여 VxVM을 사용하는 것과 관계 없이 클러스터의 모든 노드에 이 소프트웨어를 설치해야 합니다.
VxVM을 사용하고 VxVM 클러스터 기능을 활성화하려면 클러스터의 모든 노드에 VxVM을 설치하고 사용권을 부여해야 합니다.
VxVM을 사용하고 VxVM 클러스터 기능을 활성화하지 않을 경우에는 VxVM이 관리할 기억 장치에 연결된 노드에만 VxVM을 설치하고 사용권을 부여하면 됩니다.
노드 하나에 Solstice DiskSuite 소프트웨어와 VxVM을 모두 설치하면 Solstice DiskSuite 소프트웨어를 사용하여 각 노드에 로컬인 디스크(예: 루트 디스크)를 관리하고 VxVM을 사용하여 모든 공유 디스크를 관리해야 합니다.
볼륨 관리자 소프트웨어를 설치하고 구성하는 방법은 볼륨 관리자 문서와 "Solstice DiskSuite 소프트웨어 설치 및 구성" 또는 "VxVM 소프트웨어 설치 및 구성"을 참조하십시오. 클러스터 구성에서 볼륨을 관리하는 방법은 Sun Cluster 3.0 U1 개념을 참조하십시오.
디스크를 구성할 때 일반적인 다음 사항을 고려하십시오.
이중화된 멀티호스트 디스크 - 모든 멀티호스트 디스크를 디스크 확장 장치에 이중화해야 합니다. 멀티호스트 디스크 이중화에 대한 자세한 내용은 "멀티호스트 디스크 이중화"을 참조하십시오.
이중화된 루트 - 루트 디스크를 이중화하면 가용성이 높아지지만 이러한 이중화는 필요 없습니다. 루트 디스크를 이중화할 것인지 결정하려면 "이중화 지침"을 참조하십시오.
고유한 이름 지정 - 클러스터 노드에서 로컬 Solstice DiskSuite 메타 장치나 VxVM 볼륨이 /global/.devices/node@nodeid 파일 시스템을 마운트하는 장치로 사용될 경우에는 메타 장치나 볼륨의 이름이 전체 클러스터에서 고유해야 합니다.
노드 목록 - 디스크 장치 그룹의 가용성을 높이려면 마스터가 될 수 있는 노드 목록과 페일백 정책을 연결된 자원 그룹과 동일하게 지정하십시오. 또는 확장 가능한 자원 그룹에서 연결된 디스크 장치 그룹보다 많은 노드를 사용할 경우에는 확장 가능한 자원 그룹의 노드 목록을 디스크 장치 그룹의 노드 목록보다 상위 세트로 만드십시오. 노드 목록에 대한 자세한 내용은 Sun Cluster 3.0 U1 Data Services Installation and Configuration Guide의 자원 그룹 계획 정보를 참조하십시오.
멀티 포트 디스크 - 클러스터에서 장치 그룹을 구성하는 데 사용된 모든 디스크를 해당 장치 그룹에 대한 노드 목록에 구성된 모든 노드에 연결해야 합니다. Solstice DiskSuite 소프트웨어는 디스크가 디스크 세트에 추가될 때 자동으로 이것을 검사할 수 있습니다. 그러나 구성된 VxVM 디스크 그룹이 특정 노드 세트에 연결되지는 않습니다. 또한, 클러스터링 소프트웨어를 사용하여 Solstice DiskSuite 디스크 세트, VxVM 디스크 그룹 또는 각 글로벌 장치 세트를 글로벌 장치 그룹으로 등록할 때 제한된 연결 검사만 수행할 수 있습니다.
핫 스패어 디스크 - 핫 스패어 디스크를 사용하면 가용성을 높일 수 있지만 반드시 필요한 것은 아닙니다.
디스크 배치 권장 사항과 추가 제한에 대한 내용은 볼륨 관리자 문서를 참조하십시오.
Solstice DiskSuite 구성을 계획할 때 다음 사항을 고려하십시오.
로컬 메타 장치 이름 - 각 로컬 메타 장치 이름은 전체 클러스터에서 고유해야 하고 다른 DID(장치 ID) 이름과 동일하면 안됩니다.
Mediator - 정확히 두 개의 디스크 문자열로 구성되고 정확히 두 개의 노드에 의해 마스터되는 각 디스크 세트에는 디스크 세트용으로 구성된 Solstice DiskSuite mediator가 있어야 합니다. 디스크 문자열은 디스크 모음, 포함된 물리적 디스크, 디스크 모음과 노드 사이의 케이블, 인터페이스 어댑터 카드 등으로 구성됩니다. 각 디스크 세트는 mediator 호스트로 작동하는 두 개의 노드로만 구성해야 합니다. mediator가 필요한 모든 디스크 세트에 동일한 두 개의 노드를 사용해야 하고, 이 두 노드는 디스크 세트를 마스터해야 합니다. 2-문자열 및 2-호스트 요구 사항을 충족시키지 않는 디스크 세트에는 mediator를 구성할 수 없습니다. 자세한 내용은 mediator(7) 설명서 페이지를 참조하십시오.
/kernel/drv/md.conf 설정 - 각 디스크 세트에서 사용하는 모든 메타 장치는 재구성 부트를 실행할 때 /kernel/drv/md.conf 파일에 있는 구성 매개 변수에 따라 미리 작성됩니다. md.conf 파일의 필드는 Solstice DiskSuite 문서에서 설명합니다. Sun Cluster 구성을 지원하려면 다음과 같이 nmd 및 md_nsets 필드를 수정해야 합니다.
nmd - nmd 필드는 각 디스크 세트에 사용하기 위해 만드는 메타 장치의 수를 정의합니다. nmd 값은 클러스터에 있는 디스크 세트 중 하나에서 사용할 것으로 예상되는 가장 많은 메타 장치 수로 설정해야 합니다. 예를 들어, 클러스터가 처음 15개의 디스크 세트에 10개의 메타 장치를 사용하지만 16번째 디스크 세트에 1000개의 메타 장치를 사용하면 nmd의 값을 1000 이상으로 설정해야 합니다. 또한 각 DID 이름에 사용할 숫자가 충분하고 각 로컬 메타 장치 이름이 전체 클러스터에서 고유하려면 nmd의 값이 커야 합니다. 디스크 세트마다 최대 8192개까지 메타 장치를 사용할 수 있습니다. 디스크 세트마다 기본 설정된 메타 장치 수는 128개입니다.
md_nsets - md_nsets 필드는 시스템이 전체 클러스터의 요구를 충족시키기 위해 만들 수 있는 디스크 세트 최대 개수입니다. md_nsets 값은 클러스터에서 예상되는 디스크 세트 수에 Solstice DiskSuite 소프트웨어가 로컬 호스트에 있는 개인 디스크(즉, 로컬 디스크 세트에 포함되지 않은 메타 장치)를 관리할 수 있도록 1을 더한 값으로 설정해야 합니다. 클러스터마다 최대 32개까지 디스크 세트를 사용할 수 있습니다. 기본 설정된 디스크 세트 수는 4개입니다.
설치할 때 예상되는 클러스터 확장을 모두 수용할 수 있도록 이 필드를 설정하십시오. 운영 환경에서 이 값을 증가시키려면 각 노드를 재구성하기 위해 다시 부트해야 하기 때문에 시간이 소요됩니다. 이 값을 나중에 증가시키면 요청된 장치를 모두 만들기 위하여 루트(/) 파일 시스템에 잘못된 공간을 할당할 수도 있습니다.
각 노드에서 제공하는 디스크 세트 수와 관계 없이 모든 클러스터 노드에 동일한 /kernel/drv/md.conf 파일이 있어야 합니다. 이 지침을 따르지 않으면 심각한 Solstice DiskSuite 오류가 발생하여 데이터가 손실될 수 있습니다.
VERITAS Volume Manager(VxVM)구성을 계획할 때 다음 사항을 고려하십시오.
루트 디스크 그룹 - 각 노드에 기본 루트 디스크 그룹( rootdg)을 만들어야 합니다. rootdg 디스크 그룹은 다음과 같은 디스크에 만들 수 있습니다.
캡슐화되어야 하는 루트 디스크
캡슐화되거나 초기화될 수 있는 루트가 아닌 하나 이상의 로컬 디스크
루트 디스크와 루트가 아닌 로컬 디스크의 조합
rootdg 디스크 그룹은 노드에 로컬이어야 합니다.
캡슐화 - 캡슐화될 디스크에는 빈 디스크 슬라이스 테이블 항목 두 개가 있어야 합니다.
볼륨 수 - 디스크 장치 그룹이 만들어질 때 디스크 장치 그룹이 사용할 최대 볼륨 수를 예측하십시오.
볼륨 수가 1000보다 작으면 기본 설정된 하위 계수를 사용할 수 있습니다.
볼륨 수가 1000 이상이면 디스크 장치 그룹 볼륨에 하위 번호를 지정하는 방법을 계획해야 합니다. 두 개의 디스크 장치 그룹에 중복된 하위 번호를 할당하면 안됩니다.
DRL(Dirty Region Logging) - DRL은 사용하면 좋지만 반드시 필요한 것은 아닙니다. DRL을 사용하면 노드 장애가 발생한 후에 볼륨 복구 시간이 짧아집니다. DRL을 사용하면 I/O 처리량이 감소할 수 있습니다.
로그 기록은 클러스터 파일 시스템에 필요합니다. Sun Cluster는 다음과 같은 로그 기록 파일 시스템을 지원합니다.
Solaris UFS logging
Solstice DiskSuite 트랜스 메타 장치 UNIX 파일 시스템(UFS) 로그 기록
Solstice DiskSuite trans metadevice UFS logging에 대한 자세한 내용은 Solstice DiskSuite 문서를 참조하십시오. Solaris UFS logging에 대한 자세한 내용은 mount_ufs(1M) 설명서 페이지를 참조하십시오.
다음 표에는 각 볼륨 관리자에서 지원하는 로그 기록 파일 시스템이 있습니다.
표 1-4 지원되는 파일 시스템 로그 기록 행렬
볼륨 관리자 |
지원되는 파일 시스템 로그 기록 |
---|---|
Solstice DiskSuite |
Solaris UFS loggingSolstice DiskSuite trans metadevice UFS logging, |
VERITAS Volume Manager |
Solaris UFS logging |
Solstice DiskSuite 볼륨 관리자에 대해 Solaris UFS logging 및 Solstice DiskSuite trans metadevice UFS logging 사이에서 선택할 때 다음 사항을 고려하십시오.
Solaris UFS 로그 크기 - Solaris UFS logging는 UFS 파일 시스템의 사용가능한 공간을 사용하여, 그리고 파일 시스템의 크기에 따라 로그를 할당합니다.
1GB보다 작은 파일 시스템에서는 로그가 1MB를 차지합니다.
1GB 바이트 이상의 파일 시스템에서는 로그가 파일 시스템에서 GB당 1MB를 차지하며, 최대 64MB까지 가능합니다.
로그 메타 장치 - Solstice DiskSuite 트랜스 메타 장치는 UFS 로그 기록을 관리합니다. 트랜스 메타 장치의 로그 기록 장치 구성 요소는 사용자가 이중화하고 스트라이프할 수 있는 메타 장치입니다. 대부분의 파일 시스템에 64MB면 충분하지만 최대 1GB까지 로그를 만들 수 있습니다. 최소 로그 크기는 1 MB입니다. 트랜스 메타장치 설정에 대해서는 Solstice DiskSuite 문서를 참조하십시오
이 절에서는 클러스터 구성의 이중화 계획에 대한 지침을 제공합니다.
Sun Cluster 구성에서 모든 멀티호스트 디스크를 이중화하면 구성에서 단일 디스크 실패를 허용할 수 있습니다. Sun Cluster 소프트웨어에서는 디스크 확장 장치에서 모든 멀티호스트 디스크를 이중화하도록 요구합니다.
별도 디스크 확장 장치 -주어진 미러의 각 서브미러나 플랙스는 서로 다른 멀티호스트 디스크 확장 장치에 있어야 합니다.
디스크 공간 - 이중화을 하면 필요한 디스크 공간이 두배가 됩니다.
3중 이중화 - Solstice DiskSuite 소프트웨어 및 VERITAS Volume Manager(VxVM)는 세방향 이중화을 지원합니다. 그러나 Sun Cluster에서는 두 방향 이중화만 요구합니다.
메타 장치 수 - Solstice DiskSuite 소프트웨어에서, 미러는 연결 또는 스트라이프와 같은 다른 메타장치들로 구성됩니다. 큰 구성에는 많은 메타장치가 포함됩니다. 예를 들어, 각각의 로그 기록 HFS 파일 시스템에 대해 7개의 메타장치가 작성됩니다.
서로 다른 디스크 크기 - 다른 크기의 디스크에 이중화할 경우, 미러 용량은 가장 작은 서브미러나 플랙스의 크기로 제한됩니다.
멀티호스트 디스크에 대한 자세한 내용은 Sun Cluster 3.0 U1 개념을 참조하십시오.
Sun Cluster 3.0 U1 릴리스 정보에서 "로컬 파일 시스템 배치 워크시트"에 이 정보를 추가하십시오.
최대의 가용성을 위해서는 로컬 디스크에서 루트(/), /usr, /var, /opt 및 swap을 이중화해야 합니다. VxVM에서, 루트 디스크를 캡슐화하고 생성된 서브디스크를 이중화합니다. 그러나 루트 디스크를 이중화하는 것은 Sun Cluster의 요구사항이 아닙니다.
루트 디스크를 이중화할 것인지 결정하기 전에, 루트 디스크에 관한 다양한 대체 방안의 위험, 복잡성, 비용 및 서비스 시간을 고려하십시오. 모든 구성에 대해 작동되는 단일 이중화 방법은 없습니다. 루트를 이중화할 것인지 결정할 때 해당 지역의 엔터프라이즈 서비스 담당자가 선호하는 솔루션을 고려할 수도 있습니다.
이중화 방법은 "Solstice DiskSuite 소프트웨어 설치 및 구성" 또는 "VxVM 소프트웨어 설치 및 구성" 및 볼륨 관리자 문서를 참조하십시오.
루트 디스크를 이중화할 것인지 결정할 때 다음 사항을 고려하십시오.
Complexity - 루트 디스크를 이중화하면 시스템 관리에 복잡도가 추가되어 단일 사용자 모드에서의 시동이 복잡해집니다.
Backups - 루트 디스크의 이중화 여부에 관계없이, 루트를 정기적으로 백업해야 합니다. 이중화만 하는 경우에는 관리 오류에 대해서 보호되지 않습니다. 백업 계획은 단지 부주의로 변경되거나 삭제된 파일을 복원할 수 있게 합니다.
정족수 장치 - 루트 디스크를 이중화하는 데 정족수 장치로 구성된 디스크를 사용하지 마십시오.
Quorum - Solstice DiskSuite 소프트웨어에서, 메타장치 상태 데이터베이스 정족수가 유실되는 실패 시나리오의 경우, 유지 보수가 수행될 때까지 시스템을 다시 시동할 수 없습니다. 메타장치 상태 데이터베이스 및 상태 데이터베이스 복제본에 대해서는 Solstice DiskSuite 문서를 참조하십시오.
Separate controllers - 최대의 고가용성에는 별도 제어기에서의 루트 디스크 이중화이 포함됩니다.
Boot disk - 1차 시동 디스크가 실패할 경우, 미러에서 시동할 수 있도록 시동가능한 루트 디스크로의 이중화을 설정할 수 있습니다.
Secondary root disk - 이중화된 루트 디스크를 사용하면, 1차 루트 디스크가 실패해도 2차(미러) 루트 디스크에서 작업을 계속할 수 있습니다. 나중에, 1차 루트 디스크는 서비스로 반환하고(아마도, 전원 주기 또는 임시 I/O 오류 후에) OpenBootTM PROM boot-device 필드에 지정된 1차 루트 디스크를 사용하여 이어지는 부트가 수행됩니다. 이 상황에서 아무 수동 수리 작업도 일어나지 않지만, 드라이브는 시동하기 위해 작동하기 시작합니다. Solstice DiskSuite 재동기화가 발생하므로 유의하십시오. 재동기화는 드라이브가 서비스로 반환될 때 수동 단계를 요구합니다.
2차(미러) 루트 디스크에서 파일을 변경하면, 변경사항은 시동시 1차 루트 디스크에서 반영되지 않아서, 잘못된 서브미러가 야기됩니다. 예를 들어, /etc/system 파일에 대한 변경사항이 유실됩니다. 일부 Solstice DiskSuite 관리 명령은 1차 루트 디스크가 서비스 범위를 벗어났을 때 /etc/system 파일을 변경하였을 수도 있습니다
시동 프로그램은 미러에서 시동하는지, 아니면 기초가 되는 실제 장치에서 시동되는지 확인하지 않으므로 이중화은 시동 프로세스를 통해 부분적으로 활성화됩니다(메타 장치가 로드된 후). 이 지점 이전에, 시스템에는 잘못된 서브미러 문제점이 발생할 가능성이 있습니다.