이 장에서는 Sun Cluster 구성을 설치하기 위한 계획 정보와 지침을 설명합니다.
이 장에서 설명하는 개요 정보는 다음과 같습니다.
다음 표에서는 Sun Cluster 소프트웨어 설치를 위한 다양한 설치 작업에 대한 지침이 있는 위치와 작업 순서를 보여줍니다.
표 1–1 Sun Cluster 소프트웨어 설치 작업 정보
작업 |
지침 |
---|---|
클러스터 하드웨어 설치 |
Sun Cluster 3.0-3.1 Hardware Administration Manual for Solaris OS 서버 및 저장 장치와 함께 제공되는 설명서 |
클러스터 소프트웨어 설치 계획 | |
소프트웨어 패키지를 설치합니다. 선택적으로 Sun StorEdge QFS 소프트웨어를 설치하고 구성합니다. |
Sun StorEdge QFS and Sun StorEdge SAM-FS Software Installation and Configuration Guide |
새 클러스터 또는 새 클러스터 노드를 설정합니다. | |
Solstice DiskSuiteTM 또는 Solaris 볼륨 관리자 소프트웨어 설치 및 구성 |
Solstice DiskSuite 또는 Solaris 볼륨 관리자 소프트웨어 설치 및 구성 Solstice DiskSuite 또는 Solaris 볼륨 관리자 설명서 |
SPARC: VERITAS Volume Manager(VxVM) 소프트웨어 설치 및 구성 |
VxVM 설명서 |
클러스터 파일 시스템 및 기타 클러스터 구성 요소를 구성합니다. | |
(선택 사항) SPARC: Sun Cluster 모듈을 Sun Management Center에 설치하고 구성합니다. |
SPARC: Sun Management Center용 Sun Cluster 모듈 설치 Sun Management Center 설명서 |
자원 그룹과 데이터 서비스 계획, 설치 및 구성 |
Sun Cluster Data Services Planning and Administration Guide for Solaris OS |
사용자 정의 데이터 서비스 개발 | |
Sun Cluster 3.1 8/05 소프트웨어 업그레이드 |
Solstice DiskSuite 또는 Solaris 볼륨 관리자 소프트웨어 설치 및 구성 또는 SPARC: VxVM 소프트웨어 설치 및 구성 볼륨 관리자 문서 |
이 절에서는 클러스터 구성에 Solaris 소프트웨어를 설치하기 위한 계획 방법을 설명합니다. Solaris 소프트웨어에 대한 자세한 내용은 Solaris 설치 설명서를 참조하십시오.
로컬 CD-ROM에서 Solaris 소프트웨어를 설치할 수도 있고 네트워크 설치 서버에서 JumpStartTM 설치 방법을 사용하여 설치할 수도 있습니다. 또한 Sun Cluster 소프트웨어에는 JumpStart 설치 방법을 사용하여 Solaris OS와 Sun Cluster 소프트웨어를 모두 설치하는 사용자 정의 방법이 있습니다. 여러 개의 클러스터 노드를 설치할 경우에는 네트워크 설치를 고려해 보십시오.
scinstall JumpStart 설치 메소드에 대한 자세한 내용은 Solaris 및 Sun Cluster 소프트웨어를 설치하는 방법(JumpStart)을 참조하십시오. 표준 Solaris 설치 방법에 대한 자세한 내용은 Solaris 설치 설명서를 참조하십시오.
다음 Solaris OS 기능은 Sun Cluster 구성에서 지원되지 않습니다.
Sun Cluster 3.1 8/05 소프트웨어는 비전역 영역을 지원하지 않습니다. 모든 Sun Cluster 소프트웨어 및 클러스터에서 관리하는 소프트웨어는 노드의 전역 영역에만 설치되어야 합니다. 비전역 영역에 클러스터 관련 소프트웨어를 설치하지 마십시오. 또한 모든 클러스터 관련 소프트웨어는 나중에 클러스터 노드에서 만든 비전역 영역으로 전파되지 않도록 설치되어야 합니다. 자세한 내용은 System Administration Guide: Solaris Containers-Resource Management and Solaris Zones의 Adding a Package to the Global Zone Only를 참조하십시오.
Solaris 인터페이스 그룹은 Sun Cluster 구성에서 지원되지 않습니다. 기본적으로 Solaris 소프트웨어를 설치하는 동안에는 Solaris 인터페이스 그룹 기능을 사용할 수 없습니다. Solaris 인터페이스 그룹을 재활성화하지 마십시오. Solaris 인터페이스 그룹에 대한 자세한 내용은 ifconfig(1M) 설명서 페이지를 참조하십시오.
자동 절전 종료는 Sun Cluster 구성에서 지원되지 않으므로 활성화되면 안 됩니다. 자세한 내용은 pmconfig(1M) 및 power.conf(4) 설명서 페이지를 참조하십시오.
Sun Cluster 소프트웨어는 Extensible Firmware Interface (EFI) 디스크 레이블을 지원하지 않습니다.
Sun Cluster 소프트웨어는 Solaris IP 필터를 사용한 필터링을 지원하지 않습니다. Solaris IP 필터에서 STREAMS autopush(1M) 기법을 사용하는 것은 Sun Cluster 소프트웨어에서 해당 기법을 사용하는 것과 충돌합니다.
Sun Cluster 3.1 8/05 소프트웨어를 설치하려면 최종 사용자 Solaris 소프트웨어 그룹 이상이 필요합니다. 그러나 클러스터 구성의 다른 구성 요소에도 Solaris 소프트웨어에 대한 요구 사항이 있을 수 있습니다. 설치할 Solaris 소프트웨어 그룹을 결정하려면 다음 정보를 참고하십시오.
Solaris 소프트웨어에 대한 요구 사항은 서버 설명서를 참조하십시오. 예를 들어, Sun EnterpriseTM 10000 서버에서는 전체 Solaris 소프트웨어 그룹과 OEM 지원이 필요합니다.
SPARC 기반 클러스터에서만 사용 가능한 SCI-PCI 어댑터 또는 Remote Shared Memory Application Programming Interface (RSMAPI)를 사용할 경우, RSMAPI 소프트웨어 패키지(SUNWrsm 및 SUNWrsmo 그리고 Solaris 8 또는 Solaris 9 OS의 경우 SUNWrsmx 및 SUNWrsmox도 포함)를 설치해야 합니다. RSMAPI 소프트웨어 패키지는 일부 Solaris 소프트웨어 그룹에만 포함되어 있습니다. 예를 들어, 개발자 Solaris 소프트웨어 그룹에는 RSMAPI 소프트웨어 패키지가 포함되어 있지만 최종 사용자 Solaris 소프트웨어 그룹에는 포함되어 있지 않습니다.
설치할 소프트웨어 그룹에 RSMAPI 소프트웨어 패키지가 포함되어 있지 않으면 Sun Cluster 소프트웨어를 설치하기 전에 RSMAPI 소프트웨어 패키지를 수동으로 설치하십시오. pkgadd(1M) 명령을 사용하여 소프트웨어 패키지를 수동으로 설치하십시오. RSMAPI 사용에 대한 자세한 내용은 Solaris 8 Section(3RSM) 설명서 페이지를 참조하십시오.
최종 사용자 Solaris 소프트웨어 그룹에 포함되지 않은 다른 Solaris 소프트웨어 패키지를 설치해야 할 수 있습니다. Apache HTTP 서버 패키지가 한 예입니다. ORACLE®과 같은 타사 소프트웨어에는 다른 Solaris 소프트웨어 패키지가 추가로 필요할 수도 있습니다. Solaris 소프트웨어 요구 사항은 다른 회사 문서를 참조하십시오.
Solaris 소프트웨어 패키지를 수동으로 설치하지 않으려면 전체 Solaris 소프트웨어 그룹과 OEM 지원을 설치합니다.
적절한 로컬 파일 시스템 레이아웃 워크시트에 이 정보를 추가합니다.
Solaris OS를 설치할 때 필요한 Sun Cluster 분할 영역을 만들고 모든 분할 영역이 최소 공간 요구 사항을 충족시키는지 확인하십시오.
스왑 – Solaris 및 Sun Cluster 소프트웨어에 할당되는 결합된 swap 공간은 750MB 이상이어야 합니다. 최상의 결과를 얻으려면 Solaris OS에 필요한 크기에 Sun Cluster 소프트웨어용으로 최소한 512MB를 추가하십시오. 또한 클러스터 노드에서 실행할 응용 프로그램에 필요한 추가 swap 공간을 할당하십시오.
추가 swap 파일을 만드는 경우 swap 파일을 전역 장치에 만들지 마십시오. 로컬 디스크만 노드에 대한 swap 장치로 사용하십시오.
/globaldevices – 전역 장치용으로 scinstall(1M) 유틸리티에서 사용할 512MB 크기의 파일 시스템을 만드십시오.
볼륨 관리자 – 볼륨 관리자에서 사용할 수 있도록 디스크의 끝에 있는 슬라이스(슬라이스 7)에 20MB 크기의 분할 영역을 만드십시오. 클러스터에서 VERITAS Volume Manager (VxVM)를 사용하고 루트 디스크를 캡슐화하려는 경우에는 VxVM에서 사용할 수 있도록 사용하지 않은 두 개의 슬라이스가 있어야 합니다.
이러한 요구 사항을 충족시키려면 Solaris OS의 대화식 설치를 수행하는 경우 분할 영역을 사용자 정의해야 합니다.
분할 영역 계획을 위한 자세한 내용은 다음 지침을 참조하십시오.
Solaris OS를 실행하는 다른 시스템에서처럼 루트(/), /var, /usr 및 /opt 디렉토리를 개별 파일 시스템으로 구성할 수 있습니다. 또는 모든 디렉토리를 루트(/) 파일 시스템에 포함할 수도 있습니다. 다음은 Sun Cluster 구성에서 루트(/), /var, /usr 및 /opt 디렉토리에 저장되는 소프트웨어에 대한 설명입니다. 분할 영역 구조를 계획할 때 이 정보를 참고하십시오.
루트(/) – Sun Cluster 소프트웨어는 루트(/) 파일 시스템에서 40 MB 미만의 공간을 차지합니다. Solstice DiskSuite 또는 Solaris 볼륨 관리자 소프트웨어에 5MB 미만의 공간이 필요하고 VxVM 소프트웨어에는 15MB 미만의 공간이 필요합니다. 충분한 추가 공간과 inode 용량을 구성하려면 루트(/) 파일 시스템에 일반적으로 할당하는 공간에 100 MB 이상을 추가하십시오. 이 공간은 볼륨 관리 소프트웨어에서 사용되는 블록 특수 장치 및 문자 특수 장치를 만들 때 사용됩니다. 특히, 클러스터에 많은 수의 공유 디스크가 있는 경우 이 추가 공간을 할당해야 합니다.
/var – Sun Cluster 소프트웨어를 설치할 때 /var 파일 시스템에서는 무시해도 될 만큼 적은 공간을 차지합니다. 그러나 로그 파일을 기록할 수 있도록 충분한 공간을 따로 설정해야 합니다. 또한 클러스터 노드에서는 일반적으로 독립형 서버에서 기록되는 것보다 많은 메시지가 로그 파일에 기록될 수 있습니다. 따라서 100MB 이상의 공간을 /var 파일 시스템에 할당하는 것이 좋습니다.
/usr – Sun Cluster 소프트웨어는 /usr 파일 시스템에서 25 MB 미만의 공간을 차지합니다. Solstice DiskSuite 또는 Solaris 볼륨 관리자 및 VxVM 소프트웨어에는 각각 15MB 미만의 공간이 필요합니다.
/opt – Sun Cluster 프레임워크 소프트웨어는 /opt 파일 시스템에서 2 MB 미만의 공간을 사용합니다. 그러나 각 Sun Cluster 데이터 서비스가 1MB부터 5MB 사이의 공간을 사용할 수도 있습니다. Solstice DiskSuite 또는 Solaris 볼륨 관리자 소프트웨어는 /opt 파일 시스템의 공간을 사용하지 않습니다. VxVM 소프트웨어의 패키지와 도구를 모두 설치하면 40MB 이상의 공간을 사용할 수 있습니다.
또한 데이터베이스 및 응용 프로그램 소프트웨어가 대부분 /opt 파일 시스템에 설치됩니다.
SPARC: Sun Management Center 소프트웨어를 사용하여 클러스터를 모니터할 경우에는 Sun Management Center 에이전트 및 Sun Cluster 모듈 패키지를 지원하기 위해 각 노드에 추가로 25MB의 공간이 필요합니다.
Sun Cluster 소프트웨어를 설치하려면 전역 장치를 관리하는 데 사용할 수 있도록 로컬 디스크 중 하나에 특수 파일 시스템을 별도로 설정해야 합니다. 이 파일 시스템은 나중에 클러스터 파일 시스템으로 마운트됩니다. 이 파일 시스템의 이름을 /globaldevices라고 지정하십시오. 이 이름이 scinstall(1M) 명령에서 인식하는 기본 이름입니다.
scinstall 명령은 나중에 /global/.devices/node@nodeid 파일 시스템의 이름을 변경합니다. 여기서 nodeid는 노드가 클러스터 구성원이 될 때 노드에 할당되는 번호를 나타냅니다. 원래의 /globaldevices 마운트 지점이 제거됩니다.
블록 특수 장치와 문자 특수 장치를 모두 만들 경우 /globaldevices 파일 시스템에 충분한 공간과 inode 용량이 있어야 합니다. 이 지침은 클러스터에 많은 수의 디스크가 있는 경우에 특히 중요합니다. 대부분의 클러스터 구성에는 512MB 크기의 파일 시스템으로 충분합니다.
Solstice DiskSuite 또는 Solaris 볼륨 관리자 소프트웨어를 사용할 경우에는 상태 데이터베이스 복제본을 만들 때 사용할 수 있도록 루트 디스크에 별도 슬라이스를 설정해야 합니다. 특히, 로컬 디스크마다 이러한 용도로 사용할 슬라이스를 별도로 설정해야 합니다. 그러나 노드에 로컬 디스크가 하나인 경우에는 Solstice DiskSuite 또는 Solaris 볼륨 관리자 소프트웨어가 제대로 작동하도록 하기 위해 동일한 슬라이스에 세 개의 상태 데이터베이스 복제본을 만들어야 할 수도 있습니다. 자세한 내용은 Solstice DiskSuite 또는 Solaris 볼륨 관리자 설명서를 참조하십시오.
SPARC: VERITAS Volume Manager (VxVM)를 사용하고 루트 디스크를 캡슐화하려는 경우에는 VxVM에서 사용할 수 있도록 사용하지 않은 두 개의 슬라이스가 있어야 합니다. 또한 디스크의 시작 부분이나 끝 부분에 할당되지 않은 사용 가능한 공간이 더 있어야 합니다. 루트 디스크 캡슐화에 대한 자세한 내용은 VxVM 설명서를 참조하십시오.
표 1–2에서는 물리적 메모리가 750 MB보다 작은 클러스터 노드의 분할 체계를 보여줍니다. 이 분할 영역 구조에는 최종 사용자 Solaris 소프트웨어 그룹, Sun Cluster 소프트웨어 및 Sun Cluster HA for NFS 데이터 서비스가 설치됩니다. 디스크의 마지막 슬라이스(슬라이스 7)는 볼륨 관리자에서 사용하도록 작은 공간이 할당됩니다.
이 레이아웃에서는 Solstice DiskSuite 또는 Solaris 볼륨 관리자 소프트웨어 또는 VxVM 소프트웨어 중 하나를 사용할 수 있습니다. Solstice DiskSuite 또는 Solaris 볼륨 관리자 소프트웨어를 사용하는 경우에는 상태 데이터베이스 복제본을 위하여 슬라이스 7을 사용합니다. VxVM을 사용하는 경우에는 나중에 슬라이스 7에 길이 0을 할당하여 공간을 비웁니다. 이 레이아웃에서는 필요한 두 개의 슬라이스 4와 7을 제공하고 디스크 끝에서 빈 공간을 제공합니다.
표 1–2 파일 시스템 할당의 예
슬라이스 |
내용 |
크기 할당 |
설명 |
---|---|---|---|
0 |
/ |
6.75GB |
공간을 슬라이스 1부터 7까지 할당한 후 디스크에 남은 빈 공간. Solaris OS, Sun Cluster 소프트웨어, 데이터 서비스 소프트웨어, 볼륨 관리자 소프트웨어, Sun Management Center 에이전트 및 Sun Cluster 모듈 에이전트 패키지, 루트 파일 시스템, 데이터베이스 및 응용 프로그램 소프트웨어 등에 사용됩니다. |
1 |
swap |
1GB |
Solaris OS용 512MB Sun Cluster 소프트웨어에 대해 512MB |
2 |
오버랩 |
8.43GB |
전체 디스크 |
3 |
/globaldevices |
512MB |
Sun Cluster 소프트웨어가 나중에 이 슬라이스에 다른 마운트 지점을 할당하고 클러스터 파일 시스템으로 마운트합니다. |
4 |
사용하지 않음 |
- |
VxVM에서 루트 디스크를 캡슐화할 때 사용할 수 있는 빈 슬라이스 |
5 |
사용하지 않음 |
- |
- |
6 |
사용하지 않음 |
- |
- |
7 |
볼륨 관리자 |
20MB |
Solstice DiskSuite 또는 Solaris 볼륨 관리자 소프트웨어에서 상태 데이터베이스 복제본을 위해 사용하거나 VxVM에서 슬라이스를 비운 후 설치를 위해 사용 |
이 절에서는 Sun Cluster 소프트웨어 설치 및 구성을 위해 다음 구성 요소를 계획하고 준비하는 지침을 제공합니다.
Sun Cluster 구성 요소에 대한 자세한 내용은 Solaris OS용 Sun Cluster 개요 및 Solaris OS용 Sun Cluster 개념 안내서를 참조하십시오.
소프트웨어를 설치하려면 먼저 필요한 사용권 인증서를 모두 사용할 수 있어야 합니다. Sun Cluster 소프트웨어에는 사용권 인증서가 필요없지만 Sun Cluster 소프트웨어를 통해 설치되는 각 노드는 Sun Cluster 소프트웨어 사용권 계약을 따라야 합니다.
볼륨 관리 소프트웨어 및 응용 프로그램 소프트웨어에 대한 사용권 요구 사항은 해당 제품의 설치 설명서를 참조하십시오.
각 소프트웨어 제품을 설치한 후에 필요한 패치가 있으면 패치도 설치해야 합니다.
현재 필요한 패치에 대한 자세한 내용은 Solaris OS용 Sun Cluster 3.1 8/05 릴리스 노트의 패치 및 필수 펌웨어 수준을 참조하거나 Sun 서비스 공급자에게 문의하십시오.
패치 적용에 대한 일반적인 지침 및 절차는 Solaris OS용 Sun Cluster 시스템 관리 안내서의 8 장, Sun Cluster 소프트웨어 및 펌웨어 패치을 참조하십시오.
클러스터 구성에 따라 여러 가지 Sun Cluster 구성 요소에 많은 IP 주소를 설정해야 합니다. 클러스터 구성에 포함된 각 노드에 동일한 공용 서브넷 세트에 대한 공용 네트워크 연결이 하나 이상 있어야 합니다.
다음 표에서는 IP 주소가 지정되어야 하는 구성 요소 목록을 표시합니다. 다음 위치에 이 IP 주소를 추가합니다.
사용된 모든 이름 지정 서비스
Solaris 소프트웨어 설치 이후 각 클러스터 노드의 로컬 /etc/inet/hosts 파일
Solaris 10의 경우, Solaris 소프트웨어 설치 이후 각 클러스터 노드의 로컬 /etc/inet/iphosts 파일
IP 주소 계획에 대한 자세한 내용은 System Administration Guide, Volume 3 (Solaris 8), System Administration Guide: IP Services(Solaris 9 또는 Solaris 10)를 참조하십시오.
IP 네트워크 다중 경로 지정을 지원할 테스트 IP 주소에 대한 자세한 내용은 IP Network Multipathing Administration Guide를 참조하십시오.
모든 클러스터 노드에 대하여 콘솔 액세스가 있어야 합니다. 관리 콘솔에 Cluster Control Panel 소프트웨어를 설치할 경우에는 클러스터 노드와 통신을 하기 위해 필요한 콘솔 액세스 장치의 호스트 이름이 있어야 합니다.
관리 콘솔과 클러스터 노드 콘솔 사이의 통신에 터미널 집중 장치를 사용합니다.
Sun Enterprise 10000 서버는 단말기 집중 장치 대신 SSP (System Service Processor)를 사용합니다.
Sun FireTM 서버는 터미널 집중 장치 대신 시스템 컨트롤러를 사용합니다.
콘솔 액세스에 대한 자세한 정보는 Solaris OS용 Sun Cluster 개념 안내서를 참조하십시오.
논리 주소를 계획할 때 다음 사항을 고려하십시오.
논리 주소를 사용하는 각 데이터 서비스 자원 그룹에는 논리 주소에 액세스할 수 있는 각 공용 네트워크에 대한 호스트 이름이 지정되어 있어야 합니다.
IP 주소는 논리 주소를 호스트하는 IP 네트워크 다중 경로 지정 그룹에서 사용하는 테스트 IP 주소와 동일한 서브넷에 있어야 합니다.
자세한 내용은 Sun Cluster Data Services Planning and Administration Guide for Solaris OS를 참조하십시오. 데이터 서비스 및 자원에 대한 자세한 내용은 Solaris OS용 Sun Cluster 개요 및 Solaris OS용 Sun Cluster 개념 안내서를 참조하십시오.
공용 네트워크는 클러스터 외부와 통신을 합니다. 공용 네트워크 구성을 계획할 때는 다음 사항을 고려하십시오.
공용 네트워크 및 개인 네트워크(클러스터 상호 연결)에서는 별도의 어댑터를 사용해야 하며, 그렇지 않으면 개인 상호 연결 및 공용 네트워크 모두에서 동일한 어댑터를 사용하도록 태그 VLAN 지원 어댑터와 VLAN 지원 스위치에서 태그 VLAN을 구성해야 합니다.
모든 클러스터 노드에 연결된 공용 네트워크가 하나 이상 있어야 합니다.
Sun Cluster 소프트웨어는 공용 네트워크에서 IPv4 주소를 지원합니다.
Sun Cluster 소프트웨어는 다음 조건이나 제한 사항 하의 공용 네트워크에서 IPv6 주소를 지원합니다.
개인 상호 연결에서 SCI 어댑터를 사용할 경우, Sun Cluster 소프트웨어는 공용 네트워크에서 IPv6 주소를 지원하지 않습니다.
Solaris 9 OS 및 Solaris 10 OS의 경우, Sun Cluster 소프트웨어는 페일오버 및 확장 가능 데이터 서비스 모두에 대해 IPv6 주소를 지원합니다.
Solaris 8 OS의 경우, Sun Cluster 소프트웨어는 페일오버 데이터 서비스에 대해서만 IPv6 주소를 지원합니다.
공용 네트워크 어댑터는 각각 Internet Protocol (IP) Network Multipathing(IP 네트워크 다중 경로 지정) 그룹에 속해야 합니다. 추가 지침은 IP 네트워크 다중 경로 지정 그룹을 참조하십시오.
모든 공용 네트워크 어댑터는 로컬 MAC 주소 지정을 지원하는 NIC(network interface card)를 사용해야 합니다. 로컬 MAC 주소 지정은 IP 네트워크 다중 경로 지정의 요구 사항입니다.
local-mac-address? 변수는 이더넷 어댑터에 대해 기본값 true를 사용해야 합니다. Sun Cluster 소프트웨어는 이더넷 어댑터에 대한 local-mac-address? 값으로 false를 지원하지 않습니다. 이 요구 사항은 local-mac-address? 값을 false로 지정해야 했던 Sun Cluster 3.0과는 달라진 내용입니다.
Solaris 9 또는 Solaris 10 OS에서 Sun Cluster 설치 중에 scinstall 유틸리티는 공용 네트워크 어댑터 각각에 대해 단일 어댑터 IP 네트워크 다중 경로 지정 그룹을 자동으로 구성합니다. 설치 후에 이 백업 그룹을 수정하려면 System Administration Guide: IP Services의 Administering IPMP(Tasks) 절차를 수행합니다(Solaris 9 또는 Solaris 10).
Sun Cluster 구성에서는 Solaris IP 필터를 사용하는 필터링을 지원하지 않습니다.
공용 네트워크 어댑터 백업 그룹 계획에 대한 지침은 IP 네트워크 다중 경로 지정 그룹을 참조하십시오. 공용 네트워크 인터페이스에 대한 자세한 내용은 Solaris OS용 Sun Cluster 개념 안내서를 참조하십시오.
공용 네트워크 워크시트에 이 계획 정보를 추가합니다.
NAFO(Network Adapter Failover) 그룹 대신 사용하는 Internet Protocol (IP) Network Multipathing 그룹은 공용 네트워크 어댑터 모니터링 및 페일오버 기능을 제공하고 네트워크 주소 자원의 기반으로 사용됩니다. multipathing 그룹은 두 개 이상의 어댑터로 구성될 때 고가용성을 제공합니다. 하나의 어댑터가 실패하면 실패한 어댑터의 모든 주소가 multipathing 그룹의 다른 어댑터에 페일오버됩니다. 이러한 방법으로 Multipathing 그룹 어댑터가 Multipathing 그룹의 어댑터가 연결된 서브넷과 공용 네트워크 사이의 연결을 유지합니다.
다음은 Sun Cluster 소프트웨어 설치 중에 IP 네트워크 다중 경로 지정 그룹을 수동으로 구성해야 하는 경우에 대해 설명합니다.
Solaris 8 OS에서 Sun Cluster 소프트웨어를 설치할 경우, IP 네트워크 다중 경로 지정 그룹의 모든 공용 네트워크 어댑터를 테스트 IP 주소로 수동 구성해야 합니다.
SunPlex Installer을 사용하여 Solaris 9 또는 Solaris 10 OS에 Sun Cluster 소프트웨어를 설치할 경우, IP 네트워크 다중 경로 지정 그룹에서 전부는 아니더라도 일부 공용 네트워크 어댑터를 수동으로 구성해야 합니다.
Solaris 9 또는 Solaris 10 OS에서 Sun Cluster 소프트웨어를 설치할 경우(SunPlex Installer을 사용하는 경우 제외), scinstall 유틸리티는 모든 공용 네트워크 어댑터를 단일 어댑터 IP 네트워크 다중 경로 지정 그룹으로 자동 구성합니다.
Multipathing 그룹을 계획할 때 다음 사항을 고려하십시오.
각 공용 네트워크 어댑터가 복수 경로 그룹에 포함되어야 합니다.
다음과 같은 복수 경로 그룹에서는 그룹의 어댑터별로 테스트 IP 주소를 구성해야 합니다.
Solaris 8 OS에서는 모든 복수 경로 그룹에서 어댑터마다 테스트 IP 주소가 필요합니다.
Solaris 9 또는 Solaris 10 OS의 경우, 둘 이상의 어댑터가 포함된 복수 경로 그룹에서는 테스트 IP 주소가 필요합니다. 복수 경로 그룹에 하나의 어댑터만 포함된 경우 테스트 IP 주소를 구성하지 않아도 됩니다.
동일한 다중 경로 그룹에 포함된 모든 어댑터의 테스트 IP 주소가 하나의 IP 서브넷에 속해야 합니다.
테스트 IP 주소는 가용성이 높지 않기 때문에 일반 응용 프로그램에서 사용하면 안됩니다.
/etc/default/mpathd 파일에서 TRACK_INTERFACES_ONLY_WITH_GROUPS 값은 yes가 되어야 합니다.
Multipathing 그룹의 이름에는 요구 사항이나 제한 사항이 없습니다.
IP 네트워크 다중 경로 지정에 대한 Solaris 설명서에 기록된 대부분의 절차, 지침 및 제한 사항은 클러스터 환경이나 비클러스터 환경에서 동일합니다. IP 네트워크 다중 경로 지정에 대한 추가 정보는 해당 Solaris 설명서를 참조하십시오.
Solaris 8 OS는 IP Network Multipathing Administration Guide의 네트워크 Multipathing 배포를 참조하십시오.
Solaris 9 OS의 경우, System Administration Guide: IP Services의 28 장, Administering Network Multipathing (Task)를 참조하십시오.
Solaris 10 OS의 경우, System Administration Guide: IP Services의 31 장, Administering IPMP (Tasks)를 참조하십시오.
또한 Solaris OS용 Sun Cluster 개요의 IP 네트워크 다중 경로 그룹 및 Solaris OS용 Sun Cluster 개념 안내서를 참조하십시오.
Sun Cluster 구성에서 NFS(Network File System)의 사용을 계획할 때 다음과 같은 점을 고려하십시오.
Sun Cluster 노드는 동일한 클러스터의 노드에서 마스터되고 Sun Cluster HA for NFS에서 내보낸 파일 시스템의 NFS 클라이언트가 될 수 없습니다. 이러한 Sun Cluster HA for NFS 교차 마운트는 금지됩니다. 클러스터 노드 간에 파일을 공유하려면 클러스터 파일 시스템을 사용하십시오.
클러스터에서 로컬로 실행하는 응용 프로그램은 NFS를 통해 내보낸 파일 시스템의 파일을 잠그면 안 됩니다. 그렇지 않으면 로컬 블록화(예: flock(3UCB) 또는 fcntl(2))로 인해 잠금 관리자를 다시 시작(lockd(1M))하지 못할 수도 있습니다. 다시 시작할 때 원격 클라이언트에서 사용하려고 했던 잠금이 블록화된 로컬 프로세스에 부여될 수 있습니다. 그러면 예상하지 못한 동작이 발생할 수 있습니다.
Sun Cluster 소프트웨어는 share_nfs(1M) 명령의 다음 옵션을 지원하지 않습니다.
secure
sec=dh
그러나 Sun Cluster 소프트웨어는 다음과 같은 NFS 보안 기능을 지원합니다.
NFS용 보안 포트 사용항목 설정 nfssrv:nfs_portmon=1을 클러스터 노드의 /etc/system 파일에 추가하여 NFS용 보안 포트를 활성화합니다.
NFS에서 커버로스 사용자세한 내용은 Sun Cluster Data Service for NFS Guide for Solaris OS의 Securing Sun Cluster HA for NFS With Kerberos V5를 참조하십시오.
Sun Cluster 구성에 대한 다음 서비스 제한 사항을 준수하십시오.
클러스터 노드를 라우터(게이트웨이)로 구성하지 마십시오. 시스템이 중지될 경우에 클라이언트가 대체 라우터를 찾을 수 없기 때문에 복구할 수 없습니다.
클러스터 노드를 NIS 또는 NIS+ 서버로 구성하지 마십시오. NIS 또는 NIS+를 위해 사용할 수 있는 데이터 서비스가 없습니다. 그러나 클러스터 노드가 NIS 또는 NIS+ 클라이언트가 될 수는 있습니다.
클라이언트 시스템에서 Sun Cluster 구성을 사용하여 가용성이 높은 부트나 설치 서비스를 제공하지 마십시오.
클러스터에 RPC 서비스를 설치하는 경우에는 서비스에서 다음 프로그램 번호를 사용하면 안됩니다.
100141
100142
100248
이 번호들은 각각 Sun Cluster 데몬 rgmd_receptionist, fed 및 pmfd용으로 예약되어 있습니다.
설치하는 RPC 서비스에서도 이 프로그램 번호 중 하나를 사용하는 경우에는 RPC 서비스에서 다른 프로그램 번호를 사용하도록 변경해야 합니다.
Sun Cluster 소프트웨어는 클러스터 노드에서 우선 순위가 높은 프로세스 일정잡기 클래스 실행을 지원하지 않습니다. 클러스터 노드에서는 다음 유형의 프로세스를 실행하지 마십시오.
우선 순위가 높은 시간 공유 예약 클래스를 실행하는 프로세스
실시간 예약 클래스를 실행하는 프로세스
Sun Cluster 소프트웨어는 실시간 예약 클래스에서 실행되지 않는 커널 스레드를 사용합니다. 실시간 프로세스나 일반적인 우선 순위보다 높은 다른 시분할 프로세스를 실행하면 Sun Cluster 커널 스레드에서 필요한 CPU 주기를 받지 못할 수 있습니다.
이 절에서는 사용자가 구성하는 다음 Sun Cluster 구성 요소에 대한 지침을 제공합니다.
적절한 구성 계획 워크시트에 이 정보를 추가합니다.
Sun Cluster를 구성하는 동안 클러스터에 대한 이름을 지정합니다. 클러스터 이름은 전체 엔터프라이즈에서 고유해야 합니다.
노드 이름은 Solaris OS를 설치할 때 시스템에 지정하는 이름입니다. Sun Cluster를 구성할 때 설치하는 모든 노드의 이름을 하나의 클러스터로 지정합니다. 단일 노드 클러스터 설치에서 기본 클러스터 이름은 노드 이름입니다.
단일 노드 클러스터에는 개인 네트워크를 구성할 필요가 없습니다.
Sun Cluster 소프트웨어는 노드 사이의 내부 통신을 위해 독립 네트워크를 사용합니다. Sun Cluster 구성에는 개인 네트워크에 클러스터 상호 연결에 대한 연결이 두 개 이상 있어야 합니다. 클러스터의 첫 번째 노드에 Sun Cluster 소프트웨어를 구성할 때 개인 네트워크 주소와 넷마스크를 지정합니다. 기본 개인 네트워크 주소(172.16.0.0) 및 넷마스크(255.255.0.0)를 적용하거나 다른 선택 사항을 입력할 수 있습니다.
설치 유틸리티(scinstall, SunPlex Installer 또는 JumpStart)에서 설치를 완료하고 클러스터가 설정된 후에는 개인 네트워크 주소 및 넷마스크를 변경할 수 없습니다. 클러스터 소프트웨어를 제거한 다음 다시 설치하여 다른 개인 네트워크 주소 또는 넷마스크를 사용해야 합니다.
기본값이 아닌 개인 네트워크 주소를 지정할 경우에는 다음 요구 사항을 충족시켜야 합니다.
주소의 마지막 두 옥텟에는 기본 주소 172.16.0.0에서처럼 0을 사용해야 합니다. 주소 공간의 마지막 16비트는 Sun Cluster 소프트웨어에서 자체적으로 사용합니다.
주소는 개인 네트워크에서 사용하기 위해 RFC 1918에서 예약한 주소 블록에 포함되어야 합니다. InterNIC에 연락하여 RFC 복사본을 얻거나 http://www.rfcs.org에서 온라인으로 RFC를 볼 수 있습니다.
같은 개인 네트워크 주소를 두 개 이상의 클러스터에서 사용할 수 있습니다. 개인 IP 네트워크 주소는 클러스터 외부에서 액세스할 수 없습니다.
Sun Cluster 소프트웨어는 개인 상호 연결에 대해 IPv6 주소를 지원하지 않습니다. 시스템에서는 IPv6 주소를 사용하는 확장 가능 서비스를 지원하기 위해 개인 네트워크 어댑터에서 IPv6 주소를 구성합니다. 그러나 개인 네트워크에서의 노드간 통신에서는 이 IPv6 주소를 사용하지 않습니다.
scinstall 유틸리티를 통해 대체 넷마스크를 지정할 수 있지만 기본 넷마스크 255.255.0.0을 사용하는 것이 가장 좋습니다. 더 큰 네트워크를 나타내는 넷마스크를 지정하더라도 아무런 이익이 없습니다. 그리고 scinstall 유틸리티는 더 작은 네트워크를 나타내는 넷마스크는 받아들이지 않습니다.
개인 네트워크에 대한 자세한 내용은 System Administration Guide, Volume 3(Solaris 8)의 Planning Your TCP/IP Network 또는 System Administration Guide: IP Services의 Planning Your TCP/IP Network(Tasks)(Solaris 9 또는 Solaris 10)를 참조하십시오.
개인 호스트 이름은 개인 네트워크 인터페이스를 통한 노드간 통신에 사용되는 이름입니다. 개인 호스트 이름은 Sun Cluster를 구성할 때 자동으로 만들어집니다. 이러한 개인 호스트 이름은 이름 지정 규칙 clusternodenodeid -priv를 따릅니다. 여기서 nodeid는 내부 노드 ID 번호입니다. Sun Cluster 구성 중에 노드가 클러스터 구성원이 될 때 이 노드 ID 번호가 자동으로 각 노드에 할당됩니다. 클러스터가 구성된 후에는 scsetup(1M) 유틸리티를 사용하여 개인 호스트 이름을 변경할 수 있습니다.
단일 노드 클러스터에는 클러스터 상호 연결을 구성할 필요가 없습니다. 그러나 단일 노드 클러스터 구성에 노드를 추가할 경우 이후의 사용을 위해 클러스터 상호 연결을 구성할 수도 있습니다.
클러스터 상호 연결은 클러스터 노드 간의 개인 네트워크 통신을 위한 하드웨어 경로를 제공합니다. 각 상호 연결은 다음 중 하나의 방법으로 연결되는 케이블로 구성됩니다.
두 전송 어댑터 간
전송 어댑터와 전송 연결 장치 간
두 전송 연결 장치 간
Sun Cluster를 구성할 때 두 클러스터 상호 연결에 대하여 구성 정보를 지정합니다. 클러스터를 설정한 후에 scsetup(1M) 유틸리티를 사용하여 개인 네트워크 연결을 추가로 구성할 수 있습니다.
클러스터 상호 연결 하드웨어에 대한 지침은 Sun Cluster 3.0-3.1 Hardware Administration Manual for Solaris OS의 Interconnect Requirements and Restrictions을 참조하십시오. 클러스터 상호 연결에 대한 일반적인 내용은 Solaris OS용 Sun Cluster 개요의 클러스터 상호 연결 및 Solaris OS용 Sun Cluster 개념 안내서를 참조하십시오.
네트워크 인터페이스의 포트와 같은 전송 어댑터에 대해 전송 어댑터 이름 및 전송 유형을 지정합니다. 구성이 2 노드 클러스터이면 상호 연결이 어댑터와 어댑터 사이에 직접 연결되는지 아니면 전송 연결 장치를 사용하는지도 지정합니다.
다음 지침과 제한 사항을 참고하십시오.
로컬 MAC 주소 지정 - 모든 개인 네트워크 어댑터에서는 로컬 MAC 주소 지정을 지원하는 NIC를 사용해야 합니다. IPv6 공용 네트워크 주소 지원을 위해 개인 네트워크 어댑터에서 필요한 링크 로컬 IPv6 주소는 로컬 MAC 주소에서 파생됩니다.
태그 지정 VLAN 어댑터 – Sun Cluster 소프트웨어는 개인 상호 연결과 공용 상호 연결 간에 어댑터를 공유할 수 있도록 태그 지정 VLAN을 지원합니다. 개인 상호 연결을 위해 태그 지정 VLAN 어댑터를 구성하려면 다음 방법 중 하나로 어댑터 이름 및 해당 VLAN ID(VID)를 지정합니다.
일반적으로 장치 이름과 인스턴스 번호 또는 PPA(physical point of attachment)로 구성되는 어댑터 이름을 지정합니다. 예를 들어, Cassini Gigabit Ethernet 어댑터의 인스턴스 2 이름은 ce2가 됩니다. scinstall 유틸리티에서 어댑터가 공유 VLAN의 일부인지 묻는 경우 yes로 대답하고 어댑터의 VID 번호를 지정합니다.
해당 VLAN 가상 장치 이름으로 어댑터를 지정합니다. 이 이름은 어댑터 이름과 VLAN 인스턴스 번호로 구성됩니다. VLAN 인스턴스 번호는 수식(1000*V)+N에서 파생되는데, 여기서 V는 VID 번호이고 N은 PPA입니다.
예를 들어, 어댑터 ce2에 있는 VID 73의 경우 VLAN 인스턴스 번호는 (1000*73)+2로 계산됩니다. 따라서 어댑터 이름을 ce73002로 지정하여 공유 VLAN의 일부임을 나타냅니다.
VLAN에 대한 자세한 내용은 Solaris 9 9/04 Sun Hardware Platform Guide의 Configuring VLANs을 참조하십시오.
SBus SCI 어댑터 – SBus SCI(Scalable Coherent Interface)는 클러스터 상호 연결로 지원되지 않습니다. 하지만 SCI–PCI 인터페이스는 지원됩니다.
논리 네트워크 인터페이스 - 논리 네트워크 인터페이스는 나중에 Sun Cluster 소프트웨어에서 사용하도록 예약되었습니다.
특정 전송 어댑터에 대한 자세한 내용은 설명서 페이지의 scconf_trans_adap_*(1M) 패밀리를 참조하십시오.
네트워크 스위치와 같은 전송 연결 장치를 사용할 경우, 각 상호 연결을 위한 전송 연결 장치 이름을 지정합니다. 기본 이름 switchN,을 사용할 수도 있고 다른 이름을 만들 수도 있습니다. 여기서 N은 구성할 때 자동으로 할당되는 번호입니다. 예외 항목인 Sun Fire Link 어댑터에서는 연결 장치 이름 sw-rsm N이 필요합니다. scinstall 유틸리티는 Sun Fire Link 어댑터(wrsmN)를 지정한 후에 자동으로 이 연결 장치 이름을 사용합니다.
또한 연결 장치 포트 이름을 지정하거나 기본 이름을 승인하십시오. 기본 포트 이름은 케이블 끝에 있는 어댑터를 호스트하는 내부 노드 ID 번호와 동일합니다. 그러나 SCI-PCI와 같은 특정 어댑터 유형에 대해서는 기본 포트 이름을 사용할 수 없습니다.
노드가 세 개 이상인 클러스터에서는 전송 연결 장치를 반드시 사용해야 합니다. 클러스터 노드 사이의 직접 연결은 2 노드 클러스터에서만 사용할 수 있습니다.
2 노드 클러스터가 직접 연결된 경우에도 상호 연결을 위한 전송 연결 장치를 지정할 수 있습니다.
전송 연결 장치를 지정하면 나중에 쉽게 다른 노드를 클러스터에 추가할 수 있습니다.
Sun Cluster 구성에서는 쿼럼 장치를 사용하여 데이터 및 자원 무결성을 유지 관리합니다. 클러스터와 노드 사이의 연결이 일시적으로 중단되어 클러스터 노드가 클러스터에 다시 연결하려고 시도할 때 쿼럼 장치가 정보 유실이나 정보 분리 문제를 방지합니다. 2-노드 클러스터의 Sun Cluster 설치 중에 scinstall 유틸리티는 쿼럼 장치를 자동으로 구성합니다.쿼럼 장치는 사용 가능한 공유 저장 디스크 중에서 선택됩니다.scinstall 유틸리티에서는 사용 가능한 모든 공유 저장 디스크가 쿼럼 장치로 지원됨을 가정합니다.설치 후에 추가 쿼럼 장치를 구성할 수도 있습니다. scsetup(1M) 유틸리티를 사용하면 됩니다.
단일 노드 클러스터에는 쿼럼 장치를 구성할 필요가 없습니다.
클러스터 구성에 쿼럼 장치로 사용할 수 없는 타사 공유 저장 장치가 포함되어 있으면 scsetup 유틸리티를 사용하여 쿼럼을 수동으로 구성해야 합니다.
쿼럼 장치를 계획할 때는 다음 사항을 참고하십시오.
최소 – 2-노드 클러스터는 공유 디스크 또는 네트워크 주변 장치 NAS 장치가 될 수 있는 쿼럼 장치를 하나 이상 포함해야 합니다. 다른 토폴로지에서는 쿼럼 장치가 선택 사항입니다.
홀수 규칙 – 둘 이상의 쿼럼 장치가 2-노드 클러스터에 구성되거나 쿼럼 장치에 직접 연결된 노드 쌍에 구성되는 경우 쿼럼 장치를 홀수로 구성합니다. 이 구성을 사용하면 각 쿼럼 장치가 완전히 독립된 실패 경로를 가집니다.
연결 – 쿼럼 장치를 두 개 이상의 노드에 연결해야 합니다.
쿼럼 장치에 대한 자세한 내용은 Solaris OS용 Sun Cluster 개념 안내서의 쿼럼 및 쿼럼 장치 및 Solaris OS용 Sun Cluster 개요의 쿼럼 장치를 참조하십시오.
이 절에서는 전역 장치 계획 및 클러스터 파일 시스템 계획을 위한 지침을 제공합니다.
전역 장치 및 클러스터 파일 시스템에 대한 자세한 내용은 Solaris OS용 Sun Cluster 개요 및 Solaris OS용 Sun Cluster 개념 안내서를 참조하십시오.
Sun Cluster 소프트웨어에는 특정 디스크 레이아웃이나 파일 시스템 크기가 지정되어 있지 않습니다. 전역 장치 및 클러스터 파일 시스템에 대한 레이아웃을 계획할 경우 다음 내용을 참조하십시오.
미러링 –전역 장치의 가용성을 높이려면 모든 전역 장치를 미러해야 합니다. 저장 장치에서 디스크에 대한 중복 경로뿐 아니라 하드웨어 RAID를 제공하면 소프트웨어 미러링을 사용하지 않아도 됩니다.
디스크 –미러할 때에는 파일 시스템이 서로 다른 디스크 배열 간에 미러되도록 레이아웃합니다.
가용성 –전역 장치의 가용성을 높이려면 클러스터에 있는 두 개 이상의 노드에 물리적으로 전역 장치를 연결해야 합니다. 전역 장치가 물리적으로 많이 연결되면 하나의 노드에서 장애가 발생해도 계속 작동할 수 있습니다. 물리적 연결이 하나밖에 없는 전역 장치를 사용할 수도 있지만, 연결된 노드가 중단되면 다른 노드에서 전역 장치에 액세스할 수 없습니다.
스왑 장치 - 전역 장치에는 스왑 파일을 만들지 마십시오.
클러스터 파일 시스템을 계획할 때는 다음 사항을 참고하십시오.
LOFS(loopback file system) - 다음 목록의 두 조건이 모두 충족될 경우 LOFS(loopback file system)를 사용하지 마십시오.
Sun Cluster HA for NFS는 가용성 높은 로컬 파일 시스템에서 구성됩니다.
automountd 데몬이 실행 중입니다.
두 조건이 모두 충족될 경우, 스위치오버 문제나 다른 오류의 발생을 방지하기 위해 LOFS를 비활성화해야 합니다. 조건 중 하나만 충족될 경우에는 LOFS를 활성화해도 안전합니다.
LOFS 및 automountd 데몬을 모두 활성화해야 하는 경우, Sun Cluster HA for NFS에서 내보낸 가용성 높은 로컬 파일 시스템에 포함된 모든 파일을 automounter 맵에서 제외시킵니다.
프로세스 계정 로그 파일 - 클러스터 파일 시스템 또는 가용성 높은 로컬 파일 시스템에서 프로세스 계정 로그 파일을 찾을 수 없습니다. 로그 파일에 대한 쓰기 작업으로 인해 스위치오버가 차단되며, 이로 인해 노드가 행됩니다. 프로세스 계정 로그 파일을 포함하려면 로컬 파일 시스템만 사용합니다.
통신 종단점 - 클러스터 파일 시스템은 파일 시스템 이름 공간에 통신 종단점을 위치시키는 Solalris 소프트웨어 파일 시스템 기능을 지원하지 않습니다.
이름이 경로 이름인 UNIX 도메인 소켓을 클러스터 파일 시스템에 만들 수 있지만 노드 페일오버 후에는 소켓이 작동하지 않습니다.
클러스터 파일 시스템에 만드는 FIFO 또는 이름이 지정된 파이프에는 전역으로 액세스할 수 없습니다.
따라서 로컬 노드가 아닌 노드에서 fattach 명령을 사용하지 마십시오.
디스크 장치 그룹 구성 워크시트에 이 계획 정보를 추가합니다.
모든 볼륨 관리자 디스크 그룹을 Sun Cluster 디스크 장치 그룹으로 구성해야 합니다. 이 구성을 사용하면 기본 노드에 장애가 발생할 경우 보조 노드가 멀티 호스트 디스크를 호스트할 수 있습니다. 디스크 장치 그룹을 계획할 때는 다음 사항을 참고하십시오.
페일오버 – 멀티 호스트 디스크와 완전하게 구성된 볼륨 관리자 장치를 페일오버 장치로 구성할 수 있습니다. 볼륨 관리자 장치의 적절한 구성에는 멀티 호스트 디스크와 올바른 볼륨 관리자 설정이 포함됩니다. 이 구성을 사용하면 다중 노드가 내보낸 장치를 호스트할 수 있습니다. 테이프 드라이브, CD-ROM 또는 단일 포트 장치는 페일오버 장치로 구성할 수 없습니다.
미러링 – 디스크 장애가 발생할 경우 데이터를 보호하려면 디스크를 미러해야 합니다. See 미러링 방법 for additional guidelines. 미러링에 대한 지침은 Solstice DiskSuite 또는 Solaris 볼륨 관리자 소프트웨어 설치 및 구성 또는 SPARC: VxVM 소프트웨어 설치 및 구성 및 볼륨 관리자 설명서를 참조하십시오.
디스크 장치 그룹에 대한 자세한 내용은 Solaris OS용 Sun Cluster 개요의 장치 및 Solaris OS용 Sun Cluster 개념 안내서를 참조하십시오.
클러스터 파일 시스템에 대한 마운트 지점을 계획할 때는 다음 사항을 참고하십시오.
마운트 지점 위치 – 다른 소프트웨어 제품에서 금지하지 않는 한 /global 디렉토리에서 클러스터 파일 시스템의 마운트 지점을 만듭니다. /global 디렉토리를 사용하면 전역으로 사용할 수 있는 클러스터 파일 시스템을 로컬 파일 시스템과 쉽게 구별할 수 있습니다.
SPARC: VxFS 마운트 요구 사항 – VERITAS File System (VxFS)을 사용할 경우, 기본 노드에서 VxFS 파일 시스템을 전역으로 마운트하고 마운트 해제합니다. 기본 노드는 VxFS 파일 시스템이 존재하는 디스크의 마스터 노드입니다. 이 방법을 사용하면 마운트 또는 마운트 해제 작업이 성공적으로 수행됩니다. 보조 노드에서 VxFS 파일 시스템을 마운트하거나 마운트 해제하면 제대로 작동하지 않을 수 있습니다.
다음 VxFS 기능은 Sun Cluster 3.1 클러스터 파일 시스템에서 지원되지 않습니다. 그러나 로컬 파일 시스템에서는 지원됩니다.
고속 I/O
스냅샷
저장소 체크포인트
VxFS별 마운트 옵션:
convosync (Convert O_SYNC)
mincache
qlog, delaylog, tmplog
VERITAS 클러스터 파일 시스템(VxVM 클러스터 기능 및 VERITAS Cluster Server 필요)
캐시 보고(이 기능은 사용할 수는 있지만 적용 결과는 지정된 노드에서만 볼 수 있습니다.)
그 밖에 클러스터 파일 시스템에서 지원되는 모든 VxFS 기능 및 옵션은 Sun Cluster 3.1 소프트웨어에서 지원됩니다. 클러스터 구성에서 지원되는 VxFS 옵션에 대한 자세한 내용은 VxFS 설명서를 참조하십시오.
마운트 지점 중첩 – 일반적으로 클러스터 파일 시스템에서 마운트 지점을 중첩할 수 없습니다. 예를 들어, /global/a에 마운트되는 파일 시스템과 /global/a/b에 마운트되는 파일 시스템을 함께 설정하지 마십시오. 이 규칙을 무시하면 가용성 및 노드 부트 순서 문제가 발생할 수 있습니다. 이러한 문제는 하위 파일 시스템을 마운트할 때 상위 마운트 지점이 없는 경우에 발생합니다. 두 파일 시스템에 대한 장치가 동일한 물리 노드 연결성을 가질 경우는 예외입니다. 예를 들어, 동일한 디스크에 서로 다른 슬라이스가 있을 수 있습니다.
forcedirectio - Sun Cluster 소프트웨어는 forcedirectio 마운트 옵션을 사용하여 마운트되는 클러스터 파일 시스템에서 이진 실행을 지원하지 않습니다.
디스크 장치 그룹 구성 워크시트 및 볼륨 관리자 구성 워크시트에 이 계획 정보를 추가합니다. Solstice DiskSuite 또는 Solaris 볼륨 관리자의 경우, 메타 장치 워크시트(Solstice DiskSuite 또는 Solaris 볼륨 관리자)에도 이 계획 정보를 추가합니다.
이 절에서는 클러스터 구성의 볼륨 관리 계획을 위한 지침을 제공합니다.
Sun Cluster 소프트웨어는 디스크를 하나의 장치로 관리할 수 있도록 볼륨 관리자 소프트웨어를 사용하여 디스크를 디스크 장치 그룹으로 그룹화합니다. Sun Cluster 소프트웨어는 다음과 같은 방법으로 설치하거나 사용하는 Solstice DiskSuite 또는 Solaris 볼륨 관리자 소프트웨어 및 VxVM(VERITAS Volume Manager) 소프트웨어를 지원합니다.
표 1–4 Sun Cluster 소프트웨어에서 지원되는 볼륨 관리자 사용
볼륨 관리자 소프트웨어 |
요구 사항 |
---|---|
Solstice DiskSuite 또는 Solaris 볼륨 관리자 |
일부 노드에서만 VxVM을 사용하여 디스크를 관리하더라도 모든 클러스터 노드에 Solstice DiskSuite 또는 Solaris 볼륨 관리자 소프트웨어를 설치해야 합니다. |
클러스터의 모든 노드에 클러스터 기능이 있는 VxVM을 설치하고 사용권을 받아야 합니다. |
|
SPARC: 클러스터 기능이 없는 VxVM |
VxVM에서 관리하는 저장 장치에 연결되는 노드에만 VxVM을 설치하고 사용권을 부여합니다. |
SPARC: Solstice DiskSuite 또는 Solaris 볼륨 관리자 및 VxVM 모두 |
두 볼륨 관리자를 동일한 노드에 모두 설치하는 경우 Solstice DiskSuite 또는 Solaris 볼륨 관리자 소프트웨어를 사용하여 각 노드의 로컬 디스크를 관리해야 합니다. 로컬 디스크에는 루트 디스크가 포함됩니다. VxVM을 사용하여 모든 공유 디스크를 관리합니다. |
볼륨 관리자 소프트웨어 설치 및 구성 방법에 대한 지침은 볼륨 관리자 설명서, Solstice DiskSuite 또는 Solaris 볼륨 관리자 소프트웨어 설치 및 구성 또는 SPARC: VxVM 소프트웨어 설치 및 구성을 참조하십시오. 클러스터 구성에서 볼륨을 관리하는 방법은 Solaris OS용 Sun Cluster 개념 안내서를 참조하십시오.
볼륨 관리자 소프트웨어를 사용하여 디스크를 구성할 경우 다음 일반 지침을 참조하십시오.
미러된 멀티 호스트 디스크 – 모든 멀티 호스트 디스크를 디스크 확장 장치에 미러해야 합니다. 멀티 호스트 디스크 미러링에 대한 지침은 멀티 호스트 디스크 미러링 지침을 참조하십시오. 저장 장치에서 장치에 대한 중복 경로뿐 아니라 하드웨어 RAID를 제공하면 소프트웨어 미러링을 사용하지 않아도 됩니다.
미러된 루트 – 루트 디스크를 미러하면 가용성이 높아지지만 이러한 미러링은 필수 사항이 아닙니다. 루트 디스크를 미러링할지 결정하는 지침은 미러링 방법을 참조하십시오.
고유 이름 지정 – /global/.devices/node@nodeid 파일 시스템이 마운트되는 장치로 로컬 Solstice DiskSuite 메타 장치, 로컬 Solaris 볼륨 관리자 볼륨 또는 VxVM 볼륨을 사용할 수 있습니다. 이 경우, /global/.devices/node@nodeid 파일 시스템이 마운트될 로컬 메타 장치 또는 로컬 볼륨 각각의 이름은 클러스터 전체에 걸쳐 고유해야 합니다.
노드 목록 –디스크 장치 그룹의 가용성을 높이려면 마스터가 될 수 있는 노드 목록 및 페일백 정책을 연결된 자원 그룹과 동일하게 지정하십시오. 또는 확장 가능한 자원 그룹에서 연결된 디스크 장치 그룹보다 많은 노드를 사용할 경우에는 확장 가능한 자원 그룹의 노드 목록을 디스크 장치 그룹의 노드 목록보다 상위 세트로 만드십시오. 노드 목록에 대한 자세한 내용은 Sun Cluster Data Services Planning and Administration Guide for Solaris OS의 자원 그룹 계획 정보를 참조하십시오.
멀티 호스트 디스크 – 장치 그룹 구성에 사용하는 모든 장치를 해당 장치 그룹의 노드 목록에 구성된 모든 노드로 연결하거나 포팅해야 합니다. Solstice DiskSuite 또는 Solaris 볼륨 관리자 소프트웨어는 장치가 디스크 세트에 추가될 때 이 연결을 자동으로 검사할 수 있습니다. 그러나 구성된 VxVM 디스크 그룹이 특정 노드 세트에 연결되지는 않습니다.
디스크 레이아웃 권장 사항과 추가 제한에 대한 내용은 볼륨 관리자 설명서를 참조하십시오.
Solstice DiskSuite 또는 Solaris 볼륨 관리자 구성을 계획할 때는 다음 사항을 참고하십시오.
로컬 메타 장치 이름 또는 볼륨 이름 – 전역–장치 파일 시스템인 /global/.devices/node@nodeid가 마운트될 각 로컬 Solstice DiskSuite 메타 장치 또는 Solaris 볼륨 관리자 볼륨의 이름은 클러스터 전체에 걸쳐 고유해야 합니다. 또한 장치 ID 이름과 동일할 수 없습니다.
이중 문자열 mediator – 정확히 2개의 디스크 문자열로 구성되고 2개의 노드에서 마스터되는 각 디스크 세트에는 디스크 세트용으로 구성된 Solstice DiskSuite 또는 Solaris 볼륨 관리자 mediator가 있어야 합니다. 디스크 문자열은 디스크 인클로저, 포함된 물리적 디스크, 인클로저와 노드 사이의 케이블, 인터페이스 어댑터 카드 등으로 구성됩니다. 이중 문자열 mediator 구성 규칙은 다음과 같습니다.
각 디스크 세트가 mediator 호스트 역할을 하는 두 개의 노드를 가지도록 구성해야 합니다.
mediator가 필요한 모든 디스크 세트에 동일한 두 노드를 사용해야 합니다. 이 두 노드는 해당 디스크 세트의 마스터라야 합니다.
2 문자열 및 2 호스트 요구 사항을 충족시키지 않는 디스크 세트에는 mediator를 구성할 수 없습니다.
자세한 내용은 mediator(7D) 설명서 페이지를 참조하십시오.
/kernel/drv/md.conf 설정 – 각 디스크 세트에서 사용하는 모든 Solstice DiskSuite 메타 장치 또는 Solaris 9 Solaris 볼륨 관리자 볼륨은 재구성 후 부트할 때 미리 만들어집니다. 이 재구성은 /kernel/drv/md.conf 파일에 있는 구성 매개 변수를 기반으로 합니다.
Solaris 10 릴리스에서는 Solaris 볼륨 관리자가 동적으로 볼륨을 구성할 수 있도록 향상되었습니다. 더 이상 /kernel/drv/md.conf 파일에서 nmd 및 md_nsets 매개 변수를 편집할 필요가 없습니다. 새 볼륨은 필요에 따라 동적으로 생성됩니다.
Solaris 8 또는 Solaris 9 OS에서 Sun Cluster 구성을 지원하려면 아래와 같이 nmd 및 md_nsets 필드를 수정해야 합니다.
각 노드에서 제공하는 디스크 세트 수와 관계 없이 모든 클러스터 노드에는 동일한 /kernel/drv/md.conf 파일이 있습니다. 이 설명을 따르지 않으면 심각한 Solstice DiskSuite 또는 Solaris 볼륨 관리자 오류가 발생하여 데이터를 잃을 수 있습니다.
md_nsets – md_nsets 필드에서는 클러스터 전체 요구 사항을 충족시키기 위해 시스템에서 만들 수 있는 총 디스크 세트 수를 정의합니다. md_nsets 값을 클러스터의 예상 디스크 세트 수에 추가 디스크 세트 수 1을 더한 값으로 설정하십시오. Solstice DiskSuite 또는 Solaris 볼륨 관리자 소프트웨어는 추가 디스크 세트를 사용하여 로컬 호스트의 개인 디스크를 관리합니다.
클러스터 당 허용되는 최대 디스크 세트는 32개입니다. 이것은 일반 사용에 허용되는 디스크 세트 31개에 개인 디스크 관리를 위한 디스크 세트 1개를 더한 값입니다. md_nsets의 기본값은 4입니다.
nmd – nmd 필드는 클러스터에 존재하는 메타 장치 또는 볼륨 이름에서 예상되는 가장 높은 값을 정의합니다. 예를 들어, 한 클러스터의 처음 15개 디스크 세트에서 사용되는 메타 장치 또는 볼륨 이름의 가장 높은 값이 1000이면 nmd의 값을 1000 이상으로 설정합니다. 또한 nmd의 값은 각 장치–ID 이름에 충분한 숫자가 들어갈 만큼 커야 합니다. 또한 번호가 충분히 커야 각 로컬 메타 장치 이름 또는 로컬 볼륨 이름이 클러스터 전체에서 고유할 수 있습니다.
디스크 세트 당 메타 장치 또는 볼륨 이름에 허용되는 가장 높은 값은 8192입니다. nmd의 기본값은 128입니다.
설치할 때 예상되는 클러스터 확장을 모두 수용할 수 있도록 이 필드를 설정하십시오. 클러스터를 만든 후에 이 필드의 값을 높이려면 시간이 많이 걸립니다. 값을 변경하면 각 노드를 재부트해야 합니다. 이 값을 나중에 증가시키면 요청된 장치를 모두 만들기 위하여 루트(/) 파일 시스템에 잘못된 공간을 할당할 수도 있습니다.
또한, nmd 필드 및 md_nsets 필드의 값을 가능한 최소값으로 유지하십시오. nmd 및 md_nsets에 의해 결정되는 가능한 모든 장치를 위한 메모리 구조가 해당 장치를 만들지 않은 경우에도 존재합니다. 최적의 성능을 얻으려면 nmd 및 md_nsets의 값을 사용할 메타 장치나 볼륨의 수보다 조금만 높게 유지하십시오.
md.conf 파일에 대한 자세한 내용은 Solstice DiskSuite 4.2.1 Reference Guide의 System and Startup Files(Solaris 8) 또는 Solaris Volume Manager Administration Guide의 System Files and Startup Files(Solaris 9 또는 Solaris 10)을 참조하십시오.
VERITAS Volume Manager(VxVM) 구성을 계획할 때는 다음 사항을 고려하십시오.
격납장치 기반의 이름 지정 – 격납장치 기반의 장치 이름 지정을 사용할 경우, 동일한 저장소를 공유하는 모든 클러스터 노드에서 일관성 있는 장치 이름을 사용해야 합니다. VxVM은 이 이름을 조정하지 않기 때문에 VxVM이 다른 노드에서 동일한 장치에 대하여 동일한 이름을 할당하도록 관리자가 조정해야 합니다. 일관성 있는 이름을 할당하지 못하더라도 올바른 클러스터 동작을 방해하지는 않습니다. 그러나 일관성이 없는 이름을 사용하면 클러스터 관리를 복잡하게 만들어 구성 오류가 발생할 확률이 증가되어 데이터 손실이 발생할 수 있습니다.
루트 디스크 그룹 – VxVM 4.0부터 루트 디스크 그룹 생성은 선택 사항입니다.
루트 디스크 그룹은 다음과 같은 디스크에 만들 수 있습니다.
캡슐화되어야 하는 루트 디스크
캡슐화되거나 초기화될 수 있고 루트가 아닌 하나 이상의 로컬 디스크
루트 디스크와 루트가 아닌 로컬 디스크의 조합
루트 디스크 그룹은 노드에 로컬이어야 합니다.
단순 루트 디스크 그룹 – 단순 루트 디스크 그룹(루트 디스크의 단일 슬라이스에 생성된 rootdg)은 Sun Cluster 소프트웨어에서 VxVM의 디스크 유형으로 지원되지 않습니다. 이 제한 사항은 일반적인 VxVM 소프트웨어 제한 사항입니다.
볼륨 수 – 디스크 장치 그룹을 만들 때 디스크 장치 그룹이 사용할 최대 볼륨 수를 계산합니다.
볼륨 수가 1000보다 작으면 기본 설정된 부 번호를 사용할 수 있습니다.
볼륨 수가 1000 이상이면 디스크 장치 그룹 볼륨에 부 번호를 지정하는 방법을 계획해야 합니다. 두 개의 디스크 장치 그룹에 중복된 부 번호를 할당하면 안됩니다.
DRL(Dirty Region Logging) – DRL(Dirty Region Logging)을 사용하면 노드에 오류가 발생한 후 복구 시간이 단축됩니다. DRL을 사용하면 I/O 처리량이 감소할 수 있습니다.
DMP(Dynamic Multipathing) – 공유 저장소에서 노드당 여러 개의 I/O 경로를 관리하는 데 DMP만 사용하는 것은 지원되지 않습니다. DMP 사용은 다음 구성에서만 지원됩니다.
클러스터의 공유 저장소에 대한 노드별 단일 I/O 경로
Sun Traffic Manager, EMC PowerPath, Hiatchi HDLM 등과 같이 공유 클러스터 저장소에 대한 노드별 다중 I/O 경로를 관리하는 지원되는 다중 경로 지정 솔루션.
자세한 내용은 VxVM 설치 설명서를 참조하십시오.
로깅은 UFS 및 VxFS 클러스터 파일 시스템에서 필수 사항입니다. 이 요구 사항은 QFS 공유 파일 시스템에는 적용되지 않습니다. Sun Cluster 소프트웨어는 다음과 같은 파일 시스템 로깅 선택 항목을 지원합니다.
Solaris UFS logging – 자세한 내용은 mount_ufs(1M) 설명서 페이지를 참조하십시오.
Solstice DiskSuite trans-metadevice logging 또는 Solaris 볼륨 관리자 transactional-volume logging – 자세한 내용은 Solstice DiskSuite 4.2.1 User’s Guide의 2 장, Creating DiskSuite Objects 또는 Solaris Volume Manager Administration Guide의 Transactional Volumes(Overview)을 참조하십시오. Solaris 10 릴리스의 Solaris 볼륨 관리자에서 트랜잭션 볼륨은 더 이상 유효하지 않습니다.
SPARC: VERITAS File System (VxFS) 로깅 – 자세한 내용은 VxFS 소프트웨어와 함께 제공된 mount_vxfs 설명서 페이지를 참조하십시오.
다음 표는 각 볼륨 관리자에서 지원하는 파일 시스템 로깅 목록입니다.
표 1–5 지원되는 파일 시스템 로깅 도표
UFS 클러스터 파일 시스템에 Solaris UFS logging 및 Solstice DiskSuite trans-metadevice logging 또는 Solaris 볼륨 관리자 transactional-volume logging을 선택할 때에는 다음 사항을 고려하십시오.
Solaris 볼륨 관리자 transactional-volume logging(이전의 Solstice DiskSuite trans-metadevice logging)은 앞으로 발표될 Solaris 릴리스부터는 Solaris OS에서 제거될 예정입니다. Solaris UFS logging은 시스템 관리 요구 사항과 오버헤드는 줄이면서 기능은 동일하지만 보다 우수한 성능을 제공합니다.
Solaris UFS 로그 크기 – Solaris UFS logging에서는 항상 파일 시스템의 크기에 따라 UFS 파일 시스템의 사용 가능한 공간을 사용하여 로그를 할당합니다.
1GB 미만의 시스템에서는 로그가 1MB를 차지합니다.
1GB 이상의 파일 시스템에서는 로그가 파일 시스템에서 GB당 1MB를 차지하고, 최대 64MB까지 할당할 수 있습니다.
로그 메타 장치/트랜잭션 볼륨 – Solstice DiskSuite 트랜스 메타 장치 또는 Solaris 볼륨 관리자 트랜잭션 볼륨이 UFS 로깅을 관리합니다. 트랜스 메타 장치나 트랜잭션 볼륨의 로깅 장치 구성 요소는 미러하고 스트라이핑할 수 있는 메타 장치나 볼륨입니다. 로그 크기는 대부분의 파일 시스템에서 64MB면 충분하지만 최대 1GB까지 만들 수 있습니다. 최소 로그 크기는 1MB입니다.
이 절에서는 클러스터 구성 미러링 계획을 위한 다음과 같은 지침을 제공합니다.
Sun Cluster 구성에서 모든 멀티 호스트 디스크를 미러하면 단일 장치에 장애가 발생해도 문제가 되지 않습니다. Sun Cluster 소프트웨어를 사용하려면 확장 장치 사이에서 모든 멀티 호스트 디스크를 미러해야 합니다. 저장 장치에서 장치에 대한 중복 경로뿐 아니라 하드웨어 RAID를 제공하면 소프트웨어 미러링을 사용하지 않아도 됩니다.
멀티 호스트 디스크를 미러링할 때에는 다음 사항을 고려하십시오.
별도 디스크 확장 장치 –지정된 미러의 각 하위 미러 또는 플렉스가 서로 다른 멀티 호스트 확장 장치에 있어야 합니다.
디스크 공간 – 미러하려면 두 배의 디스크 공간이 필요합니다.
3중 미러링 – Solstice DiskSuite 또는 Solaris 볼륨 관리자 소프트웨어와 VERITAS Volume Manager(VxVM) 소프트웨어는 3중 미러링을 지원합니다. 그러나 Sun Cluster 소프트웨어에서는 양방향 미러링만 사용해야 합니다.
디스크 크기 차이 – 크기가 다른 디스크로 미러링하려면 가장 작은 하위 미러 또는 플렉스의 크기로 미러 용량이 제한됩니다.
멀티 호스트 디스크에 대한 자세한 내용은 Solaris OS용 Sun Cluster 개요의 멀티 호스트 디스크 저장 장치 및 Solaris OS용 Sun Cluster 개념 안내서를 참조하십시오.
로컬 파일 시스템 레이아웃 워크시트에 이 계획 정보를 추가합니다.
가용성을 최대로 높이려면 루트(/), /usr, /var, /opt 및 swap을 로컬 디스크에 미러하십시오. VxVM에서는 루트 디스크를 캡슐화하고 생성된 하위 디스크를 미러합니다. 그러나 Sun Cluster 소프트웨어를 사용할 경우에는 루트 디스크를 미러하지 않아도 됩니다.
루트 디스크를 미러할 것인지 결정하기 전에 위험성, 복잡성, 비용 및 서비스 시간을 고려하여 루트 디스크에 대한 여러 가지 대안을 찾아 보십시오. 한 가지 미러링 전략이 모든 구성에 적합하지는 않습니다. 루트를 미러할 것인지 결정할 때는 각 지역의 Sun 서비스 담당자가 권장하는 방법을 사용하는 것이 좋습니다.
루트 디스크 미러링 방법에 대한 지침은 Solstice DiskSuite 또는 Solaris 볼륨 관리자 소프트웨어 설치 및 구성 또는 SPARC: VxVM 소프트웨어 설치 및 구성을 참조하십시오.
루트 디스크를 미러할 것인지 결정할 때는 다음 사항을 참고하십시오.
부트 디스크 – 미러를 부트 가능한 루트 디스크로 설정할 수 있습니다. 그런 다음 기본 부트 디스크가 실패할 경우 미러에서 부트할 수 있습니다.
복잡성 – 루트 디스크를 미러하면 시스템 관리가 더 복잡해 집니다. 또한 단일 사용자 모드에서의 부트가 복잡해 집니다.
백업 – 루트 디스크의 미러링 여부에 관계없이 정기적으로 루트를 백업해야 합니다. 관리 오류가 발생할 경우에 미러링만으로는 보호할 수 없습니다. 백업 계획을 세워야만 사고로 변경되거나 삭제된 파일을 복구할 수 있습니다.
쿼럼 – Solstice DiskSuite 또는 Solaris 볼륨 관리자 소프트웨어에서는 상태 데이터베이스 쿼럼이 없으면 유지 보수 작업을 수행할 때까지 시스템을 재부트할 수 없습니다. 상태 데이터베이스 및 상태 데이터베이스 복제본에 대한 자세한 내용은 Solstice DiskSuite 또는 Solaris 볼륨 관리자 설명서를 참조하십시오.
별도 컨트롤러 – 가용성을 최대로 높이는 방법으로 별도 컨트롤러에 루트 디스크를 미러하는 방법이 있습니다.
보조 루트 디스크 – 미러된 루트 디스크를 사용하면 기본 루트 디스크가 실패해도 보조(미러) 루트 디스크에서 작업을 계속할 수 있습니다. 예를 들어, 전원 주기 또는 일시적인 I/O 오류 후에 나중에 기본 루트 디스크로 다시 서비스할 수 있습니다. 그런 다음에는 eeprom(1M) boot-device 매개 변수에서 지정된 기본 루트 디스크를 사용하여 부팅이 수행됩니다. 이러한 경우에는 직접 복구하지 않아도 부트할 수 있도록 드라이브가 정상적으로 작동합니다. Solstice DiskSuite 또는 Solaris 볼륨 관리자 소프트웨어를 사용하면 재동기화가 발생합니다. 재동기화를 위해서는 드라이브가 다시 작동할 때 수동 단계가 필요합니다.
보조(미러) 루트 디스크에서 파일을 변경하면 부트 시에 기본 루트 디스크에 반영되지 않습니다. 이러한 경우는 오래된 하위 미러에서 발생할 수 있습니다. 예를 들어, /etc/system 파일에 대한 변경 사항은 삭제됩니다. Solstice DiskSuite 또는 Solaris 볼륨 관리자 소프트웨어를 사용하면 기본 루트 디스크가 작동하지 않는 동안 일부 관리 명령으로 /etc/system 파일이 변경될 수 있습니다.
부트 프로그램은 시스템이 미러에서 부트되는지 기본 물리 장치에서 부트되는지를 검사하지 않습니다. 미러링은 메타 장치 또는 볼륨이 로드된 후 부트 프로세스를 통해 활성화됩니다. 그러므로 이 시점 이전에 시스템의 오래된 하위 미러 문제가 발생할 수 있습니다.