이 장에서는 Sun Cluster 구성을 설치하기 위한 계획 정보와 지침을 설명합니다.
이 장에서 설명하는 개요 정보는 다음과 같습니다.
다음 표에서는 Sun Cluster 소프트웨어 설치를 위한 다양한 설치 작업에 대한 지침이 있는 위치와 작업 순서를 보여줍니다.
표 1–1 Sun Cluster 소프트웨어 설치 작업 정보
작업 |
지침 |
---|---|
클러스터 하드웨어 설치 |
|
클러스터 소프트웨어 설치 계획 | |
새 클러스터 설치 및 기존 클러스터에 노드 추가Sun StorEdge QFS 소프트웨어 설치 및 구성 옵션 |
Sun StorEdge QFS and Sun StorEdge SAM-FS Software Installation and Configuration Guide |
Solstice DiskSuiteTM 또는 Solaris 볼륨 관리자 소프트웨어 설치 및 구성 |
|
SPARC: VERITAS Volume Manager(VxVM) 소프트웨어 설치 및 구성 |
|
클러스터 프레임워크 소프트웨어 구성 및 선택적으로 Sun Cluster 모듈을 Sun Management Center(SPARC 기반 시스템에서만 사용 가능)에 설치 및 구성 | |
자원 그룹과 데이터 서비스 계획, 설치 및 구성 |
Sun Cluster Data Service Planning and Administration Guide for Solaris OS |
사용자 정의 데이터 서비스 개발 | |
Sun Cluster 3.1 9/04 소프트웨어 업그레이드 |
이 절에서는 클러스터 구성에 Solaris 소프트웨어를 설치하기 위한 계획 방법을 설명합니다. Solaris 소프트웨어에 대한 자세한 내용은 Solaris 설치 설명서를 참조하십시오.
로컬 CD-ROM에서 Solaris 소프트웨어를 설치할 수도 있고 네트워크 설치 서버에서 JumpStartTM 설치 방법을 사용하여 설치할 수도 있습니다. 또한 Sun Cluster 소프트웨어에는 JumpStart 설치 방법을 사용하여 Solaris OS와 Sun Cluster 소프트웨어를 모두 설치하는 사용자 정의 방법이 있습니다. 여러 개의 클러스터 노드를 설치할 경우에는 네트워크 설치를 고려해 보십시오.
scinstall JumpStart 설치 방법에 대한 자세한 내용은 Solaris 및 Sun Cluster 소프트웨어를 설치하는 방법(JumpStart)를 참조하십시오. 표준 Solaris 설치 방법에 대한 자세한 내용은 Solaris 설치 설명서를 참조하십시오.
다음 Solaris OS 기능은 Sun Cluster 구성에서 지원되지 않습니다.
Solaris 인터페이스 그룹은 Sun Cluster 구성에서 지원되지 않습니다. 기본적으로 Solaris 소프트웨어를 설치하는 동안에는 Solaris 인터페이스 그룹 기능을 사용할 수 없습니다. Solaris 인터페이스 그룹을 재활성화하지 마십시오. Solaris 인터페이스 그룹에 대한 자세한 내용은 ifconfig(1M) 설명서 페이지를 참조하십시오.
자동 전원 절약 종료는 Sun Cluster 구성에서 지원되지 않으므로 활성화하지 마십시오. 자세한 내용은 pmconfig(1M) 및 power.conf(4) 설명서 페이지를 참조하십시오.
Sun Cluster 3.1 9/04 소프트웨어를 설치하려면 최종 사용자 Solaris 소프트웨어 그룹 이상이 필요합니다. 그러나 클러스터 구성의 다른 구성 요소에도 Solaris 소프트웨어에 대한 요구 사항이 있을 수 있습니다. 설치할 Solaris 소프트웨어 그룹을 결정하려면 다음 정보를 참고하십시오.
Solaris 소프트웨어에 대한 요구 사항은 서버 설명서를 참조하십시오. 예를 들어, Sun Enterprise 10000 서버에는 전체 Solaris 소프트웨어 그룹과 함께 OEM 지원이 필요합니다.
SPARC 기반 클러스터에서만 사용할 수 있는 SCI-PCI 어댑터 또는 Remote Shared Memory Application Programming Interface(RSMAPI)를 사용하려면 RSMAPI 소프트웨어 패키지(SUNWrsm, SUNWrsmx, SUNWrsmo 및 SUNWrsmox)를 설치해야 합니다. RSMAPI 소프트웨어 패키지는 일부 Solaris 소프트웨어 그룹에만 포함되어 있습니다. 예를 들어, 개발자 Solaris 소프트웨어 그룹에는 RSMAPI 소프트웨어 패키지가 포함되어 있지만 최종 사용자 Solaris 소프트웨어 그룹에는 포함되어 있지 않습니다.
설치할 소프트웨어 그룹에 RSMAPI 소프트웨어 패키지가 포함되어 있지 않으면 Sun Cluster 소프트웨어를 설치하기 전에 RSMAPI 소프트웨어 패키지를 수동으로 설치하십시오. pkgadd(1M) 명령을 사용하여 소프트웨어 패키지를 수동으로 설치하십시오. RSMAPI 사용에 대한 자세한 내용은 Solaris 8 Section(3RSM) 설명서 페이지를 참조하십시오.
최종 사용자 Solaris 소프트웨어 그룹에 포함되지 않은 다른 Solaris 소프트웨어 패키지를 설치해야 할 수 있습니다. Apache HTTP 서버 패키지가 한 예입니다. ORACLE®과 같은 타사 소프트웨어에는 다른 Solaris 소프트웨어 패키지가 추가로 필요할 수도 있습니다. Solaris 소프트웨어 요구 사항은 다른 회사 문서를 참조하십시오.
Solaris 소프트웨어 패키지를 수동으로 설치하지 않으려면 전체 Solaris 소프트웨어 그룹과 OEM 지원을 설치합니다.
이 정보를 해당 로컬 파일 시스템 레이아웃 워크시트에 추가하십시오.
Solaris OS를 설치할 때 필요한 Sun Cluster 분할 영역을 만들고 모든 분할 영역이 최소 공간 요구 사항을 충족시키는지 확인하십시오.
swap – Solaris 및 Sun Cluster 소프트웨어에 할당되는 결합된 swap 공간은 750MB 이상이어야 합니다. 최상의 결과를 얻으려면 Solaris OS에 필요한 크기에 Sun Cluster 소프트웨어용으로 최소한 512MB를 추가하십시오. 또한 클러스터 노드에서 실행할 응용 프로그램에 필요한 추가 swap 공간을 할당하십시오.
추가 swap 파일을 만드는 경우 swap 파일을 전역 장치에 만들지 마십시오. 로컬 디스크만 노드에 대한 swap 장치로 사용하십시오.
/globaldevices – 전역 장치를 위하여 scinstall(1M) 유틸리티에서 사용할 512MB 크기의 파일 시스템을 만드십시오.
볼륨 관리자 – 볼륨 관리자에서 사용하기 위한 20MB의 분할 영역을 디스크 끝부분(슬라이스 7)에 만드십시오. 클러스터에서 VERITAS Volume Manager(VxVM)를 사용하고 루트 디스크를 캡슐화하려는 경우에는 VxVM에서 사용할 수 있도록 사용하지 않은 두 개의 슬라이스가 있어야 합니다.
이러한 요구 사항을 충족시키려면 Solaris OS의 대화식 설치를 수행하는 경우 분할 영역을 사용자 정의해야 합니다.
분할 영역 계획을 위한 자세한 내용은 다음 지침을 참조하십시오.
Solaris OS를 실행하는 다른 시스템에서처럼 루트(/), /var, /usr 및 /opt 디렉토리를 개별 파일 시스템으로 구성할 수 있습니다. 또는 모든 디렉토리를 루트(/) 파일 시스템에 포함할 수도 있습니다. 다음은 Sun Cluster 구성에서 루트(/), /var, /usr 및 /opt 디렉토리에 저장되는 소프트웨어에 대한 설명입니다. 분할 영역 구조를 계획할 때 이 정보를 참고하십시오.
루트(/) – Sun Cluster 소프트웨어 자체는 루트(/) 파일 시스템에서 40MB 미만의 공간을 차지합니다. Solstice DiskSuite 또는 Solaris 볼륨 관리자 소프트웨어에 5MB 미만의 공간이 필요하고 VxVM 소프트웨어에는 15MB 미만의 공간이 필요합니다. 충분한 추가 공간과 inode 용량을 구성하려면 루트(/) 파일 시스템에 일반적으로 할당하는 공간에 100MB 이상을 추가하십시오. 이 공간은 볼륨 관리 소프트웨어에서 사용되는 블록 특수 장치 및 문자 특수 장치를 만들 때 사용됩니다. 특히, 클러스터에 많은 수의 공유 디스크가 있는 경우 이 추가 공간을 할당해야 합니다.
/var – Sun Cluster 소프트웨어를 설치할 때 /var 파일 시스템에서는 무시해도 될 만큼 적은 공간을 차지합니다. 그러나 로그 파일을 기록할 수 있도록 충분한 공간을 따로 설정해야 합니다. 또한 클러스터 노드에서는 일반적으로 독립형 서버에서 기록되는 것보다 많은 메시지가 로그 파일에 기록될 수 있습니다. 따라서 100MB 이상의 공간을 /var 파일 시스템에 할당하는 것이 좋습니다.
/usr – Sun Cluster 소프트웨어는 /usr 파일 시스템에서 25MB 미만의 공간을 차지합니다. Solstice DiskSuite 또는 Solaris 볼륨 관리자 및 VxVM 소프트웨어에는 각각 15MB 미만의 공간이 필요합니다.
/opt – Sun Cluster 프레임워크 소프트웨어는 /opt 파일 시스템에서 2MB 미만의 공간을 사용합니다. 그러나 각 Sun Cluster 데이터 서비스가 1MB부터 5MB 사이의 공간을 사용할 수도 있습니다. Solstice DiskSuite 또는 Solaris 볼륨 관리자 소프트웨어는 /opt 파일 시스템의 공간을 사용하지 않습니다. VxVM 소프트웨어의 패키지와 도구를 모두 설치하면 40MB 이상의 공간을 사용할 수 있습니다.
또한 데이터베이스 및 응용 프로그램 소프트웨어가 대부분 /opt 파일 시스템에 설치됩니다.
SPARC: Sun Management Center 소프트웨어를 사용하여 클러스터를 모니터할 경우에는 Sun Management Center 에이전트 및 Sun Cluster 모듈 패키지를 지원하기 위해 각 노드에 추가로 25MB의 공간이 필요합니다.
Sun Cluster 소프트웨어를 설치하려면 전역 장치를 관리하는 데 사용할 수 있도록 로컬 디스크 중 하나에 특수 파일 시스템을 별도로 설정해야 합니다. 이 파일 시스템은 나중에 클러스터 파일 시스템으로 마운트됩니다. 이 파일 시스템의 이름을 /globaldevices라고 지정하십시오. 이 이름이 scinstall(1M) 명령에서 인식하는 기본 이름입니다.
scinstall 명령은 나중에 /global/.devices/node@nodeid 파일 시스템의 이름을 변경합니다. 여기서 nodeid는 노드가 클러스터 구성원이 될 때 노드에 할당되는 번호를 나타냅니다. 원래의 /globaldevices 마운트 지점이 제거됩니다.
블록 특수 장치와 문자 특수 장치를 모두 만들 경우 /globaldevices 파일 시스템에 충분한 공간과 inode 용량이 있어야 합니다. 이 지침은 클러스터에 많은 수의 디스크가 있는 경우에 특히 중요합니다. 대부분의 클러스터 구성에는 512MB 크기의 파일 시스템으로 충분합니다.
Solstice DiskSuite 또는 Solaris 볼륨 관리자 소프트웨어를 사용할 경우에는 상태 데이터베이스 복제본을 만들 때 사용할 수 있도록 루트 디스크에 별도 슬라이스를 설정해야 합니다. 특히, 로컬 디스크마다 이러한 용도로 사용할 슬라이스를 별도로 설정해야 합니다. 그러나 노드에 로컬 디스크가 하나인 경우에는 Solstice DiskSuite 또는 Solaris 볼륨 관리자 소프트웨어가 제대로 작동하도록 하기 위해 동일한 슬라이스에 세 개의 상태 데이터베이스 복제본을 만들어야 할 수도 있습니다. 자세한 내용은 Solstice DiskSuite 또는 Solaris 볼륨 관리자 설명서를 참조하십시오.
SPARC: VERITAS Volume Manager(VxVM)를 사용하고 루트 디스크를 캡슐화하려는 경우에는 VxVM에서 사용할 수 있도록 사용하지 않은 두 개의 슬라이스가 있어야 합니다. 또한 디스크의 시작 부분이나 끝 부분에 할당되지 않은 사용 가능한 공간이 더 있어야 합니다. 루트 디스크 캡슐화에 대한 자세한 내용은 VxVM 설명서를 참조하십시오.
표 1–2는 물리적 메모리가 750MB 미만인 클러스터 노드에 대한 분할 영역 구조를 보여 줍니다. 이 분할 영역 구조에는 최종 사용자 Solaris 소프트웨어 그룹, Sun Cluster 소프트웨어 및 Sun Cluster HA for NFS 데이터 서비스가 설치됩니다. 디스크의 마지막 슬라이스(슬라이스 7)는 볼륨 관리자에서 사용하도록 작은 공간이 할당됩니다.
이 레이아웃에서는 Solstice DiskSuite 또는 Solaris 볼륨 관리자 소프트웨어 또는 VxVM 소프트웨어 중 하나를 사용할 수 있습니다. Solstice DiskSuite 또는 Solaris 볼륨 관리자 소프트웨어를 사용하는 경우에는 상태 데이터베이스 복제본을 위하여 슬라이스 7을 사용합니다. VxVM을 사용하는 경우에는 나중에 슬라이스 7에 길이 0을 할당하여 공간을 비웁니다. 이 레이아웃에서는 필요한 두 개의 슬라이스 4와 7을 제공하고 디스크 끝에서 빈 공간을 제공합니다.
표 1–2 파일 시스템 할당의 예
슬라이스 |
목차 |
할당(MB) |
설명 |
---|---|---|---|
0 |
/ |
6.75GB |
공간을 슬라이스 1부터 7까지 할당한 후 디스크에 남은 빈 공간. Solaris OS, Sun Cluster 소프트웨어, 데이터 서비스 소프트웨어, 볼륨 관리자 소프트웨어, Sun Management Center 에이전트 및 Sun Cluster 모듈 에이전트 패키지, 루트 파일 시스템, 데이터베이스 및 응용 프로그램 소프트웨어 등에 사용됩니다. |
1 |
swap |
1GB |
Solaris OS용 512MB Sun Cluster 소프트웨어용 512MB |
2 |
오버랩 |
8.43GB |
전체 디스크 |
3 |
/globaldevices |
512MB |
Sun Cluster 소프트웨어가 나중에 이 슬라이스에 다른 마운트 지점을 할당하고 클러스터 파일 시스템으로 마운트합니다. |
4 |
사용하지 않음 |
- |
VxVM에서 루트 디스크를 캡슐화할 때 사용할 수 있는 빈 슬라이스 |
5 |
사용하지 않음 |
- |
- |
6 |
사용하지 않음 |
- |
- |
7 |
볼륨 관리자 |
20MB |
Solstice DiskSuite 또는 Solaris 볼륨 관리자 소프트웨어에서 상태 데이터베이스 복제본을 위해 사용하거나 VxVM에서 슬라이스를 비운 후 설치를 위해 사용 |
이 절에서는 Sun Cluster 소프트웨어 설치 및 구성을 위해 다음 구성 요소를 계획하고 준비하는 지침을 제공합니다.
Sun Cluster 구성 요소에 대한 자세한 내용은 Solaris OS용 Sun Cluster 개요 및 Solaris OS용 Sun Cluster 개념 안내서를 참조하십시오.
소프트웨어를 설치하려면 먼저 필요한 사용권 인증서를 모두 사용할 수 있어야 합니다. Sun Cluster 소프트웨어에는 사용권 인증서가 필요없지만 Sun Cluster 소프트웨어를 통해 설치되는 각 노드는 Sun Cluster 소프트웨어 사용권 계약을 따라야 합니다.
볼륨 관리 소프트웨어 및 응용 프로그램 소프트웨어에 대한 사용권 요구 사항은 해당 제품의 설치 설명서를 참조하십시오.
각 소프트웨어 제품을 설치한 후에 필요한 패치가 있으면 패치도 설치해야 합니다.
현재 필요한 패치에 대한 자세한 내용은 Sun Cluster Release Notes for Solaris OS의 “Patches and Required Firmware Levels”를 참조하거나 Sun 서비스 제공업체에 문의하십시오.
패치 적용에 대한 일반 지침과 절차는 Solaris OS용 Sun Cluster 시스템 관리 안내서의 “Sun Cluster 소프트웨어 및 펌웨어 패치”를 참조하십시오.
클러스터 구성에 따라 여러 가지 Sun Cluster 구성 요소에 많은 IP 주소를 설정해야 합니다. 클러스터 구성에 포함된 각 노드에 동일한 공용 서브넷 세트에 대한 공용 네트워크 연결이 하나 이상 있어야 합니다.
다음 표는 IP 주소를 할당해야 하는 구성 요소 목록입니다. 사용하는 모든 이름 지정 서비스에 이러한 IP 주소를 추가하십시오. 또한 이 IP 주소들을 Solaris 소프트웨어를 설치한 후 각 클러스터 노드의 로컬 /etc/inet/hosts 파일에 추가하십시오.
IP 주소에 대한 자세한 내용은 System Administration Guide, Volume 3 (Solaris 8) 또는 System Administration Guide: IP Services (Solaris 9)를 참조하십시오.
IP Network Multipathing을 지원할 테스트 IP 주소에 대한 자세한 내용은 IP Network Multipathing Administration Guide를 참조하십시오.
구성 요소 |
필요한 IP 주소 수 |
---|---|
서브넷마다 1개 |
|
|
|
클러스터 노드 |
노드마다, 서브넷마다 1개 |
도메인마다 1개 |
|
1 |
|
논리 주소 |
논리 호스트 자원마다, 서브넷마다 1개 |
모든 클러스터 노드에 대하여 콘솔 액세스가 있어야 합니다. 관리 콘솔에 Cluster Control Panel 소프트웨어를 설치할 경우에는 클러스터 노드와 통신을 하기 위해 필요한 콘솔 액세스 장치의 호스트 이름이 있어야 합니다.
관리 콘솔과 클러스터 노드 콘솔 사이의 통신에 단말기 집중 장치를 사용합니다.
Sun Enterprise 10000 서버는 단말기 집중 장치 대신 SSP(System Service Processor)를 사용합니다.
Sun FireTM 서버는 단말기 집중 장치 대신 시스템 컨트롤러를 사용합니다.
콘솔 액세스에 대한 자세한 내용은 Solaris OS용 Sun Cluster 개념 안내서를 참조하십시오.
논리 주소를 사용하는 각 데이터 서비스 자원 그룹에는 논리 주소에 액세스할 수 있는 각 공용 네트워크에 대한 호스트 이름이 지정되어 있어야 합니다.
자세한 내용은 Sun Cluster Data Service Planning and Administration Guide for Solaris OS를 참조하십시오.
데이터 서비스 및 자원에 대한 자세한 내용은 Solaris OS용 Sun Cluster 개요 및 Solaris OS용 Sun Cluster 개념 안내서를 참조하십시오.
공용 네트워크는 클러스터 외부와 통신을 합니다. 공용 네트워크 구성을 계획할 때는 다음 사항을 고려하십시오.
공용 네트워크와 개인 네트워크(클러스터 상호 연결)는 별도의 어댑터를 사용해야 합니다.
모든 클러스터 노드에 연결된 공용 네트워크가 하나 이상 있어야 합니다.
하드웨어 구성에서 지원하는 만큼 공용 네트워크 연결을 추가로 만들 수 있습니다.
Sun Cluster 소프트웨어는 페일오버와 확장 가능 데이터 서비스 모두에 대해 공용 네트워크에서 IPv4 및 IPv6 주소를 지원합니다. 그러나, 개인 상호 연결에서는 IPv6 통신을 지원하지 않습니다.
local-mac-address? 변수는 이더넷 어댑터에 대한 기본값 true를 사용해야 합니다. Sun Cluster 소프트웨어는 이더넷 어댑터에 대한 local-mac-address? 값으로 false를 지원하지 않습니다. 이 요구 사항은 local-mac-address? 값을 false로 지정해야 했던 Sun Cluster 3.0과는 달라진 내용입니다.
Sun Cluster를 설치하는 동안 scinstall 유틸리티가 각 공용 네트워크 어댑터에 대해 단일 어댑터 IP Network Multipathing 그룹을 자동으로 구성합니다. 설치 후에 이러한 백업 그룹을 수정하려면 IP Network Multipathing Administration Guide의 “Deploying Network Multipathing” (Solaris 8) 또는 System Administration Guide: IP Services의 “Administering Network Multipathing (Task)” (Solaris 9) 절차를 따르십시오.
공용 네트워크 어댑터 백업 그룹을 계획하는 방법은 IP Network Multipathing 그룹을 참조하십시오.공용 네트워크 인터페이스에 대한 자세한 내용은 Solaris OS용 Sun Cluster 개요를 참조하십시오.
Sun Cluster 구성에서 NFS(Network File System)의 사용을 계획할 때 다음과 같은 점을 고려하십시오.
Sun Cluster 노드는 같은 클러스터의 노드에서 마스터되는 Sun Cluster HA for NFS에서 내보낸 파일 시스템의 NFS 클라이언트일 수 없습니다. 이러한 Sun Cluster HA for NFS의 교차 마운트는 금지됩니다. 클러스터 노드 간에 파일을 공유하려면 클러스터 파일 시스템을 사용하십시오.
클러스터에서 로컬로 실행하는 응용 프로그램이 NFS를 통해 내보낸 파일 시스템의 파일을 잠그면 안 됩니다. 그렇지 않으면 로컬 잠금(예: flock(3UCB) 또는 fcntl(2))이 발생하여 잠금 관리자(lockd)를 다시 시작하지 못할 수도 있습니다. 다시 시작할 때 원격 클라이언트에서 사용하려고 했던 잠금이 블록화된 로컬 프로세스에 부여될 수 있습니다. 그러면 예상하지 못한 동작이 발생할 수 있습니다.
Sun Cluster 소프트웨어는 보안 NFS 또는 NFS와 함께 커버로스를 사용하는 것을 지원하지 않습니다. 특히 Sun Cluster 소프트웨어는 share_nfs(1M) 하위 시스템에 대한 secure 및 kerberos옵션을 지원하지 않습니다.
그러나, Sun Cluster 소프트웨어는 NFS용 보안 포트 사용을 지원합니다. 클러스터 노드의 /etc/system 파일에 set nfssrv:nfs_portmon=1을 추가하여 NFS용 보안 포트를 사용할 수 있습니다.
Sun Cluster 구성에 대한 다음 서비스 제한 사항을 준수하십시오.
클러스터 노드를 라우터(게이트웨이)로 구성하지 마십시오. 시스템이 중지될 경우에 클라이언트가 대체 라우터를 찾을 수 없기 때문에 복구할 수 없습니다.
클러스터 노드를 NIS 또는 NIS+ 서버로 구성하지 마십시오. NIS 또는 NIS+를 위해 사용할 수 있는 데이터 서비스가 없습니다. 그러나 클러스터 노드가 NIS 또는 NIS+ 클라이언트가 될 수는 있습니다.
클라이언트 시스템에서 Sun Cluster 구성을 사용하여 가용성이 높은 부트나 설치 서비스를 제공하지 마십시오.
클러스터에 RPC 서비스를 설치하는 경우에는 서비스에서 다음 프로그램 번호를 사용하면 안됩니다.
100141
100142
100248
이 번호들은 각각 Sun Cluster 데몬 rgmd_receptionist, fed 및 pmfd용으로 예약되어 있습니다.
설치하는 RPC 서비스에서도 이 프로그램 번호 중 하나를 사용하는 경우에는 RPC 서비스에서 다른 프로그램 번호를 사용하도록 변경해야 합니다.
Sun Cluster 소프트웨어는 클러스터 노드에서 우선 순위가 높은 프로세스 예약 클래스를 실행하는 것을 지원하지 않습니다. 클러스터 노드에서는 다음 유형의 프로세스를 실행하지 마십시오.
우선 순위가 높은 시간 공유 예약 클래스를 실행하는 프로세스
실시간 예약 클래스를 실행하는 프로세스
Sun Cluster 소프트웨어는 실시간 예약 클래스에서 실행되지 않는 커널 스레드를 사용합니다. 실시간 프로세스나 일반적인 우선 순위보다 높은 다른 시분할 프로세스를 실행하면 Sun Cluster 커널 스레드에서 필요한 CPU 주기를 받지 못할 수 있습니다.
이 절에서는 사용자가 구성하는 다음 Sun Cluster 구성 요소에 대한 지침을 제공합니다.
해당 구성 워크시트에 이 정보를 추가합니다.
표 1–4 Sun Cluster 구성을 위한 워크시트
구성 워크시트 |
위치 |
---|---|
Sun Cluster를 구성하는 동안 클러스터에 대한 이름을 지정합니다. 클러스터 이름은 전체 엔터프라이즈에서 고유해야 합니다.
노드 이름은 Solaris OS를 설치할 때 시스템에 지정하는 이름입니다. Sun Cluster를 구성할 때 설치하는 모든 노드의 이름을 하나의 클러스터로 지정합니다. 단일 노드 클러스터를 설치할 때 기본 노드 이름은 클러스터 이름과 동일합니다.
단일 노드 클러스터에는 개인 네트워크를 구성할 필요가 없습니다.
Sun Cluster 소프트웨어는 노드 간 내부 통신에 개인 네트워크를 사용합니다. Sun Cluster 구성에는 개인 네트워크상의 클러스터 상호 연결에 최소한 2개 이상의 연결이 있어야 합니다. 클러스터의 첫 번째 노드에 Sun Cluster 소프트웨어를 구성할 때 개인 네트워크 주소와 넷마스크를 지정합니다. 기본 개인 네트워크 주소(172.16.0.0)와 넷마스크(255.255.0.0)를 그대로 사용하거나, 같은 회사 내에서 기본 네트워크 주소를 이미 사용 중인 경우에는 다른 선택 사항을 입력할 수 있습니다.
설치 유틸리티(scinstall, SunPlex Installer 또는 JumpStart)에서 설치를 완료하고 클러스터가 설정된 후에는 개인 네트워크 주소 및 넷마스크를 변경할 수 없습니다. 클러스터 소프트웨어를 제거한 다음 다시 설치하여 다른 개인 네트워크 주소 또는 넷마스크를 사용해야 합니다.
기본값이 아닌 개인 네트워크 주소를 지정할 경우에는 다음 요구 사항을 충족시켜야 합니다.
주소의 마지막 두 옥텟에는 기본 주소 172.16.0.0 에서처럼 0을 사용해야 합니다. 주소 공간의 마지막 16비트는 Sun Cluster 소프트웨어에서 자체적으로 사용합니다.
주소는 개인 네트워크에서 사용하기 위해 RFC 1918에서 예약한 주소 블록에 포함되어야 합니다. InterNIC에 연락하여 RFC 복사본을 구하거나, http://www.rfcs.org에서 온라인으로 RFC를 볼 수 있습니다.
같은 개인 네트워크 주소를 두 개 이상의 클러스터에서 사용할 수 있습니다. 개인 IP 네트워크 주소는 클러스터 외부에서 액세스할 수 없습니다.
Sun Cluster 소프트웨어는 개인 상호 연결에 대해 IPv6 주소를 지원하지 않습니다
scinstall 유틸리티를 사용하여 대체 넷마스크를 지정할 수 있지만 가장 좋은 방법은 기본 넷마스크인 255.255.0.0을 그대로 사용하는 것입니다. 더 큰 네트워크를 나타내는 넷마스크를 지정하더라도 아무런 이익이 없습니다. 그리고 scinstall 유틸리티는 더 작은 네트워크를 나타내는 넷마스크는 받아들이지 않습니다.
개인 네트워크에 대한 자세한 내용은 System Administration Guide, Volume 3 (Solaris 8)의 “Planning Your TCP/IP Network” 또는 System Administration Guide: IP Services 의 “Planning Your TCP/IP Network (Task)”(Solaris 9)를 참조하십시오.
개인 호스트 이름은 개인 네트워크 인터페이스를 통한 노드간 통신에 사용되는 이름입니다. 개인 호스트 이름은 Sun Cluster를 구성할 때 자동으로 만들어집니다. 이러한 개인 호스트 이름은 이름 지정 규칙 clusternodenodeid-priv를 따릅니다. 여기서 nodeid는 내부 노드 ID 번호입니다. Sun Cluster 구성 중에 노드가 클러스터 구성원이 될 때 이 노드 ID 번호가 자동으로 각 노드에 할당됩니다. 클러스터가 구성된 후에는 scsetup(1M) 유틸리티를 사용하여 개인 호스트 이름을 변경할 수 있습니다.
단일 노드 클러스터에는 클러스터 상호 연결을 구성할 필요가 없습니다. 그러나 단일 노드 클러스터 구성에 노드를 추가할 경우 이후의 사용을 위해 클러스터 상호 연결을 구성할 수도 있습니다.
클러스터 상호 연결은 클러스터 노드 간의 개인 네트워크 통신을 위한 하드웨어 경로를 제공합니다. 각 상호 연결은 다음 중 하나의 방법으로 연결되는 케이블로 구성됩니다.
두 전송 어댑터 간
전송 어댑터와 전송 연결 장치 간
두 전송 연결 장치 간
Sun Cluster를 구성할 때 두 클러스터 상호 연결에 대하여 다음 구성 정보를 지정합니다.
전송 어댑터 – 네트워크 인터페이스의 포트와 같은 전송 어댑터에는 전송 어댑터 이름과 전송 유형을 지정하십시오. 구성이 2 노드 클러스터이면 상호 연결이 어댑터와 어댑터 사이에 직접 연결되는지 아니면 전송 연결 장치를 사용하는지도 지정합니다. 2 노드 클러스터가 직접 연결된 경우에도 상호 연결을 위한 전송 연결 장치를 지정할 수 있습니다.
전송 연결 장치를 지정하면 나중에 쉽게 다른 노드를 클러스터에 추가할 수 있습니다.
SBus SCI 어댑터 – SBus SCI(Scalable Coherent Interface)는 클러스터 상호 연결로 지원되지 않습니다. 그러나 SCI–PCI 인터페이스는 지원됩니다.
논리 네트워크 인터페이스 – 논리 네트워크 인터페이스는 Sun Cluster 소프트웨어에서 사용하기 위해 예약되어 있습니다.
특정 전송 어댑터에 대한 자세한 내용은 설명서 페이지의 scconf_trans_adap_*(1M) 패밀리를 참조하십시오.
전송 연결 장치 – 네트워크 스위치와 같은 전송 연결 장치를 사용할 경우에는 각 상호 연결을 위한 전송 연결 장치 이름을 지정하십시오. 기본 이름 switchN을 사용할 수도 있고 다른 이름을 만들 수도 있습니다. 여기서 N은 구성할 때 자동으로 할당되는 번호입니다. Sun Firelink 어댑터는 예외 사항으로 연결 이름 sw-rsmN이 필요합니다. scinstall 유틸리티는 사용자가 Sun Firelink 어댑터(wrsmN)를 지정할 경우 이 연결 이름을 자동으로 사용합니다.
또한 연결 장치 포트 이름을 지정하거나 기본 이름을 승인하십시오. 기본 포트 이름은 케이블 끝에 있는 어댑터를 호스트하는 내부 노드 ID 번호와 동일합니다. 그러나 SCI-PCI와 같은 특정 어댑터 유형에 대해서는 기본 포트 이름을 사용할 수 없습니다.
노드가 세 개 이상인 클러스터에서는 전송 연결 장치를 반드시 사용해야 합니다. 클러스터 노드 사이의 직접 연결은 2 노드 클러스터에서만 사용할 수 있습니다.
클러스터를 설정한 후에 scsetup(1M) 유틸리티를 사용하여 개인 네트워크 연결을 추가로 구성할 수 있습니다.
클러스터 상호 연결에 대한 자세한 내용은 Solaris OS용 Sun Cluster 개요의 “클러스터 상호 연결” 및 Solaris OS용 Sun Cluster 개념 안내서를 참조하십시오.
공용 네트워크 워크시트에 이 계획 정보를 추가하십시오.
NAFO(Network Adapter Failover) 그룹 대신 사용하는 IP(Internet Protocol) Network Multipathing 그룹은 공용 네트워크 어댑터 모니터링 및 페일오버 기능을 제공하고 네트워크 주소 자원의 기반으로 사용됩니다. multipathing 그룹은 두 개 이상의 어댑터로 구성될 때 고가용성을 제공합니다. 하나의 어댑터가 실패하면 실패한 어댑터의 모든 주소가 multipathing 그룹의 다른 어댑터에 페일오버됩니다. 이러한 방법으로 Multipathing 그룹 어댑터가 Multipathing 그룹의 어댑터가 연결된 서브넷과 공용 네트워크 사이의 연결을 유지합니다.
multipathing 그룹을 계획할 경우 다음 사항을 고려하십시오.
각 공용 네트워크 어댑터가 복수 경로 그룹에 포함되어야 합니다.
둘 이상의 어댑터가 포함된 복수 경로 그룹의 경우 그룹의 각 어댑터에 대해 테스트 IP 주소를 구성해야 합니다. 복구 경로 그룹에 하나의 어댑터만 포함된 경우 테스트 IP 주소를 구성하지 않아도 됩니다.
동일한 multipathing 그룹에 포함된 모든 어댑터의 테스트 IP 주소가 하나의 IP 서브넷에 속해야 합니다.
테스트 IP 주소는 가용성이 높지 않기 때문에 일반 응용 프로그램에서 사용하면 안 됩니다.
/etc/default/mpathd 파일에서 TRACK_INTERFACES_ONLY_WITH_GROUPS의 값은 yes여야 합니다.
Multipathing 그룹의 이름에는 요구 사항이나 제한 사항이 없습니다.
IP Network Multipathing에 대한 Solaris 설명서에 기록된 대부분의 절차, 지침 및 제한 사항은 클러스터 환경이나 비클러스터 환경에서 동일합니다. IP Network Multipathing에 대한 추가 정보는 해당 Solaris 설명서를 참조하십시오.
Solaris 8 OS는 IP Network Multipathing Administration Guide의 “Deploying Network Multipathing”을 참조하십시오.
Solaris 9 OS는 System Administration Guide: IP Services의 “Administering Network Multipathing (Task)”을 참조하십시오.
Solaris OS용 Sun Cluster 개요의 “ Network Multipathing Groups” 및 Solaris OS용 Sun Cluster 개념 안내서를 참조하십시오.
Sun Cluster 구성에서는 쿼럼 장치를 사용하여 데이터 및 자원 무결성을 유지 관리합니다. 클러스터와 노드 사이의 연결이 일시적으로 중단되어 클러스터 노드가 클러스터에 다시 연결하려고 시도할 때 쿼럼 장치가 정보 유실이나 정보 분리 문제를 방지합니다. scsetup(1M) 유틸리티를 사용하여 쿼럼 장치를 구성합니다.
단일 노드 클러스터에는 쿼럼 장치를 구성할 필요가 없습니다.
쿼럼 장치를 계획할 때는 다음 사항을 참고하십시오.
최소 – 2 노드 클러스터에는 적어도 하나의 공유 디스크가 쿼럼 장치로 지정되어 있어야 합니다. 다른 토폴로지에서는 쿼럼 장치가 선택 사항입니다.
홀수 규칙 – 둘 이상의 쿼럼 장치가 2 노드 클러스터에 구성되거나 쿼럼 장치에 직접 연결된 노드 쌍에 구성되는 경우 쿼럼 장치를 홀수로 구성하십시오. 이 구성을 사용하면 각 쿼럼 장치가 완전히 독립된 실패 경로를 가집니다.
연결 – 쿼럼 장치를 두 개 이상의 노드에 연결해야 합니다.
쿼럼 장치에 대한 자세한 내용은 Solaris OS용 Sun Cluster 개념 안내서의 “쿼럼 및 쿼럼 장치” 및 Solaris OS용 Sun Cluster 개요의 “쿼럼 장치”를 참조하십시오.
이 절에서는 전역 장치 계획 및 클러스터 파일 시스템 계획을 위한 지침을 제공합니다.
전역 장치 및 클러스터 파일 시스템에 대한 자세한 내용은 Solaris OS용 Sun Cluster 개요 및 Solaris OS용 Sun Cluster 개념 안내서를 참조하십시오.
Sun Cluster 소프트웨어에는 특정 디스크 레이아웃이나 파일 시스템 크기가 지정되어 있지 않습니다. 전역 장치 및 클러스터 파일 시스템에 대한 레이아웃을 계획할 경우 다음 내용을 참조하십시오.
미러링 – 전역 장치의 가용성을 높이려면 모든 전역 장치를 미러해야 합니다. 저장 장치에서 디스크에 대한 중복 경로뿐 아니라 하드웨어 RAID를 제공하면 소프트웨어 미러링을 사용하지 않아도 됩니다.
디스크 – 미러할 때는 서로 다른 디스크 배열 사이에서 미러되도록 파일 시스템을 레이아웃하십시오.
가용성 – 전역 장치의 가용성을 높이려면 클러스터에 있는 두 개 이상의 노드에 전역 장치를 물리적으로 연결해야 합니다. 전역 장치가 물리적으로 많이 연결되면 하나의 노드에서 장애가 발생해도 계속 작동할 수 있습니다. 물리적 연결이 하나밖에 없는 전역 장치를 사용할 수도 있지만, 연결된 노드가 중단되면 다른 노드에서 전역 장치에 액세스할 수 없습니다.
스왑 장치 - 전역 장치에는 스왑 파일을 만들지 마십시오.
클러스터 파일 시스템을 계획할 때는 다음 사항을 참고하십시오.
LOFS(Loopback file system) - Sun Cluster 소프트웨어는 클러스터 노드에서 LOFS(LOopback File System) 사용을 지원하지 않습니다.
통신 종점 - 클러스터 파일 시스템은 파일 시스템 이름 공간에 통신 종점을 두는 Solaris 소프트웨어의 파일 시스템 기능을 지원하지 않습니다.
이름이 경로 이름인 UNIX 도메인 소켓을 클러스터 파일 시스템에 만들 수 있지만 노드 페일오버 후에는 소켓이 작동하지 않습니다.
클러스터 파일 시스템에 만드는 FIFO 또는 이름이 지정된 파이프에는 전역으로 액세스할 수 없습니다.
따라서 로컬 노드가 아닌 노드에서 fattach 명령을 사용하지 마십시오.
디스크 장치 그룹 구성 워크시트에 이 계획 정보를 추가하십시오.
모든 볼륨 관리자 디스크 그룹을 Sun Cluster 디스크 장치 그룹으로 구성해야 합니다. 이 구성을 사용하면 기본 노드에 장애가 발생할 경우에 보조 노드가 멀티 호스트 디스크를 호스트할 수 있습니다. 디스크 장치 그룹을 계획할 때는 다음 사항을 참고하십시오.
페일오버 – 멀티 호스트 디스크와 제대로 구성된 볼륨 관리자 장치를 페일오버 장치로 구성할 수 있습니다. 볼륨 관리자 장치의 적절한 구성에는 멀티 호스트 디스크와 올바른 볼륨 관리자 설정이 포함됩니다. 이 구성을 사용하면 다중 노드가 내보낸 장치를 호스트할 수 있습니다. 테이프 드라이브, CD-ROM 또는 단일 포트 장치는 페일오버 장치로 구성할 수 없습니다.
미러링 – 디스크 장애가 발생할 경우 데이터를 보호하려면 디스크를 미러해야 합니다. 미러링 방법은 미러링 방법을 참조하십시오. 미러링 지침은 Solstice DiskSuite 또는 Solaris 볼륨 관리자 소프트웨어 설치 및 구성 또는 SPARC: VxVM 소프트웨어 설치 및 구성 및 볼륨 관리자 설명서를 참조하십시오.
디스크 장치 그룹에 대한 자세한 내용은 Solaris OS용 Sun Cluster 개요의 “장치” 및 Solaris OS용 Sun Cluster 개념 안내서를 참조하십시오.
클러스터 파일 시스템에 대한 마운트 지점을 계획할 때는 다음 사항을 참고하십시오.
마운트 지점 위치 – 다른 소프트웨어 제품에 의해 금지되지 않은 경우/global 디렉토리에 클러스터 파일 시스템에 대한 마운트 지점을 만드십시오. /global 디렉토리를 사용하면 전역으로 사용할 수 있는 클러스터 파일 시스템을 로컬 파일 시스템과 쉽게 구별할 수 있습니다.
SPARC: VxFS 마운트 요구 사항 – VERITAS File System(VxFS)을 사용하는 경우 기본 노드에서 VxFS 파일 시스템을 전역으로 마운트 및 마운트 해제합니다. 기본 노드는 VxFS 파일 시스템이 존재하는 디스크의 마스터 노드입니다. 이 방법을 사용하면 마운트 또는 마운트 해제 작업이 성공적으로 수행됩니다. 보조 노드에서 VxFS 파일 시스템을 마운트하거나 마운트 해제하면 제대로 작동하지 않을 수 있습니다.
다음 VxFS 기능은 Sun Cluster 3.1클러스터 파일 시스템에서 지원되지 않습니다. 그러나 로컬 파일 시스템에서는 지원됩니다.
고속 I/O
스냅샷
저장소 체크포인트
convosync (Convert O_SYNC)
mincache
qlog, delaylog, tmplog
VERITAS 클러스터 파일 시스템(VxVM 클러스터 기능 및 VERITAS Cluster Server 필요)
캐시 보고(이 기능은 사용할 수는 있지만 적용 결과는 지정된 노드에서만 볼 수 있습니다.)
클러스터 파일 시스템에서 지원되는 다른 VxFS 기능 및 옵션은 모두 Sun Cluster 3.1 소프트웨어에서 지원됩니다. 클러스터 구성에서 지원되는 VxFS 옵션에 대한 자세한 내용은 VxFS 설명서를 참조하십시오.
마운트 지점 중첩 – 일반적으로 클러스터 파일 시스템에 대한 마운트 지점을 중첩하면 안됩니다. 예를 들어, /global/a에 마운트되는 파일 시스템과 /global/a/b에 마운트되는 파일 시스템을 함께 설정하지 마십시오. 이 규칙을 무시하면 가용성 및 노드 부트 순서 문제가 발생할 수 있습니다. 이러한 문제는 하위 파일 시스템을 마운트할 때 상위 마운트 지점이 없는 경우에 발생합니다. 두 파일 시스템에 대한 장치가 동일한 물리 노드 연결성을 가질 경우는 예외입니다. 예를 들어, 동일한 디스크에 서로 다른 슬라이스가 있을 수 있습니다.
forcedirectio - Sun Cluster 소프트웨어는 forcedirectio 마운트 옵션을 사용하여 마운트되는 클러스터 파일 시스템에서 이진 실행을 지원하지 않습니다.
디스크 장치 그룹 구성 워크시트 및 볼륨 관리자 구성 워크시트에 이 계획 정보를 추가하십시오. Solstice DiskSuite 또는 Solaris 볼륨 관리자의 경우에는 메타 장치 워크시트(Solstice DiskSuite 또는 Solaris 볼륨 관리자)에도 이 계획 정보를 추가하십시오.
이 절에서는 클러스터 구성의 볼륨 관리 계획을 위한 지침을 제공합니다.
Sun Cluster 소프트웨어는 디스크를 하나의 장치로 관리할 수 있도록 볼륨 관리자 소프트웨어를 사용하여 디스크를 디스크 장치 그룹으로 그룹화합니다. Sun Cluster 소프트웨어는 다음과 같은 방법으로 설치하거나 사용하는 Solstice DiskSuite 또는 Solaris 볼륨 관리자 소프트웨어 및 VxVM(VERITAS Volume Manager) 소프트웨어를 지원합니다.
표 1–5 Sun Cluster 소프트웨어에서 지원하는 볼륨 관리자 사용
볼륨 관리자 소프트웨어 |
요구 사항 |
---|---|
Solstice DiskSuite 또는 Solaris 볼륨 관리자 |
일부 노드에서만 VxVM을 사용하여 디스크를 관리하더라도 모든 클러스터 노드에 Solstice DiskSuite 또는 Solaris 볼륨 관리자 소프트웨어를 설치해야 합니다. |
SPARC: 클러스터 기능이 있는 VxVM |
클러스터의 모든 노드에 클러스터 기능이 있는 VxVM을 설치하고 사용권을 받아야 합니다. |
SPARC: 클러스터 기능이 없는 VxVM |
VxVM에서 관리하는 저장 장치에 연결되는 노드에만 VxVM을 설치하고 사용권을 부여합니다. |
SPARC: Solstice DiskSuite 또는 Solaris 볼륨 관리자 및 VxVM 모두 |
두 볼륨 관리자를 동일한 노드에 모두 설치하는 경우 Solstice DiskSuite 또는 Solaris 볼륨 관리자 소프트웨어를 사용하여 각 노드의 로컬 디스크를 관리해야 합니다. 로컬 디스크에는 루트 디스크가 포함됩니다. VxVM을 사용하여 모든 공유 디스크를 관리합니다. |
볼륨 관리자 소프트웨어를 설치하고 구성하는 방법은 볼륨 관리자 설명서 및 Solstice DiskSuite 또는 Solaris 볼륨 관리자 소프트웨어 설치 및 구성 또는 SPARC: VxVM 소프트웨어 설치 및 구성을 참조하십시오. 클러스터 구성에서 볼륨을 관리하는 방법은 Solaris OS용 Sun Cluster 개념 안내서를 참조하십시오.
볼륨 관리자 소프트웨어를 사용하여 디스크를 구성할 경우 다음 일반 지침을 참조하십시오.
미러된 멀티 호스트 디스크 – 모든 멀티 호스트 디스크를 디스크 확장 장치에 미러해야 합니다. 멀티 호스트 디스크를 미러하는 방법은 멀티 호스트 디스크 미러를 위한 지침를 참조하십시오. 저장 장치에서 장치에 대한 중복 경로뿐 아니라 하드웨어 RAID를 제공하면 소프트웨어 미러링을 사용하지 않아도 됩니다.
미러된 루트 – 루트 디스크를 미러하면 가용성이 높아지지만 이러한 미러링이 반드시 필요한 것은 아닙니다. 루트 디스크를 미러할지 여부를 결정하는 방법은 미러링 방법을 참조하십시오.
고유 이름 지정 – /global/.devices/node@nodeid 파일 시스템이 마운트되는 장치로 사용되는 로컬 Solstice DiskSuite 메타 장치, 로컬 Solaris 볼륨 관리자 볼륨 또는 VxVM 볼륨이 있을 수 있습니다. 그럴 경우 각 로컬 메타 장치 또는 로컬 볼륨의 이름이 클러스터 내에서 고유해야 합니다.
노드 목록 – 디스크 장치 그룹의 가용성을 높이려면 마스터가 될 수 있는 노드 목록 및 페일백 정책을 연결된 자원 그룹과 동일하게 지정하십시오. 또는 확장 가능한 자원 그룹에서 연결된 디스크 장치 그룹보다 많은 노드를 사용할 경우에는 확장 가능한 자원 그룹의 노드 목록을 디스크 장치 그룹의 노드 목록보다 상위 세트로 만드십시오. 노드 목록에 대한 자세한 내용은 Sun Cluster Data Service Planning and Administration Guide for Solaris OS의 자원 그룹 계획 정보를 참조하십시오.
멀티 호스트 디스크 – 클러스터 내에서 장치 그룹을 구성하는 데 사용되는 모든 장치를 그 장치 그룹의 노드 목록에 구성되는 모든 노드에 연결 또는 포트해야 합니다. Solstice DiskSuite 또는 Solaris 볼륨 관리자 소프트웨어는 장치가 디스크 세트에 추가될 때 이 연결을 자동으로 검사할 수 있습니다. 그러나 구성된 VxVM 디스크 그룹이 특정 노드 세트에 연결되지는 않습니다.
핫 스패어 디스크 – 핫 스패어 디스크를 사용하면 가용성을 높일 수 있지만 핫 스패어 디스크가 반드시 필요한 것은 아닙니다.
디스크 레이아웃 권장 사항과 추가 제한에 대한 내용은 볼륨 관리자 설명서를 참조하십시오.
Solstice DiskSuite 또는 Solaris 볼륨 관리자 구성을 계획할 때는 다음 사항을 참고하십시오.
로컬 메타 장치 이름 또는 볼륨 이름 – 각 로컬 Solstice DiskSuite 메타 장치 또는 Solaris 볼륨 관리자 볼륨의 이름은 클러스터 전체에서 고유해야 합니다. 또한 장치 ID 이름과 동일할 수 없습니다.
이중 문자열 mediator – 정확히 두 개의 디스크 문자열로 구성되고 정확히 두 개의 노드에 의해 마스터되는 각 디스크 세트에는 디스크 세트용으로 구성된 Solstice DiskSuite 또는 Solaris 볼륨 관리자 mediator가 있어야 합니다. 디스크 문자열은 디스크 인클로저, 포함된 물리적 디스크, 인클로저와 노드 사이의 케이블, 인터페이스 어댑터 카드 등으로 구성됩니다. 이중 문자열 mediator 구성 규칙은 다음과 같습니다.
각 디스크 세트가 mediator 호스트 역할을 하는 두 개의 노드를 가지도록 구성해야 합니다.
mediator가 필요한 모든 디스크 세트에 동일한 두 노드를 사용해야 합니다. 이 두 노드는 해당 디스크 세트의 마스터라야 합니다.
2 문자열 및 2 호스트 요구 사항을 충족시키지 않는 디스크 세트에는 mediator를 구성할 수 없습니다.
자세한 내용은 mediator(7D) 설명서 페이지를 참조하십시오.
/kernel/drv/md.conf 설정 – 각 디스크 세트에서 사용되는 모든 Solstice DiskSuite 메타 장치 또는 Solaris 볼륨 관리자 볼륨은 재구성 후 부트할 때 자동으로 만들어집니다. 이 재구성은 /kernel/drv/md.conf 파일에 있는 구성 매개 변수를 기반으로 합니다.
각 노드에서 제공하는 디스크 세트 수와 관계 없이 모든 클러스터 노드에는 동일한 /kernel/drv/md.conf 파일이 있습니다. 이 설명을 따르지 않으면 심각한 Solstice DiskSuite 또는 Solaris 볼륨 관리자 오류가 발생하여 데이터를 잃을 수 있습니다.
Sun Cluster 구성을 지원하려면 nmd 및 md_nsets 필드를 다음과 같이 수정해야 합니다.
md_nsets – md_nsets 필드는 전체 클러스터의 요구 사항을 충족하기 위해 시스템에 만들어질 수 있는 총 디스크 세트 수를 정의합니다. md_nsets 값을 클러스터의 예상 디스크 세트 수에 추가 디스크 세트 수 1을 더한 값으로 설정하십시오. Solstice DiskSuite 또는 Solaris 볼륨 관리자 소프트웨어는 추가 디스크 세트를 사용하여 로컬 호스트의 개인 디스크를 관리합니다. 개인 디스크는 로컬 디스크 세트에 없는 메타 장치 또는 볼륨입니다.
클러스터 당 허용되는 최대 디스크 세트는 32개입니다. 이것은 일반 사용에 허용되는 디스크 세트 31개에 개인 디스크 관리를 위한 디스크 세트 1개를 더한 값입니다. md_nsets의 기본값은 4입니다.
nmd – nmd 필드는 각 디스크 세트에 만들어지는 메타 장치 또는 볼륨의 수를 정의합니다. nmd 값은 클러스터에 있는 디스크 세트 중 하나에서 사용할 것으로 예상되는 메타 장치나 볼륨 이름의 최대 개수로 설정하십시오. 예를 들어, 클러스터가 첫 번째15개 디스크 세트에서 10개의 메타 장치 또는 볼륨을 사용하지만, 16번째 디스크 세트에서는 1000개의 메타 장치 또는 볼륨을 사용한다면 nmd의 값을 최소한 1000으로 설정하십시오. 또한 nmd의 값도 각 장치 ID 이름에 대해 충분한 수가 되도록 크게 설정해야 합니다. 또한 번호가 충분히 커야 각 로컬 메타 장치 이름 또는 로컬 볼륨 이름이 클러스터 전체에서 고유할 수 있습니다.
디스크 세트 당 메타 장치 또는 볼륨 이름에 허용되는 가장 높은 값은 8192입니다. nmd의 기본값은 128입니다.
설치할 때 예상되는 클러스터 확장을 모두 수용할 수 있도록 이 필드를 설정하십시오. 클러스터를 만든 후에 이 필드의 값을 높이려면 시간이 많이 걸립니다. 값을 변경하면 각 노드를 재부트해야 합니다. 이 값을 나중에 증가시키면 요청된 장치를 모두 만들기 위하여 루트(/) 파일 시스템에 잘못된 공간을 할당할 수도 있습니다.
또한 nmd 필드 및 md_nsets 필드의 값을 가능한 최소값으로 유지하십시오. nmd 및 md_nsets에 의해 결정되는 가능한 모든 장치를 위한 메모리 구조가 해당 장치를 만들지 않은 경우에도 존재합니다. 최적의 성능을 얻으려면 nmd 및 md_nsets의 값을 사용할 메타 장치나 볼륨 수보다 약간 높게 유지하십시오.
md.conf 파일에 대한 자세한 내용은 Solstice DiskSuite 4.2.1 Reference Guide의 “System and Startup Files” 또는 Solaris Volume Manager Administration Guide의 “System Files and Startup Files”를 참조하십시오.
VERITAS Volume Manager(VxVM) 구성을 계획할 때는 다음 사항을 고려하십시오.
인클로저 기반 이름 지정 – 인클로저 기반 이름 지정을 사용하는 경우에는 같은 저장 장치를 공유하는 모든 클러스 노드에서 일관성 있는 장치 이름을 사용하도록 하십시오. VxVM은 이 이름을 조정하지 않기 때문에 VxVM이 다른 노드에서 동일한 장치에 대하여 동일한 이름을 할당하도록 관리자가 조정해야 합니다. 일관성 있는 이름을 할당하지 못하더라도 올바른 클러스터 동작을 방해하지는 않습니다. 그러나 일관성이 없는 이름을 사용하면 클러스터 관리를 복잡하게 만들어 구성 오류가 발생할 확률이 증가되어 데이터 손실이 발생할 수 있습니다.
루트 디스크 그룹 – VxVM 3.5 이하를 사용하는 경우에는 각 노드에 기본 루트 디스크 그룹을 만들어야 합니다. VxVM 4.0의 경우 루트 디스크 그룹 만들기는 선택 사항입니다.
루트 디스크 그룹은 다음과 같은 디스크에 만들 수 있습니다.
캡슐화되어야 하는 루트 디스크
캡슐화되거나 초기화될 수 있고 루트가 아닌 하나 이상의 로컬 디스크
루트 디스크와 루트가 아닌 로컬 디스크의 조합
루트 디스크 그룹은 노드에 로컬이어야 합니다.
단순 루트 디스크 그룹 – 단순 루트 디스크 그룹(루트 디스크의 단일 슬라이스에 만들어진 rootdg)은 Sun Cluster 소프트웨어에서 VxVM와 함께 디스크 유형으로 지원되지 않습니다. 이 제한 사항은 일반적인 VxVM 소프트웨어 제한 사항입니다.
볼륨 수 – 디스크 장치 그룹이 만들어질 때 디스크 장치 그룹이 사용할 최대 볼륨 수를 계산하십시오.
볼륨 수가 1000보다 작으면 기본 설정된 부 번호를 사용할 수 있습니다.
볼륨 수가 1000 이상이면 디스크 장치 그룹 볼륨에 부 번호를 지정하는 방법을 계획해야 합니다. 두 개의 디스크 장치 그룹에 중복된 부 번호를 할당하면 안됩니다.
DRL(Dirty Region Logging) – DRL(Dirty Region Logging)을 사용하면 노드에 오류가 발생한 후 복구 시간이 단축됩니다. DRL을 사용하면 I/O 처리량이 감소할 수 있습니다.
DMP(Dynamic Multipathing) – 공유 저장 장치에 대해 노드 당 여러 개의 I/O 경로를 관리하기 위해 DMP만 사용하는 것은 지원되지 않습니다. DMP 사용은 다음 구성에서만 지원됩니다.
클러스터의 공유 저장소에 대한 노드별 단일 I/O 경로
Sun Traffic Manager, EMC PowerPath, Hiatchi HDLM 등과 같이 공유 클러스터 저장소에 대한 노드별 다중 I/O 경로를 관리하는 지원되는 다중 경로 지정 솔루션.
자세한 내용은 VxVM 설치 설명서를 참조하십시오.
로깅은 UFS 및 VxFS 클러스터 파일 시스템에서 필수 사항입니다. 이 요구 사항은 QFS 공유 파일 시스템에는 적용되지 않습니다. Sun Cluster 소프트웨어는 다음과 같은 파일 시스템 로깅 선택 항목을 지원합니다.
Solaris UFS logging – 자세한 내용은 mount_ufs(1M) 설명서를 참조하십시오.
Solstice DiskSuite trans-metadevice logging 또는 Solaris 볼륨 관리자 transactional-volume logging – 자세한 내용은 Solstice DiskSuite 4.2.1 User's Guide의 “Creating DiskSuite Objects” 또는 Solaris Volume Manager Administration Guide의 “Transactional Volumes (Overview)”를 참조하십시오.
SPARC: VERITAS File System(VxFS) 로깅 – 자세한 내용은 VxFS 소프트웨어와 함께 제공된 mount_vxfs 설명서를 참조하십시오.
다음 표는 각 볼륨 관리자에서 지원하는 파일 시스템 로깅 목록입니다.
표 1–6 지원되는 파일 시스템 로깅 도표
볼륨 관리자 |
지원되는 파일 시스템 로깅 |
---|---|
Solstice DiskSuite 또는 Solaris 볼륨 관리자 |
|
SPARC: VERITAS Volume Manager |
|
Solaris UFS logging과 Solstice DiskSuite trans-metadevice logging/Solaris 볼륨 관리자 transactional-volume logging UFS 클러스터 파일 시스템에 대한 중에서 선택할 때는 다음 사항을 참고하십시오.
Solaris 볼륨 관리자 transactional-volume logging(이전의 Solstice DiskSuite trans-metadevice logging)은 이후의 Solaris 릴리스에서는 Solaris OS에서 제거될 예정입니다. Solaris UFS logging은 시스템 관리 요구 사항과 오버헤드는 줄이면서 기능은 동일하지만 보다 우수한 성능을 제공합니다.
Solaris UFS 로그 크기 – Solaris UFS logging에서는 항상 파일 시스템의 크기에 따라 UFS 파일 시스템의 사용 가능한 공간을 사용하여 로그를 할당합니다.
1GB 미만의 시스템에서는 로그가 1MB를 차지합니다.
1GB 이상의 파일 시스템에서는 로그가 파일 시스템에서 GB당 1MB를 차지하고, 최대 64MB까지 할당할 수 있습니다.
로그 메타 장치/트랜잭션 볼륨 – A Solstice DiskSuite 트랜스 메타 장치 또는 Solaris 볼륨 관리자 트랜잭션 볼륨이 UFS 로깅을 관리합니다. 트랜스 메타 장치나 트랜잭션 볼륨의 로깅 장치 구성 요소는 미러하고 스트라이핑할 수 있는 메타 장치나 볼륨입니다. 로그 크기는 대부분의 파일 시스템에서 64MB면 충분하지만 최대 1GB까지 만들 수 있습니다. 최소 로그 크기는 1MB입니다.
이 절에서는 클러스터 구성 미러링 계획을 위한 다음과 같은 지침을 제공합니다.
Sun Cluster 구성에서 모든 멀티 호스트 디스크를 미러하면 단일 장치에 장애가 발생해도 문제가 되지 않습니다. Sun Cluster 소프트웨어를 사용하려면 확장 장치 사이에서 모든 멀티 호스트 디스크를 미러해야 합니다. 저장 장치에서 장치에 대한 중복 경로뿐 아니라 하드웨어 RAID를 제공하면 소프트웨어 미러링을 사용하지 않아도 됩니다.
멀티 호스트 디스크를 미러할 때는 다음 사항을 참고하십시오.
별도 디스크 확장 장치 – 지정된 미러의 각 하위 미러나 플렉스가 서로 다른 멀티 호스트 확장 장치에 있어야 합니다.
디스크 공간 – 미러하려면 두 배의 디스크 공간이 필요합니다.
3중 미러링 – Solstice DiskSuite 또는 Solaris 볼륨 관리자 소프트웨어와 VxVM(VERITAS Volume Manager)은 3중 미러링을 지원합니다. 그러나 Sun Cluster 소프트웨어에서는 양방향 미러링만 사용해야 합니다.
메타 장치 또는 볼륨 수 – Solstice DiskSuite 또는 Solaris 볼륨 관리자 소프트웨어에서는 미러가 연결이나 스트라이프와 같은 다른 Solstice DiskSuite 메타 장치나 Solaris 볼륨 관리자 볼륨으로 구성됩니다. 구성이 크면 많은 수의 메타 장치나 볼륨이 포함될 수 있습니다.
장치 크기 차이 – 크기가 다른 장치로 미러링하면 가장 작은 하위 미러 또는 플렉스의 크기로 미러 용량이 제한됩니다.
멀티 호스트 디스크에 대한 자세한 내용은 Solaris OS용 Sun Cluster 개요의 “멀티 호스트 디스크 저장 장치” 및 Solaris OS용 Sun Cluster 개념 안내서를 참조하십시오.
로컬 파일 시스템 레이아웃 워크시트에 이 계획 정보를 추가하십시오.
가용성을 최대로 높이려면 루트(/), /usr, /var, /opt 및 swap을 로컬 디스크에 미러하십시오. VxVM에서는 루트 디스크를 캡슐화하고 생성된 하위 디스크를 미러합니다. 그러나 Sun Cluster 소프트웨어를 사용할 경우에는 루트 디스크를 미러하지 않아도 됩니다.
루트 디스크를 미러할 것인지 결정하기 전에 위험성, 복잡성, 비용 및 서비스 시간을 고려하여 루트 디스크에 대한 여러 가지 대안을 찾아 보십시오. 한 가지 미러링 전략이 모든 구성에 적합하지는 않습니다. 루트를 미러할 것인지 결정할 때는 각 지역의 Sun 서비스 담당자가 권장하는 방법을 사용하는 것이 좋습니다.
루트 디스크를 미러하는 방법은 볼륨 관리자 설명서와 Solstice DiskSuite 또는 Solaris 볼륨 관리자 소프트웨어 설치 및 구성 또는 SPARC: VxVM 소프트웨어 설치 및 구성을 참조하십시오.
루트 디스크를 미러할 것인지 결정할 때는 다음 사항을 참고하십시오.
부트 디스크 – 미러를 부트 가능한 루트 디스크로 설정할 수 있습니다. 그런 다음 기본 부트 디스크가 실패할 경우 미러에서 부트할 수 있습니다.
복잡성 – 루트 디스크를 미러하면 시스템 관리가 더 복잡해 집니다. 또한 단일 사용자 모드에서의 부트가 복잡해 집니다.
백업 – 루트 디스크의 미러링 여부에 관계없이 정기적으로 루트를 백업해야 합니다. 관리 오류가 발생할 경우에 미러링만으로는 보호할 수 없습니다. 백업 계획을 세워야만 사고로 변경되거나 삭제된 파일을 복구할 수 있습니다.
쿼럼 – Solstice DiskSuite 또는 Solaris 볼륨 관리자 소프트웨어에서는 상태 데이터베이스 쿼럼이 없으면 유지 보수 작업을 수행할 때까지 시스템을 재부트할 수 없습니다. 상태 데이터베이스 및 상태 데이터베이스 복제본에 대한 자세한 내용은 Solstice DiskSuite 또는 Solaris 볼륨 관리자 설명서를 참조하십시오.
별도 컨트롤러 – 가용성을 최대로 높이는 방법으로 별도 컨트롤러에 루트 디스크를 미러하는 방법이 있습니다.
보조 루트 디스크 – 미러된 루트 디스크를 사용하면 기본 루트 디스크가 실패해도 보조(미러) 루트 디스크에서 작업을 계속할 수 있습니다. 예를 들어, 전원 주기 또는 일시적인 I/O 오류 후에 나중에 기본 루트 디스크로 다시 서비스할 수 있습니다. 후속 부트는 eeprom(1M) boot-device 매개 변수에 지정된 기본 루트 디스크를 사용하여 수행됩니다. 이러한 경우에는 직접 복구하지 않아도 부트할 수 있도록 드라이브가 정상적으로 작동합니다. Solstice DiskSuite 또는 Solaris 볼륨 관리자 소프트웨어를 사용하면 재동기화가 발생합니다. 재동기화를 위해서는 드라이브가 다시 작동할 때 수동 단계가 필요합니다.
보조(미러) 루트 디스크에서 파일을 변경하면 부트 시에 기본 루트 디스크에 반영되지 않습니다. 이러한 경우는 오래된 하위 미러에서 발생할 수 있습니다. 예를 들어, /etc/system 파일에 대한 변경 사항은 삭제됩니다. Solstice DiskSuite 또는 Solaris 볼륨 관리자 소프트웨어를 사용하면 기본 루트 디스크가 작동하지 않는 동안 일부 관리 명령에 의해 /etc/system 파일이 변경될 수 있습니다.
부트 프로그램은 시스템이 미러에서 부트되는지 기본 물리 장치에서 부트되는지를 검사하지 않습니다. 미러링은 메타 장치 또는 볼륨이 로드된 후 부트 프로세스를 통해 활성화됩니다. 그러므로 이 시점 이전에 시스템의 오래된 하위 미러 문제가 발생할 수 있습니다.