이 단원에서는 Sun Cluster 구성을 설치하기 위한 계획 정보와 지침을 설명합니다.
이 단원에서 설명하는 개요 정보는 다음과 같습니다.
다음 표에는 여러 가지 Sun Cluster 소프트웨어 설치 작업을 위해 참조할 위치와 작업 수행 순서가 있습니다.
표 1-1 Sun Cluster 소프트웨어 설치 작업 정보의 위치
작업 |
참고 항목 |
||
---|---|---|---|
클러스터 하드웨어 설치 |
Sun Cluster 3.0 12/01 Hardware Guide 서버 및 기억 장치와 함께 제공되는 문서 |
||
클러스터 소프트웨어 설치 계획 |
이 단원 Sun Cluster 3.0 12/01 릴리스 정보에 있는 "Sun Cluster 설치 구성 워크시트 및 예" |
||
새 클러스터 설치 및 기존 클러스터에 노드 추가 |
|
||
|
Solaris 운영 환경, Cluster Control Panel(선택 사항), SunPlex Manager(선택 사항), 클러스터 프레임워크 및 데이터 서비스 소프트웨어 패키지 설치 | ||
|
볼륨 관리 소프트웨어 설치 및 구성 |
|
|
|
|
Solstice DiskSuite |
"Solstice DiskSuite 소프트웨어 설치 및 구성" Solstice DiskSuite 문서 |
|
|
VxVM(VERITAS Volume Manager) |
VxVM 문서 |
|
클러스터 프레임워크 소프트웨어를 구성하고, 필요할 경우에 Sun Management Center 설치 및 구성 | ||
|
자원 그룹과 데이터 서비스 계획, 설치 및 구성 |
Sun Cluster 3.0 12/01 Data Services Installation and Configuration Guide Sun Cluster 3.0 12/01 릴리스 정보에 있는 "데이터 서비스 구성 워크시트 및 예" |
|
Sun Cluster 2.2에서 Sun Cluster 3.0으로 업그레이드(Solaris 운영 환경, 클러스터 프레임워크, 데이터 서비스 및 볼륨 관리자 소프트웨어) |
"Sun Cluster 2.2에서 Sun Cluster 3.0 Update 2 소프트웨어로 업그레이드" "Solstice DiskSuite 소프트웨어 설치 및 구성" 또는 "VxVM 소프트웨어 설치 및 구성" 볼륨 관리자 문서 |
||
Sun Cluster 3.0 Update 1에서 Sun Cluster 3.0 Update 2로 업그레이드(Solaris 운영 환경, 클러스터 프레임워크 및 데이터 서비스 소프트웨어) | |||
사용자 정의 데이터 서비스 개발 |
Sun Cluster 3.0 12/01 Data Services Developer's Guide |
이 단락에서는 클러스터 구성에 Solaris 소프트웨어를 설치하기 위한 계획 방법을 설명합니다. Solaris 소프트웨어에 대한 자세한 정보는 Solaris 설치 문서를 참조하십시오.
로컬 CD-ROM에서 Solaris 소프트웨어를 설치할 수도 있고 네트워크 설치 서버에서 JumpStartTM 설치 방법을 사용하여 설치할 수도 있습니다. 또한 Sun Cluster 소프트웨어에는 JumpStart를 사용하여 Solaris 운영 환경과 Sun Cluster 소프트웨어를 모두 설치하는 사용자 정의 방법이 있습니다. 여러 개의 클러스터 노드를 설치할 경우에는 네트워크 설치를 고려해 보십시오.
scinstall JumpStart 설치 방법에 대한 자세한 내용은 "Solaris 및 Sun Cluster 소프트웨어를 설치하는 방법(JumpStart)"을 참조하십시오. 표준 Solaris 설치 방법에 대한 자세한 내용은 Solaris 설치 설명서를 참조하십시오.
Sun Cluster 3.0 소프트웨어를 설치하기 위한 최소 조건으로 Solaris End User System Support 소프트웨어 그룹이 필요합니다. 그러나 클러스터 구성의 다른 구성 요소에도 Solaris 소프트웨어에 대한 요구 사항이 있을 수 있습니다. 설치할 Solaris 소프트웨어 그룹을 결정하려면 다음 정보를 참고하십시오.
Solaris 소프트웨어에 대한 요구 사항은 서버 설명서를 참조하십시오. 예를 들어, Sun EnterpriseTM E10000 서버에는 Entire Distribution + OEM 소프트웨어 그룹이 필요합니다.
Solaris 8 Update 6 운영 환경을 설치하고 SCI-PCI 어댑터나 RSMAPI(Remote Shared Memory Application Programming Interface)를 사용하려면 RSMAPI 소프트웨어 패키지(SUNWrsm, SUNWrsmx, SUNWrsmo 및 SUNWrsmox)를 설치해야 합니다. Solaris Developer System Support 소프트웨어 그룹이나 상위 그룹에는 이 패키지가 포함되어 있습니다. End User System Support 소프트웨어 그룹을 설치할 경우에는 Sun Cluster 소프트웨어를 설치하기 전에 pkgadd(1M) 명령을 사용하여 이 RSMAPI 패키지를 설치하십시오. RSMAPI 사용에 대한 자세한 내용은 Solaris 8 Update 6 단락(3RSM) 설명서 페이지를 참조하십시오.
Apache HTTP Server 패키지와 같이 End User System Support 소프트웨어 그룹에 포함되지 않은 다른 Solaris 소프트웨어 패키지를 설치해야 할 수도 있습니다. 또한 ORACLE®과 같은 다른 회사 소프트웨어에는 다른 Solaris 패키지가 추가로 필요할 수도 있습니다. Solaris 소프트웨어 요구 사항은 다른 회사 문서를 참조하십시오.
Sun Cluster 3.0 12/01 릴리스 정보에 있는 "로컬 파일 시스템 레이아웃 워크시트"에 이 정보를 추가하십시오.
Solaris 운영 환경을 설치할 때 필요한 Sun Cluster 파티션을 만들고 모든 파티션이 최소 공간 요구 사항을 충족시키는지 확인하십시오.
스왑 - 750MB 또는 물리적 메모리의 두 배 중에서 큰 공간을 할당하십시오.
/globaldevices - 글로벌 장치를 위해 scinstall(1M) 유틸리티에서 사용할 100MB 파일 시스템을 만드십시오.
볼륨 관리자 - 디스크 끝에 있는 슬라이스(슬라이스 7)에 볼륨 관리자에서 사용할 10MB 파티션을 만드십시오. 클러스터에서 VxVM(VERITAS Volume Manager)을 사용할 경우에 루트 디스크를 캡슐화하려면 VxVM에서 사용할 두 개의 여유 슬라이스가 있어야 합니다.
이러한 요구 사항을 충족시키려면, 대화식으로 Solaris 운영 환경을 설치할 때 파티션을 사용자에게 맞게 설정해야 합니다.
파티션 계획을 위한 자세한 내용은 다음 지침을 참조하십시오.
Solaris 운영 환경을 실행하는 다른 시스템의 경우처럼 루트(/), /var, /usr 및 /opt 디렉토리를 별도의 파일 시스템으로 구성할 수도 있고 모든 디렉토리를 루트(/) 파일 시스템에 포함시킬 수도 있습니다. 다음은 Sun Cluster 구성에서 루트(/), /var, /usr 및 /opt 디렉토리에 저장되는 소프트웨어에 대한 설명입니다. 파티션 구조를 계획할 때 이 정보를 참고하십시오.
루트(/) - Sun Cluster 소프트웨어는 루트(/) 파일 시스템에서 40MB 미만의 공간을 차지합니다. Solstice DiskSuiteTM 소프트웨어에 5MB 미만의 공간이 필요하고 VxVM 소프트웨어에는 15MB 미만의 공간이 필요합니다. 최상의 결과를 위해 Solstice DiskSuite 또는 VxVM 소프트웨어에서 사용하는 블록 특수 장치와 문자 특수 장치를 만들 수 있도록 충분한 추가 공간과 inode 용량을 구성해야 합니다. 특히 클러스터에 공유 디스크가 많을 경우에 이러한 구성이 필요합니다. 따라서 일반적으로 루트(/) 파일 시스템에 할당하는 공간에 100MB 이상의 공간을 추가하십시오.
/var - Sun Cluster 소프트웨어를 설치할 때 /var 파일 시스템에서는 무시해도 될 만큼 적은 공간을 차지합니다. 그러나 로그 파일을 기록할 수 있도록 충분한 공간을 따로 설정해야 합니다. 또한 클러스터 노드에서는 일반적으로 독립형 서버에서 기록되는 것보다 많은 메시지가 로그 파일에 기록될 수 있습니다. 따라서 100MB 이상의 공간을 /var 파일 시스템에 할당하는 것이 좋습니다.
/usr - Sun Cluster 소프트웨어는 /usr 파일 시스템에서 25MB 미만의 공간을 차지합니다. Solstice DiskSuite 및 VxVM 소프트웨어에는 각각 15MB 미만의 공간이 필요합니다.
/opt - Sun Cluster 프레임워크 소프트웨어는 /opt 파일 시스템에서 2MB 미만의 공간을 사용합니다. 그러나 각 Sun Cluster 데이터 서비스가 1MB부터 5MB 사이의 공간을 사용할 수 있습니다. Solstice DiskSuite 소프트웨어는 /opt 파일 시스템의 공간을 사용하지 않습니다. VxVM 소프트웨어의 패키지와 도구를 모두 설치하면 40MB 이상의 공간을 사용할 수 있습니다. 또한 데이터베이스 및 응용프로그램 소프트웨어가 대부분 /opt 파일 시스템에 설치됩니다. Sun Management Center 소프트웨어를 사용하여 클러스터를 모니터할 경우에는 Sun Management Center 에이전트 및 Sun Cluster 모듈 패키지를 지원하기 위해 각 노드에 추가로 25MB의 공간이 필요합니다.
스왑 파티션의 최소 크기는 750MB 또는 시스템의 물리적 메모리의 두 배 중에서 큰 공간을 할당해야 합니다. 또한 설치하는 다른 회사 응용프로그램에도 스왑 요구 사항이 있을 수 있습니다. 스왑 요구 사항에 대한 내용은 다른 회사 응용프로그램 문서를 참조하십시오.
Sun Cluster 소프트웨어를 설치하려면 글로벌 장치를 관리하는 데 사용할 수 있도록 로컬 디스크 중 하나에 특수 파일 시스템을 별도로 설정해야 합니다. 이 파일 시스템은 나중에 클러스터 파일 시스템으로 마운트되므로 분리해야 합니다. 이 파일 시스템의 이름을 /globaldevices라고 지정하십시오. 이것이 scinstall(1M) 명령에서 인식하는 기본 이름입니다. 나중에 scinstall(1M) 명령을 실행하면 파일 시스템 이름이 /global/.devices/node@nodeid로 변경되고 처음에 지정된 /globaldevices 마운트 포인트는 제거됩니다. 여기서 nodeid는 노드가 클러스터 구성원이 될 때 노드에 할당되는 번호입니다. 블록 특수 장치와 문자 특수 장치를 모두 만들려면 /globaldevices 파일 시스템에 충분한 공간과 inode 용량이 있어야 합니다. 특히 클러스터에 공유 디스크가 많을 경우에 이러한 구성이 필요합니다. 대부분의 클러스터 구성에서 파일 시스템 크기가 100MB 정도면 충분합니다.
Solstice DiskSuite 소프트웨어를 사용할 경우에는 복제 데이터베이스를 만들 때 사용할 수 있도록 루트 디스크에 별도 슬라이스를 설정해야 합니다. 특히, 로컬 디스크마다 이러한 용도로 사용할 슬라이스를 별도로 설정해야 합니다. 그러나 노드에 로컬 디스크가 하나인 경우에는 Solstice DiskSuite 소프트웨어가 제대로 작동하도록 하기 위해 동일한 슬라이스에 세 개의 복제 데이터베이스를 만들어야 할 수도 있습니다. 자세한 내용은 Solstice DiskSuite 문서를 참조하십시오.
VxVM을 사용할 경우에 루트 디스크를 캡슐화하려면 VxVM에서 사용할 수 있도록 사용하지 않은 두 개의 슬라이스가 있어야 하고 디스크의 시작 또는 끝 부분에 사용할 수 있는 빈 공간이 조금 있어야 합니다. 루트 디스크 캡슐화에 대한 자세한 내용은 VxVM 문서를 참조하십시오.
표 1-2는 물리적 메모리가 750MB 미만인 클러스터 노드에 대한 분할 구조의 예입니다. 이 분할 구조에는 Solaris 운영 환경 End User System Support 소프트웨어 그룹, Sun Cluster 소프트웨어 및 Sun Cluster HA for NFS 데이터 서비스가 설치됩니다. 디스크의 마지막 슬라이스(슬라이스 7)에는 볼륨 관리자에서 사용할 작은 공간이 할당됩니다.
이 레이아웃에서는 Solstice DiskSuite 소프트웨어나 VxVM을 사용할 수 있습니다. Solstice DiskSuite 소프트웨어를 사용하는 경우에는 복제 데이터베이스에 슬라이스 7을 사용합니다. VxVM을 사용하는 경우에는 나중에 슬라이스 7에 길이 0을 할당하여 공간을 비웁니다. 이 레이아웃에서는 필요한 두 개의 빈 슬라이스 4와 7을 제공하고 디스크 끝에 빈 공간을 제공합니다.
표 1-2 파일 시스템 할당 샘플
슬라이스 |
내용 |
할당(MB) |
설명 |
---|---|---|---|
0 |
/ |
1168 |
Solaris 운영 환경 소프트웨어를 위한 공간 441MB. 루트(/) 추가 공간 100MB. /var 추가 공간 100MB. Sun Cluster 소프트웨어를 위한 공간 25MB. 볼륨 관리자 소프트웨어를 위한 공간 55MB. Sun Cluster HA for NFS 소프트웨어를 위한 공간 1MB. Sun Management Center 에이전트 및 Sun Cluster 모듈 에이전트 패키지를 위한 공간 25MB. 나중에 데이터베이스 및 응용프로그램 소프트웨어에서 사용할 수 있는 공간 421MB(디스크에 남은 빈 공간). |
1 |
스왑 |
750 |
물리적 메모리가 750MB 미만일 경우의 최소 크기. |
2 |
오버랩 |
2028 |
전체 디스크. |
3 |
/globaldevices |
100 |
Sun Cluster 소프트웨어가 나중에 이 슬라이스에 다른 마운트 포인트를 할당하고 클러스터 파일 시스템으로 마운트합니다. |
4 |
사용하지 않음 |
- |
VxVM에서 루트 디스크를 캡슐화할 때 사용할 수 있는 빈 슬라이스. |
5 |
사용하지 않음 |
- |
|
6 |
사용하지 않음 |
- |
|
7 |
볼륨 관리자 |
10 |
Solstice DiskSuite 소프트웨어에서 복제 데이터베이스를 위해 사용하거나 VxVM에서 슬라이스를 비운 후에 설치를 위해 사용. |
이 단락에서는 Sun Cluster 소프트웨어를 설치하기 위한 계획 및 준비 방법을 설명합니다. Sun Cluster 구성 요소에 대한 자세한 내용은 Sun Cluster 3.0 12/01 개념의 내용을 참조하십시오.
소프트웨어를 설치하려면 먼저 필요한 사용권 인증을 사용할 수 있어야 합니다. Sun Cluster 소프트웨어에는 사용권 인증이 필요없지만 Sun Cluster 소프트웨어를 통해 설치되는 각 노드는 Sun Cluster 소프트웨어 사용권 계약을 따라야 합니다.
볼륨 관리 소프트웨어 및 응용프로그램 소프트웨어에 대한 사용권 요구 사항은 해당 제품의 설치 설명서를 참조하십시오.
각 소프트웨어 제품을 설치한 후에 필요한 패치가 있으면 패치도 설치해야 합니다. 필요한 최신 패치에 대한 정보는 Sun Cluster 3.0 12/01 릴리스 정보를 참조하거나 엔터프라이즈 서비스 담당자 또는 서비스 제공업체에 문의하십시오. 패치를 적용하는 일반적인 방법과 절차는 Sun Cluster 3.0 12/01 시스템 관리 안내서를 참조하십시오.
클러스터 구성에 따라 여러 Sun Cluster 구성 요소에 많은 IP 주소를 설정해야 합니다. 클러스터 구성에 포함된 각 노드에 동일한 공용 서브넷 세트에 대한 공용 네트워크 연결이 하나 이상 있어야 합니다.
다음 표에 IP 주소를 할당해야 하는 구성 요소 목록이 있습니다. 사용하는 모든 이름 지정 서비스에 이러한 IP 주소를 추가하십시오. Solaris 소프트웨어가 설치된 후에 각 클러스터 노드에 있는 로컬 /etc/inet/hosts 파일에도 이러한 IP 주소를 추가하십시오.
표 1-3 IP 주소를 사용하는 Sun Cluster 구성 요소
구성 요소 |
필요한 IP 주소 |
---|---|
관리 콘솔 |
서브넷마다 1개 |
클러스터 노드 |
노드마다, 서브넷마다 1개 |
콘솔 액세스 장치 |
1개 |
논리 주소 |
논리 호스트 자원마다, 서브넷마다 1개 |
모든 클러스터 노드에 대하여 콘솔 액세스가 있어야 합니다. 관리 콘솔에 Cluster Control Panel 소프트웨어를 설치할 경우에는 클러스터 노드와 통신을 하기 위해 필요한 콘솔 액세스 장치의 호스트 이름이 있어야 합니다. 관리 콘솔과 클러스터 노드 콘솔 사이의 통신에 터미널 콘센트레이터를 사용할 수 있습니다. Sun Enterprise E10000 서버는 터미널 콘센트레이터 대신 SSP(System Service Processor)를 사용합니다. Sun FireTM 서버는 시스템 컨트롤러를 사용합니다. 콘솔 액세스에 대한 자세한 내용은 Sun Cluster 3.0 12/01 개념을 참조하십시오.
논리 주소를 사용하는 각 데이터 서비스 자원 그룹에는 논리 주소에 액세스할 수 있는 각 공용 네트워크에 대한 호스트 이름이 지정되어 있어야 합니다. 자원 그룹을 계획하기 위한 정보와 워크시트는 Sun Cluster 3.0 12/01 Data Services Installation and Configuration Guide를 참조하십시오. 데이터 서비스 및 자원에 대한 자세한 내용은 Sun Cluster 3.0 12/01 개념을 참조하십시오.
이 단락에서는 설치할 때 구성하는 Sun Cluster 구성 요소에 대하여 설명합니다.
Sun Cluster 3.0 12/01 릴리스 정보에 있는 "클러스터 및 노드 이름 워크시트"에 이 계획 정보를 추가하십시오.
Sun Cluster를 설치할 때 클러스터에 대한 이름을 지정합니다. 클러스터 이름은 전체 엔터프라이즈에서 고유해야 합니다.
Sun Cluster 3.0 12/01 릴리스 정보에 있는 "클러스터 및 노드 이름 워크시트"에 이 계획 정보를 추가하십시오. 다른 워크시트의 정보는 대부분 노드 이름별로 그룹화됩니다.
노드 이름은 Solaris 운영 환경을 설치할 때 사용자가 시스템에 할당하는 이름입니다. Sun Cluster를 설치할 때 설치하는 모든 노드의 이름을 하나의 클러스터로 지정합니다.
Sun Cluster 3.0 12/01 릴리스 정보에 있는 "클러스터 및 노드 이름 워크시트"에 이 계획 정보를 추가하십시오.
Sun Cluster 소프트웨어는 노드 사이의 내부 통신을 위해 독립 네트워크를 사용합니다. Sun Cluster에서는 독립 네트워크에 클러스터 상호 연결에 대한 연결이 두 개 이상 있어야 합니다. 클러스터의 첫 번째 노드에 Sun Cluster 소프트웨어를 설치할 때 독립 네트워크 주소와 네트마스크를 지정합니다. 기본 설정된 독립 네트워크 주소(172.16.0.0)와 네트마스크(255.255.0.0)를 그대로 사용할 수도 있고, 기본 네트워크 주소를 이미 엔터프라이즈의 다른 위치에서 사용할 경우에는 다른 주소를 입력할 수도 있습니다.
노드를 클러스터 구성원으로 설치한 후에는 독립 네트워크 주소와 네트마스크를 변경할 수 없습니다.
기본값이 아닌 독립 네트워크 주소를 지정할 경우에는 다음 요구 사항을 충족시켜야 합니다.
주소의 마지막 8진수 두 개에 0을 사용해야 합니다.
네트워크 주소를 할당할 때는 RFC 1597의 규정을 따라야 합니다.
RFC 사본을 구하려면 TCP/IP and Data Communications Administration Guide를 참조하십시오.
기본값이 아닌 다른 네트마스크를 지정할 경우에는 다음 요구 사항을 충족시켜야 합니다.
독립 네트워크 주소에 지정된 모든 비트를 최소로 마스크해야 합니다.
"홀"이 없어야 합니다.
Sun Cluster 3.0 12/01 릴리스 정보에 있는 "클러스터 및 노드 이름 워크시트"에 이 계획 정보를 추가하십시오.
개인용 호스트 이름은 독립 네트워크 인터페이스를 통한 노드 사이의 통신에서 사용하는 이름입니다. 개인용 호스트 이름은 Sun Cluster를 설치할 때 자동으로 만들어지고 이름 지정 규칙 clusternodenodeid-priv를 사용합니다. 여기서 nodeid는 내부 노드 ID 번호입니다. Sun Cluster 설치 중에 노드가 클러스터 구성원이 될 때 이 노드 ID 번호가 자동으로 각 노드에 할당됩니다. 설치한 후에는 scsetup(1M) 유틸리티를 사용하여 개인용 호스트 이름을 변경할 수 있습니다.
Sun Cluster 3.0 12/01 릴리스 정보에 있는 "클러스터 상호 연결 워크시트"에 이 계획 정보를 추가하십시오.
클러스터 상호 연결은 클러스터 노드 사이의 독립 네트워크 통신을 위해 하드웨어 경로를 제공합니다. 각 상호 연결은 두 전송 어댑터 사이, 전송 어댑터와 전송 연결 장치 사이 또는 두 전송 연결 장치 사이를 연결하는 케이블로 구성됩니다. Sun Cluster를 설치할 때 두 클러스터 상호 연결에 대하여 다음 구성 정보를 지정합니다.
전송 어댑터 - 네트워크 인터페이스의 포트와 같은 전송 어댑터의 경우에는 전송 어댑터 이름과 전송 유형을 지정합니다. 구성이 2-노드 클러스터이면 상호 연결이 어댑터와 어댑터 사이에 직접 연결되는지 아니면 전송 연결 장치를 사용하는지도 지정합니다. 2-노드 클러스터가 직접 연결된 경우에도 상호 연결을 위한 전송 연결 장치를 지정할 수 있습니다. 전송 연결 장치를 지정하면 나중에 쉽게 다른 노드를 클러스터에 추가할 수 있습니다.
전송 연결 장치 - 네트워크 스위치와 같은 전송 연결 장치를 사용하는 경우에는 각 상호 연결을 위한 전송 연결 장치 이름을 지정합니다. 기본 이름 switchN을 사용할 수도 있고 다른 이름을 만들 수도 있습니다. 여기서 N은 설치할 때 자동으로 할당되는 번호입니다.
또한 연결 장치 포트 이름도 지정하거나 기본 이름을 그대로 사용합니다. 기본 포트 이름은 케이블 끝에 있는 어댑터를 호스트하는 노드의 내부 노드 ID 번호와 동일합니다. 그러나 SCI와 같은 특정 어댑터 유형에는 기본 포트 이름을 사용할 수 없습니다.
노드가 세 개 이상인 클러스터에서는 전송 연결 장치를 사용해야 합니다. 클러스터 노드 사이의 직접 연결은 2-노드 클러스터에서만 사용할 수 있습니다.
설치한 후에 scsetup(1M) 유틸리티를 사용하여 개인용 네트워크 연결을 추가로 구성할 수 있습니다.
클러스터 상호 연결에 대한 자세한 내용은 Sun Cluster 3.0 12/01 개념을 참조하십시오.
Sun Cluster 3.0 12/01 릴리스 정보에 있는 "공용 네트워크 워크시트"에 이 계획 정보를 추가하십시오.
공용 네트워크는 클러스터 외부와 통신을 합니다. 공용 네트워크 구성을 계획할 때는 다음 사항을 참고하십시오.
공용 네트워크와 독립 네트워크(클러스터 상호 연결)는 별도 어댑터를 사용해야 합니다.
모든 클러스터 노드에 연결된 공용 네트워크가 하나 이상 있어야 합니다.
하드웨어 구성에서 지원하는 만큼 공용 네트워크 연결을 추가로 만들 수 있습니다.
local-mac-address 변수에는 기본값 false를 사용해야 합니다. Sun Cluster 소프트웨어는 local-mac-address 변수에 true 값을 지원하지 않습니다.
공용 네트워크 어댑터 백업 그룹을 계획하는 방법은 "NAFO 그룹"을 참조하십시오. 공용 네트워크 인터페이스에 대한 자세한 내용은 Sun Cluster 3.0 12/01 개념을 참조하십시오.
Sun Cluster 3.0 12/01 릴리스 정보에 있는 "디스크 장치 그룹 구성 워크시트"에 이 계획 정보를 추가하십시오.
모든 볼륨 관리자 디스크 그룹을 Sun Cluster 디스크 장치 그룹으로 구성해야 합니다. 이 구성을 사용하면 1차 노드에 장애가 발생할 경우에 2차 노드가 멀티호스트 디스크를 호스트할 수 있습니다. 디스크 장치 그룹을 계획할 때는 다음 사항을 참고하십시오.
페일오버 - 멀티포트 디스크와 완전하게 구성된 볼륨 관리자 장치를 페일오버 장치로 구성할 수 있습니다. 완전하게 구성된 볼륨 관리자 장치에는 내보내진 장치를 여러 노드가 호스트할 수 있도록 정확하게 설정된 볼륨 관리자와 멀티포트 디스크가 포함됩니다. 테이프 드라이브, CD-ROM 또는 단일 포트 디스크는 페일오버 장치로 구성할 수 없습니다.
이중화 - 디스크 장애가 발생할 경우에 데이터를 보호하려면 디스크를 이중화해야 합니다. 이중화 방법은 "이중화 방법"을 참조하십시오. 이중화에 대한 자세한 설명은 "Solstice DiskSuite 소프트웨어 설치 및 구성" 또는 "VxVM 소프트웨어 설치 및 구성" 및 볼륨 관리자 문서를 참조하십시오.
디스크 장치 그룹에 대한 자세한 내용은 Sun Cluster 3.0 12/01 개념을 참조하십시오.
Sun Cluster 3.0 12/01 릴리스 정보에 있는 "공용 네트워크 워크시트"에 이 계획 정보를 추가하십시오.
NAFO(Network Adapter Failover) 그룹은 공용 네트워크 어댑터 모니터링과 페일오버 기능을 제공하는 네트워크 주소 자원의 기반입니다. NAFO 그룹에 어댑터가 두 개 이상 구성되어 있으면, 작동 어댑터에 장애가 발생할 경우에 NAFO 그룹의 모든 주소가 NAFO 그룹의 다른 어댑터로 페일오버됩니다. 이러한 방법으로 NAFO 그룹의 작동 어댑터가 NAFO 그룹의 어댑터가 연결된 서브넷과 공용 네트워크 사이의 연결을 유지합니다.
NAFO 그룹을 계획할 때는 다음 사항을 참고하십시오.
각 공용 네트워크 어댑터가 하나의 NAFO 그룹에 속해야 합니다.
각 노드가 서브넷마다 하나의 NAFO 그룹만 가질 수 있습니다.
지정된 NAFO 그룹에서 하나의 어댑터만이 /etc/hostname.adapter 파일 형식의 호스트 이름 연결을 사용할 수 있습니다.
NAFO 그룹의 이름 지정 규칙은 nafoN입니다. 여기서 N은 NAFO 그룹을 만들 때 사용자가 지정하는 번호입니다.
네트워크 어댑터 페일오버에 대한 자세한 내용은 Sun Cluster 3.0 12/01 개념을 참조하십시오.
Sun Cluster 구성에서는 정족수 장치를 사용하여 데이터 및 자원 무결성을 유지 관리합니다. 클러스터와 노드 사이의 연결이 일시적으로 중단되어 클러스터 노드가 클러스터에 다시 연결하려고 시도할 때 정족수 장치가 앰네시아나 브레인 분할 문제를 방지합니다. 정족수 장치는 scsetup(1M) 유틸리티를 사용하여 할당합니다.
정족수 장치를 계획할 때는 다음 사항을 참고하십시오.
최소 - 2-노드 클러스터에는 적어도 하나의 공유 디스크가 정족수 장치로 할당되어 있어야 합니다. 다른 토폴로지에서는 정족수 장치가 선택 사항입니다.
홀수 규칙 - 2-노드 클러스터 또는 정족수 장치에 직접 연결된 한 쌍의 노드에 두 개 이상의 정족수 장치가 구성되어 있으면 정족수 장치의 장애 경로가 완전히 독립되도록 정족수 장치를 홀수로 구성하십시오.
연결 - 정족수 장치를 세 개 이상의 노드에 연결하면 안됩니다.
정족수에 대한 자세한 내용은 Sun Cluster 3.0 12/01 개념을 참조하십시오.
이 단락에서는 글로벌 장치와 클러스터 파일 시스템을 계획하는 방법을 설명합니다. 글로벌 장치와 클러스터 파일 시스템에 대한 자세한 내용은 Sun Cluster 3.0 12/01 개념을 참조하십시오.
Sun Cluster에는 특정한 디스크 레이아웃이나 파일 시스템 크기가 지정되어 있지 않습니다. 글로벌 장치 및 클러스터 파일 시스템 레이아웃을 계획할 때는 다음 사항을 참고하십시오.
이중화 - 글로벌 장치의 가용성을 높이려면 모든 글로벌 장치를 이중화해야 합니다. 기억 장치에서 디스크에 대한 중복 경로뿐 아니라 하드웨어 RAID를 제공하면 소프트웨어 이중화를 사용하지 않아도 됩니다.
디스크 - 이중화할 때 서로 다른 디스크 배열 사이가 이중화되도록 디스크를 배치하십시오.
가용성 - 글로벌 장치의 가용성을 높이려면 클러스터에 있는 두 개 이상의 노드에 물리적으로 글로벌 장치를 연결해야 합니다. 글로벌 장치가 물리적으로 많이 연결되면 하나의 노드에서 장애가 발생해도 계속 작동할 수 있습니다. 물리적 연결이 하나밖에 없는 글로벌 장치를 사용할 수도 있지만, 연결된 노드가 중단되면 다른 노드에서 글로벌 장치에 액세스할 수 없습니다.
클러스터 파일 시스템에 대한 마운트 포인트를 계획할 때는 다음 사항을 참고하십시오.
마운트 포인트 위치 - 다른 소프트웨어 제품에 의해 금지된 경우가 아니면 /global 디렉토리에 마운트 포인트를 만드십시오. /global 디렉토리를 사용하면 글로벌로 사용할 수 있는 클러스터 파일 시스템을 로컬 파일 시스템과 쉽게 구별할 수 있습니다.
마운트 포인트 중첩 - 일반적으로 클러스터 파일 시스템에서는 마운트 포인트를 중첩하면 안됩니다. 예를 들어, /global/a에 파일 시스템 하나가 마운트되고 /global/a/b에 다른 파일 시스템이 마운트되도록 설정하지 마십시오. 이 규칙을 무시할 경우, 시스템이 상위 파일 시스템의 하위 파일 시스템을 마운트하려고 할 때 상위 마운트 포인트가 없으면 가용성 및 부트 순서에 문제가 발생할 수 있습니다. 동일한 디스크에 서로 다른 슬라이스가 있는 경우처럼 두 파일 시스템의 장치에 동일한 물리적 노드 연결이 있을 경우에는 이 규칙이 적용되지 않습니다.
Sun Cluster 3.0 12/01 릴리스 정보에 있는 "디스크 장치 그룹 구성 워크시트" 및 "볼륨 관리자 구성 워크시트"에 이 계획 정보를 추가하십시오. Solstice DiskSuite의 경우에는 "메타 장치 워크시트(Solstice DiskSuite)"에도 이 계획 정보를 추가하십시오.
이 단락에서는 클러스터 구성의 볼륨 관리 계획에 대하여 설명합니다.
Sun Cluster는 디스크를 하나의 단위로 관리할 수 있도록 볼륨 관리자 소프트웨어를 사용하여 디스크를 디스크 장치 그룹으로 그룹화합니다. Sun Cluster는 Solstice DiskSuite 소프트웨어와 VxVM(VERITAS Volume Manager)을 지원합니다.
Solstice DiskSuite 소프트웨어를 사용할 경우에는 일부 노드에서 디스크를 관리하기 위하여 VxVM을 사용하는 것과 관계없이 클러스터의 모든 노드에 이 소프트웨어를 설치해야 합니다.
VxVM을 사용하고 VxVM 클러스터 기능을 활성화하려면 클러스터의 모든 노드에 VxVM을 설치하고 사용권을 부여해야 합니다.
VxVM을 사용하고 VxVM 클러스터 기능을 활성화하지 않을 경우에는 VxVM이 관리할 기억 장치에 연결된 노드에만 VxVM을 설치하고 사용권을 부여하면 됩니다.
노드 하나에 Solstice DiskSuite 소프트웨어와 VxVM을 모두 설치하면 Solstice DiskSuite 소프트웨어를 사용하여 각 노드에 로컬인 디스크(예: 루트 디스크)를 관리하고 VxVM을 사용하여 모든 공유 디스크를 관리해야 합니다.
볼륨 관리자 소프트웨어를 설치하고 구성하는 방법은 볼륨 관리자 문서와 "Solstice DiskSuite 소프트웨어 설치 및 구성" 또는 "VxVM 소프트웨어 설치 및 구성"을 참조하십시오. 클러스터 구성에서 볼륨을 관리하는 방법은 Sun Cluster 3.0 12/01 개념을 참조하십시오.
디스크를 구성할 때는 다음과 같은 일반 사항을 참고하십시오.
이중화된 멀티호스트 디스크 - 모든 멀티호스트 디스크를 디스크 확장 장치에 이중화해야 합니다. 멀티호스트 디스크를 이중화하는 방법은 "멀티호스트 디스크 이중화"를 참조하십시오. 기억 장치에서 디스크에 대한 중복 경로뿐 아니라 하드웨어 RAID를 제공하면 소프트웨어 이중화를 사용하지 않아도 됩니다.
이중화된 루트 - 루트 디스크를 이중화하면 가용성이 높아지지만 이러한 이중화는 필요없습니다. 루트 디스크를 이중화할 것인지 결정하는 방법은 "이중화 방법"을 참조하십시오.
고유한 이름 지정 - 클러스터 노드에서 로컬 Solstice DiskSuite 메타 장치나 VxVM 볼륨이 /global/.devices/node@nodeid 파일 시스템을 마운트하는 장치로 사용될 경우에는 메타 장치나 볼륨의 이름이 전체 클러스터에서 고유해야 합니다.
노드 목록 - 디스크 장치 그룹의 가용성을 높이려면 마스터가 될 수 있는 노드 목록과 페일백 정책을 연결된 자원 그룹과 동일하게 지정하십시오. 또는 확장 가능한 자원 그룹에서 연결된 디스크 장치 그룹보다 많은 노드를 사용할 경우에는 확장 가능한 자원 그룹의 노드 목록을 디스크 장치 그룹의 노드 목록보다 상위 세트로 만드십시오. 노드 목록에 대한 자세한 내용은 Sun Cluster 3.0 12/01 Data Services Installation and Configuration Guide의 자원 그룹 계획 정보를 참조하십시오.
멀티포트 디스크 - 클러스터에서 장치 그룹을 구성하는 데 사용된 모든 디스크를 해당 장치 그룹에 대한 노드 목록에 구성된 모든 노드에 연결해야 합니다. Solstice DiskSuite 소프트웨어는 디스크가 디스크 세트에 추가될 때 자동으로 이것을 검사할 수 있습니다. 그러나 구성된 VxVM 디스크 그룹이 특정 노드 세트에 연결되지는 않습니다.
핫 스패어 디스크 - 핫 스패어 디스크를 사용하면 가용성을 높일 수 있지만 반드시 필요한 것은 아닙니다.
디스크 레이아웃 권장 사항과 추가 제한에 대한 내용은 볼륨 관리자 문서를 참조하십시오.
Solstice DiskSuite 구성을 계획할 때는 다음 사항을 참고하십시오.
로컬 메타 장치 이름 - 각 로컬 메타 장치 이름은 전체 클러스터에서 고유해야 하고 다른 DID(장치 ID) 이름과 동일하면 안됩니다.
Mediator - 정확히 두 개의 디스크 문자열로 구성되고 정확히 두 개의 노드에 의해 마스터되는 각 디스크 세트에는 디스크 세트용으로 구성된 Solstice DiskSuite mediator가 있어야 합니다. 디스크 문자열은 디스크 인클로저, 포함된 물리적 디스크, 인클로저와 노드 사이의 케이블, 인터페이스 어댑터 카드 등으로 구성됩니다. 각 디스크 세트는 mediator 호스트로 작동하는 두 개의 노드로만 구성해야 합니다. mediator가 필요한 모든 디스크 세트에 동일한 두 개의 노드를 사용해야 하고, 이 두 노드는 디스크 세트를 마스터해야 합니다. 2-문자열 및 2-호스트 요구 사항을 충족시키지 않는 디스크 세트에는 mediator를 구성할 수 없습니다. 자세한 내용은 mediator(7) 설명서 페이지를 참조하십시오.
/kernel/drv/md.conf 설정 - 각 디스크 세트에서 사용하는 모든 메타 장치는 재구성 부트를 실행할 때 /kernel/drv/md.conf 파일에 있는 구성 매개 변수에 따라 사전에 만들어집니다. md.conf 파일의 필드는 Solstice DiskSuite 문서에서 설명합니다. Sun Cluster 구성을 지원하려면 다음과 같이 nmd 및 md_nsets 필드를 수정해야 합니다.
nmd - nmd 필드는 각 디스크 세트에 사용하기 위해 만드는 메타 장치의 수를 지정합니다. nmd 값은 클러스터에 있는 디스크 세트 중 하나에서 사용할 것으로 예상되는 가장 많은 메타 장치 수로 설정해야 합니다. 예를 들어, 클러스터가 처음 15개의 디스크 세트에 10개의 메타 장치를 사용하지만 16번째 디스크 세트에 1000개의 메타 장치를 사용하면 nmd의 값을 1000 이상으로 설정해야 합니다. 또한 각 DID 이름에 사용할 번호 개수가 충분하고 각 로컬 메타 장치 이름이 전체 클러스터에서 고유하려면 nmd의 값이 커야 합니다. 디스크 세트마다 최대 8192개까지 메타 장치를 사용할 수 있습니다. 디스크 세트마다 기본 설정된 메타 장치 수는 128개입니다.
md_nsets - md_nsets 필드는 시스템이 전체 클러스터의 요구를 충족시키기 위해 만들 수 있는 디스크 세트 최대 개수입니다. md_nsets 값은 Solstice DiskSuite 소프트웨어가 로컬 호스트에 있는 독립 디스크(즉, 로컬 디스크 세트에 포함되지 않은 메타 장치)를 관리할 수 있도록 클러스터에서 예상되는 디스크 세트 수에 1을 더한 값으로 설정해야 합니다. 클러스터마다 최대 32개까지 디스크 세트를 사용할 수 있습니다. 기본 설정된 디스크 세트 수는 4개입니다.
설치할 때 예상되는 클러스터 확장을 모두 수용할 수 있도록 이 필드를 설정하십시오. 클러스터가 구성된 후에 이 값을 증가시키려면 각 노드를 재구성하기 위해 다시 부트해야 하기 때문에 시간이 소요됩니다. 이 값을 나중에 증가시키면 요청된 장치를 모두 만들기 위하여 루트(/) 파일 시스템에 잘못된 공간을 할당할 수도 있습니다.
각 노드에서 제공하는 디스크 세트 수와 관계없이 모든 클러스터 노드에 동일한 /kernel/drv/md.conf 파일이 있어야 합니다. 이 지침을 따르지 않으면 심각한 Solstice DiskSuite 오류가 발생하여 데이터가 손실될 수 있습니다.
VxVM(VERITAS Volume Manager) 구성을 계획할 때는 다음 사항을 참고하십시오.
인클로저 기반 이름 지정 - 장치에 대하여 인클로저 기반 이름 지정(VxVM 3.2 버전에서 도입한 기능)을 사용할 경우에는 동일한 기억 장치를 공유하는 모든 클러스터 노드에서 일관된 장치 이름을 사용해야 합니다. VxVM은 이 이름을 조정하지 않기 때문에 VxVM이 다른 노드에서 동일한 장치에 대하여 동일한 이름을 할당하도록 관리자가 조정해야 합니다. 일관된 이름을 할당하지 않아도 정확한 클러스터 작동에 문제가 발생하지는 않지만 클러스터 관리가 복잡해지기 때문에 구성 오류가 발생할 확률이 높아져서 데이터가 손실될 수 있습니다.
루트 디스크 그룹 - 각 노드에 기본 루트 디스크 그룹(rootdg)을 만들어야 합니다. rootdg 디스크 그룹은 다음과 같은 디스크에 만들 수 있습니다.
캡슐화되어야 하는 루트 디스크
캡슐화되거나 초기화될 수 있고 루트가 아닌 하나 이상의 로컬 디스크
루트 디스크와 루트가 아닌 로컬 디스크의 조합
rootdg 디스크 그룹은 노드에 로컬이어야 합니다.
캡슐화 - 캡슐화될 디스크에는 빈 디스크 슬라이스 테이블 항목 두 개가 있어야 합니다.
볼륨 수 - 디스크 장치 그룹이 만들어질 때 디스크 장치 그룹이 사용할 최대 볼륨 수를 계산하십시오.
볼륨 수가 1000보다 작으면 기본 설정된 하위 번호를 사용할 수 있습니다.
볼륨 수가 1000 이상이면 디스크 장치 그룹 볼륨에 하위 번호를 지정하는 방법을 계획해야 합니다. 두 개의 디스크 장치 그룹에 중복된 하위 번호를 할당하면 안됩니다.
DRL(Dirty Region Logging) - DRL은 사용하면 좋지만 반드시 필요한 것은 아닙니다. DRL을 사용하면 노드 장애가 발생한 후에 볼륨 복구 시간이 짧아집니다. DRL을 사용하면 I/O 처리량이 감소할 수 있습니다.
클러스터 파일 시스템에서는 로그 기록이 필요합니다. Sun Cluster는 다음과 같은 로그 기록 파일 시스템을 지원합니다.
Solaris UFS 로그 기록
Solstice DiskSuite 트랜스 메타 장치 UNIX 파일 시스템(UFS) 로그 기록
VxFS(VERITAS File System) 로그 기록
DiskSuite 트랜스 메타 장치에 대한 자세한 내용은 Solstice DiskSuite 문서를 참조하십시오. Solaris UFS 로그 기록에 대한 자세한 내용은 mount_ufs(1M) 설명서 페이지를 참조하십시오. VxFS 로그 기록에 대한 자세한 내용은 VxVM 소프트웨어와 함께 제공되는 mount_vxfs(1M) 설명서 페이지를 참조하십시오.
다음 표에 각 볼륨 관리자에서 지원하는 로그 기록 파일 시스템이 있습니다.
표 1-4 지원되는 파일 시스템 로그 기록 도표
볼륨 관리자 |
지원되는 파일 시스템 로그 기록 |
---|---|
Solstice DiskSuite |
Solaris UFS 로그 기록, Solstice DiskSuite 트랜스 메타 장치 UFS 로그 기록, VxFS 로그 기록 |
VERITAS Volume Manager |
Solaris UFS 로그 기록, VxFS 로그 기록 |
Solaris UFS 로그 기록과 Solstice DiskSuite 트랜스 메타 장치 UFS 로그 기록 중에서 선택할 때는 다음 사항을 참고하십시오.
Solaris UFS 로그 크기 - Solaris UFS 로그 기록에서는 항상 파일 시스템의 크기에 따라 UFS 파일 시스템의 사용 가능한 공간을 사용하여 로그를 할당합니다.
1GB 미만의 시스템에서는 로그가 1MB를 차지합니다.
1GB 이상의 파일 시스템에서는 로그가 파일 시스템에서 GB당 1MB를 차지하고, 최대 64MB까지 할당할 수 있습니다.
로그 메타 장치 - Solstice DiskSuite 트랜스 메타 장치는 UFS 로그 기록을 관리합니다. 트랜스 메타 장치의 로그 기록 장치 구성 요소는 사용자가 이중화하고 스트라이프할 수 있는 메타 장치입니다. 대부분의 파일 시스템에 64MB면 충분하지만 최대 1GB 크기까지 만들 수 있습니다. 최소 로그 크기는 1MB입니다. 트랜스 메타 장치 설정에 대한 자세한 내용은 Solstice DiskSuite 문서를 참조하십시오.
이 단락에서는 클러스터 구성에서 이중화를 계획하는 방법을 설명합니다.
Sun Cluster 구성에서 모든 멀티호스트 디스크를 이중화하면 단일 디스크에서 장애가 발생해도 구성이 계속 작동합니다. Sun Cluster 소프트웨어를 사용하려면 디스크 확장 장치 사이에서 모든 멀티호스트 디스크를 이중화해야 합니다. 기억 장치에서 디스크에 대한 중복 경로뿐 아니라 하드웨어 RAID를 제공하면 소프트웨어 이중화를 사용하지 않아도 됩니다.
멀티호스트 디스크를 이중화할 때는 다음 사항을 참고하십시오.
별도 디스크 확장 장치 - 지정된 미러의 각 하위 미러나 플렉스가 서로 다른 멀티호스트 디스크 확장 장치에 있어야 합니다.
디스크 공간 - 이중화하려면 두 배의 디스크 공간이 필요합니다.
3중 이중화 - Solstice DiskSuite 소프트웨어 및 VxVM(VERITAS Volume Manager)은 3중 이중화를 지원합니다. 그러나 Sun Cluster에서는 2중 이중화만 사용해야 합니다.
메타 장치 수 - Solstice DiskSuite 소프트웨어에서는 미러가 연결 또는 스트라이프와 같은 다른 메타 장치로 구성됩니다. 구성이 크면 많은 메타 장치가 포함될 수 있습니다. 예를 들어, 각 로그 기록 HFS 파일 시스템에 대하여 7개의 메타 장치가 만들어집니다.
서로 다른 디스크 크기 - 크기가 서로 다른 디스크에 이중화할 경우에는 미러 용량이 가장 작은 하위 미러나 플렉스 크기로 제한됩니다.
멀티호스트 디스크에 대한 자세한 내용은 Sun Cluster 3.0 12/01 개념을 참조하십시오.
Sun Cluster 3.0 12/01 릴리스 정보에 있는 "로컬 파일 시스템 레이아웃 워크시트"에 이 계획 정보를 추가하십시오.
가용성을 최대로 높이려면 루트(/), /usr, /var, /opt 및 swap을 로컬 디스크에 이중화해야 합니다. VxVM에서는 루트 디스크를 캡슐화하고 만들어진 하위 디스크를 이중화합니다. 그러나 Sun Cluster 소프트웨어를 사용할 경우에는 루트 디스크를 이중화하지 않아도 됩니다.
루트 디스크를 이중화할 것인지 결정하기 전에 위험, 복잡성, 비용 및 서비스 시간을 고려하여 루트 디스크에 대한 여러 가지 대안을 찾아 보십시오. 한 가지 이중화 전략이 모든 구성에서 작동하지는 않습니다. 루트를 이중화할 것인지 결정하려면 각 지역 엔터프라이즈 서비스 담당자가 주로 사용하는 방법을 고려하는 것이 좋습니다.
루트 디스크를 이중화하는 방법은 볼륨 관리자 문서와 "Solstice DiskSuite 소프트웨어 설치 및 구성" 또는 "VxVM 소프트웨어 설치 및 구성"을 참조하십시오.
루트 디스크를 이중화할 것인지 결정할 때는 다음 사항을 참고하십시오.
복잡성 - 루트 디스크를 이중화하면 시스템 관리가 더욱 복잡해지고 단일 사용자 모드의 부팅이 복잡해집니다.
백업 - 루트 디스크의 이중화 여부에 관계없이 정기적으로 루트를 백업해야 합니다. 관리 오류가 발생할 경우에 이중화만으로는 보호할 수 없습니다. 백업 계획을 세워야만 사고로 변경되거나 삭제된 파일을 복구할 수 있습니다.
정족수 장치 - 정족수 장치로 구성된 디스크는 루트 디스크를 이중화하는 데 사용하지 마십시오.
정족수 - Solstice DiskSuite 소프트웨어에서는 메타 장치 상태 데이터베이스 정족수가 없으면 유지 보수 작업을 수행할 때까지 시스템을 다시 부트할 수 없습니다. 메타 장치 상태 데이터베이스 및 상태 데이터베이스 복제에 대한 자세한 내용은 Solstice DiskSuite 문서를 참조하십시오.
별도 컨트롤러 - 가용성을 최대로 높이는 방법으로 별도 컨트롤러에 루트 디스크를 이중화하는 방법이 있습니다.
부트 디스크 - 1차 부트 디스크에 장애가 발생할 경우에 미러에서 부트할 수 있도록 미러를 부팅 가능한 루트 디스크로 설정할 수 있습니다.
2차 루트 디스크 - 이중화된 루트 디스크가 있으면 1차 루트 디스크에 장애가 발생해도 2차(미러) 루트 디스크에서 작동을 계속할 수 있습니다. 나중에(전원 주기 또는 순간적인 I/O 오류 후에) 1차 루트 디스크가 다시 작동할 수도 있고, 이후의 부트는 OpenBootTM PROM boot-device 필드에 지정된 1차 루트 디스크를 사용하여 수행됩니다. 이러한 경우에는 직접 복구하지 않아도 부트할 수 있도록 드라이브가 정상적으로 작동합니다. Solstice DiskSuite 재동기화가 필요합니다. 재동기화는 드라이브가 다시 작동할 때 직접 해야 합니다.
2차(미러) 루트 디스크에서 파일을 변경한 경우에는 부트할 때 변경 사항이 1차 루트 디스크에 반영되지 않았기 때문에 하위 미러 오류가 발생할 수 있습니다. 예를 들어, /etc/system 파일에 대한 변경 사항은 삭제될 것입니다. 1차 루트 디스크가 작동하지 않는 동안 Solstice DiskSuite의 일부 관리 명령에 의해 /etc/system 파일이 변경될 수 있습니다.
부트 프로그램은 미러에서 부트하는지 아니면 하부 물리적 장치에서 부트하는지 검사하지 않고, 이중화는 전체 부트 프로세스에서 어느 정도(메타 장치가 로드된 후)까지만 작동합니다. 이 시점 이전의 작동으로 인해 시스템의 하위 미러에 문제가 발생할 수 있습니다.