탐색 링크 건너뛰기 | |
인쇄 보기 종료 | |
![]() |
Oracle Solaris Cluster 소프트웨어 설치 설명서 Oracle Solaris Cluster (한국어) |
1. Oracle Solaris Cluster 구성 계획
4. Solaris Volume Manager 소프트웨어 구성
5. Veritas Volume Manager(VERITAS 볼륨 관리자) 설치 및 구성
8. Sun Management Center에 Oracle Solaris Cluster 모듈 설치
이 절에서는 Oracle Solaris Cluster 구성에 VxVM 소프트웨어를 설치 및 구성하는 절차와 정보를 제공합니다.
다음 표에는 Oracle Solaris Cluster 구성에 필요한 VxVM 소프트웨어를 설치하고 구성하기 위해 수행할 작업이 나열되어 있습니다. 표시된 순서대로 절차를 완료하십시오.
표 5-1 작업 맵: VxVM 소프트웨어 설치 및 구성
|
루트 디스크 그룹 만들기는 선택 사항입니다. 루트 디스크 그룹을 만들지 않으려면 Veritas Volume Manager(VERITAS 볼륨 관리자) 소프트웨어를 설치하는 방법으로 진행합니다.
노드의 루트 디스크 그룹에 대한 액세스는 해당 노드로만 제한되어야 합니다.
원격 노드는 다른 노드의 루트 디스크 그룹에 저장된 데이터에 액세스할 수 없어야 합니다.
루트 디스크 그룹을 장치 그룹으로 등록하는 데 cldevicegroup 명령을 사용하지 마십시오.
가능하면 비공유 디스크의 각 노드에 대해 루트 디스크 그룹을 구성합니다.
Oracle Solaris Cluster 소프트웨어에서는 루트 디스크 그룹을 구성하기 위한 다음 방법을 지원합니다.
노드의 루트 디스크 캡슐화(UFS에만 해당) – 이 방법을 사용하면 루트 디스크를 미러링하여 루트 디스크가 손상되거나 훼손된 경우 대체 부트를 제공할 수 있습니다. 루트 디스크를 캡슐화하려면 디스크 시작 부분이나 끝 부분에 빈 실린더와 두 개의 빈 디스크 슬라이스가 있어야 합니다.
ZFS 파일 시스템을 사용하는 경우에는 루트 디스크를 캡슐화할 수 없습니다. 대신 루트가 아닌 로컬 디스크에 루트 디스크 그룹을 구성합니다.
루트가 아닌 로컬 디스크 사용 – 이 방법에서는 루트 디스크를 캡슐화하는 다른 방법을 제공합니다. 노드의 루트 디스크를 캡슐화하면 Solaris OS 업그레이드나 재해 복구 절차와 같은 일부 작업이 루트 디스크를 캡슐화하지 않은 경우보다 복잡해질 수 있습니다. 이렇게 복잡성이 가중되는 문제를 방지하기 위해 루트가 아닌 로컬 디스크를 루트 디스크 그룹으로 사용하도록 초기화하거나 캡슐화할 수 있습니다.
루트가 아닌 로컬 디스크에 만든 루트 디스크 그룹은 해당 노드에 로컬로 사용되기 때문에 전역으로 액세스할 수 없으며 가용성도 높지 않습니다. 루트 디스크처럼 루트가 아닌 디스크를 캡슐화하려면 디스크 시작 부분이나 끝 부분에 빈 실린더와 두 개의 빈 디스크 슬라이스가 있어야 합니다.
자세한 내용은 VxVM 설치 설명서를 참조하십시오.
VxVM을 설치하려는 각 전역 클러스터 노드에 VxVM(Veritas Volume Manager(VERITAS 볼륨 관리자)) 소프트웨어를 설치하려면 이 절차를 수행합니다. 클러스터의 모든 노드에 VxVM을 설치하거나 VxVM에서 관리할 저장 장치에 물리적으로 연결된 노드에만 VxVM을 설치할 수 있습니다.
시작하기 전에
다음 작업을 수행합니다.
클러스터의 모든 노드가 클러스터 모드로 실행되고 있는지 확인합니다.
설치해야 하는 VxVM(Veritas Volume Manager(VERITAS 볼륨 관리자))의 라이센스 키를 얻습니다.
VxVM 설치 설명서를 준비합니다.
phys-schost# clvxvm initialize
clvxvm 유틸리티는 필요한 사후 설치 작업을 수행합니다. 또한 clvxvm 유틸리티는 클러스터 전체의 vxio 드라이버 주 번호를 선택하고 구성합니다. 자세한 내용은 clvxvm(1CL) 매뉴얼 페이지를 참조하십시오.
라이센스를 추가하는 방법에 대한 자세한 내용은 VxVM 설명서를 참조하십시오.
VxVM GUI 설치에 대한 자세한 내용은 VxVM 설명서를 참조하십시오.
패치 위치 및 설치 지침은 Oracle Solaris Cluster 3.3 5/11 릴리스 노트의 패치 및 필수 펌웨어 수준를 참조하십시오.
phys-schost# grep vxio /etc/name_to_major
phys-schost# vi /etc/name_to_major vxio NNN
phys-schost# drvconfig -b -i vxio -m NNN
완료되면 클러스터의 각 노드에 있는 /etc/name_to_major 파일에 동일한 vxio 항목이 있어야 합니다.
그렇지 않으면 단계 12로 진행합니다.
주 - 루트 디스크 그룹은 선택 사항입니다.
phys-schost# shutdown -g0 -y -i6
다음 순서
루트 디스크 그룹을 만들려면 (UFS에만 해당) SPARC: 루트 디스크를 캡슐화하는 방법 또는 루트가 아닌 디스크에 루트 디스크 그룹을 만드는 방법으로 이동합니다.
그렇지 않으면 디스크 그룹을 만듭니다. 클러스터에서 디스크 그룹 만들기로 이동합니다.
UFS 루트 디스크를 캡슐화하여 루트 디스크 그룹을 만들려면 이 절차를 수행합니다. 루트 디스크 그룹은 선택 사항입니다. 자세한 내용은 VxVM 설명서를 참조하십시오.
주 - 루트 디스크에서 ZFS를 사용하는 경우에는 루트가 아닌 로컬 디스크에만 루트 디스크 그룹을 만들 수 있습니다. 루트가 아닌 디스크에 루트 디스크 그룹을 만들려면 루트가 아닌 디스크에 루트 디스크 그룹을 만드는 방법의 절차를 대신 수행합니다.
시작하기 전에
Veritas Volume Manager(VERITAS 볼륨 관리자) 소프트웨어를 설치하는 방법에 설명된 대로 VxVM을 설치했는지 확인합니다.
phys-schost# clvxvm encapsulate
자세한 내용은 clvxvm(1CL) 매뉴얼 페이지를 참조하십시오.
다음 순서
캡슐화된 루트 디스크를 미러링하려면 캡슐화된 루트 디스크를 미러링하는 방법으로 이동합니다.
그렇지 않으면 클러스터에서 디스크 그룹 만들기로 이동합니다.
이 절차를 사용하여 루트 디스크가 아닌 로컬 디스크를 캡슐화하거나 초기화하여 루트 디스크 그룹을 만듭니다. 루트 디스크 그룹 만들기는 선택 사항입니다.
시작하기 전에
디스크를 캡슐화하려면 각 디스크에 실린더가 0인 슬라이스가 두 개 이상 있어야 합니다. 필요한 경우 format(1M) 명령을 사용하여 각 VxVM 슬라이스에 0 실린더를 할당합니다.
phys-schost# vxinstall
SPARC: VxVM 클러스터 기능을 활성화하려면 클러스터 기능 라이센스 키를 제공합니다.
Custom Installation(사용자 정의 설치)을 선택합니다.
부트 디스크를 캡슐화하지 마십시오.
루트 디스크 그룹에 추가할 디스크를 선택합니다.
자동으로 재부트하지 마십시오.
다음 명령을 사용하여 루트 디스크 그룹의 각 공유 디스크에 대해 보호(fencing)를 비활성화합니다.
phys-schost# cldevice set -p default_fencing=nofencing device
장치 등록 정보를 지정합니다.
지정한 장치에 대해 보호(fencing)를 비활성화합니다.
장치에 대해 보호(fencing)를 비활성화하면 해당 디스크가 여러 노드에 연결된 경우 루트 디스크 그룹이 사용하는 디스크에서 노드의 의도하지 않은 보호(fencing)를 방지할 수 있습니다.
default_fencing 등록 정보에 대한 자세한 내용은 cldevice(1CL) 매뉴얼 페이지를 참조하십시오.
phys-schost# clnode evacuate from-node
자원 또는 장치 그룹을 이동할 노드의 이름을 지정합니다.
phys-schost# shutdown -g0 -y -i6
루트 디스크 그룹에 여러 디스크를 포함하면 디스크 하나에 장애가 발생해도 계속 작동합니다. 자세한 절차는 VxVM 설명서를 참조하십시오.
다음 순서
디스크 그룹을 만듭니다. 클러스터에서 디스크 그룹 만들기로 이동합니다.
VxVM을 설치하고 루트 디스크를 캡슐화한 후 캡슐화된 루트 디스크를 미러링하는 이 절차를 각 노드에서 수행합니다.
시작하기 전에
SPARC: 루트 디스크를 캡슐화하는 방법에 설명된 대로 루트 디스크를 캡슐화했는지 확인합니다.
phys-schost# cldevice list -v
다음과 같이 출력됩니다.
DID Device Full Device Path ---------- ---------------- d1 phys-schost-1:/dev/rdsk/c0t0d0 d2 phys-schost-1:/dev/rdsk/c0t6d0 d3 phys-schost-2:/dev/rdsk/c1t1d0 d3 phys-schost-1:/dev/rdsk/c1t1d0
가용성을 최대화하고 쉽게 관리하려면 로컬 디스크를 사용하여 미러링하십시오. 추가 지침은 루트 디스크 미러링 지침을 참조하십시오.
![]() | 주의 - 루트 디스크 미러에 쿼럼 장치를 사용하지 마십시오. 쿼럼 장치를 사용하여 루트 디스크를 미러링하면 특정 환경의 루트 디스크 미러에서 노드가 부트되지 않을 수 있습니다. |
장치 그룹의 이름은 dsk/dN 형식입니다. 여기서 dN은 DID 장치 이름입니다.
phys-schost# cldevicegroup list -v dsk/dN
출력 내용을 상세히 표시합니다.
다음과 같이 출력됩니다.
Device group Type Node list ------------ ---- --------- dsk/dN Local_Disk phys-schost-1, phys-schost-3
루트 디스크를 미러링한 노드만 원시 디스크 장치 그룹의 노드 목록에 남아 있어야 합니다.
phys-schost# cldevicegroup remove-node -n node dsk/dN
장치 그룹 노드 목록에서 제거할 노드를 지정합니다.
장치에 대해 보호(fencing)를 비활성화하면 부트 장치가 여러 노드에 연결된 경우 부트 장치에서 노드의 의도하지 않은 보호(fencing)를 방지할 수 있습니다.
phys-schost# cldevice set -p default_fencing=nofencing device
장치 등록 정보의 값을 설정합니다.
지정한 장치에 대해 보호(fencing)를 비활성화합니다.
default_fencing 등록 정보에 대한 자세한 내용은 cldevice(1CL) 매뉴얼 페이지를 참조하십시오.
예 5-1 캡슐화된 루트 디스크 미러링
다음 예에서는 phys-schost-1 노드의 루트 디스크로 만든 미러를 보여 줍니다. 원시 디스크 장치 그룹 이름이 dsk/d2인 c0t0d0 디스크에 미러가 만들어집니다. c0t0d0 디스크는 다중 호스트 디스크이므로 phys-schost-3 노드가 디스크의 노드 목록에서 제거되고 보호(fencing)가 비활성화됩니다.
phys-schost# cldevice list -v DID Device Full Device Path ---------- ---------------- d2 pcircinus1:/dev/rdsk/c0t0d0 … Create the mirror by using VxVM procedures phys-schost# cldevicegroup list -v dsk/d2 Device group Type Node list ------------ ---- --------- dsk/d2 Local_Disk phys-schost-1, phys-schost-3 phys-schost# cldevicegroup remove-node -n phys-schost-3 dsk/d2 phys-schost# cldevice set -p default_fencing=nofencing c0t0d0
다음 순서
디스크 그룹을 만듭니다. 클러스터에서 디스크 그룹 만들기로 이동합니다.