탐색 링크 건너뛰기 | |
인쇄 보기 종료 | |
Oracle Solaris Cluster 시스템 관리 설명서 Oracle Solaris Cluster 4.0 (한국어) |
1. Oracle Solaris Cluster 관리 방법 소개
2. Oracle Solaris Cluster 및 RBAC
5. 전역 장치, 디스크 경로 모니터링 및 클러스터 파일 시스템 관리
Solaris Volume Manager에 대한 전역 장치 사용 권한
전역 장치 이름 공간에 사용되는 lofi 장치의 크기 변경 방법
전용 파티션에서 lofi 장치로 전역 장치 이름 공간 마이그레이션 방법
lofi 장치에서 전용 파티션으로 전역 장치 이름 공간 마이그레이션 방법
장치 그룹 추가 및 등록 방법(Solaris Volume Manager)
장치 그룹 제거 및 등록 해제 방법(Solaris Volume Manager)
모든 저장 장치에 대한 기본 전역 SCSI 프로토콜 설정을 표시하는 방법
모든 저장 장치에 대한 기본 전역 보호(fencing) 프로토콜 설정을 변경하는 방법
단일 저장 장치에 대한 보호(fencing) 프로토콜을 변경하는 방법
모니터링된 모든 공유 디스크 경로가 실패할 경우 노드의 자동 재부트를 활성화하는 방법
클러스터 요구 사항이 변경됨에 따라 클러스터에서 장치 그룹을 추가, 제거 또는 수정해야 할 수도 있습니다. Oracle Solaris Cluster에는 이러한 변경을 위해 clsetup이라는 대화식 인터페이스가 제공됩니다. clsetup은 cluster 명령을 생성합니다. 몇 가지 절차 뒤에 다음과 같은 생성된 명령의 예가 나옵니다. 다음 표에서는 장치 그룹 관리에 대한 작업을 나열하고 이 절의 해당 절차에 대한 링크를 제공합니다.
주의 - 다른 노드가 활성 클러스터 구성원이고 그 중 하나 이상이 디스크 세트를 소유하고 있는 경우에는 클러스터 외부에서 부트되는 클러스터 노드에서 metaset —s setname —f -t 명령을 실행하지 마십시오. |
주 - Oracle Solaris Cluster 소프트웨어는 자동으로 클러스터의 각 디스크와 테이프 장치에 대한 원시 디스크 장치 그룹을 만듭니다. 그러나 사용자가 클러스터 장치 그룹을 전역 장치로 액세스할 때까지 클러스터 장치 그룹이 오프라인 상태를 유지합니다.
표 5-2 작업 맵: 장치 그룹 관리
|
새 전역 장치를 추가하는 경우 cldevice populate 명령을 실행하여 전역 장치 이름 공간을 수동으로 업데이트합니다.
주 - cldevice populate 명령을 실행하는 노드가 현재 클러스터 구성원이 아니면 명령이 적용되지 않습니다. /global/.devices/node@ nodeID 파일 시스템이 마운트되지 않은 경우에도 명령이 적용되지 않습니다.
클러스터의 모든 노드에서 동시에 이 명령을 실행할 수 있습니다. 자세한 내용은 devfsadm(1M) 매뉴얼 페이지를 참조하십시오.
# cldevice populate
cldevice 명령이 한 노드에서만 실행되는 경우에도 이 명령은 모든 노드에서 동일한 명령을 원격으로 호출합니다. cldevice populate 명령이 프로세스를 완료했는지 확인하려면 클러스터의 각 노드에서 다음 명령을 실행합니다.
# ps -ef | grep cldevice populate
예 5-1 전역 장치 이름 공간 업데이트
다음 예에서는 성공적으로 cldevice populate 명령을 실행한 경우 생성되는 출력을 보여 줍니다.
# devfsadm cldevice populate Configuring the /dev/global directory (global devices)... obtaining access to all attached disks reservation program successfully exiting # ps -ef | grep cldevice populate
전역 클러스터의 노드 하나 이상에서 전역 장치 이름 공간에 lofi 장치를 사용하는 경우 이 절차를 수행하여 장치 크기를 변경합니다.
이 절차를 수행하는 동안 이 노드에서 전역 장치가 처리되지 않도록 하기 위해 이 작업을 수행합니다. 지침은 비클러스터 모드로 노드를 부트하는 방법을 참조하십시오.
전역 장치 파일 시스템이 로컬로 마운트됩니다.
phys-schost# umount /global/.devices/node\@`clinfo -n` > /dev/null 2>&1 Ensure that the lofi device is detached phys-schost# lofiadm -d /.globaldevices The command returns no output if the device is detached
주 - -m 옵션을 사용하여 파일 시스템을 마운트하면 mnttab 파일에 항목이 추가되지 않습니다. umount 명령에서 다음과 같은 경고를 보고할 수 있습니다.
umount: warning: /global/.devices/node@2 not in mnttab ====>>>> not mounted
이 경고는 무시해도 됩니다.
다음 예에서는 200MB 크기의 새 /.globaldevices 파일 만들기를 보여 줍니다.
phys-schost# rm /.globaldevices phys-schost# mkfile 200M /.globaldevices
phys-schost# lofiadm -a /.globaldevices phys-schost# newfs `lofiadm /.globaldevices` < /dev/null
이제 전역 장치가 새 파일 시스템에 채워집니다.
phys-schost# reboot
전용 파티션에 전역 장치 이름 공간을 만들지 않고 lofi(loopback file interface) 장치에 이름 공간을 만들 수 있습니다.
주 - 루트 파일 시스템에 대한 ZFS가 지원되지만 한 가지 중요한 예외가 있습니다. 전역 장치 파일 시스템에 대해 부트 디스크의 전용 파티션을 사용하는 경우 파일 시스템으로 UFS만 사용해야 합니다. 전역 장치 이름 공간에는 UFS 파일 시스템에서 실행되는 PxFS(Proxy File System)가 필요합니다. 그러나 전역 장치 이름 공간에 대한 UFS 파일 시스템은 루트(/) 파일 시스템 및 다른 루트 파일 시스템(예: /var 또는 /home)에 대한 ZFS 파일 시스템과 공존할 수 있습니다. 또는 lofi 장치를 대신 사용하여 전역 장치 이름 공간을 호스트하는 경우 루트 파일 시스템에 대한 ZFS 사용에 제한이 없습니다.
다음 절차에서는 기존의 전역 장치 이름 공간을 전용 파티션에서 lofi 장치로 이동하거나 그 반대로 이동하는 방법에 대해 설명합니다.
이 절차를 수행하는 동안 이 노드에서 전역 장치가 처리되지 않도록 하기 위해 이 작업을 수행합니다. 지침은 비클러스터 모드로 노드를 부트하는 방법을 참조하십시오.
파일이 있으면 삭제합니다.
# mkfile 100m /.globaldevices# lofiadm -a /.globaldevices # LOFI_DEV=`lofiadm /.globaldevices` # newfs `echo ${LOFI_DEV} | sed -e 's/lofi/rlofi/g'` < /dev/null# lofiadm -d /.globaldevices
이 항목에는 /global/.devices/node@nodeID로 시작하는 마운트 경로가 있습니다.
# svcadm disable globaldevices # svcadm disable scmountdev # svcadm enable scmountdev # svcadm enable globaldevices
이제 lofi 장치가 /.globaldevices에 만들어져 전역 장치 파일 시스템으로 마운트됩니다.
# /usr/cluster/bin/cldevice populate
클러스터에 대해 향후 작업을 수행하기 전에 각 노드에서 명령 처리가 완료되었는지 확인합니다.
# ps -ef | grep cldevice populate
이제 전역 장치 이름 공간이 lofi 장치에 상주합니다.
이 절차를 수행하는 동안 이 노드에서 전역 장치가 처리되지 않도록 하기 위해 이 작업을 수행합니다. 지침은 비클러스터 모드로 노드를 부트하는 방법을 참조하십시오.
크기 512MB 이상
UFS 파일 시스템 사용
# /usr/sbin/clinfo -n node- ID
blockdevice rawdevice /global/.devices/node@nodeID ufs 2 no global
예를 들어 사용하려고 선택한 파티션이 /dev/did/rdsk/d5s3인 경우 /etc/vfstab 파일에 추가할 새 항목은 /dev/did/dsk/d5s3 /dev/did/rdsk/d5s3 /global/.devices/node@3 ufs 2 no global이 됩니다.
# lofiadm -d /.globaldevices
# rm /.globaldevices
# svcadm disable globaldevices# svcadm disable scmountdev # svcadm enable scmountdev # svcadm enable globaldevices
이제 파티션이 전역 장치 이름 공간 파일 시스템으로 마운트됩니다.
# /usr/cluster/bin/cldevice populate
# ps -ef | grep cldevice populate
이제 전역 장치 이름 공간이 전용 파티션에 상주합니다.
Solaris Volume Manager, ZFS 또는 원시 디스크에 대한 장치 그룹을 추가하고 등록할 수 있습니다.
metaset 명령을 사용하여 Solaris Volume Manager 디스크 세트를 만들고 해당 디스크 세트를 Oracle Solaris Cluster 장치 그룹으로 등록합니다. 디스크 세트를 등록하면 디스크 세트에 지정한 이름이 자동으로 장치 그룹에 할당됩니다.
phys-schost# 프롬프트는 전역 클러스터 프롬프트를 반영합니다. 전역 클러스터에서 이 절차를 수행합니다.
이 절차에서는 장문형 Oracle Solaris Cluster 명령을 제공합니다. 대부분의 명령에는 단문형도 있습니다. 명령은 명령 이름이 장문형과 단문형인 것을 제외하면 동일합니다.
주의 - 사용자가 만든 Oracle Solaris Cluster 장치 그룹(Solaris Volume Manager 또는 원시 디스크)의 이름은 복제된 장치 그룹의 이름과 같아야 합니다. |
복수 소유자 디스크 그룹을 만들려면 -M 옵션을 사용합니다.
# metaset -s diskset -a -M -h nodelist
만들 디스크 세트를 지정합니다.
디스크 세트를 마스터할 수 있는 노드 목록을 추가합니다.
디스크 그룹의 소유자를 여러 명으로 지정합니다.
주 - metaset 명령을 실행하여 클러스터에 Solaris Volume Manager 장치 그룹을 설치하면 해당 장치 그룹에 포함된 노드 수에 관계 없이 기본적으로 보조 노드 수가 하나가 됩니다. 장치 그룹이 만들어진 후 clsetup 유틸리티를 사용하여 원하는 보조 노드 수를 변경할 수 있습니다. 디스크 장애 조치에 대한 자세한 내용은 장치 그룹에 원하는 보조 수를 설정하는 방법을 참조하십시오.
# cldevicegroup sync devicegroup
장치 그룹 이름은 metaset로 지정한 디스크 세트 이름과 일치합니다.
# cldevicegroup list
# cldevice show | grep Device
디스크 세트를 마스터하거나 마스터할 수도 있는 클러스터 노드가 공유하는 드라이브를 선택하십시오.
디스크 세트에 드라이브를 추가할 때 /dev/did/rdsk/dN 형식의 전체 DID 장치 이름을 사용합니다.
다음 예에서 DID 장치 /dev/did/rdsk/d3에 대한 항목은 드라이브가 phys-schost-1 및 phys-schost-2에 의해 공유됨을 나타냅니다.
=== DID Device Instances === DID Device Name: /dev/did/rdsk/d1 Full Device Path: phys-schost-1:/dev/rdsk/c0t0d0 DID Device Name: /dev/did/rdsk/d2 Full Device Path: phys-schost-1:/dev/rdsk/c0t6d0 DID Device Name: /dev/did/rdsk/d3 Full Device Path: phys-schost-1:/dev/rdsk/c1t1d0 Full Device Path: phys-schost-2:/dev/rdsk/c1t1d0 …
전체 DID 경로 이름을 사용합니다.
# metaset -s setname -a /dev/did/rdsk/dN
디스크 세트 이름을 장치 그룹 이름과 동일하게 지정합니다.
디스크 세트에 드라이브를 추가합니다.
주 - 디스크 세트에 드라이브를 추가할 때 하위 수준 장치 이름( cNtX dY)을 사용하지 마십시오. 하위 수준 장치 이름은 로컬 이름이므로 클러스터 전체에서 고유하지 않기 때문에 이 이름을 사용하면 메타 세트가 전환되지 않을 수도 있습니다.
# metaset -s setname
예 5-2 Solaris Volume Manager 디스크 그룹 추가
다음 예에서는 /dev/did/rdsk/d1 및 /dev/did/rdsk/d2 디스크 드라이브가 포함된 디스크 세트 및 장치 그룹을 만드는 방법을 보여 주고 장치 그룹이 만들어졌는지 확인합니다.
# metaset -s dg-schost-1 -a -h phys-schost-1 # cldevicegroup list dg-schost-1 # metaset -s dg-schost-1 -a /dev/did/rdsk/d1 /dev/did/rdsk/d2
Oracle Solaris Cluster 소프트웨어는 다른 볼륨 관리자 사용과 함께 원시 디스크 장치 그룹의 사용을 지원합니다. 처음에 Oracle Solaris Cluster를 구성하면 클러스터에 있는 각 원시 장치에 대해 장치 그룹이 자동으로 구성됩니다. Oracle Solaris Cluster 소프트웨어와 함께 사용하기 위해 자동으로 작성된 장치 그룹을 이 절차를 사용하여 재구성합니다.
다음과 같은 이유로 인해 원시 디스크 유형의 새 장치 그룹을 만듭니다.
장치 그룹에 둘 이상의 DID를 추가하려고 합니다.
장치 그룹의 이름을 변경해야 합니다.
cldevicegroup 명령의 -v 옵션을 사용하지 않고 장치 그룹 목록을 만들려고 합니다.
주의 - 복제된 장치에 장치 그룹을 만드는 경우 만든 장치 그룹(Solaris Volume Manager 또는 원시 디스크)의 이름은 복제된 장치 그룹의 이름과 같아야 합니다. |
다음 명령은 d7 및 d8로 사전 정의된 장치 그룹을 제거합니다.
paris-1# cldevicegroup disable dsk/d7 dsk/d8 paris-1# cldevicegroup offline dsk/d7 dsk/d8 paris-1# cldevicegroup delete dsk/d7 dsk/d8
다음 명령은 d7 및 d8을 포함하는 전역 장치 그룹 rawdg를 작성합니다.
paris-1# cldevicegroup create -n phys-paris-1,phys-paris-2 -t rawdisk -d d7,d8 rawdg paris-1# /usr/cluster/lib/dcs/cldg show rawdg -d d7 rawdg paris-1# /usr/cluster/lib/dcs/cldg show rawdg -d d8 rawdg
ZFS를 복제하려면 명명된 장치 그룹을 만들고 zpool에 속하는 디스크를 나열해야 합니다. 장치는 한 번에 하나의 장치 그룹에만 속할 수 있으므로 장치가 포함된 Oracle Solaris Cluster 장치 그룹이 이미 있는 경우에는 새 ZFS 장치 그룹에 해당 장치를 추가하기 전에 그룹을 삭제해야 합니다.
사용자가 만든 Oracle Solaris Cluster 장치 그룹(Solaris Volume Manager 또는 원시 디스크)의 이름은 복제된 장치 그룹의 이름과 같아야 합니다.
예를 들어 /dev/did/dsk/d2 및 /dev/did/dsk/d13 장치 두 개를 포함하는 mypool이라는 zpool이 있는 경우 d2와 d13이라는 기본 장치 그룹 두 개를 삭제해야 합니다.
# cldevicegroup offline dsk/d2 dsk/d13 # cldevicegroup add dsk/d2 dsk/d13
# cldevicegroup create -n pnode1,pnode2 -d d2,d13 -t rawdisk mypool
이 작업을 수행하면 mypool(zpool과 같은 이름)이라는 장치 그룹이 만들어져 /dev/did/dsk/d2 및 /dev/did/dsk/d13 원시 장치를 관리합니다.
# zpool create mypool mirror /dev/did/dsk/d2 /dev/did/dsk/d13
# clrg create -n pnode1,pnode2 migrate_truecopydg-rg
이 장치는 단계 2에서 만들었습니다.
# clrs create -t HAStoragePlus -x globaldevicepaths=mypool -g \ migrate_truecopydg-rg hasp2migrate_mypool
# clrg create -n pnode1:zone-1,pnode2:zone-2 -p \ RG_affinities=+++migrate_truecopydg-rg sybase-rg
resource_dependencies 등록 정보를 단계 5에서 만든 hasp-rs 자원으로 설정합니다.
# clrs create -g sybase-rg -t HAStoragePlus -p zpools=mypool \ -p resource_dependencies=hasp2migrate_mypool \ -p ZpoolsSearchDir=/dev/did/dsk hasp2import_mypool
장치 그룹에 대해 다양한 관리 작업을 수행할 수 있습니다.
장치 그룹은 Oracle Solaris Cluster에 등록된 Solaris Volume Manager 디스크 세트입니다. Solaris Volume Manager 장치 그룹을 제거하려면 metaclear 및 metaset 명령을 사용합니다. 이 명령은 동일한 이름의 장치 그룹을 제거하고 Oracle Solaris Cluster 장치 그룹에서 디스크 그룹의 등록을 해제합니다.
디스크 세트를 제거하는 단계는 Solaris Volume Manager 설명서를 참조하십시오.
잠재적 기본 노드 목록에 해당 노드를 나열하는 모든 장치 그룹에서 클러스터 노드를 제거하려면 이 절차를 사용합니다.
phys-schost# 프롬프트는 전역 클러스터 프롬프트를 반영합니다. 전역 클러스터에서 이 절차를 수행합니다.
이 절차에서는 장문형 Oracle Solaris Cluster 명령을 제공합니다. 대부분의 명령에는 단문형도 있습니다. 명령은 명령 이름이 장문형과 단문형인 것을 제외하면 동일합니다.
각 장치 그룹에 대한 Device group node list에서 해당 노드 이름을 찾습니다.
# cldevicegroup list -v
# cldevicegroup list -v
해당 노드가 장치 그룹의 잠재적인 기본 노드로서 목록에 포함되어 있지 않으면 명령을 실행해도 아무것도 반환되지 않습니다.
# cldevicegroup list -v nodename
Solaris Volume Manager 장치 그룹의 잠재적인 기본 노드 목록에서 클러스터 노드를 제거하려면 이 절차를 따릅니다. 제거할 노드가 있는 각 장치 그룹에 대해 metaset 명령을 반복합니다.
주의 - 다른 노드가 활성 클러스터 구성원이고 그 중 하나 이상이 디스크 세트를 소유하고 있는 경우에는 클러스터 외부에서 부트되는 클러스터 노드에서 metaset —s setname —f -t 명령을 실행하지 마십시오. |
phys-schost# 프롬프트는 전역 클러스터 프롬프트를 반영합니다. 전역 클러스터에서 이 절차를 수행합니다.
이 절차에서는 장문형 Oracle Solaris Cluster 명령을 제공합니다. 대부분의 명령에는 단문형도 있습니다. 명령은 명령 이름이 장문형과 단문형인 것을 제외하면 동일합니다.
장치 그룹 유형 SDS/SVM은 Solaris Volume Manager 장치 그룹을 나타냅니다.
phys-schost-1% cldevicegroup show devicegroup
# cldevicegroup status devicegroup
# metaset -s setname -d -h nodelist
장치 그룹 이름을 지정합니다.
-h를 사용하여 확인한 노드를 장치 그룹에서 삭제합니다.
제거할 노드의 노드 이름을 지정합니다.
주 - 업데이트를 완료하는 데 몇 분이 걸릴 수 있습니다.
명령이 실패하면 명령에 -f(강제 실행) 옵션을 추가합니다.
# metaset -s setname -d -f -h nodelist
장치 그룹 이름은 metaset로 지정한 디스크 세트 이름과 일치합니다.
phys-schost-1% cldevicegroup list -v devicegroup
예 5-3 장치 그룹에서 노드 제거(Solaris Volume Manager)
다음 예에서는 장치 그룹 구성에서 호스트 이름 phys-schost-2를 제거하는 방법을 보여 줍니다. 이 예에서는 지정된 장치 그룹의 잠재적인 기본 노드인 phys-schost-2를 제거합니다. cldevicegroup show 명령을 실행하여 노드가 제거되었는지 확인합니다. 제거된 노드가 더 이상 화면의 텍스트에 표시되지 않는지 확인하십시오.
[Determine the Solaris Volume Manager device group for the node:] # cldevicegroup show dg-schost-1 === Device Groups === Device Group Name: dg-schost-1 Type: SVM failback: no Node List: phys-schost-1, phys-schost-2 preferenced: yes numsecondaries: 1 diskset name: dg-schost-1 [Determine which node is the current primary for the device group:] # cldevicegroup status dg-schost-1 === Cluster Device Groups === --- Device Group Status --- Device Group Name Primary Secondary Status ----------------- ------- --------- ------ dg-schost-1 phys-schost-1 phys-schost-2 Online [Become superuser on the node that currently owns the device group.] [Remove the host name from the device group:] # metaset -s dg-schost-1 -d -h phys-schost-2 [Verify removal of the node:]] phys-schost-1% cldevicegroup list -v dg-schost-1 === Cluster Device Groups === --- Device Group Status --- Device Group Name Primary Secondary Status ----------------- ------- --------- ------ dg-schost-1 phys-schost-1 - Online
원시 디스크 장치 그룹의 잠재적인 기본 노드 목록에서 클러스터 노드를 제거하려면 다음 절차를 수행합니다.
phys-schost# 프롬프트는 전역 클러스터 프롬프트를 반영합니다. 전역 클러스터에서 이 절차를 수행합니다.
이 절차에서는 장문형 Oracle Solaris Cluster 명령을 제공합니다. 대부분의 명령에는 단문형도 있습니다. 명령은 명령 이름이 장문형과 단문형인 것을 제외하면 동일합니다.
# cldevicegroup show -n nodename -t rawdisk +
# cldevicegroup set -p localonly=false devicegroup
cldevicegroup(1CL) 매뉴얼 페이지를 참조하십시오.
Disk 장치 그룹 유형은 해당 원시 디스크 장치 그룹에 대해 localonly 등록 정보가 사용 불가하게 되었음을 나타냅니다.
# cldevicegroup show -n nodename -t rawdisk -v +
제거할 노드가 연결된 각 원시 디스크 장치 그룹에 대하여 이 단계를 완료해야 합니다.
# cldevicegroup remove-node -n nodename devicegroup
예 5-4 원시 장치 그룹에서 노드 제거
이 예에서는 원시 디스크 장치 그룹에서 노드(phys-schost-2)를 제거하는 방법을 보여 줍니다. 모든 명령이 클러스터의 다른 노드(phys-schost-1)에서 실행됩니다.
[Identify the device groups connected to the node being removed, and determine which are raw-disk device groups:] phys-schost-1# cldevicegroup show -n phys-schost-2 -t rawdisk -v + Device Group Name: dsk/d4 Type: Disk failback: false Node List: phys-schost-2 preferenced: false localonly: false autogen true numsecondaries: 1 device names: phys-schost-2 Device Group Name: dsk/d1 Type: SVM failback: false Node List: pbrave1, pbrave2 preferenced: true localonly: false autogen true numsecondaries: 1 diskset name: ms1 (dsk/d4) Device group node list: phys-schost-2 (dsk/d2) Device group node list: phys-schost-1, phys-schost-2 (dsk/d1) Device group node list: phys-schost-1, phys-schost-2 [Disable the localonly flag for each local disk on the node:] phys-schost-1# cldevicegroup set -p localonly=false dsk/d4 [Verify that the localonly flag is disabled:] phys-schost-1# cldevicegroup show -n phys-schost-2 -t rawdisk + (dsk/d4) Device group type: Disk (dsk/d8) Device group type: Local_Disk [Remove the node from all raw-disk device groups:] phys-schost-1# cldevicegroup remove-node -n phys-schost-2 dsk/d4 phys-schost-1# cldevicegroup remove-node -n phys-schost-2 dsk/d2 phys-schost-1# cldevicegroup remove-node -n phys-schost-2 dsk/d1
장치 그룹의 기본 소유권을 설정하는 방법은 preferenced라는 소유권 기본 설정 속성의 설정을 기반으로 합니다. 이 속성이 설정되지 않은 경우에는 다른 노드가 소유하지 않은 장치 그룹의 디스크에 처음으로 액세스를 시도하는 노드가 해당 그룹을 소유하게 됩니다. 그러나 이 속성이 설정되면 노드가 소유권을 얻기 위해 시도하는 순서를 지정해야 합니다.
preferenced 속성을 사용 불가하게 하면 failback 속성도 자동으로 사용 불가하게 됩니다. 그러나 preferenced 속성을 사용 가능 또는 다시 사용 가능하게 하려는 경우 failback 속성을 사용 가능하게 하거나 사용 불가하게 할 수 있습니다.
preferenced 속성이 사용 가능 또는 다시 사용 가능한 경우 기본 소유권 설정 목록에서 노드 순서를 재설정해야 합니다.
이 절차에서는 Solaris Volume Manager 장치 그룹에 대한 preferenced 속성 및 failback 속성을 설정 또는 설정 해제하기 위해 5를 사용합니다.
시작하기 전에
이 절차를 수행하려면 속성 값을 변경할 장치 그룹의 이름이 필요합니다.
phys-schost# 프롬프트는 전역 클러스터 프롬프트를 반영합니다. 전역 클러스터에서 이 절차를 수행합니다.
이 절차에서는 장문형 Oracle Solaris Cluster 명령을 제공합니다. 대부분의 명령에는 단문형도 있습니다. 명령은 명령 이름이 장문형과 단문형인 것을 제외하면 동일합니다.
# clsetup
주 메뉴가 표시됩니다.
장치 그룹 메뉴가 표시됩니다.
주요 등록 정보 변경 메뉴가 표시됩니다.
지침에 따라 장치 그룹에 대한 preferenced 및 failback 옵션을 설정합니다.
다음 명령을 실행하여 장치 그룹 정보가 표시되는지 확인합니다.
# cldevicegroup show -v devicegroup
예 5-5 장치 그룹의 등록 정보 변경
다음 예에서는 장치 그룹(dg-schost-1)에 대한 속성 값을 설정할 때 clsetup에 의해 생성되는 cldevicegroup 명령을 보여 줍니다.
# cldevicegroup set -p preferenced=true -p failback=true -p numsecondaries=1 \ -p nodelist=phys-schost-1,phys-schost-2 dg-schost-1 # cldevicegroup show dg-schost-1 === Device Groups === Device Group Name: dg-schost-1 Type: SVM failback: yes Node List: phys-schost-1, phys-schost-2 preferenced: yes numsecondaries: 1 diskset names: dg-schost-1
numsecondaries 등록 정보는 기본 노드가 실패할 경우 그룹을 마스터할 수 있는 장치 그룹 내의 노드 수를 지정합니다. 장치 서비스에 대한 기본 보조 노드 수는 1입니다. 값은 1부터 장치 그룹에서 작동하는 기본 이외의 공급자 노드 수까지, 정수로 설정할 수 있습니다.
이 설정은 클러스터의 성능과 가용성 사이에 균형을 맞추는 데 중요한 역할을 하는 값입니다. 예를 들어, 보조 노드 수를 증가시키면 클러스터에서 동시에 여러 번 장애가 발생할 경우에도 장치 그룹이 작동할 확률이 높아집니다. 또한 보조 노드 수를 늘리면 정상 작동 중에 주기적으로 성능이 저하됩니다. 일반적으로 보조 노드 수가 적을수록 성능은 좋아지지만 가용성은 떨어집니다. 그러나 보조 노드 수가 많다고 해서 문제가 발생하는 파일 시스템이나 장치 그룹의 가용성이 항상 높아지는 것은 아닙니다. 자세한 내용은 Oracle Solaris Cluster Concepts Guide의 3 장, Key Concepts for System Administrators and Application Developers을 참조하십시오.
numsecondaries 등록 정보를 변경하면 실제 보조 노드 수와 원하는 개수가 맞지 않을 경우에 보조 노드가 장치 그룹에 추가되거나 장치 그룹에서 제거됩니다.
이 절차에서는 장치 그룹의 모든 유형에 대해 numsecondaries 등록 정보를 설정하기 위해 clsetup 유틸리티를 사용합니다. 장치 그룹을 구성할 때 장치 그룹 옵션에 대한 자세한 내용은 cldevicegroup(1CL)을 참조하십시오.
phys-schost# 프롬프트는 전역 클러스터 프롬프트를 반영합니다. 전역 클러스터에서 이 절차를 수행합니다.
이 절차에서는 장문형 Oracle Solaris Cluster 명령을 제공합니다. 대부분의 명령에는 단문형도 있습니다. 명령은 명령 이름이 장문형과 단문형인 것을 제외하면 동일합니다.
# clsetup
주 메뉴가 표시됩니다.
장치 그룹 메뉴가 표시됩니다.
주요 등록 정보 변경 메뉴가 표시됩니다.
지침에 따라 장치 그룹에 대해 구성할 원하는 보조 노드 수를 입력합니다. 그러면 해당하는 cldevicegroup 명령이 실행되고, 로그가 인쇄되며, 유틸리티가 이전 메뉴로 돌아갑니다.
# cldevicegroup show dg-schost-1 === Device Groups === Device Group Name: dg-schost-1 Type: Local_Disk failback: yes Node List: phys-schost-1, phys-schost-2 phys-schost-3 preferenced: yes numsecondaries: 1 diskgroup names: dg-schost-1
주 - 이러한 구성 변경에는 기존 볼륨의 그룹, 소유자, 사용 권한 변경뿐 아니라 볼륨 추가나 제거도 포함됩니다. 구성을 변경한 후에 다시 등록하면 전역 이름 공간이 올바른 상태가 됩니다. 전역 장치 이름 공간 업데이트 방법을 참조하십시오.
다음 명령을 실행하여 표시되는 장치 그룹 정보를 확인합니다.
# cldevicegroup show -v devicegroup
예 5-6 필요한 보조 노드 수 변경(Solaris Volume Manager)
다음 예에서는 장치 그룹(dg-schost-1)에 대한 보조 노드 수를 구성할 때 clsetup에 의해 생성되는 cldevicegroup 명령을 보여 줍니다. 이 예에서는 이전에 디스크 그룹 및 볼륨을 만들었다고 가정합니다.
# cldevicegroup set -p numsecondaries=1 dg-schost-1 # cldevicegroup show -v dg-schost-1 === Device Groups === Device Group Name: dg-schost-1 Type: SVM failback: yes Node List: phys-schost-1, phys-schost-2 preferenced: yes numsecondaries: 1 diskset names: dg-schost-1
예 5-7 원하는 보조 노드의 수를 기본값으로 설정
다음은 null 문자열 값을 사용하여 보조 노드의 기본 개수를 구성하는 예입니다. 기본값이 변경될 경우에도 장치 그룹이 기본값을 사용하도록 구성됩니다.
# cldevicegroup set -p numsecondaries= dg-schost-1 # cldevicegroup show -v dg-schost-1 === Device Groups === Device Group Name: dg-schost-1 Type: SVM failback: yes Node List: phys-schost-1, phys-schost-2 phys-schost-3 preferenced: yes numsecondaries: 1 diskset names: dg-schost-1
구성을 나열하기 위해 수퍼유저로 전환할 필요는 없습니다. 그러나, solaris.cluster.read 인증이 필요합니다.
phys-schost# 프롬프트는 전역 클러스터 프롬프트를 반영합니다. 전역 클러스터에서 이 절차를 수행합니다.
이 절차에서는 장문형 Oracle Solaris Cluster 명령을 제공합니다. 대부분의 명령에는 단문형도 있습니다. 명령은 명령 이름이 장문형과 단문형인 것을 제외하면 동일합니다.
클러스터의 모든 장치 그룹에 대한 구성을 나열하려면 cldevicegroup show 명령을 사용합니다.
단일 장치 그룹의 구성을 나열하려면 cldevicegroup show devicegroup 명령을 사용합니다.
단일 장치 그룹의 상태를 판별하려면 cldevicegroup status devicegroup 명령을 사용합니다.
클러스터의 모든 장치 그룹의 상태를 판별하려면 cldevicegroup status + 명령을 사용합니다.
자세한 내용을 보려면 이러한 명령과 함께 -v 옵션을 사용합니다.
예 5-8 모든 장치 그룹의 상태 표시
# cldevicegroup status + === Cluster Device Groups === --- Device Group Status --- Device Group Name Primary Secondary Status ----------------- ------- --------- ------ dg-schost-1 phys-schost-2 phys-schost-1 Online dg-schost-2 phys-schost-1 -- Offline dg-schost-3 phys-schost-3 phy-shost-2 Online
예 5-9 특정 장치 그룹의 구성 표시
# cldevicegroup show dg-schost-1 === Device Groups === Device Group Name: dg-schost-1 Type: SVM failback: yes Node List: phys-schost-2, phys-schost-3 preferenced: yes numsecondaries: 1 diskset names: dg-schost-1
다음 절차를 수행하면 비활성 장치 그룹을 시작(온라인으로 전환)할 수도 있습니다.
phys-schost# 프롬프트는 전역 클러스터 프롬프트를 반영합니다. 전역 클러스터에서 이 절차를 수행합니다.
이 절차에서는 장문형 Oracle Solaris Cluster 명령을 제공합니다. 대부분의 명령에는 단문형도 있습니다. 명령은 명령 이름이 장문형과 단문형인 것을 제외하면 동일합니다.
# cldevicegroup switch -n nodename devicegroup
전환할 대상 노드의 이름을 지정합니다. 이 노드가 새 기본 노드가 됩니다.
전환할 장치 그룹을 지정합니다.
장치 그룹이 올바로 등록되면 다음 명령을 사용할 때 새 장치 그룹에 대한 정보가 표시됩니다.
# cldevice status devicegroup
예 5-10 장치 그룹에 대한 기본 노드 전환
다음 예는 장치 그룹에 대한 기본 노드를 전환하는 방법과 변경을 확인하는 방법입니다.
# cldevicegroup switch -n phys-schost-1 dg-schost-1 # cldevicegroup status dg-schost-1 === Cluster Device Groups === --- Device Group Status --- Device Group Name Primary Secondary Status ----------------- ------- --------- ------ dg-schost-1 phys-schost-1 phys-schost-2 Online
장치 그룹을 유지 보수 상태로 전환하면 장치 중 하나에 액세스할 때 해당 장치 그룹이 자동으로 온라인으로 전환되지 않습니다. 복구 절차를 완료하기 위해 모든 I/O 작업을 중단해야 하는 경우에는 복구가 완료될 때까지 장치 그룹을 유지 보수 상태로 유지해야 합니다. 장치 그룹을 유지 보수 상태로 전환하면 한 노드에서 디스크 세트나 디스크 그룹이 복구되는 동안 다른 노드에서 디스크 그룹이 온라인 상태가 되지 않으므로 데이터 손실이 방지됩니다.
손상된 디스크 세트 복구 방법에 대한 지침은 손상된 디스크 세트 복구를 참조하십시오.
주 - 디스크 그룹을 유지 보수 상태로 만들려면 먼저 장치에 대한 모든 액세스를 중단하고 관련 파일 시스템의 마운트를 모두 해제해야 합니다.
phys-schost# 프롬프트는 전역 클러스터 프롬프트를 반영합니다. 전역 클러스터에서 이 절차를 수행합니다.
이 절차에서는 장문형 Oracle Solaris Cluster 명령을 제공합니다. 대부분의 명령에는 단문형도 있습니다. 명령은 명령 이름이 장문형과 단문형인 것을 제외하면 동일합니다.
# cldevicegroup disable devicegroup
# cldevicegroup offline devicegroup
Solaris Volume Manager의 경우:
# metaset -C take -f -s diskset
주의 - Solaris Volume Manager 디스크 세트에 대한 소유권을 얻는 경우 장치 그룹이 유지 보수 상태에 있을 때 반드시 metaset -C take 명령을 사용해야 합니다. metaset -t 명령을 사용하면 소유권을 얻는 과정에서 장치 그룹이 온라인 상태로 전환됩니다. |
주의 - 장치 그룹을 유지 보수 상태에서 해제하기 전에 디스크 세트나 디스크 그룹에 대한 소유권을 해제해야 합니다. 소유권 해제가 실패하면 데이터 손실이 일어날 수 있습니다. |
Solaris Volume Manager의 경우:
# metaset -C release -s diskset
# cldevicegroup online devicegroup # cldevicegroup enable devicegroup
예 5-11 장치 그룹을 유지 보수 상태로 만들기
이 예에서는 장치 그룹 dg-schost-1을 유지 보수 상태로 전환하고, 유지 보수 상태에서 장치 그룹을 제거하는 방법을 보여 줍니다.
[Place the device group in maintenance state.] # cldevicegroup disable dg-schost-1 # cldevicegroup offline dg-schost-1 [If needed, manually import the disk set or disk group.] For Solaris Volume Manager: # metaset -C take -f -s dg-schost-1 [Complete all necessary repair procedures.] [Release ownership.] For Solaris Volume Manager: # metaset -C release -s dg-schost-1 [Bring the device group online.] # cldevicegroup online dg-schost-1 # cldevicegroup enable dg-schost-1