이 장에서는 글로벌 장치 및 클러스터 파일 시스템을 관리하는 절차를 설명합니다.
이 장에 있는 절차 목록은 다음과 같습니다.
"3.3.5 디스크를 초기화할 때 새 디스크 그룹을 만드는 방법(VERITAS Volume Manager)"
"3.3.6 디스크를 캡슐화할 때 새 디스크 그룹을 만드는 방법(VERITAS Volume Manager)"
"3.3.8 기존 디스크 그룹을 디스크 장치 그룹으로 만드는 방법(VERITAS Volume Manager)"
"3.3.10 디스크 그룹을 디스크 장치 그룹으로 등록하는 방법(VERITAS Volume Manager)"
"3.3.13 디스크 장치 그룹을 제거하고 등록을 해제하는 방법(VERITAS Volume Manager)"
이 장에 있는 관련 절차에 대한 자세한 설명은 표 3-2를 참조하십시오.
글로벌 장치, 글로벌 이름 공간, 디스크 장치 그룹 및 클러스터 파일 시스템과 관련된 개념 정보는 Sun Cluster 3.0 12/01 개념 문서를 참조하십시오.
Sun Cluster 디스크 장치 그룹을 관리하는 방법은 클러스터에 설치된 볼륨 관리자에 따라 다릅니다. Solstice DiskSuite는 "클러스터를 인식"하므로 Solstice DiskSuite metaset(1M) 명령을 사용하여 디스크 장치 그룹을 추가하고 등록하고 제거합니다. VxVM(VERITAS Volume Manager)의 경우에는 VxVM 명령을 사용하여 디스크 그룹을 만듭니다. 그런 다음 scsetup(1M) 유틸리티를 사용하여 디스크 그룹을 Sun Cluster 디스크 장치 그룹으로 등록합니다. VxVM 디스크 장치 그룹을 제거할 때는 scsetup 유틸리티와 VxVM 명령을 모두 사용합니다.
Sun Cluster 소프트웨어는 클러스터에 있는 각 디스크와 테이프 장치를 위하여 자동으로 원시 디스크 장치 그룹을 만듭니다. 그러나 사용자가 이러한 클러스터 장치 그룹을 글로벌 장치로 액세스할 때까지는 오프라인 상태를 유지합니다. 디스크 장치 그룹이나 볼륨 관리자 디스크 그룹을 관리할 때는 사용자가 그룹의 1차 노드인 클러스터 노드에 있어야 합니다.
일반적으로 설치할 때 글로벌 이름 공간이 자동으로 설정되고 Solaris 운영 환경을 재구성하여 다시 부트할 때 자동으로 갱신되기 때문에 글로벌 장치 이름 공간을 관리할 필요가 없습니다. 그러나 글로벌 이름 공간을 다시 만들거나 갱신해야 하는 경우에는 모든 클러스터 노드에서 scgdevs(1M) 명령을 실행할 수 있습니다. 그러면 나중에 클러스터에 포함될 노드뿐 아니라 다른 모든 클러스터 노드 구성원에서 글로벌 이름 공간이 갱신됩니다.
Solstice DiskSuite 및 디스크 장치에 대하여 글로벌 장치 사용 권한을 변경해도 클러스터의 모든 노드에 자동으로 전달되지는 않습니다. 글로벌 장치에 대한 사용 권한을 변경하려면 클러스터의 모든 노드에서 직접 사용 권한을 변경해야 합니다. 예를 들어, 글로벌 장치 /dev/global/dsk/d3s0에 대한 사용 권한을 644로 변경하려면 클러스터의 모든 노드에서
# chmod 644 /dev/global/dsk/d3s0
명령을 실행해야 합니다.
VxVM은 chmod 명령을 지원하지 않습니다. VxVM에서 글로벌 장치 사용 권한을 변경하려면 VxVM 관리자 안내서를 참조하십시오.
클러스터에서 디스크 및 테이프 장치에 대한 DR(동적 재구성) 작업을 완료하려면 몇 가지 사항을 고려해야 합니다.
Solaris 8 DR 기능에 대하여 문서화된 요구 사항, 절차 및 제한이 Sun Cluster DR 지원에도 모두 적용됩니다(운영 환경의 작동이 정지된 경우 제외). 따라서 Sun Cluster 소프트웨어에서 DR 기능을 사용하기 전에 Solaris 8 DR 기능에 대한 문서를 참조하십시오. 특히 DR 연결 종료 작업 중에 비네트워크 IO 장치에 영향을 주는 문제를 확인해야 합니다.
1차 노드에서 현재 작동하는 장치에 대한 DR 제거 작업은 허용되지 않습니다. 1차 노드에서 현재 작동하지 않는 장치와 2차 노드의 장치에 대한 DR 작업만 수행할 수 있습니다.
DR 작업 전후에 모두 클러스터 데이터 액세스는 계속됩니다.
정족수 장치의 가용성에 영향을 주는 DR 작업은 허용되지 않습니다. 자세한 내용은 "4.1.1 정족수 장치 동적 재구성"을 참조하십시오.
2차 노드에 대한 DR 작업을 수행할 때 현재 1차 노드에 장애가 발생하면 클러스터 가용성이 영향을 받습니다. 새로운 2차 노드가 제공될 때까지 1차 노드를 페일오버할 수 없습니다.
글로벌 장치에 대하여 DR 작업을 수행하려면 다음 단계를 순서대로 완료하십시오.
표 3-1 작업 맵: 디스크 및 테이프 드라이브 동적 재구성
작업 |
참고 항목 |
---|---|
1. 현재 1차 노드에서 작동하는 장치 그룹에 영향을 주는 DR 작업을 수행해야 하는 경우, 장치에 대한 DR 제거 작업을 수행하기 전에 1차 노드와 2차 노드 전환 | |
2. 제거되는 장치에 대하여 DR 제거 작업 수행 |
Sun Enterprise 10000 Dynamic Reconfiguration User Guide 및 Sun Enterprise 10000 Dynamic Reconfiguration Reference Manual(Solaris 8 on Sun Hardware 모음에 포함) |
Sun Cluster에서 VxVM 이름 공간을 유지하려면 VxVM 디스크 그룹 또는 볼륨 변경 사항을 Sun Cluster 디스크 장치 그룹 구성 변경 사항으로 등록해야 합니다. 이러한 변경 사항을 등록하면 모든 클러스터 노드의 이름 공간이 갱신됩니다. 이름 공간에 영향을 주는 구성 변경으로는 볼륨을 추가하거나 제거하거나 이름을 변경하는 작업과 볼륨 사용 권한, 소유자 또는 그룹 ID를 변경하는 작업이 있습니다.
디스크 그룹이 클러스터에 Sun Cluster 디스크 장치 그룹으로 등록되면 VxVM 명령을 사용하여 VxVM 디스크 그룹을 가져오거나 이동시키지 마십시오. Sun Cluster 소프트웨어는 디스크 그룹을 가져오거나 이동시키는 모든 경우를 처리합니다.
각 VxVM 디스크 그룹에는 전체 클러스터에서 고유한 하위 번호가 있어야 합니다. 기본적으로 디스크 그룹이 만들어질 때 VxVM이 임의의 1000의 배수를 해당 디스크 그룹의 기본 하위 번호로 선택합니다. 디스크 그룹의 수가 적은 구성에서는 대부분 이 방법으로도 고유한 번호를 지정할 수 있습니다. 그러나 새로 만드는 디스크 그룹의 하위 번호가 다른 클러스터 노드에서 가져오는 기존 디스크 그룹의 하위 번호와 충돌할 수 있습니다. 이러한 경우에는 Sun Cluster 디스크 장치 그룹을 등록할 수 없습니다. 이 문제를 해결하려면 새 디스크 그룹에 고유한 새 하위 번호를 지정한 후에 Sun Cluster 디스크 장치 그룹으로 등록해야 합니다.
이중화된 볼륨을 설정하는 경우에 DRL(Dirty Region Logging)을 사용하면 시스템 충돌이 발생했을 때 볼륨 복구 시간을 단축할 수 있습니다. DRL을 사용하면 I/O 처리량이 줄어들 수 있지만 사용하는 것이 좋습니다.
VxVM을 사용하여 Oracle Parallel Server/Real Application Clusters를 위한 공유 디스크 그룹을 설치하는 경우에는 VERITAS Volume Manager Administrator's Reference Guide에서 설명하는 VXVM의 클러스터 기능을 사용하십시오. Oracle Parallel Server/Real Application Clusters를 위한 공유 디스크 그룹을 만드는 작업과 다른 디스크 그룹을 만드는 작업 사이에는 다음과 같은 차이가 있습니다.
Oracle Parallel Server/Real Application Clusters 공유 디스크 그룹은 vxdg -s 명령을 사용하여 가져와야 합니다.
Oracle Parallel Server/Real Application Clusters 공유 디스크 그룹은 클러스터 프레임워크에 등록하지 않습니다.
다른 VxVM 디스크 그룹을 만들려면 "3.3.5 디스크를 초기화할 때 새 디스크 그룹을 만드는 방법(VERITAS Volume Manager)"을 참조하십시오.
클러스터 파일 시스템을 관리하기 위해 특별한 Sun Cluster 명령을 사용해야 하는 것은 아닙니다. 다른 Solaris 파일 시스템을 관리하는 경우와 마찬가지로 mount, newfs 등과 같은 표준 Solaris 파일 시스템 명령을 사용하여 클러스터 파일 시스템을 관리합니다. 클러스터 파일 시스템을 마운트할 때는 mount 명령에 -g 옵션을 지정합니다. 또한 부트할 때 클러스터 파일 시스템이 자동으로 마운트될 수도 있습니다.
클러스터 파일 시스템이 파일을 읽을 때 해당 파일에 대한 액세스 시간을 갱신하지는 않습니다.
scsetup(1M) 유틸리티는 scconf(1M) 명령에 대한 대화식 인터페이스입니다. scsetup 명령을 실행하면 scconf 명령이 생성됩니다. 몇 가지 절차 뒤에 이렇게 만들어지는 명령의 예가 있습니다.
Sun Cluster 소프트웨어는 자동으로 클러스터의 각 디스크와 테이프 장치에 대한 원시 디스크 장치 그룹을 만듭니다. 그러나 사용자가 클러스터 장치 그룹을 글로벌 장치로 액세스할 때까지 이 클러스터 장치 그룹이 오프라인 상태를 유지합니다.
작업 |
참고 항목 |
---|---|
글로벌 장치 이름 공간 갱신(재구성 후에 다시 부트할 필요 없음) - scgdevs 사용 | |
Solstice DiskSuite 디스크 세트를 추가하여 디스크 장치 그룹으로 등록 - metaset 사용 | |
구성에서 Solstice DiskSuite 디스크 장치 그룹 제거 - metaset 및 metaclear 사용 | |
Solstice DiskSuite 디스크 장치 그룹에서 노드 제거 - metaset 사용 | |
VERITAS Volume Manager 디스크 그룹을 디스크 장치 그룹으로 추가 - VxVM 명령 및 scsetup 사용 |
"3.3.5 디스크를 초기화할 때 새 디스크 그룹을 만드는 방법(VERITAS Volume Manager)"
"3.3.6 디스크를 캡슐화할 때 새 디스크 그룹을 만드는 방법(VERITAS Volume Manager)"
"3.3.7 기존 디스크 장치 그룹에 새 볼륨을 추가하는 방법(VERITAS Volume Manager)"
"3.3.8 기존 디스크 그룹을 디스크 장치 그룹으로 만드는 방법(VERITAS Volume Manager)"
"3.3.9 디스크 장치 그룹에 새 하위 번호를 할당하는 방법(VERITAS Volume Manager)"
"3.3.10 디스크 그룹을 디스크 장치 그룹으로 등록하는 방법(VERITAS Volume Manager)"
|
구성에서 VERITAS Volume Manager 디스크 장치 그룹 제거 - scsetup 사용(scconf 생성) |
"3.3.12 디스크 장치 그룹에서 볼륨을 제거하는 방법(VERITAS Volume Manager)"
"3.3.13 디스크 장치 그룹을 제거하고 등록을 해제하는 방법(VERITAS Volume Manager)" |
VERITAS Volume Manager 디스크 장치 그룹에 노드 추가 - scsetup 사용(scconf 생성) | |
VERITAS Volume Manager 디스크 장치 그룹에서 노드 제거 - scsetup 사용(scconf 생성) | |
디스크 장치 그룹 등록 정보 변경 - scsetup 사용(scconf 생성) | |
디스크 장치 그룹 및 등록 정보 표시 - scconf 사용 | |
디스크 장치 그룹에 대한 1차 전환 - scswitch 사용 | |
디스크 장치 그룹을 유지 보수 상태로 전환 - metaset 또는 vxdg 사용 |
새 글로벌 장치를 추가할 때 scgdevs(1M)를 실행하여 글로벌 장치 이름 공간을 직접 갱신하십시오.
명령을 실행하는 노드가 현재 클러스터 구성원이 아니거나 /global/.devices/node@nodeID 파일 시스템이 마운트되지 않은 경우에는 scgdevs 명령을 실행해도 적용되지 않습니다.
다음 예는 scgdevs 명령을 실행했을 때 표시되는 출력입니다.
# scgdevs Configuring the /dev/global directory (global devices)... obtaining access to all attached disks reservation program successfully exiting |
Solstice DiskSuite 디스크 세트를 만들어 Sun Cluster 디스크 장치 그룹으로 등록하려면 metaset(1M) 명령을 사용하십시오. 디스크 세트를 등록하면 디스크 세트에 할당한 이름이 자동으로 디스크 장치 그룹에 할당됩니다.
디스크 세트를 만들 디스크에 연결된 노드에서 수퍼유저가 되십시오.
구성에 필요한 메타 장치 이름의 수를 계산하고 각 노드에서 /kernel/drv/md.conf 파일을 수정하십시오.
Sun Cluster 3.0 12/01 소프트웨어 설치 안내서에서 "메타 장치 이름 및 디스크 세트 수를 설정하는 방법"을 참조하십시오.
metaset 명령을 사용하여 Solstice DiskSuite 디스크 세트를 추가하고 추가된 디스크 세트를 Sun Cluster에 디스크 장치 그룹으로 등록하십시오.
# metaset -s diskset -a -h nodelist |
만들 디스크 세트를 지정합니다.
디스크 세트를 마스터할 수 있는 노드 목록을 추가합니다.
디스크 장치 그룹이 추가되었는지 확인하십시오.
디스크 장치 그룹 이름은 metaset로 지정된 디스크 세트 이름과 일치합니다.
# scconf -p | grep disk-device-group |
다음 예에서는 디스크 세트와 디스크 장치 그룹을 만들고 디스크 장치 그룹이 만들어졌는지 확인합니다.
# metaset -s dg-schost-1 # scconf -p | grep dg-schost-1 Device group name: dg-schost-1 |
디스크 장치 그룹은 Sun Cluster에 등록된 Solstice DiskSuite 디스크 세트입니다. Solstice DiskSuite 디스크 장치 그룹을 제거하려면 metaclear(1M) 및 metaset(1M) 명령을 사용하십시오. 이 명령을 사용하면 동일한 이름의 디스크 장치 그룹을 제거하고 디스크 그룹을 Sun Cluster 디스크 장치 그룹에서 등록 해제합니다.
디스크 세트를 제거하는 단계는 Solstice DiskSuite 문서를 참조하십시오.
Solstice DiskSuite를 실행하는 클러스터에 있는 디스크 장치 그룹 중 1차가 될 수 있는 노드 목록에서 클러스터 노드 하나를 제거하려면 이 절차를 사용하십시오. 하나의 노드가 동시에 둘 이상의 디스크 장치 그룹에 속할 수 있기 때문에 노드를 제거할 각 디스크 장치에 대하여 metaset 명령을 반복해야 합니다.
제거할 노드가 속한 디스크 장치 그룹을 확인하십시오.
# scstat -D |
현재 수정할 디스크 장치 그룹이 있는 노드에서 수퍼유저가 되십시오.
디스크 장치 그룹에서 노드의 호스트 이름을 삭제하십시오.
# metaset -s setname -d -f -h nodelist |
디스크 장치 그룹 이름을 지정합니다.
-h를 사용하여 확인된 노드를 디스크 장치 그룹에서 삭제합니다.
강제로 실행합니다.
디스크 장치 그룹을 마스터할 수 있는 노드 목록에서 노드를 제거합니다.
갱신을 완료하는 데 몇 분이 걸릴 수 있습니다.
1차 노드가 제거되는 각 디스크 장치 그룹에 대하여 단계 3을 반복하십시오.
노드가 디스크 장치 그룹에서 제거되었는지 확인하십시오.
디스크 장치 그룹 이름은 metaset로 지정된 디스크 세트 이름과 일치합니다.
# scstat -D |
다음은 디스크 장치 그룹 구성에서 호스트 이름 phys-schost-2를 제거하는 예입니다. 이 예에서는 지정된 디스크 장치 그룹에 1차로 사용될 수 있는 호스트 phys-schost-2를 제거합니다. scstat -D 명령을 실행하고 제거된 노드가 화면에 더 이상 표시되지 않는지 확인하여 노드가 제거되었는지 확인하십시오.
[Determine the disk device group(s) for the node:] # scstat -D -- Device Group Servers -- Device Group Primary Secondary ------------ ------- --------- Device group servers: dg-schost-1 phys-schost-1 phys-schost-2 [Become superuser.] [Remove the hostname from all disk device groups:] # metaset -s dg-schost-1 -d -f -h phys-schost-2 [Verify removal of the node:] # scstat -D -- Device Group Servers -- Device Group Primary Secondary ------------ ------- --------- Device group servers: dg-schost-1 phys-schost-1 - |
이 절차는 디스크를 초기화하는 데만 사용됩니다. 디스크를 캡슐화할 경우에는 "3.3.6 디스크를 캡슐화할 때 새 디스크 그룹을 만드는 방법(VERITAS Volume Manager)"을 사용하십시오.
VxVM 디스크 그룹을 추가한 후에 디스크 장치 그룹을 등록해야 합니다.
VxVM을 사용하여 Oracle Parallel Server/Real Application Clusters를 위한 공유 디스크 그룹을 설치하는 경우에는 VERITAS Volume Manager Administrator's Reference Guide의 설명에 따라 VxVM의 클러스터 기능을 사용하십시오. 자세한 내용은 "3.1.3.1 Oracle Parallel Server/Real Application Clusters를 위한 공유 디스크 그룹 만들기"를 참조하십시오.
추가되는 디스크 그룹을 구성하는 디스크에 물리적으로 연결된 클러스터의 모든 노드에서 수퍼유저가 되십시오.
VxVM 디스크 그룹과 볼륨을 만드십시오.
원하는 방법을 사용하여 디스크 그룹과 볼륨을 만드십시오.
이중화된 볼륨을 설정하는 경우에는 DRL(Dirty Region Logging)을 사용하여 노드 장애 발생 후의 볼륨 복구 시간을 증가시키십시오. 그러나 DRL을 사용하면 I/O 처리량이 줄어들 수 있습니다.
이 단계를 완료하기 위한 절차는 VERITAS Volume Manager 문서를 참조하십시오.
VxVM 디스크 그룹을 Sun Cluster 디스크 장치 그룹으로 등록하십시오.
"3.3.10 디스크 그룹을 디스크 장치 그룹으로 등록하는 방법(VERITAS Volume Manager)"을 참조하십시오.
Oracle Parallel Server/Real Application Clusters 공유 디스크 그룹을 클러스터 프레임워크에 등록하지 마십시오.
이 절차는 디스크 캡슐화에만 적용됩니다. 디스크를 초기화할 경우에는 "3.3.5 디스크를 초기화할 때 새 디스크 그룹을 만드는 방법(VERITAS Volume Manager)"을 사용하십시오.
먼저 루트가 아닌 디스크를 VxVM 디스크 그룹으로 캡슐화한 다음 Sun Cluster 디스크 장치 그룹으로 등록하여 Sun Cluster 디스크 장치 그룹으로 만들 수 있습니다.
디스크 캡슐화는 VxVM 디스크 그룹을 처음 만들 때만 지원됩니다. VxVM 디스크 그룹이 만들어지고 Sun Cluster 디스크 장치 그룹으로 등록되고 나면 초기화될 수 있는 디스크만 디스크 그룹에 추가됩니다.
VxVM을 사용하여 Oracle Parallel Server/Real Application Clusters를 위한 공유 디스크 그룹을 설치하려면 VERITAS Volume Manager Administrator's Reference Guide의 설명에 따라 VXVM의 클러스터 기능을 사용하십시오. 자세한 내용은 "3.1.3.1 Oracle Parallel Server/Real Application Clusters를 위한 공유 디스크 그룹 만들기"를 참조하십시오.
클러스터의 노드에서 수퍼유저가 되십시오.
캡슐화되는 디스크의 파일 시스템 항목이 /etc/vfstab 파일에 있으면 mount at boot 옵션이 no로 설정되어야 합니다.
디스크가 캡슐화되어 Sun Cluster 디스크 장치 그룹으로 등록된 후에 다시 이 옵션을 yes로 설정할 수 있습니다.
디스크를 캡슐화하십시오.
디스크를 캡슐화하려면 vxdiskadm 메뉴나 그래픽 사용자 인터페이스를 사용하십시오. VxVM을 사용하려면 디스크 시작 부분이나 끝 부분에 할당되지 않은 실린더가 있어야 하고 두 개의 빈 파티션이 있어야 합니다. 또한 전체 디스크에 슬라이스 2가 설정되어야 합니다. 자세한 내용은 vxdiskadm(1M) 설명서 페이지를 참조하십시오.
노드를 종료하고 다시 시작하십시오.
scswitch(1M) 명령을 실행하면 모든 자원 그룹과 장치 그룹이 1차 노드에서 다음 기본 노드로 전환됩니다. 그런 다음 shutdown(1M) 명령을 사용하면 노드를 종료하고 다시 시작할 수 있습니다.
# scswitch -S -h nodelist # shutdown -g0 -y -i6 |
필요하면 모든 자원 그룹과 장치 그룹을 원래 노드로 다시 전환하십시오.
처음에 자원 그룹과 장치 그룹이 1차 노드로 페일백하도록 구성되었으면 이 단계가 필요없습니다.
# scswitch -z -h nodelist -D disk-device-group # scswitch -z -h nodelist -g resource-group |
VxVM 디스크 그룹을 Sun Cluster 디스크 장치 그룹으로 등록하십시오.
"3.3.10 디스크 그룹을 디스크 장치 그룹으로 등록하는 방법(VERITAS Volume Manager)"을 참조하십시오.
Oracle Parallel Server/Real Application Clusters 공유 디스크 그룹을 클러스터 프레임워크에 등록하지 마십시오.
볼륨을 추가한 후에 "3.3.11 디스크 그룹 구성의 변경 사항을 등록하는 방법(VERITAS Volume Manager)"을 사용하여 구성 변경을 등록해야 합니다.
기존 VxVM 디스크 장치 그룹에 새 볼륨을 추가할 때는 디스크 장치 그룹의 1차 노드에서 절차를 수행해야 하고 디스크 장치 그룹은 온라인으로 되어 있어야 합니다.
클러스터의 노드에서 수퍼유저가 되십시오.
새 볼륨을 추가할 디스크 장치 그룹의 1차 노드와 상태를 확인하십시오.
# scstat -D |
디스크 장치 그룹이 오프라인이면 온라인으로 전환하십시오.
# scswitch -z -D disk-device-group -h nodelist |
지정된 장치 그룹을 전환합니다.
디스크 장치 그룹을 전환할 노드의 이름을 지정합니다. 이 노드가 새 1차 노드가 됩니다.
1차 노드(현재 디스크 장치 그룹을 마스터하는 노드)에서 디스크 그룹에 VxVM 볼륨을 만드십시오.
VxVM 볼륨을 만드는 데 사용하는 절차는 VERITAS Volume Manager 문서를 참조하십시오.
VxVM 디스크 그룹 변경을 등록하십시오. 그러면 글로벌 이름 공간이 갱신됩니다.
"3.3.11 디스크 그룹 구성의 변경 사항을 등록하는 방법(VERITAS Volume Manager)"을 참조하십시오.
먼저 디스크 그룹을 현재 노드로 가져온 다음 디스크 그룹을 Sun Cluster 디스크 장치 그룹으로 등록하여 기존 VxVM 디스크 그룹을 Sun Cluster 디스크 장치 그룹으로 만들 수 있습니다.
클러스터의 노드에서 수퍼유저가 되십시오.
VxVM 디스크 그룹을 현재 노드로 가져오십시오.
# vxdg import diskgroup |
VxVM 디스크 그룹을 Sun Cluster 디스크 장치 그룹으로 등록하십시오.
"3.3.10 디스크 그룹을 디스크 장치 그룹으로 등록하는 방법(VERITAS Volume Manager)"을 참조하십시오.
다른 디스크 그룹과 하위 번호가 충돌하여 디스크 장치 그룹이 등록되지 않으면 새로운 디스크 그룹에 사용되지 않는 새로운 하위 번호를 할당해야 합니다. 새로운 하위 번호를 할당한 후에 절차를 다시 실행하여 디스크 그룹을 Sun Cluster 디스크 장치 그룹으로 등록하십시오.
클러스터의 노드에서 수퍼유저가 되십시오.
사용하는 하위 번호를 확인하십시오.
# ls -l /global/.devices/node@nodeid/dev/vx/dsk/* |
사용하지 않는 다른 1000의 배수를 새 디스크 그룹의 기본 하위 번호로 선택하십시오.
새 하위 번호를 디스크 그룹에 할당하십시오.
# vxdg reminor diskgroup base-minor-number |
VxVM 디스크 그룹을 Sun Cluster 디스크 장치 그룹으로 등록하십시오.
"3.3.10 디스크 그룹을 디스크 장치 그룹으로 등록하는 방법(VERITAS Volume Manager)"을 참조하십시오.
이 예에서는 하위 번호 16000-16002 및 4000-4001을 사용합니다. vxdg reminor 명령을 사용하면 최저 하위 번호 5000을 새 디스크 장치 그룹에 할당할 수 있습니다.
# ls -l /global/.devices/node@nodeid/dev/vx/dsk/* /global/.devices/node@nodeid/dev/vx/dsk/dg1 brw------- 1 root root 56,16000 Oct 7 11:32 dg1v1 brw------- 1 root root 56,16001 Oct 7 11:32 dg1v2 brw------- 1 root root 56,16002 Oct 7 11:32 dg1v3 /global/.devices/node@nodeid/dev/vx/dsk/dg2 brw------- 1 root root 56,4000 Oct 7 11:32 dg2v1 brw------- 1 root root 56,4001 Oct 7 11:32 dg2v2 # vxdg reminor dg3 5000 |
이 절차에서는 scsetup(1M) 유틸리티를 사용하여 연결된 VxVM 디스크 그룹을 Sun Cluster 디스크 장치 그룹으로 등록합니다.
디스크 장치 그룹이 클러스터에 등록되었으면 VxVM 명령을 사용하여 VxVM 디스크 그룹을 가져오거나 내보내지 마십시오. VxVM 디스크 그룹이나 볼륨을 변경할 경우에는 "3.3.11 디스크 그룹 구성의 변경 사항을 등록하는 방법(VERITAS Volume Manager)"을 사용하여 디스크 장치 그룹 구성 변경 사항을 등록하십시오. 그러면 글로벌 이름 공간이 올바른 상태가 됩니다.
VxVM 디스크 장치 그룹을 등록하기 위한 사전 조건은 다음과 같습니다.
클러스터의 노드에 대한 수퍼유저 권한
디스크 장치 그룹으로 등록될 VxVM 디스크 그룹의 이름
디스크 장치 그룹을 제어하기 위한 기본 노드 순서
기본 순서를 정의할 때 기본 노드가 중단되었다가 나중에 다시 클러스터로 복원되는 경우에 디스크 장치 그룹이 다시 기본 노드로 스위치백되도록 할 것인지 지정할 수 있습니다.
노드 환경 설정 및 페일백 옵션에 대한 자세한 내용은 scconf(1M)를 참조하십시오.
클러스터의 노드에서 수퍼유저가 되십시오.
scsetup 유틸리티를 실행하십시오.
# scsetup |
Main Menu가 표시됩니다.
VxVM 디스크 장치 그룹에 대한 작업을 하려면 4(장치 그룹 및 볼륨)를 입력하십시오.
Device Groups Menu가 표시됩니다.
VxVM 디스크 장치 그룹을 등록하려면 1(VxVM 디스크 그룹을 장치 그룹으로 등록)을 입력하십시오.
지시에 따라 Sun Cluster 디스크 장치 그룹으로 등록될 VxVM 디스크 그룹 이름을 입력하십시오.
VxVM을 사용하여 Oracle Parallel Server/Real Application Clusters를 위한 공유 디스크 그룹을 설치하는 경우에는 공유 디스크 그룹을 클러스터 프레임워크에 등록하지 마십시오. VERITAS Volume Manager Administrator's Reference Guide의 설명에 따라 VXVM의 클러스터 기능을 사용하십시오.
디스크 장치 그룹을 등록하려고 할 때 다음 오류가 발생하면 디스크 장치 그룹의 하위 번호를 다시 지정하십시오.
scconf: Failed to add device group - in use |
디스크 장치 그룹의 하위 번호를 변경하려면 "3.3.9 디스크 장치 그룹에 새 하위 번호를 할당하는 방법(VERITAS Volume Manager)"을 사용하십시오. 이 절차를 사용하면 기존 디스크 장치 그룹이 사용하는 하위 번호와 충돌하지 않도록 하위 번호를 새로 지정할 수 있습니다.
디스크 장치 그룹이 등록되고 온라인 상태인지 확인하십시오.
디스크 장치 그룹이 제대로 등록되면 다음 명령을 사용할 때 새 디스크 장치 그룹에 대한 정보가 표시됩니다.
# scstat -D |
VxVM 디스크 그룹이나 볼륨에 대한 구성 정보를 변경할 경우에는 scsetup을 사용하여 디스크 장치 그룹을 다시 등록해야 합니다. 이러한 구성 변경에는 그룹, 소유자 또는 기존 볼륨 사용 권한뿐 아니라 볼륨 추가나 제거도 포함됩니다. 구성을 변경한 후에 다시 등록하면 글로벌 이름 공간이 올바른 상태가 됩니다. "3.3.1 글로벌 장치 이름 공간을 갱신하는 방법"을 참조하십시오.
다음 예에는 VxVM 디스크 장치 그룹(dg1)을 등록할 때 scsetup에 의해 scconf 명령이 생성되고 확인하는 단계가 있습니다. 이 예에서는 전에 VxVM 디스크 그룹과 볼륨을 만들었다고 가정합니다.
# scsetup scconf -a -D type=vxvm,name=dg1,nodelist=phys-schost-1:phys-schost-2 # scstat -D -- Device Group Servers -- Device Group Primary Secondary ------------ ------- --------- Device group servers: dg1 phys-schost-1 phys-schost-2 -- Device Group Status -- Device Group Status ------------ ------ Device group status: dg1 Online |
VxVM 디스크 장치 그룹에 클러스터 파일 시스템을 만들려면 "3.4.1 클러스터 파일 시스템을 추가하는 방법"을 참조하십시오.
하위 번호에 문제가 있으면 "3.3.9 디스크 장치 그룹에 새 하위 번호를 할당하는 방법(VERITAS Volume Manager)"을 참조하십시오.
VxVM 디스크 그룹 또는 볼륨에 대한 구성 정보를 변경할 때, Sun Cluster 디스크 장치 그룹에 대한 구성 변경을 등록해야 합니다. 그러면 글로벌 이름 공간이 올바른 상태가 됩니다.
클러스터의 노드에서 수퍼유저가 되십시오.
scsetup(1M) 유틸리티를 실행하십시오.
# scsetup |
Main Menu가 표시됩니다.
VxVM 디스크 장치 그룹에 대한 작업을 하려면 4(장치 그룹 및 볼륨)를 입력하십시오.
Device Groups Menu가 표시됩니다.
구성 변경을 등록하려면 2(VxVM 장치 그룹에 대한 볼륨 정보 동기화)를 입력하십시오.
지시에 따라 구성을 변경한 VxVM 디스크 그룹을 입력하십시오.
다음은 변경된 VxVM 디스크 장치 그룹(dg1)을 등록할 때 scsetup에 의해 scconf 명령이 생성되는 예입니다. 이 예에서는 전에 VxVM 디스크 그룹 및 볼륨을 만들었다고 가정합니다.
# scsetup scconf -c -D name=dg1,sync |
디스크 장치 그룹에서 볼륨을 제거한 후에 "3.3.11 디스크 그룹 구성의 변경 사항을 등록하는 방법(VERITAS Volume Manager)"을 사용하여 변경된 구성을 디스크 장치 그룹에 등록해야 합니다.
클러스터의 노드에서 수퍼유저가 되십시오.
디스크 장치 그룹에 대한 1차 노드와 상태를 결정하십시오.
# scstat -D |
디스크 장치 그룹이 오프라인이면 온라인으로 전환하십시오.
# scswitch -z -D disk-device-group -h nodelist |
전환을 수행합니다.
전환할 장치 그룹을 지정합니다.
전환할 대상 노드의 이름을 지정합니다. 이 노드가 새 1차 노드가 됩니다.
1차 노드(현재 디스크 장치 그룹을 마스터하는 노드)에서 디스크 그룹에 있는 VxVM 볼륨을 제거하십시오.
# vxedit -g diskgroup -rf rm volume |
볼륨이 포함된 VxVM 디스크 그룹을 지정합니다.
지정된 볼륨을 제거합니다.
scsetup 명령을 사용하여 글로벌 이름 공간을 갱신하고 디스크 그룹 구성 변경 사항을 등록하십시오.
"3.3.11 디스크 그룹 구성의 변경 사항을 등록하는 방법(VERITAS Volume Manager)"을 참조하십시오.
Sun Cluster 디스크 장치 그룹을 제거하면 해당 VxVM 디스크 그룹이 제거되는 것이 아니고 등록이 해제되는 것입니다. 그러나 VxVM 디스크 그룹이 계속 있어도 다시 등록하지 않으면 클러스터에서 사용되지 않습니다.
이 절차에서는 scsetup(1M) 유틸리티를 사용하여 연결된 VxVM 디스크 그룹을 제거하여 Sun Cluster 디스크 장치 그룹을 등록 해제합니다.
클러스터의 노드에서 수퍼유저가 되십시오.
디스크 장치 그룹을 오프라인으로 전환하십시오.
# scswitch -F -D disk-device-group |
디스크 장치 그룹을 오프라인으로 전환합니다.
오프라인으로 전환할 장치 그룹을 지정합니다.
scsetup 유틸리티를 실행하십시오.
Main Menu가 표시됩니다.
# scsetup |
VxVM 장치 그룹에 대한 작업을 하려면 4(장치 그룹 및 볼륨)를 입력하십시오.
Device Groups Menu가 표시됩니다.
VxVM 디스크 그룹을 등록 해제하려면 3(VxVM 장치 그룹 등록 해제)을 입력하십시오.
지시에 따라 등록 해제할 VxVM 디스크 그룹을 입력하십시오.
다음 예에는 디스크 장치 그룹을 제거하고 등록 해제할 때 scsetup에 의해 생성되는 scconf(1M) 명령과 오프라인으로 전환된 VxVM 디스크 장치 그룹 dg1이 있습니다.
# scswitch -F -D dg1 # scsetup scconf -r -D name=dg1 |
이 절차에서는 scsetup(1M) 유틸리티를 사용하여 디스크 장치 그룹을 노드에 추가합니다.
VxVM 디스크 장치 그룹에 노드를 추가하기 위한 사전 조건은 다음과 같습니다.
클러스터의 노드에 대한 수퍼유저 권한
노드를 추가할 VxVM 장치 그룹의 이름
추가할 노드의 이름 또는 노드 ID
클러스터의 노드에서 수퍼유저가 되십시오.
scsetup(1M) 유틸리티를 실행하십시오.
Main Menu가 표시됩니다.
# scsetup |
VxVM 디스크 장치 그룹에 대한 작업을 하려면 4(장치 그룹 및 볼륨)를 입력하십시오.
Device Groups Menu가 표시됩니다.
VxVM 디스크 장치 그룹에 노드를 추가하려면 4(VxVM 장치 그룹에 노드 추가)를 입력하십시오.
지시에 따라 장치 그룹과 노드 이름을 입력하십시오.
노드가 추가되었는지 확인하십시오.
다음 명령을 실행하여 장치 그룹 정보에 새 디스크가 표시되는지 확인하십시오.
# scconf -p |
다음 예에는 VxVM 디스크 장치 그룹(dg1)에 노드(phys-schost-3)를 추가할 때 scsetup에 의해 생성되는 scconf 명령과 확인 단계가 있습니다.
# scsetup scconf a D type=vxvm,name=dg1,nodelist=phys-schost-3 # scconf -p Device group name: dg1 Device group type: VXVM Device group failback enabled: yes Device group node list: phys-schost-1, phys-schost-3 |
이 절차를 사용하면 VxVM(VERITAS Volume Manager)을 실행하는 기존 클러스터 디스크 장치 그룹(디스크 그룹)에서 클러스터 노드를 제거할 수 있습니다.
제거할 노드가 속한 디스크 장치 그룹을 확인하십시오.
# scstat -D |
현재 클러스터 구성원 노드에 대하여 수퍼유저가 되십시오.
scsetup 유틸리티를 실행하십시오.
# scsetup |
Main Menu가 표시됩니다.
디스크 장치 그룹을 다시 구성하려면 4(장치 그룹 및 볼륨)를 입력하십시오.
VxVM 디스크 장치 그룹에서 노드를 제거하려면 5(VxVM 장치 그룹에서 노드 제거)를 입력하십시오.
화면의 메시지에 따라 디스크 장치 그룹에서 클러스터 노드를 제거하십시오. 다음 정보를 묻는 메시지가 나옵니다.
VxVM 장치 그룹
노드 이름
노드가 VxVM 디스크 장치 그룹에서 제거되었는지 확인하십시오.
# scconf -p | grep Device |
이 예에서는 dg1 VxVM 디스크 장치 그룹에서 phys-schost-4라는 노드를 제거합니다.
[Determine the disk device group for the node:] # scstat -D -- Device Group Servers -- Device Group Primary Secondary ------------ ------- --------- Device group servers: dg-schost-1 phys-schost-1 phys-schost-2 [Become superuser and execute the scsetup utility:] # scsetup Select Device groups and volumes>Remove a node from a VxVM device group. Answer the questions when prompted. You will need the following information. You Will Need: Example: VxVM device group name dg1 node names phys-schost-1 [Verify that the scconf command executed properly:] scconf -r -D name=dg1,nodelist=phys-schost-4 Command completed successfully. Quit the scsetup Device Groups Menu and Main Menu. [Verify that the node was removed:] # scconf -p | grep Device Device group name: dg1 Device group type: VxVM Device group failback enabled: no Device group node list: phys-schost-3 Device group diskset name: dg1 |
디스크 장치 그룹에 대한 1차 소유권을 설정하는 방법은 preferenced라는 소유권 기본 속성의 설정을 기반으로 합니다. 이 속성이 설정되지 않은 경우에는 소유되지 않은 디스크 장치 그룹에 대한 1차 소유자가 해당 그룹에 있는 디스크에 액세스를 시도하는 첫 번째 노드입니다. 그러나 이 속성이 설정되면 노드가 소유권을 얻기 위해 시도하는 순서를 지정해야 합니다.
preferenced 속성을 비활성화하면 failback 속성도 자동으로 비활성화됩니다. 그러나 preferenced 속성을 활성화하거나 다시 활성화할 때 failback 속성이 활성화되거나 비활성화되도록 사용자가 선택할 수 있습니다.
preferenced 속성이 활성화되거나 다시 활성화되면 1차 소유권 순위 목록에서 노드 순서를 다시 지정해야 합니다.
이 절차에서는 scsetup(1M)을 사용하여 Solstice DiskSuite 또는 VxVM 디스크 장치 그룹에 대한 preferenced 속성 및 failback 속성을 설정하거나 해제합니다.
이 절차를 실행하려면 속성 값을 변경할 디스크 장치 그룹의 이름이 필요합니다.
클러스터의 노드에서 수퍼유저가 되십시오.
scsetup(1M) 유틸리티를 실행하십시오.
Main Menu가 표시됩니다.
# scsetup |
디스크 장치에 대한 작업을 하려면 4(장치 그룹 및 볼륨)를 입력하십시오.
Device Groups Menu가 표시됩니다.
장치 그룹 등록 정보를 변경하려면 6(VxVM 또는 Solstice DiskSuite 장치 그룹에 대한 주요 등록 정보 변경)을 입력하십시오.
지시에 따라 장치 그룹에 대한 preferenced 및 failback 옵션을 설정하십시오.
디스크 장치 그룹 속성이 변경되었는지 확인하십시오.
다음 명령을 실행하여 장치 그룹 정보가 표시되는지 확인하십시오.
# scconf -p |
다음은 디스크 장치 그룹(dg-schost-1)에 대한 속성 값을 설정할 때 scsetup에 의해 scconf 명령이 생성되는 예입니다.
# scconf -c -D name=dg-schost-1,nodelist=phys-schost-1:phys-schost-2,\ preferenced=true,failback=enabled # scconf -p | grep Device Device group name: dg-schost-1 Device group type: SDS Device group failback enabled: yes Device group node list: phys-schost-1, phys-schost-2 Device group ordered node list: yes Device group diskset name: dg-schost-1 |
구성을 표시할 때는 수퍼유저가 될 필요가 없습니다.
다음 세 가지 방법으로 디스크 장치 그룹 구성 정보를 표시할 수 있습니다.
scconf(1M) 명령을 사용하여 디스크 장치 그룹 구성 표시.
% scconf -p |
scstat -D 명령을 사용하면 다음 정보가 표시됩니다.
-- Device Group Servers -- Device Group Primary Secondary ------------ ------- --------- Device group servers: schost-2 - - Device group servers: schost-1 phys-schost-2 phys-schost-3 Device group servers: schost-3 - - -- Device Group Status -- Device Group Status ------------ ------ Device group status: schost-2 Offline Device group status: schost-1 Online Device group status: schost-3 Offline |
scconf 명령을 사용할 때 장치 그룹에 정보가 표시되는지 확인하십시오.
# scconf -p ... Device group name: dg-schost-1 Device group type: SDS Device group failback enabled: yes Device group node list: phys-schost-2, phys-schost-3 Device group diskset name: dg-schost-1 |
이 절차를 사용하면 비활성 장치 그룹을 시작(온라인으로 전환)할 수도 있습니다.
SunPlex Manager GUI를 사용하여 비활성 장치 그룹을 온라인으로 전환하거나 장치 그룹에 대한 1차를 전환할 수도 있습니다. 자세한 내용은 SunPlex Manager 온라인 도움말을 참조하십시오.
클러스터의 노드에서 수퍼유저가 되십시오.
scswitch(1M)를 사용하여 디스크 장치 그룹 1차를 전환하십시오.
# scswitch -z -D disk-device-group -h nodelist |
전환을 수행합니다.
전환할 장치 그룹을 지정합니다.
전환할 대상 노드의 이름을 지정합니다. 이 노드가 새 1차 노드가 됩니다.
새 디스크 장치 그룹이 1차로 전환되었는지 확인하십시오.
디스크 장치 그룹이 제대로 등록되면 다음 명령을 사용할 때 새 디스크 장치 그룹에 대한 정보가 표시됩니다.
# scstat -D |
다음 예는 디스크 장치 그룹에 대한 1차를 전환하는 방법과 변경을 확인하는 방법입니다.
# scswitch -z -D dg-schost-1 -h phys-schost-1 # scstat -D -- Device Group Servers -- Device Group Primary Secondary ------------ ------- --------- Device group servers: dg1 phys-schost-1 phys-schost-2 -- Device Group Status -- Device Group Status ------------ ------ Device group status: dg1 Online |
장치 그룹을 유지 보수 상태로 만들면 장치 중 하나가 액세스될 때마다 장치 그룹이 자동으로 온라인 상태로 전환되지 않습니다. 복구 절차를 완료할 때는 모든 I/O 작업이 정지되어야 하기 때문에 복구가 완료될 때까지 장치 그룹을 유지 보수 상태로 바꿔야 합니다. 장치 그룹을 유지 보수 상태로 만들면 한 노드에서 디스크 세트나 디스크 그룹이 복구되는 동안 다른 노드에서 디스크 그룹이 온라인 상태가 되지 않도록 하여 데이터 손실을 방지합니다.
디스크 그룹을 유지 보수 상태로 만들려면 먼저 장치에 대한 모든 액세스를 중단하고 관련 파일 시스템의 마운트를 모두 해제해야 합니다.
장치 그룹을 유지 보수 상태로 만드십시오.
# scswitch -m -D disk-device-group |
복구 절차를 수행하는 데 디스크 세트나 디스크 그룹에 대한 소유권이 필요하면 직접 해당 디스크 세트나 디스크 그룹을 가져오십시오.
Solstice DiskSuite의 경우:
# metaset -C take -f -s diskset |
SDS 디스크 세트에 대한 소유권을 받는 경우에는 장치 그룹이 유지 보수 상태에 있을 때 metaset -C take 명령을 사용해야 합니다. metaset -t 명령을 사용하면 소유권을 받을 때 장치 그룹이 온라인 상태로 전환됩니다. VxVM 디스크 그룹을 가져올 경우에는 디스크 그룹을 가져올 때 -t 플래그를 사용해야 합니다. 그러면 이 노드가 다시 부트될 때 자동으로 디스크 그룹을 가져오지 않습니다.
VERITAS Volume Manager의 경우:
# vxdg -t import disk-group-name |
수행해야 할 복구 절차를 모두 완료하십시오.
디스크 세트나 디스크 그룹에 대한 소유권을 해제하십시오.
디스크 장치 그룹을 유지 보수 상태에서 해제하기 전에 디스크 세트나 디스크 그룹에 대한 소유권을 해제해야 합니다. 소유권을 해제하지 않으면 데이터가 손실될 수 있습니다.
Solstice DiskSuite의 경우:
# metaset -C release -s diskset |
VERITAS Volume Manager의 경우:
# vxdg deport disk-group-name |
디스크 장치 그룹을 온라인으로 전환하십시오.
# scswitch -z -D disk-device-group -h nodelist |
이 예에서는 디스크 장치 그룹 dg-schost-1을 유지 보수 상태로 만들고 유지 보수 상태에서 디스크 장치 그룹을 제거합니다.
[Place the disk device group in maintenance state.] # scswitch -m -D dg-schost-1 [If needed, manually import the diskset or disk group.] For Solstice DiskSuite: # metaset -C take -f -s dg-schost-1 For VERITAS Volume Manager: # vxdg -t import dg1 [Complete all necessary repair procedures.] [Release ownership.] For Solstice DiskSuite: # metaset -C release -s dg-schost-1 For VERITAS Volume Manager: # vxdg deport dg1 [Bring the disk device group online.] # scswitch -z -D dg-schost-1 -h phys-schost-1 |
작업 |
참고 항목 |
---|---|
처음 Sun Cluster 설치 후 클러스터 파일 시스템 추가 - newfs 및 mkdir 사용 | |
클러스터 파일 시스템 제거 - fuser 및 umount 사용 | |
노드 사이에 글로벌 마운트 포인트의 일관성 확인 - sccheck 사용 |
처음 Sun Cluster를 설치한 후에 만드는 각 클러스터 파일 시스템에 대해 이 작업을 수행하십시오.
정확한 디스크 장치 이름을 지정해야 합니다. 클러스터 파일 시스템을 만들면 디스크에 있는 데이터가 모두 삭제됩니다. 잘못된 장치 이름을 지정하면 지우지 않을 데이터가 삭제됩니다.
클러스터 파일 시스템을 추가하기 위한 사전 조건은 다음과 같습니다.
클러스터의 노드에 대한 수퍼유저 권한
클러스터에 볼륨 관리자 소프트웨어를 설치하고 구성
클러스터 파일 시스템을 만들 장치 그룹(Solstice DiskSuite 장치 그룹 또는 VxVM 장치 그룹) 또는 블록 디스크 슬라이스.
SunPlex Manger를 사용하여 데이터 서비스를 설치한 경우에 공유 디스크에 클러스터 파일 시스템을 만들 충분한 공간이 있었으면 이미 하나 이상의 클러스터 파일 시스템이 있습니다.
클러스터의 노드에서 수퍼유저가 되십시오.
더 빨리 파일 시스템을 만들려면 파일 시스템을 만드는 글로벌 장치 1차에 대하여 수퍼유저가 되십시오.
newfs(1M) 명령을 사용하여 파일 시스템을 만드십시오.
# newfs raw-disk-device |
다음 표는 raw-disk-device 인수 이름의 예입니다. 이름 지정 규칙은 볼륨 관리자마다 다릅니다.
표 3-4 원시 디스크 장치 이름 샘플
볼륨 관리자 |
디스크 장치 이름 |
설명 |
---|---|---|
Solstice DiskSuite |
/dev/md/oracle/rdsk/d1 |
oracle 디스크 세트에 포함된 원시 디스크 장치 d1 |
VERITAS Volume Manager |
/dev/vx/rdsk/oradg/vol01 |
oradg 디스크 그룹에 포함된 원시 디스크 장치 vol01 |
없음 |
/dev/global/rdsk/d1s3 |
블록 슬라이스 d1s3에 대한 원시 디스크 장치 |
클러스터의 각 노드에서 클러스터 파일 시스템에 대한 마운트 포인트 디렉토리를 만드십시오.
클러스터 파일 시스템이 액세스되지 않는 각 노드에도 마운트 포인트가 필요합니다.
관리 작업을 쉽게 하려면 /global/device-group 디렉토리에 마운트 포인트를 만드십시오. 이 위치를 사용하면 로컬 파일 시스템에서 글로벌로 사용하는 클러스터 파일 시스템을 쉽게 구별할 수 있습니다.
# mkdir -p /global/device-group/mountpoint |
장치를 포함하는 장치 그룹의 이름에 해당되는 디렉토리 이름
클러스터 파일 시스템을 마운트할 디렉토리의 이름
클러스터의 각 노드에서 /etc/vfstab 파일에 마운트 포인트에 대한 항목을 추가하십시오.
다음 필수 마운트 옵션을 사용하십시오.
모든 클러스터 파일 시스템에 로그 기록이 필요합니다.
Solaris UFS 로그 기록 - global,logging 마운트 옵션을 사용합니다. UFS 마운트 옵션에 대한 자세한 내용은 mount_ufs(1M) 설명서 페이지를 참조하십시오.
UFS 클러스터 파일 시스템에는 syncdir 마운트 옵션을 지정할 필요가 없습니다. syncdir 옵션을 지정하면 파일 시스템이 POSIX와 호환되도록 작동합니다. 이 옵션을 지정하지 않으면 UFS 파일 시스템에서 보는 것처럼 작동합니다. syncdir 옵션을 지정하지 않으면 데이터를 파일에 추가하는 경우처럼 디스크 블록을 할당하는 쓰기 성능이 크게 향상됩니다. 그러나 syncdir 옵션을 지정하지 않으면 파일을 닫을 때까지 공간 부족 상태를 발견하지 못할 수 있습니다. syncdir 옵션을 지정하지 않아서 문제가 발생하는 경우는 거의 없습니다. syncdir(및 POSIX 호환 작동)을 사용하면 파일을 닫기 전에 공간 부족 상태가 발견됩니다.
Solstice DiskSuite 트랜스 메타 장치 - logging 마운트 옵션을 사용하지 않고 global 마운트 옵션을 사용합니다. 트랜스 메타 장치 설정 방법은 Solstice DiskSuite 문서를 참조하십시오.
VxFS 로그 기록 - global, log 마운트 옵션을 사용합니다. VxFS 마운트 옵션에 대한 자세한 내용은 mount_vxfs(1M) 설명서 페이지를 참조하십시오.
클러스터 파일 시스템을 자동으로 마운트하려면 mount at boot 필드를 yes로 설정하십시오.
각 클러스터 파일 시스템에 대해 각 노드에 있는 /etc/vfstab 항목의 정보가 동일한지 확인하십시오.
각 노드의 /etc/vfstab 파일에 있는 장치 항목 순서가 동일한지 확인하십시오.
파일 시스템의 부트 순서 종속성을 확인하십시오.
예를 들어, phys-schost-1이 /global/oracle의 디스크 장치 d0을 마운트하고 phys-schost-2가 /global/oracle/logs의 디스크 장치 d1을 마운트한다고 가정합니다. 이러한 구성에서는 phys-schost-1이 부트되어 /global/oracle을 마운트한 후에만 phys-schost-2가 부트하여 /global/oracle/logs를 마운트할 수 있습니다.
자세한 내용은 vfstab(4) 설명서 페이지를 참조하십시오.
클러스터의 노드에 마운트 포인트가 있는지 그리고 /etc/vfstab 파일 항목이 클러스터의 모든 노드에서 올바른지 확인하십시오.
# sccheck |
오류가 없으면 아무 것도 반환되지 않습니다.
클러스터의 임의의 노드에서 클러스터 파일 시스템을 마운트하십시오.
# mount /global/device-group/mountpoint |
클러스터의 각 노드에서 클러스터 파일 시스템이 마운트되는지 확인하십시오.
df(1M) 또는 mount(1M) 명령을 사용하여 마운트된 파일 시스템을 표시할 수 있습니다.
Sun Cluster 환경에서 VxFS 클러스터 파일 시스템을 관리하려면 VxFS 클러스터 파일 시스템이 마운트된 1차 노드에서만 관리 명령을 실행하십시오.
다음 예에서는 Solstice DiskSuite 메타 장치 /dev/md/oracle/rdsk/d1에 UFS 파일 시스템을 만듭니다.
# newfs /dev/md/oracle/rdsk/d1 ... [on each node:] # mkdir -p /global/oracle/d1 # vi /etc/vfstab #device device mount FS fsck mount mount #to mount to fsck point type pass at boot options # /dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs 2 yes global,logging [save and exit] [on one node:] # sccheck # mount /global/oracle/d1 # mount ... /global/oracle/d1 on /dev/md/oracle/dsk/d1 read/write/setuid/global/logging/ largefiles on Sun Oct 3 08:56:16 2001 |
클러스터 파일 시스템을 마운트 해제하여 '제거'합니다. 데이터도 제거하거나 삭제하려면 시스템에서 하부 디스크 장치(또는 메타 장치나 볼륨)를 제거하십시오.
scshutdown(1M)을 실행하여 전체 클러스터를 중지시키면 시스템이 종료될 때 클러스터 파일 시스템의 마운트가 자동으로 해제됩니다. shutdown을 실행하여 하나의 노드를 중지시킬 때는 클러스터 파일 시스템의 마운트가 해제되지 않습니다. 그러나 디스크에 연결된 노드가 현재 종료되는 노드 하나뿐인 경우에는 해당 디스크에 있는 클러스터 파일 시스템에 액세스하려고 하면 오류가 발생합니다.
클러스터 파일 시스템의 마운트를 해제하기 위한 사전 조건은 다음과 같습니다.
클러스터의 노드에 대한 수퍼유저 권한
파일 시스템은 사용 중일 수 없습니다. 사용자가 파일 시스템의 한 디렉토리에 있거나 프로그램에서 해당 파일 시스템의 파일을 열면 파일 시스템을 사용하고 있는 것으로 처리됩니다. 클러스터의 어느 노드에서나 사용자나 프로그램이 실행될 수 있습니다.
클러스터의 노드에서 수퍼유저가 되십시오.
마운트할 클러스터 파일 시스템을 결정하십시오.
# mount -v |
각 노드에서 클러스터 파일 시스템을 사용하는 모든 프로세스를 표시하십시오. 그러면 중지시킬 프로세스를 알 수 있습니다.
# fuser -c [ -u ] mountpoint |
파일 시스템의 마운트 포인트인 파일과 마운트된 파일 시스템 내의 모든 파일에 대하여 보고합니다.
각 프로세스 ID에 대한 사용자 로그인 이름을 표시합니다(선택 사항).
프로세스를 중지시킬 클러스터 파일 시스템의 이름을 지정합니다.
각 노드에서 클러스터 파일 시스템에 대한 모든 프로세스를 중지시키십시오.
원하는 방법을 사용하여 프로세스를 중지시키십시오. 필요하면 다음 명령을 사용하여 클러스터 파일 시스템과 관련된 프로세스를 강제로 종료하십시오.
# fuser -c -k mountpoint |
클러스터 파일 시스템을 사용하는 각 프로세스에 SIGKILL 명령이 전달됩니다.
각 노드에서 파일 시스템을 사용하는 프로세스가 없는지 확인하십시오.
# fuser -c mountpoint |
한 노드에서만 파일 시스템 마운트를 해제하십시오.
# umount mountpoint |
마운트를 해제할 클러스터 파일 시스템의 이름을 지정합니다. 이것은 클러스터 파일 시스템이 마운트되는 디렉토리 이름 또는 파일 시스템의 장치 이름 경로일 수 있습니다.
/etc/vfstab 파일을 편집하여 제거되는 클러스터 파일 시스템에 대한 항목을 삭제하십시오(선택 사항).
/etc/vfstab 파일에 이 클러스터 파일 시스템에 대한 항목이 있는 각 클러스터 노드에서 이 단계를 수행하십시오.
디스크 장치 group/metadevice/plex를 제거하십시오(선택 사항).
자세한 내용은 볼륨 관리자 문서를 참조하십시오.
다음 예에서는 Solstice DiskSuite 메타 장치 /dev/md/oracle/rdsk/d1에 마운트된 UFS 클러스터 파일 시스템을 제거합니다.
# mount -v ... /global/oracle/d1 on /dev/md/oracle/dsk/d1 read/write/setuid/global/logging/largefiles on Sun Oct 3 08:56:16 1999 # fuser -c /global/oracle/d1 /global/oracle/d1: 4006c # fuser -c -k /global/oracle/d1 /global/oracle/d1: 4006c # fuser -c /global/oracle/d1 /global/oracle/d1: # umount /global/oracle/d1 (on each node, remove the highlighted entry:) # vi /etc/vfstab #device device mount FS fsck mount mount #to mount to fsck point type pass at boot options # /dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs 2 yes global,logging [Save and exit.] |
클러스터 파일 시스템의 데이터를 제거하려면 하부 장치를 제거하십시오. 자세한 내용은 볼륨 관리자 문서를 참조하십시오.
sccheck(1M) 유틸리티는 /etc/vfstab 파일에서 클러스터 파일 시스템에 대한 항목의 구문을 검사합니다. 오류가 없으면 아무 것도 반환되지 않습니다.
클러스터 파일 시스템을 제거하는 경우처럼 장치나 볼륨 관리 구성 요소에 영향을 주는 클러스터 구성을 변경한 후에는 sccheck를 실행하십시오.