이 장에서는 전역 장치, 디스크 경로 모니터링 및 클러스터 파일 시스템 관리 절차를 소개합니다.
이 장에서 설명하는 목록은 다음과 같습니다.
디스크 장치 그룹을 제거하고 등록을 해제하는 방법(Solstice DiskSuite/Solaris 볼륨 관리자)
SPARC: 기존 디스크 그룹을 디스크 장치 그룹으로 만드는 방법(VERITAS Volume Manager)
이 장에 있는 관련 절차에 대한 자세한 내용은 표 4–2를 참조하십시오.
전역 장치, 전역 이름 공간, 디스크 장치 그룹, 디스크 경로 모니터링 및 클러스터 파일 시스템과 관련된 개념 정보는 Solaris OS용 Sun Cluster 개념 안내서를 참조하십시오.
Sun Cluster 디스크 장치 그룹을 관리하는 방법은 클러스터에 설치된 볼륨 관리자에 따라 다릅니다. Solstice DiskSuite/Solaris 볼륨 관리자는 “클러스터를 인식”하므로 Solstice DiskSuite/Solaris 볼륨 관리자 metaset(1M) 명령을 사용하여 디스크 장치 그룹을 추가하고 등록하고 제거합니다. VERITAS Volume Manager (VxVM)를 사용하는 경우 VxVM 명령을 사용하여 디스크 그룹을 만듭니다. scsetup(1M) 유틸리티를 사용하여 디스크 그룹을 Sun Cluster 디스크 장치 그룹으로 등록합니다. VxVM 디스크 장치 그룹을 제거할 때는 scsetup 명령과 VxVM 명령을 모두 사용합니다.
Sun Cluster 소프트웨어는 자동으로 클러스터의 각 디스크와 테이프 장치에 대한 원시 디스크 장치 그룹을 만듭니다. 그러나 사용자가 클러스터 장치 그룹을 전역 장치로 액세스할 때까지 클러스터 장치 그룹은 오프라인 상태를 유지합니다. 디스크 장치 그룹이나 볼륨 관리자 디스크 그룹을 관리할 때는 사용자가 그룹의 기본 노드인 클러스터 노드에 있어야 합니다.
일반적으로 전역 장치 이름 공간은 관리할 필요가 없습니다. 전역 이름 공간은 설치 과정에서 자동으로 설정되고 Solaris 운영 환경 재부트 과정에서 자동으로 업데이트됩니다. 그러나 전역 이름 공간을 업데이트해야 하는 경우에는 어느 클러스터 노드에서나 scgdevs(1M) 명령을 실행할 수 있습니다. 이 명령을 실행하면 나중에 클러스터에 포함될 노드뿐 아니라 다른 모든 클러스터 노드 구성원에서 전역 이름 공간이 업데이트됩니다.
Solstice DiskSuite/Solaris 볼륨 관리자 및 디스크 장치의 경우 전역 장치 사용 권한에 대한 변경 사항은 클러스터의 모든 노드에 자동으로 전달되지 않습니다. 전역 장치에 대한 사용 권한을 변경하려면 클러스터의 모든 노드에서 직접 사용 권한을 변경해야 합니다. 예를 들어, 전역 장치 /dev/global/dsk/d3s0에 대한 사용 권한을 644로 변경하려면 클러스터의 모든 노드에서
# chmod 644 /dev/global/dsk/d3s0
명령을 실행해야 합니다.
VxVM은 chmod 명령을 지원하지 않습니다. VxVM에서 전역 장치 사용 권한을 변경하려면 VxVM 관리 안내서를 참조하십시오.
클러스터에서 디스크 및 테이프 장치에 대한 DR (동적 재구성) 작업을 완료하려면 다음과 같은 사항을 고려해야 합니다.
Solaris DR 기능에 대해 설명된 모든 요구 사항, 절차 및 제한은 Sun Cluster DR 지원에도 적용됩니다. 운영 환경의 작동이 정지된 경우만은 예외입니다. 따라서 Sun Cluster 소프트웨어에서 DR 기능을 사용하려면 먼저 Solaris DR 기능에 대한 설명서를 참조하십시오. 특히 DR 연결 종료 작업 중에 비네트워크 IO 장치에 영향을 주는 문제를 확인해야 합니다.
Sun Cluster에서는 기본 노드에서 현재 작동하는 장치에 대한 보드 제거 DR 작업을 할 수 없습니다. 기본 노드에서 현재 작동하지 않는 장치와 보조 노드의 장치에 대한 DR 작업만 수행할 수 있습니다.
DR 작업이 끝나면 작업 이전과 마찬가지로 클러스터 데이터 액세스가 계속됩니다.
Sun Cluster에서는 쿼럼 장치의 가용성에 영향을 주는 DR 작업을 할 수 없습니다. 자세한 내용은 쿼럼 장치 동적 재구성를 참조하십시오.
보조 노드에 대한 DR 작업을 수행할 때 현재 기본 노드에 장애가 발생하면 클러스터 가용성이 영향을 받습니다. 새로운 보조 노드가 제공될 때까지 기본 노드를 페일오버할 수 없습니다.
전역 장치에 대하여 DR 작업을 수행하려면 다음 단계를 순서대로 완료하십시오.
표 4–1 작업 맵: 디스크 및 테이프 장치 동적 재구성
작업 |
참고 항목 |
---|---|
1. 현재 기본 노드에서 작동하는 장치 그룹에 영향을 주는 DR 작업을 수행해야 하는 경우, 장치에 대한 DR 제거 작업을 수행하기 전에 기본 노드와 보조 노드를 전환합니다. | |
2. 제거되는 장치에 대하여 DR 제거 작업을 수행합니다. |
Sun Enterprise 10000 DR Configuration Guide 및 Sun Enterprise 10000 Dynamic Reconfiguration Reference Manual (Solaris 8 on Sun Hardware 및 Solaris 9 on Sun Hardware 모음에 포함) |
Sun Cluster에서 VxVM 이름 공간을 유지하려면 VxVM 디스크 그룹 또는 볼륨 변경 사항을 Sun Cluster 디스크 장치 그룹 구성 변경 사항으로 등록해야 합니다. 이러한 변경 사항을 등록하면 모든 클러스터 노드의 이름 공간이 업데이트됩니다. 이름 공간에 영향을 주는 구성 변경으로는 볼륨을 추가하거나 제거하거나 이름을 변경하는 작업이 있습니다. 볼륨 사용 권한, 소유자 또는 그룹 ID를 변경해도 이름 공간에 영향을 줍니다.
디스크 그룹이 클러스터에 Sun Cluster 디스크 장치 그룹으로 등록된 후에는 VxVM 명령을 사용하여 VxVM 디스크 그룹을 가져오거나 이동시키지 마십시오. 디스크 그룹을 가져오거나 이동시켜야 하는 경우를 모두 Sun Cluster 소프트웨어가 처리합니다.
각 VxVM 디스크 그룹에는 전체 클러스터에서 고유한 부 번호가 있어야 합니다. 기본적으로 디스크 그룹이 만들어질 때 VxVM이 임의의 1000의 배수를 해당 디스크 그룹의 기본 부 번호로 선택합니다. 디스크 그룹의 수가 적은 구성에서는 대부분 부 번호만으로도 고유한 번호를 지정할 수 있습니다. 새로 만드는 디스크 그룹의 부 번호가 다른 노드에 가져온 기존 디스크 그룹의 부 번호와 충돌할 수 있습니다. 이러한 경우에는 Sun Cluster 디스크 장치 그룹을 등록할 수 없습니다. 이 문제를 해결하려면 새 디스크 그룹에 고유한 새 부 번호를 지정한 후에 Sun Cluster 디스크 장치 그룹으로 등록해야 합니다.
미러된 볼륨을 설정하는 경우에 DRL (Dirty Region Logging)을 사용하면 노드 장애가 발생한 후에 볼륨 복구 시간을 단축할 수 있습니다. DRL을 사용할 경우 I/O 처리량이 저하될 수 있지만, 그래도 DRL을 사용할 것을 강력히 권장합니다.
VxVM은 chmod 명령을 지원하지 않습니다. VxVM에서 전역 장치 사용 권한을 변경하려면 VxVM 관리 안내서를 참조하십시오.
Sun Cluster 3.1 4/04 소프트웨어는 동일한 노드에서 여러 경로를 관리하는 VxVM DMP (Dynamic Multipathing)를 지원하지 않습니다.
VxVM을 사용하여 Oracle Parallel Server/Real Application Clusters를 위한 공유 디스크 그룹을 설치하는 경우에는 VERITAS Volume Manager Administrator's Reference Guide에서 설명하는 VxVM의 클러스터 기능을 사용하십시오. Oracle Parallel Server/Real Application Clusters용 공유 디스크 그룹을 작성하는 것과 다른 디스크 그룹을 작성하는 데는 차이가 있습니다. Oracle Parallel Server/Real Application Clusters 공유 디스크 그룹은 vxdg -s 명령을 사용하여 가져와야 합니다. Oracle Parallel Server/Real Application Clusters 공유 디스크 그룹은 클러스터 프레임워크에 등록하지 마십시오. 다른 VxVM 디스크 그룹을 만들려면 SPARC: 디스크(VERITAS Volume Manager) 초기화 시 새로운 디스크 그룹 작성 방법를 참조하십시오.
클러스터 파일 시스템 관리에 특별한 Sun Cluster 명령은 필요하지 않습니다. 다른 Solaris 파일 시스템을 관리하는 경우와 마찬가지로 mount, newfs 등과 같은 표준 Solaris 파일 시스템 명령을 사용하여 클러스터 파일 시스템을 관리합니다. 클러스터 파일 시스템을 마운트할 때는 mount 명령에 -g 옵션을 지정합니다. 또한 부트할 때 클러스터 파일 시스템이 자동으로 마운트될 수도 있습니다.
클러스터 파일 시스템이 파일을 읽을 때는 파일 시스템이 해당 파일에 대한 액세스 시간을 업데이트하지 않습니다.
다음 VxFS 기능은 Sun Cluster 3.1 구성에서 지원되지 않습니다.
고속 I/O
스냅샷
저장소 체크포인트
convosync (Convert O_SYNC)
mincache
qlog, delaylog, tmplog
VERITAS CFS (VERITAS 클러스터 기능 및 VCS 필요)
캐시 보고 기능을 사용할 수는 있지만 적용 결과는 지정된 노드에서만 보여집니다.
클러스터 구성에서 지원되는 다른 VxFS 기능 및 옵션은 모두 Sun Cluster 3.1 소프트웨어에서 지원됩니다. 클러스터 구성에서 지원되는 VxFS 옵션에 대한 자세한 내용은 VxFS 설명서를 참조하십시오.
VxFS를 사용하여 가용성이 높은 클러스터 파일 시스템을 만드는 아래 설명은 Sun Cluster 3.1 4/04 구성에 적용되는 방법입니다.
VxFS 설명서에서 설명하는 절차에 따라 VxFS 파일 시스템을 만드십시오.
VxFS 파일 시스템 마운트 및 마운트 해제 작업은 기본 노드에서 하십시오. 기본 노드가 VxFS 파일 시스템이 있는 디스크를 마스터합니다. 보조 노드에서 VxFS 파일 시스템 마운트 또는 마운트 해제 작업을 하면 실패할 수 있습니다.
VxFS 클러스터 파일 시스템의 기본 노드에서 모든 VxFS 관리 명령을 수행하십시오.
아래에서 설명하는 VxFS 클러스터 파일 시스템 관리 방법은 Sun Cluster 3.1 4/04 소프트웨어에 적용되는 내용이 아닙니다. 그러나 이 방법은 UFS 클러스터 파일 시스템을 관리하는 방법과 다릅니다.
클러스터의 어느 노드에서나 VxFS 클러스터 파일 시스템의 파일을 관리할 수 있습니다. ioctls는 예외적인 경우로 기본 노드에서만 실행할 수 있습니다. 관리 명령에 ioctls 명령이 포함되는지 확실하게 알 수 없으면 기본 노드에서 명령을 실행하십시오.
VxFS 클러스터 파일 시스템이 보조 노드로 페일오버되면 페일오버 중에 진행되던 모든 표준 시스템 호출 작업이 새 기본 노드에서 투명하게 다시 실행됩니다. 그러나 페일오버 중에 진행되던 ioctl 관련 작업은 모두 실패하게 됩니다. VxFS 클러스터 파일 시스템 페일오버 후에 클러스터 파일 시스템의 상태를 확인하십시오. 페일오버 이전의 기본 노드에서 실행된 관리 명령에 수정해야 할 부분이 있을 수 있습니다. 자세한 내용은 VxFS 설명서를 참조하십시오.
scsetup(1M) 유틸리티는 scconf(1M) 명령에 대한 대화식 인터페이스입니다. scsetup 명령을 실행하면 scconf 명령이 생성됩니다. 몇 가지 절차 뒤에 다음과 같은 생성된 명령의 예가 나옵니다.
Sun Cluster 소프트웨어는 자동으로 클러스터의 각 디스크와 테이프 장치에 대한 원시 디스크 장치 그룹을 만듭니다. 그러나 사용자가 클러스터 장치 그룹을 전역 장치로 액세스할 때까지 클러스터 장치 그룹은 오프라인 상태를 유지합니다.
작업 |
참고 항목 |
---|---|
재구성 후에 재부트하지 않는 전역 장치 이름 공간 업데이트 - scgdevs(1M) 사용 | |
Solstice DiskSuite/Solaris 볼륨 관리자 디스크 세트를 추가하여 디스크 장치 그룹으로 등록 - metaset(1M) 사용 | |
구성에서 Solstice DiskSuite/Solaris 볼륨 관리자 디스크 장치 그룹 제거 - metaset 및 metaclear(1M) 사용 |
디스크 장치 그룹을 제거하고 등록을 해제하는 방법(Solstice DiskSuite/Solaris 볼륨 관리자) |
모든 디스크 장치 그룹에서 노드 제거 - scconf, metaset 및 scsetup 사용 | |
Solstice DiskSuite/Solaris 볼륨 관리자 디스크 장치 그룹에서 노드 제거 - metaset 사용 | |
SPARC: VERITAS Volume Manager 디스크 그룹을 디스크 장치 그룹으로 추가 - VxVM 명령 및 scsetup(1M) 사용 |
SPARC: 디스크(VERITAS Volume Manager) 초기화 시 새로운 디스크 그룹 작성 방법
SPARC: 디스크를 캡슐화할 때 새 디스크 그룹을 만드는 방법(VERITAS Volume Manager)
SPARC: 기존 디스크 장치 그룹에 새 볼륨을 추가하는 방법(VERITAS Volume Manager)
SPARC: 기존 디스크 그룹을 디스크 장치 그룹으로 만드는 방법(VERITAS Volume Manager)
SPARC: 디스크 장치 그룹에 새 부 번호를 할당하는 방법(VERITAS Volume Manager)
SPARC: 디스크 그룹을 디스크 장치 그룹으로 등록하는 방법(VERITAS Volume Manager)
|
SPARC: 구성에서 VERITAS Volume Manager 디스크 장치 그룹 제거 - scsetup 사용(scconf 생성) |
SPARC: 디스크 장치 그룹(VERITAS Volume Manager)에서 볼륨을 제거하는 방법
|
SPARC: VERITAS Volume Manager 디스크 장치 그룹에 노드 추가 - scsetup을 사용하여 scconf 생성 | |
SPARC: VERITAS Volume Manager 디스크 장치 그룹에서 노드 제거 - scsetup을 사용하여 scconf 생성 | |
원시 디스크 장치 그룹에서 노드 제거 - scconf(1M) 사용 | |
디스크 장치 그룹 등록 정보 변경 - scsetup을 사용하여 scconf 생성 | |
디스크 장치 그룹 및 등록 정보 표시 - scconf 사용 | |
장치 그룹에 필요한 보조 수 변경 - scsetup을 사용하여 scconf 생성 | |
디스크 장치 그룹에 대한 기본 전환 - scswitch(1M) 사용 | |
디스크 장치 그룹을 유지 보수 상태로 전환 - metaset 또는 vxdg 사용 |
새로운 전역 장치를 추가할 경우 scgdevs(1M) 명령을 실행하여 전역 장치 이름 공간을 수동으로 업데이트하십시오.
scgdevs 명령을 실행하는 노드가 현재 클러스터 구성원이 아니면 명령이 적용되지 않습니다. /global/.devices/node@nodeID 파일 시스템이 마운트되지 않은 경우에도 명령이 적용되지 않습니다.
다음은 scgdevs 명령을 성공적으로 실행했을 때 표시되는 출력의 예입니다.
# scgdevs Configuring the /dev/global directory (global devices)... obtaining access to all attached disks reservation program successfully exiting |
Solstice DiskSuite/Solaris 볼륨 관리자 디스크 세트를 작성하고 디스크 세트를 Sun Cluster 디스크 장치 그룹으로 등록하려면 metaset 명령을 사용하십시오. 디스크 세트를 등록하면 디스크 세트에 할당한 이름이 자동으로 디스크 장치 그룹에 할당됩니다.
디스크 세트를 만들 디스크에 연결된 노드에서 수퍼유저가 됩니다.
구성에 필요한 메타 장치 이름의 수를 계산하고 각 노드에서 /kernel/drv/md.conf 파일을 수정합니다.
Solaris OS용 Sun Cluster 소프트웨어 설치 안내서에서 “메타 장치 이름 및 디스크 세트 수를 설정하는 방법”을 참조하십시오.
metaset(1M) 명령을 사용하여 Solstice DiskSuite/Solaris 볼륨 관리자 디스크 세트를 추가하고 추가된 디스크 세트를 Sun Cluster에 디스크 장치 그룹으로 등록합니다.
# metaset -s diskset -a -h nodelist |
만들 디스크 세트를 지정합니다.
디스크 세트를 마스터할 수 있는 노드 목록을 추가합니다.
metaset 명령을 실행하여 클러스터에 Solstice DiskSuite/Solaris 볼륨 관리자 장치 그룹을 설치하면 해당 장치 그룹에 포함된 노드 수에 관계 없이 기본적으로 보조 노드 수가 하나가 됩니다. 장치 그룹을 만든 후에 scsetup(1M) 유틸리티를 사용하여 보조 노드 수를 원하는 대로 변경할 수 있습니다. 디스크 페일오버에 대한 자세한 내용은 장치 그룹에 대한 보조 노드 수를 변경하는 방법 를 참조하십시오.
디스크 장치 그룹이 추가되었는지 확인합니다.
디스크 장치 그룹 이름은 metaset를 사용하여 지정된 디스크 세트 이름과 일치합니다.
# scconf -p | grep disk-device-group |
다음 예에서는 디스크 세트 및 디스크 장치 그룹을 만드는 방법을 보여주며 디스크 장치 그룹이 만들어졌는지 확인합니다.
# metaset -s dg-schost-1 -a -h phys-schost-1 # scconf -p | grep dg-schost-1 Device group name: dg-schost-1 |
디스크 장치 그룹은 Sun Cluster에 등록된 Solstice DiskSuite/Solaris 볼륨 관리자 디스크 세트입니다. Solstice DiskSuite/Solaris 볼륨 관리자 디스크 장치 그룹을 제거하려면 metaclear 및 metaset 명령을 사용하십시오. 이 명령을 사용하면 동일한 이름의 디스크 장치 그룹을 제거하고 디스크 그룹을 Sun Cluster 디스크 장치 그룹에서 등록 해제합니다.
디스크 세트를 제거하는 단계는 Solstice DiskSuite/Solaris 볼륨 관리자 설명서를 참조하십시오.
잠재적 기본 노드 목록에 노드를 나열하는 모든 디스크 장치 그룹에서 클러스터 노드를 제거하려면 다음 절차를 수행하십시오.
모든 디스크 장치 그룹의 기본 노드가 될 수 있는 제거 대상 노드에서 수퍼유저가 됩니다.
제거할 노드가 속한 디스크 장치 그룹을 확인하십시오.
각 디스크 장치 그룹에 대한 Device group node list에서 노드 이름을 찾으십시오.
# scconf -p | grep ¨Device group" |
단계 2에서 장치 그룹 유형이 SDS/SVM인 디스크 장치 그룹이 확인되었습니까?
그러면 디스크 장치 그룹에서 노드를 제거하는 방법(Solstice DiskSuite/Solaris 볼륨 관리자)의 절차를 수행하십시오.
아니면 단계 4로 이동하십시오.
단계 2에서 장치 그룹 유형이 VxVM인 디스크 장치 그룹이 확인되었습니까?
그러면 SPARC: 디스크 장치 그룹에서 노드를 제거하는 방법(VERITAS Volume Manager)의 절차를 수행하십시오.
아니면 단계 5로 이동하십시오.
제거할 노드가 속한 원시 디스크 장치 그룹이 구성원인지 확인합니다.
다음 명령의 -pvv 옵션에는 “v”가 두 개 포함되어 있습니다. 두 번째 “v”는 원시 디스크 장치 그룹을 표시하기 위해 필요합니다.
# scconf -pvv | grep ¨Device group¨ |
단계 5에서 표시된 디스크 장치 그룹 중에 장치 그룹 유형이 Disk 또는 Local_Disk인 디스크 장치 그룹이 있거나 두 가지 모두 있습니까?
그러면 SPARC: 원시 디스크 장치 그룹에서 노드를 제거하는 방법의 절차를 수행하십시오.
아니면 단계 7로 이동하십시오.
모든 디스크 장치 그룹의 기본이 될 수 있는 노드 목록에서 노드가 제거되었는지 확인합니다.
해당 노드가 디스크 장치 그룹의 기본이 될 수 있는 노드 목록에 포함되지 않았으면 명령 결과에 아무것도 반환되지 않습니다.
# scconf -pvv | grep ¨Device group¨ | grep nodename |
Solstice DiskSuite/Solaris 볼륨 관리자 디스크 장치 그룹의 기본이 될 수 있는 노드 목록에서 클러스터 노드를 제거하려면 다음 절차를 수행하십시오. 제거할 노드가 있는 각 디스크 장치 그룹에 대하여 metaset 명령을 반복하십시오.
노드가 아직 그룹의 구성원인지 그리고 그룹이 SDS/SVM 장치 그룹인지를 확인합니다.
장치 그룹 유형 SDS/SVM은 Solstice DiskSuite/Solaris 볼륨 관리자 디스크 장치 그룹을 나타냅니다.
phys-schost-1% scconf -pv | grep '(global-galileo)' (global-galileo) Device group type: SDS/SVM (global-galileo) Device group failback enabled: no (global-galileo) Device group node list: phys-schost-1, phys-schost-2 (global-galileo) Diskset name: global-galileo phys-schost-1% |
어느 노드가 현재 장치 그룹의 기본 노드인지 확인합니다.
# scstat -D |
현재 수정할 디스크 장치 그룹이 있는 노드에서 수퍼유저가 됩니다.
디스크 장치 그룹에서 노드의 호스트 이름을 삭제합니다.
# metaset -s setname -d -h nodelist |
디스크 장치 그룹 이름을 지정합니다.
-h를 사용하여 확인된 노드를 디스크 장치 그룹에서 삭제합니다.
노드 목록 중에서 디스크 장치 그룹을 마스터할 수 있는 노드를 제거합니다.
업데이트를 완료하는 데 몇 분이 걸릴 수 있습니다.
명령을 실행할 수 없으면 명령에 -f (강제 실행) 옵션을 추가하십시오.
# metaset -s setname -d -f -h nodelist |
기본 노드가 될 수 있는 노드가 제거 중인 각 디스크 장치 그룹에 대해 단계 4를 반복합니다.
노드가 디스크 장치 그룹에서 제거되었는지 확인합니다.
디스크 장치 그룹 이름은 metaset를 사용하여 지정된 디스크 세트 이름과 일치합니다.
phys-schost-1% scconf -pv |grep Device group node list: phys-schost-1, phys-schost-2, phys-schost-1% |
다음은 디스크 장치 그룹 구성에서 호스트 이름 phys-schost-2를 제거하는 예입니다. 이 예에서는 지정된 디스크 장치 그룹에 1차로 사용될 수 있는 호스트 phys-schost-2를 제거합니다. scstat -D 명령을 실행하여 노드가 제거되었는지 확인하십시오. 제거된 노드가 더 이상 화면의 텍스트에 표시되지 않는지 확인하십시오.
[노드에 대한 Solstice DiskSuite/Solaris 볼륨 관리자 디스크 장치 그룹(2) 확인] # scconf -pv | grep Device Device group name: dg-schost-1 Device group type: SDS/SVM Device group failback enabled: no Device group node list: phys-schost-1, phys-schost-2 Device group ordered node list: yes Device group diskset name: dg-schost-1 [노드에 대한 디스크 장치 그룹 확인] # scstat -D -- Device Group Servers -- Device Group Primary Secondary ------------ ------- --------- Device group servers: dg-schost-1 phys-schost-1 phys-schost-2 [수퍼유저가 됩니다.] [디스크 장치 그룹에서 호스트 이름 제거] # metaset -s dg-schost-1 -d -h phys-schost-2 [해당 노드의 제거 여부 확인] phys-schost-1% scconf -pv |grep Device Group Servers -- Device Group Primary Secondary ------------ ------- --------- Device group node list: dg-schost-1, phys-schost-2, |
클러스터에 네 개 이상의 디스크 세트를 만들려면 디스크 세트를 만들기 전에 다음 단계를 수행하십시오. 처음 디스크 세트를 설치하든지 완전히 구성된 클러스터에 디스크 세트를 추가하든지 관계없이 이 단계를 수행하십시오.
md_nsets 변수의 값을 충분히 크게 설정해야 합니다. 이 값은 클러스터에 만들 총 디스크 세트 수에 맞춰야 합니다.
클러스터의 노드에서 /kernel/drv/md.conf 파일에 있는 md_nsets 변수의 값을 확인하십시오.
클러스터에 있는 디스크 세트 수가 기존의 md_nsets 값에서 1을 뺀 값보다 크면 각 노드에서 md_nsets의 값을 늘리십시오.
디스크 세트 수의 최대값은 md_nsets의 값보다 하나 작은 값까지 사용할 수 있습니다. md_nsets 변수에 설정할 수 있는 최대값은 32입니다.
클러스터의 각 노드에서 /kernel/drv/md.conf 파일이 동일한지 확인하십시오.
이 설명을 따르지 않으면 심각한 Solstice DiskSuite/Solaris 볼륨 관리자 오류가 발생하여 데이터를 잃을 수 있습니다.
하나의 노드에서 클러스터를 종료하십시오.
# scshutdown -g0 -y |
SPARC:
ok boot |
x86:
<<< Current Boot Parameters >>> Boot path: /pci@0,0/pci8086,2545@3/pci8086,1460@1d/pci8086,341a@ 7,1/sd@0,0:a Boot args: Type b [file-name] [boot-flags] <ENTER> to boot with options or i <ENTER> to enter boot interpreter or <ENTER> to boot with defaults <<< timeout in 5 seconds >>> Select (b)oot or (i)nterpreter: b |
클러스터의 각 노드에서 devfsadm(1M) 명령을 실행합니다.
클러스터의 모든 노드에서 동시에 이 명령을 실행할 수 있습니다.
클러스터의 한 노드에서 scgdevs(1M) 명령을 실행합니다.
디스크 세트를 만들기 전에 각 노드에서 scgdevs 명령이 완료되었는지 확인합니다.
scgdevs 명령이 한 노드에서 실행될 경우에도 이 명령은 모든 노드에 있는 동일한 명령을 원격으로 호출합니다. scgdevs 명령이 프로세스를 완료했는지 확인하려면 클러스터의 각 노드에서 다음 명령을 실행하십시오.
% ps -ef | grep scgdevs |
이 절차는 디스크를 초기화하는 데만 사용됩니다. 디스크를 캡슐화할 경우에는 SPARC: 디스크를 캡슐화할 때 새 디스크 그룹을 만드는 방법(VERITAS Volume Manager)를 참조하십시오.
VxVM 디스크 그룹을 추가한 후에 디스크 장치 그룹을 등록해야 합니다.
VxVM을 사용하여 Oracle Parallel Server/Real Application Clusters를 위한 공유 디스크 그룹을 설치하는 경우에는 VERITAS Volume Manager Administrator's Reference Guide에서 설명하는 VxVM의 클러스터 기능을 사용하십시오.
추가되는 디스크 그룹을 구성하는 디스크에 물리적으로 연결된 클러스터의 모든 노드에서 수퍼유저가 됩니다.
VxVM 디스크 그룹과 볼륨을 만듭니다.
원하는 방법을 사용하여 디스크 그룹과 볼륨을 만드십시오.
미러된 볼륨을 설정하는 경우에 DRL (Dirty Region Logging)을 사용하면 노드 장애가 발생한 후에 볼륨 복구 시간을 단축할 수 있습니다. 그러나 DRL을 사용하면 I/O 처리량이 줄어들 수 있습니다.
이 단계를 완료하기 위한 절차에 대한 내용은 VERITAS Volume Manager 설명서를 참조하십시오.
VxVM 디스크 그룹을 Sun Cluster 디스크 장치 그룹으로 등록합니다.
SPARC: 디스크 그룹을 디스크 장치 그룹으로 등록하는 방법(VERITAS Volume Manager)를 참조하십시오.
Oracle Parallel Server/Real Application Clusters 공유 디스크 그룹은 클러스터 프레임워크에 등록하지 마십시오.
이 절차는 디스크 캡슐화에만 적용됩니다. 디스크를 초기화할 경우에는 SPARC: 디스크(VERITAS Volume Manager) 초기화 시 새로운 디스크 그룹 작성 방법를 참조하십시오.
먼저 디스크를 VxVM 디스크 그룹으로 캡슐화한 다음 디스크 그룹을 Sun Cluster 디스크 장치 그룹으로 등록하여 루트가 아닌 디스크를 Sun Cluster 디스크 장치 그룹으로 만들 수 있습니다.
디스크 캡슐화는 VxVM 디스크 그룹을 처음 만들 때만 지원됩니다. VxVM 디스크 그룹이 만들어지고 Sun Cluster 디스크 장치 그룹으로 등록되고 나면 초기화될 수 있는 디스크만 디스크 그룹에 추가됩니다.
VxVM을 사용하여 Oracle Parallel Server/Real Application Clusters를 위한 공유 디스크 그룹을 설치하는 경우에는 VERITAS Volume Manager Administrator's Reference Guide에서 설명하는 VxVM의 클러스터 기능을 사용하십시오.
클러스터의 노드에서 수퍼유저가 됩니다.
캡슐화되는 디스크의 파일 시스템 항목이 /etc/vfstab 파일에 있으면 mount at boot 옵션이 no로 설정되어야 합니다.
디스크가 캡슐화되어 Sun Cluster 디스크 장치 그룹으로 등록된 후에 다시 이 옵션을 yes로 설정할 수 있습니다.
디스크를 캡슐화합니다.
vxdiskadm 메뉴나 그래픽 사용자 인터페이스(GUI)를 사용하여 디스크를 캡슐화합니다. VxVM을 사용하려면 디스크 시작 부분이나 끝 부분에 할당되지 않은 실린더가 있어야 하고 두 개의 빈 분할 영역이 있어야 합니다. 또한 전체 디스크에 슬라이스 2가 설정되어야 합니다. 자세한 내용은 vxdiskadm 설명서 페이지를 참조하십시오.
노드를 종료하고 다시 시작합니다.
scswitch(1M) 명령을 실행하면 모든 자원 그룹과 장치 그룹이 기본 노드에서 다음 기본 노드로 전환됩니다. shutdown 명령을 사용하여 노드를 종료하고 다시 시작하십시오.
# scswitch -S -h node[,...] # shutdown -g0 -y -i6 |
필요한 경우 모든 자원 그룹과 장치 그룹을 원래 노드로 다시 전환합니다.
처음에 자원 그룹과 장치 그룹이 기본 노드로 페일백하도록 구성되었으면 이 단계가 필요없습니다.
# scswitch -z -D disk-device-group -h node[,...] # scswitch -z -g resource-group -h node[,...] |
VxVM 디스크 그룹을 Sun Cluster 디스크 장치 그룹으로 등록합니다.
SPARC: 디스크 그룹을 디스크 장치 그룹으로 등록하는 방법(VERITAS Volume Manager)를 참조하십시오.
Oracle Parallel Server/Real Application Clusters 공유 디스크 그룹은 클러스터 프레임워크에 등록하지 마십시오.
기존 VxVM 디스크 장치 그룹에 새 볼륨을 추가할 때 온라인 디스크 장치 그룹의 기본 노드에서 다음 절차를 수행합니다.
볼륨을 추가한 후, SPARC: 디스크 그룹 구성의 변경 사항을 등록하는 방법(VERITAS Volume Manager)의 절차를 수행하여 구성 변경을 등록해야 합니다.
클러스터의 노드에서 수퍼유저가 됩니다.
새 볼륨을 추가할 디스크 장치 그룹의 기본 노드를 확인합니다.
# scstat -D |
디스크 장치 그룹이 오프라인 상태이면 장치 그룹을 온라인 상태로 전환합니다.
# scswitch -z -D disk-device-group -h node[,...] |
지정된 장치 그룹으로 전환합니다.
디스크 장치 그룹을 전환할 노드의 이름을 지정합니다. 이 노드가 새 기본 노드가 됩니다.
기본 노드(현재 디스크 장치 그룹을 마스터하는 노드)에서 디스크 그룹에 VxVM 볼륨을 만듭니다.
VxVM 볼륨을 만드는 데 사용하는 절차에 대한 내용은 VERITAS Volume Manager 설명서를 참조하십시오.
VxVM 디스크 그룹 변경을 등록합니다. 그러면 전역 이름 공간이 업데이트됩니다.
SPARC: 디스크 그룹 구성의 변경 사항을 등록하는 방법(VERITAS Volume Manager)를 참조하십시오.
기존 VxVM 디스크 그룹을 Sun Cluster 디스크 장치로 만들 수 있습니다. 디스크 그룹을 현재 노드로 가져온 다음 Sun Cluster 디스크 장치 그룹으로 등록하면 됩니다.
클러스터의 노드에서 수퍼유저가 됩니다.
VxVM 디스크 그룹을 현재 노드로 가져옵니다.
# vxdg import diskgroup |
VxVM 디스크 그룹을 Sun Cluster 디스크 장치 그룹으로 등록합니다.
SPARC: 디스크 그룹을 디스크 장치 그룹으로 등록하는 방법(VERITAS Volume Manager)를 참조하십시오.
부 번호가 다른 디스크 그룹과 충돌하기 때문에 장치 그룹 등록이 실패한 경우 새 디스크 그룹에 사용하지 않은 새로운 부 번호를 할당해야 합니다. 새 부 번호를 할당한 후에 절차를 다시 실행하여 디스크 그룹을 Sun Cluster 디스크 장치 그룹으로 등록하십시오.
클러스터의 노드에서 수퍼유저가 됩니다.
사용하는 부 번호를 확인하십시오.
# ls -l /global/.devices/node@nodeid/dev/vx/dsk/* |
사용하지 않는 다른 1000의 배수를 새 디스크 그룹의 기본 부 번호로 선택합니다.
새 부 번호를 디스크 그룹에 할당합니다.
# vxdg reminor diskgroup base-minor-number |
VxVM 디스크 그룹을 Sun Cluster 디스크 장치 그룹으로 등록합니다.
SPARC: 디스크 그룹을 디스크 장치 그룹으로 등록하는 방법(VERITAS Volume Manager)를 참조하십시오.
이 예에서는 부 번호 16000-16002 및 4000-4001을 사용합니다. vxdg reminor 명령을 사용하면 최저 부 번호 5000을 새 디스크 장치 그룹에 할당할 수 있습니다.
# ls -l /global/.devices/node@nodeid/dev/vx/dsk/* /global/.devices/node@nodeid/dev/vx/dsk/dg1 brw------- 1 root root 56,16000 Oct 7 11:32 dg1v1 brw------- 1 root root 56,16001 Oct 7 11:32 dg1v2 brw------- 1 root root 56,16002 Oct 7 11:32 dg1v3 /global/.devices/node@nodeid/dev/vx/dsk/dg2 brw------- 1 root root 56,4000 Oct 7 11:32 dg2v1 brw------- 1 root root 56,4001 Oct 7 11:32 dg2v2 # vxdg reminor dg3 5000 |
이 절차에서는 scsetup(1M) 유틸리티를 사용하여 연관된 VxVM 디스크 그룹을 Sun Cluster 디스크 장치 그룹으로 등록합니다.
디스크 장치 그룹이 클러스터에 등록된 후에는 VxVM 명령을 사용하여 VxVM 디스크 그룹을 가져오거나 내보내지 마십시오. VxVM 디스크 그룹이나 볼륨을 변경할 경우에는 SPARC: 디스크 그룹 구성의 변경 사항을 등록하는 방법(VERITAS Volume Manager)를 참조하여 디스크 장치 그룹 구성 변경 사항을 등록하십시오. 다음 절차를 수행하면 전역 이름 공간이 올바른 상태로 유지됩니다.
VxVM 디스크 장치 그룹을 등록하기 위한 사전 조건은 다음과 같습니다.
클러스터의 노드에 대한 수퍼유저 권한
디스크 장치 그룹으로 등록될 VxVM 디스크 그룹의 이름
디스크 장치 그룹을 제어하기 위한 기본 노드 순서
디스크 장치 그룹에 필요한 보조 노드의 수
기본 순서를 정의할 때 기본 노드가 중단되었다가 나중에 다시 클러스터로 복원되는 경우에 디스크 장치 그룹이 다시 기본 노드로 스위치백되도록 할 것인지 지정할 수 있습니다.
노드 기본 설정 및 페일백 옵션에 대한 자세한 내용은 scconf(1M)를 참조하십시오.
노드 환경 설정의 순서에 따라 기본이 아닌 (예비) 클러스터 노드가 보조 노드로 바뀝니다. 장치 그룹에 대한 보조 노드의 기본 개수는 일반적으로 1로 설정됩니다. 이 기본 설정은 보조 노드가 여러 개인 경우에 정상 작동 중에 기본 노드에서 체크포인트 작업을 하기 위하여 성능이 떨어지는 것을 최소화하기 위한 것입니다. 예를 들어, 노드가 네 개인 클러스터에서는 기본적으로 기본 노드 하나, 보조 노드 하나, 예비 노드 두 개를 구성합니다. SPARC: 필요한 보조 노드 수를 설정하는 방법(VERITAS Volume Manager)를 참조하십시오.
클러스터의 노드에서 수퍼유저가 됩니다.
scsetup 유틸리티를 실행합니다.
# scsetup |
주 메뉴가 표시됩니다.
VxVM 디스크 장치 그룹에 대한 작업을 하려면 4 (장치 그룹 및 볼륨)를 입력합니다.
장치 그룹 메뉴가 표시됩니다.
VxVM 디스크 장치 그룹을 등록하려면 1 (VxVM 디스크 그룹을 장치 그룹으로 등록)을 입력합니다.
지시에 따라 Sun Cluster 디스크 장치 그룹으로 등록될 VxVM 디스크 그룹의 이름을 입력하십시오.
VxVM을 사용하여 Oracle Parallel Server/Real Application Clusters를 위한 공유 디스크 그룹을 설치하는 경우에는 공유 디스크 그룹을 클러스터 프레임워크에 등록하지 마십시오. VERITAS Volume Manager Administrator's Reference Guide의 설명에 따라 VxVM의 클러스터 기능을 사용하십시오.
디스크 장치 그룹을 등록하려고 할 때 다음 오류가 발생하면 디스크 장치 그룹의 부 번호를 다시 지정합니다.
scconf: Failed to add device group - in use |
디스크 장치 그룹의 부 번호를 변경하려면 SPARC: 디스크 장치 그룹에 새 부 번호를 할당하는 방법(VERITAS Volume Manager)를 참조하십시오. 다음 절차를 수행하면 기존 디스크 장치 그룹이 사용하는 부 번호와 충돌하지 않도록 부 번호를 새로 지정할 수 있습니다.
디스크 장치 그룹이 등록되고 온라인 상태인지 확인합니다.
디스크 장치 그룹이 제대로 등록되면 다음 명령을 사용할 때 새 디스크 장치 그룹에 대한 정보가 표시됩니다.
# scstat -D |
클러스터에 등록된 VxVM 디스크 그룹이나 볼륨에 대한 구성 정보를 변경할 경우에는 scsetup(1M)을 사용하여 디스크 장치 그룹을 동기화해야 합니다. 이러한 구성 변경에는 그룹, 소유자 또는 기존 볼륨 사용 권한뿐 아니라 볼륨 추가나 제거도 포함됩니다. 구성을 변경한 후에 다시 등록하면 전역 이름 공간이 올바른 상태가 됩니다. 전역 장치 이름 공간을 업데이트하는 방법를 참조하십시오.
다음 예에는 VxVM 디스크 장치 그룹(dg1)을 등록할 때 scsetup에 의해 scconf 명령이 생성되고 확인하는 단계가 있습니다. 이 예에서는 전에 VxVM 디스크 그룹 및 볼륨을 만들었다고 가정합니다.
# scsetup scconf -a -D type=vxvm,name=dg1,nodelist=phys-schost-1:phys-schost-2 # scstat -D -- Device Group Servers -- Device Group Primary Secondary ------------ ------- --------- Device group servers: dg1 phys-schost-1 phys-schost-2 -- Device Group Status -- Device Group Status ------------ ------ Device group status: dg1 Online |
VxVM 디스크 장치 그룹에 클러스터 파일 시스템을 만들려면 클러스터 파일 시스템 추가 방법를 참조하십시오.
부 번호에 문제가 있으면 SPARC: 디스크 장치 그룹에 새 부 번호를 할당하는 방법(VERITAS Volume Manager)를 참조하십시오.
VxVM 디스크 그룹이나 볼륨에 대한 구성 정보를 변경한 경우 Sun Cluster 디스크 장치 그룹에 대한 구성 변경 사항을 등록해야 합니다. 변경 후에 등록하면 전역 이름 공간이 올바른 상태로 유지됩니다.
클러스터의 노드에서 수퍼유저가 됩니다.
scsetup(1M) 유틸리티를 실행합니다.
# scsetup |
주 메뉴가 표시됩니다.
VxVM 디스크 장치 그룹에 대한 작업을 하려면 4 (장치 그룹 및 볼륨)를 입력합니다.
장치 그룹 메뉴가 표시됩니다.
구성 변경을 등록하려면 2 (VxVM 장치 그룹에 대한 볼륨 정보 동기화)를 입력합니다.
지시에 따라 구성을 변경한 VxVM 디스크 그룹을 입력하십시오.
다음은 변경된 VxVM 디스크 장치 그룹(dg1)을 등록할 때 scsetup에 의해 scconf 명령이 생성되는 예입니다. 이 예에서는 전에 VxVM 디스크 그룹 및 볼륨을 만들었다고 가정합니다.
# scsetup scconf -c -D name=dg1,sync |
numsecondaries 등록 정보는 기본 노드가 실패한 경우 해당 그룹을 제어할 수 있는 장치 그룹 내의 노드 수를 지정합니다. 장치 서비스를 위한 보조 노드의 기본 개수는 1입니다. 값은 1부터 장치 그룹에서 기본을 제외하고 서비스를 제공하는 노드 수까지 정수로 설정할 수 있습니다.
이 설정은 클러스터의 성능과 가용성 사이에 균형을 맞추는 데 중요한 역할을 하는 값입니다. 예를 들어, 보조 노드 수를 증가시키면 클러스터에서 동시에 여러 번 장애가 발생할 경우에도 장치 그룹이 작동할 확률이 높아집니다. 또한 보조 노드 수를 증가시키면 정상 작동 중에 주기적으로 성능이 떨어집니다. 일반적으로 보조 노드 수가 적을수록 성능은 좋아지지만 가용성은 떨어집니다. 그러나 보조 노드 수가 많다고 해서 문제가 발생하는 파일 시스템이나 장치 그룹의 가용성이 항상 높아지는 것은 아닙니다. 자세한 내용은 Solaris OS용 Sun Cluster 개념 안내서의 “관리 및 응용 프로그램 개발 주요 개념”을 참조하십시오.
클러스터의 노드에서 수퍼유저가 됩니다.
scsetup(1M) 유틸리티를 실행합니다.
# scsetup |
주 메뉴가 표시됩니다.
VxVM 디스크 장치 그룹에 대한 작업을 하려면 4 (장치 그룹 및 볼륨)를 입력합니다.
장치 그룹 메뉴가 표시됩니다.
장치 그룹의 주요 등록 정보를 변경하려면 6 (장치 그룹 주요 등록 정보 변경)을 입력합니다.
주요 등록 정보 변경 메뉴가 표시됩니다.
보조 노드 수를 변경하려면 2 (numsecondaries 등록 정보 변경)를 입력합니다.
지시에 따라 디스크 장치 그룹에 대하여 구성할 보조 노드 수를 입력하십시오. 원하는 값을 입력하고 나면 해당 scconf 명령이 실행됩니다. 그런 다음에 로그가 출력되고 이전 메뉴로 돌아갑니다.
scconf -p 명령을 사용하여 장치 그룹 구성을 검증합니다.
# scconf -p | grep Device Device group name: dg-schost-1 Device group type: VxVM Device group failback enabled: yes Device group node list: phys-schost-1,phys-schost-2, phys-schost-3 Device group ordered node list: yes Device group desired number of secondaries: 1 Device group diskset name: dg-schost-1 |
클러스터에 등록된 VxVM 디스크 그룹이나 볼륨의 구성 정보를 변경할 경우 scsetup을 사용하여 디스크 장치 그룹을 재등록해야 합니다. 이러한 구성 변경에는 그룹, 소유자 또는 기존 볼륨 사용 권한뿐 아니라 볼륨 추가나 제거도 포함됩니다. 구성을 변경한 후에 다시 등록하면 전역 이름 공간이 올바른 상태가 됩니다. 전역 장치 이름 공간을 업데이트하는 방법를 참조하십시오.
디스크 장치 그룹에 대한 기본 노드와 상태를 확인합니다.
# scstat -D |
다음은 장치 그룹(diskgrp1)에 대한 보조 노드 수를 구성할 때 scsetup에 의해 생성되는 scconf 명령의 예입니다. 장치 그룹이 만들어진 후에 보조 노드 수를 변경하는 방법에 대한 내용은 장치 그룹에 대한 보조 노드 수를 변경하는 방법 를 참조하십시오.
# scconf -a -D type=vxvm,name=diskgrp1, nodelist=host1:host2:host3,preferenced=true, \ failback=enabled,numsecondaries=2 |
디스크 장치 그룹에서 볼륨을 제거한 후에 SPARC: 디스크 그룹 구성의 변경 사항을 등록하는 방법(VERITAS Volume Manager)를 참조하여 변경된 구성을 디스크 장치 그룹에 등록해야 합니다.
클러스터의 노드에서 수퍼유저가 됩니다.
디스크 장치 그룹에 대한 기본 노드와 상태를 결정합니다.
# scstat -D |
디스크 장치 그룹이 오프라인이면 온라인으로 전환합니다.
# scswitch -z -D disk-device-group -h node[,...] |
전환을 수행합니다.
전환할 장치 그룹을 지정합니다.
전환할 대상 노드의 이름을 지정합니다. 이 노드가 새 기본 노드가 됩니다.
기본 노드(현재 디스크 장치 그룹을 마스터하는 노드)에서 디스크 그룹에 있는 VxVM 볼륨을 제거합니다.
# vxedit -g diskgroup -rf rm volume |
볼륨이 포함된 VxVM 디스크 그룹을 지정합니다.
지정된 볼륨을 제거합니다.
scsetup(1M) 명령을 사용하여 디스크 장치 그룹 구성 변경을 등록하고 전역 이름 공간을 업데이트합니다.
SPARC: 디스크 그룹 구성의 변경 사항을 등록하는 방법(VERITAS Volume Manager)를 참조하십시오.
Sun Cluster 디스크 장치 그룹을 제거하면 해당 VxVM 디스크 그룹이 완전히 삭제되는 것이 아니라 내보내집니다. 그러나 VxVM 디스크 그룹이 계속 남아 있어도 다시 등록하지 않으면 클러스터에서 사용할 수 없습니다.
이 절차에서는 scsetup(1M) 유틸리티를 사용하여 VxVM 디스크 그룹을 제거하고 Sun Cluster 디스크 장치 그룹에서 해제합니다.
클러스터의 노드에서 수퍼유저가 됩니다.
디스크 장치 그룹을 오프라인으로 전환합니다.
# scswitch -F -D disk-device-group |
디스크 장치 그룹을 오프라인으로 전환합니다.
오프라인으로 전환할 장치 그룹을 지정합니다.
scsetup 유틸리티를 실행합니다.
주 메뉴가 표시됩니다.
# scsetup |
VxVM 장치 그룹에 대한 작업을 하려면 4 (디스크 그룹 및 볼륨)를 입력합니다.
장치 그룹 메뉴가 표시됩니다.
VxVM 디스크 그룹을 등록 해제하려면 3 (VxVM 장치 그룹 등록 해제)을 입력합니다.
지시에 따라 등록 해제할 VxVM 디스크 그룹을 입력하십시오.
다음 예는 디스크 장치 그룹을 제거하고 등록 취소할 때 scsetup에 의해 생성되는 scconf 명령과 오프라인으로 전환된 VxVM 디스크 장치 그룹 dg1을 보여 줍니다.
# scswitch -F -D dg1 # scsetup scconf -r -D name=dg1 |
이 절차에서는 scsetup(1M) 유틸리티를 사용하여 디스크 장치 그룹에 노드를 추가합니다.
VxVM 디스크 장치 그룹에 노드를 추가하기 위한 사전 조건은 다음과 같습니다.
클러스터의 노드에 대한 수퍼유저 권한
노드를 추가할 VxVM 장치 그룹의 이름
추가할 노드의 이름 또는 노드 ID
클러스터의 노드에서 수퍼유저가 됩니다.
프롬프트에서 scsetup 명령을 입력합니다.
# scsetup |
VxVM 디스크 장치 그룹에 대한 작업을 하려면 4 (장치 그룹 및 볼륨)를 입력합니다.
장치 그룹 메뉴가 표시됩니다.
VxVM 디스크 장치 그룹에 노드를 추가하려면 4 (VxVM 장치 그룹에 노드 추가)를 입력합니다.
지시에 따라 장치 그룹과 노드 이름을 입력하십시오.
노드가 추가되었는지 확인합니다.
다음 명령을 실행하여 장치 그룹 정보에 새 디스크가 표시되는지 확인하십시오.
# scconf -p |
다음 예에는 VxVM 디스크 장치 그룹(dg1)에 노드(phys-schost-3)를 추가할 때 scsetup에 의해 생성되는 scconf 명령과 확인 단계가 있습니다.
# scsetup scconf a D type=vxvm,name=dg1,nodelist=phys-schost-3 # scconf -p Device group name: dg1 Device group type: VXVM Device group failback enabled: yes Device group node list: phys-schost-1, phys-schost-3 |
VERITAS Volume Manager(VxVM) 디스크 장치 그룹(디스크 그룹)의 기본 노드 목록에서 클러스터 노드를 제거하려면 다음 절차를 수행하십시오.
노드가 아직 그룹의 구성원인지 그리고 그룹이 VxVM 장치 그룹인지를 확인합니다.
장치 그룹 유형이 VxVM이면 VxVM 디스크 장치 그룹을 나타냅니다.
phys-schost-1% scconf -pv | grep '(global-galileo)' (global-galileo) Device group type: VxVM (global-galileo) Device group failback enabled: no (global-galileo) Device group node list: phys-schost-1, phys-schost-2 (global-galileo) Diskset name: global-galileo phys-schost-1% |
현재 클러스터 구성원 노드에서 수퍼유저가 됩니다.
scsetup(1M) 명령을 실행합니다.
# scsetup |
주 메뉴가 표시됩니다.
디스크 장치 그룹을 다시 구성하려면 4 (장치 그룹 및 볼륨)를 입력합니다.
VxVM 디스크 장치 그룹에서 노드를 제거하려면 5 (VxVM 장치 그룹에서 노드 제거)를 입력합니다.
화면의 메시지에 따라 디스크 장치 그룹에서 클러스터 노드를 제거하십시오. 다음 정보를 묻는 메시지가 나옵니다.
VxVM 장치 그룹
노드 이름
VxVM 디스크 장치 그룹에서 노드가 제거되었는지 확인합니다.
# scconf -p | grep Device |
이 예에서는 VxVM 디스크 장치 그룹 dg1에서 phys-schost-1이라는 노드를 제거합니다.
[노드에 대한 VxVM 디스크 장치 그룹 확인] # scconf -p | grep Device Device group name: dg1 Device group type: VxVM Device group failback enabled: no Device group node list: phys-schost-1, phys-schost-2 Device group diskset name: dg1 [수퍼유저가 되어 scsetup 유틸리티 실행] # scsetup 장치 그룹 및 볼륨>VxVM 장치 그룹에서 노드 제거를 선택합니다. 프롬프트가 표시되면 질문에 답합니다. 다음 정보가 필요합니다. 필요한 정보: 예: VxVM device group name dg1 node names phys-schost-1 [scconf 명령이 제대로 실행되었는지 확인] scconf -r -D name=dg1,nodelist=phys-schost-1 Command completed successfully. scsetup 장치 그룹 메뉴 및 주 메뉴를 종료합니다. [노드가 제거되었는지 확인] # scconf -p | grep Device Device group name: dg1 Device group type: VxVM Device group failback enabled: no Device group node list: phys-schost-2 Device group diskset name: dg1 |
VERITAS Volume Manager (VxVM) 디스크 장치 그룹(디스크 그룹)의 기본 노드 목록에서 클러스터 노드를 제거하려면 다음 절차를 수행하십시오.
원시 디스크 장치 그룹의 기본이 될 수 있는 노드 목록에서 클러스터 노드를 제거하려면 다음 절차를 수행하십시오.
제거할 노드 이외의 다른 클러스터 노드에서 수퍼유저가 됩니다.
제거할 노드에 연결된 디스크 장치 그룹을 확인합니다.
Device group node list 목록에서 노드 이름을 찾으십시오.
# scconf -pvv | grep Devicenodename | grep |
단계 2에서 확인된 디스크 장치 그룹 중에 어떤 장치 그룹이 원시 디스크 장치 그룹인지 확인합니다.
원시 디스크 장치 그룹은 장치 그룹 유형이 Disk 또는 Local_Disk입니다.
# scconf -pvv | grep group type |
유형이 Local_Disk인 원시 디스크 장치 그룹 각각에 대하여 localonly 등록 정보를 비활성화합니다.
# scconf -c -D name=rawdisk-device-group,localonly=false |
localonly 등록 정보에 대한 자세한 내용은 scconf_dg_rawdisk(1M) 설명서 페이지를 참조하십시오.
제거할 노드에 연결된 모든 원시 디스크 장치 그룹의 localonly 등록 정보를 비활성화해야 합니다.
장치 그룹 유형이 Disk이면 해당 원시 디스크 장치 그룹에 대하여 localonly 등록 정보가 비활성화된 것을 나타냅니다.
# scconf -pvv | grep group type |
단계 3에서 확인된 모든 원시 디스크 장치 그룹에서 노드를 제거합니다.
제거할 노드가 연결된 각 원시 디스크 장치 그룹에 대하여 이 단계를 완료해야 합니다.
# scconf -r -D name=rawdisk-device-group,nodelist=nodename |
이 예에서는 원시 디스크 장치 그룹에서 노드(phys-schost-2)를 제거하는 방법을 설명합니다. 모든 명령이 클러스터의 다른 노드(phys-schost-1)에서 실행됩니다.
[삭제될 노드에 연결된 디스크 장치 그룹 식별] phys-schost-1# scconf -pvv | grep phys-schost-2 | grep Device group node list (dsk/d4) Device group node list: phys-schost-2 (dsk/d2) Device group node list: phys-schost-1, phys-schost-2 (dsk/d1) Device group node list: phys-schost-1, phys-schost-2 [원시 디스크 장치 그룹 식별] phys-schost-1# scconf -pvv | grep group type (dsk/d4) Device group type: Local_Disk (dsk/d8) Device group type: Local_Disk [노드에서 각 로컬 디스크에 대한 localonly 플래그 비활성화] phys-schost-1# scconf -c -D name=dsk/d4,localonly=false [localonly 플래그가 비활성화되어 있는지 확인] phys-schost-1# scconf -pvv | grep group type (dsk/d4) Device group type: Disk (dsk/d8) Device group type: Local_Disk [모든 원시 디스크에서 노드 제거] phys-schost-1# scconf -r -D name=dsk/d4,nodelist=phys-schost-2 phys-schost-1# scconf -r -D name=dsk/d2,nodelist=phys-schost-2 phys-schost-1# scconf -r -D name=dsk/d1,nodelist=phys-schost-2 |
디스크 장치 그룹의 기본 소유권을 설정하는 방법은 preferenced라고 하는 소유권 기본 설정을 기준으로 합니다. 이 속성이 설정되지 않은 경우에는 다른 노드가 소유하지 않은 디스크 장치 그룹의 디스크에 처음으로 액세스를 시도하는 노드가 해당 그룹을 소유하게 됩니다. 그러나 이 속성이 설정되면 노드가 소유권을 얻기 위해 시도하는 순서를 지정해야 합니다.
preferenced 속성을 비활성화하면 failback 속성도 자동으로 비활성화됩니다. 그러나 preferenced 속성을 활성화하거나 재활성화하려는 경우 failback 속성을 활성화하거나 비활성화하도록 선택할 수 있습니다.
preferenced 속성이 활성화되거나 다시 활성화되면 기본 소유권 순위 목록에서 노드 순서를 다시 지정해야 합니다.
이 절차에서는 scsetup(1M)을 사용하여 Solstice DiskSuite/Solaris 볼륨 관리자 또는 VxVM 디스크 장치 그룹에 대한 failback 속성과 preferenced 속성을 설정하거나 해제합니다.
다음 절차를 수행하려면 속성 값을 변경할 디스크 장치 그룹의 이름이 필요합니다.
클러스터의 노드에서 수퍼유저가 됩니다.
scsetup 명령을 실행합니다.
주 메뉴가 표시됩니다.
# scsetup |
디스크 장치에 대한 작업을 하려면 4 (장치 그룹 및 볼륨)를 입력합니다.
장치 그룹 메뉴가 표시됩니다.
장치 그룹의 주요 등록 정보를 변경하려면 6 (VxVM 또는 Solstice DiskSuite/Solaris 볼륨 관리자 장치 그룹의 주요 등록 정보 변경)을 입력합니다.
주요 등록 정보 변경 메뉴가 표시됩니다.
장치 그룹 등록 정보를 변경하려면 1 (기본 설정 또는 페일백 등록 정보 변경)을 입력합니다.
지시에 따라 장치 그룹에 대한 preferenced 및 failback 옵션을 설정하십시오.
디스크 장치 그룹 속성이 변경되었는지 확인하십시오.
다음 명령을 실행하여 장치 그룹 정보가 표시되는지 확인합니다.
# scconf -p |
다음은 디스크 장치 그룹(dg-schost-1)에 대한 속성 값을 설정할 때 scsetup에 의해 scconf 명령이 생성되는 예입니다.
# scconf -c -D name=dg-schost-1,nodelist=phys-schost-1:phys-schost-2,\ preferenced=true,failback=enabled,numsecondaries=1 # scconf -p | grep Device Device group name: dg-schost-1 Device group type: SDS Device group failback enabled: yes Device group node list: phys-schost-1, phys-schost-2 Device group ordered node list: yes Device group desired number of secondaries: 1 Device group diskset name: dg-schost-1 |
장치 그룹에 대한 보조 노드의 기본 수는 1로 설정됩니다. 이 설정은 기본 노드에 장애가 발생할 경우에 장치 그룹에서 그룹의 기본 소유자가 될 수 있는 노드 수를 지정합니다. 보조 노드 수는 1부터 장치 그룹에서 기본을 제외한 노드 개수까지 정수로 설정할 수 있습니다.
numsecondaries 등록 정보가 변경되면, 실제 보조 노드 수와 원하는 개수가 맞지 않을 경우에 보조 노드가 장치 그룹에 추가되거나 장치 그룹에서 제거됩니다.
이 절차에서는 scsetup(1M)을 사용하여 Solstice DiskSuite/Solaris 볼륨 관리자 또는 VxVM 디스크 장치 그룹에 대한 numsecondaries 등록 정보를 설정하거나 해제합니다. 장치 그룹을 구성할 때의 디스크 장치 그룹 옵션에 대한 자세한 내용은 scconf_dg_rawdisk(1M), scconf_dg_sds(1M), scconf_dg_svm(1M) 및 scconf_dg_vxvm(1M)을 참조하십시오.
클러스터의 노드에서 수퍼유저가 됩니다.
scsetup 유틸리티를 종료합니다.
# scsetup |
주 메뉴가 표시됩니다.
디스크 장치에 대한 작업을 하려면 4 (장치 그룹 및 볼륨)를 입력합니다.
장치 그룹 메뉴가 표시됩니다.
장치 그룹의 주요 등록 정보를 변경하려면 6 (장치 그룹의 주요 등록 정보 변경)을 입력합니다.
주요 등록 정보 변경 메뉴가 표시됩니다.
보조 노드 수를 변경하려면 2 (numsecondaries 등록 정보 변경)를 입력합니다.
지시에 따라 디스크 장치 그룹에 대하여 구성할 보조 노드 수를 입력하십시오. 원하는 값이 입력되면 해당 scconf 명령이 실행되고, 로그가 출력되고, 이전 메뉴로 돌아갑니다.
디스크 장치 그룹 속성이 변경되었는지 확인합니다.
다음 명령을 실행하여 표시되는 장치 그룹 정보를 확인하십시오.
# scconf -p |
다음은 장치 그룹(dg-schost-1)에 대한 보조 노드 수를 구성할 때 scsetup에 의해 생성되는 scconf 명령의 예입니다. 이 예에서는 전에 디스크 그룹과 볼륨을 만들었다고 가정합니다.
# scconf -c -D name=phys-host-1,nodelist=phys-schost-1:phys-schost-2,phys-schost-3\ preferenced=true,failback=enabled,numsecondaries=1 # scconf -p | grep Device Device group name: dg-schost-1 Device group type: SDS/SVM Device group failback enabled: yes Device group node list: phys-schost-1, phys-scost-2, phys-schost-3 Device group ordered node list: yes Device group desired number of secondaries: 1 Device group diskset name: dg-schost-1 |
다음은 null 문자열 값을 사용하여 보조 노드의 기본 개수를 구성하는 예입니다. 기본값이 변경될 경우에도 장치 그룹이 기본값을 사용하도록 구성됩니다.
# scconf -c -D name=diskgrp1, nodelist=host1:host2:host3, preferenced=false,failback=enabled,numsecondaries= # scconf -p | grep Device Device group name: dg-schost-1 Device group type: SDS/SVM Device group failback enabled: yes Device group node list: phys-schost-1, phost-2, phys-schost-3 Device group ordered node list: yes Device group desired number of secondaries: 1 Device group diskset name: dg-schost-1 |
구성을 표시하기 위해 수퍼유저로 로그인할 필요는 없습니다.
디스크 장치 그룹 구성 정보를 표시하는 데는 세 가지 방법이 있습니다.
scstat(1M) 명령을 사용하여 디스크 장치 그룹 구성 표시
% scstat -D |
scconf(1M) 명령을 사용하여 디스크 장치 그룹 구성 표시
% scconf -p |
scstat -D 명령을 사용하면 다음 정보가 표시됩니다.
-- Device Group Servers -- Device Group Primary Secondary ------------ ------- --------- Device group servers: phys-schost-2 - - Device group servers: phys-schost-1 phys-schost-2 phys-schost-3 Device group servers: phys-schost-3 - - -- Device Group Status -- Device Group Status ------------ ------ Device group status: phys-schost-2 Offline Device group status: phys-schost-1 Online Device group status: phys-schost-3 Offline |
scconf 명령을 사용할 때 장치 그룹에 정보가 표시되는지 확인하십시오.
# scconf -p ... Device group name: dg-schost-1 Device group type: SDS/SVM Device group failback enabled: yes Device group node list: phys-schost-2, phys-schost-3 Device group diskset name: dg-schost-1 |
다음 절차를 수행하면 비활성 장치 그룹을 시작(온라인으로 전환)할 수도 있습니다.
SunPlex Manager GUI를 사용하여 비활성 장치 그룹을 온라인으로 전환하거나 장치 그룹에 대한 기본을 전환할 수도 있습니다. 자세한 내용은 SunPlex Manager 온라인 도움말을 참조하십시오.
클러스터의 노드에서 수퍼유저가 됩니다.
scswitch(1M)를 사용하여 디스크 장치 그룹 기본 노드를 전환합니다.
# scswitch -z -D disk-device-group -h node |
전환을 수행합니다.
전환할 장치 그룹을 지정합니다.
전환할 대상 노드의 이름을 지정합니다. 이 노드가 새 기본 노드가 됩니다.
디스크 장치 그룹이 새 기본 노드로 전환되었는지 확인합니다.
디스크 장치 그룹이 제대로 등록되면 다음 명령을 사용할 때 새 디스크 장치 그룹에 대한 정보가 표시됩니다.
# scstat -D |
다음 예는 디스크 장치 그룹에 대한 기본을 전환하는 방법과 변경을 확인하는 방법입니다.
# scswitch -z -D dg-schost-1 -h phys-schost-1 # scstat -D -- Device Group Servers -- Device Group Primary Secondary ------------ ------- --------- Device group servers: dg-schost-1 phys-schost-1 phys-schost-2 -- Device Group Status -- Device Group Status ------------ ------ Device group status: dg-schost-1 Online |
장치 그룹을 유지 보수 상태로 두면 디스크 하나가 액세스되더라도 장치 그룹이 자동으로 온라인화되지 않습니다. 복구 절차를 완료하기 위하여 모든 I/O 작업을 중단해야 하는 경우에는 복구가 완료될 때까지 장치 그룹을 유지 보수 상태로 바꿔야 합니다. 장치 그룹을 유지 보수 상태로 만들면 한 노드에서 디스크 세트나 디스크 그룹이 복구되는 동안 다른 노드에서 디스크 그룹이 온라인 상태가 되지 않도록 하여 데이터 손실을 방지합니다.
디스크 그룹을 유지 보수 상태로 만들려면 먼저 장치에 대한 모든 액세스를 중단하고 관련 파일 시스템의 마운트를 모두 해제해야 합니다.
장치 그룹을 유지 보수 상태로 만듭니다.
# scswitch -m -D disk-device-group |
복구 절차를 수행하기 위해 디스크 세트나 디스크 그룹에 대한 소유권이 필요한 경우 직접 해당 디스크 세트나 디스크 그룹을 가져옵니다.
Solstice DiskSuite/Solaris 볼륨 관리자의 경우:
# metaset -C take -f -s diskset |
Solstice DiskSuite/Solaris 볼륨 관리자 디스크 세트에 대한 소유권을 받는 경우에는 장치 그룹이 유지 보수 상태에 있을 때 metaset -C take 명령을 반드시 사용해야 합니다. metaset -t 명령을 사용하면 소유권을 받을 때 장치 그룹이 온라인 상태로 전환됩니다. VxVM 디스크 그룹을 가져올 경우에는 디스크 그룹을 가져올 때 -t 플래그를 사용해야 합니다. 그러면 이 노드가 재부트될 때 자동으로 디스크 그룹을 가져오지 않습니다.
VERITAS Volume Manager의 경우:
# vxdg -t import disk-group-name |
수행해야 할 복구 절차를 모두 완료합니다.
디스크 세트나 디스크 그룹에 대한 소유권을 해제합니다.
디스크 장치 그룹을 유지 보수 상태에서 해제하기 전에 디스크 세트나 디스크 그룹에 대한 소유권을 해제해야 합니다. 소유권을 해제하지 않으면 데이터가 손실될 수 있습니다.
Solstice DiskSuite/Solaris 볼륨 관리자의 경우:
# metaset -C release -s diskset |
VERITAS Volume Manager의 경우:
# vxdg deport disk-group-name |
디스크 장치 그룹을 온라인으로 전환합니다.
# scswitch -z -D disk-device-group -h node |
이 예에서는 디스크 장치 그룹 dg-schost-1을 유지 보수 상태로 만드는 방법 및 디스크 장치 그룹을 유지 보수 상태에서 제거하는 방법을 보여 줍니다.
[디스크 장치 그룹을 유지 보수 상태로 만들기] # scswitch -m -D dg-schost-1 [필요한 경우, 디스크 세트나 디스크 그룹을 수동으로 가져오기] Solstice DiskSuite/Solaris 볼륨 관리자의 경우: # metaset -C take -f -s dg-schost-1 VERITAS Volume Manager의 경우: # vxdg -t import dg1 [필요한 모든 복구 절차 완료] [소유권 해제] Solstice DiskSuite/Solaris 볼륨 관리자의 경우: # metaset -C release -s dg-schost-1 VERITAS Volume Manager의 경우: # vxdg deport dg1 [디스크 장치 그룹 온라인화] # scswitch -z -D dg-schost-1 -h phys-schost-1 |
클러스터 파일 시스템은 클러스터의 모든 노드에서 읽고 액세스할 수 있는 전역적으로 사용 가능한 파일 시스템입니다.
표 4–3 작업 맵: 클러스터 파일 시스템 관리
작업 |
참고 항목 |
---|---|
처음 Sun Cluster 설치 후 클러스터 파일 시스템 추가 - newfs(1M) 및 mkdir 사용 | |
클러스터 파일 시스템 제거 - fuser(1M) 및 umount(1M) 사용 | |
노드 사이에 전역 마운트 지점의 일관성 확인 - sccheck(1M) 사용 |
처음 Sun Cluster를 설치한 후에 만드는 각 클러스터 파일 시스템에 대하여 이 작업을 수행하십시오.
정확한 디스크 장치 이름을 지정해야 합니다. 클러스터 파일 시스템을 만들면 디스크에 있는 데이터가 모두 삭제됩니다. 잘못된 장치 이름을 지정하면 지우지 않을 데이터가 삭제됩니다.
클러스터 파일 시스템을 추가하기 위한 사전 조건은 다음과 같습니다.
클러스터의 노드에 대한 수퍼유저 권한
클러스터에 볼륨 관리자 소프트웨어를 설치하고 구성
클러스터 파일 시스템을 만들 장치 그룹(Solstice DiskSuite/Solaris 볼륨 관리자 장치 그룹 또는 VxVM 장치 그룹) 또는 블록 디스크 슬라이스
SunPlex Manger를 사용하여 데이터 서비스를 설치한 경우에 공유 디스크에 클러스터 파일 시스템을 만들 충분한 공간이 있었으면 이미 하나 이상의 클러스터 파일 시스템이 있습니다.
클러스터의 노드에서 수퍼유저가 됩니다.
더 빨리 파일 시스템을 만들려면 파일 시스템을 만드는 전역 장치 기본에서 수퍼유저가 됩니다.
newfs 명령을 사용하여 파일 시스템을 만듭니다.
newfs 명령은 새 UFS 파일 시스템을 만드는 데만 사용됩니다. 새 VxFS 파일 시스템을 만들려면 VxFS 설명서에 있는 절차를 수행하십시오.
# newfs raw-disk-device |
다음 표는 raw-disk-device 인자 이름의 예입니다. 이름 지정 규칙은 볼륨 관리자마다 다릅니다.
표 4–4 원시 디스크 장치 이름의 예
볼륨 관리자 |
디스크 장치 이름 |
설명 |
---|---|---|
Solstice DiskSuite/Solaris 볼륨 관리자 |
/dev/md/oracle/rdsk/d1 |
oracle 디스크 세트에 포함된 원시 디스크 장치 d1 |
SPARC: VERITAS Volume Manager |
/dev/vx/rdsk/oradg/vol01 |
oradg 디스크 그룹에 포함된 원시 디스크 장치 vol01 |
없음 |
/dev/global/rdsk/d1s3 |
블록 슬라이스 d1s3에 대한 원시 디스크 장치 |
클러스터의 각 노드에서 클러스터 파일 시스템에 대한 마운트 지점 디렉토리를 만듭니다.
해당 노드에서 클러스터 파일 시스템에 액세스하지 않더라도 각 노드에 마운트 지점이 필요합니다.
관리 작업을 쉽게 하려면 /global/device-group 디렉토리에 마운트 지점을 만드십시오. 이 위치를 사용하면 로컬 파일 시스템에서 전역으로 사용하는 클러스터 파일 시스템을 쉽게 구별할 수 있습니다.
# mkdir -p /global/device-group/mountpoint |
장치를 포함하는 장치 그룹의 이름에 해당되는 디렉토리 이름
클러스터 파일 시스템을 마운트할 디렉토리의 이름
클러스터의 각 노드에서 /etc/vfstab 파일에 마운트 지점에 대한 항목을 추가합니다.
다음 필수 마운트 옵션을 사용하십시오.
모든 클러스터 파일 시스템에 로깅이 필요합니다.
Solaris UFS 로깅 – global,logging 마운트 옵션을 사용합니다. UFS 마운트 옵션에 대한 자세한 내용은 mount_ufs(1M) 설명서 페이지를 참조하십시오.
UFS 클러스터 파일 시스템에는 syncdir 마운트 옵션을 지정할 필요가 없습니다. syncdir 옵션을 지정하면 파일 시스템이 POSIX와 호환되도록 작동합니다. 이 옵션을 지정하지 않으면 UFS 파일 시스템에서와 동일하게 작동합니다. syncdir 옵션을 지정하지 않으면 데이터를 파일에 추가하는 경우처럼 디스크 블록을 할당하는 쓰기 성능이 크게 향상됩니다. 그러나 어떤 경우에는 syncdir을 사용하지 않으면 파일을 닫을 때까지 공간 부족 상태가 발견되지 않을 수 있습니다. syncdir을 지정하지 않아 문제가 발생할 가능성은 적습니다. syncdir(및 POSIX 호환 작동)을 사용하면 파일을 닫기 전에 공간 부족 상태가 발견됩니다.
Solstice DiskSuite/Solaris 볼륨 관리자 트랜스 메타 장치 또는 트랜잭션 볼륨 – logging 마운트 옵션은 사용하지 말고 global 마운트 옵션을 사용합니다. 트랜스 메타 장치 및 트랜잭션 볼륨 설정에 대한 자세한 내용은 Solstice DiskSuite/Solaris 볼륨 관리자 설명서를 참조하십시오.
이후의 Solaris 릴리스에서는 트랜잭션 볼륨이 Solaris 운영 환경에서 없어질 예정입니다. Solaris 8 릴리스에 처음 도입된 Solaris UFS 로깅은 보다 우수한 성능으로 동일한 기능을 제공할 뿐만 아니라 시스템 요구 사항과 오버헤드가 적습니다.
VxFS 로깅 – global 및 log 마운트 옵션을 사용합니다. 자세한 내용은 VxFS 소프트웨어와 함께 제공된 mount_vxfs 설명서 페이지를 참조하십시오.
클러스터 파일 시스템을 자동으로 마운트하려면 mount at boot 필드를 yes로 설정하십시오.
각 클러스터 파일 시스템에 대해 각 노드에 있는 /etc/vfstab 항목의 정보가 동일한지 확인하십시오.
각 노드의 /etc/vfstab 파일에 있는 장치 항목 순서가 동일한지 확인하십시오.
파일 시스템의 부트 순서 종속성을 확인하십시오.
예를 들어, phys-schost-1이 /global/oracle의 디스크 장치 d0을 마운트하고 phys-schost-2가 /global/oracle/logs의 디스크 장치 d1을 마운트한다고 가정합니다. 이러한 구성에서는 phys-schost-1이 부트되어 /global/oracle을 마운트한 후에만 phys-schost-2가 부트하여 /global/oracle/logs를 마운트할 수 있습니다.
자세한 내용은 vfstab(4) 설명서 페이지를 참조하십시오.
클러스터의 노드에서 마운트 지점이 있는지 그리고 /etc/vfstab 파일 항목이 클러스터의 모든 노드에서 올바른지 확인합니다.
# sccheck |
오류가 없으면 아무 것도 반환되지 않습니다.
클러스터의 임의의 노드에서 클러스터 파일 시스템을 마운트합니다.
# mount /global/device-group/mountpoint |
클러스터의 각 노드에서 클러스터 파일 시스템이 마운트되는지 확인합니다.
df 또는 mount 명령을 사용하여 마운트된 파일 시스템을 표시할 수 있습니다.
Sun Cluster 환경에서 VxFS 클러스터 파일 시스템을 관리하려면 VxFS 클러스터 파일 시스템이 마운트된 기본 노드에서만 관리 명령을 실행하십시오.
다음 예에서는 Solstice DiskSuite/Solaris 볼륨 관리자 메타 장치 /dev/md/oracle/rdsk/d1에 UFS 클러스터 파일 시스템을 만듭니다.
# newfs /dev/md/oracle/rdsk/d1 ... [각 노드에서] # mkdir -p /global/oracle/d1 # vi /etc/vfstab #device device mount FS fsck mount mount #to mount to fsck point type pass at boot options # /dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs 2 yes global,logging [저장 및 종료] [하나의 노드에서] # sccheck # mount /dev/md/oracle/dsk/d1 /global/oracle/d1 # mount ... /global/oracle/d1 on /dev/md/oracle/dsk/d1 read/write/setuid/global/logging/ largefiles on Sun Oct 3 08:56:16 2001 |
클러스터 파일 시스템을 마운트 해제하여 제거합니다. 데이터도 제거하거나 삭제하려면 시스템에서 주요 디스크 장치(또는 메타 장치나 볼륨)를 제거하십시오.
scshutdown(1M)을 실행하여 전체 클러스터를 중지시키면 시스템이 종료될 때 클러스터 파일 시스템의 마운트가 자동으로 해제됩니다. 단일 노드를 중지하기 위해 shutdown 명령을 실행하면 클러스터 파일 시스템이 마운트되지 않습니다. 그러나 디스크에 연결된 노드가 현재 종료되는 노드 하나뿐인 경우에는 해당 디스크에 있는 클러스터 파일 시스템에 액세스하려고 하면 오류가 발생합니다.
클러스터 파일 시스템의 마운트를 해제하기 위한 사전 조건은 다음과 같습니다.
클러스터의 노드에 대한 수퍼유저 권한
파일 시스템이 사용 중이면 안 됩니다. 사용자가 파일 시스템의 디렉토리에 있거나 파일 시스템에서 파일을 열어 놓은 프로그램이 있다면 해당 파일 시스템이 사용 중인 것으로 간주됩니다. 사용자 또는 프로그램은 클러스터의 어느 노드에서나 실행 중일 수 있습니다.
클러스터의 노드에서 수퍼유저가 됩니다.
마운트할 클러스터 파일 시스템을 결정합니다.
# mount -v |
각 노드마다 어떤 프로세스를 중지할 것인지 확인할 수 있도록 클러스터 파일 시스템을 사용하는 모든 프로세스를 나열합니다.
# fuser -c [ -u ] mountpoint |
파일 시스템의 마운트 지점인 파일과 마운트된 파일 시스템 내의 모든 파일에 대하여 보고합니다.
(옵션) 각 프로세스 ID에 대한 사용자 로그인 이름을 표시합니다.
프로세스를 중지시킬 클러스터 파일 시스템의 이름을 지정합니다.
각 노드에서 클러스터 파일 시스템에 대한 모든 프로세스를 중지시킵니다.
원하는 방법을 사용하여 프로세스를 중지시키십시오. 필요한 경우 다음 명령을 사용하여 클러스터 파일 시스템과 관련된 프로세스를 강제로 종료하십시오.
# fuser -c -k mountpoint |
클러스터 파일 시스템을 사용하는 각 프로세스에 SIGKILL 명령이 전달됩니다.
각 노드에서 파일 시스템을 사용하는 프로세스가 없는지 확인합니다.
# fuser -c mountpoint |
한 노드에서만 파일 시스템 마운트를 해제합니다.
# umount mountpoint |
마운트를 해제할 클러스터 파일 시스템의 이름을 지정합니다. 이것은 클러스터 파일 시스템이 마운트되는 디렉토리 이름 또는 파일 시스템의 장치 이름 경로일 수 있습니다.
(옵션) /etc/vfstab 파일을 편집하여 제거 중인 클러스터 파일 시스템의 항목을 삭제합니다.
/etc/vfstab 파일에 이 클러스터 파일 시스템에 대한 항목이 있는 각 클러스터 노드에서 이 단계를 수행하십시오.
(옵션) 디스크 장치 group/metadevice/plex를 제거합니다.
자세한 내용은 볼륨 관리자 설명서를 참조하십시오.
다음 예에서는 Solstice DiskSuite/Solaris 볼륨 관리자 메타 장치 /dev/md/oracle/rdsk/d1에 마운트된 UFS 클러스터 파일 시스템을 제거합니다.
# mount -v ... /global/oracle/d1 on /dev/md/oracle/dsk/d1 read/write/setuid/global/logging/largefiles # fuser -c /global/oracle/d1 /global/oracle/d1: 4006c # fuser -c -k /global/oracle/d1 /global/oracle/d1: 4006c # fuser -c /global/oracle/d1 /global/oracle/d1: # umount /global/oracle/d1 (각 노드에서 강조 표시된 항목 제거) # vi /etc/vfstab #device device mount FS fsck mount mount #to mount to fsck point type pass at boot options # /dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs 2 yes global,logging [저장 및 종료] |
클러스터 파일 시스템의 데이터를 제거하려면 하부 장치를 제거하십시오. 자세한 내용은 볼륨 관리자 설명서를 참조하십시오.
sccheck(1M) 유틸리티에서는 /etc/vfstab 파일의 클러스터 파일 시스템에 대한 항목 구문을 검증합니다. 오류가 없으면 아무 것도 반환되지 않습니다.
장치나 볼륨 관리 구성 요소에 영향을 미친 클러스터 파일 시스템을 제거하는 등 클러스터 구성을 변경한 후에는 sccheck를 실행합니다.
디스크 경로 모니터링(DPM) 관리 명령을 사용하면 보조 디스크 경로 오류에 대한 알림을 받을 수 있습니다. 디스크 경로 모니터링과 관련된 관리 작업을 수행하려면 이 절의 절차를 수행하십시오. 디스크 경로 모니터링 데몬에 대한 개념 정보는 Solaris OS용 Sun Cluster 개념 안내서의 “관리 및 응용 프로그램 개발 주요 개념”을 참조하십시오. scdpm 명령 옵션 및 관련 명령의 설명은 scdpm(1M) 설명서 페이지를 참조하십시오. 데몬이 기록하여 보고하는 오류에 대해서는 syslogd(1M) 설명서 페이지를 참조하십시오.
scgdevs 또는 scdidadm 명령을 사용하여 노드에 I/O 장치를 추가할 때 모니터된 모니터링 목록에 디스크 경로가 자동으로 추가됩니다. Sun Cluster 명령을 사용하여 노드에서 장치를 제거할 경우에도 디스크 경로가 자동으로 모니터 해제됩니다.
작업 |
참고 항목 |
---|---|
scdpm 명령을 사용하여 디스크 경로 모니터링 | |
scdpm 명령을 사용하여 디스크 경로 모니터링 해제 | |
scdpm을 사용하여 노드에 대해 오류가 발생한 디스크 경로 상태 인쇄 | |
scdpm -f를 사용하여 파일에서 디스크 경로 모니터링 또는 모니터링 해제 |
다음 절의 절차에서는 디스크 경로 인자와 함께 scdpm 명령을 실행합니다. 디스크 경로 인자는 항상 노드 이름과 디스크 이름으로 구성됩니다. 노드 이름은 필수 항목이 아니며 노드 이름을 지정하지 않은 경우 기본적으로 all로 설정됩니다. 다음 표에서는 디스크 경로 이름 지정에 사용되는 규칙을 설명합니다.
전역 디스크 경로 이름은 전체 클러스터에 걸쳐 일관되므로 전역 디스크 경로 이름을 사용할 것을 권장합니다. UNIX 디스크 경로 이름은 전체 클러스터에 걸쳐 일관성이 없습니다. 한 디스크의 UNIX 디스크 경로는 클러스터 노드 간에 서로 다를 수 있습니다. 한 노드에서는 디스크 경로가 c1t0d0이고, 다른 노드에서는 c2t0d0이 될 수 있습니다. UNIX 디스크 경로 이름을 사용할 경우 DPM 명령을 실행하기 전에 scdidadm -L 명령을 사용하여 UNIX 디스크 경로 이름을 전역 디스크 경로 이름으로 매핑하십시오. scdidadm(1M) 설명서 페이지를 참조하십시오.
이름 유형 |
샘플 디스크 경로 이름 |
설명 |
---|---|---|
전역 디스크 경로 |
phys-schost-1:/dev/did/dsk/d1 |
phys-schost-1 노드의 d1 디스크 경로 |
all:d1 |
클러스터에 있는 모든 노드의 d1 디스크 경로 |
|
UNIX 디스크 경로 |
phys-schost-1:/dev/rdsk/c0t0d0s0 |
phys-schost-1 노드의 c0t0d0s0 디스크 경로 |
phys-schost-1:all |
phys-schost-1 노드의 모든 디스크 경로 |
|
모든 디스크 경로 |
all:all |
클러스터에 있는 모든 노드의 모든 디스크 경로 |
클러스터의 디스크 경로를 모니터하려면 이 작업을 수행하십시오.
Sun Cluster 3.1 5/03 소프트웨어 이전에 릴리스된 버전을 실행하는 노드에서는 DPM이 지원되지 않습니다. 순환 업그레이드가 진행되는 동안에는 DPM 명령을 사용하지 마십시오. 모든 노드를 업그레이드한 후 DPM 명령을 사용하려면 노드가 온라인 상태여야 합니다.
클러스터의 노드에서 수퍼유저가 됩니다.
scdpm 명령을 사용하여 디스크 경로를 모니터합니다.
# scdpm -m node:disk path |
node:disk path 인자의 이름 지정 규칙은 표 4–6을 참조하십시오.
디스크 경로가 모니터되는지 확인합니다.
# scdpm -p node:all |
다음 예에서는 단일 노드의 schost-1:/dev/did/rdsk/d1 디스크 경로를 모니터합니다. schost-1 노드의 DPM 데몬에서만 /dev/did/dsk/d1 디스크에 대한 경로를 모니터합니다.
# scdpm -m schost-1:d1 # scdpm -p schost-1:d1 schost-1:/dev/did/dsk/d1 Ok |
다음 예에서는 모든 노드의 schost-1:/dev/did/dsk/d1 디스크 경로를 모니터합니다. /dev/did/dsk/d1이 유효한 경로인 모든 노드에서 DPM이 시작됩니다.
# scdpm -m all:/dev/did/dsk/d1 # scdpm -p schost-1:d1 schost-1:/dev/did/dsk/d1 Ok |
다음 예에서는 데몬이 CCR의 디스크 구성을 다시 읽어서 모니터된 디스크 경로를 상태와 함께 인쇄합니다.
# scdpm -m all:all # scdpm -p all:all schost-1:/dev/did/dsk/d4 Ok schost-1:/dev/did/dsk/d3 Ok schost-2:/dev/did/dsk/d4 Fail schost-2:/dev/did/dsk/d3 Ok schost-2:/dev/did/dsk/d5 Unmonitored schost-2:/dev/did/dsk/d6 Ok |
디스크 경로의 모니터링을 해제하려면 다음 절차를 수행하십시오.
Sun Cluster 3.1 5/03 소프트웨어 이전에 릴리스된 버전을 실행하는 노드에서는 DPM이 지원되지 않습니다. 순환 업그레이드가 진행되는 동안에는 DPM 명령을 사용하지 마십시오. 모든 노드를 업그레이드한 후 DPM 명령을 사용하려면 노드가 온라인 상태여야 합니다.
클러스터의 노드에서 수퍼유저가 됩니다.
모니터링을 해제할 디스크 경로의 상태를 확인합니다.
# scdpm -p [all:] disk path |
지정한 디스크 경로의 현재 상태에 대한 세부 목록을 인쇄합니다.
모니터링 및 모니터링 해제된 모든 디스크 경로를 표시합니다.
각 노드에서 해당하는 디스크 경로의 모니터링을 해제합니다.
# scdpm -u node:disk path |
node:disk path 인자의 이름 지정 규칙은 표 4–6을 참조하십시오.
다음 예에서는 schost-2:/dev/did/rdsk/d1 디스크 경로의 모니터링을 해제하고 전체 클러스터에 대한 상태와 함께 디스크 경로를 인쇄합니다.
# scdpm -u schost-2:/dev/did/rdsk/d1 # scdpm -p all:all schost-1:/dev/did/dsk/d4 Ok schost-1:/dev/did/dsk/d3 Ok schost-2:/dev/did/dsk/d4 Fail schost-2:/dev/did/dsk/d3 Ok schost-2:/dev/did/dsk/d1 Unmonitored schost-2:/dev/did/dsk/d6 Ok |
클러스터의 오류 디스크 경로를 인쇄하려면 다음 절차를 수행하십시오.
Sun Cluster 3.1 5/03 소프트웨어 이전에 릴리스된 버전을 실행하는 노드에서는 DPM이 지원되지 않습니다. 순환 업그레이드가 진행되는 동안에는 DPM 명령을 사용하지 마십시오. 모든 노드를 업그레이드한 후 DPM 명령을 사용하려면 노드가 온라인 상태여야 합니다.
클러스터의 노드에서 수퍼유저가 됩니다.
클러스터에서 오류가 발생한 디스크 경로를 인쇄합니다.
# scdpm -p -F node:disk path |
node:disk path 인자의 이름 지정 규칙은 표 4–6을 참조하십시오.
다음 예에서는 전체 클러스터에서 오류가 발생한 디스크 경로를 인쇄합니다.
# scdpm -p -F [all:]all schost-1:/dev/did/dsk/d4 Fail schost-1:/dev/did/dsk/d3 Fail schost-2:/dev/did/dsk/d4 Fail schost-2:/dev/did/dsk/d3 Fail schost-2:/dev/did/dsk/d5 Fail schost-2:/dev/did/dsk/d6 Fail |
파일의 디스크 경로를 모니터링 또는 모니터링 해제하려면 다음 절차를 수행하십시오. 파일에는 모니터링 또는 모니터링 해제할 명령, 노드 이름 및 디스크 경로 이름이 나열되어 있어야 합니다. 파일의 각 필드는 열로 구분해야 합니다. 다음 예를 수행하여 각 목록의 형식을 지정하십시오.
명령 파일의 구문: [u,m] [node|all]:<[/dev/did/rdsk/]d- | [/dev/rdsk/]c-t-d- | all> 명령 파일 항목 u schost-1:/dev/did/rdsk/d5 m schost-2:all |
Sun Cluster 3.1 5/03 소프트웨어 이전에 릴리스된 버전을 실행하는 노드에서는 DPM이 지원되지 않습니다. 순환 업그레이드가 진행되는 동안에는 DPM 명령을 사용하지 마십시오. 모든 노드를 업그레이드한 후 DPM 명령을 사용하려면 노드가 온라인 상태여야 합니다.
클러스터의 노드에서 수퍼유저가 됩니다.
파일에서 디스크 경로를 모니터합니다.
# scdpm -f filename |
클러스터의 상태와 함께 디스크 경로를 확인합니다.
# scdpm -p all:all |
다음 예에서는 파일의 디스크 경로를 모니터링 또는 모니터링 해제합니다.
# scdpm -f schost_config # scdpm -p all:all schost-1:/dev/did/dsk/d4 Ok schost-1:/dev/did/dsk/d3 Ok schost-2:/dev/did/dsk/d4 Fail schost-2:/dev/did/dsk/d3 Ok schost-2:/dev/did/dsk/d5 Unmonitored schost-2:/dev/did/dsk/d6 Ok |