이 장에서는 Sun Cluster 관리 도구를 사용하는 절차와 클러스터 관리를 준비하는 방법을 설명합니다.
이 장에 있는 절차 목록은 다음과 같습니다.
가용성이 높은 Sun Cluster 환경에서는 중요한 응용프로그램을 일반 사용자도 사용할 수 있습니다. 시스템 관리자의 임무는 Sun Cluster가 안정적으로 작동하도록 하는 것입니다.
관리 작업을 시작하려면 먼저 Sun Cluster 3.0 U1 설치 안내서의 계획 정보와 Sun Cluster 3.0 U1 개념 문서에 있는 용어를 잘 알아야 합니다. Sun Cluster 관리는 다음 매뉴얼에서 설명하는 작업으로 구성됩니다.
보통 매일 정기적으로 클러스터를 관리하고 유지 보수하기 위해 사용하는 표준 작업. 이러한 작업은 이 안내서에서 설명합니다.
설치, 구성 및 등록 정보 변경과 같은 데이터 서비스 작업. 이 작업은 Sun Cluster 3.0 U1 Data Services Installation and Configuration Guide에서 설명합니다.
기억 장치나 네트워크 하드웨어를 추가하거나 복구하는 것 같은 서비스 작업. 이 작업은 Sun Cluster 3.0 U1 Hardware Guide에서 설명합니다.
대부분의 경우, 클러스터 작업이 미치는 영향이 하나의 노드로 제한된 상태에서는 클러스터 작동시에도 Sun Cluster 관리작업을 수행할 수 있습니다. 절차를 수행하기 위해 전체 클러스터를 종료해야 하는 경우에는 업무 시간 이후에 시스템에 미치는 영향이 가장 적은 시간으로 종료 시간을 계획하십시오. 클러스터나 클러스터 노드를 종료할 경우에는 사용자에게 미리 알리십시오.
GUI를 사용하거나 명령행을 사용하여 Sun Cluster에 대한 관리 작업을 수행할 수 있습니다. 이 단원에서는 이러한 도구에 대하여 개략적으로 설명합니다.
Sun Cluster에는 클러스터에 대한 여러 가지 관리 작업을 수행하는 데 사용할 수 있는 두 가지 GUI 도구가 있습니다. 이 GUI 도구는 SunPlex Manager와 Sun Management Center입니다. SunPlex Manager 및 Sun Management Center를 구성하는 방법과 절차는 제 9 장을 참조하십시오. 이 도구를 사용하는 방법은 각 GUI에 대한 온라인 도움말을 참조하십시오.
scsetup(1M) 유틸리티를 통해 대부분의 Sun Cluster 관리 작업을 대화식으로 수행할 수 있습니다. 이 안내서에서는 가능한 모든 경우 scsetup 유틸리티를 사용하여 관리절차를 설명합니다.
scsetup 유틸리티를 사용하면 항목을 관리할 수 있습니다.
정족수
자원 그룹
클러스터 상호 연결
장치 그룹 및 볼륨
개인용 호스트 이름
새 노드
기타 클러스터 등록 정보
아래 표에 Sun Cluster를 관리하는 데 사용하는 다른 명령이 있습니다. 자세한 내용은 매뉴얼 페이지를 참조하십시오.
표 1-1 Sun Cluster 명령행 인터페이스 명령
명령 |
설명 |
---|---|
ccp(1M) |
클러스터에 대한 원격 콘솔 액세스를 시작합니다. |
pmfadm(1M) |
프로세스 모니터 장치에 대한 관리 액세스를 제공합니다. |
pnmset(1M) |
PNM(Public Network Management)을 구성합니다. |
pnmstat(1M) |
PNM에서 모니터한 NAFO(Network Adapter Failover) 그룹의 상태를 보고합니다. |
sccheck(1M) |
/etc/vfstab 파일에서 글로벌 마운트 항목을 확인하여 유효화합니다. |
scconf(1M) |
Sun Cluster 구성을 갱신합니다. -p 옵션을 사용하면 클러스터 구성 정보가 표시됩니다. |
scdidadm(1M) |
장치 ID 구성에 대한 관리 액세스를 제공합니다. |
scgdevs(1M) |
글로벌 장치 이름 공간 관리 스크립트를 실행합니다. |
scinstall(1M) |
Sun Cluster 소프트웨어를 설치하고 구성하며 대화식 또는 비대화식으로 실행할 수 있습니다. -p 옵션을 사용하면 Sun Cluster 버전 및 패키지 버전 정보가 표시됩니다. |
scrgadm(1M) |
자원 유형 등록, 자원 그룹 작성 및 자원 그룹 내의 자원 활성화를 관리합니다. -p 옵션을 사용하면 설치된 자원, 자원 그룹 및 자원 유형에 대한 정보가 표시됩니다 . |
scsetup(1M) |
scconf 명령과 여러 가지 옵션이 포함된 대화식 클러스터 구성 유틸리티를 실행합니다. |
scshutdown(1M) |
전체 클러스터를 종료합니다. |
scstat(1M) |
클러스터 상태에 대한 스냅샷을 제공합니다. |
scswitch(1M) |
자원 그룹 및 디스크 장치 그룹에 대한 상태 및 노드 마스터리에 영향을 주는 변경을 수행합니다. |
이러한 명령 외에도 Sun Cluster의 볼륨 관리자 부문을 관리하는 명령을 사용합니다. 이 명령은 클러스터, Solstice DiskSuiteTM 또는 VERITAS Volume Manager 에서 사용하는 볼륨 관리자에 따라 다릅니다.
이 단원에서는 클러스터를 관리하기 위한 준비 작업에 대하여 설명합니다.
Sun Cluster 구성이 커지고 변경되면서 사이트에 관련된 하드웨어 부분만 문서화하면 클러스터를 변경하거나 업그레이드해야 할 경우에 관리 시간을 절약할 수 있습니다. 여러 클러스터 구성 요소 사이의 케이블과 연결에 이름표를 붙여서 관리를 더 쉽게 할 수도 있습니다.
초기 클러스터 구성과 이후의 변경 사항에 대한 기록을 유지하면 클러스터 서비스를 제공하는 다른 협력업체에서 서비스를 제공할 때 소요되는 시간을 줄일 수 있습니다.
관리 콘솔이라는 전용 SPARCstation 워크스테이션을 사용하여 활성 클러스터를 관리할 수 있습니다. 일반적으로 관리 콘솔에 CCP(Cluster Control Panel) 및 GUI 도구를 설치하여 실행합니다. CCP에 대한 자세한 내용은 "1.4.1 Sun Cluster에 원격으로 로그인하는 방법"을 참조하십시오. Sun Management Center 및 SunPlex Manager GUI 도구 설치 방법은 Sun Cluster 3.0 U1 설치 안내서를 참조하십시오.
관리 콘솔은 클러스터 노드가 아닙니다. 관리 콘솔은 공용 네트워크 또는 네트워크 기반 터미널 집신 장치를 통해 클러스터 노드에 원격 액세스하는 데 사용됩니다.
클러스터가 Sun EnterpriseTM 10000 서버로 구성된 경우에는 관리 콘솔에서 SSP(System Service Processor)로 로그인하고 netcon(1M) 명령을 사용하여 연결할 수 있어야 합니다. netcon이 Sun Enterprise 10000 도메인과 연결하는 기본적인 방법은 네트워크 인터페이스를 통하는 것입니다. 네트워크에 액세스할 수 없으면 네트워크 연결을 통한 클러스터 콘솔(cconsole)이 중단됩니다. "exclusive" 모드로 netcon을 사용하면 이것을 방지할 수 있습니다. 즉, -f 옵션을 사용하거나 정상적인 netcon 세션 중에 ~*를 전송하면 됩니다. 그러면 네트워크에 도달할 수 없을 경우에 직렬 인터페이스로 전환하는 옵션을 사용할 수 있습니다. 자세한 내용은 netcon(1M)을 참조하십시오.
Sun Cluster에는 전용 관리 콘솔이 필요 없지만 전용 관리 콘솔을 사용하면 다음과 같은 이점이 있습니다.
동일한 시스템에서 콘솔과 관리 도구를 그룹화하여 중앙에서 클러스터를 관리할 수 있습니다.
Enterprise Services 또는 서비스 제공업체에서 더욱 신속하게 문제를 해결할 수 있습니다.
반드시 정기적으로 클러스터를 백업해야 합니다. Sun Cluster가 기억 장치에 데이터 사본을 이중화하여 HA 환경을 제공하지만 이것으로 정기적인 백업을 대신할 수는 없습니다. Sun Cluster는 장애가 여러 번 발생한 후에도 작동되지만, 사용자나 프로그램 오류 또는 치명적 장애로부터는 보호되지 않습니다. 따라서 치명적인 데이터 손실로부터 보호할 백업 절차가 있어야 합니다.
백업할 때 다음 정보를 포함해야 합니다.
모든 파일 시스템 파티션
DBMS 데이터 서비스를 실행하고 있는 경우에는 모든 데이터베이스 데이터
모든 클러스터 디스크에 대한 디스크 파티션 정보
볼륨 관리자로서 Solstice DiskSuite를 사용하는 경우에는 md.tab 파일
표 1-2 는 여러 가지 클러스터 관리 작업을 시작하는 방법입니다.
표 1-2 Sun Cluster 3.0 관리 도구
수행할 작업 |
작업 내용 |
참조 정보 |
---|---|---|
클러스터에 원격 로그인 |
ccp 명령을 사용하여 CCP(Cluster Control Panel)를 실행하십시오. 그런 다음 cconsole, crlogin 또는 ctelnet 아이콘 중 하나를 선택하십시오. | |
대화식으로 클러스터 구성 |
scsetup 유틸리티를 실행하십시오. | |
Sun Cluster 버전 번호 및 버전 정보 표시 |
-p 또는 -pv옵션을 사용하여 scinstall 명령을 실행하십시오. | |
설치된 자원, 자원 그룹 및 자원 유형 표시 |
scrgadm -p 명령을 사용하십시오. | |
그래픽으로 클러스터 구성 요소 모니터 |
SunPlex Manager 또는 Sun Management Center용 Sun Cluster 모듈을 사용하십시오. |
SunPlex Manager 또는 Sun Management Center용 Sun Cluster 모듈 온라인 도움말 |
그래픽으로 일부 클러스터 구성 요소 관리 |
SunPlex Manager 또는 Sun Management Center용 Sun Cluster 모듈을 사용하십시오. |
SunPlex Manager 또는 Sun Management Center용 Sun Cluster 모듈 온라인 도움말 |
클러스터 구성 요소의 상태 확인 |
scstat 명령을 사용하십시오. | |
클러스터 구성 보기 |
scconf -p 명령을 사용하십시오. | |
글로벌 마운트 포인트 확인 |
sccheck 명령을 사용하십시오. | |
Sun Cluster 시스템 메시지 보기 |
/var/adm/messages 파일을 검사하십시오. |
Solaris 시스템 관리 문서 |
Solstice DiskSuite의 상태 모니터 |
metastat 명령을 사용하십시오. |
Solstice DiskSuite 문서 |
VERITAS Volume Manager의 상태 모니터 |
vxstat 또는 vxva 명령을 사용하십시오. |
VERITAS Volume Manager 문서 |
CCP(Cluster Control Panel)에는 cconsole, crlogin 및 ctelnet 도구를 실행하는 패드가 있습니다 . 세 도구 모두 지정된 노드 세트에 대한 여러 개의 창 연결을 시작합니다. 여러 개의 창 연결은 지정된 각 노드에 대한 호스트 창과 하나의 공용 창으로 구성됩니다. 입력 내용을 공용 창으로 보내면 클러스터의 모든 노드에서 동시에 명령을 실행할 수 있도록 각 호스트 창에 전달됩니다. 자세한 내용은 ccp(1M) 및 cconsole(1M) 설명서 페이지를 참조하십시오.
CCP를 시작하기 전에 다음 사전 조건이 충족되었는지 확인하십시오.
관리 콘솔에 필요한 Sun Cluster 소프트웨어(SUNWccon 패키지)를 설치하십시오.
관리 콘솔의 PATH 변수에 Sun Cluster 도구 디렉토리, /opt/SUNWcluster/bin 및 /usr/cluster/bin이 포함되어야 합니다. $CLUSTER_HOME 환경 변수를 설정하여 다른 위치를 도구 디렉토리로 지정할 수 있습니다.
터미널 집신 장치를 사용하는 경우에는 clusters 파일, serialports 파일 및 nsswitch.conf 파일을 구성하십시오. 이 파일은 /etc 파일 또는 NIS/NIS+ 데이터베이스가 될 수 있습니다. 자세한 내용은 clusters(4) 및 serialports(4)를 참조하십시오.
Sun Enterprise E10000 server 플랫폼이 있는지 확인하십시오.
없으면 단계 3으로 이동하십시오.
있으면 SSP(System Service Processor)에 로그인한 다음 netcon 명령을 사용하여 연결하십시오. 연결되면 Shift~@를 입력하여 콘솔 잠금을 해제하고 쓰기 권한을 받으십시오.
CCP 실행 패드를 시작하십시오.
관리 콘솔에서 다음 명령을 입력하십시오.
# ccp clustername |
CCP 실행 패드가 표시됩니다.
클러스터에서 원격 세션을 시작하려면 CCP 실행 패드에서 원하는 아이콘(cconsole, crlogin 또는 ctelnet)을 클릭하십시오 .
다음 그림은 CCP(Cluster Control Panel)의 예입니다.
명령행에서 cconsole, crlogin 또는 ctelnet 세션을 시작할 수도 있습니다. 자세한 내용은 cconsole(1M)을 참조하십시오.
scsetup(1M) 유틸리티를 사용하면 새 클러스터에 대해 정족수, 자원 그룹, 클러스터 전송, 개인용 호스트 이름, 장치 그룹 및 새 노드 옵션을 대화식으로 구성할 수 있습니다.
클러스터의 노드에 대해 수퍼유저가 되십시오.
scsetup 유틸리티를 입력하십시오.
# scsetup |
Main Menu가 표시됩니다.
메뉴에서 원하는 항목을 선택하고 화면의 지시를 따르십시오.
자세한 내용은 scsetup 온라인 도움말을 참조하십시오.
이 절차를 수행하기 위해 수퍼유저로 로그인할 필요는 없습니다.
Sun Cluster 패치 번호를 표시하십시오.
Sun Cluster 갱신 버전은 기본 제품 패치 번호에 갱신 버전 번호를 추가하여 표시합니다. Sun Cluster 3.0 U1의 경우에는 110648-05입니다.
% showrev -p |
모든 Sun Cluster 패키지에 대한 Sun Cluster 버전 번호 및 버전 문자열을 표시하십시오.
% scinstall -pv |
다음은 클러스터의 버전 번호를 표시하는 예입니다.
% showrev -p | grep 110648 Patch: 110648-05 Obsoletes: Requires: Incompatibles: Packages: |
다음은 클러스터의 버전 정보 및 모든 패키지의 버전 정보를 표시하는 예입니다.
% scinstall -pv SunCluster 3.0 SUNWscr: 3.0.0,REV=2000.10.01.01.00 SUNWscdev: 3.0.0,REV=2000.10.01.01.00 SUNWscu: 3.0.0,REV=2000.10.01.01.00 SUNWscman: 3.0.0,REV=2000.10.01.01.00 SUNWscsal: 3.0.0,REV=2000.10.01.01.00 SUNWscsam: 3.0.0,REV=2000.10.01.01.00 SUNWscvm: 3.0.0,REV=2000.10.01.01.00 SUNWmdm: 4.2.1,REV=2000.08.08.10.01 |
SunPlex Manager GUI를 사용하여 이 절차를 수행할 수도 있습니다. 자세한 내용은 SunPlex Manager 온라인 도움말을 참조하십시오.
이 절차를 수행하기 위해 수퍼유저로 로그인할 필요는 없습니다.
클러스터에 구성된 자원 유형, 자원 그룹 및 자원을 표시하십시오.
% scrgadm -p |
다음은 클러스터 schost에 구성된 자원 유형(RT Name), 자원 그룹(RG Name<) 및 자원(RS Name)을 표시하는 예입니다.
% scrgadm -p RT Name: SUNW.SharedAddress RT Description: HA Shared Address Resource Type RT Name: SUNW.LogicalHostname RT Description: Logical Hostname Resource Type RG Name: schost-sa-1 RG Description: RS Name: schost-1 RS Description: RS Type: SUNW.SharedAddress RS Resource Group: schost-sa-1 RG Name: schost-lh-1 RG Description: RS Name: schost-3 RS Description: RS Type: SUNW.LogicalHostname RS Resource Group: schost-lh-1 |
SunPlex Manager GUI를 사용하여 이 절차를 수행할 수도 있습니다. 자세한 내용은 SunPlex Manager 온라인 도움말을 참조하십시오.
이 절차를 수행하기 위해 수퍼유저로 로그인할 필요는 없습니다.
클러스터 구성 요소의 상태를 확인하십시오
% scstat -p |
다음 예는 scstat(1M)명령을 실행했을 때 반환되는 클러스터 구성 요소에 대한 상태 정보 샘플입니다 .
% scstat -p -- Cluster Nodes -- Node name Status --------- ------ Cluster node: phys-schost-1 Online Cluster node: phys-schost-2 Online Cluster node: phys-schost-3 Online Cluster node: phys-schost-4 Online ------------------------------------------------------------------ -- Cluster Transport Paths -- Endpoint Endpoint Status -------- -------- ------ Transport path: phys-schost-1:qfe1 phys-schost-4:qfe1 Path online Transport path: phys-schost-1:hme1 phys-schost-4:hme1 Path online ... ------------------------------------------------------------------ -- Quorum Summary -- Quorum votes possible: 6 Quorum votes needed: 4 Quorum votes present: 6 -- Quorum Votes by Node -- Node Name Present Possible Status --------- ------- -------- ------ Node votes: phys-schost-1 1 1 Online Node votes: phys-schost-2 1 1 Online ... -- Quorum Votes by Device -- Device Name Present Possible Status ----------- ------- -------- ------ Device votes: /dev/did/rdsk/d2s2 1 1 Online Device votes: /dev/did/rdsk/d8s2 1 1 Online ... -- Device Group Servers -- Device Group Primary Secondary ------------ ------- --------- Device group servers: rmt/1 - - Device group servers: rmt/2 - - Device group servers: schost-1 phys-schost-2 phys-schost-1 Device group servers: schost-3 - - -- Device Group Status -- Device Group Status ------------ ------ Device group status: rmt/1 Offline Device group status: rmt/2 Offline Device group status: schost-1 Online Device group status: schost-3 Offline ------------------------------------------------------------------ -- Resource Groups and Resources -- Group Name Resources ---------- --------- Resources: test-rg test_1 Resources: real-property-rg - Resources: failover-rg - Resources: descript-rg-1 - ... -- Resource Groups -- Group Name Node Name State ---------- --------- ----- Group: test-rg phys-schost-1 Offline Group: test-rg phys-schost-2 Offline ... -- Resources -- Resource Name Node Name State Status Message ------------- --------- ----- -------------- Resource: test_1 phys-schost-1 Offline Offline Resource: test_1 phys-schost-2 Offline Offline |
SunPlex Manager GUI를 사용하여 이 절차를 수행할 수도 있습니다. 자세한 내용은 SunPlex Manager 온라인 도움말을 참조하십시오.
이 절차를 수행하기 위해 수퍼유저로 로그인할 필요는 없습니다.
클러스터 구성을 보십시오.
% scconf -p |
다음은 클러스터 구성을 표시한 예입니다.
% scconf -p Cluster name: cluster-1 Cluster ID: 0x3908EE1C Cluster install mode: disabled Cluster private net: 172.16.0.0 Cluster private netmask: 255.255.0.0 Cluster new node authentication: unix Cluster new node list: <NULL - Allow any node> Cluster nodes: phys-schost-1 phys-schost-2 phys-schost-3 phys-schost-4 Cluster node name: phys-schost-1 Node ID: 1 Node enabled: yes Node private hostname: clusternode1-priv Node quorum vote count: 1 Node reservation key: 0x3908EE1C00000001 Node transport adapters: hme1 qfe1 qfe2 Node transport adapter: hme1 Adapter enabled: yes Adapter transport type: dlpi Adapter property: device_name=hme Adapter property: device_instance=1 Adapter property: dlpi_heartbeat_timeout=10000 ... Cluster transport junctions: hub0 hub1 hub2 Cluster transport junction: hub0 Junction enabled: yes Junction type: switch Junction port names: 1 2 3 4 ... Junction port: 1 Port enabled: yes Junction port: 2 Port enabled: yes ... Cluster transport cables Endpoint Endpoint State -------- -------- ----- Transport cable: phys-schost-1:hme1@0 hub0@1 Enabled Transport cable: phys-schost-1:qfe1@0 hub1@1 Enabled Transport cable: phys-schost-1:qfe2@0 hub2@1 Enabled Transport cable: phys-schost-2:hme1@0 hub0@2 Enabled ... Quorum devices: d2 d8 Quorum device name: d2 Quorum device votes: 1 Quorum device enabled: yes Quorum device name: /dev/did/rdsk/d2s2 Quorum device hosts (enabled): phys-schost-1 phys-schost-2 Quorum device hosts (disabled): ... Device group name: schost-3 Device group type: SDS Device group failback enabled: no Device group node list: phys-schost-3, phys-schost-4 Diskset name: schost-3 |
sccheck(1M) 명령을 실행하면 /etc/vfstab 파일에서 클러스터 파일 시스템과 글로벌 마운트 포인트에 구성 오류가 있는지 확인합 니다. sccheck 명령은 오류를 반환하기만 합니다. sccheck명령을 실행하고 오류가 없으면 셸 프롬프트로 돌아갑니다.
장치 또는 볼륨 관리 구성 요소에 영향을 준 클러스터 구성을 변경한 후에 sccheck를 실행하십시오.
다음 예는 phys-schost-3 호스트에 /global/schost-1 마운트 포인트가 없음을 나타냅니다.
# sccheck vfstab-check: WARNING - phys-schost-3 - Missing mount point /global/schost-1 |