표 1–2에서는 클러스터 관리를 위한 시작점을 제공합니다.
표 1–2 Sun Cluster 3.1 4/04 관리 도구
작업 |
작업 방법 |
참조 정보 |
---|---|---|
클러스터에 원격 로그인 |
ccp 명령을 사용하여 CCP (Cluster Control Panel)를 실행하십시오. 그런 다음 cconsole(1M), crlogin(1M) 또는 ctelnet(1M) 아이콘 중 하나를 선택하십시오. | |
대화식으로 클러스터 구성 |
scsetup(1M) 유틸리티를 실행하십시오. | |
Sun Cluster 릴리스 번호 및 버전 정보 표시 |
-p 또는 -pv 옵션을 사용하여 scinstall(1M) 명령을 실행하십시오. | |
설치된 자원, 자원 그룹 및 자원 유형 표시 주 – scrgadm 명령을 실행할 때 자원 유형, 자원 그룹 및 자원 등록 정보의 이름은 대소문자를 구분합니다. |
scrgadm(1M) -p 명령을 사용하십시오. | |
그래픽으로 클러스터 구성 요소 모니터 |
SunPlex Manager 또는 Sun Management Center용 Sun Cluster 모듈(SPARC 기반 시스템의 Sun Cluster에서만 제공)을 사용합니다. |
SunPlex Manager 또는 Sun Management Center용 Sun Cluster 모듈 온라인 도움말 |
그래픽으로 일부 클러스터 구성 요소 관리 |
SunPlex Manager 또는 Sun Management Center용 Sun Cluster 모듈(SPARC 기반 시스템의 Sun Cluster에서만 제공)을 사용합니다. |
SunPlex Manager 또는 Sun Management Center용 Sun Cluster 모듈 온라인 도움말 |
클러스터 구성 요소의 상태 확인 |
scstat(1M) 명령을 사용하십시오. | |
공용 네트워크에서 IP Network Multipathing 그룹의 상태 확인 |
-i 옵션을 사용하여 scstat(1M) 명령을 실행하십시오. | |
클러스터 구성 보기 |
scconf(1M) -p 명령을 사용하십시오. | |
전역 마운트 지점 확인 |
sccheck(1M) 명령을 사용하십시오. | |
Sun Cluster 시스템 메시지 보기 |
/var/adm/messages 파일을 검사하십시오. |
Solaris 9 System Administrator Collection에 포함된 System Administration Guide: Advanced Administration의 “Viewing System Messages” |
Solstice DiskSuite의 상태 모니터 |
metastat 명령을 사용하십시오. |
Solstice DiskSuite/Solaris 볼륨 관리자 설명서 |
Solaris 8을 실행하는 경우에 VERITAS Volume Manager의 상태 모니터 |
vxstat 또는 vxva 명령을 사용하십시오. |
VERITAS Volume Manager 설명서 |
Solaris 9를 실행하는 경우에 Solaris 볼륨 관리자의 상태 모니터 |
svmstat 명령을 사용하십시오. |
CCP (Cluster Control Panel)에서는 cconsole(1M), crlogin(1M) 및 ctelnet(1M) 도구를 위한 실행 패드를 제공합니다. 세 도구 모두 지정된 노드 세트에 대하여 여러 개의 창 연결을 시작합니다. 여러 창 연결은 지정된 각 노드에 대한 호스트 창과 하나의 공용 창으로 구성됩니다. 공용 창에 입력한 내용은 클러스터의 모든 노드에서 동시에 명령을 실행할 수 있도록 각 호스트 창에 전달됩니다. 자세한 내용은 ccp(1M) 및 cconsole(1M) 설명서 페이지를 참조하십시오.
CCP를 시작하기 전에 다음 사전 조건이 충족되었는지 확인합니다.
관리 콘솔에 SUNWccon 패키지가 설치되어 있어야 합니다.
관리 콘솔의 PATH 변수에 Sun Cluster 도구 디렉토리인 /opt/SUNWcluster/bin 및 /usr/cluster/bin 경로가 포함되어야 합니다. $CLUSTER_HOME 환경 변수를 설정하여 다른 위치를 도구 디렉토리로 지정할 수 있습니다.
단말기 집중 장치를 사용하는 경우에는 clusters 파일, serialports 파일 및 nsswitch.conf 파일을 구성하십시오. 이 파일은 /etc 파일 또는 NIS/NIS+ 데이터베이스가 될 수 있습니다. 자세한 내용은 clusters(4) 및 serialports(4)를 참조하십시오.
Sun Enterprise E10000 서버 플랫폼이 있는지 확인합니다.
없으면 단계 3으로 이동하십시오.
있으면 SSP (System Service Processor)에 로그인한 다음 netcon 명령을 사용하여 연결하십시오. 연결되면 Shift~@를 입력하여 콘솔 잠금을 해제하고 쓰기 권한을 받으십시오.
CCP 실행 패드를 시작합니다.
관리 콘솔에서 다음 명령을 입력하십시오.
# ccp clustername |
CCP 실행 패드가 표시됩니다.
클러스터와 원격 세션을 시작하려면 CCP 실행 패드에서 cconsole, crlogin 또는 ctelnet 아이콘을 누릅니다.
명령줄에서 cconsole, crlogin 또는 ctelnet 세션을 시작할 수도 있습니다.
scsetup(1M) 유틸리티를 사용하면 클러스터에 대하여 쿼럼, 자원 그룹, 클러스터 전송, 개인 호스트 이름, 장치 그룹 및 새 노드 옵션을 대화식으로 구성할 수 있습니다.
클러스터의 노드에서 수퍼유저가 됩니다.
scsetup 유틸리티를 실행합니다.
# scsetup |
주 메뉴가 표시됩니다.
메뉴에서 구성을 선택합니다. 화면의 지시에 따라 작업을 완료하십시오.
자세한 내용은 scsetup 온라인 도움말을 참조하십시오.
다음 절차를 수행하기 위해 수퍼유저로 로그인할 필요는 없습니다.
Sun Cluster 패치 번호를 표시하십시오.
Sun Cluster 갱신 릴리스는 기본 제품 패치 번호에 업데이트 버전을 추가하여 식별합니다.
% showrev -p |
Sun Cluster 릴리스 번호 및 모든 Sun Cluster 패키지에 대한 버전 문자열을 표시하십시오.
% scinstall -pv |
다음은 클러스터의 릴리스 번호를 표시하는 예입니다.
% showrev -p | grep 110648 Patch: 110648-05 Obsoletes: Requires: Incompatibles: Packages: |
다음은 클러스터의 릴리스 정보 및 모든 패키지의 버전 정보를 표시하는 예입니다.
% scinstall -pv SunCluster 3.1 SUNWscr: 3.1.0,REV=2000.10.01.01.00 SUNWscdev: 3.1.0,REV=2000.10.01.01.00 SUNWscu: 3.1.0,REV=2000.10.01.01.00 SUNWscman: 3.1.0,REV=2000.10.01.01.00 SUNWscsal: 3.1.0,REV=2000.10.01.01.00 SUNWscsam: 3.1.0,REV=2000.10.01.01.00 SUNWscvm: 3.1.0,REV=2000.10.01.01.00 SUNWmdm: 4.2.1,REV=2000.08.08.10.01 |
SunPlex Manager GUI를 사용하여 이 절차를 완료할 수도 있습니다. 제 10 장을 참조하십시오. 자세한 내용은 SunPlex Manager 온라인 도움말을 참조하십시오.
다음 절차를 수행하기 위해 수퍼유저로 로그인할 필요는 없습니다.
클러스터에 구성된 자원 유형, 자원 그룹 및 자원을 표시하십시오.
% scrgadm -p |
다음 예에서는 클러스터 schost에 구성된 자원 유형(RT Name), 자원 그룹(RG Name) 및 자원(RS Name)을 보여 줍니다.
% scrgadm -p RT Name: SUNW.SharedAddress RT Description: HA Shared Address Resource Type RT Name: SUNW.LogicalHostname RT Description: Logical Hostname Resource Type RG Name: schost-sa-1 RG Description: RS Name: schost-1 RS Description: RS Type: SUNW.SharedAddress RS Resource Group: schost-sa-1 RG Name: schost-lh-1 RG Description: RS Name: schost-3 RS Description: RS Type: SUNW.LogicalHostname RS Resource Group: schost-lh-1 |
SunPlex Manager GUI를 사용하여 이 절차를 완료할 수도 있습니다. 자세한 내용은 SunPlex Manager 온라인 도움말을 참조하십시오.
다음 절차를 수행하기 위해 수퍼유저로 로그인할 필요는 없습니다.
클러스터 구성 요소의 상태를 확인하십시오.
% scstat -p |
다음은 scstat(1M) 명령을 실행했을 때 반환되는 클러스터 구성 요소에 대한 상태 정보의 예입니다.
% scstat -p -- Cluster Nodes -- Node name Status --------- ------ Cluster node: phys-schost-1 Online Cluster node: phys-schost-2 Online Cluster node: phys-schost-3 Online Cluster node: phys-schost-4 Online ------------------------------------------------------------------ -- Cluster Transport Paths -- Endpoint Endpoint Status -------- -------- ------ Transport path: phys-schost-1:qfe1 phys-schost-4:qfe1 Path online Transport path: phys-schost-1:hme1 phys-schost-4:hme1 Path online ... ------------------------------------------------------------------ -- Quorum Summary -- Quorum votes possible: 6 Quorum votes needed: 4 Quorum votes present: 6 -- Quorum Votes by Node -- Node Name Present Possible Status --------- ------- -------- ------ Node votes: phys-schost-1 1 1 Online Node votes: phys-schost-2 1 1 Online ... -- Quorum Votes by Device -- Device Name Present Possible Status ----------- ------- -------- ------ Device votes: /dev/did/rdsk/d2s2 1 1 Online Device votes: /dev/did/rdsk/d8s2 1 1 Online ... -- Device Group Servers -- Device Group Primary Secondary ------------ ------- --------- Device group servers: rmt/1 - - Device group servers: rmt/2 - - Device group servers: schost-1 phys-schost-2 phys-schost-1 Device group servers: schost-3 - - -- Device Group Status -- Device Group Status ------------ ------ Device group status: rmt/1 Offline Device group status: rmt/2 Offline Device group status: schost-1 Online Device group status: schost-3 Offline ------------------------------------------------------------------ -- Resource Groups and Resources -- Group Name Resources ---------- --------- Resources: test-rg test_1 Resources: real-property-rg - Resources: failover-rg - Resources: descript-rg-1 - ... -- Resource Groups -- Group Name Node Name State ---------- --------- ----- Group: test-rg phys-schost-1 Offline Group: test-rg phys-schost-2 Offline ... -- Resources -- Resource Name Node Name State Status Message ------------- --------- ----- -------------- Resource: test_1 phys-schost-1 Offline Offline Resource: test_1 phys-schost-2 Offline Offline ----------------------------------------------------------------- -- IPMP Groups -- Node Name Group Status Adapter Status --------- ----- ------ ------- ------ IPMP Group: phys-schost-1 sc_ipmp0 Online qfe1 Online IPMP Group: phys-schost-2 sc_ipmp0 Online qfe1 Online ------------------------------------------------------------------ |
SunPlex Manager GUI를 사용하여 이 절차를 완료할 수도 있습니다. 자세한 내용은 SunPlex Manager 온라인 도움말을 참조하십시오.
다음 절차를 수행하기 위해 수퍼유저로 로그인할 필요는 없습니다.
IP Network Multipathing 그룹의 상태를 확인하려면 scstat(1M) 명령을 사용하십시오.
다음은 scstat -i 명령을 실행했을 때 반환되는 클러스터 구성 요소에 대한 상태 정보의 예입니다.
% scstat -i ----------------------------------------------------------------- -- IPMP Groups -- Node Name Group Status Adapter Status --------- ----- ------ ------- ------ IPMP Group: phys-schost-1 sc_ipmp1 Online qfe2 Online IPMP Group: phys-schost-1 sc_ipmp0 Online qfe1 Online IPMP Group: phys-schost-2 sc_ipmp1 Online qfe2 Online IPMP Group: phys-schost-2 sc_ipmp0 Online qfe1 Online ------------------------------------------------------------------ |
SunPlex Manager GUI를 사용하여 이 절차를 완료할 수도 있습니다. 자세한 내용은 SunPlex Manager 온라인 도움말을 참조하십시오.
다음 절차를 수행하기 위해 수퍼유저로 로그인할 필요는 없습니다.
클러스터 구성을 보십시오.
% scconf -p |
scconf 명령을 사용하여 자세한 정보를 표시하려면 여러 가지 옵션을 사용하십시오. 자세한 내용은 scconf(1M) 설명서 페이지를 참조하십시오.
다음은 클러스터 구성을 표시한 예입니다.
% scconf -p Cluster name: cluster-1 Cluster ID: 0x3908EE1C Cluster install mode: disabled Cluster private net: 172.16.0.0 Cluster private netmask: 255.255.0.0 Cluster new node authentication: unix Cluster new node list: <NULL - Allow any node> Cluster nodes: phys-schost-1 phys-schost-2 phys-schost-3 phys-schost-4 Cluster node name: phys-schost-1 Node ID: 1 Node enabled: yes Node private hostname: clusternode1-priv Node quorum vote count: 1 Node reservation key: 0x3908EE1C00000001 Node transport adapters: hme1 qfe1 qfe2 Node transport adapter: hme1 Adapter enabled: yes Adapter transport type: dlpi Adapter property: device_name=hme Adapter property: device_instance=1 Adapter property: dlpi_heartbeat_timeout=10000 ... Cluster transport junctions: hub0 hub1 hub2 Cluster transport junction: hub0 Junction enabled: yes Junction type: switch Junction port names: 1 2 3 4 ... Junction port: 1 Port enabled: yes Junction port: 2 Port enabled: yes ... Cluster transport cables Endpoint Endpoint State -------- -------- ----- Transport cable: phys-schost-1:hme1@0 hub0@1 Enabled Transport cable: phys-schost-1:qfe1@0 hub1@1 Enabled Transport cable: phys-schost-1:qfe2@0 hub2@1 Enabled Transport cable: phys-schost-2:hme1@0 hub0@2 Enabled ... Quorum devices: d2 d8 Quorum device name: d2 Quorum device votes: 1 Quorum device enabled: yes Quorum device name: /dev/did/rdsk/d2s2 Quorum device hosts (enabled): phys-schost-1 phys-schost-2 Quorum device hosts (disabled): ... Device group name: schost-3 Device group type: SVM Device group failback enabled: no Device group node list: phys-schost-3, phys-schost-4 Diskset name: schost-3 |
sccheck(1M) 명령은 일련의 검사를 실행하여 클러스터가 제대로 작동하는 데 필요한 기본 구성을 검증합니다. 모든 검사가 성공하면 sccheck는 쉘 프롬프트로 돌아갑니다. 검사가 실패하면 sccheck는 지정된 출력 디렉토리 또는 기본 출력 디렉토리에 보고서를 생성합니다. 둘 이상의 노드에 대해 sccheck를 실행한 경우 sccheck에서 각 노드에 대한 보고서와 복수 노드 검사에 대한 보고서를 생성합니다.
sccheck 명령은 데이터 수집 및 분석의 두 단계로 실행됩니다. 시스템 구성에 따라 데이터 수집은 시간이 많이 걸릴 수 있습니다. -v1 플래그와 함께 세부 정보 표시 모드에서 sccheck를 호출하여 진행 메시지를 인쇄하거나, - v2 플래그를 사용하여 특히 데이터 수집 중에 더 자세한 진행 메시지를 인쇄할 수 있는 고급 세부 정보 표시 모드로 sccheck를 실행할 수 있습니다.
장치, 볼륨 관리 구성 요소 또는 Sun Cluster 구성을 변경할 수 있는 관리 절차를 수행한 후에는 sccheck 명령을 실행하십시오.
다음 예에서는 모든 검사를 통과한 phys-schost-1 및 phys-schost-2 노드에 대해 세부 정보 표시 모드로 실행되는 sccheck를 보여 줍니다.
# sccheck -v1 -h phys-schost-1,phys-schost-2 sccheck: Requesting explorer data and node report from phys-schost-1. sccheck: Requesting explorer data and node report from phys-schost-2. sccheck: phys-schost-1: Explorer finished. sccheck: phys-schost-1: Starting single-node checks. sccheck: phys-schost-1: Single-node checks finished. sccheck: phys-schost-2: Explorer finished. sccheck: phys-schost-2: Starting single-node checks. sccheck: phys-schost-2: Single-node checks finished. sccheck: Starting multi-node checks. sccheck: Multi-node checks finished # |
다음 예에서는 /global/phys-schost-1 마운트 지점이 누락된 suncluster 클러스터의 phys-schost-2 노드를 보여 줍니다. /var/cluster/sccheck/myReports/ 출력 디렉토리에 보고서가 생성됩니다.
# sccheck -v1 -h phys-schost-1,phys-schost-2 -o /var/cluster/sccheck/myReports sccheck: Requesting explorer data and node report from phys-schost-1. sccheck: Requesting explorer data and node report from phys-schost-2. sccheck: phys-schost-1: Explorer finished. sccheck: phys-schost-1: Starting single-node checks. sccheck: phys-schost-1: Single-node checks finished. sccheck: phys-schost-2: Explorer finished. sccheck: phys-schost-2: Starting single-node checks. sccheck: phys-schost-2: Single-node checks finished. sccheck: Starting multi-node checks. sccheck: Multi-node checks finished. sccheck: One or more checks failed. sccheck: The greatest severity of all check failures was 3 (HIGH). sccheck: Reports are in /var/cluster/sccheck/myReports. # # cat /var/cluster/sccheck/myReports/sccheck-results.suncluster.txt ... =================================================== = ANALYSIS DETAILS = =================================================== ------------------------------------ CHECK ID : 3065 SEVERITY : HIGH FAILURE : Global filesystem /etc/vfstab entries are not consistent across all Sun Cluster 3.x nodes. ANALYSIS : The global filesystem /etc/vfstab entries are not consistent across all nodes in this cluster. Analysis indicates: FileSystem '/global/phys-schost-1' is on 'phys-schost-1' but missing from 'phys-schost-2'. RECOMMEND: Ensure each node has the correct /etc/vfstab entry for the filesystem(s) in question. ... # |
sccheck(1M) 명령에는 클러스터 파일 시스템과 해당 전역 마운트 지점을 사용하여 /etc/vfstab 파일의 구성 오류를 검사하는 검사가 포함됩니다.
장치 또는 볼륨 관리 구성 요소에 영향을 주는 클러스터 구성을 변경한 후에 sccheck를 실행하십시오.
다음 예에서는 /global/schost-1 마운트 지점이 누락된 suncluster 클러스터의 phys-schost-2 노드를 보여 줍니다. 보고서는 출력 디렉토리 /var/cluster/sccheck/myReports/로 보내지는 중입니다.
# sccheck -v1 -h phys-schost-1,phys-schost-2 -o /var/cluster/sccheck/myReports sccheck: Requesting explorer data and node report from phys-schost-1. sccheck: Requesting explorer data and node report from phys-schost-2. sccheck: phys-schost-1: Explorer finished. sccheck: phys-schost-1: Starting single-node checks. sccheck: phys-schost-1: Single-node checks finished. sccheck: phys-schost-2: Explorer finished. sccheck: phys-schost-2: Starting single-node checks. sccheck: phys-schost-2: Single-node checks finished. sccheck: Starting multi-node checks. sccheck: Multi-node checks finished. sccheck: One or more checks failed. sccheck: The greatest severity of all check failures was 3 (HIGH). sccheck: Reports are in /var/cluster/sccheck/myReports. # # cat /var/cluster/sccheck/myReports/sccheck-results.suncluster.txt ... =================================================== = ANALYSIS DETAILS = =================================================== ------------------------------------ CHECK ID : 3065 SEVERITY : HIGH FAILURE : Global filesystem /etc/vfstab entries are not consistent across all Sun Cluster 3.x nodes. ANALYSIS : The global filesystem /etc/vfstab entries are not consistent across all nodes in this cluster. Analysis indicates: FileSystem '/global/phys-schost-1' is on 'phys-schost-1' but missing from 'phys-schost-2'. RECOMMEND: Ensure each node has the correct /etc/vfstab entry for the filesystem(s) in question. ... # # cat /var/cluster/sccheck/myReports/sccheck-results.phys-schost-1.txt ... =================================================== = ANALYSIS DETAILS = =================================================== ------------------------------------ CHECK ID : 1398 SEVERITY : HIGH FAILURE : An unsupported server is being used as a Sun Cluster 3.x node. ANALYSIS : This server may not been qualified to be used as a Sun Cluster 3.x node. Only servers that have been qualified with Sun Cluster 3.x are supported as Sun Cluster 3.x nodes. RECOMMEND: Because the list of supported servers is always being updated, check with your Sun Microsystems representative to get the latest information on what servers are currently supported and only use a server that is supported with Sun Cluster 3.x. ... # |