표 1–1에서는 클러스터 관리를 위한 시작점을 제공합니다.
표 1–1 Sun Cluster 3.2 관리 도구
작업 |
도구 |
지침 |
---|---|---|
클러스터에 원격 로그인 |
ccp 명령을 사용하여 CCP (Cluster Control Panel)를 실행하십시오. 그런 다음 cconsolecrlogin, FBC 1518cssh 또는 ctelnet 아이콘 중 하나를 선택하십시오. | |
대화식으로 클러스터 구성 |
clsetup(1CL) 유틸리티를 시작합니다. | |
Sun Cluster 릴리스 번호 및 버전 정보 표시 |
show-rev --v -node 하위 명령 및 옵션과 함께 clnode(1CL) 명령을 사용합니다. | |
설치된 자원, 자원 그룹 및 자원 유형 표시 |
다음 명령을 사용하여 자원 정보를 표시합니다. | |
그래픽으로 클러스터 구성 요소 모니터 |
Sun Cluster Manager를 사용합니다. |
온라인 도움말 참조 |
그래픽으로 일부 클러스터 구성 요소 관리 |
Sun Management Center용 Sun Cluster 모듈 또는 Sun Cluster Manager를 사용합니다(SPARC 기반 시스템용에서만 Sun Cluster와 사용 가능). |
Sun Cluster Manager에 대한 자세한 내용은 온라인 도움말 참조 Sun Management Center에 대한 자세한 내용은 Sun Management Center 문서 참조 |
클러스터 구성 요소의 상태 확인 |
cluster(1CL) 명령과 함께 status 하위 명령을 사용하십시오. | |
공용 네트워크에서 IP 네트워크 다중 경로 그룹의 상태 확인 |
clnode(1CL) status 명령과 함께 -m 옵션을 사용하십시오. | |
클러스터 구성을 보십시오. |
cluster(1CL) 명령과 함께 show 하위 명령을 사용하십시오. | |
전역 마운트 지점 확인 |
sccheck(1M) 명령을 사용하십시오. | |
Sun Cluster 명령 로그의 내용 보기 |
/var/cluster/logs/commandlog 파일을 검사하십시오. | |
Sun Cluster 시스템 메시지 보기 |
/var/adm/messages 파일을 검사하십시오. |
System Administration Guide: Advanced Administration의 Viewing System Messages |
Solstice DiskSuite의 상태 모니터 |
metastat 명령을 사용하십시오. |
Solaris Volume Manager 설명서 |
Solaris 9 또는 Solaris 10을 실행하는 경우에 Solaris Volume Manager의 상태 모니터 |
metastat 명령을 사용하십시오. |
클러스터 제어판(Cluster Control Panel, CCP)은 cconsole, crlogin, cssh 및 ctelnet 도구에 대한 실행 패드를 제공합니다. 모든 도구가 지정된 노드 세트에 대하여 여러 개의 창 연결을 시작합니다. 여러 창 연결은 지정된 각 노드에 대한 호스트 창과 하나의 공용 창으로 구성됩니다. 공용 창에 입력한 내용은 클러스터의 모든 노드에서 동시에 명령을 실행할 수 있도록 각 호스트 창에 전달됩니다.
명령줄에서 cconsole, crlogin, cssh 또는 ctelnet 세션을 시작할 수도 있습니다.
FBC 1518기본적으로 cconsole 유틸리티는 노드 콘솔에 대해 telnet 연결을 사용합니다. 콘솔에 Secure Shell 연결을 설정하려면 cconsole 창의 옵션 메뉴에서 SSH 사용 확인란을 활성화합니다. 또는, ccp or cconsole 명령을 실행할 때 -s 옵션을 지정합니다.
자세한 내용은 ccp(1M) 및 cconsole(1M) 매뉴얼 페이지를 참조하십시오.
이 절차에서는 장문형 Sun Cluster 명령을 제공합니다. 대부분의 명령에는 단문형도 있습니다. 명령은 명령 이름이 장문형과 단문형인 것을 제외하면 동일합니다. 명령 및 단문형 명령의 목록을 보려면 부록 A, Sun Cluster 객체 지향 명령를 참조하십시오.
CCP를 시작하기 전에 다음 사전 조건이 충족되었는지 확인합니다.
관리 콘솔에 SUNWccon 패키지가 설치되어 있어야 합니다.
관리 콘솔의 PATH 변수에 Sun Cluster 도구 디렉토리, /opt/SUNWcluster/bin 및 /usr/cluster/bin이 포함되어야 합니다. $CLUSTER_HOME 환경 변수를 설정하여 다른 위치를 도구 디렉토리로 지정할 수 있습니다.
터미널 콘센트레이터를 사용하는 경우에는 clusters 파일, serialports 파일 및 nsswitch.conf 파일을 구성하십시오. 이 파일은 /etc 파일 또는 NIS/ NIS+ 데이터베이스가 될 수 있습니다. 자세한 내용은 clusters(4) 및 serialports(4) 매뉴얼 페이지를 참조하십시오.
Sun Enterprise 10000 server 플랫폼의 경우, SSP(System Service Processor)에 로그인하십시오.
관리 콘솔에서 CCP 실행 패드를 시작합니다.
# ccp clustername |
CCP 실행 패드가 표시됩니다.
클러스터와 원격 세션을 시작하려면 CCP 실행 패드에서 cconsole, crlogin, cssh 또는 ctelnet 아이콘을 클릭합니다.
이 절차를 수행하여 클러스터 노드의 콘솔에 대한 Secure Shell 연결을 설정하십시오.
터미널 집중 장치를 사용하는 경우에는 clusters 파일, serialports 파일 및 nsswitch.conf 파일을 구성하십시오. 이 파일은 /etc 파일 또는 NIS/ NIS+ 데이터베이스가 될 수 있습니다.
serialports 파일에 포트 번호를 사용하여 각 콘솔 액세스 장치에 대한 보안 연결에 사용하십시오. Secure Shell 연결을 위한 기본 포트 번호는 22입니다.
자세한 내용은 clusters(4) 및 serialports(4) 매뉴얼 페이지를 참조하십시오.
관리 콘솔에서 수퍼유저로 전환합니다.
보안 모드에서 cconsole 유틸리티를 시작합니다.
# cconsole -s [-l username] [-p ssh-port] |
보안 쉘 연결을 활성화합니다.
원격 연결을 위한 사용자 이름을 지정합니다. -l 옵션을 지정하지 않으면 cconsole 유틸리티를 시작한 사용자 이름이 사용됩니다.
사용할 Secure Shell 포트 번호를 지정합니다. -p 옵션을 지정하지 않으면 보안 연결에 기본 포트 번호 22가 사용됩니다.
clsetup(1CL) 유틸리티를 사용하면 클러스터에 대해 쿼럼, 자원 그룹, 클러스터 전송, 개인 호스트 이름, 장치 그룹 및 새 노드 옵션을 대화식으로 구성할 수 있습니다.
이 절차에서는 장문형 Sun Cluster 명령을 제공합니다. 대부분의 명령에는 단문형도 있습니다. 명령은 명령 이름이 장문형과 단문형인 것을 제외하면 동일합니다. 명령 및 단문형 명령의 목록을 보려면 부록 A, Sun Cluster 객체 지향 명령를 참조하십시오.
임의의 클러스터의 노드에서 수퍼유저로 전환합니다.
clsetup 유틸리티를 시작합니다.
# clsetup |
주 메뉴가 표시됩니다.
메뉴에서 구성을 선택합니다. 화면의 지시에 따라 작업을 완료하십시오.
자세한 내용은 clsetup 온라인 도움말을 참조하십시오.
이 절차를 수행하기 위해 수퍼유저로 로그인할 필요는 없습니다.
이 절차에서는 장문형 Sun Cluster 명령을 제공합니다. 대부분의 명령에는 단문형도 있습니다. 명령은 명령 이름이 장문형과 단문형인 것을 제외하면 동일합니다. 명령 및 단문형 명령의 목록을 보려면 부록 A, Sun Cluster 객체 지향 명령를 참조하십시오.
다음 예는 패치 110648-05에 관한 정보를 표시합니다.
# showrev -p | grep 110648 Patch: 110648-05 Obsoletes: Requires: Incompatibles: Packages: |
이 절차를 수행하기 위해 수퍼유저로 로그인할 필요는 없습니다.
이 절차에서는 장문형 Sun Cluster 명령을 제공합니다. 대부분의 명령에는 단문형도 있습니다. 명령은 명령 이름이 장문형과 단문형인 것을 제외하면 동일합니다. 명령 및 단문형 명령의 목록을 보려면 부록 A, Sun Cluster 객체 지향 명령를 참조하십시오.
Sun Cluster 릴리스 및 버전 정보 표시
# clnode show-rev -v -node |
이 명령은 모든 Sun Cluster 패키지의 Sun Cluster 릴리스 번호와 버전 문자열을 표시합니다.
다음은 클러스터의 릴리스 정보 및 모든 패키지의 버전 정보를 표시하는 예입니다.
# clnode show-rev 3.2 #% clnode show-rev -v Sun Cluster 3.2 for Solaris 9 sparc SUNWscr: 3.2.0,REV=2006.02.17.18.11 SUNWscu: 3.2.0,REV=2006.02.17.18.11 SUNWsczu: 3.2.0,REV=2006.02.17.18.11 SUNWscsck: 3.2.0,REV=2006.02.17.18.11 SUNWscnm: 3.2.0,REV=2006.02.17.18.11 SUNWscdev: 3.2.0,REV=2006.02.17.18.11 SUNWscgds: 3.2.0,REV=2006.02.17.18.11 SUNWscman: 3.2.0,REV=2005.10.18.08.42 SUNWscsal: 3.2.0,REV=2006.02.17.18.11 SUNWscsam: 3.2.0,REV=2006.02.17.18.11 SUNWscvm: 3.2.0,REV=2006.02.17.18.11 SUNWmdm: 3.2.0,REV=2006.02.17.18.11 SUNWscmasa: 3.2.0,REV=2006.02.17.18.11 SUNWscmautil: 3.2.0,REV=2006.02.17.18.11 SUNWscmautilr: 3.2.0,REV=2006.02.17.18.11 SUNWjfreechart: 3.2.0,REV=2006.02.17.18.11 SUNWscva: 3.2.0,REV=2006.02.17.18.11 SUNWscspm: 3.2.0,REV=2006.02.17.18.11 SUNWscspmu: 3.2.0,REV=2006.02.17.18.11 SUNWscspmr: 3.2.0,REV=2006.02.17.18.11 SUNWscderby: 3.2.0,REV=2006.02.17.18.11 SUNWsctelemetry: 3.2.0,REV=2006.02.17.18.11 SUNWscrsm: 3.2.0,REV=2006.02.17.18.11 SUNWcsc: 3.2.0,REV=2006.02.21.10.16 SUNWcscspm: 3.2.0,REV=2006.02.21.10.16 SUNWcscspmu: 3.2.0,REV=2006.02.21.10.16 SUNWdsc: 3.2.0,REV=2006.02.21.10.09 SUNWdscspm: 3.2.0,REV=2006.02.21.10.09 SUNWdscspmu: 3.2.0,REV=2006.02.21.10.09 SUNWesc: 3.2.0,REV=2006.02.21.10.11 SUNWescspm: 3.2.0,REV=2006.02.21.10.11 SUNWescspmu: 3.2.0,REV=2006.02.21.10.11 SUNWfsc: 3.2.0,REV=2006.02.21.10.06 SUNWfscspm: 3.2.0,REV=2006.02.21.10.06 SUNWfscspmu: 3.2.0,REV=2006.02.21.10.06 SUNWhsc: 3.2.0,REV=2006.02.21.10.20 SUNWhscspm: 3.2.0,REV=2006.02.21.10.20 SUNWhscspmu: 3.2.0,REV=2006.02.21.10.20 SUNWjsc: 3.2.0,REV=2006.02.21.10.22 SUNWjscman: 3.2.0,REV=2006.02.21.10.22 SUNWjscspm: 3.2.0,REV=2006.02.21.10.22 SUNWjscspmu: 3.2.0,REV=2006.02.21.10.22 SUNWksc: 3.2.0,REV=2006.02.21.10.14 SUNWkscspm: 3.2.0,REV=2006.02.21.10.14 SUNWkscspmu: 3.2.0,REV=2006.02.21.10.14 |
Sun Cluster Manager GUI를 사용하여 이 절차를 완료할 수도 있습니다. 자세한 내용은 12 장, 그래픽 사용자 인터페이스를 사용한 Sun Cluster 관리를 참조하거나 Sun Cluster Manager 온라인 도움말을 참조하십시오.
이 절차에서는 장문형 Sun Cluster 명령을 제공합니다. 대부분의 명령에는 단문형도 있습니다. 명령은 명령 이름이 장문형과 단문형인 것을 제외하면 동일합니다. 명령 및 단문형 명령의 목록을 보려면 부록 A, Sun Cluster 객체 지향 명령를 참조하십시오.
수퍼유저가 아닌 사용자로 하위 명령을 사용하기 위해서는 solaris.cluster.read RBAC 권한이 필요합니다.
클러스터에 구성된 자원 유형, 자원 그룹 및 자원을 표시하십시오.
% cluster show -t resource,resourcetype,resourcegroup |
개인 자원, 자원 그룹 및 자원 유형에 대한 정보에 대해 show 하위 명령과 다음 명령 중 하나와 함께 사용합니다.
resource
resource group
resourcetype
다음은 클러스터 schost에 구성된 자원 유형(RT Name), 자원 그룹(RG Name) 및 자원(RS Name)을 표시하는 예입니다.
% cluster show -t resource,resourcetype,resourcegroup === Registered Resource Types === Resource Type: SUNW.qfs RT_description: SAM-QFS Agent on SunCluster RT_version: 3.1 API_version: 3 RT_basedir: /opt/SUNWsamfs/sc/bin Single_instance: False Proxy: False Init_nodes: All potential masters Installed_nodes: <All> Failover: True Pkglist: <NULL> RT_system: False === Resource Groups and Resources === Resource Group: qfs-rg RG_description: <NULL> RG_mode: Failover RG_state: Managed Failback: False Nodelist: phys-schost-2 phys-schost-1 --- Resources for Group qfs-rg --- Resource: qfs-res Type: SUNW.qfs Type_version: 3.1 Group: qfs-rg R_description: Resource_project_name: default Enabled{phys-schost-2}: True Enabled{phys-schost-1}: True Monitored{phys-schost-2}: True Monitored{phys-schost-1}: True |
Sun Cluster Manager GUI를 사용하여 이 절차를 완료할 수도 있습니다. 자세한 내용은 Sun Cluster Manager 온라인 도움말을 참조하십시오.
이 절차에서는 장문형 Sun Cluster 명령을 제공합니다. 대부분의 명령에는 단문형도 있습니다. 명령은 명령 이름이 장문형과 단문형인 것을 제외하면 동일합니다. 명령 및 단문형 명령의 목록을 보려면 부록 A, Sun Cluster 객체 지향 명령를 참조하십시오.
수퍼유저가 아닌 사용자로 status 하위 명령을 사용하기 위해서는 solaris.cluster.read RBAC 권한이 필요합니다.
다음은 cluster(1CL) status를 실행하여 반환된 클러스터 요소에 대한 상태 정보 예입니다.
% cluster status === Cluster Nodes === --- Node Status --- Node Name Status --------- ------ phys-schost-1 Online phys-schost-2 Online === Cluster Transport Paths === Endpoint1 Endpoint2 Status --------- --------- ------ phys-schost-1:qfe1 phys-schost-4:qfe1 Path online phys-schost-1:hme1 phys-schost-4:hme1 Path online === Cluster Quorum === --- Quorum Votes Summary --- Needed Present Possible ------ ------- -------- 3 3 4 --- Quorum Votes by Node --- Node Name Present Possible Status --------- ------- -------- ------ phys-schost-1 1 1 Online phys-schost-2 1 1 Online --- Quorum Votes by Device --- Device Name Present Possible Status ----------- ------- -------- ------ /dev/did/rdsk/d2s2 1 1 Online /dev/did/rdsk/d8s2 0 1 Offline === Cluster Device Groups === --- Device Group Status --- Device Group Name Primary Secondary Status ----------------- ------- --------- ------ schost-2 phys-schost-2 - Degraded --- Spare, Inactive, and In Transition Nodes --- Device Group Name Spare Nodes Inactive Nodes In Transistion Nodes ----------------- ----------- -------------- -------------------- schost-2 - - - === Cluster Resource Groups === Group Name Node Name Suspended Status ---------- --------- --------- ------ test-rg phys-schost-1 No Offline phys-schost-2 No Online test-rg phys-schost-1 No Offline phys-schost-2 No Error--stop failed test-rg phys-schost-1 No Online phys-schost-2 No Online === Cluster Resources === Resource Name Node Name Status Message ------------- --------- ------ ------- test_1 phys-schost-1 Offline Offline phys-schost-2 Online Online test_1 phys-schost-1 Offline Offline phys-schost-2 Stop failed Faulted test_1 phys-schost-1 Online Online phys-schost-2 Online Online Device Instance Node Status --------------- ---- ------ /dev/did/rdsk/d2 phys-schost-1 Ok /dev/did/rdsk/d3 phys-schost-1 Ok phys-schost-2 Ok /dev/did/rdsk/d4 phys-schost-1 Ok phys-schost-2 Ok /dev/did/rdsk/d6 phys-schost-2 Ok |
Sun Cluster Manager GUI를 사용하여 이 절차를 완료할 수도 있습니다. 자세한 내용은 Sun Cluster Manager 온라인 도움말을 참조하십시오.
이 절차에서는 장문형 Sun Cluster 명령을 제공합니다. 대부분의 명령에는 단문형도 있습니다. 명령은 명령 이름이 장문형과 단문형인 것을 제외하면 동일합니다. 명령 및 단문형 명령의 목록을 보려면 부록 A, Sun Cluster 객체 지향 명령를 참조하십시오.
IP Network Multipathing 그룹의 상태를 확인하려면 clnode(1CL) 명령과 status 하위 명령을 함께 사용하십시오.
수퍼유저가 아닌 사용자로 하위 명령을 사용하기 위해서는 solaris.cluster.read RBAC 권한이 필요합니다.
다음은 clnode status 명령을 실행했을 때 반환되는 클러스터 구성 요소에 대한 상태 정보의 예입니다.
% clnode status -m --- Node IPMP Group Status --- Node Name Group Name Status Adapter Status --------- ---------- ------ ------- ------ phys-schost-1 test-rg Online qfe1 Online phys-schost-2 test-rg Online qfe1 Online |
Sun Cluster Manager GUI를 사용하여 이 절차를 완료할 수도 있습니다. 자세한 내용은 Sun Cluster Manager 온라인 도움말을 참조하십시오.
이 절차에서는 장문형 Sun Cluster 명령을 제공합니다. 대부분의 명령에는 단문형도 있습니다. 명령은 명령 이름이 장문형과 단문형인 것을 제외하면 동일합니다. 명령 및 단문형 명령의 목록을 보려면 부록 A, Sun Cluster 객체 지향 명령를 참조하십시오.
수퍼유저가 아닌 사용자로 status 하위 명령을 사용하기 위해서는 solaris.cluster.read RBAC 권한이 필요합니다.
클러스터 구성을 보십시오.
% cluster show |
cluster 명령을 사용하여 자세한 정보를 표시하려면 여러 가지 옵션을 사용하십시오. 자세한 내용은 cluster(1CL) 메뉴얼 페이지를 참조하십시오.
다음은 클러스터 구성을 표시한 예입니다.
% cluster show |
=== Cluster === Cluster Name: cluster-1 installmode: disabled heartbeat_timeout: 10000 heartbeat_quantum: 1000 private_netaddr: 172.16.0.0 private_netmask: 255.255.248.0 max_nodes: 64 max_privatenets: 10 global_fencing: Unknown Node List: phys-schost-1 Node Zones: phys_schost-2:za === Host Access Control === Cluster name: clustser-1 Allowed hosts: phys-schost-1, phys-schost-2:za Authentication Protocol: sys === Cluster Nodes === Node Name: phys-schost-1 Node ID: 1 Type: cluster Enabled: yes privatehostname: clusternode1-priv reboot_on_path_failure: disabled globalzoneshares: 3 defaultpsetmin: 1 quorum_vote: 1 quorum_defaultvote: 1 quorum_resv_key: 0x43CB1E1800000001 Transport Adapter List: qfe3, hme0 --- Transport Adapters for phys-schost-1 --- Transport Adapter: qfe3 Adapter State: Enabled Adapter Transport Type: dlpi Adapter Property(device_name): qfe Adapter Property(device_instance): 3 Adapter Property(lazy_free): 1 Adapter Property(dlpi_heartbeat_timeout): 10000 Adapter Property(dlpi_heartbeat_quantum): 1000 Adapter Property(nw_bandwidth): 80 Adapter Property(bandwidth): 10 Adapter Property(ip_address): 172.16.1.1 Adapter Property(netmask): 255.255.255.128 Adapter Port Names: 0 Adapter Port State(0): Enabled Transport Adapter: hme0 Adapter State: Enabled Adapter Transport Type: dlpi Adapter Property(device_name): hme Adapter Property(device_instance): 0 Adapter Property(lazy_free): 0 Adapter Property(dlpi_heartbeat_timeout): 10000 Adapter Property(dlpi_heartbeat_quantum): 1000 Adapter Property(nw_bandwidth): 80 Adapter Property(bandwidth): 10 Adapter Property(ip_address): 172.16.0.129 Adapter Property(netmask): 255.255.255.128 Adapter Port Names: 0 Adapter Port State(0): Enabled --- SNMP MIB Configuration on phys-schost-1 --- SNMP MIB Name: Event State: Disabled Protocol: SNMPv2 --- SNMP Host Configuration on phys-schost-1 --- --- SNMP User Configuration on phys-schost-1 --- SNMP User Name: foo Authentication Protocol: MD5 Default User: No Node Name: phys-schost-2:za Node ID: 2 Type: cluster Enabled: yes privatehostname: clusternode2-priv reboot_on_path_failure: disabled globalzoneshares: 1 defaultpsetmin: 2 quorum_vote: 1 quorum_defaultvote: 1 quorum_resv_key: 0x43CB1E1800000002 Transport Adapter List: hme0, qfe3 --- Transport Adapters for phys-schost-2 --- Transport Adapter: hme0 Adapter State: Enabled Adapter Transport Type: dlpi Adapter Property(device_name): hme Adapter Property(device_instance): 0 Adapter Property(lazy_free): 0 Adapter Property(dlpi_heartbeat_timeout): 10000 Adapter Property(dlpi_heartbeat_quantum): 1000 Adapter Property(nw_bandwidth): 80 Adapter Property(bandwidth): 10 Adapter Property(ip_address): 172.16.0.130 Adapter Property(netmask): 255.255.255.128 Adapter Port Names: 0 Adapter Port State(0): Enabled Transport Adapter: qfe3 Adapter State: Enabled Adapter Transport Type: dlpi Adapter Property(device_name): qfe Adapter Property(device_instance): 3 Adapter Property(lazy_free): 1 Adapter Property(dlpi_heartbeat_timeout): 10000 Adapter Property(dlpi_heartbeat_quantum): 1000 Adapter Property(nw_bandwidth): 80 Adapter Property(bandwidth): 10 Adapter Property(ip_address): 172.16.1.2 Adapter Property(netmask): 255.255.255.128 Adapter Port Names: 0 Adapter Port State(0): Enabled --- SNMP MIB Configuration on phys-schost-2 --- SNMP MIB Name: Event State: Disabled Protocol: SNMPv2 --- SNMP Host Configuration on phys-schost-2 --- --- SNMP User Configuration on phys-schost-2 --- === Transport Cables === Transport Cable: phys-schost-1:qfe3,switch2@1 Cable Endpoint1: phys-schost-1:qfe3 Cable Endpoint2: switch2@1 Cable State: Enabled Transport Cable: phys-schost-1:hme0,switch1@1 Cable Endpoint1: phys-schost-1:hme0 Cable Endpoint2: switch1@1 Cable State: Enabled Transport Cable: phys-schost-2:hme0,switch1@2 Cable Endpoint1: phys-schost-2:hme0 Cable Endpoint2: switch1@2 Cable State: Enabled Transport Cable: phys-schost-2:qfe3,switch2@2 Cable Endpoint1: phys-schost-2:qfe3 Cable Endpoint2: switch2@2 Cable State: Enabled === Transport Switches === Transport Switch: switch2 Switch State: Enabled Switch Type: switch Switch Port Names: 1 2 Switch Port State(1): Enabled Switch Port State(2): Enabled Transport Switch: switch1 Switch State: Enabled Switch Type: switch Switch Port Names: 1 2 Switch Port State(1): Enabled Switch Port State(2): Enabled === Quorum Devices === Quorum Device Name: d3 Enabled: yes Votes: 1 Global Name: /dev/did/rdsk/d3s2 Type: scsi Access Mode: scsi2 Hosts (enabled): phys-schost-1, phys-schost-2 Quorum Device Name: qs1 Enabled: yes Votes: 1 Global Name: qs1 Type: quorum_server Hosts (enabled): phys-schost-1, phys-schost-2 Quorum Server Host: 10.11.114.83 Port: 9000 === Device Groups === Device Group Name: testdg3 Type: SVM failback: no Node List: phys-schost-1, phys-schost-2 preferenced: yes numsecondaries: 1 diskset name: testdg3 === Registered Resource Types === Resource Type: SUNW.LogicalHostname:2 RT_description: Logical Hostname Resource Type RT_version: 2 API_version: 2 RT_basedir: /usr/cluster/lib/rgm/rt/hafoip Single_instance: False Proxy: False Init_nodes: All potential masters Installed_nodes: <All> Failover: True Pkglist: SUNWscu RT_system: True Resource Type: SUNW.SharedAddress:2 RT_description: HA Shared Address Resource Type RT_version: 2 API_version: 2 RT_basedir: /usr/cluster/lib/rgm/rt/hascip Single_instance: False Proxy: False Init_nodes: <Unknown> Installed_nodes: <All> Failover: True Pkglist: SUNWscu RT_system: True Resource Type: SUNW.HAStoragePlus:4 RT_description: HA Storage Plus RT_version: 4 API_version: 2 RT_basedir: /usr/cluster/lib/rgm/rt/hastorageplus Single_instance: False Proxy: False Init_nodes: All potential masters Installed_nodes: <All> Failover: False Pkglist: SUNWscu RT_system: False Resource Type: SUNW.haderby RT_description: haderby server for Sun Cluster RT_version: 1 API_version: 7 RT_basedir: /usr/cluster/lib/rgm/rt/haderby Single_instance: False Proxy: False Init_nodes: All potential masters Installed_nodes: <All> Failover: False Pkglist: SUNWscderby RT_system: False Resource Type: SUNW.sctelemetry RT_description: sctelemetry service for Sun Cluster RT_version: 1 API_version: 7 RT_basedir: /usr/cluster/lib/rgm/rt/sctelemetry Single_instance: True Proxy: False Init_nodes: All potential masters Installed_nodes: <All> Failover: False Pkglist: SUNWsctelemetry RT_system: False === Resource Groups and Resources === Resource Group: HA_RG RG_description: <Null> RG_mode: Failover RG_state: Managed Failback: False Nodelist: phys-schost-1 phys-schost-2 --- Resources for Group HA_RG --- Resource: HA_R Type: SUNW.HAStoragePlus:4 Type_version: 4 Group: HA_RG R_description: Resource_project_name: SCSLM_HA_RG Enabled{phys-schost-1}: True Enabled{phys-schost-2}: True Monitored{phys-schost-1}: True Monitored{phys-schost-2}: True Resource Group: cl-db-rg RG_description: <Null> RG_mode: Failover RG_state: Managed Failback: False Nodelist: phys-schost-1 phys-schost-2 --- Resources for Group cl-db-rg --- Resource: cl-db-rs Type: SUNW.haderby Type_version: 1 Group: cl-db-rg R_description: Resource_project_name: default Enabled{phys-schost-1}: True Enabled{phys-schost-2}: True Monitored{phys-schost-1}: True Monitored{phys-schost-2}: True Resource Group: cl-tlmtry-rg RG_description: <Null> RG_mode: Scalable RG_state: Managed Failback: False Nodelist: phys-schost-1 phys-schost-2 --- Resources for Group cl-tlmtry-rg --- Resource: cl-tlmtry-rs Type: SUNW.sctelemetry Type_version: 1 Group: cl-tlmtry-rg R_description: Resource_project_name: default Enabled{phys-schost-1}: True Enabled{phys-schost-2}: True Monitored{phys-schost-1}: True Monitored{phys-schost-2}: True === DID Device Instances === DID Device Name: /dev/did/rdsk/d1 Full Device Path: phys-schost-1:/dev/rdsk/c0t2d0 Replication: none default_fencing: global DID Device Name: /dev/did/rdsk/d2 Full Device Path: phys-schost-1:/dev/rdsk/c1t0d0 Replication: none default_fencing: global DID Device Name: /dev/did/rdsk/d3 Full Device Path: phys-schost-2:/dev/rdsk/c2t1d0 Full Device Path: phys-schost-1:/dev/rdsk/c2t1d0 Replication: none default_fencing: global DID Device Name: /dev/did/rdsk/d4 Full Device Path: phys-schost-2:/dev/rdsk/c2t2d0 Full Device Path: phys-schost-1:/dev/rdsk/c2t2d0 Replication: none default_fencing: global DID Device Name: /dev/did/rdsk/d5 Full Device Path: phys-schost-2:/dev/rdsk/c0t2d0 Replication: none default_fencing: global DID Device Name: /dev/did/rdsk/d6 Full Device Path: phys-schost-2:/dev/rdsk/c1t0d0 Replication: none default_fencing: global === NAS Devices === Nas Device: nas_filer1 Type: netapp User ID: root Nas Device: nas2 Type: netapp User ID: llai |
sccheck(1M) 명령을 실행하면 클러스터가 제대로 기능을 수행하는 데 필요한 기본 구성을 확인하는 일련의 검사가 수행됩니다. 모든 검사가 성공하면 sccheck는 쉘 프롬프트로 돌아갑니다. 검사가 실패하면 sccheck는 지정된 출력 디렉토리 또는 기본 출력 디렉토리에 보고서를 생성합니다. 둘 이상의 노드에 대해 sccheck를 실행한 경우 sccheck에서 각 노드에 대한 보고서와 다중 노드 검사에 대한 보고서를 생성합니다.
sccheck 명령은 데이터 수집 및 분석의두 단계로 실행됩니다. 시스템 구성에 따라 데이터 수집은 시간이 많이 걸릴 수 있습니다. 상세 정보 표시 모드에서 sccheck 명령을 -v1 플래그와 함께 실행하여 진행 메시지를 인쇄할 수 있습니다. 또는 상세 정보 표시 모드에서 -v2 플래그를 사용하여 sccheck 명령을 실행하면 보다 자세한 진행 메시지를 데이터 수집 동안 인쇄합니다.
장치, 볼륨 관리 구성 요소 또는 Sun Cluster 구성을 변경할 수 있는 관리 절차를 수행한 후에는 sccheck 명령을 실행하십시오.
다음 예에서는 모든 검사를 통과한 phys-schost-1 및 phys-schost-2 노드에 대해 세부 정보 표시 모드로 실행되는 sccheck를 보여줍니다.
# sccheck -v1 -h phys-schost-1,phys-schost-2 sccheck: Requesting explorer data and node report from phys-schost-1. sccheck: Requesting explorer data and node report from phys-schost-2. sccheck: phys-schost-1: Explorer finished. sccheck: phys-schost-1: Starting single-node checks. sccheck: phys-schost-1: Single-node checks finished. sccheck: phys-schost-2: Explorer finished. sccheck: phys-schost-2: Starting single-node checks. sccheck: phys-schost-2: Single-node checks finished. sccheck: Starting multi-node checks. sccheck: Multi-node checks finished # |
다음 예에서는 /global/phys-schost-1 마운트 지점이 누락된 suncluster 클러스터의 phys-schost-2 노드를 보여줍니다. /var/cluster/sccheck/myReports/ 출력 디렉토리에 보고서가 생성됩니다.
# sccheck -v1 -h phys-schost-1,phys-schost-2 -o /var/cluster/sccheck/myReports sccheck: Requesting explorer data and node report from phys-schost-1. sccheck: Requesting explorer data and node report from phys-schost-2. sccheck: phys-schost-1: Explorer finished. sccheck: phys-schost-1: Starting single-node checks. sccheck: phys-schost-1: Single-node checks finished. sccheck: phys-schost-2: Explorer finished. sccheck: phys-schost-2: Starting single-node checks. sccheck: phys-schost-2: Single-node checks finished. sccheck: Starting multi-node checks. sccheck: Multi-node checks finished. sccheck: One or more checks failed. sccheck: The greatest severity of all check failures was 3 (HIGH). sccheck: Reports are in /var/cluster/sccheck/myReports. # # cat /var/cluster/sccheck/myReports/sccheck-results.suncluster.txt ... =================================================== = ANALYSIS DETAILS = =================================================== ------------------------------------ CHECK ID : 3065 SEVERITY : HIGH FAILURE : Global filesystem /etc/vfstab entries are not consistent across all Sun Cluster 3.x nodes. ANALYSIS : The global filesystem /etc/vfstab entries are not consistent across all nodes in this cluster. Analysis indicates: FileSystem '/global/phys-schost-1' is on 'phys-schost-1' but missing from 'phys-schost-2'. RECOMMEND: Ensure each node has the correct /etc/vfstab entry for the filesystem(s) in question. ... # |
sccheck(1M) 명령은 클러스터 파일 시스템 및 해당 전역 마운트 지점의 구성 오류에 대한 /etc/vfstab 파일을 검사하는 항목으로 구성되어 있습니다.
장치 또는 볼륨 관리 구성 요소에 영향을 주는 클러스터 구성을 변경한 후에 sccheck를 실행하십시오.
다음 예에서는 /global/schost-1 마운트 지점이 누락된 suncluster 클러스터의 phys-schost-2 노드를 보여 줍니다. /var/cluster/sccheck/myReports/ 출력 디렉토리로 보고서를 보냅니다.
# sccheck -v1 -h phys-schost-1,phys-schost-2 -o /var/cluster/sccheck/myReports sccheck: Requesting explorer data and node report from phys-schost-1. sccheck: Requesting explorer data and node report from phys-schost-2. sccheck: phys-schost-1: Explorer finished. sccheck: phys-schost-1: Starting single-node checks. sccheck: phys-schost-1: Single-node checks finished. sccheck: phys-schost-2: Explorer finished. sccheck: phys-schost-2: Starting single-node checks. sccheck: phys-schost-2: Single-node checks finished. sccheck: Starting multi-node checks. sccheck: Multi-node checks finished. sccheck: One or more checks failed. sccheck: The greatest severity of all check failures was 3 (HIGH). sccheck: Reports are in /var/cluster/sccheck/myReports. # # cat /var/cluster/sccheck/myReports/sccheck-results.suncluster.txt ... =================================================== = ANALYSIS DETAILS = =================================================== ------------------------------------ CHECK ID : 3065 SEVERITY : HIGH FAILURE : Global filesystem /etc/vfstab entries are not consistent across all Sun Cluster 3.x nodes. ANALYSIS : The global filesystem /etc/vfstab entries are not consistent across all nodes in this cluster. Analysis indicates: FileSystem '/global/phys-schost-1' is on 'phys-schost-1' but missing from 'phys-schost-2'. RECOMMEND: Ensure each node has the correct /etc/vfstab entry for the filesystem(s) in question. ... # # cat /var/cluster/sccheck/myReports/sccheck-results.phys-schost-1.txt ... =================================================== = ANALYSIS DETAILS = =================================================== ------------------------------------ CHECK ID : 1398 SEVERITY : HIGH FAILURE : An unsupported server is being used as a Sun Cluster 3.x node. ANALYSIS : This server may not been qualified to be used as a Sun Cluster 3.x node. Only servers that have been qualified with Sun Cluster 3.x are supported as Sun Cluster 3.x nodes. RECOMMEND: Because the list of supported servers is always being updated, check with your Sun Microsystems representative to get the latest information on what servers are currently supported and only use a server that is supported with Sun Cluster 3.x. ... # |
/var/cluster/logs/commandlog ASCII 텍스트 파일에는 클러스터에서 실행되는 선택된 Sun Cluster 명령이 기록되어 있습니다. 명령의 기록은 클러스터를 설정할 때 자동으로 시작되어 클러스터를 종료할 때 끝납니다. 명령은 클러스터 모드에서 켜지고 부트된 모든 노드에 로그온됩니다.
이 파일에 로그인 되지 않은 명령에는 클러스터의 구성 및 현재 상태를 표시하는 명령이 포함되어 있습니다.
파일에 로그인된 명령에는 클러스터의 현재 상태를 구성하는 명령이 포함되어 있습니다.
claccess
cldevice
cldevicegroup
clinterconnect
clnasdevice
clnode
clquorum
clreslogicalhostname
clresource
clresourcegroup
clresourcetype
clressharedaddress
clsetup
clsnmphost
clsnmpmib
clnsmpuser
cltelemetryattribute
cluster
scconf
scdidadm
scdpm
scgdevs
scrgadm
scsetup
scshutdown
scswitch
commandlog 파일의 기록에서 다음 요소가 나타납니다.
요일 및 시간 표시 방식
명령이 실행된 호스트 이름
명령의 프로세스 ID
명령을 실행한 사용자의 로그인 이름
모든 옵션 및 피연산자를 포함하여 사용자가 실행한 명령
명령 옵션은 commandlog 파일에서 따옴표로 표시되어 쉽게 지정할 수 있어 쉘에서 복사, 붙여넣기 및 실행이 용이합니다.
실행된 명령의 종료 상태
명령이 알 수 없는 결과로 비정상적으로 중단된 경우, Sun Cluster 소프트웨어는 commandlog 파일에서 종료 상태로 나타나지 않습니다.
기본적으로 commandlog 파일은 일주일에 한 번씩 저장됩니다. commandlog 파일에 대한 저장 정책을 변경하려면, 클러스터의 각 노드에서 crontab 명령을 사용하십시오. 자세한 내용은 crontab(1) 매뉴얼 페이지를 참조하십시오.
Sun Cluster 소프트웨어는 어떤 정해진 시간에서도 최대 8개의 사전 저장된 commandlog 파일을 각 클러스터 노드에 유지합니다. 현재 주간의 commandlog 파일 이름은 commandlog입니다. 가장 최근 주간의 파일 이름은 commandlog.0입니다. 가장 오래된 주간의 파일 이름은 commandlog.7입니다.
현재 주간의 commandlog 파일 항목을 한 번에 한 화면씩 봅니다.
# more /var/cluster/logs/commandlog |
다음은 more 명령에 의해 나타난 commandlog 파일의 내용을 보여주는 예입니다.
more -lines10 /var/cluster/logs/commandlog 11/11/2006 09:42:51 phys-schost-1 5222 root START - clsetup 11/11/2006 09:43:36 phys-schost-1 5758 root START - clrg add "app-sa-1" 11/11/2006 09:43:36 phys-schost-1 5758 root END 0 11/11/2006 09:43:36 phys-schost-1 5760 root START - clrg set -y "RG_description=Department Shared Address RG" "app-sa-1" 11/11/2006 09:43:37 phys-schost-1 5760 root END 0 11/11/2006 09:44:15 phys-schost-1 5810 root START - clrg online "app-sa-1" 11/11/2006 09:44:15 phys-schost-1 5810 root END 0 11/11/2006 09:44:19 phys-schost-1 5222 root END -20988320 12/02/2006 14:37:21 phys-schost-1 5542 jbloggs START - clrg -c -g "app-sa-1" -y "RG_description=Joe Bloggs Shared Address RG" 12/02/2006 14:37:22 phys-schost-1 5542 jbloggs END 0 |