Solaris OS용 Sun Cluster 시스템 관리 안내서

클러스터 관리 시작

표 1–2에서는 클러스터 관리를 위한 시작점을 제공합니다.

표 1–2 Sun Cluster 3.1 4/04 관리 도구

작업  

작업 방법 

참조 정보  

클러스터에 원격 로그인 

ccp 명령을 사용하여 CCP (Cluster Control Panel)를 실행하십시오. 그런 다음 cconsole(1M), crlogin(1M) 또는 ctelnet(1M) 아이콘 중 하나를 선택하십시오.

Sun Cluster에 원격으로 로그인하는 방법

대화식으로 클러스터 구성 

scsetup(1M) 유틸리티를 실행하십시오.

scsetup 유틸리티에 액세스하는 방법

Sun Cluster 릴리스 번호 및 버전 정보 표시 

-p 또는 -pv 옵션을 사용하여 scinstall(1M) 명령을 실행하십시오.

Sun Cluster 릴리스 및 버전 정보를 표시하는 방법

설치된 자원, 자원 그룹 및 자원 유형 표시 


주 –

scrgadm 명령을 실행할 때 자원 유형, 자원 그룹 및 자원 등록 정보의 이름은 대소문자를 구분합니다.


scrgadm(1M) -p 명령을 사용하십시오.

구성된 자원 유형, 자원 그룹 및 자원을 표시하는 방법

그래픽으로 클러스터 구성 요소 모니터 

SunPlex Manager 또는 Sun Management Center용 Sun Cluster 모듈(SPARC 기반 시스템의 Sun Cluster에서만 제공)을 사용합니다. 

SunPlex Manager 또는 Sun Management Center용 Sun Cluster 모듈 온라인 도움말  

그래픽으로 일부 클러스터 구성 요소 관리 

SunPlex Manager 또는 Sun Management Center용 Sun Cluster 모듈(SPARC 기반 시스템의 Sun Cluster에서만 제공)을 사용합니다. 

SunPlex Manager 또는 Sun Management Center용 Sun Cluster 모듈 온라인 도움말  

클러스터 구성 요소의 상태 확인 

scstat(1M) 명령을 사용하십시오.

클러스터 구성 요소의 상태를 확인하는 방법

공용 네트워크에서 IP Network Multipathing 그룹의 상태 확인 

-i 옵션을 사용하여 scstat(1M) 명령을 실행하십시오.

공용 네트워크의 상태를 확인하는 방법

클러스터 구성 보기 

scconf(1M) -p 명령을 사용하십시오.

클러스터 구성을 보는 방법

전역 마운트 지점 확인 

sccheck(1M) 명령을 사용하십시오.

기본 클러스터 구성을 검증하는 방법

Sun Cluster 시스템 메시지 보기 

/var/adm/messages 파일을 검사하십시오.

Solaris 9 System Administrator Collection에 포함된 System Administration Guide: Advanced Administration의 “Viewing System Messages”

Solstice DiskSuite의 상태 모니터 

metastat 명령을 사용하십시오.

Solstice DiskSuite/Solaris 볼륨 관리자 설명서 

Solaris 8을 실행하는 경우에 VERITAS Volume Manager의 상태 모니터 

vxstat 또는 vxva 명령을 사용하십시오.

VERITAS Volume Manager 설명서 

Solaris 9를 실행하는 경우에 Solaris 볼륨 관리자의 상태 모니터  

svmstat 명령을 사용하십시오.

Solaris Volume Manager Administration Guide

Sun Cluster에 원격으로 로그인하는 방법

CCP (Cluster Control Panel)에서는 cconsole(1M), crlogin(1M)ctelnet(1M) 도구를 위한 실행 패드를 제공합니다. 세 도구 모두 지정된 노드 세트에 대하여 여러 개의 창 연결을 시작합니다. 여러 창 연결은 지정된 각 노드에 대한 호스트 창과 하나의 공용 창으로 구성됩니다. 공용 창에 입력한 내용은 클러스터의 모든 노드에서 동시에 명령을 실행할 수 있도록 각 호스트 창에 전달됩니다. 자세한 내용은 ccp(1M)cconsole(1M) 설명서 페이지를 참조하십시오.

  1. CCP를 시작하기 전에 다음 사전 조건이 충족되었는지 확인합니다.

    • 관리 콘솔에 SUNWccon 패키지가 설치되어 있어야 합니다.

    • 관리 콘솔의 PATH 변수에 Sun Cluster 도구 디렉토리인 /opt/SUNWcluster/bin/usr/cluster/bin 경로가 포함되어야 합니다. $CLUSTER_HOME 환경 변수를 설정하여 다른 위치를 도구 디렉토리로 지정할 수 있습니다.

    • 단말기 집중 장치를 사용하는 경우에는 clusters 파일, serialports 파일 및 nsswitch.conf 파일을 구성하십시오. 이 파일은 /etc 파일 또는 NIS/NIS+ 데이터베이스가 될 수 있습니다. 자세한 내용은 clusters(4)serialports(4)를 참조하십시오.

  2. Sun Enterprise E10000 서버 플랫폼이 있는지 확인합니다.

    • 없으면 단계 3으로 이동하십시오.

    • 있으면 SSP (System Service Processor)에 로그인한 다음 netcon 명령을 사용하여 연결하십시오. 연결되면 Shift~@를 입력하여 콘솔 잠금을 해제하고 쓰기 권한을 받으십시오.

  3. CCP 실행 패드를 시작합니다.

    관리 콘솔에서 다음 명령을 입력하십시오.


    # ccp clustername
    

    CCP 실행 패드가 표시됩니다.

  4. 클러스터와 원격 세션을 시작하려면 CCP 실행 패드에서 cconsole, crlogin 또는 ctelnet 아이콘을 누릅니다.

이 단계에서 수행할 수 있는 작업

명령줄에서 cconsole, crlogin 또는 ctelnet 세션을 시작할 수도 있습니다.

scsetup 유틸리티에 액세스하는 방법

scsetup(1M) 유틸리티를 사용하면 클러스터에 대하여 쿼럼, 자원 그룹, 클러스터 전송, 개인 호스트 이름, 장치 그룹 및 새 노드 옵션을 대화식으로 구성할 수 있습니다.

  1. 클러스터의 노드에서 수퍼유저가 됩니다.

  2. scsetup 유틸리티를 실행합니다.


    # scsetup
    

    주 메뉴가 표시됩니다.

  3. 메뉴에서 구성을 선택합니다. 화면의 지시에 따라 작업을 완료하십시오.

    자세한 내용은 scsetup 온라인 도움말을 참조하십시오.

Sun Cluster 릴리스 및 버전 정보를 표시하는 방법

다음 절차를 수행하기 위해 수퍼유저로 로그인할 필요는 없습니다.

    Sun Cluster 패치 번호를 표시하십시오.

    Sun Cluster 갱신 릴리스는 기본 제품 패치 번호에 업데이트 버전을 추가하여 식별합니다.


    % showrev -p
    

    Sun Cluster 릴리스 번호 및 모든 Sun Cluster 패키지에 대한 버전 문자열을 표시하십시오.


    % scinstall -pv
    

예—Sun Cluster 릴리스 번호 표시

다음은 클러스터의 릴리스 번호를 표시하는 예입니다.


% showrev -p | grep 110648
Patch: 110648-05 Obsoletes:  Requires:  Incompatibles:  Packages: 

예—Sun Cluster 릴리스 및 버전 정보 표시

다음은 클러스터의 릴리스 정보 및 모든 패키지의 버전 정보를 표시하는 예입니다.


% scinstall -pv
SunCluster 3.1
SUNWscr:       3.1.0,REV=2000.10.01.01.00
SUNWscdev:     3.1.0,REV=2000.10.01.01.00
SUNWscu:       3.1.0,REV=2000.10.01.01.00
SUNWscman:     3.1.0,REV=2000.10.01.01.00
SUNWscsal:     3.1.0,REV=2000.10.01.01.00
SUNWscsam:     3.1.0,REV=2000.10.01.01.00
SUNWscvm:      3.1.0,REV=2000.10.01.01.00
SUNWmdm:       4.2.1,REV=2000.08.08.10.01

구성된 자원 유형, 자원 그룹 및 자원을 표시하는 방법

SunPlex Manager GUI를 사용하여 이 절차를 완료할 수도 있습니다. 제 10 장을 참조하십시오. 자세한 내용은 SunPlex Manager 온라인 도움말을 참조하십시오.

다음 절차를 수행하기 위해 수퍼유저로 로그인할 필요는 없습니다.

    클러스터에 구성된 자원 유형, 자원 그룹 및 자원을 표시하십시오.


    % scrgadm -p
    

예—구성된 자원 유형, 자원 그룹 및 자원 표시

다음 예에서는 클러스터 schost에 구성된 자원 유형(RT Name), 자원 그룹(RG Name) 및 자원(RS Name)을 보여 줍니다.


% scrgadm -p
RT Name: SUNW.SharedAddress
  RT Description: HA Shared Address Resource Type 
RT Name: SUNW.LogicalHostname
  RT Description: Logical Hostname Resource Type 
RG Name: schost-sa-1 
  RG Description:  
    RS Name: schost-1
      RS Description: 
      RS Type: SUNW.SharedAddress
      RS Resource Group: schost-sa-1
RG Name: schost-lh-1 
  RG Description:  
    RS Name: schost-3
      RS Description: 
      RS Type: SUNW.LogicalHostname
      RS Resource Group: schost-lh-1

클러스터 구성 요소의 상태를 확인하는 방법

SunPlex Manager GUI를 사용하여 이 절차를 완료할 수도 있습니다. 자세한 내용은 SunPlex Manager 온라인 도움말을 참조하십시오.

다음 절차를 수행하기 위해 수퍼유저로 로그인할 필요는 없습니다.

    클러스터 구성 요소의 상태를 확인하십시오.


    % scstat -p
    

예—클러스터 구성 요소의 상태 확인

다음은 scstat(1M) 명령을 실행했을 때 반환되는 클러스터 구성 요소에 대한 상태 정보의 예입니다.


% scstat -p
-- Cluster Nodes --
 
                    Node name           Status
                    ---------           ------
  Cluster node:     phys-schost-1      Online
  Cluster node:     phys-schost-2      Online
  Cluster node:     phys-schost-3      Online
  Cluster node:     phys-schost-4      Online
 
------------------------------------------------------------------
 
-- Cluster Transport Paths --
 
                    Endpoint            Endpoint            Status
                    --------            --------            ------
  Transport path:   phys-schost-1:qfe1 phys-schost-4:qfe1 Path online
  Transport path:   phys-schost-1:hme1 phys-schost-4:hme1 Path online
...
 
------------------------------------------------------------------
 
-- Quorum Summary --
 
  Quorum votes possible:      6
  Quorum votes needed:        4
  Quorum votes present:       6
 
-- Quorum Votes by Node --
 
                    Node Name           Present Possible Status
                    ---------           ------- -------- ------
  Node votes:       phys-schost-1      1        1       Online
  Node votes:       phys-schost-2      1        1       Online
...
 
-- Quorum Votes by Device --
 
                    Device Name         Present Possible Status 
                    -----------         ------- -------- ------ 
  Device votes:     /dev/did/rdsk/d2s2  1        1       Online 
  Device votes:     /dev/did/rdsk/d8s2  1        1       Online 
...
 
-- Device Group Servers --
 
                         Device Group        Primary             Secondary
                         ------------        -------             ---------
  Device group servers:  rmt/1               -                   -
  Device group servers:  rmt/2               -                   -
  Device group servers:  schost-1           phys-schost-2      phys-schost-1
  Device group servers:  schost-3           -                   -
 
-- Device Group Status --
 
                              Device Group        Status              
                              ------------        ------              
  Device group status:        rmt/1               Offline
  Device group status:        rmt/2               Offline
  Device group status:        schost-1            Online
  Device group status:        schost-3            Offline
 
------------------------------------------------------------------
 
-- Resource Groups and Resources --
 
            Group Name          Resources
            ----------          ---------
 Resources: test-rg             test_1
 Resources: real-property-rg    -
 Resources: failover-rg         -
 Resources: descript-rg-1       -
...
 
-- Resource Groups --
 
            Group Name          Node Name           State
            ----------          ---------           -----
     Group: test-rg             phys-schost-1      Offline
     Group: test-rg             phys-schost-2      Offline
...
 
-- Resources --
 
            Resource Name       Node Name           State     Status Message
            -------------       ---------           -----     --------------
  Resource: test_1              phys-schost-1      Offline   Offline
  Resource: test_1              phys-schost-2      Offline   Offline
 
-----------------------------------------------------------------
 
-- IPMP Groups --
 
              Node Name         Group   	 Status         Adapter   Status
              ---------         -----   	 ------         -------   ------
  IPMP Group: phys-schost-1     sc_ipmp0   Online         qfe1      Online

  IPMP Group: phys-schost-2     sc_ipmp0   Online         qfe1      Online

------------------------------------------------------------------
 

공용 네트워크의 상태를 확인하는 방법

SunPlex Manager GUI를 사용하여 이 절차를 완료할 수도 있습니다. 자세한 내용은 SunPlex Manager 온라인 도움말을 참조하십시오.

다음 절차를 수행하기 위해 수퍼유저로 로그인할 필요는 없습니다.

IP Network Multipathing 그룹의 상태를 확인하려면 scstat(1M) 명령을 사용하십시오.

  1. 클러스터 구성 요소의 상태를 확인하십시오.


    % scstat -i
    

예—공용 네트워크 상태 확인

다음은 scstat -i 명령을 실행했을 때 반환되는 클러스터 구성 요소에 대한 상태 정보의 예입니다.


% scstat -i
-----------------------------------------------------------------
 
-- IPMP Groups --
 
              Node Name         Group   	 Status         Adapter   Status
              ---------         -----   	 ------         -------   ------
  IPMP Group: phys-schost-1     sc_ipmp1 	 Online         qfe2      Online

  IPMP Group: phys-schost-1     sc_ipmp0 	 Online         qfe1      Online

  IPMP Group: phys-schost-2     sc_ipmp1 	 Online         qfe2      Online

  IPMP Group: phys-schost-2     sc_ipmp0 	 Online         qfe1      Online

------------------------------------------------------------------
 

클러스터 구성을 보는 방법

SunPlex Manager GUI를 사용하여 이 절차를 완료할 수도 있습니다. 자세한 내용은 SunPlex Manager 온라인 도움말을 참조하십시오.

다음 절차를 수행하기 위해 수퍼유저로 로그인할 필요는 없습니다.

    클러스터 구성을 보십시오.


    % scconf -p
    

    scconf 명령을 사용하여 자세한 정보를 표시하려면 여러 가지 옵션을 사용하십시오. 자세한 내용은 scconf(1M) 설명서 페이지를 참조하십시오.

예—클러스터 구성 보기

다음은 클러스터 구성을 표시한 예입니다.


% scconf -p
Cluster name:                       cluster-1
Cluster ID:                         0x3908EE1C
Cluster install mode:               disabled
Cluster private net:                172.16.0.0
Cluster private netmask:            255.255.0.0
Cluster new node authentication:    unix
Cluster new node list:              <NULL - Allow any node>
Cluster nodes:                      phys-schost-1 phys-schost-2 phys-schost-3
phys-schost-4
Cluster node name:                                 phys-schost-1
  Node ID:                                         1
  Node enabled:                                    yes
  Node private hostname:                           clusternode1-priv
  Node quorum vote count:                          1
  Node reservation key:                            0x3908EE1C00000001
  Node transport adapters:                         hme1 qfe1 qfe2
 
Node transport adapter:                          hme1
    Adapter enabled:                               yes
    Adapter transport type:                        dlpi
    Adapter property:                              device_name=hme
    Adapter property:                              device_instance=1
    Adapter property:                              dlpi_heartbeat_timeout=10000
...
Cluster transport junctions:                       hub0 hub1 hub2
 
Cluster transport junction:                        hub0
  Junction enabled:                                yes
  Junction type:                                   switch
  Junction port names:                             1 2 3 4
...
Junction port:                                   1
    Port enabled:                                  yes
 
Junction port:                                   2
    Port enabled:                                  yes
...
Cluster transport cables
                    Endpoint            Endpoint        State
                    --------            --------        -----
  Transport cable:  phys-schost-1:hme1@0 hub0@1        Enabled
  Transport cable:  phys-schost-1:qfe1@0 hub1@1        Enabled
  Transport cable:  phys-schost-1:qfe2@0 hub2@1        Enabled
  Transport cable:  phys-schost-2:hme1@0 hub0@2        Enabled
...
Quorum devices:                                    d2 d8
 
Quorum device name:                                d2
  Quorum device votes:                             1
  Quorum device enabled:                           yes
  Quorum device name:                              /dev/did/rdsk/d2s2
  Quorum device hosts (enabled):                   phys-schost-1
 phys-schost-2
  Quorum device hosts (disabled): 
...
Device group name:                                 schost-3
  Device group type:                               SVM
  Device group failback enabled:                   no
  Device group node list:                          phys-schost-3, phys-schost-4
  Diskset name:                                    schost-3

기본 클러스터 구성을 검증하는 방법

sccheck(1M) 명령은 일련의 검사를 실행하여 클러스터가 제대로 작동하는 데 필요한 기본 구성을 검증합니다. 모든 검사가 성공하면 sccheck는 쉘 프롬프트로 돌아갑니다. 검사가 실패하면 sccheck는 지정된 출력 디렉토리 또는 기본 출력 디렉토리에 보고서를 생성합니다. 둘 이상의 노드에 대해 sccheck를 실행한 경우 sccheck에서 각 노드에 대한 보고서와 복수 노드 검사에 대한 보고서를 생성합니다.

sccheck 명령은 데이터 수집 및 분석의 두 단계로 실행됩니다. 시스템 구성에 따라 데이터 수집은 시간이 많이 걸릴 수 있습니다. -v1 플래그와 함께 세부 정보 표시 모드에서 sccheck를 호출하여 진행 메시지를 인쇄하거나, - v2 플래그를 사용하여 특히 데이터 수집 중에 더 자세한 진행 메시지를 인쇄할 수 있는 고급 세부 정보 표시 모드로 sccheck를 실행할 수 있습니다.


주 –

장치, 볼륨 관리 구성 요소 또는 Sun Cluster 구성을 변경할 수 있는 관리 절차를 수행한 후에는 sccheck 명령을 실행하십시오.


  1. 클러스터의 노드에서 수퍼유저가 됩니다.


    % su
    
  2. 클러스터 구성을 확인합니다.


     # sccheck
    

예—모든 검사를 통과한 상태에서 클러스터 구성 검사

다음 예에서는 모든 검사를 통과한 phys-schost-1phys-schost-2 노드에 대해 세부 정보 표시 모드로 실행되는 sccheck를 보여 줍니다.


# sccheck -v1 -h phys-schost-1,phys-schost-2
sccheck: Requesting explorer data and node report from phys-schost-1.
sccheck: Requesting explorer data and node report from phys-schost-2.
sccheck: phys-schost-1: Explorer finished.
sccheck: phys-schost-1: Starting single-node checks.
sccheck: phys-schost-1: Single-node checks finished.
sccheck: phys-schost-2: Explorer finished.
sccheck: phys-schost-2: Starting single-node checks.
sccheck: phys-schost-2: Single-node checks finished.
sccheck: Starting multi-node checks.
sccheck: Multi-node checks finished
# 

예—실패한 검사가 있는 상태에서 클러스터 구성 검사

다음 예에서는 /global/phys-schost-1 마운트 지점이 누락된 suncluster 클러스터의 phys-schost-2 노드를 보여 줍니다. /var/cluster/sccheck/myReports/ 출력 디렉토리에 보고서가 생성됩니다.


# sccheck -v1 -h phys-schost-1,phys-schost-2 -o /var/cluster/sccheck/myReports
sccheck: Requesting explorer data and node report from phys-schost-1.
sccheck: Requesting explorer data and node report from phys-schost-2.
sccheck: phys-schost-1: Explorer finished.
sccheck: phys-schost-1: Starting single-node checks.
sccheck: phys-schost-1: Single-node checks finished.
sccheck: phys-schost-2: Explorer finished.
sccheck: phys-schost-2: Starting single-node checks.
sccheck: phys-schost-2: Single-node checks finished.
sccheck: Starting multi-node checks.
sccheck: Multi-node checks finished.
sccheck: One or more checks failed.
sccheck: The greatest severity of all check failures was 3 (HIGH).
sccheck: Reports are in /var/cluster/sccheck/myReports.
# 
# cat /var/cluster/sccheck/myReports/sccheck-results.suncluster.txt
...
===================================================
= ANALYSIS DETAILS =
===================================================
------------------------------------
CHECK ID : 3065
SEVERITY : HIGH
FAILURE  : Global filesystem /etc/vfstab entries are not consistent across 
all Sun Cluster 3.x nodes.
ANALYSIS : The global filesystem /etc/vfstab entries are not consistent across 
all nodes in this cluster.
Analysis indicates:
FileSystem '/global/phys-schost-1' is on 'phys-schost-1' but missing from 'phys-schost-2'.
RECOMMEND: Ensure each node has the correct /etc/vfstab entry for the 
filesystem(s) in question.
...
 #

전역 마운트 지점을 확인하는 방법

sccheck(1M) 명령에는 클러스터 파일 시스템과 해당 전역 마운트 지점을 사용하여 /etc/vfstab 파일의 구성 오류를 검사하는 검사가 포함됩니다.


주 –

장치 또는 볼륨 관리 구성 요소에 영향을 주는 클러스터 구성을 변경한 후에 sccheck를 실행하십시오.


  1. 클러스터의 노드에서 수퍼유저가 됩니다.


    % su
    
  2. 클러스터 구성을 확인합니다.


     # sccheck
    

예—전역 마운트 지점 확인

다음 예에서는 /global/schost-1 마운트 지점이 누락된 suncluster 클러스터의 phys-schost-2 노드를 보여 줍니다. 보고서는 출력 디렉토리 /var/cluster/sccheck/myReports/로 보내지는 중입니다.


# sccheck -v1 -h phys-schost-1,phys-schost-2 -o /var/cluster/sccheck/myReports
sccheck: Requesting explorer data and node report from phys-schost-1.
sccheck: Requesting explorer data and node report from phys-schost-2.
sccheck: phys-schost-1: Explorer finished.
sccheck: phys-schost-1: Starting single-node checks.
sccheck: phys-schost-1: Single-node checks finished.
sccheck: phys-schost-2: Explorer finished.
sccheck: phys-schost-2: Starting single-node checks.
sccheck: phys-schost-2: Single-node checks finished.
sccheck: Starting multi-node checks.
sccheck: Multi-node checks finished.
sccheck: One or more checks failed.
sccheck: The greatest severity of all check failures was 3 (HIGH).
sccheck: Reports are in /var/cluster/sccheck/myReports.
# 
# cat /var/cluster/sccheck/myReports/sccheck-results.suncluster.txt
...
===================================================
= ANALYSIS DETAILS =
===================================================
------------------------------------
CHECK ID : 3065
SEVERITY : HIGH
FAILURE  : Global filesystem /etc/vfstab entries are not consistent across 
all Sun Cluster 3.x nodes.
ANALYSIS : The global filesystem /etc/vfstab entries are not consistent across 
all nodes in this cluster.
Analysis indicates:
FileSystem '/global/phys-schost-1' is on 'phys-schost-1' but missing from 'phys-schost-2'.
RECOMMEND: Ensure each node has the correct /etc/vfstab entry for the 
filesystem(s) in question.
...
#
# cat /var/cluster/sccheck/myReports/sccheck-results.phys-schost-1.txt
...
===================================================
= ANALYSIS DETAILS =
===================================================
------------------------------------
CHECK ID : 1398
SEVERITY : HIGH
FAILURE  : An unsupported server is being used as a Sun Cluster 3.x node.
ANALYSIS : This server may not been qualified to be used as a Sun Cluster 3.x node.  
Only servers that have been qualified with Sun Cluster 3.x are supported as 
Sun Cluster 3.x nodes.
RECOMMEND: Because the list of supported servers is always being updated, check with 
your Sun Microsystems representative to get the latest information on what servers 
are currently supported and only use a server that is supported with Sun Cluster 3.x.
...
#