Solaris OS용 Sun Cluster 시스템 관리 안내서

1장 Sun Cluster 관리 소개

이 장에서는 Sun Cluster 관리 도구를 사용하는 절차와 클러스터를 관리하기 위한 준비 방법에 대해 설명합니다.

Sun Cluster 관리 개요

가용성이 높은 Sun Cluster 환경에서는 최종 사용자가 중요한 응용 프로그램을 중단 없이 사용할 수 있습니다. 시스템 관리자의 임무는 Sun Cluster가 안정적으로 작동하도록 하는 것입니다.

관리 작업을 시작하려면 먼저 Solaris OS용 Sun Cluster 소프트웨어 설치 안내서Solaris OS용 Sun Cluster 개념 안내서에 있는 계획 정보를 잘 알아야 합니다. Sun Cluster 관리는 다음 설명서에서 설명하는 작업으로 구성됩니다.

대부분의 경우 클러스터가 작동할 때 클러스터 작업에 대한 영향을 하나의 노드로 제한하고 Sun Cluster 관리 작업을 수행할 수 있습니다. 절차를 수행하기 전에 전체 클러스터를 종료해야 하는 경우에는 업무 시간 이후에 시스템에 미치는 영향이 가장 적은 시간으로 종료 시간을 계획하십시오. 클러스터나 클러스터 노드를 종료할 경우에는 사용자에게 미리 알리십시오.

관리 도구

GUI를 사용하거나 명령줄을 사용하여 Sun Cluster에 대한 관리 작업을 수행할 수 있습니다. 다음 절에서는 GUI 및 명령줄 도구에 대하여 개략적으로 설명합니다.

그래픽 사용자 인터페이스

Sun Cluster에서는 클러스터에서 다양한 관리 작업을 수행하기 위해 사용할 수 있는 그래픽 사용자 인터페이스(GUI) 도구를 지원합니다. 이 GUI 도구는 SunPlexTM Manager이며, SPARC 기반 시스템에서 Sun Cluster를 사용할 경우에는 Sun Management Center입니다. SunPlex Manager 및 Sun Management Center를 구성하는 방법과 절차에 대한 내용은 제 10 장을 참조하십시오. 이 도구를 사용하는 방법에 대한 특정 내용은 각 GUI에 대한 온라인 도움말을 참조하십시오.

명령줄 인터페이스

scsetup(1M) 유틸리티를 통해 대부분의 Sun Cluster 관리 작업을 대화식으로 수행할 수 있습니다. 이 안내서에서 scsetup을 사용할 수 있는 경우에는 이 유틸리티를 사용하여 관리 절차를 설명합니다.

scsetup 유틸리티를 사용하면 다음과 같은 기본 메뉴 항목을 관리할 수 있습니다.

scsetup 유틸리티를 사용하면 다음과 같은 자원 그룹 메뉴 항목을 관리할 수 있습니다.

표 1-1에 Sun Cluster를 관리하는 데 사용하는 다른 명령이 있습니다. 자세한 내용은 설명서 페이지를 참조하십시오.

표 1–1 Sun Cluster 명령줄 인터페이스 명령

명령  

설명 

ccp(1M)

클러스터에 대한 원격 콘솔 액세스를 시작합니다. 

if_mpadm(1M)

IP Network Multipathing 그룹에서 한 어댑터로부터 다른 어댑터로 IP 주소를 전환하는 데 사용합니다. 

sccheck(1M)

클러스터의 기본 구성이 작동하도록 Sun Cluster 구성을 확인하여 검증합니다.  

scconf(1M)

Sun Cluster 구성을 업데이트합니다. -p 옵션을 사용하면 클러스터 구성 정보가 표시됩니다.

scdidadm(1M)

장치 ID 구성에 대한 관리 액세스를 제공합니다. 

scgdevs(1M)

전역 장치 이름 공간 관리 스크립트를 실행합니다. 

scinstall(1M)

Sun Cluster 소프트웨어를 설치하고 구성합니다. 이 명령은 대화식 또는 비대화식으로 실행할 수 있습니다. -p 옵션을 사용하면 Sun Cluster 소프트웨어 릴리스 및 패키지 버전 정보가 표시됩니다.

scrgadm(1M)

자원 유형 등록, 자원 그룹 작성 및 자원 그룹 내의 자원 활성화를 관리합니다. -p 옵션을 사용하면 설치된 자원, 자원 그룹 및 자원 유형에 대한 정보가 표시됩니다.


주 –

scrgadm 명령을 실행할 때 자원 유형, 자원 그룹 및 자원 등록 정보의 이름은 대소문자를 구분합니다.


scsetup(1M)

scconf 명령과 여러 가지 옵션이 포함된 대화식 클러스터 구성 유틸리티를 실행합니다.

scshutdown(1M)

전체 클러스터를 종료합니다. 

scstat(1M)

클러스터 상태에 대한 스냅샷을 제공합니다.  

scswitch(1M)

자원 그룹 및 디스크 장치 그룹에 대한 상태 및 노드 소유권에 영향을 주는 변경을 수행합니다. 

이러한 명령 외에 Sun Cluster의 볼륨 관리자 부분을 관리하는 명령을 사용합니다. 이러한 명령은 클러스터에서 사용하는 볼륨 관리자, 즉 Solstice DiskSuiteTM, VERITAS Volume Manager 또는 Solaris 볼륨 관리자TM에 따라 달라집니다.

클러스터를 관리하기 위한 준비

이 절에서는 클러스터를 관리하기 위한 준비 작업에 대하여 설명합니다.

Sun Cluster 하드웨어 구성 문서화

Sun Cluster를 구성하는 규모에 따라 사이트에 맞는 하드웨어 구성을 문서화하십시오. 클러스터를 변경하거나 업그레이드할 때 문서화한 하드웨어 구성을 참조하면 관리 작업을 줄일 수 있습니다. 여러 클러스터 구성 요소 사이의 케이블 및 연결에 이름표를 붙이면 더 쉽게 관리할 수 있습니다.

서비스 공급자에서 클러스터에 대한 서비스를 제공할 때 소요 시간을 줄일 수 있도록 클러스터의 초기 구성과 이후의 변경 사항에 대한 기록을 유지하십시오.

관리 콘솔 사용

관리 콘솔이라고 하는 전용 SPARC 워크스테이션을 사용하여 활성 클러스터를 관리할 수 있습니다. 일반적으로 관리 콘솔에 CCP (Cluster Control Panel) 및 GUI 도구를 설치하여 실행합니다. CCP에 대한 자세한 내용은 Sun Cluster에 원격으로 로그인하는 방법를 참조하십시오. Sun Management Center용 Cluster Control Panel 모듈 및 SunPlex Manager GUI 도구 설치에 대한 자세한 내용은 Solaris OS용 Sun Cluster 소프트웨어 설치 안내서를 참조하십시오.

관리 콘솔은 클러스터 노드가 아닙니다. 관리 콘솔은 공용 네트워크 또는 네트워크 기반 단말기 집중 장치를 통해 클러스터 노드에 원격 액세스하는 데 사용됩니다.

SPARC 클러스터에 Sun EnterpriseTM 10000 서버가 구성되어 있으면 관리 콘솔로부터 SSP (System Service Processor)에 로그인해야 합니다. netcon(1M) 명령을 사용하여 연결합니다. netcon이 Sun Enterprise 10000 도메인과 연결하는 기본적인 방법은 네트워크 인터페이스를 통하는 것입니다. 네트워크에 액세스할 수 없으면 -f 옵션을 설정하여 “독립” 모드로 netcon 명령을 사용할 수 있습니다. 정상적인 netcon 세션 중에 ~*를 전송할 수도 있습니다. 이전 솔루션에는 네트워크에 도달할 수 없을 경우에 직렬 인터페이스로 전환하는 옵션이 있습니다.

Sun Cluster에는 전용 관리 콘솔이 필요 없지만 콘솔을 사용하면 다음과 같은 이점이 있습니다.

클러스터 백업

정기적으로 클러스터를 백업하십시오. Sun Cluster가 저장 장치에 데이터 사본을 미러하여 HA 환경을 제공하지만 이것으로 정기적인 백업을 대신할 수는 없습니다. Sun Cluster는 장애가 여러 번 발생한 후에도 작동할 수 있지만 사용자나 프로그램 오류 또는 심각한 장애로부터 보호할 수는 없습니다. 따라서 치명적인 데이터 손실로부터 보호할 백업 절차가 있어야 합니다.

백업할 때 다음 정보를 포함해야 합니다.

클러스터 관리 시작

표 1–2에서는 클러스터 관리를 위한 시작점을 제공합니다.

표 1–2 Sun Cluster 3.1 4/04 관리 도구

작업  

작업 방법 

참조 정보  

클러스터에 원격 로그인 

ccp 명령을 사용하여 CCP (Cluster Control Panel)를 실행하십시오. 그런 다음 cconsole(1M), crlogin(1M) 또는 ctelnet(1M) 아이콘 중 하나를 선택하십시오.

Sun Cluster에 원격으로 로그인하는 방법

대화식으로 클러스터 구성 

scsetup(1M) 유틸리티를 실행하십시오.

scsetup 유틸리티에 액세스하는 방법

Sun Cluster 릴리스 번호 및 버전 정보 표시 

-p 또는 -pv 옵션을 사용하여 scinstall(1M) 명령을 실행하십시오.

Sun Cluster 릴리스 및 버전 정보를 표시하는 방법

설치된 자원, 자원 그룹 및 자원 유형 표시 


주 –

scrgadm 명령을 실행할 때 자원 유형, 자원 그룹 및 자원 등록 정보의 이름은 대소문자를 구분합니다.


scrgadm(1M) -p 명령을 사용하십시오.

구성된 자원 유형, 자원 그룹 및 자원을 표시하는 방법

그래픽으로 클러스터 구성 요소 모니터 

SunPlex Manager 또는 Sun Management Center용 Sun Cluster 모듈(SPARC 기반 시스템의 Sun Cluster에서만 제공)을 사용합니다. 

SunPlex Manager 또는 Sun Management Center용 Sun Cluster 모듈 온라인 도움말  

그래픽으로 일부 클러스터 구성 요소 관리 

SunPlex Manager 또는 Sun Management Center용 Sun Cluster 모듈(SPARC 기반 시스템의 Sun Cluster에서만 제공)을 사용합니다. 

SunPlex Manager 또는 Sun Management Center용 Sun Cluster 모듈 온라인 도움말  

클러스터 구성 요소의 상태 확인 

scstat(1M) 명령을 사용하십시오.

클러스터 구성 요소의 상태를 확인하는 방법

공용 네트워크에서 IP Network Multipathing 그룹의 상태 확인 

-i 옵션을 사용하여 scstat(1M) 명령을 실행하십시오.

공용 네트워크의 상태를 확인하는 방법

클러스터 구성 보기 

scconf(1M) -p 명령을 사용하십시오.

클러스터 구성을 보는 방법

전역 마운트 지점 확인 

sccheck(1M) 명령을 사용하십시오.

기본 클러스터 구성을 검증하는 방법

Sun Cluster 시스템 메시지 보기 

/var/adm/messages 파일을 검사하십시오.

Solaris 9 System Administrator Collection에 포함된 System Administration Guide: Advanced Administration의 “Viewing System Messages”

Solstice DiskSuite의 상태 모니터 

metastat 명령을 사용하십시오.

Solstice DiskSuite/Solaris 볼륨 관리자 설명서 

Solaris 8을 실행하는 경우에 VERITAS Volume Manager의 상태 모니터 

vxstat 또는 vxva 명령을 사용하십시오.

VERITAS Volume Manager 설명서 

Solaris 9를 실행하는 경우에 Solaris 볼륨 관리자의 상태 모니터  

svmstat 명령을 사용하십시오.

Solaris Volume Manager Administration Guide

Sun Cluster에 원격으로 로그인하는 방법

CCP (Cluster Control Panel)에서는 cconsole(1M), crlogin(1M)ctelnet(1M) 도구를 위한 실행 패드를 제공합니다. 세 도구 모두 지정된 노드 세트에 대하여 여러 개의 창 연결을 시작합니다. 여러 창 연결은 지정된 각 노드에 대한 호스트 창과 하나의 공용 창으로 구성됩니다. 공용 창에 입력한 내용은 클러스터의 모든 노드에서 동시에 명령을 실행할 수 있도록 각 호스트 창에 전달됩니다. 자세한 내용은 ccp(1M)cconsole(1M) 설명서 페이지를 참조하십시오.

  1. CCP를 시작하기 전에 다음 사전 조건이 충족되었는지 확인합니다.

    • 관리 콘솔에 SUNWccon 패키지가 설치되어 있어야 합니다.

    • 관리 콘솔의 PATH 변수에 Sun Cluster 도구 디렉토리인 /opt/SUNWcluster/bin/usr/cluster/bin 경로가 포함되어야 합니다. $CLUSTER_HOME 환경 변수를 설정하여 다른 위치를 도구 디렉토리로 지정할 수 있습니다.

    • 단말기 집중 장치를 사용하는 경우에는 clusters 파일, serialports 파일 및 nsswitch.conf 파일을 구성하십시오. 이 파일은 /etc 파일 또는 NIS/NIS+ 데이터베이스가 될 수 있습니다. 자세한 내용은 clusters(4)serialports(4)를 참조하십시오.

  2. Sun Enterprise E10000 서버 플랫폼이 있는지 확인합니다.

    • 없으면 단계 3으로 이동하십시오.

    • 있으면 SSP (System Service Processor)에 로그인한 다음 netcon 명령을 사용하여 연결하십시오. 연결되면 Shift~@를 입력하여 콘솔 잠금을 해제하고 쓰기 권한을 받으십시오.

  3. CCP 실행 패드를 시작합니다.

    관리 콘솔에서 다음 명령을 입력하십시오.


    # ccp clustername
    

    CCP 실행 패드가 표시됩니다.

  4. 클러스터와 원격 세션을 시작하려면 CCP 실행 패드에서 cconsole, crlogin 또는 ctelnet 아이콘을 누릅니다.

이 단계에서 수행할 수 있는 작업

명령줄에서 cconsole, crlogin 또는 ctelnet 세션을 시작할 수도 있습니다.

scsetup 유틸리티에 액세스하는 방법

scsetup(1M) 유틸리티를 사용하면 클러스터에 대하여 쿼럼, 자원 그룹, 클러스터 전송, 개인 호스트 이름, 장치 그룹 및 새 노드 옵션을 대화식으로 구성할 수 있습니다.

  1. 클러스터의 노드에서 수퍼유저가 됩니다.

  2. scsetup 유틸리티를 실행합니다.


    # scsetup
    

    주 메뉴가 표시됩니다.

  3. 메뉴에서 구성을 선택합니다. 화면의 지시에 따라 작업을 완료하십시오.

    자세한 내용은 scsetup 온라인 도움말을 참조하십시오.

Sun Cluster 릴리스 및 버전 정보를 표시하는 방법

다음 절차를 수행하기 위해 수퍼유저로 로그인할 필요는 없습니다.

    Sun Cluster 패치 번호를 표시하십시오.

    Sun Cluster 갱신 릴리스는 기본 제품 패치 번호에 업데이트 버전을 추가하여 식별합니다.


    % showrev -p
    

    Sun Cluster 릴리스 번호 및 모든 Sun Cluster 패키지에 대한 버전 문자열을 표시하십시오.


    % scinstall -pv
    

예—Sun Cluster 릴리스 번호 표시

다음은 클러스터의 릴리스 번호를 표시하는 예입니다.


% showrev -p | grep 110648
Patch: 110648-05 Obsoletes:  Requires:  Incompatibles:  Packages: 

예—Sun Cluster 릴리스 및 버전 정보 표시

다음은 클러스터의 릴리스 정보 및 모든 패키지의 버전 정보를 표시하는 예입니다.


% scinstall -pv
SunCluster 3.1
SUNWscr:       3.1.0,REV=2000.10.01.01.00
SUNWscdev:     3.1.0,REV=2000.10.01.01.00
SUNWscu:       3.1.0,REV=2000.10.01.01.00
SUNWscman:     3.1.0,REV=2000.10.01.01.00
SUNWscsal:     3.1.0,REV=2000.10.01.01.00
SUNWscsam:     3.1.0,REV=2000.10.01.01.00
SUNWscvm:      3.1.0,REV=2000.10.01.01.00
SUNWmdm:       4.2.1,REV=2000.08.08.10.01

구성된 자원 유형, 자원 그룹 및 자원을 표시하는 방법

SunPlex Manager GUI를 사용하여 이 절차를 완료할 수도 있습니다. 제 10 장을 참조하십시오. 자세한 내용은 SunPlex Manager 온라인 도움말을 참조하십시오.

다음 절차를 수행하기 위해 수퍼유저로 로그인할 필요는 없습니다.

    클러스터에 구성된 자원 유형, 자원 그룹 및 자원을 표시하십시오.


    % scrgadm -p
    

예—구성된 자원 유형, 자원 그룹 및 자원 표시

다음 예에서는 클러스터 schost에 구성된 자원 유형(RT Name), 자원 그룹(RG Name) 및 자원(RS Name)을 보여 줍니다.


% scrgadm -p
RT Name: SUNW.SharedAddress
  RT Description: HA Shared Address Resource Type 
RT Name: SUNW.LogicalHostname
  RT Description: Logical Hostname Resource Type 
RG Name: schost-sa-1 
  RG Description:  
    RS Name: schost-1
      RS Description: 
      RS Type: SUNW.SharedAddress
      RS Resource Group: schost-sa-1
RG Name: schost-lh-1 
  RG Description:  
    RS Name: schost-3
      RS Description: 
      RS Type: SUNW.LogicalHostname
      RS Resource Group: schost-lh-1

클러스터 구성 요소의 상태를 확인하는 방법

SunPlex Manager GUI를 사용하여 이 절차를 완료할 수도 있습니다. 자세한 내용은 SunPlex Manager 온라인 도움말을 참조하십시오.

다음 절차를 수행하기 위해 수퍼유저로 로그인할 필요는 없습니다.

    클러스터 구성 요소의 상태를 확인하십시오.


    % scstat -p
    

예—클러스터 구성 요소의 상태 확인

다음은 scstat(1M) 명령을 실행했을 때 반환되는 클러스터 구성 요소에 대한 상태 정보의 예입니다.


% scstat -p
-- Cluster Nodes --
 
                    Node name           Status
                    ---------           ------
  Cluster node:     phys-schost-1      Online
  Cluster node:     phys-schost-2      Online
  Cluster node:     phys-schost-3      Online
  Cluster node:     phys-schost-4      Online
 
------------------------------------------------------------------
 
-- Cluster Transport Paths --
 
                    Endpoint            Endpoint            Status
                    --------            --------            ------
  Transport path:   phys-schost-1:qfe1 phys-schost-4:qfe1 Path online
  Transport path:   phys-schost-1:hme1 phys-schost-4:hme1 Path online
...
 
------------------------------------------------------------------
 
-- Quorum Summary --
 
  Quorum votes possible:      6
  Quorum votes needed:        4
  Quorum votes present:       6
 
-- Quorum Votes by Node --
 
                    Node Name           Present Possible Status
                    ---------           ------- -------- ------
  Node votes:       phys-schost-1      1        1       Online
  Node votes:       phys-schost-2      1        1       Online
...
 
-- Quorum Votes by Device --
 
                    Device Name         Present Possible Status 
                    -----------         ------- -------- ------ 
  Device votes:     /dev/did/rdsk/d2s2  1        1       Online 
  Device votes:     /dev/did/rdsk/d8s2  1        1       Online 
...
 
-- Device Group Servers --
 
                         Device Group        Primary             Secondary
                         ------------        -------             ---------
  Device group servers:  rmt/1               -                   -
  Device group servers:  rmt/2               -                   -
  Device group servers:  schost-1           phys-schost-2      phys-schost-1
  Device group servers:  schost-3           -                   -
 
-- Device Group Status --
 
                              Device Group        Status              
                              ------------        ------              
  Device group status:        rmt/1               Offline
  Device group status:        rmt/2               Offline
  Device group status:        schost-1            Online
  Device group status:        schost-3            Offline
 
------------------------------------------------------------------
 
-- Resource Groups and Resources --
 
            Group Name          Resources
            ----------          ---------
 Resources: test-rg             test_1
 Resources: real-property-rg    -
 Resources: failover-rg         -
 Resources: descript-rg-1       -
...
 
-- Resource Groups --
 
            Group Name          Node Name           State
            ----------          ---------           -----
     Group: test-rg             phys-schost-1      Offline
     Group: test-rg             phys-schost-2      Offline
...
 
-- Resources --
 
            Resource Name       Node Name           State     Status Message
            -------------       ---------           -----     --------------
  Resource: test_1              phys-schost-1      Offline   Offline
  Resource: test_1              phys-schost-2      Offline   Offline
 
-----------------------------------------------------------------
 
-- IPMP Groups --
 
              Node Name         Group   	 Status         Adapter   Status
              ---------         -----   	 ------         -------   ------
  IPMP Group: phys-schost-1     sc_ipmp0   Online         qfe1      Online

  IPMP Group: phys-schost-2     sc_ipmp0   Online         qfe1      Online

------------------------------------------------------------------
 

공용 네트워크의 상태를 확인하는 방법

SunPlex Manager GUI를 사용하여 이 절차를 완료할 수도 있습니다. 자세한 내용은 SunPlex Manager 온라인 도움말을 참조하십시오.

다음 절차를 수행하기 위해 수퍼유저로 로그인할 필요는 없습니다.

IP Network Multipathing 그룹의 상태를 확인하려면 scstat(1M) 명령을 사용하십시오.

  1. 클러스터 구성 요소의 상태를 확인하십시오.


    % scstat -i
    

예—공용 네트워크 상태 확인

다음은 scstat -i 명령을 실행했을 때 반환되는 클러스터 구성 요소에 대한 상태 정보의 예입니다.


% scstat -i
-----------------------------------------------------------------
 
-- IPMP Groups --
 
              Node Name         Group   	 Status         Adapter   Status
              ---------         -----   	 ------         -------   ------
  IPMP Group: phys-schost-1     sc_ipmp1 	 Online         qfe2      Online

  IPMP Group: phys-schost-1     sc_ipmp0 	 Online         qfe1      Online

  IPMP Group: phys-schost-2     sc_ipmp1 	 Online         qfe2      Online

  IPMP Group: phys-schost-2     sc_ipmp0 	 Online         qfe1      Online

------------------------------------------------------------------
 

클러스터 구성을 보는 방법

SunPlex Manager GUI를 사용하여 이 절차를 완료할 수도 있습니다. 자세한 내용은 SunPlex Manager 온라인 도움말을 참조하십시오.

다음 절차를 수행하기 위해 수퍼유저로 로그인할 필요는 없습니다.

    클러스터 구성을 보십시오.


    % scconf -p
    

    scconf 명령을 사용하여 자세한 정보를 표시하려면 여러 가지 옵션을 사용하십시오. 자세한 내용은 scconf(1M) 설명서 페이지를 참조하십시오.

예—클러스터 구성 보기

다음은 클러스터 구성을 표시한 예입니다.


% scconf -p
Cluster name:                       cluster-1
Cluster ID:                         0x3908EE1C
Cluster install mode:               disabled
Cluster private net:                172.16.0.0
Cluster private netmask:            255.255.0.0
Cluster new node authentication:    unix
Cluster new node list:              <NULL - Allow any node>
Cluster nodes:                      phys-schost-1 phys-schost-2 phys-schost-3
phys-schost-4
Cluster node name:                                 phys-schost-1
  Node ID:                                         1
  Node enabled:                                    yes
  Node private hostname:                           clusternode1-priv
  Node quorum vote count:                          1
  Node reservation key:                            0x3908EE1C00000001
  Node transport adapters:                         hme1 qfe1 qfe2
 
Node transport adapter:                          hme1
    Adapter enabled:                               yes
    Adapter transport type:                        dlpi
    Adapter property:                              device_name=hme
    Adapter property:                              device_instance=1
    Adapter property:                              dlpi_heartbeat_timeout=10000
...
Cluster transport junctions:                       hub0 hub1 hub2
 
Cluster transport junction:                        hub0
  Junction enabled:                                yes
  Junction type:                                   switch
  Junction port names:                             1 2 3 4
...
Junction port:                                   1
    Port enabled:                                  yes
 
Junction port:                                   2
    Port enabled:                                  yes
...
Cluster transport cables
                    Endpoint            Endpoint        State
                    --------            --------        -----
  Transport cable:  phys-schost-1:hme1@0 hub0@1        Enabled
  Transport cable:  phys-schost-1:qfe1@0 hub1@1        Enabled
  Transport cable:  phys-schost-1:qfe2@0 hub2@1        Enabled
  Transport cable:  phys-schost-2:hme1@0 hub0@2        Enabled
...
Quorum devices:                                    d2 d8
 
Quorum device name:                                d2
  Quorum device votes:                             1
  Quorum device enabled:                           yes
  Quorum device name:                              /dev/did/rdsk/d2s2
  Quorum device hosts (enabled):                   phys-schost-1
 phys-schost-2
  Quorum device hosts (disabled): 
...
Device group name:                                 schost-3
  Device group type:                               SVM
  Device group failback enabled:                   no
  Device group node list:                          phys-schost-3, phys-schost-4
  Diskset name:                                    schost-3

기본 클러스터 구성을 검증하는 방법

sccheck(1M) 명령은 일련의 검사를 실행하여 클러스터가 제대로 작동하는 데 필요한 기본 구성을 검증합니다. 모든 검사가 성공하면 sccheck는 쉘 프롬프트로 돌아갑니다. 검사가 실패하면 sccheck는 지정된 출력 디렉토리 또는 기본 출력 디렉토리에 보고서를 생성합니다. 둘 이상의 노드에 대해 sccheck를 실행한 경우 sccheck에서 각 노드에 대한 보고서와 복수 노드 검사에 대한 보고서를 생성합니다.

sccheck 명령은 데이터 수집 및 분석의 두 단계로 실행됩니다. 시스템 구성에 따라 데이터 수집은 시간이 많이 걸릴 수 있습니다. -v1 플래그와 함께 세부 정보 표시 모드에서 sccheck를 호출하여 진행 메시지를 인쇄하거나, - v2 플래그를 사용하여 특히 데이터 수집 중에 더 자세한 진행 메시지를 인쇄할 수 있는 고급 세부 정보 표시 모드로 sccheck를 실행할 수 있습니다.


주 –

장치, 볼륨 관리 구성 요소 또는 Sun Cluster 구성을 변경할 수 있는 관리 절차를 수행한 후에는 sccheck 명령을 실행하십시오.


  1. 클러스터의 노드에서 수퍼유저가 됩니다.


    % su
    
  2. 클러스터 구성을 확인합니다.


     # sccheck
    

예—모든 검사를 통과한 상태에서 클러스터 구성 검사

다음 예에서는 모든 검사를 통과한 phys-schost-1phys-schost-2 노드에 대해 세부 정보 표시 모드로 실행되는 sccheck를 보여 줍니다.


# sccheck -v1 -h phys-schost-1,phys-schost-2
sccheck: Requesting explorer data and node report from phys-schost-1.
sccheck: Requesting explorer data and node report from phys-schost-2.
sccheck: phys-schost-1: Explorer finished.
sccheck: phys-schost-1: Starting single-node checks.
sccheck: phys-schost-1: Single-node checks finished.
sccheck: phys-schost-2: Explorer finished.
sccheck: phys-schost-2: Starting single-node checks.
sccheck: phys-schost-2: Single-node checks finished.
sccheck: Starting multi-node checks.
sccheck: Multi-node checks finished
# 

예—실패한 검사가 있는 상태에서 클러스터 구성 검사

다음 예에서는 /global/phys-schost-1 마운트 지점이 누락된 suncluster 클러스터의 phys-schost-2 노드를 보여 줍니다. /var/cluster/sccheck/myReports/ 출력 디렉토리에 보고서가 생성됩니다.


# sccheck -v1 -h phys-schost-1,phys-schost-2 -o /var/cluster/sccheck/myReports
sccheck: Requesting explorer data and node report from phys-schost-1.
sccheck: Requesting explorer data and node report from phys-schost-2.
sccheck: phys-schost-1: Explorer finished.
sccheck: phys-schost-1: Starting single-node checks.
sccheck: phys-schost-1: Single-node checks finished.
sccheck: phys-schost-2: Explorer finished.
sccheck: phys-schost-2: Starting single-node checks.
sccheck: phys-schost-2: Single-node checks finished.
sccheck: Starting multi-node checks.
sccheck: Multi-node checks finished.
sccheck: One or more checks failed.
sccheck: The greatest severity of all check failures was 3 (HIGH).
sccheck: Reports are in /var/cluster/sccheck/myReports.
# 
# cat /var/cluster/sccheck/myReports/sccheck-results.suncluster.txt
...
===================================================
= ANALYSIS DETAILS =
===================================================
------------------------------------
CHECK ID : 3065
SEVERITY : HIGH
FAILURE  : Global filesystem /etc/vfstab entries are not consistent across 
all Sun Cluster 3.x nodes.
ANALYSIS : The global filesystem /etc/vfstab entries are not consistent across 
all nodes in this cluster.
Analysis indicates:
FileSystem '/global/phys-schost-1' is on 'phys-schost-1' but missing from 'phys-schost-2'.
RECOMMEND: Ensure each node has the correct /etc/vfstab entry for the 
filesystem(s) in question.
...
 #

전역 마운트 지점을 확인하는 방법

sccheck(1M) 명령에는 클러스터 파일 시스템과 해당 전역 마운트 지점을 사용하여 /etc/vfstab 파일의 구성 오류를 검사하는 검사가 포함됩니다.


주 –

장치 또는 볼륨 관리 구성 요소에 영향을 주는 클러스터 구성을 변경한 후에 sccheck를 실행하십시오.


  1. 클러스터의 노드에서 수퍼유저가 됩니다.


    % su
    
  2. 클러스터 구성을 확인합니다.


     # sccheck
    

예—전역 마운트 지점 확인

다음 예에서는 /global/schost-1 마운트 지점이 누락된 suncluster 클러스터의 phys-schost-2 노드를 보여 줍니다. 보고서는 출력 디렉토리 /var/cluster/sccheck/myReports/로 보내지는 중입니다.


# sccheck -v1 -h phys-schost-1,phys-schost-2 -o /var/cluster/sccheck/myReports
sccheck: Requesting explorer data and node report from phys-schost-1.
sccheck: Requesting explorer data and node report from phys-schost-2.
sccheck: phys-schost-1: Explorer finished.
sccheck: phys-schost-1: Starting single-node checks.
sccheck: phys-schost-1: Single-node checks finished.
sccheck: phys-schost-2: Explorer finished.
sccheck: phys-schost-2: Starting single-node checks.
sccheck: phys-schost-2: Single-node checks finished.
sccheck: Starting multi-node checks.
sccheck: Multi-node checks finished.
sccheck: One or more checks failed.
sccheck: The greatest severity of all check failures was 3 (HIGH).
sccheck: Reports are in /var/cluster/sccheck/myReports.
# 
# cat /var/cluster/sccheck/myReports/sccheck-results.suncluster.txt
...
===================================================
= ANALYSIS DETAILS =
===================================================
------------------------------------
CHECK ID : 3065
SEVERITY : HIGH
FAILURE  : Global filesystem /etc/vfstab entries are not consistent across 
all Sun Cluster 3.x nodes.
ANALYSIS : The global filesystem /etc/vfstab entries are not consistent across 
all nodes in this cluster.
Analysis indicates:
FileSystem '/global/phys-schost-1' is on 'phys-schost-1' but missing from 'phys-schost-2'.
RECOMMEND: Ensure each node has the correct /etc/vfstab entry for the 
filesystem(s) in question.
...
#
# cat /var/cluster/sccheck/myReports/sccheck-results.phys-schost-1.txt
...
===================================================
= ANALYSIS DETAILS =
===================================================
------------------------------------
CHECK ID : 1398
SEVERITY : HIGH
FAILURE  : An unsupported server is being used as a Sun Cluster 3.x node.
ANALYSIS : This server may not been qualified to be used as a Sun Cluster 3.x node.  
Only servers that have been qualified with Sun Cluster 3.x are supported as 
Sun Cluster 3.x nodes.
RECOMMEND: Because the list of supported servers is always being updated, check with 
your Sun Microsystems representative to get the latest information on what servers 
are currently supported and only use a server that is supported with Sun Cluster 3.x.
...
#