JavaScript is required to for searching.
탐색 링크 건너뛰기
인쇄 보기 종료
Oracle Solaris Cluster 시스템 관리 설명서     Oracle Solaris Cluster (한국어)
search filter icon
search icon

문서 정보

머리말

1.  Oracle Solaris Cluster 관리 방법 소개

Oracle Solaris Cluster 관리 개요

영역 클러스터 작업

Oracle Solaris OS 기능 제한

관리 도구

그래픽 사용자 인터페이스

명령줄 인터페이스

클러스터 관리 준비

Oracle Solaris Cluster 하드웨어 구성 문서화

관리 콘솔 사용

클러스터 백업

클러스터 관리 시작

원격으로 클러스터에 로그인하는 방법

클러스터 콘솔에 보안 연결을 설정하는 방법

클러스터 구성 유틸리티에 액세스하는 방법

Oracle Solaris Cluster 패치 정보 표시 방법

Oracle Solaris Cluster 릴리스 및 버전 정보를 표시하는 방법

구성된 자원 유형, 자원 그룹 및 자원을 표시하는 방법

클러스터 구성 요소의 상태를 확인하는 방법

공용 네트워크의 상태를 확인하는 방법

클러스터 구성을 보는 방법

기본 클러스터 구성을 검증하는 방법

전역 마운트 지점을 확인하는 방법

Oracle Solaris Cluster 명령 로그 내용을 보는 방법

2.  Oracle Solaris Cluster 및 RBAC

3.  클러스터 종료 및 부트

4.  데이터 복제 접근 방식

5.  전역 장치, 디스크 경로 모니터링 및 클러스터 파일 시스템 관리

6.  쿼럼 관리

7.  클러스터 상호 연결 및 공용 네트워크 관리

8.  노드 추가 및 제거

9.  클러스터 관리

10.  CPU 사용 제어 구성

11.  Oracle Solaris Cluster 소프트웨어 및 펌웨어 패치

12.  클러스터 백업 및 복원

13.  그래픽 사용자 인터페이스를 사용한 Oracle Solaris Cluster 관리

A.  예

색인

클러스터 관리 시작

표 1-2에서는 클러스터 관리의 시작 위치를 제공합니다.


주 - 전역 클러스터 투표 노드에서만 실행되는 Oracle Solaris Cluster 명령은 영역 클러스터에 사용할 수 없습니다. 영역에서의 올바른 명령 사용에 대한 자세한 내용은 해당 Oracle Solaris Cluster 매뉴얼 페이지를 참조하십시오.


표 1-2 Oracle Solaris Cluster 관리 도구

작업
도구
지침
클러스터에 원격 로그인
ccp 명령을 사용하여 CCP(Cluster Control Panel)를 시작합니다. 그런 다음 cconsole, crlogin, cssh 또는 ctelnet 아이콘 중 하나를 선택합니다.
대화식으로 클러스터 구성
clzonecluster(1CL) 유틸리티 또는 clsetup(1CL) 유틸리티를 시작합니다.
Oracle Solaris Cluster 릴리스 번호 및 버전 정보 표시
show-rev -v -node 하위 명령 및 옵션과 함께 clnode(1CL) 명령을 사용합니다.
설치된 자원, 자원 그룹 및 자원 유형 표시
다음 명령을 사용하여 자원 정보를 표시합니다.
그래픽으로 클러스터 구성 요소 모니터
Oracle Solaris Cluster Manager를 사용합니다.
온라인 도움말 참조
그래픽으로 일부 클러스터 구성 요소 관리
Sun Management Center용 Oracle Solaris Cluster Manager 또는 Oracle Solaris Cluster 모듈(SPARC 기반 시스템의 Oracle Solaris Cluster에서만 사용 가능)을 사용합니다.
Oracle Solaris Cluster Manager에 대해서는 온라인 도움말을 참조하십시오.

Sun Management Center에 대해서는 Sun Management Center 설명서를 참조하십시오.

클러스터 구성 요소의 상태 확인
status 하위 명령과 함께 cluster(1CL) 명령을 사용합니다.
공용 네트워크에서 IP 네트워크 다중 경로 그룹의 상태 확인
전역 클러스터의 경우 -m 옵션과 함께 clnode(1CL) status 명령을 사용합니다.

영역 클러스터의 경우 clzonecluster(1CL) show 명령을 사용합니다.

클러스터 구성을 보십시오.
전역 클러스터의 경우 show 하위 명령과 함께 cluster(1CL) 명령을 사용합니다.

영역 클러스터의 경우 show 하위 명령과 함께 clzonecluster(1CL) 명령을 사용합니다.

구성된 NAS 장치 보기 및 표시
전역 클러스터 또는 영역 클러스터의 경우 show 하위 명령과 함께 clzonecluster(1CL) 명령을 사용합니다.
전역 마운트 지점 또는 클러스터 구성 확인
전역 클러스터의 경우 check 하위 명령과 함께 cluster(1CL)cluster (1CL) 명령을 사용합니다.

영역 클러스터의 경우 clzonecluster(1CL) verify 명령을 사용합니다.

Oracle Solaris Cluster 명령 로그의 내용 보기
/var/cluster/logs/ commandlog 파일을 검사합니다.
Oracle Solaris Cluster 시스템 메시지 보기
/var/adm/messages 파일을 검사합니다.
시스템 관리 설명서: 고급 관리의 시스템 메시지 보기
Solaris Volume Manager 상태 모니터링
metastat 명령을 사용합니다.

원격으로 클러스터에 로그인하는 방법

CCP(Cluster Control Panel)에서는 cconsole, crlogin, csshctelnet 도구에 실행 패드를 제공합니다. 모든 도구가 지정된 노드 세트에 대하여 여러 개의 창 연결을 시작합니다. 여러 창 연결은 지정된 각 노드에 대한 호스트 창과 하나의 공용 창으로 구성됩니다. 공용 창에 입력한 내용은 클러스터의 모든 노드에서 동시에 명령을 실행할 수 있도록 각 호스트 창에 전달됩니다.

명령줄에서 cconsole, crlogin, cssh 또는 ctelnet 세션을 시작할 수도 있습니다.

기본적으로 cconsole 유틸리티는 노드 콘솔에 대해 telnet 연결을 사용합니다. 대신 콘솔에 대해 보안 쉘(Secure Shell) 연결을 설정하려면 cconsole 창의 옵션 메뉴에서 Use SSH 확인란을 선택합니다. 또는 ccp 또는 cconsole 명령을 실행할 때 -s 옵션을 지정합니다.

자세한 내용은 ccp(1M)cconsole(1M) 매뉴얼 페이지를 참조하십시오.

phys-schost# 프롬프트는 전역 클러스터 프롬프트를 반영합니다. 전역 클러스터에서 이 절차를 수행합니다.

이 절차에서는 장문형 Oracle Solaris Cluster 명령을 제공합니다. 대부분의 명령에는 단문형도 있습니다. 명령은 명령 이름이 장문형과 단문형인 것을 제외하면 동일합니다.

시작하기 전에

CCP를 시작하기 전에 다음 사전 조건이 충족되었는지 확인합니다.

  1. Sun Enterprise 10000 server 플랫폼의 경우, SSP(System Service Processor)에 로그인하십시오.
    1. netcon 명령을 사용하여 연결합니다.
    2. 연결되면 Shift~@를 입력하여 콘솔 잠금을 해제하고 쓰기 권한을 받으십시오.
  2. 관리 콘솔에서 CCP 실행 패드를 시작합니다.
    phys-schost# ccp clustername

    CCP 실행 패드가 표시됩니다.

  3. 클러스터와 원격 세션을 시작하려면 CCP 실행 패드에서 cconsole, crlogin, cssh 또는 ctelnet 아이콘을 클릭합니다.

클러스터 콘솔에 보안 연결을 설정하는 방법

클러스터 노드의 콘솔에 대해 보안 쉘 연결을 설정하려면 다음 절차를 수행합니다.

시작하기 전에

터미널 집중 장치를 사용하는 경우에는 clusters 파일, serialports 파일 및 nsswitch.conf 파일을 구성합니다. 이 파일은 /etc 파일 또는 NIS/ NIS+ 데이터베이스가 될 수 있습니다.


주 - serialports 파일에서 각 콘솔 액세스 장치에 대한 보안 연결에 사용할 포트 번호를 할당합니다. 보안 쉘 연결을 위한 기본 포트 번호는 22입니다.


자세한 내용은 clusters(4)serialports(4) 매뉴얼 페이지를 참조하십시오.

  1. 관리 콘솔에서 수퍼유저로 전환합니다.
  2. 보안 모드로 cconsole 유틸리티를 시작합니다.
    # cconsole -s [-l username] [-p ssh-port]
    -s

    보안 쉘 연결을 활성화합니다.

    -l username

    원격 연결을 위한 사용자 이름을 지정합니다. -l 옵션을 지정하지 않으면 cconsole 유틸리티를 시작한 사용자 이름이 사용됩니다.

    -p ssh-port

    사용할 보안 쉘 포트 번호를 지정합니다. -p 옵션을 지정하지 않으면 보안 연결에 기본 포트 번호 22가 사용됩니다.

클러스터 구성 유틸리티에 액세스하는 방법

clsetup 유틸리티를 사용하면 전역 클러스터에 대한 쿼럼, 자원 그룹, 클러스터 전송, 개인 호스트 이름, 장치 그룹 및 새 노드 옵션을 대화식으로 구성할 수 있습니다. clzonecluster 유틸리티는 영역 클러스터에 대해 이와 유사한 구성 작업을 수행합니다. 자세한 내용은 clsetup(1CL)clzonecluster(1CL) 매뉴얼 페이지를 참조하십시오.

phys-schost# 프롬프트는 전역 클러스터 프롬프트를 반영합니다. 전역 클러스터에서 이 절차를 수행합니다.

이 절차에서는 장문형 Oracle Solaris Cluster 명령을 제공합니다. 대부분의 명령에는 단문형도 있습니다. 명령은 명령 이름이 장문형과 단문형인 것을 제외하면 동일합니다.

  1. 전역 클러스터의 활성 구성원 노드에서 수퍼유저로 전환합니다. 전역 클러스터의 한 노드에서 이 절차의 모든 단계를 수행합니다.
  2. 구성 유틸리티를 시작합니다.
    phys-schost# clsetup
    • 전역 클러스터의 경우 clsetup 명령을 사용하여 유틸리티를 시작합니다.
      phys-schost# clsetup

      주 메뉴가 표시됩니다.

    • 영역 클러스터의 경우 clzonecluster 명령을 사용하여 유틸리티를 시작합니다. 이 예에서 영역 클러스터는 sczone입니다.
      phys-schost# clzonecluster configure sczone

      다음 옵션을 사용하여 유틸리티에서 사용 가능한 작업을 볼 수 있습니다.

      clzc:sczone> ? 
  3. 메뉴에서 구성을 선택합니다. 화면의 지시에 따라 작업을 완료하십시오. 자세한 내용은 Oracle Solaris Cluster 소프트웨어 설치 설명서의 영역 클러스터 구성에 있는 지침을 참조하십시오.

참조

자세한 내용은 clsetup 또는 clzonecluster 온라인 도움말을 참조하십시오.

Oracle Solaris Cluster 패치 정보 표시 방법

이 절차를 수행하기 위해 수퍼유저로 로그인할 필요는 없습니다.

phys-schost# 프롬프트는 전역 클러스터 프롬프트를 반영합니다. 전역 클러스터에서 이 절차를 수행합니다.

이 절차에서는 장문형 Oracle Solaris Cluster 명령을 제공합니다. 대부분의 명령에는 단문형도 있습니다. 명령은 명령 이름이 장문형과 단문형인 것을 제외하면 동일합니다.

예 1-1 Oracle Solaris Cluster 패치 정보 표시

다음 예는 패치 110648-05에 관한 정보를 표시합니다.

phys-schost# showrev -p | grep 110648
Patch: 110648-05 Obsoletes:  Requires:  Incompatibles:  Packages: 

Oracle Solaris Cluster 릴리스 및 버전 정보를 표시하는 방법

이 절차를 수행하기 위해 수퍼유저로 로그인할 필요는 없습니다. 전역 클러스터의 한 노드에서 이 절차의 모든 단계를 수행합니다.

phys-schost# 프롬프트는 전역 클러스터 프롬프트를 반영합니다. 전역 클러스터에서 이 절차를 수행합니다.

이 절차에서는 장문형 Oracle Solaris Cluster 명령을 제공합니다. 대부분의 명령에는 단문형도 있습니다. 명령은 명령 이름이 장문형과 단문형인 것을 제외하면 동일합니다.

예 1-2 Oracle Solaris Cluster 릴리스 및 버전 정보 표시

다음은 클러스터의 릴리스 정보 및 모든 패키지의 버전 정보를 표시하는 예입니다.

phys-schost# clnode show-rev
3.2

phys-schost#% clnode show-rev -v
Oracle Solaris Cluster 3.3 for Solaris 10 sparc
SUNWscu:       3.3.0,REV=2010.06.14.03.44
SUNWsccomu:    3.3.0,REV=2010.06.14.03.44
SUNWsczr:      3.3.0,REV=2010.06.14.03.44
SUNWsccomzu:   3.3.0,REV=2010.06.14.03.44
SUNWsczu:      3.3.0,REV=2010.06.14.03.44
SUNWscsckr:    3.3.0,REV=2010.06.14.03.44
SUNWscscku:    3.3.0,REV=2010.06.14.03.44
SUNWscr:       3.3.0,REV=2010.06.14.03.44
SUNWscrtlh:    3.3.0,REV=2010.06.14.03.44
SUNWscnmr:     3.3.0,REV=2010.06.14.03.44
SUNWscnmu:     3.3.0,REV=2010.06.14.03.44
SUNWscdev:     3.3.0,REV=2010.06.14.03.44
SUNWscgds:     3.3.0,REV=2010.06.14.03.44
SUNWscsmf:     3.3.0,REV=2010.06.14.03.44
SUNWscman:     3.3.0,REV=2010.05.21.18.40
SUNWscsal:     3.3.0,REV=2010.06.14.03.44
SUNWscsam:     3.3.0,REV=2010.06.14.03.44
SUNWscvm:      3.3.0,REV=2010.06.14.03.44
SUNWmdmr:      3.3.0,REV=2010.06.14.03.44
SUNWmdmu:      3.3.0,REV=2010.06.14.03.44
SUNWscmasa:    3.3.0,REV=2010.06.14.03.44
SUNWscmasar:   3.3.0,REV=2010.06.14.03.44
SUNWscmasasen: 3.3.0,REV=2010.06.14.03.44
SUNWscmasazu:  3.3.0,REV=2010.06.14.03.44
SUNWscmasau:   3.3.0,REV=2010.06.14.03.44
SUNWscmautil:  3.3.0,REV=2010.06.14.03.44
SUNWscmautilr: 3.3.0,REV=2010.06.14.03.44
SUNWjfreechart: 3.3.0,REV=2010.06.14.03.44
SUNWscspmr:    3.3.0,REV=2010.06.14.03.44
SUNWscspmu:    3.3.0,REV=2010.06.14.03.44
SUNWscderby:   3.3.0,REV=2010.06.14.03.44
SUNWsctelemetry: 3.3.0,REV=2010.06.14.03.44
SUNWscgrepavs: 3.2.3,REV=2009.10.23.12.12
SUNWscgrepsrdf: 3.2.3,REV=2009.10.23.12.12
SUNWscgreptc:  3.2.3,REV=2009.10.23.12.12
SUNWscghb:     3.2.3,REV=2009.10.23.12.12
SUNWscgctl:    3.2.3,REV=2009.10.23.12.12
SUNWscims:     6.0,REV=2003.10.29
SUNWscics:     6.0,REV=2003.11.14
SUNWscapc:     3.2.0,REV=2006.12.06.18.32
SUNWscdns:     3.2.0,REV=2006.12.06.18.32
SUNWschadb:    3.2.0,REV=2006.12.06.18.32
SUNWschtt:     3.2.0,REV=2006.12.06.18.32
SUNWscs1as:    3.2.0,REV=2006.12.06.18.32
SUNWsckrb5:    3.2.0,REV=2006.12.06.18.32
SUNWscnfs:     3.2.0,REV=2006.12.06.18.32
SUNWscor:      3.2.0,REV=2006.12.06.18.32
SUNWscs1mq:    3.2.0,REV=2006.12.06.18.32
SUNWscsap:     3.2.0,REV=2006.12.06.18.32
SUNWsclc:      3.2.0,REV=2006.12.06.18.32
SUNWscsapdb:   3.2.0,REV=2006.12.06.18.32
SUNWscsapenq:  3.2.0,REV=2006.12.06.18.32
SUNWscsaprepl: 3.2.0,REV=2006.12.06.18.32
SUNWscsapscs:  3.2.0,REV=2006.12.06.18.32
SUNWscsapwebas: 3.2.0,REV=2006.12.06.18.32
SUNWscsbl:     3.2.0,REV=2006.12.06.18.32
SUNWscsyb:     3.2.0,REV=2006.12.06.18.32
SUNWscwls:     3.2.0,REV=2006.12.06.18.32
SUNWsc9ias:    3.2.0,REV=2006.12.06.18.32
SUNWscPostgreSQL: 3.2.0,REV=2006.12.06.18.32
SUNWsczone:    3.2.0,REV=2006.12.06.18.32
SUNWscdhc:     3.2.0,REV=2006.12.06.18.32
SUNWscebs:     3.2.0,REV=2006.12.06.18.32
SUNWscmqi:     3.2.0,REV=2006.12.06.18.32
SUNWscmqs:     3.2.0,REV=2006.12.06.18.32
SUNWscmys:     3.2.0,REV=2006.12.06.18.32
SUNWscsge:     3.2.0,REV=2006.12.06.18.32
SUNWscsaa:     3.2.0,REV=2006.12.06.18.32
SUNWscsag:     3.2.0,REV=2006.12.06.18.32
SUNWscsmb:     3.2.0,REV=2006.12.06.18.32
SUNWscsps:     3.2.0,REV=2006.12.06.18.32
SUNWsctomcat:  3.2.0,REV=2006.12.06.18.32

구성된 자원 유형, 자원 그룹 및 자원을 표시하는 방법

Oracle Solaris Cluster Manager GUI를 사용하여 이 절차를 수행할 수도 있습니다. 자세한 내용은 13 장그래픽 사용자 인터페이스를 사용한 Oracle Solaris Cluster 관리를 참조하거나 Oracle Solaris Cluster Manager 온라인 도움말을 참조하십시오.

phys-schost# 프롬프트는 전역 클러스터 프롬프트를 반영합니다. 전역 클러스터에서 이 절차를 수행합니다.

이 절차에서는 장문형 Oracle Solaris Cluster 명령을 제공합니다. 대부분의 명령에는 단문형도 있습니다. 명령은 명령 이름이 장문형과 단문형인 것을 제외하면 동일합니다.

시작하기 전에

수퍼유저가 아닌 사용자로 이 하위 명령을 사용하려면 solaris.cluster.read RBAC 인증이 필요합니다.

예 1-3 구성된 자원 유형, 자원 그룹 및 자원 표시

다음 예에서는 클러스터 schost에 대해 구성된 자원 유형(RT Name), 자원 그룹(RG Name) 및 자원(RS Name)을 보여 줍니다.

phys-schost# cluster show -t resource,resourcetype,resourcegroup


=== Registered Resource Types ===

Resource Type:                                  SUNW.qfs
  RT_description:                                  SAM-QFS Agent on Oracle Solaris Cluster
  RT_version:                                      3.1
  API_version:                                     3
  RT_basedir:                                      /opt/SUNWsamfs/sc/bin
  Single_instance:                                 False
  Proxy:                                           False
  Init_nodes:                                      All potential masters
  Installed_nodes:                                 <All>
  Failover:                                        True
  Pkglist:                                         <NULL>
  RT_system:                                       False

=== Resource Groups and Resources ===

Resource Group:                                 qfs-rg
  RG_description:                                  <NULL>
  RG_mode:                                         Failover
  RG_state:                                        Managed
  Failback:                                        False
  Nodelist:                                        phys-schost-2 phys-schost-1

  --- Resources for Group qfs-rg ---

  Resource:                                     qfs-res
    Type:                                          SUNW.qfs
    Type_version:                                  3.1
    Group:                                         qfs-rg
    R_description:                                 
    Resource_project_name:                         default
    Enabled{phys-schost-2}:                        True
    Enabled{phys-schost-1}:                        True
    Monitored{phys-schost-2}:                      True
    Monitored{phys-schost-1}:                      True

클러스터 구성 요소의 상태를 확인하는 방법

Oracle Solaris Cluster Manager GUI를 사용하여 이 절차를 수행할 수도 있습니다. 자세한 내용은 Oracle Solaris Cluster Manager 온라인 도움말을 참조하십시오.


주 - cluster status 명령은 영역 클러스터의 상태도 보여 줍니다.


phys-schost# 프롬프트는 전역 클러스터 프롬프트를 반영합니다. 전역 클러스터에서 이 절차를 수행합니다.

이 절차에서는 장문형 Oracle Solaris Cluster 명령을 제공합니다. 대부분의 명령에는 단문형도 있습니다. 명령은 명령 이름이 장문형과 단문형인 것을 제외하면 동일합니다.

시작하기 전에

수퍼유저가 아닌 사용자로 status 하위 명령을 사용하려면 solaris.cluster.read RBAC 인증이 필요합니다.

예 1-4 클러스터 구성 요소의 상태 확인

다음 예에서는 cluster(1CL) status를 실행하여 반환된 클러스터 구성 요소에 대한 상태 정보 샘플을 제공합니다.

phys-schost# cluster status
=== Cluster Nodes ===

--- Node Status ---

Node Name                                       Status
---------                                       ------
phys-schost-1                                   Online
phys-schost-2                                   Online


=== Cluster Transport Paths ===

Endpoint1               Endpoint2               Status
---------               ---------               ------
phys-schost-1:qfe1      phys-schost-4:qfe1      Path online
phys-schost-1:hme1      phys-schost-4:hme1      Path online


=== Cluster Quorum ===

--- Quorum Votes Summary ---

            Needed   Present   Possible
            ------   -------   --------
            3        3         4


--- Quorum Votes by Node ---

Node Name       Present       Possible       Status
---------       -------       --------       ------
phys-schost-1   1             1              Online
phys-schost-2   1             1              Online


--- Quorum Votes by Device ---

Device Name           Present      Possible          Status
-----------               -------      --------      ------
/dev/did/rdsk/d2s2      1            1                Online
/dev/did/rdsk/d8s2      0            1                Offline


=== Cluster Device Groups ===

--- Device Group Status ---

Device Group Name     Primary          Secondary    Status
-----------------     -------          ---------    ------
schost-2              phys-schost-2     -           Degraded


--- Spare, Inactive, and In Transition Nodes ---

Device Group Name   Spare Nodes   Inactive Nodes   In Transistion Nodes
-----------------   -----------   --------------   --------------------
schost-2            -             -                -


=== Cluster Resource Groups ===

Group Name        Node Name      Suspended      Status
----------        ---------      ---------      ------
test-rg           phys-schost-1       No             Offline
                  phys-schost-2       No             Online

test-rg           phys-schost-1       No             Offline
                  phys-schost-2       No             Error--stop failed

test-rg           phys-schost-1       No             Online
                  phys-schost-2       No             Online


=== Cluster Resources ===

Resource Name     Node Name     Status               Message
-------------     ---------     ------               -------
test_1            phys-schost-1      Offline         Offline
                  phys-schost-2      Online          Online

test_1            phys-schost-1      Offline         Offline
                  phys-schost-2      Stop failed     Faulted

test_1            phys-schost-1      Online          Online
                  phys-schost-2      Online          Online


Device Instance             Node                     Status
---------------             ----                     ------
/dev/did/rdsk/d2            phys-schost-1            Ok

/dev/did/rdsk/d3            phys-schost-1            Ok
                            phys-schost-2            Ok

/dev/did/rdsk/d4            phys-schost-1            Ok
                            phys-schost-2            Ok

/dev/did/rdsk/d6            phys-schost-2            Ok



=== Zone Clusters ===

--- Zone Cluster Status ---

Name      Node Name   Zone HostName   Status    Zone Status
----      ---------   -------------   ------    -----------
sczone    schost-1    sczone-1        Online    Running
          schost-2    sczone-2        Online    Running

공용 네트워크의 상태를 확인하는 방법

Oracle Solaris Cluster Manager GUI를 사용하여 이 절차를 수행할 수도 있습니다. 자세한 내용은 Oracle Solaris Cluster Manager 온라인 도움말을 참조하십시오.

phys-schost# 프롬프트는 전역 클러스터 프롬프트를 반영합니다. 전역 클러스터에서 이 절차를 수행합니다.

이 절차에서는 장문형 Oracle Solaris Cluster 명령을 제공합니다. 대부분의 명령에는 단문형도 있습니다. 명령은 명령 이름이 장문형과 단문형인 것을 제외하면 동일합니다.

IP Network Multipathing 그룹의 상태를 확인하려면 status 하위 명령과 함께 clnode(1CL) 명령을 사용합니다.

시작하기 전에

수퍼유저가 아닌 사용자로 이 하위 명령을 사용하려면 solaris.cluster.read RBAC 인증이 필요합니다.

예 1-5 공용 네트워크 상태 확인

다음 예에서는 clnode status 명령을 실행하여 반환된 클러스터 구성 요소에 대한 상태 정보 샘플을 제공합니다.

% clnode status -m
--- Node IPMP Group Status ---

Node Name         Group Name    Status    Adapter    Status
---------         ----------    ------    -------    ------
phys-schost-1     test-rg       Online    qfe1       Online
phys-schost-2     test-rg       Online    qfe1       Online 

클러스터 구성을 보는 방법

Oracle Solaris Cluster Manager GUI를 사용하여 이 절차를 수행할 수도 있습니다. 자세한 내용은 Oracle Solaris Cluster Manager 온라인 도움말을 참조하십시오.

phys-schost# 프롬프트는 전역 클러스터 프롬프트를 반영합니다. 전역 클러스터에서 이 절차를 수행합니다.

이 절차에서는 장문형 Oracle Solaris Cluster 명령을 제공합니다. 대부분의 명령에는 단문형도 있습니다. 명령은 명령 이름이 장문형과 단문형인 것을 제외하면 동일합니다.

시작하기 전에

수퍼유저가 아닌 사용자로 status 하위 명령을 사용하려면 solaris.cluster.read RBAC 인증이 필요합니다.

예 1-6 전역 클러스터 구성 보기

다음 예에서는 전역 클러스터에 대한 구성 정보를 나열합니다. 영역 클러스터가 구성되어 있으면 해당 정보도 나열됩니다.

phys-schost# cluster show
=== Cluster ===                                

Cluster Name:                                   cluster-1
  installmode:                                     disabled
  heartbeat_timeout:                               10000
  heartbeat_quantum:                               1000
  private_netaddr:                                 172.16.0.0
  private_netmask:                                 255.255.248.0
  max_nodes:                                       64
  max_privatenets:                                 10
  global_fencing:                                  Unknown
  Node List:                                       phys-schost-1
  Node Zones:                                      phys_schost-2:za

  === Host Access Control ===                  

  Cluster name:                                 clustser-1
    Allowed hosts:                                 phys-schost-1, phys-schost-2:za
    Authentication Protocol:                       sys

  === Cluster Nodes ===                        

  Node Name:                                    phys-schost-1
    Node ID:                                       1
    Type:                                          cluster
    Enabled:                                       yes
    privatehostname:                               clusternode1-priv
    reboot_on_path_failure:                        disabled
    globalzoneshares:                              3
    defaultpsetmin:                                1
    quorum_vote:                                   1
    quorum_defaultvote:                            1
    quorum_resv_key:                               0x43CB1E1800000001
    Transport Adapter List:                        qfe3, hme0

    --- Transport Adapters for phys-schost-1 ---    

    Transport Adapter:                          qfe3
      Adapter State:                               Enabled
      Adapter Transport Type:                      dlpi
      Adapter Property(device_name):               qfe
      Adapter Property(device_instance):           3
      Adapter Property(lazy_free):                 1
      Adapter Property(dlpi_heartbeat_timeout):    10000
      Adapter Property(dlpi_heartbeat_quantum):    1000
      Adapter Property(nw_bandwidth):              80
      Adapter Property(bandwidth):                 10
      Adapter Property(ip_address):                172.16.1.1
      Adapter Property(netmask):                   255.255.255.128
      Adapter Port Names:                          0
      Adapter Port State(0):                       Enabled

    Transport Adapter:                          hme0
      Adapter State:                               Enabled
      Adapter Transport Type:                      dlpi
      Adapter Property(device_name):               hme
      Adapter Property(device_instance):           0
      Adapter Property(lazy_free):                 0
      Adapter Property(dlpi_heartbeat_timeout):    10000
      Adapter Property(dlpi_heartbeat_quantum):    1000
      Adapter Property(nw_bandwidth):              80
      Adapter Property(bandwidth):                 10
      Adapter Property(ip_address):                172.16.0.129
      Adapter Property(netmask):                   255.255.255.128
      Adapter Port Names:                          0
      Adapter Port State(0):                       Enabled

    --- SNMP MIB Configuration on phys-schost-1 --- 

    SNMP MIB Name:                              Event
      State:                                       Disabled
      Protocol:                                    SNMPv2

    --- SNMP Host Configuration on phys-schost-1 ---

    --- SNMP User Configuration on phys-schost-1 ---

    SNMP User Name:                             foo
      Authentication Protocol:                     MD5
      Default User:                                No

  Node Name:                                    phys-schost-2:za
    Node ID:                                       2
    Type:                                          cluster
    Enabled:                                       yes
    privatehostname:                               clusternode2-priv
    reboot_on_path_failure:                        disabled
    globalzoneshares:                              1
    defaultpsetmin:                                2
    quorum_vote:                                   1
    quorum_defaultvote:                            1
    quorum_resv_key:                               0x43CB1E1800000002
    Transport Adapter List:                        hme0, qfe3

    --- Transport Adapters for phys-schost-2 ---    

    Transport Adapter:                          hme0
      Adapter State:                               Enabled
      Adapter Transport Type:                      dlpi
      Adapter Property(device_name):               hme
      Adapter Property(device_instance):           0
      Adapter Property(lazy_free):                 0
      Adapter Property(dlpi_heartbeat_timeout):    10000
      Adapter Property(dlpi_heartbeat_quantum):    1000
      Adapter Property(nw_bandwidth):              80
      Adapter Property(bandwidth):                 10
      Adapter Property(ip_address):                172.16.0.130
      Adapter Property(netmask):                   255.255.255.128
      Adapter Port Names:                          0
      Adapter Port State(0):                       Enabled

    Transport Adapter:                          qfe3
      Adapter State:                               Enabled
      Adapter Transport Type:                      dlpi
      Adapter Property(device_name):               qfe
      Adapter Property(device_instance):           3
      Adapter Property(lazy_free):                 1
      Adapter Property(dlpi_heartbeat_timeout):    10000
      Adapter Property(dlpi_heartbeat_quantum):    1000
      Adapter Property(nw_bandwidth):              80
      Adapter Property(bandwidth):                 10
      Adapter Property(ip_address):                172.16.1.2
      Adapter Property(netmask):                   255.255.255.128
      Adapter Port Names:                          0
      Adapter Port State(0):                       Enabled

    --- SNMP MIB Configuration on phys-schost-2 --- 

    SNMP MIB Name:                              Event
      State:                                       Disabled
      Protocol:                                    SNMPv2

    --- SNMP Host Configuration on phys-schost-2 ---

    --- SNMP User Configuration on phys-schost-2 ---

  === Transport Cables ===                     

  Transport Cable:                              phys-schost-1:qfe3,switch2@1
    Cable Endpoint1:                               phys-schost-1:qfe3
    Cable Endpoint2:                               switch2@1
    Cable State:                                   Enabled

  Transport Cable:                              phys-schost-1:hme0,switch1@1
    Cable Endpoint1:                               phys-schost-1:hme0
    Cable Endpoint2:                               switch1@1
    Cable State:                                   Enabled

  Transport Cable:                              phys-schost-2:hme0,switch1@2
    Cable Endpoint1:                               phys-schost-2:hme0
    Cable Endpoint2:                               switch1@2
    Cable State:                                   Enabled

  Transport Cable:                              phys-schost-2:qfe3,switch2@2
    Cable Endpoint1:                               phys-schost-2:qfe3
    Cable Endpoint2:                               switch2@2
    Cable State:                                   Enabled

  === Transport Switches ===                   

  Transport Switch:                             switch2
    Switch State:                                  Enabled
    Switch Type:                                   switch
    Switch Port Names:                             1 2
    Switch Port State(1):                          Enabled
    Switch Port State(2):                          Enabled

  Transport Switch:                             switch1
    Switch State:                                  Enabled
    Switch Type:                                   switch
    Switch Port Names:                             1 2
    Switch Port State(1):                          Enabled
    Switch Port State(2):                          Enabled


  === Quorum Devices ===                       

  Quorum Device Name:                           d3
    Enabled:                                       yes
    Votes:                                         1
    Global Name:                                   /dev/did/rdsk/d3s2
    Type:                                          scsi
    Access Mode:                                   scsi2
    Hosts (enabled):                               phys-schost-1, phys-schost-2

  Quorum Device Name:                           qs1
    Enabled:                                       yes
    Votes:                                         1
    Global Name:                                   qs1
    Type:                                          quorum_server
    Hosts (enabled):                               phys-schost-1, phys-schost-2
    Quorum Server Host:                            10.11.114.83
    Port:                                          9000


  === Device Groups ===                        

  Device Group Name:                            testdg3
    Type:                                          SVM
    failback:                                      no
    Node List:                                     phys-schost-1, phys-schost-2
    preferenced:                                   yes
    numsecondaries:                                1
    diskset name:                                  testdg3

  === Registered Resource Types ===            

  Resource Type:                                SUNW.LogicalHostname:2
    RT_description:                                Logical Hostname Resource Type
    RT_version:                                    2
    API_version:                                   2
    RT_basedir:                                    /usr/cluster/lib/rgm/rt/hafoip
    Single_instance:                               False
    Proxy:                                         False
    Init_nodes:                                    All potential masters
    Installed_nodes:                               <All>
    Failover:                                      True
    Pkglist:                                       SUNWscu
    RT_system:                                     True

  Resource Type:                                SUNW.SharedAddress:2
    RT_description:                                HA Shared Address Resource Type
    RT_version:                                    2
    API_version:                                   2
    RT_basedir:                                    /usr/cluster/lib/rgm/rt/hascip
    Single_instance:                               False
    Proxy:                                         False
    Init_nodes:                                    <Unknown>
    Installed_nodes:                              <All>
    Failover:                                      True
    Pkglist:                                       SUNWscu
    RT_system:                                     True

  Resource Type:                                SUNW.HAStoragePlus:4
    RT_description:                                HA Storage Plus
    RT_version:                                    4
    API_version:                                   2
    RT_basedir:                                    /usr/cluster/lib/rgm/rt/hastorageplus
    Single_instance:                               False
    Proxy:                                         False
    Init_nodes:                                    All potential masters
    Installed_nodes:                               <All>
    Failover:                                      False
    Pkglist:                                       SUNWscu
    RT_system:                                     False

  Resource Type:                                SUNW.haderby
    RT_description:                                haderby server for Oracle Solaris Cluster
    RT_version:                                    1
    API_version:                                   7
    RT_basedir:                                    /usr/cluster/lib/rgm/rt/haderby
    Single_instance:                               False
    Proxy:                                         False
    Init_nodes:                                    All potential masters
    Installed_nodes:                               <All>
    Failover:                                      False
    Pkglist:                                       SUNWscderby
    RT_system:                                     False

  Resource Type:                                SUNW.sctelemetry
    RT_description:                                sctelemetry service for Oracle Solaris Cluster
    RT_version:                                    1
    API_version:                                   7
    RT_basedir:                                    /usr/cluster/lib/rgm/rt/sctelemetry
    Single_instance:                               True
    Proxy:                                         False
    Init_nodes:                                    All potential masters
    Installed_nodes:                               <All>
    Failover:                                      False
    Pkglist:                                       SUNWsctelemetry
    RT_system:                                     False

  === Resource Groups and Resources ===        

  Resource Group:                               HA_RG
    RG_description:                                <Null>
    RG_mode:                                       Failover
    RG_state:                                      Managed
    Failback:                                      False
    Nodelist:                                      phys-schost-1 phys-schost-2

    --- Resources for Group HA_RG ---          

    Resource:                                   HA_R
      Type:                                        SUNW.HAStoragePlus:4
      Type_version:                                4
      Group:                                       HA_RG
      R_description:                               
      Resource_project_name:                       SCSLM_HA_RG
      Enabled{phys-schost-1}:                      True
      Enabled{phys-schost-2}:                      True
      Monitored{phys-schost-1}:                    True
      Monitored{phys-schost-2}:                    True

  Resource Group:                               cl-db-rg
    RG_description:                                <Null>
    RG_mode:                                       Failover
    RG_state:                                      Managed
    Failback:                                      False
    Nodelist:                                      phys-schost-1 phys-schost-2

    --- Resources for Group cl-db-rg ---       

    Resource:                                   cl-db-rs
      Type:                                        SUNW.haderby
      Type_version:                                1
      Group:                                       cl-db-rg
      R_description:                               
      Resource_project_name:                       default
      Enabled{phys-schost-1}:                      True
      Enabled{phys-schost-2}:                      True
      Monitored{phys-schost-1}:                    True
      Monitored{phys-schost-2}:                    True

  Resource Group:                               cl-tlmtry-rg
    RG_description:                                <Null>
    RG_mode:                                       Scalable
    RG_state:                                      Managed
    Failback:                                      False
    Nodelist:                                      phys-schost-1 phys-schost-2

    --- Resources for Group cl-tlmtry-rg ---   

    Resource:                                   cl-tlmtry-rs
      Type:                                        SUNW.sctelemetry
      Type_version:                                1
      Group:                                       cl-tlmtry-rg
      R_description:                               
      Resource_project_name:                       default
      Enabled{phys-schost-1}:                      True
      Enabled{phys-schost-2}:                      True
      Monitored{phys-schost-1}:                    True
      Monitored{phys-schost-2}:                    True

  === DID Device Instances ===                 

  DID Device Name:                              /dev/did/rdsk/d1
    Full Device Path:                              phys-schost-1:/dev/rdsk/c0t2d0
    Replication:                                   none
    default_fencing:                               global

  DID Device Name:                              /dev/did/rdsk/d2
    Full Device Path:                              phys-schost-1:/dev/rdsk/c1t0d0
    Replication:                                   none
    default_fencing:                               global

  DID Device Name:                              /dev/did/rdsk/d3
    Full Device Path:                              phys-schost-2:/dev/rdsk/c2t1d0
    Full Device Path:                              phys-schost-1:/dev/rdsk/c2t1d0
    Replication:                                   none
    default_fencing:                               global

  DID Device Name:                              /dev/did/rdsk/d4
    Full Device Path:                              phys-schost-2:/dev/rdsk/c2t2d0
    Full Device Path:                              phys-schost-1:/dev/rdsk/c2t2d0
    Replication:                                   none
    default_fencing:                               global

  DID Device Name:                              /dev/did/rdsk/d5
    Full Device Path:                              phys-schost-2:/dev/rdsk/c0t2d0
    Replication:                                   none
    default_fencing:                               global

  DID Device Name:                              /dev/did/rdsk/d6
    Full Device Path:                              phys-schost-2:/dev/rdsk/c1t0d0
    Replication:                                   none
    default_fencing:                               global

  === NAS Devices ===                          

  Nas Device:                                   nas_filer1
    Type:                                          netapp
    User ID:                                       root

  Nas Device:                                   nas2
    Type:                                          netapp
    User ID:                                       llai

예 1-7 영역 클러스터 구성 보기

다음 예에서는 영역 클러스터 구성의 등록 정보를 나열합니다.

% clzonecluster show
=== Zone Clusters ===

Zone Cluster Name:                              sczone
  zonename:                                        sczone
  zonepath:                                        /zones/sczone
  autoboot:                                        TRUE
  ip-type:                                         shared
  enable_priv_net:                                 TRUE

  --- Solaris Resources for sczone ---

  Resource Name:                                net
    address:                                       172.16.0.1
    physical:                                      auto

  Resource Name:                                net
    address:                                       172.16.0.2
    physical:                                      auto

  Resource Name:                                fs
    dir:                                           /gz/db_qfs/CrsHome
    special:                                       CrsHome
    raw:
    type:                                          samfs
    options:                                       []


  Resource Name:                                fs
    dir:                                           /gz/db_qfs/CrsData
    special:                                       CrsData
    raw:
    type:                                          samfs
    options:                                       []


  Resource Name:                                fs
    dir:                                           /gz/db_qfs/OraHome
    special:                                       OraHome
    raw:
    type:                                          samfs
    options:                                       []


  Resource Name:                                fs
    dir:                                           /gz/db_qfs/OraData
    special:                                       OraData
    raw:
    type:                                          samfs
    options:                                       []


  --- Zone Cluster Nodes for sczone ---

  Node Name:                                    sczone-1
    physical-host:                                 sczone-1
    hostname:                                      lzzone-1

  Node Name:                                    sczone-2
    physical-host:                                 sczone-2
    hostname:                                      lzzone-2

clnasdevice show 하위 명령이나 Oracle Solaris Cluster Manager를 사용하여 전역 또는 영역 클러스터에 대해 구성된 NAS 장치를 볼 수도 있습니다. 자세한 내용은 clnasdevice(1CL) 매뉴얼 페이지를 참조하십시오.

기본 클러스터 구성을 검증하는 방법

cluster(1CL) 명령은 check 하위 명령을 사용하여 전역 클러스터가 제대로 작동하는 데 필요한 기본 구성을 검증합니다. 모든 검사가 성공하면 cluster check가 쉘 프롬프트로 돌아갑니다. 검사가 실패하면 cluster check에서 지정된 출력 디렉토리 또는 기본 출력 디렉토리에 보고서를 생성합니다. 둘 이상의 노드에 대해 cluster check를 실행하면 cluster check에서 각 노드에 대한 보고서와 다중 노드 검사에 대한 보고서를 생성합니다. cluster list-checks 명령을 사용하여 사용 가능한 모든 클러스터 검사 목록을 표시할 수도 있습니다.

Oracle Solaris Cluster 3.3 5/11 릴리스부터 cluster check 명령의 검사가 새로운 유형으로 향상되었습니다. 사용자 상호 작용 없이 실행되는 기본 검사뿐만 아니라 대화식 검사 및 기능 검사도 실행할 수 있습니다. 기본 검사는 -k keyword 옵션을 지정하지 않으면 실행됩니다.

-v 플래그를 사용하여 자세한 표시 모드로 cluster check 명령을 실행하면 진행률 정보를 표시할 수 있습니다.


주 - 장치, 볼륨 관리 구성 요소 또는 Oracle Solaris Cluster 구성을 변경할 수 있는 관리 절차를 수행한 후 cluster check 명령을 실행합니다.


전역 클러스터 투표 노드에서 clzonecluster(1CL) 명령을 실행하면 검사 세트가 실행되어 영역 클러스터가 제대로 작동하는 데 필요한 구성이 검증됩니다. 모든 검사를 통과하면 clzonecluster verify가 쉘 프롬프트로 돌아가며 영역 클러스터를 안전하게 설치할 수 있습니다. 검사가 실패하면 clzonecluster verify에서 확인이 실패한 전역 클러스터 노드에 대해 보고합니다. 둘 이상의 노드에 대해 clzonecluster verify 명령을 실행하면 각 노드에 대한 보고서와 다중 노드 검사에 대한 보고서가 생성됩니다. verify 하위 명령은 영역 클러스트 내에서 사용할 수 없습니다.

  1. 전역 클러스터의 활성 구성원 노드에서 수퍼유저로 전환합니다. 전역 클러스터의 한 노드에서 이 절차의 모든 단계를 수행합니다.
    phys-schost# su
  2. 최신 검사가 있는지 확인합니다.

    My Oracle Support(내 Oracle 지원)의 Patches & Updates(패치 & 업데이트) 탭으로 이동합니다. Advanced Search(고급 검색)를 사용하여 "Solaris Cluster"를 제품으로 선택하고 Description 필드에 "check"를 지정하여 검사가 포함된 Oracle Solaris Cluster 패치를 찾습니다. 클러스터에 아직 설치되지 않은 패치를 적용합니다.

  3. 기본 유효성 검사를 실행합니다.
    # cluster check -v -o outputdir
    -v

    자세한 표시 모드

    -o outputdir

    outputdir 하위 디렉토리로 출력을 리디렉션합니다.

    이 명령은 사용 가능한 모든 기본 검사를 실행합니다. 클러스터 기능은 영향을 받지 않습니다.

  4. 대화식 유효성 검사를 실행합니다.
    # cluster check -v -k interactive -o outputdir
    -k interactive

    실행 중인 대화식 유효성 검사를 지정합니다.

    이 명령은 사용 가능한 대화식 검사를 모두 실행하고 클러스터에 대해 필요한 정보를 요구합니다. 클러스터 기능은 영향을 받지 않습니다.

  5. 기능 유효성 검사를 실행합니다.
    1. 간단한 표시 모드로 사용 가능한 기능 검사를 모두 나열합니다.
      # cluster list-checks -k functional
    2. 기능 검사에서 생산 환경의 클러스터 가용성 또는 서비스를 방해하는 작업을 수행하는지 확인합니다.

      예를 들어 기능 검사를 수행하면 노드 패닉이 발생하거나 다른 노드로 페일오버될 있습니다.

      # cluster list-checks -v -C checkID
      -C checkID

      특정 검사를 지정합니다.

    3. 수행하려는 기능 검사에서 클러스터 작동을 방해할 수 있는 경우 클러스터가 생산 환경에 없는지 확인합니다.
    4. 기능 검사를 시작합니다.
      # cluster check -v -k functional -C checkid -o outputdir
      -k functional

      실행 중인 기능 유효성 검사를 지정합니다.

      검사에서 표시되는 메시지에 응답하여 검사가 실행되도록 하고 모든 정보 또는 수행해야 하는 작업을 확인합니다.

    5. 나머지 각 기능 검사를 실행하려면 단계 c단계 d를 반복합니다.

      주 - 레코드 유지를 위해 실행한 각 검사에 대해 고유한 outputdir 하위 디렉토리 이름을 지정합니다. outputdir 이름을 다시 사용하면 새 검사의 출력이 다시 사용된 outputdir 하위 디렉토리의 기존 내용을 덮어씁니다.


  6. 영역 클러스터의 구성을 검사하여 영역 클러스터를 설치할 수 있는지 여부를 확인합니다.
    phys-schost# clzonecluster verify zoneclustername
  7. 향후 진단을 위해 클러스터 구성을 기록해 둡니다.

    Oracle Solaris Cluster 소프트웨어 설치 설명서의 클러스터 구성의 진단 데이터를 기록하는 방법을 참조하십시오.

예 1-8 모든 기본 검사를 통과한 상태에서 전역 클러스터 구성 검사

다음 예에서는 모든 검사를 통과한 phys-schost-1phys-schost-2 노드에 대해 세부 정보 표시 모드로 실행되는 cluster check를 보여 줍니다.

phys-schost# cluster check -v -h phys-schost-1,  
     phys-schost-2

cluster check: Requesting explorer data and node report from phys-schost-1.
cluster check: Requesting explorer data and node report from phys-schost-2.
cluster check: phys-schost-1: Explorer finished.
cluster check: phys-schost-1: Starting single-node checks.
cluster check: phys-schost-1: Single-node checks finished.
cluster check: phys-schost-2: Explorer finished.
cluster check: phys-schost-2: Starting single-node checks.
cluster check: phys-schost-2: Single-node checks finished.
cluster check: Starting multi-node checks.
cluster check: Multi-node checks finished
# 

예 1-9 대화식 유효성 검사 나열

다음 예에는 클러스터에서 실행하는 데 사용할 수 있는 모든 대화식 검사가 나열되어 있습니다. 예제 출력에서는 가능한 검사의 표본 추출을 보여 주며 실제로 사용 가능한 검사는 각 구성에 따라 다릅니다.

# cluster list-checks -k interactive
 Some checks might take a few moments to run (use -v to see progress)...
 I6994574  :   (Moderate)   Fix for GLDv3 interfaces on cluster transport vulnerability applied?

예 1-10 기능 유효성 검사 실행

다음 예에서는 먼저 자세한 기능 검사 목록을 보여 줍니다. 그런 다음 F6968101 검사에 대한 자세한 설명을 나열하며, 검사에 의해 클러스터 서비스가 중단됨을 나타냅니다. 클러스터는 생산 환경에서 가져옵니다. 그러면 기능 검사가 실행되고 자세한 출력이 funct.test.F6968101.12Jan2011 하위 디렉토리에 기록됩니다. 예제 출력에서는 가능한 검사의 표본 추출을 보여 주며 실제로 사용 가능한 검사는 각 구성에 따라 다릅니다.

# cluster list-checks -k functional
 F6968101  :   (Critical)   Perform resource group switchover
 F6984120  :   (Critical)   Induce cluster transport network failure - single adapter.
 F6984121  :   (Critical)   Perform cluster shutdown
 F6984140  :   (Critical)   Induce node panic
…

# cluster list-checks -v -C F6968101
 F6968101: (Critical) Perform resource group switchover
Keywords: SolarisCluster3.x, functional
Applicability: Applicable if multi-node cluster running live.
Check Logic: Select a resource group and destination node. Perform 
'/usr/cluster/bin/clresourcegroup switch' on specified resource group 
either to specified node or to all nodes in succession.
Version: 1.2
Revision Date: 12/10/10 

Take the cluster out of production

# cluster check -k functional -C F6968101 -o funct.test.F6968101.12Jan2011
F6968101 
  initializing...
  initializing xml output...
  loading auxiliary data...
  starting check run...
     pschost1, pschost2, pschost3, pschost4:     F6968101.... starting:  
Perform resource group switchover           


  ============================================================

   >>> Functional Check <<<

    'Functional' checks exercise cluster behavior. It is recommended that you
    do not run this check on a cluster in production mode.' It is recommended
    that you have access to the system console for each cluster node and
    observe any output on the consoles while the check is executed.

    If the node running this check is brought down during execution the check
    must be rerun from this same node after it is rebooted into the cluster in
    order for the check to be completed.

    Select 'continue' for more details on this check.

          1) continue
          2) exit

          choice: 1


  ============================================================

   >>> Check Description <<<
…
Follow onscreen directions

예 1-11 실패한 검사가 있는 상태에서 전역 클러스터 구성 검사

다음 예에서는 /global/phys-schost-1 마운트 지점이 없는 suncluster 클러스터의 phys-schost-2 노드를 보여 줍니다. 보고서는 /var/cluster/logs/cluster_check/<timestamp> 출력 디렉토리에 만들어집니다.

phys-schost# cluster check -v -h phys-schost-1, 
phys-schost-2 -o
     /var/cluster/logs/cluster_check/Dec5/

cluster check: Requesting explorer data and node report from phys-schost-1.
cluster check: Requesting explorer data and node report from phys-schost-2.
cluster check: phys-schost-1: Explorer finished.
cluster check: phys-schost-1: Starting single-node checks.
cluster check: phys-schost-1: Single-node checks finished.
cluster check: phys-schost-2: Explorer finished.
cluster check: phys-schost-2: Starting single-node checks.
cluster check: phys-schost-2: Single-node checks finished.
cluster check: Starting multi-node checks.
cluster check: Multi-node checks finished.
cluster check: One or more checks failed.
cluster check: The greatest severity of all check failures was 3 (HIGH).
cluster check: Reports are in /var/cluster/logs/cluster_check/<Dec5>.
# 
# cat /var/cluster/logs/cluster_check/Dec5/cluster_check-results.suncluster.txt
...
===================================================
= ANALYSIS DETAILS =
===================================================
------------------------------------
CHECK ID : 3065
SEVERITY : HIGH
FAILURE  : Global filesystem /etc/vfstab entries are not consistent across 
all Oracle Solaris  Cluster 3.x nodes.
ANALYSIS : The global filesystem /etc/vfstab entries are not consistent across 
all nodes in this cluster.
Analysis indicates:
FileSystem '/global/phys-schost-1' is on 'phys-schost-1' but missing from 'phys-schost-2'.
RECOMMEND: Ensure each node has the correct /etc/vfstab entry for the 
filesystem(s) in question.
...
 #

전역 마운트 지점을 확인하는 방법

cluster(1CL) 명령에는 /etc/vfstab 파일에서 클러스터 파일 시스템과 전역 마운트 지점의 구성 오류를 검사하는 검사가 포함됩니다.


주 - 장치 또는 볼륨 관리 구성 요소에 영향을 주는 클러스터 구성을 변경한 후 cluster check를 실행합니다.


  1. 전역 클러스터의 활성 구성원 노드에서 수퍼유저로 전환합니다.

    전역 클러스터의 한 노드에서 이 절차의 모든 단계를 수행합니다.

    % su
  2. 전역 클러스터 구성을 확인합니다.
    phys-schost# cluster check

예 1-12 전역 마운트 지점 검사

다음 예에서는 /global/schost-1 마운트 지점이 없는 suncluster 클러스터의 phys-schost-2 노드를 보여 줍니다. 보고서는 /var/cluster/logs/cluster_check/<timestamp>/ 출력 디렉토리로 전송됩니다.

phys-schost# cluster check -v1 -h phys-schost-1,phys-schost-2 -o /var/cluster//logs/cluster_check/Dec5/

cluster check: Requesting explorer data and node report from phys-schost-1.
cluster check: Requesting explorer data and node report from phys-schost-2.
cluster check: phys-schost-1: Explorer finished.
cluster check: phys-schost-1: Starting single-node checks.
cluster check: phys-schost-1: Single-node checks finished.
cluster check: phys-schost-2: Explorer finished.
cluster check: phys-schost-2: Starting single-node checks.
cluster check: phys-schost-2: Single-node checks finished.
cluster check: Starting multi-node checks.
cluster check: Multi-node checks finished.
cluster check: One or more checks failed.
cluster check: The greatest severity of all check failures was 3 (HIGH).
cluster check: Reports are in /var/cluster/logs/cluster_check/Dec5.
# 
# cat /var/cluster/logs/cluster_check/Dec5/cluster_check-results.suncluster.txt

...
===================================================
= ANALYSIS DETAILS =
===================================================
------------------------------------
CHECK ID : 3065
SEVERITY : HIGH
FAILURE  : Global filesystem /etc/vfstab entries are not consistent across 
all Oracle Solaris Cluster 3.x nodes.
ANALYSIS : The global filesystem /etc/vfstab entries are not consistent across 
all nodes in this cluster.
Analysis indicates:
FileSystem '/global/phys-schost-1' is on 'phys-schost-1' but missing from 'phys-schost-2'.
RECOMMEND: Ensure each node has the correct /etc/vfstab entry for the 
filesystem(s) in question.
...
#
# cat /var/cluster/logs/cluster_check/Dec5/cluster_check-results.phys-schost-1.txt

...
===================================================
= ANALYSIS DETAILS =
===================================================
------------------------------------
CHECK ID : 1398
SEVERITY : HIGH
FAILURE  : An unsupported server is being used as an Oracle Solaris Cluster 3.x node.
ANALYSIS : This server may not been qualified to be used as an Oracle Solaris Cluster 3.x node.  
Only servers that have been qualified with Oracle Solaris Cluster 3.x are supported as 
Oracle Solaris Cluster 3.x nodes.
RECOMMEND: Because the list of supported servers is always being updated, check with 
your Oracle representative to get the latest information on what servers 
are currently supported and only use a server that is supported with Oracle Solaris Cluster 3.x.
...
#

Oracle Solaris Cluster 명령 로그 내용을 보는 방법

/var/cluster/logs/commandlog ASCII 텍스트 파일에는 클러스터에서 실행되는 선택된 Oracle Solaris Cluster 명령이 기록되어 있습니다. 명령의 기록은 클러스터를 설정할 때 자동으로 시작되어 클러스터를 종료할 때 끝납니다. 명령은 클러스터 모드로 실행되고 부트된 모든 노드에 기록됩니다.

이 파일에 기록되지 않은 명령에는 클러스터의 구성 및 현재 상태를 표시하는 명령이 포함되어 있습니다.

이 파일에 기록된 명령에는 클러스터의 현재 상태를 구성하고 변경하는 명령이 포함되어 있습니다.

commandlog 파일의 기록에는 다음 요소가 포함될 수 있습니다.

기본적으로 commandlog 파일은 일주일에 한 번씩 저장됩니다. commandlog 파일에 대한 아카이빙 정책을 변경하려면, 클러스터의 각 노드에서 crontab 명령을 사용합니다. 자세한 내용은 crontab(1) 매뉴얼 페이지를 참조하십시오.

Oracle Solaris Cluster 소프트웨어는 모든 지정된 시간에 최대 8개의 사전 저장된 commandlog 파일을 각 클러스터 노드에 유지합니다. 현재 주간의 commandlog 파일 이름은 commandlog입니다. 가장 최근 주간의 파일 이름은 commandlog.0입니다. 가장 오래된 주간의 파일 이름은 commandlog.7입니다.

예 1-13 Oracle Solaris Cluster 명령 로그의 내용 보기

다음 예에서는 more 명령을 실행하여 표시된 commandlog 파일의 내용을 보여 줍니다.

more -lines10 /var/cluster/logs/commandlog
11/11/2006 09:42:51 phys-schost-1 5222 root START - clsetup
11/11/2006 09:43:36 phys-schost-1 5758 root START - clrg add "app-sa-1"
11/11/2006 09:43:36 phys-schost-1 5758 root END 0
11/11/2006 09:43:36 phys-schost-1 5760 root START - clrg set -y
"RG_description=Department Shared Address RG" "app-sa-1"
11/11/2006 09:43:37 phys-schost-1 5760 root END 0
11/11/2006 09:44:15 phys-schost-1 5810 root START - clrg online "app-sa-1"
11/11/2006 09:44:15 phys-schost-1 5810 root END 0
11/11/2006 09:44:19 phys-schost-1 5222 root END -20988320
12/02/2006 14:37:21 phys-schost-1 5542 jbloggs START - clrg -c -g "app-sa-1"
-y "RG_description=Joe Bloggs Shared Address RG"
12/02/2006 14:37:22 phys-schost-1 5542 jbloggs END 0