Oracle® Solaris Cluster 시스템 관리 설명서

인쇄 보기 종료

업데이트 날짜: 2015년 10월
 
 

기본 클러스터 구성을 검증하는 방법

cluster 명령은 check 하위 명령을 사용하여 전역 클러스터가 제대로 작동하는 데 필요한 기본 구성을 검증합니다. 모든 검사가 성공하면 cluster check가 셸 프롬프트로 돌아갑니다. 검사가 실패하면 cluster check에서 지정된 출력 디렉토리 또는 기본 출력 디렉토리에 보고서를 생성합니다. 둘 이상의 노드에 대해 cluster check를 실행하면 cluster check에서 각 노드에 대한 보고서와 다중 노드 검사에 대한 보고서를 생성합니다. cluster list-checks 명령을 사용하여 사용 가능한 모든 클러스터 검사 목록을 표시할 수도 있습니다.

사용자 상호 작용 없이 실행되는 기본 검사뿐만 아니라 대화식 검사 및 기능 검사도 실행할 수 있습니다. 기본 검사는 –k keyword 옵션을 지정하지 않으면 실행됩니다.

  • 대화식 검사에는 검사에서 확인할 수 없는 사용자 정보가 필요합니다. 검사에서 펌웨어 버전 번호와 같이 필요한 정보를 사용자에게 요구하는 메시지를 표시합니다. –k interactive 키워드를 사용하여 하나 이상의 대화식 검사를 지정합니다.

  • 기능 검사에서는 클러스터의 특정 기능이나 동작을 검사합니다. 검사에서는 검사를 시작하거나 계속할지에 대한 확인뿐만 아니라 페일오버할 노드 등에 대한 사용자 입력을 요청합니다. –k functional check-id 키워드를 사용하여 기능 검사를 지정합니다. 한 번에 하나의 기능 검사만 수행합니다.


    주 -  일부 기능 검사에서는 클러스터 서비스를 중단시키므로 검사에 대한 자세한 설명을 읽고 생산에서 클러스터를 먼저 가져와야 하는지 여부를 결정한 다음에 기능 검사를 시작해야 합니다. 이 정보를 표시하려면 다음 명령을 사용하십시오.
    % cluster list-checks -v -C checkID

–v 플래그를 사용하여 자세한 표시 모드로 cluster check 명령을 실행하면 진행률 정보를 표시할 수 있습니다.


주 -  장치, 볼륨 관리 구성 요소 또는 Oracle Solaris Cluster 구성을 변경할 수 있는 관리 절차를 수행한 후 cluster check 명령을 실행합니다.

전역 클러스터 노드에서 clzonecluster(1CL) 명령을 실행하면 검사 세트가 실행되어 영역 클러스터가 제대로 작동하는 데 필요한 구성이 검증됩니다. 모든 검사를 통과하면 clzonecluster verify가 셸 프롬프트로 돌아가며 영역 클러스터를 안전하게 설치할 수 있습니다. 검사가 실패하면 clzonecluster verify에서 확인이 실패한 전역 클러스터 노드에 대해 보고합니다. 둘 이상의 노드에 대해 clzonecluster verify 명령을 실행하면 각 노드에 대한 보고서와 다중 노드 검사에 대한 보고서가 생성됩니다. verify 하위 명령은 영역 클러스트 내에서 사용할 수 없습니다.

  1. 전역 클러스터의 활성 구성원 노드에서 root 역할을 수행합니다.
    phys-schost# su

    전역 클러스터의 한 노드에서 이 절차의 모든 단계를 수행합니다.

  2. 최신 검사가 있는지 확인합니다.
    1. My Oracle Support의 Patches & Updates(패치 & 업데이트) 탭으로 이동합니다.
    2. Advanced Search(고급 검색)에서 Product(제품)로 Solaris Cluster를 선택하고 Description(설명) 필드에 check를 입력합니다.

      검색에서 check가 포함된 Oracle Solaris Cluster 소프트웨어 업데이트를 찾습니다.

    3. 아직 클러스터에 설치되지 않은 소프트웨어 업데이트를 적용합니다.
  3. 기본 유효성 검사를 실행합니다.
    phys-schost# cluster check -v -o outputdir
    –v

    상세 정보 모드

    –o outputdir

    outputdir 하위 디렉토리로 출력을 리디렉션합니다.

    이 명령은 사용 가능한 모든 기본 검사를 실행합니다. 클러스터 기능은 영향을 받지 않습니다.

  4. 대화식 유효성 검사를 실행합니다.
    phys-schost# cluster check -v -k interactive -o outputdir
    –k interactive

    실행 중인 대화식 유효성 검사를 지정합니다.

    이 명령은 사용 가능한 대화식 검사를 모두 실행하고 클러스터에 대해 필요한 정보를 요구합니다. 클러스터 기능은 영향을 받지 않습니다.

  5. 기능 유효성 검사를 실행합니다.
    1. 간단한 표시 모드로 사용 가능한 기능 검사를 모두 나열합니다.
      phys-schost# cluster list-checks -k functional
    2. 기능 검사에서 생산 환경의 클러스터 가용성 또는 서비스를 방해하는 작업을 수행하는지 확인합니다.

      예를 들어 기능 검사를 수행하면 노드 패닉이 발생하거나 다른 노드로 페일오버될 있습니다.

      phys-schost# cluster list-checks -v -C check-ID
      –C check-ID

      특정 검사를 지정합니다.

    3. 수행하려는 기능 검사에서 클러스터 작동을 방해할 수 있는 경우 클러스터가 생산 환경에 없는지 확인합니다.
    4. 기능 검사를 시작합니다.
      phys-schost# cluster check -v -k functional -C check-ID -o outputdir
      –k functional

      실행 중인 기능 유효성 검사를 지정합니다.

      검사에서 표시되는 메시지에 응답하여 검사가 실행되도록 하고 모든 정보 또는 수행해야 하는 작업을 확인합니다.

    5. 나머지 각 기능 검사를 실행하려면 Step c 와 Step d 를 반복합니다.

      주 -  레코드 유지를 위해 실행한 각 검사에 대해 고유한 outputdir 하위 디렉토리 이름을 지정합니다. outputdir 이름을 다시 사용하면 새 검사의 출력이 다시 사용된 outputdir 하위 디렉토리의 기존 내용을 덮어씁니다.
  6. 영역 클러스터가 구성된 경우 영역 클러스터의 구성을 검사하여 영역 클러스터를 설치할 수 있는지 여부를 확인합니다.
    phys-schost# clzonecluster verify zoneclustername
  7. 향후 진단을 위해 클러스터 구성을 기록해 둡니다.

    Oracle Solaris Cluster 소프트웨어 설치 설명서 의 클러스터 구성의 진단 데이터를 기록하는 방법을 참조하십시오.

예 1-7  모든 기본 검사를 통과한 상태에서 전역 클러스터 구성 검사

다음 예에서는 모든 검사를 통과한 phys-schost-1phys-schost-2 노드에 대해 상세 정보 모드로 실행되는 cluster check를 보여 줍니다.

phys-schost# cluster check -v -h phys-schost-1, phys-schost-2

cluster check: Requesting explorer data and node report from phys-schost-1.
cluster check: Requesting explorer data and node report from phys-schost-2.
cluster check: phys-schost-1: Explorer finished.
cluster check: phys-schost-1: Starting single-node checks.
cluster check: phys-schost-1: Single-node checks finished.
cluster check: phys-schost-2: Explorer finished.
cluster check: phys-schost-2: Starting single-node checks.
cluster check: phys-schost-2: Single-node checks finished.
cluster check: Starting multi-node checks.
cluster check: Multi-node checks finished
예 1-8  대화식 유효성 검사 나열

다음 예에는 클러스터에서 실행하는 데 사용할 수 있는 모든 대화식 검사가 나열되어 있습니다. 예제 출력에서는 가능한 검사의 표본 추출을 보여 주며 실제로 사용 가능한 검사는 각 구성에 따라 다릅니다.

# cluster list-checks -k interactive
 Some checks might take a few moments to run (use -v to see progress)...
 I6994574  :  (Moderate)  Fix for GLDv3 interfaces on cluster transport vulnerability applied?
예 1-9  기능 유효성 검사 실행

다음 예에서는 먼저 자세한 기능 검사 목록을 보여 줍니다. 그런 다음 F6968101 검사에 대한 자세한 설명을 나열하며, 검사에 의해 클러스터 서비스가 중단됨을 나타냅니다. 클러스터는 생산 환경에서 가져옵니다. 그러면 기능 검사가 실행되고 자세한 출력이 funct.test.F6968101.12Jan2011 하위 디렉토리에 기록됩니다. 예제 출력에서는 가능한 검사의 표본 추출을 보여 주며 실제로 사용 가능한 검사는 각 구성에 따라 다릅니다.

# cluster list-checks -k functional
 F6968101  :   (Critical)   Perform resource group switchover
 F6984120  :   (Critical)   Induce cluster transport network failure - single adapter.
 F6984121  :   (Critical)   Perform cluster shutdown
 F6984140  :   (Critical)   Induce node panic
# cluster list-checks -v -C F6968101
 F6968101: (Critical) Perform resource group switchover
Keywords: SolarisCluster3.x, functional
Applicability: Applicable if multi-node cluster running live.
Check Logic: Select a resource group and destination node. Perform 
'/usr/cluster/bin/clresourcegroup switch' on specified resource group 
either to specified node or to all nodes in succession.
Version: 1.2
Revision Date: 12/10/10 

클러스터를 생산 환경에서 가져옵니다.

# cluster list-checks -k functional -C F6968101 -o funct.test.F6968101.12Jan2011
F6968101 
  initializing...
  initializing xml output...
  loading auxiliary data...
  starting check run...
     pschost1, pschost2, pschost3, pschost4:     F6968101.... starting:  
Perform resource group switchover           


  ============================================================

   >>> Functional Check 

    'Functional' checks exercise cluster behavior. It is recommended that you
    do not run this check on a cluster in production mode.' It is recommended
    that you have access to the system console for each cluster node and
    observe any output on the consoles while the check is executed.

    If the node running this check is brought down during execution the check
    must be rerun from this same node after it is rebooted into the cluster in
    order for the check to be completed.

    Select 'continue' for more details on this check.

          1) continue
          2) exit

          choice: l

  ============================================================

   >>> Check Description <<<

화면의 지시를 따릅니다.
예 1-10  실패한 검사가 있는 상태에서 전역 클러스터 구성 검사

다음 예에서는 /global/phys-schost-1 마운트 지점이 없는 suncluster 클러스터의 phys-schost-2 노드를 보여 줍니다. 보고서는 /var/cluster/logs/cluster_check/<timestamp> 출력 디렉토리에 만들어집니다.

phys-schost# cluster check -v -h phys-schost-1, 
phys-schost-2 -o  /var/cluster/logs/cluster_check/Dec5/

cluster check: Requesting explorer data and node report from phys-schost-1.
cluster check: Requesting explorer data and node report from phys-schost-2.
cluster check: phys-schost-1: Explorer finished.
cluster check: phys-schost-1: Starting single-node checks.
cluster check: phys-schost-1: Single-node checks finished.
cluster check: phys-schost-2: Explorer finished.
cluster check: phys-schost-2: Starting single-node checks.
cluster check: phys-schost-2: Single-node checks finished.
cluster check: Starting multi-node checks.
cluster check: Multi-node checks finished.
cluster check: One or more checks failed.
cluster check: The greatest severity of all check failures was 3 (HIGH).
cluster check: Reports are in /var/cluster/logs/cluster_check/<Dec5>.
#
# cat /var/cluster/logs/cluster_check/Dec5/cluster_check-results.suncluster.txt
...
===================================================
= ANALYSIS DETAILS =
===================================================
------------------------------------
CHECK ID : 3065
SEVERITY : HIGH
FAILURE  : Global filesystem /etc/vfstab entries are not consistent across
all Oracle Solaris  Cluster 4.x nodes.
ANALYSIS : The global filesystem /etc/vfstab entries are not consistent across
all nodes in this cluster.
Analysis indicates:
FileSystem '/global/phys-schost-1' is on 'phys-schost-1' but missing from 'phys-schost-2'.
RECOMMEND: Ensure each node has the correct /etc/vfstab entry for the
filesystem(s) in question.
...
#