Oracle® Solaris Cluster 시스템 관리 설명서

인쇄 보기 종료

업데이트 날짜: 2015년 10월
 
 

노드 부트 방법

전역 클러스터 또는 영역 클러스터에서 다른 활성 노드를 종료하거나 재부트하려면 부트하려는 노드에 대해 다중 사용자 서버 이정표가 온라인 상태가 될 때까지 기다리십시오.

그렇지 않으면 종료하거나 재부트하는 클러스터의 다른 노드에서 서비스를 인계할 수 없습니다.


주 -  쿼럼 구성에 따라 노드 시작 방법이 달라질 수 있습니다. 두 개의 노드로 구성된 클러스터에서는 클러스터의 총 쿼럼 계수가 3이 되도록 쿼럼 장치가 구성되어야 합니다. 즉, 각 노드에 대한 쿼럼 수가 하나씩 구성되고 쿼럼 장치에 대한 쿼럼 수 하나가 구성되어야 합니다. 이러한 경우에 첫번째 노드가 종료되면 두번째 노드가 계속 쿼럼 자격을 갖고 단일 클러스터 구성원으로 실행됩니다. 첫번째 노드가 다시 클러스터에 포함되어 클러스터 노드로 실행되려면 두번째 노드가 계속 실행되고 있어야 합니다. 또한 필요한 쿼럼 수(2)가 유지되어야 합니다.

게스트 도메인에서 Oracle Solaris Cluster를 실행 중인 경우 컨트롤 또는 I/O 도메인을 재부트하면 도메인 작동 중지를 포함하여 실행 중인 게스트 도메인에 영향을 미칠 수 있습니다. 컨트롤 또는 I/O 도메인을 재부트하기 전에 다른 노드로 작업 부하 균형을 조정하고 Oracle Solaris Cluster를 실행 중인 게스트 도메인을 중지해야 합니다.

컨트롤 또는 I/O 도메인이 재부트되면 게스트 도메인에서 하트비트를 받거나 보내지 않습니다. 이로 인해 정보 분리(split-brain) 및 클러스터 재구성이 발생합니다. 컨트롤 또는 I/O 도메인이 재부트된 후에는 게스트 도메인이 공유 장치에 액세스할 수 없습니다. 다른 클러스터 노드가 공유 장치로부터 이 게스트 도메인을 보호합니다. 컨트롤 또는 I/O 도메인이 재부트를 마치면 클러스터 재구성의 일부로 공유 디스크에서 보호가 해제되므로 게스트 도메인에서 I/O가 재개되고 공유 장치의 I/O로 인해 게스트 도메인 패닉이 발생합니다. 게스트가 중복을 위해 두 개의 I/O 도메인을 사용 중이고 한 번에 하나씩 I/O 도메인을 재부트할 경우 이 문제를 해결할 수 있습니다.

phys-schost# 프롬프트는 전역 클러스터 프롬프트를 반영합니다. 전역 클러스터에서 이 절차를 수행합니다.

이 절차에서는 장문형 Oracle Solaris Cluster 명령을 제공합니다. 대부분의 명령에는 단문형도 있습니다. 명령은 명령 이름이 장문형과 단문형인 것을 제외하면 동일합니다.


주 -  클러스터 구성원이 되려면 노드가 현재 클러스터 상호 연결에 연결되어 있어야 합니다.

Oracle Solaris Cluster Manager GUI를 통해서도 영역 클러스터 노드를 부트할 수 있습니다. GUI 로그인 지침은 Oracle Solaris Cluster Manager에 액세스하는 방법을 참조하십시오.

  1. 종료된 전역 클러스터 노드 또는 영역 클러스터 노드를 시작하려면 노드를 부트합니다.

    전역 클러스터의 한 노드에서 이 절차의 모든 단계를 수행합니다.

    • SPARC 기반 시스템에서는 다음 명령을 실행합니다.

      ok boot
    • x86 기반 시스템에서는 다음 명령을 실행합니다.

      GRUB 메뉴가 표시되면 적절한 Oracle Solaris 항목을 선택하고 Enter 키를 누릅니다.

      클러스터 구성 요소가 활성화되면 부트된 노드의 콘솔에 메시지가 나타납니다.

    • 한 개의 영역 클러스터가 있는 경우 부트할 노드를 지정할 수 있습니다.

      phys-schost# clzonecluster boot -n node zoneclustername
  2. 노드가 오류 없이 부트되고 온라인 상태인지 확인합니다.
    • cluster status 명령을 실행하면 전역 클러스터 노드의 상태가 보고됩니다.
      phys-schost# cluster status -t node
    • 전역 클러스터의 한 노드에서 clzonecluster status 명령을 실행하면 모든 영역 클러스터 노드의 상태가 보고됩니다.
      phys-schost# clzonecluster status

      영역 클러스터 노드는 해당 노드를 호스트하는 노드가 클러스터 모드로 부트된 경우에만 클러스터 모드로 부트할 수 있습니다.


      주 -  노드의 /var 파일 시스템이 꽉 차면 해당 노드에서 Oracle Solaris Cluster를 다시 시작하지 못할 수도 있습니다. 이런 문제가 발생하면 꽉 찬 /var 파일 시스템을 복구하는 방법을 참조하십시오.
예 3-12  SPARC: 전역 클러스터 노드 부트

다음 예에서는 phys-schost-1 노드를 전역 클러스터로 부트할 때 표시되는 콘솔 출력을 보여 줍니다.

ok boot
Rebooting with command: boot
...
Hostname: phys-schost-1
Booting as part of a cluster
...
NOTICE: Node phys-schost-1: attempting to join cluster
...
NOTICE: Node phys-schost-1: joined cluster
...
The system is coming up.  Please wait.
checking ufs filesystems
...
reservation program successfully exiting
Print services started.
volume management starting.
The system is ready.
phys-schost-1 console login:
예 3-13  x86: 클러스터 노드 부트

다음 예에서는 phys-schost-1 노드를 클러스터로 부트할 때 표시되는 콘솔 출력을 보여 줍니다.

                     <<< Current Boot Parameters >>>
Boot path: /pci@0,0/pci8086,2545@3/pci8086,1460@1d/pci8086,341a@7,1/sd@0,0:a
Boot args:

Type    b [file-name] [boot-flags] <ENTER>   to boot with options
or      i <ENTER>                            to enter boot interpreter
or      <ENTER>                              to boot with defaults

<<< timeout in 5 seconds >>>

Select (b)oot or (i)nterpreter: Size: 276915 + 22156 + 150372 Bytes
/platform/i86pc/kernel/unix loaded - 0xac000 bytes used
SunOS Release 5.9 Version on81-feature-patch:08/30/2003 32-bit
Copyright 1983-2003 Sun Microsystems, Inc.  All rights reserved.
Use is subject to license terms.
configuring IPv4 interfaces: e1000g2.
Hostname: phys-schost-1
Booting as part of a cluster
NOTICE: CMM: Node phys-schost-1 (nodeid = 1) with votecount = 1 added.
NOTICE: CMM: Node phys-schost-2 (nodeid = 2) with votecount = 1 added.
NOTICE: CMM: Quorum device 1 (/dev/did/rdsk/d1s2) added; votecount = 1, bitmask
of nodes with configured paths = 0x3.
WARNING: CMM: Initialization for quorum device /dev/did/rdsk/d1s2 failed with
error EACCES. Will retry later.
NOTICE: clcomm: Adapter e1000g3 constructed
NOTICE: clcomm: Path phys-schost-1:e1000g3 - phys-schost-2:e1000g3 being constructed
NOTICE: clcomm: Path phys-schost-1:e1000g3 - phys-schost-2:e1000g3 being initiated
NOTICE: clcomm: Path phys-schost-1:e1000g3 - phys-schost-2:e1000g3 online
NOTICE: clcomm: Adapter e1000g0 constructed
NOTICE: clcomm: Path phys-schost-1:e1000g0 - phys-schost-2:e1000g0 being constructed
NOTICE: CMM: Node phys-schost-1: attempting to join cluster.
WARNING: CMM: Reading reservation keys from quorum device /dev/did/rdsk/d1s2
failed with error 2.
NOTICE: CMM: Cluster has reached quorum.
NOTICE: CMM: Node phys-schost-1 (nodeid = 1) is up; new incarnation number =
1068503958.
NOTICE: CMM: Node phys-schost-2 (nodeid = 2) is up; new incarnation number =
1068496374.
NOTICE: CMM: Cluster members: phys-schost-1 phys-schost-2.
NOTICE: CMM: node reconfiguration #3 completed.
NOTICE: CMM: Node phys-schost-1: joined cluster.
NOTICE: clcomm: Path phys-schost-1:e1000g0 - phys-schost-2:e1000g0 being initiated
NOTICE: clcomm: Path phys-schost-1:e1000g0 - phys-schost-2:e1000g0 online
NOTICE: CMM: Retry of initialization for quorum device /dev/did/rdsk/d1s2 was
successful.
WARNING: mod_installdrv: no major number for rsmrdt
ip: joining multicasts failed (18) on clprivnet0 - will use link layer
broadcasts for multicast
The system is coming up.  Please wait.
checking ufs filesystems
/dev/rdsk/c1t0d0s5: is clean.
NIS domain name is dev.eng.mycompany.com
starting rpc services: rpcbind keyserv ypbind done.
Setting netmask of e1000g2 to 192.168.255.0
Setting netmask of e1000g3 to 192.168.255.128
Setting netmask of e1000g0 to 192.168.255.128
Setting netmask of clprivnet0 to 192.168.255.0
Setting default IPv4 interface for multicast: add net 224.0/4: gateway phys-schost-1
syslog service starting.
obtaining access to all attached disks


*****************************************************************************
*
* The X-server can not be started on display :0...
*
*****************************************************************************
volume management starting.
Starting Fault Injection Server...
The system is ready.

phys-schost-1 console login: