Oracle® Solaris Cluster 시스템 관리 설명서

인쇄 보기 종료

업데이트 날짜: 2015년 10월
 
 

클러스터를 재부트하는 방법

전역 클러스터를 종료하려면 cluster shutdown 명령을 실행한 다음 각 노드에서 boot 명령을 사용하여 전역 클러스터를 부트합니다. 영역 클러스터를 종료하려면 clzonecluster halt 명령을 사용한 다음 clzonecluster boot 명령을 사용하여 영역 클러스터를 부트합니다. clzonecluster reboot 명령을 사용할 수도 있습니다. 자세한 내용은 cluster(1CL), boot(1M), clzonecluster(1CL) 매뉴얼 페이지를 참조하십시오.

phys-schost# 프롬프트는 전역 클러스터 프롬프트를 반영합니다. 전역 클러스터에서 이 절차를 수행합니다.

이 절차에서는 장문형 Oracle Solaris Cluster 명령을 제공합니다. 대부분의 명령에는 단문형도 있습니다. 명령은 명령 이름이 장문형과 단문형인 것을 제외하면 동일합니다.

  1. 클러스터에서 Oracle RAC를 실행하는 경우 종료 중인 클러스터에서 모든 데이터베이스 인스턴스를 종료합니다.

    종료 절차에 대한 내용은 Oracle RAC 제품 설명서를 참조하십시오.

  2. 클러스터의 임의 노드에서 solaris.cluster.admin RBAC 권한 부여를 제공하는 역할로 전환합니다.

    전역 클러스터의 한 노드에서 이 절차의 모든 단계를 수행합니다.

  3. 클러스터를 종료합니다.
    • 전역 클러스터를 종료합니다.
      phys-schost# cluster shutdown -g0 -y 
    • 영역 클러스터가 있는 경우 전역 클러스터 노드에서 영역 클러스터를 종료합니다.
      phys-schost# clzonecluster halt zoneclustername

    각 노드가 종료됩니다. 영역 클러스터 내에서 cluster shutdown 명령을 사용하여 영역 클러스터를 종료할 수도 있습니다.


    주 -  클러스터 구성원이 되려면 노드가 현재 클러스터 상호 연결에 연결되어 있어야 합니다.
  4. 각 노드를 부트합니다.

    시스템 종료 사이에 구성을 변경하지 않으면 노드의 부트 순서는 중요하지 않습니다. 종료 중간에 구성을 변경하려면 먼저 최근 구성을 사용하여 노드를 시작하십시오.

    • SPARC 기반 시스템의 전역 클러스터 노드인 경우 다음 명령을 실행합니다.

      ok boot
    • x86 기반 시스템의 전역 클러스터 노드인 경우 다음 명령을 실행합니다.

      GRUB 메뉴가 표시되면 적절한 Oracle Solaris OS 항목을 선택하고 Enter 키를 누릅니다.


    주 -  클러스터 구성원이 되려면 노드가 현재 클러스터 상호 연결에 연결되어 있어야 합니다.

    GRUB 기반 부트에 대한 자세한 내용은 Oracle Solaris 11.2 시스템 부트 및 종료 의 시스템 부트을 참조하십시오.

    • 영역 클러스터의 경우 전역 클러스터의 단일 노드에서 다음 명령을 입력하여 영역 클러스터를 부트합니다.

      phys-schost# clzonecluster boot zoneclustername

    클러스터 구성 요소가 활성화되면 부트된 노드의 콘솔에 메시지가 나타납니다.

  5. 노드가 오류 없이 부트되고 온라인 상태인지 확인합니다.
    • clnode status 명령은 전역 클러스터의 노드 상태를 보고합니다.
      phys-schost# clnode status
    • 전역 클러스터 노드에서 clzonecluster status 명령을 실행하면 영역 클러스터 노드의 상태가 보고됩니다.
      phys-schost# clzonecluster status

      영역 클러스터 내에서 cluster status 명령을 실행하여 노드의 상태를 표시할 수도 있습니다.


      주 -  노드의 /var 파일 시스템이 꽉 차면 해당 노드에서 Oracle Solaris Cluster를 다시 시작하지 못할 수도 있습니다. 이런 문제가 발생하면 꽉 찬 /var 파일 시스템을 복구하는 방법을 참조하십시오.
예 3-6  영역 클러스터 재부트

다음 예에서는 sparse-sczone이라는 영역 클러스터를 정지하고 부트하는 방법을 보여 줍니다. clzonecluster reboot 명령을 사용할 수도 있습니다.

phys-schost# clzonecluster halt sparse-sczone
Waiting for zone halt commands to complete on all the nodes of the zone cluster "sparse-sczone"...
Sep  5 19:17:46 schost-4 cl_runtime: NOTICE: Membership : Node 4 of cluster 'sparse-sczone' died.
Sep  5 19:17:46 schost-4 cl_runtime: NOTICE: Membership : Node 2 of cluster 'sparse-sczone' died.
Sep  5 19:17:46 schost-4 cl_runtime: NOTICE: Membership : Node 1 of cluster 'sparse-sczone' died.
Sep  5 19:17:46 schost-4 cl_runtime: NOTICE: Membership : Node 3 of cluster 'sparse-sczone' died.
phys-schost#
phys-schost# clzonecluster boot sparse-sczone
Waiting for zone boot commands to complete on all the nodes of the zone cluster "sparse-sczone"...
phys-schost# Sep  5 19:18:23 schost-4  cl_runtime: NOTICE: Membership : Node 1 of cluster
'sparse-sczone' joined.
Sep  5 19:18:23 schost-4 cl_runtime: NOTICE: Membership : Node 2 of cluster 'sparse-sczone' joined.
Sep  5 19:18:23 schost-4 cl_runtime: NOTICE: Membership : Node 3 of cluster 'sparse-sczone' joined.
Sep  5 19:18:23 schost-4 cl_runtime: NOTICE: Membership : Node 4 of cluster 'sparse-sczone' joined.

phys-schost#
phys-schost# clzonecluster status

=== Zone Clusters ===

--- Zone Cluster Status ---

Name            Node Name   Zone HostName   Status   Zone Status
----            ---------   -------------   ------   -----------
sparse-sczone   schost-1    sczone-1        Online   Running
                schost-2    sczone-2        Online   Running
                schost-3    sczone-3        Online   Running
                schost-4    sczone-4        Online   Running
phys-schost# 
예 3-7  SPARC: 전역 클러스터 재부트

다음 예에서는 정상적인 전역 클러스터 작업이 중지되고 모든 노드가 종료되어 ok 프롬프트가 표시된 다음 전역 클러스터가 다시 시작될 때 표시되는 콘솔 출력을 보여 줍니다. –g 0 옵션은 유예 기간을 0으로 설정하고, -y 옵션은 확인 질문에 자동으로 yes 응답을 제공합니다. 전역 클러스터에 있는 다른 노드의 콘솔에도 종료 메시지가 나타납니다.

phys-schost# cluster shutdown -g0 -y
Wed Mar 10 13:47:32 phys-schost-1 cl_runtime:
WARNING: CMM monitoring disabled.
phys-schost-1#
INIT: New run level: 0
The system is coming down.  Please wait.
...
The system is down.
syncing file systems... done
Program terminated
ok boot
Rebooting with command: boot
...
Hostname: phys-schost-1
Booting as part of a cluster
...
NOTICE: Node phys-schost-1: attempting to join cluster
...
NOTICE: Node phys-schost-2 (incarnation # 937690106) has become reachable.
NOTICE: Node phys-schost-3 (incarnation # 937690290) has become reachable.
NOTICE: cluster has reached quorum.
...
NOTICE: Cluster members: phys-schost-1 phys-schost-2 phys-schost-3.
...
NOTICE: Node phys-schost-1: joined cluster
...
The system is coming up.  Please wait.
checking ufs filesystems
...
reservation program successfully exiting
Print services started.
volume management starting.
The system is ready.
phys-schost-1 console login:
NOTICE: Node phys-schost-1: joined cluster
...
The system is coming up.  Please wait.
checking ufs filesystems
...
reservation program successfully exiting
Print services started.
volume management starting.
The system is ready.
phys-schost-1 console login: 
예 3-8  x86: 클러스터 재부트

다음 예에서는 정상적인 클러스터 작업이 중지되고 모든 노드가 종료되어 클러스터가 다시 시작될 때 표시되는 콘솔 출력을 보여 줍니다. –g 0 옵션은 유예 기간을 0으로 설정하고, -y는 확인 질문에 자동으로 yes 응답을 제공합니다. 클러스터에 있는 다른 노드의 콘솔에도 종료 메시지가 나타납니다.

# cluster shutdown -g0 -y
May  2 10:32:57 phys-schost-1 cl_runtime:
WARNING: CMM: Monitoring disabled.
root@phys-schost-1#
INIT: New run level: 0
The system is coming down.  Please wait.
System services are now being stopped.
/etc/rc0.d/K05initrgm: Calling clnode evacuate
failfasts already disabled on node 1
Print services already stopped.
May  2 10:33:13 phys-schost-1 syslogd: going down on signal 15
The system is down.
syncing file systems... done
Type any key to continue

ATI RAGE SDRAM BIOS P/N GR-xlint.007-4.330
*                                        BIOS Lan-Console 2.0
Copyright (C) 1999-2001  Intel Corporation
MAC ADDR: 00 02 47 31 38 3C
AMIBIOS (C)1985-2002 American Megatrends Inc.,
Copyright 1996-2002 Intel Corporation
SCB20.86B.1064.P18.0208191106
SCB2 Production BIOS Version 2.08
BIOS Build 1064
2 X Intel(R) Pentium(R) III CPU family      1400MHz
Testing system memory, memory size=2048MB
2048MB Extended Memory Passed
512K L2 Cache SRAM Passed
ATAPI CD-ROM SAMSUNG CD-ROM SN-124

Press <F2> to enter SETUP, <F12> Network

Adaptec AIC-7899 SCSI BIOS v2.57S4
(c) 2000 Adaptec, Inc. All Rights Reserved.
Press <Ctrl><A> for SCSISelect(TM) Utility!

Ch B,  SCSI ID: 0 SEAGATE  ST336605LC        160
SCSI ID: 1 SEAGATE  ST336605LC        160
SCSI ID: 6 ESG-SHV  SCA HSBP M18      ASYN
Ch A,  SCSI ID: 2 SUN      StorEdge 3310     160
SCSI ID: 3 SUN      StorEdge 3310     160

AMIBIOS (C)1985-2002 American Megatrends Inc.,
Copyright 1996-2002 Intel Corporation
SCB20.86B.1064.P18.0208191106
SCB2 Production BIOS Version 2.08
BIOS Build 1064

2 X Intel(R) Pentium(R) III CPU family      1400MHz
Testing system memory, memory size=2048MB
2048MB Extended Memory Passed
512K L2 Cache SRAM Passed
ATAPI CD-ROM SAMSUNG CD-ROM SN-124

SunOS - Intel Platform Edition             Primary Boot Subsystem, vsn 2.0

Current Disk Partition Information

Part#   Status    Type      Start       Length
================================================
1     Active   X86 BOOT     2428       21852
2              SOLARIS     24280     71662420
3              <unused> 
4              <unused>
Please select the partition you wish to boot: *       *

Solaris DCB

loading /solaris/boot.bin

SunOS Secondary Boot version 3.00

Solaris Intel Platform Edition Booting System

Autobooting from bootpath: /pci@0,0/pci8086,2545@3/pci8086,1460@1d/
pci8086,341a@7,1/sd@0,0:a

If the system hardware has changed, or to boot from a different
device, interrupt the autoboot process by pressing ESC.
Press ESCape to interrupt autoboot in 2 seconds.
Initializing system
Please wait...
Warning: Resource Conflict - both devices are added

NON-ACPI device: ISY0050
Port: 3F0-3F5, 3F7; IRQ: 6; DMA: 2
ACPI device: ISY0050
Port: 3F2-3F3, 3F4-3F5, 3F7; IRQ: 6; DMA: 2

<<< Current Boot Parameters >>>
Boot path: /pci@0,0/pci8086,2545@3/pci8086,1460@1d/pci8086,341a@7,1/
sd@0,0:a
Boot args:

Type    b [file-name] [boot-flags] <ENTER>  to boot with options
or      i <ENTER>                           to enter boot interpreter
or      <ENTER>                             to boot with defaults

<<< timeout in 5 seconds >>>

Select (b)oot or (i)nterpreter: b
Size: 275683 + 22092 + 150244 Bytes
/platform/i86pc/kernel/unix loaded - 0xac000 bytes used
SunOS Release 5.9 Version Generic_112234-07 32-bit
Copyright 1983-2003 Sun Microsystems, Inc.  All rights reserved.
Use is subject to license terms.
configuring IPv4 interfaces: e1000g2.
Hostname: phys-schost-1
Booting as part of a cluster
NOTICE: CMM: Node phys-schost-1 (nodeid = 1) with votecount = 1 added.
NOTICE: CMM: Node phys-schost-2 (nodeid = 2) with votecount = 1 added.
NOTICE: CMM: Quorum device 1 (/dev/did/rdsk/d1s2) added; votecount = 1, bitmask
of nodes with configured paths = 0x3.
NOTICE: clcomm: Adapter e1000g3 constructed
NOTICE: clcomm: Path phys-schost-1:e1000g3 - phys-schost-2:e1000g3 being constructed
NOTICE: clcomm: Path phys-schost-1:e1000g3 - phys-schost-2:e1000g3 being initiated
NOTICE: clcomm: Path phys-schost-1:e1000g3 - phys-schost-2:e1000g3 online
NOTICE: clcomm: Adapter e1000g0 constructed
NOTICE: clcomm: Path phys-schost-1:e1000g0 - phys-schost-2:e1000g0 being constructed
NOTICE: CMM: Node phys-schost-1: attempting to join cluster.
NOTICE: clcomm: Path phys-schost-1:e1000g0 - phys-schost-2:e1000g0 being initiated
NOTICE: CMM: Quorum device /dev/did/rdsk/d1s2: owner set to node 1.
NOTICE: CMM: Cluster has reached quorum.
NOTICE: CMM: Node phys-schost-1 (nodeid = 1) is up; new incarnation number = 1068496374.
NOTICE: CMM: Node phys-schost-2 (nodeid = 2) is up; new incarnation number = 1068496374.
NOTICE: CMM: Cluster members: phys-schost-1 phys-schost-2.
NOTICE: CMM: node reconfiguration #1 completed.
NOTICE: CMM: Node phys-schost-1: joined cluster.
WARNING: mod_installdrv: no major number for rsmrdt
ip: joining multicasts failed (18) on clprivnet0 - will use link layer
broadcasts for multicast
The system is coming up.  Please wait.
checking ufs filesystems
/dev/rdsk/c1t0d0s5: is clean.
NOTICE: clcomm: Path phys-schost-1:e1000g0 - phys-schost-2:e1000g0 online
NIS domain name is dev.eng.mycompany.com
starting rpc services: rpcbind keyserv ypbind done.
Setting netmask of e1000g2 to 192.168.255.0
Setting netmask of e1000g3 to 192.168.255.128
Setting netmask of e1000g0 to 192.168.255.128
Setting netmask of clprivnet0 to 192.168.255.0
Setting default IPv4 interface for multicast: add net 224.0/4: gateway phys-schost-1
syslog service starting.
obtaining access to all attached disks


*****************************************************************************
*
* The X-server can not be started on display :0...
*
*****************************************************************************
volume management starting.
Starting Fault Injection Server...
The system is ready.

phys-schost-1 console login: