Sun Cluster: Guía de administración del sistema para el SO Solaris

Capítulo 3 Parada y arranque de un clúster

En este capítulo se indican los procedimientos para parar y arrancar un clúster y sus nodos individuales.

Para obtener una descripción más detallada de los procedimientos relacionados de este capítulo, consulte Tabla 3–1 and Tabla 3–2.

Parada y arranque de un clúster: información general

El comando Sun Cluster scshutdown(1M) detiene ordenadamente los servicios del clúster y para todo el clúster de una forma limpia; la puede utilizar al trasladar la ubicación de un clúster o al parar éste en caso de deterioro de los datos a causa de un error de aplicación.


Nota –

Utilice el comando scshutdown en lugar de los comandos shutdown o halt para garantizar una parada correcta de todo el clúster. El comando de Solaris shutdown se utiliza junto con scswitch(1M) para detener nodos individuales. Consulte Cómo parar un clúster o Parada y arranque de un nodo del clúster para obtener más información.


El comando scshutdown detiene todos los nodos de un clúster, de la siguiente forma:

  1. Pone fuera de línea todos los grupos de recursos.

  2. Desmonta todos los sistemas de archivos del clúster.

  3. Apaga todos los servicios de dispositivo activos.

  4. Ejecuta init 0 y lleva todos los nodos al indicador ok de la PROM OpenBootTM en un sistema basado en la plataforma SPARC o a un subsistema de arranque basado en una plataforma x86. Los subsistemas de arranque se describen de forma más detallada en Boot Subsystems de System Administration Guide: Basic Administration.


Nota –

En caso necesario puede arrancar un nodo en el modo sin clúster, de manera que deje de ser miembro de éste. Este modo se utiliza para instalar software o efectuar determinados procedimientos de administración. Consulte Cómo arrancar un nodo del clúster en modo sin clúster para obtener más información.


Tabla 3–1 Lista de tareas: parada y arranque de un clúster

Tarea 

Para obtener instrucciones 

Parar el clúster 

    - Utilice scshutdown(1M).

Consulte Cómo parar un clúster.

Iniciar el clúster arrancando todos los nodos. 

Los nodos deben disponer de una conexión funcional con la interconexión del clúster para pertenecer a éste. 

Consulte Cómo arrancar un clúster .

Rearrancar el clúster 

    - Use scshutdown

En el indicador ok o el indicador Seleccione (b)arranque o (i)ntérprete de la pantalla Parámetros de arranque actuales, arranque cada nodo individualmente con el comando boot(1M) o b.

Los nodos deben disponer de una conexión funcional con la interconexión del clúster para pertenecer a éste. 

Consulte Cómo rearrancar un clúster.

ProcedureCómo parar un clúster


Precaución – Precaución –

No utilice el comando send brk en una consola del clúster para detener un nodo de éste, ya que este comando no se admite dentro de un clúster.


Pasos
  1. SPARC: Si el clúster está ejecutando Oracle Parallel Server o Real Application Clusters, pare todas las instancias de la base de datos.

    Para averiguar los procedimientos de parada, consulte la documentación del producto de Oracle Parallel Server u Oracle Real Application Clusters.

  2. Conviértase en usuario root en cualquiera de los nodos del clúster.

  3. Pare el clúster inmediatamente.

    Escriba el siguiente comando desde un nodo del clúster:


    # scshutdown -g0 -y
    
  4. Compruebe que todos los nodos se muestren en el indicador ok en un sistema basado en la plataforma SPARC o en un subsistema de arranque basado en la plataforma x86.

    No apague ninguno de los nodos hasta que todos los nodos del clúster estén en el indicador ok (en el caso de los sistemas basados en la plataforma SPARC) o en un subsistema de arranque basado (en el caso de las plataformas x86).

  5. Si es necesario, apague los nodos.


Ejemplo 3–1 SPARC: Parada de un clúster

Este ejemplo muestra la salida de la consola cuando se detiene el funcionamiento normal de un clúster y se llevan todos los nodos al indicador ok. La opción -g 0 establece el período de gracia de la parada en cero y la opción -y proporciona una respuesta afirmativa yes automática a la pregunta de confirmación. En las consolas de los otros nodos del clúster también aparecen mensajes de parada.


# scshutdown -g0 -y
Wed Mar 10 13:47:32 phys-schost-1 cl_runtime: 
WARNING: CMM monitoring disabled.
phys-schost-1# 
INIT: New run level: 0
The system is coming down.  Please wait.
System services are now being stopped.
/etc/rc0.d/K05initrgm: Calling scswitch -S (evacuate)
The system is down.
syncing file systems... done
Program terminated
ok 


Ejemplo 3–2 x86: Parada de un clúster

En el ejemplo siguiente se muestra la salida de consola obtenida al detener el funcionamiento normal del clúster y extraer todos los nodos. La opción -g 0 establece el período de gracia de la parada en cero y la opción -y proporciona una respuesta afirmativa yes automática a la pregunta de confirmación. En las consolas de los otros nodos del clúster también aparecen mensajes de parada.


# scshutdown -g0 -y
May  2 10:32:57 phys-schost-1 cl_runtime: 
WARNING: CMM: Monitoring disabled.  
root@phys-schost-1#
INIT: New run level: 0
The system is coming down.  Please wait.
System services are now being stopped.
/etc/rc0.d/K05initrgm: Calling scswitch -S (evacuate)
failfasts already disabled on node 1
Print services already stopped.
May  2 10:33:13 phys-schost-1 syslogd: going down on signal 15
The system is down.
syncing file systems... done
Type any key to continue 

Véase también

Consulte Cómo arrancar un clúster para reiniciar un clúster que se ha parado.

ProcedureCómo arrancar un clúster

Pasos
  1. Para arrancar un clúster cuyos nodos estén detenidos y se encuentren en el indicador ok o en el indicador Seleccione (b)arranque o (i)ntérprete de la pantalla Parámetros de arranque actuales, efectúe boot(1M) en cada nodo.

    Si realiza cambios de configuración durante los apagados, deberá iniciar primero el nodo con la configuración más actual. Salvo en esta circunstancia, el comando de arranque de los nodos no es relevante.

    • SPARC:


      ok boot
      
    • x86:


                            <<< Current Boot Parameters >>>
      Boot path: /pci@0,0/pci8086,2545@3/pci8086,1460@1d/pci8086,341a@7,1/
      sd@0,0:a
      Boot args:
      
      Type    b [file-name] [boot-flags] <ENTER>  to boot with options
      or      i <ENTER>                           to enter boot interpreter
      or      <ENTER>                             to boot with defaults
      
                        <<< timeout in 5 seconds >>>
      Select (b)oot or (i)nterpreter: b
      

    A medida que los componentes del clúster se activan, en las consolas de los nodos arrancados se pueden visualizar mensajes.


    Nota –

    Los nodos deben disponer de una conexión funcional con la interconexión del clúster para pertenecer a éste.


  2. Compruebe que los nodos hayan arrancado sin errores y se encuentren en línea.

    El comando scstat(1M) proporciona información sobre el estado de los nodos.


    # scstat -n
    

    Nota –

    Si esto llegara a suceder, es posible que Sun Cluster no pueda reiniciarse en ese nodo. Si se produce algún problema, consulte Cómo reparar un sistema de archivos /var completo.



Ejemplo 3–3 SPARC: Arranque de un clúster

En el ejemplo siguiente se muestra la salida de la consola correspondiente a arrancar el nodo phys-schost-1 en el clúster. En las consolas de los otros nodos del clúster aparecen mensajes similares.


ok boot
Rebooting with command: boot 
...
Hostname: phys-schost-1
Booting as part of a cluster
NOTICE: Node phys-schost-1 with votecount = 1 added.
NOTICE: Node phys-schost-2 with votecount = 1 added.
NOTICE: Node phys-schost-3 with votecount = 1 added.
...
NOTICE: Node phys-schost-1: attempting to join cluster
...
NOTICE: Node phys-schost-2 (incarnation # 937690106) has become reachable.
NOTICE: Node phys-schost-3 (incarnation # 937690290) has become reachable.
NOTICE: cluster has reached quorum.
NOTICE: node phys-schost-1 is up; new incarnation number = 937846227.
NOTICE: node phys-schost-2 is up; new incarnation number = 937690106.
NOTICE: node phys-schost-3 is up; new incarnation number = 937690290.
NOTICE: Cluster members: phys-schost-1 phys-schost-2 phys-schost-3.
...


Ejemplo 3–4 x86: Arranque de un clúster

En el ejemplo siguiente se muestra la salida de la consola correspondiente a arrancar el nodo phys-schost-1 en el clúster. En las consolas de los otros nodos del clúster aparecen mensajes similares.


ATI RAGE SDRAM BIOS P/N GR-xlint.007-4.330
*                                        BIOS Lan-Console 2.0
Copyright (C) 1999-2001  Intel Corporation
MAC ADDR: 00 02 47 31 38 3C
AMIBIOS (C)1985-2002 American Megatrends Inc.,
Copyright 1996-2002 Intel Corporation
SCB20.86B.1064.P18.0208191106
SCB2 Production BIOS Version 2.08
BIOS Build 1064
2 X Intel(R) Pentium(R) III CPU family      1400MHz
Testing system memory, memory size=2048MB
2048MB Extended Memory Passed
512K L2 Cache SRAM Passed
ATAPI CD-ROM SAMSUNG CD-ROM SN-124

Press <F2> to enter SETUP, <F12> Network

Adaptec AIC-7899 SCSI BIOS v2.57S4
(c) 2000 Adaptec, Inc. All Rights Reserved.
    Press <Ctrl><A> for SCSISelect(TM) Utility!

Ch B,  SCSI ID: 0 SEAGATE  ST336605LC        160
       SCSI ID: 1 SEAGATE  ST336605LC        160
       SCSI ID: 6 ESG-SHV  SCA HSBP M18      ASYN
Ch A,  SCSI ID: 2 SUN      StorEdge 3310     160
       SCSI ID: 3 SUN      StorEdge 3310     160

AMIBIOS (C)1985-2002 American Megatrends Inc.,
Copyright 1996-2002 Intel Corporation
SCB20.86B.1064.P18.0208191106
SCB2 Production BIOS Version 2.08
BIOS Build 1064

2 X Intel(R) Pentium(R) III CPU family      1400MHz
Testing system memory, memory size=2048MB
2048MB Extended Memory Passed
512K L2 Cache SRAM Passed
ATAPI CD-ROM SAMSUNG CD-ROM SN-124    

SunOS - Intel Platform Edition             Primary Boot Subsystem, vsn 2.0

                        Current Disk Partition Information

                 Part#   Status    Type      Start       Length
                ================================================
                   1     Active   X86 BOOT     2428       21852
                   2              SOLARIS     24280     71662420
                   3              <unused> 
                   4              <unused>
              Please select the partition you wish to boot: *       *

Solaris DCB

			       loading /solaris/boot.bin

SunOS Secondary Boot version 3.00

                  Solaris Intel Platform Edition Booting System

Autobooting from bootpath: /pci@0,0/pci8086,2545@3/pci8086,1460@1d/
pci8086,341a@7,1/sd@0,0:a

If the system hardware has changed, or to boot from a different
device, interrupt the autoboot process by pressing ESC.
Press ESCape to interrupt autoboot in 2 seconds.
Initializing system
Please wait...
Warning: Resource Conflict - both devices are added

NON-ACPI device: ISY0050
     Port: 3F0-3F5, 3F7; IRQ: 6; DMA: 2
ACPI device: ISY0050
     Port: 3F2-3F3, 3F4-3F5, 3F7; IRQ: 6; DMA: 2

                     <<< Parámetros de arranque actuales >>>
Ruta de arranque: /pci@0,0/pci8086,2545@3/pci8086,1460@1d/pci8086,341a@7,1/
sd@0,0:a
Argumentos de arranque:

Escriba b [nombre-archivo] [indicadores-arranque] <INTRO>  para arrancar con opciones
o      i <INTRO>                           para introducir el intérprete de arranque
o     <INTRO>                             para arrancar con los valores predeterminados

                  <<< tiempo de espera sobrepasado en 5 segundos >>>
Seleccione (b)arranque o (i)ntérprete: 
Size: 275683 + 22092 + 150244 Bytes
/platform/i86pc/kernel/unix loaded - 0xac000 bytes used
SunOS Release 5.9 Version Generic_112234-07 32-bit
Copyright 1983-2003 Sun Microsystems, Inc.  All rights reserved.
Use is subject to license terms.
configuring IPv4 interfaces: e1000g2.
Hostname: phys-schost-1
Booting as part of a cluster
NOTICE: CMM: Node phys-schost-1 (nodeid = 1) with votecount = 1 added.
NOTICE: CMM: Node phys-schost-2 (nodeid = 2) with votecount = 1 added.
NOTICE: CMM: Quorum device 1 (/dev/did/rdsk/d1s2) added; votecount = 1, bitmask
of nodes with configured paths = 0x3.
NOTICE: clcomm: Adapter e1000g3 constructed
NOTICE: clcomm: Path phys-schost-1:e1000g3 - phys-schost-2:e1000g3 being constructed
NOTICE: clcomm: Path phys-schost-1:e1000g3 - phys-schost-2:e1000g3 being initiated
NOTICE: clcomm: Path phys-schost-1:e1000g3 - phys-schost-2:e1000g3 online
NOTICE: clcomm: Adapter e1000g0 constructed
NOTICE: clcomm: Path phys-schost-1:e1000g0 - phys-schost-2:e1000g0 being constructed
NOTICE: CMM: Node phys-schost-1: attempting to join cluster.
NOTICE: clcomm: Path phys-schost-1:e1000g0 - phys-schost-2:e1000g0 being initiated
NOTICE: CMM: Quorum device /dev/did/rdsk/d1s2: owner set to node 1.
NOTICE: CMM: Cluster has reached quorum.
NOTICE: CMM: Node phys-schost-1 (nodeid = 1) is up; new incarnation number = 1068496374.
NOTICE: CMM: Node phys-schost-2 (nodeid = 2) is up; new incarnation number = 1068496374.
NOTICE: CMM: Cluster members: phys-schost-1 phys-schost-2.
NOTICE: CMM: node reconfiguration #1 completed.
NOTICE: CMM: Node phys-schost-1: joined cluster.

ProcedureCómo rearrancar un clúster

Ejecute el comando scshutdown(1M) para detener el clúster; a continuación, arranque éste en cada nodo con el comando boot(1M).

Pasos
  1. SPARC: Si el nodo del clúster está ejecutando Oracle Parallel Server u Oracle Real Application Clusters, pare todas las instancias de la base de datos.

    Para averiguar los procedimientos de parada, consulte la documentación del producto de Oracle Parallel Server u Oracle Real Application Clusters.

  2. Conviértase en usuario root en cualquiera de los nodos del clúster.

  3. Pare el clúster.

    Escriba el siguiente comando desde un nodo del clúster:


    # scshutdown -g0 -y 
    

    Cada nodo se parará.


    Nota –

    Los nodos deben disponer de una conexión funcional con la interconexión del clúster para pertenecer a éste.


  4. Arranque cada nodo.

    El orden de arranque de los nodos no es relevante a menos que se hayan efectuado cambios de configuración entre paradas; Si realiza cambios de configuración durante los apagados, deberá iniciar primero el nodo con la configuración más actual.

    • SPARC:


      ok boot
      
    • x86:


                            <<< Current Boot Parameters >>>
      Boot path: /pci@0,0/pci8086,2545@3/pci8086,1460@1d/pci8086,341a@7,1/
      sd@0,0:a
      Boot args:
      
      Type    b [file-name] [boot-flags] <ENTER>  to boot with options
      or      i <ENTER>                           to enter boot interpreter
      or      <ENTER>                             to boot with defaults
      
                        <<< timeout in 5 seconds >>>
      Select (b)oot or (i)nterpreter: b
      

    A medida que los componentes del clúster se activan, en las consolas de los nodos arrancados se pueden visualizar mensajes.

  5. Compruebe que los nodos hayan arrancado sin errores y se encuentren en línea.

    El comando scstat informa del estado de los nodos.


    # scstat -n
    

    Nota –

    Si esto llegara a suceder, es posible que Sun Cluster no pueda reiniciarse en ese nodo. Si se produce algún problema, consulte Cómo reparar un sistema de archivos /var completo.



Ejemplo 3–5 SPARC: Rearrancar un clúster

En el ejemplo siguiente se muestra la salida de consola generada al parar el funcionamiento normal del clúster, llevar todos los nodos al indicador ok y luego reiniciar el clúster. La opción -g0 establece el período de gracia en cero y la opción -y proporciona una respuesta afirmativa yes automática a la pregunta de confirmación. En las consolas de los otros nodos del clúster también aparecen mensajes de parada.


# scshutdown -g0 -y
Wed Mar 10 13:47:32 phys-schost-1 cl_runtime: 
WARNING: CMM monitoring disabled.
phys-schost-1# 
INIT: New run level: 0
The system is coming down.  Please wait.
...
The system is down.
syncing file systems... done
Program terminated
ok boot
Rebooting with command: boot 
...
Hostname: phys-schost-1
Booting as part of a cluster
...
NOTICE: Node phys-schost-1: attempting to join cluster
...
NOTICE: Node phys-schost-2 (incarnation # 937690106) has become reachable.
NOTICE: Node phys-schost-3 (incarnation # 937690290) has become reachable.
NOTICE: cluster has reached quorum.
...
NOTICE: Cluster members: phys-schost-1 phys-schost-2 phys-schost-3.
...
NOTICE: Node phys-schost-1: joined cluster
...
The system is coming up.  Please wait.
checking ufs filesystems
...
reservation program successfully exiting
Print services started.
volume management starting.
The system is ready.
phys-schost-1 console login:
NOTICE: Node phys-schost-1: joined cluster
...
The system is coming up.  Please wait.
checking ufs filesystems
...
reservation program successfully exiting
Print services started.
volume management starting.
The system is ready.
phys-schost-1 console login: 


Ejemplo 3–6 x86: Rearrancar un clúster

En el ejemplo siguiente se muestra la salida de consola generada al parar el funcionamiento normal del clúster, traer todos los nodos y luego reiniciar el clúster. La opción -g0 establece el período de gracia en cero y la opción -y proporciona una respuesta afirmativa yes automática a la pregunta de confirmación. En las consolas de los otros nodos del clúster también aparecen mensajes de parada.


# scshutdown -g0 -y
May  2 10:32:57 phys-schost-1 cl_runtime: 
WARNING: CMM: Monitoring disabled.  
root@phys-schost-1#
INIT: New run level: 0
The system is coming down.  Please wait.
System services are now being stopped.
/etc/rc0.d/K05initrgm: Calling scswitch -S (evacuate)
failfasts already disabled on node 1
Print services already stopped.
May  2 10:33:13 phys-schost-1 syslogd: going down on signal 15
The system is down.
syncing file systems... done
Type any key to continue

ATI RAGE SDRAM BIOS P/N GR-xlint.007-4.330
*                                        BIOS Lan-Console 2.0
Copyright (C) 1999-2001  Intel Corporation
MAC ADDR: 00 02 47 31 38 3C
AMIBIOS (C)1985-2002 American Megatrends Inc.,
Copyright 1996-2002 Intel Corporation
SCB20.86B.1064.P18.0208191106
SCB2 Production BIOS Version 2.08
BIOS Build 1064
2 X Intel(R) Pentium(R) III CPU family      1400MHz
Testing system memory, memory size=2048MB
2048MB Extended Memory Passed
512K L2 Cache SRAM Passed
ATAPI CD-ROM SAMSUNG CD-ROM SN-124

Press <F2> to enter SETUP, <F12> Network

Adaptec AIC-7899 SCSI BIOS v2.57S4
(c) 2000 Adaptec, Inc. All Rights Reserved.
    Press <Ctrl><A> for SCSISelect(TM) Utility!

Ch B,  SCSI ID: 0 SEAGATE  ST336605LC        160
       SCSI ID: 1 SEAGATE  ST336605LC        160
       SCSI ID: 6 ESG-SHV  SCA HSBP M18      ASYN
Ch A,  SCSI ID: 2 SUN      StorEdge 3310     160
       SCSI ID: 3 SUN      StorEdge 3310     160

AMIBIOS (C)1985-2002 American Megatrends Inc.,
Copyright 1996-2002 Intel Corporation
SCB20.86B.1064.P18.0208191106
SCB2 Production BIOS Version 2.08
BIOS Build 1064

2 X Intel(R) Pentium(R) III CPU family      1400MHz
Testing system memory, memory size=2048MB
2048MB Extended Memory Passed
512K L2 Cache SRAM Passed
ATAPI CD-ROM SAMSUNG CD-ROM SN-124    

SunOS - Intel Platform Edition             Primary Boot Subsystem, vsn 2.0

                        Current Disk Partition Information

                 Part#   Status    Type      Start       Length
                ================================================
                   1     Active   X86 BOOT     2428       21852
                   2              SOLARIS     24280     71662420
                   3              <unused> 
                   4              <unused>
              Please select the partition you wish to boot: *       *

Solaris DCB

			       loading /solaris/boot.bin

SunOS Secondary Boot version 3.00

                  Solaris Intel Platform Edition Booting System

Autobooting from bootpath: /pci@0,0/pci8086,2545@3/pci8086,1460@1d/
pci8086,341a@7,1/sd@0,0:a

If the system hardware has changed, or to boot from a different
device, interrupt the autoboot process by pressing ESC.
Press ESCape to interrupt autoboot in 2 seconds.
Initializing system
Please wait...
Warning: Resource Conflict - both devices are added

NON-ACPI device: ISY0050
     Port: 3F0-3F5, 3F7; IRQ: 6; DMA: 2
ACPI device: ISY0050
     Port: 3F2-3F3, 3F4-3F5, 3F7; IRQ: 6; DMA: 2

                     <<< Parámetros de arranque actuales>>>
Ruta de arranque: /pci@0,0/pci8086,2545@3/pci8086,1460@1d/pci8086,341a@7,1/
sd@0,0:a
Argumentos de arranque: 

Escriba b [nombre-archivo] [indicadores-arranque] <INTRO>  arrancar con opciones
o      i <INTRO>                           introducir el intérprete de comandos
o      <INTRO>                             arrancar con los valores predeterminados

                  <<< tiempo de espera sobrepasado en 5 segundos >>>

Seleccione (b)arranque o (i)ntérprete: b
Size: 275683 + 22092 + 150244 Bytes
/platform/i86pc/kernel/unix loaded - 0xac000 bytes used
SunOS Release 5.9 Version Generic_112234-07 32-bit
Copyright 1983-2003 Sun Microsystems, Inc.  All rights reserved.
Use is subject to license terms.
configuring IPv4 interfaces: e1000g2.
Hostname: phys-schost-1
Booting as part of a cluster
NOTICE: CMM: Node phys-schost-1 (nodeid = 1) with votecount = 1 added.
NOTICE: CMM: Node phys-schost-2 (nodeid = 2) with votecount = 1 added.
NOTICE: CMM: Quorum device 1 (/dev/did/rdsk/d1s2) added; votecount = 1, bitmask
of nodes with configured paths = 0x3.
NOTICE: clcomm: Adapter e1000g3 constructed
NOTICE: clcomm: Path phys-schost-1:e1000g3 - phys-schost-2:e1000g3 being constructed
NOTICE: clcomm: Path phys-schost-1:e1000g3 - phys-schost-2:e1000g3 being initiated
NOTICE: clcomm: Path phys-schost-1:e1000g3 - phys-schost-2:e1000g3 online
NOTICE: clcomm: Adapter e1000g0 constructed
NOTICE: clcomm: Path phys-schost-1:e1000g0 - phys-schost-2:e1000g0 being constructed
NOTICE: CMM: Node phys-schost-1: attempting to join cluster.
NOTICE: clcomm: Path phys-schost-1:e1000g0 - phys-schost-2:e1000g0 being initiated
NOTICE: CMM: Quorum device /dev/did/rdsk/d1s2: owner set to node 1.
NOTICE: CMM: Cluster has reached quorum.
NOTICE: CMM: Node phys-schost-1 (nodeid = 1) is up; new incarnation number = 1068496374.
NOTICE: CMM: Node phys-schost-2 (nodeid = 2) is up; new incarnation number = 1068496374.
NOTICE: CMM: Cluster members: phys-schost-1 phys-schost-2.
NOTICE: CMM: node reconfiguration #1 completed.
NOTICE: CMM: Node phys-schost-1: joined cluster.
WARNING: mod_installdrv: no major number for rsmrdt
ip: joining multicasts failed (18) on clprivnet0 - will use link layer
broadcasts for multicast
The system is coming up.  Please wait.
checking ufs filesystems
/dev/rdsk/c1t0d0s5: is clean.
NOTICE: clcomm: Path phys-schost-1:e1000g0 - phys-schost-2:e1000g0 online
NIS domain name is dev.eng.mycompany.com
starting rpc services: rpcbind keyserv ypbind done.
Setting netmask of e1000g2 to 192.168.255.0
Setting netmask of e1000g3 to 192.168.255.128
Setting netmask of e1000g0 to 192.168.255.128
Setting netmask of clprivnet0 to 192.168.255.0
Setting default IPv4 interface for multicast: add net 224.0/4: gateway phys-schost-1
syslog service starting.
obtaining access to all attached disks


*****************************************************************************
*
* The X-server can not be started on display :0...
*
*****************************************************************************
volume management starting.
Starting Fault Injection Server...
The system is ready.

phys-schost-1 console login: 

Parada y arranque de un nodo del clúster


Nota –

Utilice el comando scswitch(1M) junto con el comando de Solaris shutdown(1M) para detener un nodo individual. Utilice el comando scshutdown únicamente para parar todo el clúster.


Tabla 3–2 Mapa de tareas: Parada y arranque de un clúster

Tarea 

Para obtener instrucciones 

Parar un nodo del clúster 

    - Utilice scswitch(1M) y shutdown(1M).

Cómo parar un nodo del clúster

Iniciar un nodo 

El nodo debe disponer de una conexión funcional con la interconexión del clúster para pertenecer a éste. 

Cómo arrancar un nodo del clúster

Parar y reiniciar (rearrancar) un nodo del clúster 

    Use scswitch y shutdown

El nodo debe disponer de una conexión funcional con la interconexión del clúster para pertenecer a éste. 

Cómo rearrancar un nodo del clúster

Arrancar un nodo de forma que deje de pertenecer al clúster 

    - Utilice scswitch y shutdown, y, a continuación, boot -x o b -x.

Cómo arrancar un nodo del clúster en modo sin clúster

ProcedureCómo parar un nodo del clúster


Precaución – Precaución –

No utilice el comando send brk en una consola del clúster para detener un nodo de éste, ya que este comando no se admite dentro de un clúster.


Pasos
  1. SPARC: Si el nodo del clúster está ejecutando Oracle Parallel Server u Oracle Real Application Clusters, pare todas las instancias de la base de datos.

    Para averiguar los procedimientos de parada, consulte la documentación del producto de Oracle Parallel Server u Oracle Real Application Clusters.

  2. Conviértase en usuario root en el nodo del clúster que se debe parar.

  3. Pase todos los recursos y los grupos de dispositivos y de recursos del nodo que se va a parar a los otros miembros del clúster.

    Escriba el siguiente comando en el nodo que se va a parar:


    # scswitch -S -h node
    
    -S

    Evacúa todos los servicios de dispositivo y grupos de recursos del nodo especificado.

    -h nodo

    Especifica el nodo del que se van a retirar todos los grupos de recursos y grupos de dispositivos.

  4. Pare el nodo del clúster.

    Escriba el siguiente comando en el nodo que se va a parar:


    # shutdown -g0 -y -i0
    
  5. Compruebe que el nodo del clúster aparezca en el indicador ok o en el indicador Seleccione (b)arranque o (i)ntérprete de la pantalla Parámetros de arranque actuales.

  6. Si es necesario, apague el nodo.


Ejemplo 3–7 SPARC: Parada de un nodo del clúster

En el ejemplo siguiente se muestra la salida de la consola correspondiente a parar el nodo phys-schost-1. La opción -g0 establece en cero el período de gracia, -y ofrece una respuesta afirmativa automática a la pregunta de confirmación e -i0 llama al nivel de ejecución 0 (cero). En las consolas de los otros nodos del clúster aparecen mensajes de parada de este nodo.


# scswitch -S -h phys-schost-1
# shutdown -g0 -y -i0
Wed Mar 10 13:47:32 phys-schost-1 cl_runtime:
WARNING: CMM monitoring disabled.
phys-schost-1# 
INIT: New run level: 0
The system is coming down.  Please wait.
Notice: rgmd is being stopped.
Notice: rpc.pmfd is being stopped.
Notice: rpc.fed is being stopped.
umount: /global/.devices/node@1 busy
umount: /global/phys-schost-1 busy
The system is down.
syncing file systems... done
Program terminated
ok 


Ejemplo 3–8 x86: Parada de un nodo del clúster

En el ejemplo siguiente se muestra la salida de la consola correspondiente a parar el nodo phys-schost-1. La opción -g0 establece en cero el período de gracia, -y ofrece una respuesta afirmativa automática a la pregunta de confirmación e -i0 llama al nivel de ejecución 0 (cero). En las consolas de los otros nodos del clúster aparecen mensajes de parada de este nodo.


# scswitch -S -h phys-schost-1
# shutdown -g0 -y -i0
Shutdown started.    Wed Mar 10 13:47:32 PST 2004

Changing to init state 0 - please wait
Broadcast Message from root (console) on phys-schost-1 Wed Mar 10 13:47:32... 
THE SYSTEM phys-schost-1 IS BEING SHUT DOWN NOW ! ! !
Log off now or risk your files being damaged

phys-schost-1#
INIT: New run level: 0
The system is coming down.  Please wait.
System services are now being stopped.
/etc/rc0.d/K05initrgm: Calling scswitch -S (evacuate)
failfasts disabled on node 1
Print services already stopped.
Mar 10 13:47:44 phys-schost-1 syslogd: going down on signal 15
umount: /global/.devices/node@2 busy
umount: /global/.devices/node@1 busy
The system is down.
syncing file systems... done
WARNING: CMM: Node being shut down.
Type any key to continue 

Véase también

Consulte Cómo arrancar un nodo del clúster para reiniciar un nodo del clúster que se ha parado.

ProcedureCómo arrancar un nodo del clúster

Si desea detener o reiniciar otros nodos activos de clúster, espere hasta que el nodo que está arrancando haya alcanzado el símbolo de inicio de sesión. De lo contrario, el nodo no estará disponible para asumir servicios de otros nodos en el clúster que desee cerrar o arrancar.


Nota –

El inicio de un nodo del clúster puede quedar afectado por la configuración del quórum. En un clúster de dos nodos, deberá tener configurado un dispositivo del quórum de tal modo que el total de quórum del nodo sea tres. Deberá tener un quórum de uno por cada nodo y uno adicional por el dispositivo de quórum. En esta situación, si se para el primer nodo, el segundo sigue teniendo quórum y funciona como miembro único del clúster. Para que el primer nodo vuelva al clúster como miembro de éste, el segundo nodo debe estar en marcha y activo. El total del quórum requerido del clúster (dos) debe estar presente.


Pasos
  1. Para iniciar un nodo del clúster que ha sido parado, arranque el nodo.

    • SPARC:


      ok boot
      
    • x86:


                            <<< Current Boot Parameters >>>
      Boot path: /pci@0,0/pci8086,2545@3/pci8086,1460@1d/pci8086,341a@7,1/
      sd@0,0:a
      Boot args:
      
      Type    b [file-name] [boot-flags] <ENTER>  to boot with options
      or      i <ENTER>                           to enter boot interpreter
      or      <ENTER>                             to boot with defaults
      
                        <<< timeout in 5 seconds >>>
      Select (b)oot or (i)nterpreter: b
      

    A medida que los componentes del clúster se activan, en las consolas de los nodos arrancados se pueden visualizar mensajes.


    Nota –

    El nodo debe disponer de una conexión funcional con la interconexión del clúster para pertenecer a éste.


  2. Compruebe que el nodo haya arrancado sin errores y se encuentre en línea.

    El comando scstat informa del estado de un nodo.


    # scstat -n
    

    Nota –

    Si esto llegara a suceder, es posible que Sun Cluster no pueda reiniciarse en ese nodo. Si se produce algún problema, consulte Cómo reparar un sistema de archivos /var completo.



Ejemplo 3–9 SPARC: Arranque de un nodo del clúster

En el ejemplo siguiente se muestra la salida de la consola correspondiente a arrancar el nodo phys-schost-1 en el clúster.


ok boot
Rebooting with command: boot 
...
Hostname: phys-schost-1
Booting as part of a cluster
...
NOTICE: Node phys-schost-1: attempting to join cluster
...
NOTICE: Node phys-schost-1: joined cluster
...
The system is coming up.  Please wait.
checking ufs filesystems
...
reservation program successfully exiting
Print services started.
volume management starting.
The system is ready.
phys-schost-1 console login:


Ejemplo 3–10 x86: Arranque de un nodo del clúster

En el ejemplo siguiente se muestra la salida de la consola correspondiente a arrancar el nodo phys-schost-1 en el clúster.


                     <<< Parámetros de arranque actuales>>>
Ruta de arranque: /pci@0,0/pci8086,2545@3/pci8086,1460@1d/pci8086,341a@7,1/sd@0,0:a
Argumentos de arranque: 

Escriba b [nombre_archivo] [indicadores_arranque] <INTRO>   arrancar con opciones
o      i <INTRO>                            introducir el intérprete de arranque
o      <INTRO>                              arrancar con los valores predeterminados

                  <<< tiempo de espera sobrepasado en 5 segundos >>>

Seleccione (b)arranque o (i)ntérprete: Size: 276915 + 22156 + 150372 Bytes
/platform/i86pc/kernel/unix loaded - 0xac000 bytes used
SunOS Release 5.9 Version on81-feature-patch:08/30/2003 32-bit
Copyright 1983-2003 Sun Microsystems, Inc.  All rights reserved.
Use is subject to license terms.
configuring IPv4 interfaces: e1000g2.
Hostname: phys-schost-1
Booting as part of a cluster
NOTICE: CMM: Node phys-schost-1 (nodeid = 1) with votecount = 1 added.
NOTICE: CMM: Node phys-schost-2 (nodeid = 2) with votecount = 1 added.
NOTICE: CMM: Quorum device 1 (/dev/did/rdsk/d1s2) added; votecount = 1, bitmask
of nodes with configured paths = 0x3.
WARNING: CMM: Initialization for quorum device /dev/did/rdsk/d1s2 failed with
error EACCES. Will retry later.
NOTICE: clcomm: Adapter e1000g3 constructed
NOTICE: clcomm: Path phys-schost-1:e1000g3 - phys-schost-2:e1000g3 being constructed
NOTICE: clcomm: Path phys-schost-1:e1000g3 - phys-schost-2:e1000g3 being initiated
NOTICE: clcomm: Path phys-schost-1:e1000g3 - phys-schost-2:e1000g3 online
NOTICE: clcomm: Adapter e1000g0 constructed
NOTICE: clcomm: Path phys-schost-1:e1000g0 - phys-schost-2:e1000g0 being constructed
NOTICE: CMM: Node phys-schost-1: attempting to join cluster.
WARNING: CMM: Reading reservation keys from quorum device /dev/did/rdsk/d1s2
failed with error 2.
NOTICE: CMM: Cluster has reached quorum.
NOTICE: CMM: Node phys-schost-1 (nodeid = 1) is up; new incarnation number =
1068503958.
NOTICE: CMM: Node phys-schost-2 (nodeid = 2) is up; new incarnation number =
1068496374.
NOTICE: CMM: Cluster members: phys-schost-1 phys-schost-2.
NOTICE: CMM: node reconfiguration #3 completed.
NOTICE: CMM: Node phys-schost-1: joined cluster.
NOTICE: clcomm: Path phys-schost-1:e1000g0 - phys-schost-2:e1000g0 being initiated
NOTICE: clcomm: Path phys-schost-1:e1000g0 - phys-schost-2:e1000g0 online
NOTICE: CMM: Retry of initialization for quorum device /dev/did/rdsk/d1s2 was
successful.
WARNING: mod_installdrv: no major number for rsmrdt
ip: joining multicasts failed (18) on clprivnet0 - will use link layer
broadcasts for multicast
The system is coming up.  Please wait.
checking ufs filesystems
/dev/rdsk/c1t0d0s5: is clean.
NIS domain name is dev.eng.mycompany.com
starting rpc services: rpcbind keyserv ypbind done.
Setting netmask of e1000g2 to 192.168.255.0
Setting netmask of e1000g3 to 192.168.255.128
Setting netmask of e1000g0 to 192.168.255.128
Setting netmask of clprivnet0 to 192.168.255.0
Setting default IPv4 interface for multicast: add net 224.0/4: gateway phys-schost-1
syslog service starting.
obtaining access to all attached disks


*****************************************************************************
*
* The X-server can not be started on display :0...
*
*****************************************************************************
volume management starting.
Starting Fault Injection Server...
The system is ready.

phys-schost-1 console login: 

ProcedureCómo rearrancar un nodo del clúster

Si desea detener o reiniciar otros nodos activos de clúster, espere hasta que el nodo que está arrancando haya alcanzado el símbolo de inicio de sesión. De lo contrario, el nodo no estará disponible para asumir servicios de otros nodos en el clúster que desee cerrar o arrancar.

Pasos
  1. SPARC: Si el nodo del clúster está ejecutando Oracle Parallel Server u Oracle Real Application Clusters, pare todas las instancias de la base de datos.

    Para averiguar los procedimientos de parada, consulte la documentación del producto de Oracle Parallel Server u Oracle Real Application Clusters.

  2. Conviértase en usuario root en el nodo del clúster que se debe parar.

  3. Pare el nodo del clúster mediante los comandos scswitch y shutdown.

    Escriba estos comandos en el nodo que se debe parar. La opción -i 6 del comando shutdown hace que el nodo rearranque después de pararse.


    # scswitch -S -h node
    # shutdown -g0 -y -i6
    

    Nota –

    Los nodos deben disponer de una conexión funcional con la interconexión del clúster para pertenecer a éste.


  4. Compruebe que el nodo haya arrancado sin errores y se encuentre en línea.


    # scstat -n
    

Ejemplo 3–11 SPARC: Rearrancar un nodo del clúster

En el ejemplo siguiente se muestra la salida de la consola correspondiente a la acción de rearrancar el nodo phys-schost-1. Los mensajes correspondientes a este nodo, como la notificación de parada y la de rearranque, aparecen en las consolas de los otros nodos del clúster.


# scswitch -S -h phys-schost-1
# shutdown -g0 -y -i6
Shutdown started.    Wed Mar 10 13:47:32 phys-schost-1 cl_runtime: 

WARNING: CMM monitoring disabled.
phys-schost-1# 
INIT: New run level: 6
The system is coming down.  Please wait.
System services are now being stopped.
Notice: rgmd is being stopped.
Notice: rpc.pmfd is being stopped.
Notice: rpc.fed is being stopped.
umount: /global/.devices/node@1 busy
umount: /global/phys-schost-1 busy
The system is down.
syncing file systems... done
rebooting...
Resetting ... 
,,,
Sun Ultra 1 SBus (UltraSPARC 143MHz), No Keyboard
OpenBoot 3.11, 128 MB memory installed, Serial #5932401.
Ethernet address 8:8:20:99:ab:77, Host ID: 8899ab77.
...
Rebooting with command: boot
...
Hostname: phys-schost-1
Booting as part of a cluster
...
NOTICE: Node phys-schost-1: attempting to join cluster
...
NOTICE: Node phys-schost-1: joined cluster
...
The system is coming up.  Please wait.
The system is ready.
phys-schost-1 console login: 


Ejemplo 3–12 x86: Rearrancar un nodo del clúster

En el ejemplo siguiente se muestra la salida de la consola correspondiente a la acción de rearrancar el nodo phys-schost-1. Los mensajes correspondientes a este nodo, como la notificación de parada y la de rearranque, aparecen en las consolas de los otros nodos del clúster.


# scswitch -S -h phys-schost-1
# shutdown -g0 -y -i6
Shutdown started.    Wed Mar 10 13:47:32 PST 2004

Changing to init state 6 - please wait
Broadcast Message from root (console) on phys-schost-1 Wed Mar 10 13:47:32...
THE SYSTEM phys-schost-1 IS BEING SHUT DOWN NOW ! ! !
Log off now or risk your files being damaged

phys-schost-1# 
INIT: New run level: 6
The system is coming down.  Please wait.
System services are now being stopped.
/etc/rc0.d/K05initrgm: Calling scswitch -S (evacuate)
Print services already stopped.
Mar 10 13:47:44 phys-schost-1 syslogd: going down on signal 15

umount: /global/.devices/node@2 busy
umount: /global/.devices/node@1 busy
The system is down.
syncing file systems... done
WARNING: CMM: Node being shut down.
rebooting...

ATI RAGE SDRAM BIOS P/N GR-xlint.007-4.330
*                                        BIOS Lan-Console 2.0
Copyright (C) 1999-2001  Intel Corporation
MAC ADDR: 00 02 47 31 38 3C
AMIBIOS (C)1985-2002 American Megatrends Inc.,
Copyright 1996-2002 Intel Corporation
SCB20.86B.1064.P18.0208191106
SCB2 Production BIOS Version 2.08
BIOS Build 1064
2 X Intel(R) Pentium(R) III CPU family      1400MHz
Testing system memory, memory size=2048MB
2048MB Extended Memory Passed
512K L2 Cache SRAM Passed
ATAPI CD-ROM SAMSUNG CD-ROM SN-124

Press <F2> to enter SETUP, <F12> Network

Adaptec AIC-7899 SCSI BIOS v2.57S4
(c) 2000 Adaptec, Inc. All Rights Reserved.
    Press <Ctrl><A> for SCSISelect(TM) Utility!

Ch B,  SCSI ID: 0 SEAGATE  ST336605LC        160
       SCSI ID: 1 SEAGATE  ST336605LC        160
       SCSI ID: 6 ESG-SHV  SCA HSBP M18      ASYN
Ch A,  SCSI ID: 2 SUN      StorEdge 3310     160
       SCSI ID: 3 SUN      StorEdge 3310     160

AMIBIOS (C)1985-2002 American Megatrends Inc.,
Copyright 1996-2002 Intel Corporation
SCB20.86B.1064.P18.0208191106
SCB2 Production BIOS Version 2.08
BIOS Build 1064

2 X Intel(R) Pentium(R) III CPU family      1400MHz
Testing system memory, memory size=2048MB
2048MB Extended Memory Passed
512K L2 Cache SRAM Passed
ATAPI CD-ROM SAMSUNG CD-ROM SN-124    

SunOS - Intel Platform Edition             Primary Boot Subsystem, vsn 2.0

                        Current Disk Partition Information

                 Part#   Status    Type      Start       Length
                ================================================
                   1     Active   X86 BOOT     2428       21852
                   2              SOLARIS     24280     71662420
                   3              <unused> 
                   4              <unused>
              Please select the partition you wish to boot: *       *

Solaris DCB

			       loading /solaris/boot.bin

SunOS Secondary Boot version 3.00

                  Solaris Intel Platform Edition Booting System

Autobooting from bootpath: /pci@0,0/pci8086,2545@3/pci8086,1460@1d/
pci8086,341a@7,1/sd@0,0:a

If the system hardware has changed, or to boot from a different
device, interrupt the autoboot process by pressing ESC.
Press ESCape to interrupt autoboot in 2 seconds.
Initializing system
Please wait...
Warning: Resource Conflict - both devices are added

NON-ACPI device: ISY0050
     Port: 3F0-3F5, 3F7; IRQ: 6; DMA: 2
ACPI device: ISY0050
     Port: 3F2-3F3, 3F4-3F5, 3F7; IRQ: 6; DMA: 2

                     <<<  Parámetros de arranque actuales>>>
Ruta de arranque: /pci@0,0/pci8086,2545@3/pci8086,1460@1d/pci8086,341a@7,1/
sd@0,0:a
Argumentos de arranque: 

Escriba b [nombre_archivo] [indicadores_arranque] <INTRO>  arrancar con opciones
o      i <INTRO>                            introducir el intérprete de arranque
o      <INTRO>                              arrancar con los valores predeterminados

                  <<< tiempo de espera sobrepasado en 5 segundos>>>

Seleccione (b)arranque o (i)ntérprete: Size: 276915 + 22156 + 150372 Bytes
/platform/i86pc/kernel/unix loaded - 0xac000 bytes used
SunOS Release 5.9 Version on81-feature-patch:08/30/2003 32-bit
Copyright 1983-2003 Sun Microsystems, Inc.  All rights reserved.
Use is subject to license terms.
configuring IPv4 interfaces: e1000g2.
Hostname: phys-schost-1
Booting as part of a cluster
NOTICE: CMM: Node phys-schost-1 (nodeid = 1) with votecount = 1 added.
NOTICE: CMM: Node phys-schost-2 (nodeid = 2) with votecount = 1 added.
NOTICE: CMM: Quorum device 1 (/dev/did/rdsk/d1s2) added; votecount = 1, bitmask
of nodes with configured paths = 0x3.
WARNING: CMM: Initialization for quorum device /dev/did/rdsk/d1s2 failed with
error EACCES. Will retry later.
NOTICE: clcomm: Adapter e1000g3 constructed
NOTICE: clcomm: Path phys-schost-1:e1000g3 - phys-schost-2:e1000g3 being constructed
NOTICE: clcomm: Path phys-schost-1:e1000g3 - phys-schost-2:e1000g3 being initiated
NOTICE: clcomm: Path phys-schost-1:e1000g3 - phys-schost-2:e1000g3 online
NOTICE: clcomm: Adapter e1000g0 constructed
NOTICE: clcomm: Path phys-schost-1:e1000g0 - phys-schost-2:e1000g0 being constructed
NOTICE: CMM: Node phys-schost-1: attempting to join cluster.
WARNING: CMM: Reading reservation keys from quorum device /dev/did/rdsk/d1s2
failed with error 2.
NOTICE: CMM: Cluster has reached quorum.
NOTICE: CMM: Node phys-schost-1 (nodeid = 1) is up; new incarnation number =
1068503958.
NOTICE: CMM: Node phys-schost-2 (nodeid = 2) is up; new incarnation number =
1068496374.
NOTICE: CMM: Cluster members: phys-schost-1 phys-schost-2.
NOTICE: CMM: node reconfiguration #3 completed.
NOTICE: CMM: Node phys-schost-1: joined cluster.
NOTICE: clcomm: Path phys-schost-1:e1000g0 - phys-schost-2:e1000g0 being initiated
NOTICE: clcomm: Path phys-schost-1:e1000g0 - phys-schost-2:e1000g0 online
NOTICE: CMM: Retry of initialization for quorum device /dev/did/rdsk/d1s2 was
successful.
WARNING: mod_installdrv: no major number for rsmrdt
ip: joining multicasts failed (18) on clprivnet0 - will use link layer
broadcasts for multicast
The system is coming up.  Please wait.
checking ufs filesystems
/dev/rdsk/c1t0d0s5: is clean.
NIS domain name is dev.eng.mycompany.com
starting rpc services: rpcbind keyserv ypbind done.
Setting netmask of e1000g2 to 192.168.255.0
Setting netmask of e1000g3 to 192.168.255.128
Setting netmask of e1000g0 to 192.168.255.128
Setting netmask of clprivnet0 to 192.168.255.0
Setting default IPv4 interface for multicast: add net 224.0/4: gateway phys-schost-1
syslog service starting.
obtaining access to all attached disks


*****************************************************************************
*
* The X-server can not be started on display :0...
*
*****************************************************************************
volume management starting.
Starting Fault Injection Server...
The system is ready.

phys-schost-1 console login: 

ProcedureCómo arrancar un nodo del clúster en modo sin clúster

Puede arrancar un nodo de forma que no pertenezca al clúster, es decir, en modo sin clúster. Este modo se utiliza para instalar software o efectuar determinados procedimientos de administración, como instalar revisiones en el nodo.

Pasos
  1. Conviértase en usuario root en el nodo que se debe iniciar en el modo sin clúster.

  2. Pare el nodo mediante los comandos scswitch y shutdown.


    # scswitch -S -h node
    # shutdown -g0 -y -i0
    
  3. Compruebe que el nodo aparezca en el indicador ok o en el Select (b)oot or (i)nterpreter en la pantalla Parámetros de arranque actuales.

  4. Arranque el nodo en el modo sin clúster con el comando boot(1M) o b con la opción -x.

    • SPARC:


      ok boot -x
      
    • x86:


                            <<< Current Boot Parameters >>>
      Boot path: /pci@0,0/pci8086,2545@3/pci8086,1460@1d/pci8086,341a@7,1/
      sd@0,0:a
      Boot args:
      
      Type    b [file-name] [boot-flags] <ENTER>  to boot with options
      or      i <ENTER>                           to enter boot interpreter
      or      <ENTER>                             to boot with defaults
      
                        <<< timeout in 5 seconds >>>
      Select (b)oot or (i)nterpreter: b -x
      

    En la consola del nodo aparecerán mensajes que informan que el nodo no forma parte del clúster.


Ejemplo 3–13 SPARC: Arranque de un nodo del clúster en el modo sin clúster

En el ejemplo siguiente se muestra la salida de consola obtenida al parar el nodo phys-schost-1 y reiniciarlo en modo sin clúster. La opción -g0 establece en cero el período de gracia, -y ofrece una respuesta afirmativa automática a la pregunta de confirmación e -i0 llama al nivel de ejecución 0 (cero). En las consolas de los otros nodos del clúster aparecen mensajes de parada de este nodo.


# scswitch -S -h phys-schost-1
# shutdown -g0 -y -i0
Shutdown started.    Wed Mar 10 13:47:32 phys-schost-1 cl_runtime: 

WARNING: CMM monitoring disabled.
phys-schost-1# 
...
rg_name = schost-sa-1 ...
offline node = phys-schost-2 ...
num of node = 0 ...
phys-schost-1# 
INIT: New run level: 0
The system is coming down.  Please wait.
System services are now being stopped.
Print services stopped.
syslogd: going down on signal 15
...
The system is down.
syncing file systems... done
WARNING: node phys-schost-1 is being shut down.
Program terminated

ok boot -x
...
Not booting as part of cluster
...
The system is ready.
phys-schost-1 console login:


Ejemplo 3–14 x86: Arranque de un nodo del clúster en el modo sin clúster

En el ejemplo siguiente se muestra la salida de consola obtenida al parar el nodo phys-schost-1 y reiniciarlo en modo sin clúster. La opción -g0 establece en cero el período de gracia, -y ofrece una respuesta afirmativa automática a la pregunta de confirmación e -i0 llama al nivel de ejecución 0 (cero). En las consolas de los otros nodos del clúster aparecen mensajes de parada de este nodo.


# scswitch -S -h phys-schost-1
# shutdown -g0 -y -i0
Shutdown started.    Wed Mar 10 13:47:32 PST 2004

phys-schost-1# 
INIT: New run level: 0
The system is coming down.  Please wait.
System services are now being stopped.
Print services already stopped.
Mar 10 13:47:44 phys-schost-1 syslogd: going down on signal 15
...
The system is down.
syncing file systems... done
WARNING: CMM: Node being shut down.
Type any key to continue

ATI RAGE SDRAM BIOS P/N GR-xlint.007-4.330
*                                        BIOS Lan-Console 2.0
Copyright (C) 1999-2001  Intel Corporation
MAC ADDR: 00 02 47 31 38 3C
AMIBIOS (C)1985-2002 American Megatrends Inc.,
Copyright 1996-2002 Intel Corporation
SCB20.86B.1064.P18.0208191106
SCB2 Production BIOS Version 2.08
BIOS Build 1064
2 X Intel(R) Pentium(R) III CPU family      1400MHz
Testing system memory, memory size=2048MB
2048MB Extended Memory Passed
512K L2 Cache SRAM Passed
ATAPI CD-ROM SAMSUNG CD-ROM SN-124

Press <F2> to enter SETUP, <F12> Network

Adaptec AIC-7899 SCSI BIOS v2.57S4
(c) 2000 Adaptec, Inc. All Rights Reserved.
    Press <Ctrl><A> for SCSISelect(TM) Utility!

Ch B,  SCSI ID: 0 SEAGATE  ST336605LC        160
       SCSI ID: 1 SEAGATE  ST336605LC        160
       SCSI ID: 6 ESG-SHV  SCA HSBP M18      ASYN
Ch A,  SCSI ID: 2 SUN      StorEdge 3310     160
       SCSI ID: 3 SUN      StorEdge 3310     160

AMIBIOS (C)1985-2002 American Megatrends Inc.,
Copyright 1996-2002 Intel Corporation
SCB20.86B.1064.P18.0208191106
SCB2 Production BIOS Version 2.08
BIOS Build 1064

2 X Intel(R) Pentium(R) III CPU family      1400MHz
Testing system memory, memory size=2048MB
2048MB Extended Memory Passed
512K L2 Cache SRAM Passed
ATAPI CD-ROM SAMSUNG CD-ROM SN-124    

SunOS - Intel Platform Edition             Primary Boot Subsystem, vsn 2.0

                        Current Disk Partition Information

                 Part#   Status    Type      Start       Length
                ================================================
                   1     Active   X86 BOOT     2428       21852
                   2              SOLARIS     24280     71662420
                   3              <unused> 
                   4              <unused>
              Please select the partition you wish to boot: *       *

Solaris DCB

			       loading /solaris/boot.bin

SunOS Secondary Boot version 3.00

                  Solaris Intel Platform Edition Booting System

Autobooting from bootpath: /pci@0,0/pci8086,2545@3/pci8086,1460@1d/
pci8086,341a@7,1/sd@0,0:a

If the system hardware has changed, or to boot from a different
device, interrupt the autoboot process by pressing ESC.
Press ESCape to interrupt autoboot in 2 seconds.
Initializing system
Please wait...
Warning: Resource Conflict - both devices are added

NON-ACPI device: ISY0050
     Port: 3F0-3F5, 3F7; IRQ: 6; DMA: 2
ACPI device: ISY0050
     Port: 3F2-3F3, 3F4-3F5, 3F7; IRQ: 6; DMA: 2

                     <<< Parámetros de arranque actuales >>>
Ruta de arranque: /pci@0,0/pci8086,2545@3/pci8086,1460@1d/pci8086,341a@7,1/
sd@0,0:a
Argumentos de arranque:

Escriba b [nombre-archivo] [indicadores-arranque] <INTRO>  arrancar con opciones
o      i <INTRO>                           introducir el intérprete de arranque
o     <INTRO>                              arrancar con los valores predeterminados

                  <<< tiempo de espera sobrepasado en 5 segundos >>>
Seleccione (b)arranque o (i)ntérprete: b -x
...
Not booting as part of cluster
...
The system is ready.
phys-schost-1 console login:

Reparación de un sistema de archivos /var completo

Tanto Solaris como el software Sun Cluster escriben los mensajes de error en el archivo /var/adm/messages, lo que con el tiempo puede llenar el sistema de archivos /var. Si esto llegara a suceder, es posible que Sun Cluster no pueda reiniciarse en ese nodo. Además, podría ser imposible iniciar una sesión en el nodo.

ProcedureCómo reparar un sistema de archivos /var completo

Si un nodo indica que el sistema de archivos /var está lleno y sigue ejecutando los servicios de Sun Cluster, utilice este procedimiento para limpiar dicho sistema de archivos. Consulte Viewing System Messages de System Administration Guide: Advanced Administration en System Administration Guide: Advanced Administration para obtener más información.

Pasos
  1. Conviértase en usuario root en el nodo del clúster que tiene lleno el sistema de archivos /var.

  2. Limpie el sistema de archivos lleno.

    Por ejemplo, suprima los archivos que no sean esenciales.