Guía de administración del sistema de Oracle® Solaris Cluster

Salir de la Vista de impresión

Actualización: Octubre de 2015
 
 

Rearranque de un nodo

Para cerrar o reiniciar otros nodos activos en el cluster global o en el cluster de zona, espere a que aparezca en línea el estado guía de servidor multiusuario para el nodo que está iniciando.

De lo contrario, el nodo no estará disponible para hacerse cargo de los servicios de otros nodos del cluster que se cierren o rearranquen.

phys-schost# refleja un indicador de cluster global. Siga este procedimiento en un cluster global.

Este procedimiento proporciona las formas largas de los comandos de Oracle Solaris Cluster. La mayoría de los comandos también tienen una forma corta. A excepción de las formas de los nombres de comandos, los comandos son idénticos.


Caution

Precaución  -  Si finaliza el tiempo de espera de un método para un recurso y no se puede eliminar, el nodo se reiniciará sólo si la propiedad Failover_mode del recurso se establece en HARD. Si la propiedad Failover_mode se establece en cualquier otro valor, el nodo no se reiniciará.


También puede reiniciar un nodo del cluster de zona mediante la GUI de Oracle Solaris Cluster Manager. Para obtener instrucciones de inicio de sesión en la GUI, consulte Cómo obtener acceso a Oracle Solaris Cluster Manager.

  1. Si el nodo del cluster global o del cluster de zona está ejecutando Oracle RAC, cierre todas las instancias de base de datos presentes en el nodo que va a cerrar.

    Consulte la documentación del producto de Oracle RAC para ver los procedimientos de cierre.

  2. Asuma un rol que proporcione la autorización de RBAC solaris.cluster.admin en el nodo que se cerrará.

    Siga todos los pasos de este procedimiento desde un nodo del cluster global.

  3. Cierre el nodo del cluster global con los comandos clnode evacuate y shutdown.

    Cierre el cluster de zona mediante la ejecución del comando clzonecluster halt desde un nodo del cluster global. En un cluster de zona, también se pueden ejecutar los comandos clnode evacuate y shutdown.

    En el caso de un cluster global, escriba los comandos siguientes en el nodo que vaya a cerrar. El comando clnode evacuate conmuta todos los grupos de dispositivos del nodo especificado al siguiente nodo por orden de preferencia. El comando también conmuta todos los grupos de recursos de las zonas globales del nodo especificado a las zonas globales de otros nodos que se sitúen a continuación en el orden de preferencia.


    Notas -  Para cerrar un único nodo, utilice el comando shutdown -g0 -y -i6. Para cerrar varios nodos al mismo tiempo, utilice el comando shutdown -g0 -y -i0 para detenerlos. Después de detener todos los nodos, utilice el comando boot en todos ellos para volver a arrancarlos en el cluster.
    • En un sistema basado en SPARC, ejecute los comandos siguientes para reiniciar un nodo único.

      phys-schost# clnode evacuate node
      phys-schost# shutdown -g0 -y -i6
    • En un sistema basado en x86, ejecute los comandos siguientes para reiniciar un nodo único.

      phys-schost# clnode evacuate node
      phys-schost# shutdown -g0 -y -i6

      Cuando aparezca el menú GRUB, seleccione la entrada de Oracle Solaris que corresponda y pulse Intro.

    • Indique el nodo del cluster de zona que se vaya a cerrar y rearrancar.

      phys-schost# clzonecluster reboot - node zoneclustername

    Notas -  Los nodos deben disponer de una conexión operativa con la interconexión de cluster para poder convertirse en miembros del cluster.
  4. Compruebe que el nodo haya arrancado sin errores y esté en línea.
    • Compruebe que el nodo del cluster global esté en línea.
      phys-schost# cluster status -t node
    • Compruebe que el nodo del cluster de zona esté en línea.
      phys-schost# clzonecluster status
Ejemplo 3-14  SPARC: Rearranque de un nodo del cluster global

El ejemplo siguiente muestra la salida de la consola cuando se reinicia el nodo phys-schost-1. Los mensajes correspondientes a este nodo, como las notificaciones de cierre y arranque, aparecen en las consolas de los otros nodos del cluster global.

phys-schost# clnode evacuate phys-schost-1
phys-schost# shutdown -g0 -y -i6
Shutdown started.    Wed Mar 10 13:47:32 phys-schost-1 cl_runtime:

WARNING: CMM monitoring disabled.
phys-schost-1#
INIT: New run level: 6
The system is coming down.  Please wait.
System services are now being stopped.
Notice: rgmd is being stopped.
Notice: rpc.pmfd is being stopped.
Notice: rpc.fed is being stopped.
umount: /global/.devices/node@1 busy
umount: /global/phys-schost-1 busy
The system is down.
syncing file systems... done
rebooting...
Resetting ...
,,,
Sun Ultra 1 SBus (UltraSPARC 143MHz), No Keyboard
OpenBoot 3.11, 128 MB memory installed, Serial #5932401.
Ethernet address 8:8:20:99:ab:77, Host ID: 8899ab77.
...
Rebooting with command: boot
...
Hostname: phys-schost-1
Booting as part of a cluster
...
NOTICE: Node phys-schost-1: attempting to join cluster
...
NOTICE: Node phys-schost-1: joined cluster
...
The system is coming up.  Please wait.
The system is ready.
phys-schost-1 console login: 
Ejemplo 3-15  Rearranque de un nodo del cluster global

El ejemplo siguiente muestra cómo rearrancar un nodo de un cluster de zona.

phys-schost# clzonecluster reboot –n schost-4 sparse-sczone
Waiting for zone reboot commands to complete on all the nodes of the zone cluster
"sparse-sczone"...
Sep  5 19:40:59 schost-4 cl_runtime: NOTICE: Membership : Node 3 of cluster
'sparse-sczone' died.
phys-schost# Sep  5 19:41:27 schost-4 cl_runtime: NOTICE: Membership : Node 3 of cluster
'sparse-sczone' joined.

phys-schost#
phys-schost# clzonecluster status

=== Zone Clusters ===

--- Zone Cluster Status ---
Name            Node Name   Zone HostName   Status   Zone Status
----            ---------   -------------   ------   -----------
sparse-sczone   schost-1    sczone-1        Online   Running
                schost-2    sczone-2        Online   Running
                schost-3    sczone-3        Online   Running
                schost-4    sczone-4        Online   Running

phys-schost#