JavaScript is required to for searching.
Omitir Vínculos de navegación
Salir de la Vista de impresión
Guía de administración del sistema de Oracle Solaris Cluster     Oracle Solaris Cluster 3.3 3/13 (Español)
search filter icon
search icon

Información del documento

Prefacio

1.  Introducción a la administración de Oracle Solaris Cluster

2.  Oracle Solaris Cluster y RBAC

3.  Cierre y arranque de un cluster

Descripción general sobre el cierre y el arranque de un cluster

Cierre de un cluster

Arranque de un cluster

Rearranque de un cluster

Cierre y arranque de un solo nodo de un cluster

Cierre de un nodo

Arranque de un nodo

Rearranque de un nodo

Rearranque de un nodo en un modo que no sea de cluster

Reparación de un sistema de archivos /var que haya alcanzado el límite de su capacidad

Reparación de un sistema de archivos /var que haya alcanzado el límite de capacidad

4.  Métodos de replicación de datos

5.  Administración de dispositivos globales, supervisión de rutas de disco y sistemas de archivos de cluster

6.  Administración de quórum

7.  Administración de interconexiones de clusters y redes públicas

8.  Adición y eliminación de un nodo

9.  Administración del cluster

10.  Configuración del control del uso de la CPU

11.  Aplicación de parches de software y firmware de Oracle Solaris Cluster

12.  Copias de seguridad y restauraciones de clusters

13.  Administración de Oracle Solaris Cluster con las interfaces gráficas de usuario

A.  Ejemplo

Índice

Cierre y arranque de un solo nodo de un cluster

Puede cerrar un nodo del cluster global, un nodo del cluster de zona o una zona no global. Esta sección proporciona instrucciones para cerrar nodos del cluster global y nodos de clusters de zona.

Para cerrar un nodo del cluster global, use el comando clnode evacuate con el comando shutdown de Oracle Solaris. Use el comando cluster shutdown sólo cuando vaya a cerrar todo un cluster global.

En el caso de un nodo de un cluster de zona, use el comando clzonecluster halt en un cluster global para cerrar sólo un nodo de un cluster de zona o todo un cluster de zona. También puede usar los comandos clnode evacuate y shutdown para cerrar nodos de un cluster de zona.

Para obtener información sobre cómo cerrar e iniciar una zona no global, consulte el Capítulo 20, Cómo instalar, iniciar, detener, desinstalar y clonar zonas no globales (tareas) de Guía de administración de sistemas: administración de recursos y contenedores de Oracle Solaris y zonas de Oracle Solaris. Consulte también las páginas del comando man clnode(1CL), shutdown(1M) y clzonecluster(1CL).

En los procedimientos tratados en este capítulo, phys-schost# refleja una solicitud de cluster global. El indicador de shell interactivo de clzonecluster es clzc:schost>.

Tabla 3-2 Mapa de tareas: cerrar y arrancar un nodo

Tarea
Herramienta
Instrucciones
Detener un nodo.
Para un nodo del cluster global, use clnode(1CL) evacuate y shutdown. Para un nodo de un cluster de zona, use clzonecluster(1CL) halt.
Iniciar un nodo.

El nodo debe disponer de una conexión operativa con la interconexión de cluster para poder convertirse en miembro de este último.

Para un nodo del cluster global, use boot o b. Para un nodo de un cluster de zona, use clzonecluster(1CL) boot.
Detener y reiniciar (rearrancar) un nodo de un cluster.

El nodo debe disponer de una conexión operativa con la interconexión de cluster para poder convertirse en miembro de este último.

Para un nodo del cluster global, use clnode evacuate y shutdown, seguido de boot o b.

Para un nodo de un cluster de zona, use clzonecluster(1CL) reboot.

Arrancar un nodo de manera que no participe como miembro en el cluster.
Para un nodo del cluster global, use los comandos clnode evacuate y shutdown, seguidos de boot -x en SPARC o en la edición de entradas del menú de GRUB en x86.

Si el cluster global subyacente se arranca en un modo que no sea de cluster, el nodo del cluster de zona pasa automáticamente al modo que no sea de cluster.

Cierre de un nodo

phys-schost# refleja un indicador de cluster global. Siga este procedimiento en un cluster global.

Este procedimiento proporciona las formas largas de los comandos de Oracle Solaris Cluster. La mayoría de los comandos también tienen una forma corta. A excepción de las formas de los nombres de comandos, los comandos son idénticos.


Precaución

Precaución - No use send brk en una consola de cluster para cerrar un nodo del cluster global ni de un cluster de zona. El comando no puede utilizarse dentro de un cluster.


  1. Si el cluster ejecuta Oracle RAC, cierre todas las instancias de base de datos del cluster que va a cerrar.

    Consulte la documentación del producto de Oracle RAC para ver los procedimientos de cierre.

  2. Conviértase en superusuario o asuma una función que proporcione la autorización RBAC solaris.cluster.admin sobre el nodo del cluster que se va a cerrar. Siga todos los pasos de este procedimiento desde un nodo del cluster global.
  3. Si desea detener un determinado miembro de un cluster de zona, omita los pasos del 4 al 6 y ejecute el comando siguiente desde un nodo del cluster global:
    phys-schost# clzonecluster halt -n physical-name zoneclustername

    Al especificar un determinado nodo de un cluster de zona, sólo se detiene ese nodo. El comando halt detiene de forma predeterminada los clusters de zona en todos los nodos.

  4. Conmute todos los grupos de recursos, recursos y grupos de dispositivos del nodo que se va a cerrar a otros miembros del cluster global.

    En el nodo del cluster global que se va a cerrar, escriba el comando siguiente. El comando clnode evacuate cambia todos los grupos de recursos y de dispositivos (incluidas todas las zonas no globales) del nodo especificado al siguiente nodo por orden de preferencia. También puede ejecutar clnode evacuate dentro de un nodo de un cluster de zona.

    phys-schost# clnode evacuate node
    node

    Especifica el nodo desde el que esté conmutando los grupos de recursos y de dispositivos.

  5. Cierre el nodo.

    Especifique el nodo del cluster global que quiera cerrar.

    phys-schost# shutdown -g0 -y -i0

    Compruebe que el nodo del cluster global muestre el indicador ok en los sistemas basados en SPARC o el mensaje Press any key to continue (Pulse cualquier tecla para continuar) en el menú de GRUB de los sistemas basados en x86.

  6. Si es necesario, cierre el nodo.

Ejemplo 3-7 SPARC: Cierre de nodos del cluster global

En el siguiente ejemplo, se muestra la salida de la consola cuando se cierra el nodo phys-schost-1. La opción -g0 establece el período de gracia en cero; la opción -y proporciona una respuesta yes automática para la pregunta de confirmación. Los mensajes de cierre correspondientes a este nodo también aparecen en las consolas de los otros nodos del cluster global.

phys-schost# clnode evacuate phys-schost-1
phys-schost# shutdown -g0 -y
Wed Mar 10 13:47:32 phys-schost-1 cl_runtime:
WARNING: CMM monitoring disabled.
phys-schost-1# 
INIT: New run level: 0
The system is coming down.  Please wait.
Notice: rgmd is being stopped.
Notice: rpc.pmfd is being stopped.
Notice: rpc.fed is being stopped.
umount: /global/.devices/node@1 busy
umount: /global/phys-schost-1 busy
The system is down.
syncing file systems... done
Program terminated
ok 

Ejemplo 3-8 x86: Cierre de nodos del cluster global

El ejemplo siguiente muestra la salida de la consola cuando se cierra el nodo phys-schost-1. La opción -g0 establece el período de gracia en cero; la opción -y proporciona una respuesta yes automática para la pregunta de confirmación. Los mensajes de cierre correspondientes a este nodo también aparecen en las consolas de los otros nodos del cluster global.

phys-schost# clnode evacuate phys-schost-1
phys-schost# shutdown -g0 -y
Shutdown started.    Wed Mar 10 13:47:32 PST 2004

Changing to init state 0 - please wait
Broadcast Message from root (console) on phys-schost-1 Wed Mar 10 13:47:32... 
THE SYSTEM phys-schost-1 IS BEING SHUT DOWN NOW ! ! !
Log off now or risk your files being damaged

phys-schost-1#
INIT: New run level: 0
The system is coming down.  Please wait.
System services are now being stopped.
/etc/rc0.d/K05initrgm: Calling clnode evacuate
failfasts disabled on node 1
Print services already stopped.
Mar 10 13:47:44 phys-schost-1 syslogd: going down on signal 15
umount: /global/.devices/node@2 busy
umount: /global/.devices/node@1 busy
The system is down.
syncing file systems... done
WARNING: CMM: Node being shut down.
Type any key to continue 

Ejemplo 3-9 Cierre de un nodo de un cluster de zona

El ejemplo siguiente muestra el uso de clzonecluster halt para cerrar un nodo presente en un cluster de zona denominado zona_sc_dispersa. En un nodo de un cluster de zona también se pueden ejecutar los comandos clnode evacuate y shutdown.

phys-schost# clzonecluster status

=== Zone Clusters ===

--- Zone Cluster Status ---

Name            Node Name   Zone HostName   Status   Zone Status
----            ---------   -------------   ------   -----------
sparse-sczone   schost-1    sczone-1        Online   Running
                schost-2    sczone-2        Online   Running
                schost-3    sczone-3        Online   Running
                schost-4    sczone-4        Online   Running

phys-schost#
phys-schost# clzonecluster halt -n schost-4 sparse-sczone
Waiting for zone halt commands to complete on all the nodes of the zone cluster "sparse-sczone"...
Sep  5 19:24:00 schost-4 cl_runtime: NOTICE: Membership : Node 3 of cluster 'sparse-sczone' died.
phys-host#
phys-host# clzonecluster status

=== Zone Clusters ===

--- Zone Cluster Status ---

Name            Node Name   Zone HostName   Status    Zone Status
----            ---------   -------------   ------    -----------
sparse-sczone   schost-1    sczone-1        Online    Running
                schost-2    sczone-2        Online    Running
                schost-3    sczone-3        Offline   Installed
                schost-4    sczone-4        Online    Running

phys-schost# 

Véase también

Consulte Arranque de un nodo para ver cómo reiniciar un nodo del cluster global que se haya cerrado.

Arranque de un nodo

Si desea cerrar o reiniciar otros nodos activos del cluster global o del cluster de zona, espere a que aparezca en línea el estado guía de servidor multiusuario para el nodo que está iniciando.

De lo contrario, el nodo no estará disponible para hacerse cargo de los servicios de otros nodos del cluster que se cierren o rearranquen. Para obtener información sobre cómo iniciar una zona no global, consulte el Capítulo 20, Cómo instalar, iniciar, detener, desinstalar y clonar zonas no globales (tareas) de Guía de administración de sistemas: administración de recursos y contenedores de Oracle Solaris y zonas de Oracle Solaris.


Nota - La configuración del quórum puede afectar el inicio de un nodo. En un cluster de dos nodos, debe tener el dispositivo de quórum configurado de manera que el número total de quórum correspondiente al cluster ascienda a tres. Es conveniente tener un número de quórum para cada nodo y un número de quórum para el dispositivo de quórum. De esta forma, si cierra el primer nodo, el segundo sigue disponiendo de quórum y funciona como miembro único del cluster. Para que el primer nodo retorne al cluster como nodo integrante, el segundo debe estar operativo y en ejecución. Debe estar el correspondiente número de quórum de cluster (dos).


Si ejecuta Oracle Solaris Cluster en un dominio invitado, el reinicio del control o el dominio de E/S puede afectar el dominio invitado en ejecución, incluido el dominio que se va a cerrar. Debe volver a equilibrar la carga de trabajo en otros nodos y detener el dominio invitado que ejecute Oracle Solaris Cluster antes de volver a iniciar el control o el dominio de E/S.

Cuando un control o un dominio de E/S se reinicia, el dominio invitado no envía ni recibe señales. Esto genera una situación de "cerebro dividido" y una reconfiguración del cluster. Como se reinicia el control o el dominio de E/S, el dominio invitado no puede tener acceso a ningún dispositivo compartido. Los otros nodos del cluster ponen una barrera entre el dominio invitado y los dispositivos compartidos. Cuando el control o el dominio de E/S se termina de reiniciar, se reanuda la E/S en el dominio invitado, y cualquier E/S de un almacenamiento compartido hace que el dominio invitado emita un aviso grave a causa de la barrera que le impide acceder a los discos compartidos como parte de la reconfiguración del cluster. Puede mitigar este problema si un invitado utiliza dos dominios de E/S para la redundancia, y usted reinicia los dominios de E/S de uno en uno.

phys-schost# refleja un indicador de cluster global. Siga este procedimiento en un cluster global.

Este procedimiento proporciona las formas largas de los comandos de Oracle Solaris Cluster. La mayoría de los comandos también tienen una forma corta. A excepción de las formas de los nombres de comandos, los comandos son idénticos.


Nota - Los nodos deben disponer de una conexión operativa con la interconexión de cluster para poder convertirse en miembros del cluster.


  1. Para iniciar un nodo del cluster global o un nodo de un cluster de zona que se haya cerrado, arranque el nodo. Siga todos los pasos de este procedimiento desde un nodo del cluster global.
    • En los sistemas basados en SPARC, ejecute el comando siguiente.

      ok boot
    • En los sistemas basados en x86, ejecute los comandos siguientes.

      Cuando aparezca el menú GRUB, seleccione la entrada de Oracle Solaris que corresponda y pulse Intro. Aparece el menú de GRUB, que es similar al siguiente:

      GNU GRUB version 0.95 (631K lower / 2095488K upper memory)
      +-------------------------------------------------------------------------+
      | Solaris 10 /sol_10_x86                                                  |
      | Solaris failsafe                                                        |
      |                                                                         |
      +-------------------------------------------------------------------------+
      Use the ^ and v keys to select which entry is highlighted.
      Press enter to boot the selected OS, 'e' to edit the
      commands before booting, or 'c' for a command-line.

      A medida que se activan los componentes del cluster, aparecen mensajes en las consolas de los nodos que se han arrancado.

    • Si tiene un cluster de zona, puede elegir un nodo para que arranque.

      phys-schost# clzonecluster boot -n node zoneclustername
  2. Compruebe que el nodo haya arrancado sin errores y esté en línea.
    • Al ejecutarlo, el comando cluster status informa sobre el estado de un nodo del cluster global.
      phys-schost# cluster status -t node
    • Al ejecutarlo desde un nodo del cluster global, el comando clzonecluster status informa sobre el estado de todos los nodos de clusters de zona.
      phys-schost# clzonecluster status

      Un nodo de un cluster de zona sólo puede arrancarse en modo de cluster si el nodo que lo aloja arranca en modo de cluster.


      Nota - Si el sistema de archivos /var de un sistema alcanza su límite de capacidad, es posible que Oracle Solaris Cluster no pueda reiniciarse en dicho nodo. Si surge este problema, consulte Reparación de un sistema de archivos /var que haya alcanzado el límite de capacidad.


Ejemplo 3-10 SPARC: Arranque de un nodo del cluster global

El ejemplo siguiente muestra la salida de la consola cuando se arranca el nodo phys-schost-1 en el cluster global.

ok boot
Rebooting with command: boot 
...
Hostname: phys-schost-1
Booting as part of a cluster
...
NOTICE: Node phys-schost-1: attempting to join cluster
...
NOTICE: Node phys-schost-1: joined cluster
...
The system is coming up.  Please wait.
checking ufs filesystems
...
reservation program successfully exiting
Print services started.
volume management starting.
The system is ready.
phys-schost-1 console login:

Rearranque de un nodo

Para cerrar o reiniciar otros nodos activos en el cluster global o en el cluster de zona, espere a que aparezca en línea el estado guía de servidor multiusuario para el nodo que está iniciando.

De lo contrario, el nodo no estará disponible para hacerse cargo de los servicios de otros nodos del cluster que se cierren o rearranquen. Para obtener información sobre cómo reiniciar una zona no global, consulte el Capítulo 20, Cómo instalar, iniciar, detener, desinstalar y clonar zonas no globales (tareas) de Guía de administración de sistemas: administración de recursos y contenedores de Oracle Solaris y zonas de Oracle Solaris.

phys-schost# refleja un indicador de cluster global. Siga este procedimiento en un cluster global.

Este procedimiento proporciona las formas largas de los comandos de Oracle Solaris Cluster. La mayoría de los comandos también tienen una forma corta. A excepción de las formas de los nombres de comandos, los comandos son idénticos.


Precaución

Precaución - Si finaliza el tiempo de espera de un método para un recurso y no se puede eliminar, el nodo se reiniciará sólo si la propiedad Failover_mode del recurso se establece en HARD. Si la propiedad Failover_mode se establece en cualquier otro valor, el nodo no se reiniciará.


  1. Si el nodo del cluster global o del cluster de zona está ejecutando Oracle RAC, cierre todas las instancias de base de datos presentes en el nodo que va a cerrar.

    Consulte la documentación del producto de Oracle RAC para ver los procedimientos de cierre.

  2. Conviértase en superusuario o asuma una función que proporcione la autorización RBAC solaris.cluster.admin sobre el nodo que vaya a cerrar. Siga todos los pasos de este procedimiento desde un nodo del cluster global.
  3. Cierre el nodo del cluster global con los comandos clnode evacuate y shutdown. Cierre el cluster de zona mediante la ejecución del comando clzonecluster halt desde un nodo del cluster global. Los comandos clnode evacuate y shutdown también funcionan en los clusters de zona.

    En el caso de un cluster global, escriba los comandos siguientes en el nodo que vaya a cerrar. El comando clnode evacuate conmuta todos los grupos de dispositivos del nodo especificado al siguiente nodo por orden de preferencia. Este comando también cambia todos los grupos de recursos de las zonas globales o no globales del nodo especificado a las zonas globales o no globales de otros nodos que se sitúen a continuación por orden de preferencia.


    Nota - Para cerrar un único nodo, utilice el comando shutdown -g0 -y -i6. Para cerrar varios nodos al mismo tiempo, utilice el comando shutdown -g0 -y -i0 para detenerlos. Después de detener todos los nodos, utilice el comando boot en todos ellos para volver a arrancarlos en el cluster.


    • En un sistema basado en SPARC, ejecute los comandos siguientes para reiniciar un nodo único.

      phys-schost# clnode evacuate node
      phys-schost# shutdown -g0 -y -i6
    • En un sistema basado en x86, ejecute los comandos siguientes para reiniciar un nodo único.

      phys-schost# clnode evacuate node
      phys-schost# shutdown -g0 -y -i6

      Cuando aparezca el menú GRUB, seleccione la entrada de Oracle Solaris que corresponda y pulse Intro. Aparece el menú de GRUB, que es similar al siguiente:

      GNU GRUB version 0.95 (631K lower / 2095488K upper memory)
      +-------------------------------------------------------------------------+
      | Solaris 10 /sol_10_x86                                                  |
      | Solaris failsafe                                                        |
      |                                                                         |
      +-------------------------------------------------------------------------+
      Use the ^ and v keys to select which entry is highlighted.
      Press enter to boot the selected OS, 'e' to edit the
      commands before booting, or 'c' for a command-line.
    • Indique el nodo del cluster de zona que se vaya a cerrar y rearrancar.

      phys-schost# clzonecluster reboot - node zoneclustername

    Nota - Los nodos deben disponer de una conexión operativa con la interconexión de cluster para poder convertirse en miembros del cluster.


  4. Compruebe que el nodo haya arrancado sin errores y esté en línea.
    • Compruebe que el nodo del cluster global esté en línea.
      phys-schost# cluster status -t node
    • Compruebe que el nodo del cluster de zona esté en línea.
      phys-schost# clzonecluster status

Ejemplo 3-11 SPARC: Rearranque de un nodo del cluster global

El ejemplo siguiente muestra la salida de la consola cuando se rearranca el nodo phys-schost-1. Los mensajes correspondientes a este nodo, como las notificaciones de cierre y arranque, aparecen en las consolas de los otros nodos del cluster global.

phys-schost# clnode evacuate phys-schost-1
phys-schost# shutdown -g0 -y -i6
Shutdown started.    Wed Mar 10 13:47:32 phys-schost-1 cl_runtime: 

WARNING: CMM monitoring disabled.
phys-schost-1# 
INIT: New run level: 6
The system is coming down.  Please wait.
System services are now being stopped.
Notice: rgmd is being stopped.
Notice: rpc.pmfd is being stopped.
Notice: rpc.fed is being stopped.
umount: /global/.devices/node@1 busy
umount: /global/phys-schost-1 busy
The system is down.
syncing file systems... done
rebooting...
Resetting ... 
,,,
Sun Ultra 1 SBus (UltraSPARC 143MHz), No Keyboard
OpenBoot 3.11, 128 MB memory installed, Serial #5932401.
Ethernet address 8:8:20:99:ab:77, Host ID: 8899ab77.
...
Rebooting with command: boot
...
Hostname: phys-schost-1
Booting as part of a cluster
...
NOTICE: Node phys-schost-1: attempting to join cluster
...
NOTICE: Node phys-schost-1: joined cluster
...
The system is coming up.  Please wait.
The system is ready.
phys-schost-1 console login: 

Ejemplo 3-12 x86: Rearranque de un nodo del cluster global

En el siguiente ejemplo, se muestra la salida de la consola cuando se reinicia el nodo phys-schost-1. Los mensajes correspondientes a este nodo, como las notificaciones de cierre y arranque, aparecen en las consolas de los otros nodos del cluster global.

phys-schost# clnode evacuate phys-schost-1
phys-schost # shutdown -g0 -i6 -y

GNU GRUB version 0.95 (631K lower / 2095488K upper memory)
+-------------------------------------------------------------------------+
| Solaris 10 /sol_10_x86                                                  |
| Solaris failsafe                                                        |
|                                                                         |
+-------------------------------------------------------------------------+
Use the ^ and v keys to select which entry is highlighted.
Press enter to boot the selected OS, 'e' to edit the
commands before booting, or 'c' for a command-line.
Hostname: phys-schost-1
Booting as part of a cluster
...
NOTICE: Node phys-schost-1: attempting to join cluster
...
NOTICE: Node phys-schost-1: joined cluster
...
The system is coming up.  Please wait.
checking ufs filesystems
...
reservation program successfully exiting
Print services started.
volume management starting.
The system is ready.
phys-schost-1 console login: 

Ejemplo 3-13 Rearranque de un nodo del cluster global

El ejemplo siguiente muestra cómo rearrancar un nodo de un cluster de zona.

phys-schost# clzonecluster reboot -n schost-4 sparse-sczone
Waiting for zone reboot commands to complete on all the nodes of the zone cluster
   "sparse-sczone"...
Sep  5 19:40:59 schost-4 cl_runtime: NOTICE: Membership : Node 3 of cluster
   'sparse-sczone' died.
phys-schost# Sep  5 19:41:27 schost-4 cl_runtime: NOTICE: Membership : Node 3 of cluster
   'sparse-sczone' joined.

phys-schost#
phys-schost# clzonecluster status

=== Zone Clusters ===

--- Zone Cluster Status ---
Name            Node Name   Zone HostName   Status   Zone Status
----            ---------   -------------   ------   -----------
sparse-sczone   schost-1    sczone-1        Online   Running
                schost-2    sczone-2        Online   Running
                schost-3    sczone-3        Online   Running
                schost-4    sczone-4        Online   Running

phys-schost#

Rearranque de un nodo en un modo que no sea de cluster

Puede arrancar un nodo del cluster global en un modo que no sea de cluster, en el cual el nodo no participa como miembro del cluster. El modo que no es de cluster resulta útil al instalar el software del cluster o en ciertos procedimientos administrativos, como la aplicación de parches en un nodo. Un nodo de un cluster de zona no puede estar en un estado de arranque diferente del que tenga el nodo del cluster global subyacente. Si el nodo del cluster global se arranca en un modo que no sea de cluster, el nodo del cluster de zona asume automáticamente el modo que no es de cluster.

phys-schost# refleja un indicador de cluster global. Siga este procedimiento en un cluster global.

Este procedimiento proporciona las formas largas de los comandos de Oracle Solaris Cluster. La mayoría de los comandos también tienen una forma corta. A excepción de las formas de los nombres de comandos, los comandos son idénticos.

  1. Conviértase en superusuario o asuma una función que proporcione la autorización RBAC solaris.cluster.admin sobre el cluster que se va a iniciar en un modo que no es de cluster. Siga todos los pasos de este procedimiento desde un nodo del cluster global.
  2. Cierre el nodo del cluster de zona con el comando clzonecluster halt en un nodo del cluster global. Cierre el nodo del cluster global con los comandos clnode evacuate y shutdown.

    El comando clnode evacuate conmuta todos los grupos de dispositivos del nodo especificado al siguiente nodo por orden de preferencia. Este comando también cambia todos los grupos de recursos de las zonas globales o no globales del nodo especificado a las zonas globales o no globales de otros nodos que se sitúen a continuación por orden de preferencia.

    • Cierre un cluster global concreto.
      phys-schost# clnode evacuate node
      phys-schost# shutdown -g0 -y
    • Cierre un nodo del cluster de zona en concreto a partir de un nodo del cluster global.
      phys-schost# clzonecluster halt -n node zoneclustername

      También puede utilizar los comandos clnode evacuate y shutdown dentro del cluster de zona.

  3. Compruebe que el nodo del cluster global muestre el indicador ok en un sistema basado en Oracle Solaris o el mensaje Press any key to continue (Pulse cualquier tecla para continuar) en el menú de GRUB de un sistema basado en x86.
  4. Arranque el nodo del cluster global en un modo que no sea de cluster.
    • En los sistemas basados en SPARC, ejecute el comando siguiente.

      ok boot -xs
    • En los sistemas basados en x86, ejecute los comandos siguientes.

    1. En el menú de GRUB, utilice las teclas de flecha para seleccionar la correspondiente entrada de Oracle Solaris y escriba e para editar los comandos.

      Aparece el menú de GRUB, que es similar al siguiente:

      GNU GRUB version 0.95 (631K lower / 2095488K upper memory)
      +-------------------------------------------------------------------------+
      | Solaris 10 /sol_10_x86                                                  |
      | Solaris failsafe                                                        |
      |                                                                         |
      +-------------------------------------------------------------------------+
      Use the ^ and v keys to select which entry is highlighted.
      Press enter to boot the selected OS, 'e' to edit the
      commands before booting, or 'c' for a command-line.

      Para obtener más información sobre el inicio basado en GRUB, consulte Cómo iniciar un sistema basado en x86 mediante GRUB (mapa de tareas) de Administración de Oracle Solaris: administración básica.

    2. En la pantalla de los parámetros de arranque, utilice las teclas de flecha para seleccionar la entrada de núcleo y escriba e para editarla.

      Aparece la pantalla de parámetros de inicio de GRUB, que es similar a la siguiente:

      GNU GRUB version 0.95 (615K lower / 2095552K upper memory)
      +----------------------------------------------------------------------+
      | root (hd0,0,a)                                                       |
      | kernel /platform/i86pc/multiboot                                     |
      | module /platform/i86pc/boot_archive                                  |
      +----------------------------------------------------------------------+
      Use the ^ and v keys to select which entry is highlighted.
      Press 'b' to boot, 'e' to edit the selected command in the
      boot sequence, 'c' for a command-line, 'o' to open a new line
      after ('O' for before) the selected line, 'd' to remove the
      selected line, or escape to go back to the main menu.
    3. Agregue -x al comando para especificar que el sistema arranque en un modo que no sea de cluster.
      [ Minimal BASH-like line editing is supported. For the first word, TAB
      lists possible command completions. Anywhere else TAB lists the possible
      completions of a device/filename. ESC at any time exits. ]
      
      grub edit> kernel /platform/i86pc/multiboot -x
    4. Pulse la tecla Intro para aceptar el cambio y volver a la pantalla de los parámetros de arranque.

      La pantalla muestra el comando editado.

      GNU GRUB version 0.95 (615K lower / 2095552K upper memory)
      +----------------------------------------------------------------------+
      | root (hd0,0,a)                                                       |
      | kernel /platform/i86pc/multiboot -x                                  |
      | module /platform/i86pc/boot_archive                                  |
      +----------------------------------------------------------------------+
      Use the ^ and v keys to select which entry is highlighted.
      Press 'b' to boot, 'e' to edit the selected command in the
      boot sequence, 'c' for a command-line, 'o' to open a new line
      after ('O' for before) the selected line, 'd' to remove the
      selected line, or escape to go back to the main menu.-
    5. Escriba b para iniciar el nodo en el modo sin cluster.

      Nota - Este cambio en el comando del parámetro de inicio del núcleo no se conserva tras el inicio del sistema. La siguiente vez que reinicie el nodo, se iniciará en el modo de cluster. Para arrancarlo en el modo que no es de cluster, realice estos pasos de nuevo para agregar la opción -x al comando del parámetro de arranque del núcleo.


Ejemplo 3-14 SPARC: Arranque de un nodo del cluster global en un modo que no sea de cluster

El ejemplo siguiente muestra la salida de la consola cuando el nodo phys-schost-1 se cierra y se reinicia en un modo que no es de cluster. La opción -g0 establece el período de gracia en cero; la opción -y proporciona una respuesta yes automática para la pregunta de confirmación y la opción -i0 invoca el nivel de ejecución 0 (cero). Los mensajes de cierre correspondientes a este nodo también aparecen en las consolas de los otros nodos del cluster global.

phys-schost# clnode evacuate phys-schost-1
phys-schost# cluster shutdown -g0 -y
Shutdown started.    Wed Mar 10 13:47:32 phys-schost-1 cl_runtime: 

WARNING: CMM monitoring disabled.
phys-schost-1# 
...
rg_name = schost-sa-1 ...
offline node = phys-schost-2 ...
num of node = 0 ...
phys-schost-1# 
INIT: New run level: 0
The system is coming down.  Please wait.
System services are now being stopped.
Print services stopped.
syslogd: going down on signal 15
...
The system is down.
syncing file systems... done
WARNING: node phys-schost-1 is being shut down.
Program terminated

ok boot -x
...
Not booting as part of cluster
...
The system is ready.
phys-schost-1 console login: