JavaScript is required to for searching.
Omitir Vínculos de navegación
Salir de la Vista de impresión
Guía de administración del sistema de Oracle Solaris Cluster     Oracle Solaris Cluster 3.3 3/13 (Español)
search filter icon
search icon

Información del documento

Prefacio

1.  Introducción a la administración de Oracle Solaris Cluster

2.  Oracle Solaris Cluster y RBAC

3.  Cierre y arranque de un cluster

Descripción general sobre el cierre y el arranque de un cluster

Cierre de un cluster

Arranque de un cluster

Rearranque de un cluster

Cierre y arranque de un solo nodo de un cluster

Cierre de un nodo

Arranque de un nodo

Rearranque de un nodo

Rearranque de un nodo en un modo que no sea de cluster

Reparación de un sistema de archivos /var que haya alcanzado el límite de su capacidad

Reparación de un sistema de archivos /var que haya alcanzado el límite de capacidad

4.  Métodos de replicación de datos

5.  Administración de dispositivos globales, supervisión de rutas de disco y sistemas de archivos de cluster

6.  Administración de quórum

7.  Administración de interconexiones de clusters y redes públicas

8.  Adición y eliminación de un nodo

9.  Administración del cluster

10.  Configuración del control del uso de la CPU

11.  Aplicación de parches de software y firmware de Oracle Solaris Cluster

12.  Copias de seguridad y restauraciones de clusters

13.  Administración de Oracle Solaris Cluster con las interfaces gráficas de usuario

A.  Ejemplo

Índice

Descripción general sobre el cierre y el arranque de un cluster

El comando cluster shutdown de Oracle Solaris Cluster detiene los servicios del cluster global de manera correcta y cierra sin sobresaltos un cluster global por completo. Puede utilizar el comando cluster shutdown al desplazar la ubicación de un cluster global o para cerrar el cluster global si un error de aplicación está dañando los datos. El comando clzonecluster halt detiene un cluster de zona que se ejecuta en un determinado nodo o en un cluster de zona completo en todos los nodos configurados. También puede utilizar el comando cluster shutdown con los clusters de zona. Para obtener más información, consulte la página del comando man cluster(1CL).

En los procedimientos tratados en este capítulo, phys-schost# refleja una solicitud de cluster global. El indicador de shell interactivo de clzonecluster es clzc:schost>.


Nota - Use el comando cluster shutdown para asegurarse de que todo el cluster global se cierre correctamente. El comando shutdown de Oracle Solaris se utiliza con el comando clnode(1CL) evacuate para cerrar nodos individuales. Si desea obtener más información, consulte Cierre de un cluster o Cierre y arranque de un solo nodo de un cluster.


Los comandos cluster shutdown y clzonecluster halt detienen todos los nodos comprendidos en un cluster global o un cluster de zona respectivamente, al ejecutar las acciones siguientes:

  1. Pone fuera de línea todos los grupos de recursos en ejecución.

  2. Desmonta todos los sistemas de archivos del cluster correspondientes a un cluster global o uno de zona.

  3. El comando cluster shutdown cierra los servicios de dispositivos activos en el cluster global o de zona.

  4. El comando cluster shutdown ejecuta init 0; en los sistemas basados en SPARC, lleva a todos los nodos del cluster al indicador de solicitud OpenBoot PROM ok o al mensaje Press any key to continue (Pulse cualquier tecla para continuar) del menú de GRUB en el caso de los sistemas basados en x86. Los menús de GRUB se describen de forma más detallada en Cómo iniciar un sistema basado en x86 mediante GRUB (mapa de tareas) de Administración de Oracle Solaris: administración básica. El comando clzonecluster halt ejecuta la operación del comando zoneadm -z zoneclustername halt para detener (pero no cerrar) las zonas del cluster de zona.


Nota - Si es necesario, tiene la posibilidad de arrancar un nodo en un modo que no sea de cluster para que el nodo no participe como miembro en el cluster. Los modos que no son de cluster son útiles al instalar software de cluster o para efectuar determinados procedimientos administrativos. Si desea obtener más información, consulte Rearranque de un nodo en un modo que no sea de cluster.


Tabla 3-1 Lista de tareas: cerrar e iniciar un cluster

Tarea
Instrucciones
Detener el cluster.
Iniciar el cluster arrancando todos los nodos. Los nodos deben contar con una conexión operativa con la interconexión de cluster para conseguir convertirse en miembros del cluster.
Rearrancar el cluster.

Cierre de un cluster

Puede cerrar un cluster global, un cluster de zona o todos los clusters de zona.


Precaución

Precaución - No use el comando send brk en la consola de un cluster para cerrar un nodo del cluster global ni un nodo de un cluster de zona. El comando no puede utilizarse dentro de un cluster.


phys-schost# refleja un indicador de cluster global. Siga este procedimiento en un cluster global.

Este procedimiento proporciona las formas largas de los comandos de Oracle Solaris Cluster. La mayoría de los comandos también tienen una forma corta. A excepción de las formas de los nombres de comandos, los comandos son idénticos.

  1. Si el cluster global o el cluster de zona ejecutan Oracle Real Application Clusters (RAC), cierre todas las instancias de la base de datos del cluster que está cerrando.

    Consulte la documentación del producto de Oracle RAC para ver los procedimientos de cierre.

  2. Conviértase en superusuario o asuma una función que proporcione la autorización RBAC solaris.cluster.admin en todos los nodos del cluster. Siga todos los pasos de este procedimiento desde un nodo del cluster global.
  3. Cierre el cluster global, el de zona o todos los clusters de zona.
    • Cierre el cluster global. Esta acción cierra también todos los clusters de zona.
      phys-schost# cluster shutdown -g0 -y
    • Cierre un cluster de zona concreto.
      phys-schost# clzonecluster halt zoneclustername
    • Cierre todos los clusters de zona.
      phys-schost# clzonecluster halt +

      Para cerrar el cluster de una zona en particular, también puede usar el comando cluster shutdown dentro de un cluster de zona.

  4. Compruebe que todos los nodos del cluster global o el cluster de zona muestren el indicador ok en los sistemas basados en SPARC o un menú de GRUB en los sistemas basados en x86.

    No cierre ninguno de los nodos hasta que todos muestren el indicador ok en los sistemas basados en SPARC o se hallen en un subsistema de arranque en los sistemas basados en x86.

    • Compruebe el estado de uno o más nodos de cluster global de otro nodo de cluster global que aún está activo y en ejecución en el cluster.
      phys-schost# cluster status -t node
    • Use el subcomando status para comprobar que el cluster de zona se haya cerrado.
      phys-schost# clzonecluster status
  5. Si es necesario, cierre los nodos del cluster global.

Ejemplo 3-1 Cierre de un cluster de zona

En el siguiente ejemplo, se cierra un cluster de zona denominado sparse-sczone.

phys-schost# clzonecluster halt sparse-sczone
Waiting for zone halt commands to complete on all the nodes of the zone cluster "sparse-sczone"...
Sep  5 19:06:01 schost-4 cl_runtime: NOTICE: Membership : Node 2 of cluster 'sparse-sczone' died.
Sep  5 19:06:01 schost-4 cl_runtime: NOTICE: Membership : Node 4 of cluster 'sparse-sczone' died.
Sep  5 19:06:01 schost-4 cl_runtime: NOTICE: Membership : Node 3 of cluster 'sparse-sczone' died.
Sep  5 19:06:01 schost-4 cl_runtime: NOTICE: Membership : Node 1 of cluster 'sparse-sczone' died.
phys-schost# 

Ejemplo 3-2 SPARC: Cierre de un cluster global

En el ejemplo siguiente se muestra la salida de una consola cuando se detiene el funcionamiento normal de un cluster global y se cierran todos los nodos, lo que permite que se muestre el indicador ok. La opción -g 0 establece el período de gracia para el cierre en cero; la opción -y proporciona una respuesta yes automática para la pregunta de confirmación. Los mensajes de cierre también aparecen en las consolas de los otros nodos del cluster global.

phys-schost# cluster shutdown -g0 -y
Wed Mar 10 13:47:32 phys-schost-1 cl_runtime: 
WARNING: CMM monitoring disabled.
phys-schost-1# 
INIT: New run level: 0
The system is coming down.  Please wait.
System services are now being stopped.
/etc/rc0.d/K05initrgm: Calling clnode evacuate
The system is down.
syncing file systems... done
Program terminated
ok 

Ejemplo 3-3 x86: Cierre de un cluster global

En el ejemplo siguiente se muestra la salida de la consola al detenerse el funcionamiento normal del cluster global y cerrarse todos los nodos. En este ejemplo, el indicador ok no se aparece en todos los nodos. La opción -g 0 establece el período de gracia para el cierre en cero; la opción -y proporciona una respuesta yes automática para la pregunta de confirmación. Los mensajes de cierre también aparecen en las consolas de los otros nodos del cluster global.

phys-schost# cluster shutdown -g0 -y
May  2 10:32:57 phys-schost-1 cl_runtime: 
WARNING: CMM: Monitoring disabled.  
root@phys-schost-1#
INIT: New run level: 0
The system is coming down.  Please wait.
System services are now being stopped.
/etc/rc0.d/K05initrgm: Calling clnode evacuate
failfasts already disabled on node 1
Print services already stopped.
May  2 10:33:13 phys-schost-1 syslogd: going down on signal 15
The system is down.
syncing file systems... done
Type any key to continue 

Véase también

Consulte Arranque de un cluster para reiniciar un cluster global o un cluster de zona que se ha cerrado.

Arranque de un cluster

Este procedimiento explica cómo arrancar un cluster global o uno de zona cuyos nodos se han cerrado. En los nodos de un cluster global, el sistema muestra el indicador ok en los sistemas SPARC o el mensaje Press any key to continue (Pulse cualquier tecla para continuar) en los sistemas x86 basados en GRUB.

phys-schost# refleja un indicador de cluster global. Siga este procedimiento en un cluster global.

Este procedimiento proporciona las formas largas de los comandos de Oracle Solaris Cluster. La mayoría de los comandos también tienen una forma corta. A excepción de las formas de los nombres de comandos, los comandos son idénticos.


Nota - Para crear un cluster de zona, siga las instrucciones de Configuración de un cluster de zona de Guía de instalación del software de Oracle Solaris Cluster.


  1. Inicie cada nodo en el modo de cluster. Siga todos los pasos de este procedimiento desde un nodo del cluster global.
    • En los sistemas basados en SPARC, ejecute el comando siguiente.
      ok boot
    • En los sistemas basados en x86, ejecute los comandos siguientes.

      Cuando aparezca el menú GRUB, seleccione la entrada de Oracle Solaris que corresponda y pulse Intro. Aparece el menú de GRUB, que es similar al siguiente:

      GNU GRUB version 0.95 (631K lower / 2095488K upper memory)
      +-------------------------------------------------------------------------+
      | Solaris 10 /sol_10_x86                                                  |
      | Solaris failsafe                                                        |
      |                                                                         |
      +-------------------------------------------------------------------------+
      Use the ^ and v keys to select which entry is highlighted.
      Press enter to boot the selected OS, 'e' to edit the
      commands before booting, or 'c' for a command-line.

      Para obtener más información sobre el inicio basado en GRUB, consulte Cómo iniciar un sistema basado en x86 mediante GRUB (mapa de tareas) de Administración de Oracle Solaris: administración básica.


      Nota - Los nodos deben disponer de una conexión operativa con la interconexión de cluster para poder convertirse en miembros del cluster.


    • Si tiene un cluster de zona, puede arrancar el cluster de zona completo.
      phys-schost# clzonecluster boot zoneclustername
    • Si tiene más de un cluster de zona, puede arrancar todos los clusters de zona. Use + en lugar de zoneclustername.
  2. Compruebe que los nodos se hayan arrancado sin errores y que estén en línea.

    El comando de estado cluster(1CL) informa sobre el estado de los nodos del cluster global.

    phys-schost# cluster status -t node

    Al ejecutar el comando de estado clzonecluster(1CL) desde un nodo del cluster global, este comando informa sobre el estado del nodo del cluster de zona.

    phys-schost# clzonecluster status

    Nota - Si el sistema de archivos /var de un sistema alcanza su límite de capacidad, es posible que Oracle Solaris Cluster no pueda reiniciarse en dicho nodo. Si surge este problema, consulte Reparación de un sistema de archivos /var que haya alcanzado el límite de capacidad.


Ejemplo 3-4 SPARC: Arranque de un cluster global

El ejemplo siguiente muestra la salida de la consola cuando se arranca el nodo phys-schost-1 en el cluster global. Aparecen mensajes similares en las consolas de los otros nodos del cluster global. Si la propiedad de arranque automático de un cluster de zona se establece en true, el sistema arranca el nodo del cluster de zona de forma automática tras haber arrancado el nodo del cluster global en ese equipo.

Al rearrancarse un nodo del cluster global, todos los nodos de cluster de zona presentes en ese equipo se detienen. Todos los nodos de cluster de zona de ese equipo con la propiedad de arranque automático establecida en true se arrancan tras volver a arrancarse el nodo del cluster global.

ok boot
Rebooting with command: boot 
...
Hostname: phys-schost-1
Booting as part of a cluster
NOTICE: Node phys-schost-1 with votecount = 1 added.
NOTICE: Node phys-schost-2 with votecount = 1 added.
NOTICE: Node phys-schost-3 with votecount = 1 added.
...
NOTICE: Node phys-schost-1: attempting to join cluster
...
NOTICE: Node phys-schost-2 (incarnation # 937690106) has become reachable.
NOTICE: Node phys-schost-3 (incarnation # 937690290) has become reachable.
NOTICE: cluster has reached quorum.
NOTICE: node phys-schost-1 is up; new incarnation number = 937846227.
NOTICE: node phys-schost-2 is up; new incarnation number = 937690106.
NOTICE: node phys-schost-3 is up; new incarnation number = 937690290.
NOTICE: Cluster members: phys-schost-1 phys-schost-2 phys-schost-3.
...

Rearranque de un cluster

Para cerrar un cluster global, ejecute el comando cluster shutdown y luego arranque el cluster global aplicando el comando boot en todos los nodos. Para cerrar un cluster de zona, use el comando clzonecluster halt; después, ejecute el comando clzonecluster boot para arrancar el cluster de zona. También puede usar el comando clzonecluster reboot. Si desea obtener más información, consulte las páginas del comando man cluster(1CL), boot(1M) y clzonecluster(1CL).

phys-schost# refleja un indicador de cluster global. Siga este procedimiento en un cluster global.

Este procedimiento proporciona las formas largas de los comandos de Oracle Solaris Cluster. La mayoría de los comandos también tienen una forma corta. A excepción de las formas de los nombres de comandos, los comandos son idénticos.

  1. Si el cluster ejecuta Oracle RAC, cierre todas las instancias de base de datos del cluster que va a cerrar.

    Consulte la documentación del producto de Oracle RAC para ver los procedimientos de cierre.

  2. Conviértase en superusuario o asuma una función que proporcione la autorización RBAC solaris.cluster.admin en todos los nodos del cluster. Siga todos los pasos de este procedimiento desde un nodo del cluster global.
  3. Cierre el cluster.
    • Cierre el cluster global.
      phys-schost# cluster shutdown -g0 -y 
    • Si tiene un cluster de zona, ciérrelo desde un nodo del cluster global.
      phys-schost# clzonecluster halt zoneclustername

    Se cierran todos los nodos. Para cerrar el cluster de zona también puede usar el comando cluster shutdown dentro de un cluster de zona.


    Nota - Los nodos deben disponer de una conexión operativa con la interconexión de cluster para poder convertirse en miembros del cluster.


  4. Arranque todos los nodos.

    No importa el orden en que se arranquen los nodos, a menos que haga modificaciones de configuración entre operaciones de cierre. Si modifica la configuración entre operaciones de cierre, inicie primero el nodo con la configuración más actual.

    • Para un nodo del cluster global que esté en un sistema basado en SPARC, ejecute el comando siguiente.

      ok boot
    • Para un nodo del cluster global que esté en un sistema basado en x86, ejecute los comandos siguientes.

      Cuando aparezca el menú GRUB, seleccione la entrada del sistema operativo Oracle Solaris que corresponda y pulse Intro. Aparece el menú de GRUB, que es similar al siguiente:

      GNU GRUB version 0.95 (631K lower / 2095488K upper memory)
      +-------------------------------------------------------------------------+
      | Solaris 10 /sol_10_x86                                                  |
      | Solaris failsafe                                                        |
      |                                                                         |
      +-------------------------------------------------------------------------+
      Use the ^ and v keys to select which entry is highlighted.
      Press enter to boot the selected OS, 'e' to edit the
      commands before booting, or 'c' for a command-line.

    Nota - Los nodos deben disponer de una conexión operativa con la interconexión de cluster para poder convertirse en miembros del cluster.


    Para obtener más información sobre el inicio basado en GRUB, consulte Cómo iniciar un sistema basado en x86 mediante GRUB (mapa de tareas) de Administración de Oracle Solaris: administración básica.

    • En el caso de un cluster de zona, para arrancar el cluster de zona, escriba el comando siguiente en un único nodo del cluster global.

      phys-schost# clzonecluster boot zoneclustername

    A medida que se activan los componentes del cluster, aparecen mensajes en las consolas de los nodos que se han arrancado.

  5. Compruebe que los nodos se hayan arrancado sin errores y que estén en línea.
    • El comando clnode status informa sobre el estado de los nodos del cluster global.
      phys-schost# clnode status
    • Si ejecuta el comando clzonecluster status en un nodo del cluster global, se informa sobre el estado de los nodos de los clusters de zona.
      phys-schost# clzonecluster status

      También puede ejecutar el comando cluster status en un cluster de zona para ver el estado de los nodos.


      Nota - Si el sistema de archivos /var de un sistema alcanza su límite de capacidad, es posible que Oracle Solaris Cluster no pueda reiniciarse en dicho nodo. Si surge este problema, consulte Reparación de un sistema de archivos /var que haya alcanzado el límite de capacidad.


Ejemplo 3-5 Rearranque de un cluster de zona

El ejemplo siguiente muestra cómo detener y arrancar un cluster de zona denominado zona_sc_dispersa. También puede usar el comando clzonecluster reboot.

phys-schost# clzonecluster halt sparse-sczone
Waiting for zone halt commands to complete on all the nodes of the zone cluster "sparse-sczone"...
Sep  5 19:17:46 schost-4 cl_runtime: NOTICE: Membership : Node 4 of cluster 'sparse-sczone' died.
Sep  5 19:17:46 schost-4 cl_runtime: NOTICE: Membership : Node 2 of cluster 'sparse-sczone' died.
Sep  5 19:17:46 schost-4 cl_runtime: NOTICE: Membership : Node 1 of cluster 'sparse-sczone' died.
Sep  5 19:17:46 schost-4 cl_runtime: NOTICE: Membership : Node 3 of cluster 'sparse-sczone' died.
phys-schost#
phys-schost# clzonecluster boot sparse-sczone
Waiting for zone boot commands to complete on all the nodes of the zone cluster "sparse-sczone"...
phys-schost# Sep  5 19:18:23 schost-4  cl_runtime: NOTICE: Membership : Node 1 of cluster
 'sparse-sczone' joined.
Sep  5 19:18:23 schost-4 cl_runtime: NOTICE: Membership : Node 2 of cluster 'sparse-sczone' joined.
Sep  5 19:18:23 schost-4 cl_runtime: NOTICE: Membership : Node 3 of cluster 'sparse-sczone' joined.
Sep  5 19:18:23 schost-4 cl_runtime: NOTICE: Membership : Node 4 of cluster 'sparse-sczone' joined.

phys-schost#
phys-schost# clzonecluster status

=== Zone Clusters ===

--- Zone Cluster Status ---

Name            Node Name   Zone HostName   Status   Zone Status
----            ---------   -------------   ------   -----------
sparse-sczone   schost-1    sczone-1        Online   Running
                schost-2    sczone-2        Online   Running
                schost-3    sczone-3        Online   Running
                schost-4    sczone-4        Online   Running
phys-schost# 

Ejemplo 3-6 SPARC: Rearranque de un cluster global

El ejemplo siguiente muestra la salida de la consola al detenerse el funcionamiento normal del cluster global, todos los nodos se cierran y muestran el indicador ok, y se reinicia el cluster global. La opción -g 0 establece el período de gracia en cero; la opción -y proporciona una respuesta yes automática para la pregunta de confirmación. Los mensajes de cierre también aparecen en las consolas de otros nodos del cluster global.

phys-schost# cluster shutdown -g0 -y
Wed Mar 10 13:47:32 phys-schost-1 cl_runtime: 
WARNING: CMM monitoring disabled.
phys-schost-1# 
INIT: New run level: 0
The system is coming down.  Please wait.
...
The system is down.
syncing file systems... done
Program terminated
ok boot
Rebooting with command: boot 
...
Hostname: phys-schost-1
Booting as part of a cluster
...
NOTICE: Node phys-schost-1: attempting to join cluster
...
NOTICE: Node phys-schost-2 (incarnation # 937690106) has become reachable.
NOTICE: Node phys-schost-3 (incarnation # 937690290) has become reachable.
NOTICE: cluster has reached quorum.
...
NOTICE: Cluster members: phys-schost-1 phys-schost-2 phys-schost-3.
...
NOTICE: Node phys-schost-1: joined cluster
...
The system is coming up.  Please wait.
checking ufs filesystems
...
reservation program successfully exiting
Print services started.
volume management starting.
The system is ready.
phys-schost-1 console login:
NOTICE: Node phys-schost-1: joined cluster
...
The system is coming up.  Please wait.
checking ufs filesystems
...
reservation program successfully exiting
Print services started.
volume management starting.
The system is ready.
phys-schost-1 console login: