Omitir Vínculos de navegación | |
Salir de la Vista de impresión | |
Guía de administración del sistema de Oracle Solaris Cluster Oracle Solaris Cluster 3.3 3/13 (Español) |
1. Introducción a la administración de Oracle Solaris Cluster
2. Oracle Solaris Cluster y RBAC
3. Cierre y arranque de un cluster
Descripción general sobre el cierre y el arranque de un cluster
Reparación de un sistema de archivos /var que haya alcanzado el límite de su capacidad
Reparación de un sistema de archivos /var que haya alcanzado el límite de capacidad
4. Métodos de replicación de datos
7. Administración de interconexiones de clusters y redes públicas
8. Adición y eliminación de un nodo
10. Configuración del control del uso de la CPU
11. Aplicación de parches de software y firmware de Oracle Solaris Cluster
12. Copias de seguridad y restauraciones de clusters
13. Administración de Oracle Solaris Cluster con las interfaces gráficas de usuario
Puede cerrar un nodo del cluster global, un nodo del cluster de zona o una zona no global. Esta sección proporciona instrucciones para cerrar nodos del cluster global y nodos de clusters de zona.
Para cerrar un nodo del cluster global, use el comando clnode evacuate con el comando shutdown de Oracle Solaris. Use el comando cluster shutdown sólo cuando vaya a cerrar todo un cluster global.
En el caso de un nodo de un cluster de zona, use el comando clzonecluster halt en un cluster global para cerrar sólo un nodo de un cluster de zona o todo un cluster de zona. También puede usar los comandos clnode evacuate y shutdown para cerrar nodos de un cluster de zona.
Para obtener información sobre cómo cerrar e iniciar una zona no global, consulte el Capítulo 20, Cómo instalar, iniciar, detener, desinstalar y clonar zonas no globales (tareas) de Guía de administración de sistemas: administración de recursos y contenedores de Oracle Solaris y zonas de Oracle Solaris. Consulte también las páginas del comando man clnode(1CL), shutdown(1M) y clzonecluster(1CL).
En los procedimientos tratados en este capítulo, phys-schost# refleja una solicitud de cluster global. El indicador de shell interactivo de clzonecluster es clzc:schost>.
Tabla 3-2 Mapa de tareas: cerrar y arrancar un nodo
|
phys-schost# refleja un indicador de cluster global. Siga este procedimiento en un cluster global.
Este procedimiento proporciona las formas largas de los comandos de Oracle Solaris Cluster. La mayoría de los comandos también tienen una forma corta. A excepción de las formas de los nombres de comandos, los comandos son idénticos.
Precaución - No use send brk en una consola de cluster para cerrar un nodo del cluster global ni de un cluster de zona. El comando no puede utilizarse dentro de un cluster. |
Consulte la documentación del producto de Oracle RAC para ver los procedimientos de cierre.
phys-schost# clzonecluster halt -n physical-name zoneclustername
Al especificar un determinado nodo de un cluster de zona, sólo se detiene ese nodo. El comando halt detiene de forma predeterminada los clusters de zona en todos los nodos.
En el nodo del cluster global que se va a cerrar, escriba el comando siguiente. El comando clnode evacuate cambia todos los grupos de recursos y de dispositivos (incluidas todas las zonas no globales) del nodo especificado al siguiente nodo por orden de preferencia. También puede ejecutar clnode evacuate dentro de un nodo de un cluster de zona.
phys-schost# clnode evacuate node
Especifica el nodo desde el que esté conmutando los grupos de recursos y de dispositivos.
Especifique el nodo del cluster global que quiera cerrar.
phys-schost# shutdown -g0 -y -i0
Compruebe que el nodo del cluster global muestre el indicador ok en los sistemas basados en SPARC o el mensaje Press any key to continue (Pulse cualquier tecla para continuar) en el menú de GRUB de los sistemas basados en x86.
Ejemplo 3-7 SPARC: Cierre de nodos del cluster global
En el siguiente ejemplo, se muestra la salida de la consola cuando se cierra el nodo phys-schost-1. La opción -g0 establece el período de gracia en cero; la opción -y proporciona una respuesta yes automática para la pregunta de confirmación. Los mensajes de cierre correspondientes a este nodo también aparecen en las consolas de los otros nodos del cluster global.
phys-schost# clnode evacuate phys-schost-1 phys-schost# shutdown -g0 -y Wed Mar 10 13:47:32 phys-schost-1 cl_runtime: WARNING: CMM monitoring disabled. phys-schost-1# INIT: New run level: 0 The system is coming down. Please wait. Notice: rgmd is being stopped. Notice: rpc.pmfd is being stopped. Notice: rpc.fed is being stopped. umount: /global/.devices/node@1 busy umount: /global/phys-schost-1 busy The system is down. syncing file systems... done Program terminated ok
Ejemplo 3-8 x86: Cierre de nodos del cluster global
El ejemplo siguiente muestra la salida de la consola cuando se cierra el nodo phys-schost-1. La opción -g0 establece el período de gracia en cero; la opción -y proporciona una respuesta yes automática para la pregunta de confirmación. Los mensajes de cierre correspondientes a este nodo también aparecen en las consolas de los otros nodos del cluster global.
phys-schost# clnode evacuate phys-schost-1 phys-schost# shutdown -g0 -y Shutdown started. Wed Mar 10 13:47:32 PST 2004 Changing to init state 0 - please wait Broadcast Message from root (console) on phys-schost-1 Wed Mar 10 13:47:32... THE SYSTEM phys-schost-1 IS BEING SHUT DOWN NOW ! ! ! Log off now or risk your files being damaged phys-schost-1# INIT: New run level: 0 The system is coming down. Please wait. System services are now being stopped. /etc/rc0.d/K05initrgm: Calling clnode evacuate failfasts disabled on node 1 Print services already stopped. Mar 10 13:47:44 phys-schost-1 syslogd: going down on signal 15 umount: /global/.devices/node@2 busy umount: /global/.devices/node@1 busy The system is down. syncing file systems... done WARNING: CMM: Node being shut down. Type any key to continue
Ejemplo 3-9 Cierre de un nodo de un cluster de zona
El ejemplo siguiente muestra el uso de clzonecluster halt para cerrar un nodo presente en un cluster de zona denominado zona_sc_dispersa. En un nodo de un cluster de zona también se pueden ejecutar los comandos clnode evacuate y shutdown.
phys-schost# clzonecluster status === Zone Clusters === --- Zone Cluster Status --- Name Node Name Zone HostName Status Zone Status ---- --------- ------------- ------ ----------- sparse-sczone schost-1 sczone-1 Online Running schost-2 sczone-2 Online Running schost-3 sczone-3 Online Running schost-4 sczone-4 Online Running phys-schost# phys-schost# clzonecluster halt -n schost-4 sparse-sczone Waiting for zone halt commands to complete on all the nodes of the zone cluster "sparse-sczone"... Sep 5 19:24:00 schost-4 cl_runtime: NOTICE: Membership : Node 3 of cluster 'sparse-sczone' died. phys-host# phys-host# clzonecluster status === Zone Clusters === --- Zone Cluster Status --- Name Node Name Zone HostName Status Zone Status ---- --------- ------------- ------ ----------- sparse-sczone schost-1 sczone-1 Online Running schost-2 sczone-2 Online Running schost-3 sczone-3 Offline Installed schost-4 sczone-4 Online Running phys-schost#
Véase también
Consulte Arranque de un nodo para ver cómo reiniciar un nodo del cluster global que se haya cerrado.
Si desea cerrar o reiniciar otros nodos activos del cluster global o del cluster de zona, espere a que aparezca en línea el estado guía de servidor multiusuario para el nodo que está iniciando.
De lo contrario, el nodo no estará disponible para hacerse cargo de los servicios de otros nodos del cluster que se cierren o rearranquen. Para obtener información sobre cómo iniciar una zona no global, consulte el Capítulo 20, Cómo instalar, iniciar, detener, desinstalar y clonar zonas no globales (tareas) de Guía de administración de sistemas: administración de recursos y contenedores de Oracle Solaris y zonas de Oracle Solaris.
Nota - La configuración del quórum puede afectar el inicio de un nodo. En un cluster de dos nodos, debe tener el dispositivo de quórum configurado de manera que el número total de quórum correspondiente al cluster ascienda a tres. Es conveniente tener un número de quórum para cada nodo y un número de quórum para el dispositivo de quórum. De esta forma, si cierra el primer nodo, el segundo sigue disponiendo de quórum y funciona como miembro único del cluster. Para que el primer nodo retorne al cluster como nodo integrante, el segundo debe estar operativo y en ejecución. Debe estar el correspondiente número de quórum de cluster (dos).
Si ejecuta Oracle Solaris Cluster en un dominio invitado, el reinicio del control o el dominio de E/S puede afectar el dominio invitado en ejecución, incluido el dominio que se va a cerrar. Debe volver a equilibrar la carga de trabajo en otros nodos y detener el dominio invitado que ejecute Oracle Solaris Cluster antes de volver a iniciar el control o el dominio de E/S.
Cuando un control o un dominio de E/S se reinicia, el dominio invitado no envía ni recibe señales. Esto genera una situación de "cerebro dividido" y una reconfiguración del cluster. Como se reinicia el control o el dominio de E/S, el dominio invitado no puede tener acceso a ningún dispositivo compartido. Los otros nodos del cluster ponen una barrera entre el dominio invitado y los dispositivos compartidos. Cuando el control o el dominio de E/S se termina de reiniciar, se reanuda la E/S en el dominio invitado, y cualquier E/S de un almacenamiento compartido hace que el dominio invitado emita un aviso grave a causa de la barrera que le impide acceder a los discos compartidos como parte de la reconfiguración del cluster. Puede mitigar este problema si un invitado utiliza dos dominios de E/S para la redundancia, y usted reinicia los dominios de E/S de uno en uno.
phys-schost# refleja un indicador de cluster global. Siga este procedimiento en un cluster global.
Este procedimiento proporciona las formas largas de los comandos de Oracle Solaris Cluster. La mayoría de los comandos también tienen una forma corta. A excepción de las formas de los nombres de comandos, los comandos son idénticos.
Nota - Los nodos deben disponer de una conexión operativa con la interconexión de cluster para poder convertirse en miembros del cluster.
En los sistemas basados en SPARC, ejecute el comando siguiente.
ok boot
En los sistemas basados en x86, ejecute los comandos siguientes.
Cuando aparezca el menú GRUB, seleccione la entrada de Oracle Solaris que corresponda y pulse Intro. Aparece el menú de GRUB, que es similar al siguiente:
GNU GRUB version 0.95 (631K lower / 2095488K upper memory) +-------------------------------------------------------------------------+ | Solaris 10 /sol_10_x86 | | Solaris failsafe | | | +-------------------------------------------------------------------------+ Use the ^ and v keys to select which entry is highlighted. Press enter to boot the selected OS, 'e' to edit the commands before booting, or 'c' for a command-line.
A medida que se activan los componentes del cluster, aparecen mensajes en las consolas de los nodos que se han arrancado.
Si tiene un cluster de zona, puede elegir un nodo para que arranque.
phys-schost# clzonecluster boot -n node zoneclustername
phys-schost# cluster status -t node
phys-schost# clzonecluster status
Un nodo de un cluster de zona sólo puede arrancarse en modo de cluster si el nodo que lo aloja arranca en modo de cluster.
Nota - Si el sistema de archivos /var de un sistema alcanza su límite de capacidad, es posible que Oracle Solaris Cluster no pueda reiniciarse en dicho nodo. Si surge este problema, consulte Reparación de un sistema de archivos /var que haya alcanzado el límite de capacidad.
Ejemplo 3-10 SPARC: Arranque de un nodo del cluster global
El ejemplo siguiente muestra la salida de la consola cuando se arranca el nodo phys-schost-1 en el cluster global.
ok boot Rebooting with command: boot ... Hostname: phys-schost-1 Booting as part of a cluster ... NOTICE: Node phys-schost-1: attempting to join cluster ... NOTICE: Node phys-schost-1: joined cluster ... The system is coming up. Please wait. checking ufs filesystems ... reservation program successfully exiting Print services started. volume management starting. The system is ready. phys-schost-1 console login:
Para cerrar o reiniciar otros nodos activos en el cluster global o en el cluster de zona, espere a que aparezca en línea el estado guía de servidor multiusuario para el nodo que está iniciando.
De lo contrario, el nodo no estará disponible para hacerse cargo de los servicios de otros nodos del cluster que se cierren o rearranquen. Para obtener información sobre cómo reiniciar una zona no global, consulte el Capítulo 20, Cómo instalar, iniciar, detener, desinstalar y clonar zonas no globales (tareas) de Guía de administración de sistemas: administración de recursos y contenedores de Oracle Solaris y zonas de Oracle Solaris.
phys-schost# refleja un indicador de cluster global. Siga este procedimiento en un cluster global.
Este procedimiento proporciona las formas largas de los comandos de Oracle Solaris Cluster. La mayoría de los comandos también tienen una forma corta. A excepción de las formas de los nombres de comandos, los comandos son idénticos.
Precaución - Si finaliza el tiempo de espera de un método para un recurso y no se puede eliminar, el nodo se reiniciará sólo si la propiedad Failover_mode del recurso se establece en HARD. Si la propiedad Failover_mode se establece en cualquier otro valor, el nodo no se reiniciará. |
Consulte la documentación del producto de Oracle RAC para ver los procedimientos de cierre.
En el caso de un cluster global, escriba los comandos siguientes en el nodo que vaya a cerrar. El comando clnode evacuate conmuta todos los grupos de dispositivos del nodo especificado al siguiente nodo por orden de preferencia. Este comando también cambia todos los grupos de recursos de las zonas globales o no globales del nodo especificado a las zonas globales o no globales de otros nodos que se sitúen a continuación por orden de preferencia.
Nota - Para cerrar un único nodo, utilice el comando shutdown -g0 -y -i6. Para cerrar varios nodos al mismo tiempo, utilice el comando shutdown -g0 -y -i0 para detenerlos. Después de detener todos los nodos, utilice el comando boot en todos ellos para volver a arrancarlos en el cluster.
En un sistema basado en SPARC, ejecute los comandos siguientes para reiniciar un nodo único.
phys-schost# clnode evacuate node
phys-schost# shutdown -g0 -y -i6
En un sistema basado en x86, ejecute los comandos siguientes para reiniciar un nodo único.
phys-schost# clnode evacuate node
phys-schost# shutdown -g0 -y -i6
Cuando aparezca el menú GRUB, seleccione la entrada de Oracle Solaris que corresponda y pulse Intro. Aparece el menú de GRUB, que es similar al siguiente:
GNU GRUB version 0.95 (631K lower / 2095488K upper memory) +-------------------------------------------------------------------------+ | Solaris 10 /sol_10_x86 | | Solaris failsafe | | | +-------------------------------------------------------------------------+ Use the ^ and v keys to select which entry is highlighted. Press enter to boot the selected OS, 'e' to edit the commands before booting, or 'c' for a command-line.
Indique el nodo del cluster de zona que se vaya a cerrar y rearrancar.
phys-schost# clzonecluster reboot - node zoneclustername
Nota - Los nodos deben disponer de una conexión operativa con la interconexión de cluster para poder convertirse en miembros del cluster.
phys-schost# cluster status -t node
phys-schost# clzonecluster status
Ejemplo 3-11 SPARC: Rearranque de un nodo del cluster global
El ejemplo siguiente muestra la salida de la consola cuando se rearranca el nodo phys-schost-1. Los mensajes correspondientes a este nodo, como las notificaciones de cierre y arranque, aparecen en las consolas de los otros nodos del cluster global.
phys-schost# clnode evacuate phys-schost-1 phys-schost# shutdown -g0 -y -i6 Shutdown started. Wed Mar 10 13:47:32 phys-schost-1 cl_runtime: WARNING: CMM monitoring disabled. phys-schost-1# INIT: New run level: 6 The system is coming down. Please wait. System services are now being stopped. Notice: rgmd is being stopped. Notice: rpc.pmfd is being stopped. Notice: rpc.fed is being stopped. umount: /global/.devices/node@1 busy umount: /global/phys-schost-1 busy The system is down. syncing file systems... done rebooting... Resetting ... ,,, Sun Ultra 1 SBus (UltraSPARC 143MHz), No Keyboard OpenBoot 3.11, 128 MB memory installed, Serial #5932401. Ethernet address 8:8:20:99:ab:77, Host ID: 8899ab77. ... Rebooting with command: boot ... Hostname: phys-schost-1 Booting as part of a cluster ... NOTICE: Node phys-schost-1: attempting to join cluster ... NOTICE: Node phys-schost-1: joined cluster ... The system is coming up. Please wait. The system is ready. phys-schost-1 console login:
Ejemplo 3-12 x86: Rearranque de un nodo del cluster global
En el siguiente ejemplo, se muestra la salida de la consola cuando se reinicia el nodo phys-schost-1. Los mensajes correspondientes a este nodo, como las notificaciones de cierre y arranque, aparecen en las consolas de los otros nodos del cluster global.
phys-schost# clnode evacuate phys-schost-1 phys-schost # shutdown -g0 -i6 -y GNU GRUB version 0.95 (631K lower / 2095488K upper memory) +-------------------------------------------------------------------------+ | Solaris 10 /sol_10_x86 | | Solaris failsafe | | | +-------------------------------------------------------------------------+ Use the ^ and v keys to select which entry is highlighted. Press enter to boot the selected OS, 'e' to edit the commands before booting, or 'c' for a command-line. Hostname: phys-schost-1 Booting as part of a cluster ... NOTICE: Node phys-schost-1: attempting to join cluster ... NOTICE: Node phys-schost-1: joined cluster ... The system is coming up. Please wait. checking ufs filesystems ... reservation program successfully exiting Print services started. volume management starting. The system is ready. phys-schost-1 console login:
Ejemplo 3-13 Rearranque de un nodo del cluster global
El ejemplo siguiente muestra cómo rearrancar un nodo de un cluster de zona.
phys-schost# clzonecluster reboot -n schost-4 sparse-sczone Waiting for zone reboot commands to complete on all the nodes of the zone cluster "sparse-sczone"... Sep 5 19:40:59 schost-4 cl_runtime: NOTICE: Membership : Node 3 of cluster 'sparse-sczone' died. phys-schost# Sep 5 19:41:27 schost-4 cl_runtime: NOTICE: Membership : Node 3 of cluster 'sparse-sczone' joined. phys-schost# phys-schost# clzonecluster status === Zone Clusters === --- Zone Cluster Status --- Name Node Name Zone HostName Status Zone Status ---- --------- ------------- ------ ----------- sparse-sczone schost-1 sczone-1 Online Running schost-2 sczone-2 Online Running schost-3 sczone-3 Online Running schost-4 sczone-4 Online Running phys-schost#
Puede arrancar un nodo del cluster global en un modo que no sea de cluster, en el cual el nodo no participa como miembro del cluster. El modo que no es de cluster resulta útil al instalar el software del cluster o en ciertos procedimientos administrativos, como la aplicación de parches en un nodo. Un nodo de un cluster de zona no puede estar en un estado de arranque diferente del que tenga el nodo del cluster global subyacente. Si el nodo del cluster global se arranca en un modo que no sea de cluster, el nodo del cluster de zona asume automáticamente el modo que no es de cluster.
phys-schost# refleja un indicador de cluster global. Siga este procedimiento en un cluster global.
Este procedimiento proporciona las formas largas de los comandos de Oracle Solaris Cluster. La mayoría de los comandos también tienen una forma corta. A excepción de las formas de los nombres de comandos, los comandos son idénticos.
El comando clnode evacuate conmuta todos los grupos de dispositivos del nodo especificado al siguiente nodo por orden de preferencia. Este comando también cambia todos los grupos de recursos de las zonas globales o no globales del nodo especificado a las zonas globales o no globales de otros nodos que se sitúen a continuación por orden de preferencia.
phys-schost# clnode evacuate node
phys-schost# shutdown -g0 -y
phys-schost# clzonecluster halt -n node zoneclustername
También puede utilizar los comandos clnode evacuate y shutdown dentro del cluster de zona.
En los sistemas basados en SPARC, ejecute el comando siguiente.
ok boot -xs
En los sistemas basados en x86, ejecute los comandos siguientes.
Aparece el menú de GRUB, que es similar al siguiente:
GNU GRUB version 0.95 (631K lower / 2095488K upper memory) +-------------------------------------------------------------------------+ | Solaris 10 /sol_10_x86 | | Solaris failsafe | | | +-------------------------------------------------------------------------+ Use the ^ and v keys to select which entry is highlighted. Press enter to boot the selected OS, 'e' to edit the commands before booting, or 'c' for a command-line.
Para obtener más información sobre el inicio basado en GRUB, consulte Cómo iniciar un sistema basado en x86 mediante GRUB (mapa de tareas) de Administración de Oracle Solaris: administración básica.
Aparece la pantalla de parámetros de inicio de GRUB, que es similar a la siguiente:
GNU GRUB version 0.95 (615K lower / 2095552K upper memory) +----------------------------------------------------------------------+ | root (hd0,0,a) | | kernel /platform/i86pc/multiboot | | module /platform/i86pc/boot_archive | +----------------------------------------------------------------------+ Use the ^ and v keys to select which entry is highlighted. Press 'b' to boot, 'e' to edit the selected command in the boot sequence, 'c' for a command-line, 'o' to open a new line after ('O' for before) the selected line, 'd' to remove the selected line, or escape to go back to the main menu.
[ Minimal BASH-like line editing is supported. For the first word, TAB lists possible command completions. Anywhere else TAB lists the possible completions of a device/filename. ESC at any time exits. ] grub edit> kernel /platform/i86pc/multiboot -x
La pantalla muestra el comando editado.
GNU GRUB version 0.95 (615K lower / 2095552K upper memory) +----------------------------------------------------------------------+ | root (hd0,0,a) | | kernel /platform/i86pc/multiboot -x | | module /platform/i86pc/boot_archive | +----------------------------------------------------------------------+ Use the ^ and v keys to select which entry is highlighted. Press 'b' to boot, 'e' to edit the selected command in the boot sequence, 'c' for a command-line, 'o' to open a new line after ('O' for before) the selected line, 'd' to remove the selected line, or escape to go back to the main menu.-
Nota - Este cambio en el comando del parámetro de inicio del núcleo no se conserva tras el inicio del sistema. La siguiente vez que reinicie el nodo, se iniciará en el modo de cluster. Para arrancarlo en el modo que no es de cluster, realice estos pasos de nuevo para agregar la opción -x al comando del parámetro de arranque del núcleo.
Ejemplo 3-14 SPARC: Arranque de un nodo del cluster global en un modo que no sea de cluster
El ejemplo siguiente muestra la salida de la consola cuando el nodo phys-schost-1 se cierra y se reinicia en un modo que no es de cluster. La opción -g0 establece el período de gracia en cero; la opción -y proporciona una respuesta yes automática para la pregunta de confirmación y la opción -i0 invoca el nivel de ejecución 0 (cero). Los mensajes de cierre correspondientes a este nodo también aparecen en las consolas de los otros nodos del cluster global.
phys-schost# clnode evacuate phys-schost-1 phys-schost# cluster shutdown -g0 -y Shutdown started. Wed Mar 10 13:47:32 phys-schost-1 cl_runtime: WARNING: CMM monitoring disabled. phys-schost-1# ... rg_name = schost-sa-1 ... offline node = phys-schost-2 ... num of node = 0 ... phys-schost-1# INIT: New run level: 0 The system is coming down. Please wait. System services are now being stopped. Print services stopped. syslogd: going down on signal 15 ... The system is down. syncing file systems... done WARNING: node phys-schost-1 is being shut down. Program terminated ok boot -x ... Not booting as part of cluster ... The system is ready. phys-schost-1 console login: