Omitir Vínculos de navegación | |
Salir de la Vista de impresión | |
Guía de administración del sistema de Oracle Solaris Cluster Oracle Solaris Cluster 3.3 3/13 (Español) |
1. Introducción a la administración de Oracle Solaris Cluster
2. Oracle Solaris Cluster y RBAC
3. Cierre y arranque de un cluster
4. Métodos de replicación de datos
7. Administración de interconexiones de clusters y redes públicas
8. Adición y eliminación de un nodo
Información general sobre la administración del cluster
Asignación de un ID de nodo a un nombre de nodo
Uso de la autenticación del nodo del cluster nuevo
Restablecimiento de la hora del día en un cluster
SPARC: Visualización de la PROM OpenBoot en un nodo
Cómo cambiar un nombre de host privado de nodo
Agregación de un nombre de host privado para un nodo sin voto en un cluster global
Cambio de nombre de host privado en un nodo sin voto de un cluster global
Supresión de un nombre de host privado para un nodo sin voto en un cluster global
Cómo cambiar el nombre de un nodo
Cómo poner un nodo en estado de mantenimiento
Cómo sacar un nodo del estado de mantenimiento
Cómo instalar el software de Oracle Solaris Cluster desde un nodo de cluster
Resolución de problemas de desinstalación de nodos
Entradas del sistema de archivos de cluster no eliminadas
Lista no eliminada de grupos de dispositivos
Secuencia de comandos de desinstalación faltante
Creación, configuración y gestión de la MIB de eventos de SNMP de Oracle Solaris Cluster
Cómo habilitar una MIB de eventos de SNMP
Cómo deshabilitar una MIB de eventos de SNMP
Cómo cambiar una MIB de eventos de SNMP
Cómo habilitar un host de SNMP para que reciba capturas de SNMP en un nodo
Cómo deshabilitar un host de SNMP para que no reciba capturas de SNMP en un nodo
Cómo agregar un usuario de SNMP a un nodo
Cómo eliminar un usuario de SNMP de un nodo
Cómo realizar tareas administrativas del cluster de zona
Cómo agregar una dirección de red a un cluster de zona
Cómo eliminar un cluster de zona
Cómo eliminar un sistema de archivos de un cluster de zona
Cómo eliminar un dispositivo de almacenamiento de un cluster de zona
Ejecución de una aplicación fuera del cluster global
Restauración de un conjunto de discos dañado
Guardado de la configuración del software de Solaris Volume Manager
Cómo purgar el conjunto de discos dañado
Recreación de la configuración del software de Solaris Volume Manager
10. Configuración del control del uso de la CPU
11. Aplicación de parches de software y firmware de Oracle Solaris Cluster
12. Copias de seguridad y restauraciones de clusters
13. Administración de Oracle Solaris Cluster con las interfaces gráficas de usuario
Esta sección describe cómo realizar tareas administrativas para todo el cluster global o de zona. La tabla siguiente enumera estas tareas administrativas y los procedimientos asociados. Las tareas administrativas del cluster suelen efectuarse en la zona global. Para administrar un cluster de zona, al menos un equipo que almacenará como host el cluster de zona debe estar activado en modo de cluster. No todos los nodos cluster de zona deben estar activados y en funcionamiento; Oracle Solaris Cluster reproduce cualquier cambio de configuración si el nodo que está fuera del cluster se vuelve a unir a éste.
Nota - De manera predeterminada, la administración de energía está desactivada para que no interfiera con el cluster. Si habilita la administración de energía en un cluster de un solo nodo, el cluster continuará ejecutándose pero podría no estar disponible durante unos segundos. La función de administración de energía intenta cerrar el nodo, pero no lo consigue.
En este capítulo, phys-schost# refleja una solicitud de cluster global. El indicador de solicitud de shell interactivo de clzonecluster es clzc:schost>.
Tabla 9-1 Lista de tareas: administrar el cluster
|
Si es necesario, el nombre del cluster puede cambiarse tras la instalación inicial.
phys-schost# refleja un indicador de cluster global. Siga este procedimiento en un cluster global.
Este procedimiento proporciona las formas largas de los comandos de Oracle Solaris Cluster. La mayoría de los comandos también tienen una forma corta. A excepción de las formas de los nombres de comandos, los comandos son idénticos.
phys-schost# clsetup
Aparece el menú principal.
Aparece el menú Other Cluster Properties (Otras propiedades del cluster).
phys-schost# stclient -x
phys-schost# stclient -d -i service_tag_instance_number
phys-schost# reboot
Ejemplo 9-1 Cambio del nombre del cluster
En el ejemplo siguiente, se muestra el comando cluster generado desde la utilidad clsetup para cambiar al nuevo nombre de cluster: dromedary.
Para obtener más información, consulte las páginas del comando man cluster(1CL) y clsetup(1CL).
phys-schost# cluster rename -c dromedary
Durante la instalación de Oracle Solaris Cluster, se les asigna automáticamente a todos los nodos un número exclusivo de ID de nodo. El número de ID de nodo se asigna a un nodo en el orden en que se une al cluster por primera vez. Una vez asignado, no se puede cambiar. El número de ID de nodo suele usarse en mensajes de error para identificar el nodo del cluster al que hace referencia el mensaje. Siga este procedimiento para determinar la asignación entre los ID y los nombres de los nodos.
Para visualizar la información sobre la configuración para un cluster global o de zona no hace falta ser superusuario. Un paso de este procedimiento se realiza desde un nodo de cluster global. El otro paso se efectúa desde un nodo de cluster de zona.
phys-schost# clnode show | grep Node
Para obtener más información, consulte la página del comando man clnode(1CL).
phys-schost# zlogin sczone clnode -v | grep Node
Ejemplo 9-2 Asignación de ID del nodo al nombre del nodo
El ejemplo siguiente muestra las asignaciones de ID de nodo para un cluster global.
phys-schost# clnode show | grep Node === Cluster Nodes === Node Name: phys-schost1 Node ID: 1 Node Name: phys-schost2 Node ID: 2 Node Name: phys-schost3 Node ID: 3
Oracle Solaris Cluster permite determinar si se pueden agregar nodos nuevos al cluster global y el tipo de autenticación que puede utilizar. Puede permitir que cualquier nodo nuevo se una al cluster por la red pública, denegar que los nodos nuevos se unan al cluster o indicar que un nodo en particular se una al cluster. Los nodos nuevos se pueden autenticar mediante la autenticación estándar de UNIX o Diffie-Hellman (DES). Si selecciona la autenticación DES, también debe configurar todas las pertinentes claves de cifrado antes de unir un nodo. Para obtener más información, consulte las páginas del comando man keyserv(1M) y publickey(4).
phys-schost# refleja un indicador de cluster global. Siga este procedimiento en un cluster global.
Este procedimiento proporciona las formas largas de los comandos de Oracle Solaris Cluster. La mayoría de los comandos también tienen una forma corta. A excepción de las formas de los nombres de comandos, los comandos son idénticos.
phys-schost# clsetup
Aparece el menú principal.
Aparece el menú Nuevos nodos.
Ejemplo 9-3 Procedimiento para evitar que un equipo nuevo se agregue al cluster global
La utilidad clsetup genera el comando claccess. El ejemplo siguiente muestra el comando claccess, que evita que equipos nuevos se agreguen al cluster.
phys-schost# claccess deny -h hostname
Ejemplo 9-4 Procedimiento para permitir que todos los equipos nuevos se agreguen al cluster global
La utilidad clsetup genera el comando claccess. El ejemplo siguiente muestra el comando claccess, que permite que todos los equipos nuevos se agreguen al cluster.
phys-schost# claccess allow-all
Ejemplo 9-5 Procedimiento para especificar que se agregue un equipo nuevo al cluster global
La utilidad clsetup genera el comando claccess. El ejemplo siguiente muestra el comando claccess, que permite que un solo equipo nuevo se agregue al cluster.
phys-schost# claccess allow -h hostname
Ejemplo 9-6 Configuración de la autenticación en UNIX estándar
La utilidad clsetup genera el comando claccess. El ejemplo siguiente muestra el comando claccess, que restablece la configuración de la autenticación UNIX estándar para los nodos nuevos que se unan al cluster.
phys-schost# claccess set -p protocol=sys
Ejemplo 9-7 Configuración de la autenticación en DES
La utilidad clsetup genera el comando claccess. El ejemplo siguiente muestra el comando claccess, que usa la autenticación DES para los nodos nuevos que se unan al cluster.
phys-schost# claccess set -p protocol=des
Cuando use la autenticación DES, también debe configurar todas las claves de cifrado necesarias antes de unir un nodo al cluster. Para obtener más información, consulte las páginas del comando man keyserv(1M) y publickey(4).
El software de Oracle Solaris Cluster usa el protocolo de hora de red (NTP) para mantener la sincronización temporal entre los nodos del cluster. Los ajustes del cluster global se efectúa automáticamente según sea necesario cuando los nodos sincronizan su hora. Para obtener más información, consulte la Oracle Solaris Cluster Concepts Guide y la Guía del usuario del protocolo de hora de red en http://docs.oracle.com/cd/E19065-01/servers.10k/.
Precaución - Si utiliza NTP, no intente ajustar la hora del cluster mientras se encuentre activo y en funcionamiento. No ajuste la hora con los comandos date, rdate o svcadm de forma interactiva o dentro de las secuencias de comandos cron. Para obtener más información, consulte las páginas del comando man date(1), rdate(1M), xntpd(1M), svcadm(1M) o cron(1M). |
phys-schost# refleja un indicador de cluster global. Siga este procedimiento en un cluster global.
Este procedimiento proporciona las formas largas de los comandos de Oracle Solaris Cluster. La mayoría de los comandos también tienen una forma corta. A excepción de las formas de los nombres de comandos, los comandos son idénticos.
phys-schost# cluster shutdown -g0 -y -i 0
En los sistemas basados en SPARC, ejecute el comando siguiente.
ok boot -x
En los sistemas basados en x86, ejecute los comandos siguientes.
# shutdown -g -y -i0 Press any key to continue
Aparece el menú de GRUB, que es similar al siguiente:
GNU GRUB version 0.95 (631K lower / 2095488K upper memory) +-------------------------------------------------------------------------+ | Solaris 10 /sol_10_x86 | | Solaris failsafe | | | +-------------------------------------------------------------------------+ Use the ^ and v keys to select which entry is highlighted. Press enter to boot the selected OS, 'e' to edit the commands before booting, or 'c' for a command-line.
Para obtener más información sobre el inicio basado en GRUB, consulte Cómo iniciar un sistema basado en x86 mediante GRUB (mapa de tareas) de Administración de Oracle Solaris: administración básica.
Aparece la pantalla de parámetros de inicio de GRUB, que es similar a la siguiente:
GNU GRUB version 0.95 (615K lower / 2095552K upper memory) +----------------------------------------------------------------------+ | root (hd0,0,a) | | kernel /platform/i86pc/multiboot | | module /platform/i86pc/boot_archive | +----------------------------------------------------------------------+ Use the ^ and v keys to select which entry is highlighted. Press 'b' to boot, 'e' to edit the selected command in the boot sequence, 'c' for a command-line, 'o' to open a new line after ('O' for before) the selected line, 'd' to remove the selected line, or escape to go back to the main menu.
[ Minimal BASH-like line editing is supported. For the first word, TAB lists possible command completions. Anywhere else TAB lists the possible completions of a device/filename. ESC at any time exits. ] grub edit> kernel /platform/i86pc/multiboot -x
La pantalla muestra el comando editado.
GNU GRUB version 0.95 (615K lower / 2095552K upper memory) +----------------------------------------------------------------------+ | root (hd0,0,a) | | kernel /platform/i86pc/multiboot -x | | module /platform/i86pc/boot_archive | +----------------------------------------------------------------------+ Use the ^ and v keys to select which entry is highlighted. Press 'b' to boot, 'e' to edit the selected command in the boot sequence, 'c' for a command-line, 'o' to open a new line after ('O' for before) the selected line, 'd' to remove the selected line, or escape to go back to the main menu.-
Nota - Este cambio en el comando del parámetro de inicio del núcleo no se conserva tras el inicio del sistema. La siguiente vez que reinicie el nodo, se iniciará en el modo de cluster. Para arrancarlo en el modo que no es de cluster, realice estos pasos de nuevo para agregar la opción -x al comando del parámetro de arranque del núcleo.
phys-schost# date HHMM.SS
phys-schost# rdate hostname
Para obtener más información, consulte la página del comando man rdate(1M).
phys-schost# reboot
Ejecute el comando date en todos los nodos.
phys-schost# date
Siga este procedimiento si debe configurar o cambiar la configuración de la PROM OpenBoot(tm).
phys-schost# refleja un indicador de cluster global. Siga este procedimiento en un cluster global.
Este procedimiento proporciona las formas largas de los comandos de Oracle Solaris Cluster. La mayoría de los comandos también tienen una forma corta. A excepción de las formas de los nombres de comandos, los comandos son idénticos.
# telnet tc_name tc_port_number
Especifica el nombre del concentrador de terminales.
Especifica el número del puerto del concentrador de terminales. Los números de puerto dependen de la configuración. Los puertos 2 y 3 (5002 y 5003) suelen usarse para el primer cluster instalado en un sitio.
phys-schost# clnode evacuate node # shutdown -g0 -y
Precaución - No use el comando send brk en la consola de un cluster para cerrar un nodo de cluster. |
Utilice este procedimiento para cambiar un nombre de host privado de un nodo de cluster una vez finalizada la instalación.
Durante la instalación inicial del cluster se asignan nombre de host privados predeterminados. El nombre de host privado usa el formato clusternode< id_nodo>-priv; por ejemplo: clusternode3-priv. Cambie un nombre de host privado sólo si el nombre ya se utiliza en el dominio.
Precaución - No intente asignar direcciones IP a los nuevos nombres de host privados. El software de cluster los asigna. |
phys-schost# refleja un indicador de cluster global. Siga este procedimiento en un cluster global.
Este procedimiento proporciona las formas largas de los comandos de Oracle Solaris Cluster. La mayoría de los comandos también tienen una forma corta. A excepción de las formas de los nombres de comandos, los comandos son idénticos.
phys-schost# clresource disable resource[,...]
Incluya lo siguiente en las aplicaciones que deshabilita.
Servicios HA-DNS y HA-NFS, si están configurados
Cualquier aplicación que se haya configurado de manera personalizada para utilizar el nombre de host privado
Cualquier aplicación que utilicen los clientes mediante la interconexión privada
Para obtener más información sobre el uso del comando clresource, consulte la página del comando man clresource(1CL) y la Oracle Solaris Cluster Data Services Planning and Administration Guide.
Utilice el comando svcadm para cerrar el daemon del protocolo de hora de red (NTP). Consulte la página del comando man svcadm(1M) para obtener más información sobre el daemon NTP.
phys-schost# svcadm disable ntp
Ejecute la utilidad desde uno solo de los nodos del cluster.
Nota - Cuando seleccione un nombre nuevo para el sistema privado, compruebe que no se utilice en el nodo del cluster.
Responda las preguntas cuando se lo solicite. Se le solicitará el nombre del nodo cuyo nombre de host privado desee cambiar (clusternode< idnodo> -priv), así como el nombre de host nuevo para el sistema privado.
Efectúe este paso en todos los nodos del cluster. El vaciado evita que las aplicaciones del cluster y los servicios de datos intenten acceder al nombre de host privado anterior.
phys-schost# nscd -i hosts
Si efectúa este paso durante la instalación, recuerde eliminar los nombres de los nodos que estén configurados. La plantilla predeterminada está preconfigurada con 16 nodos. Por lo general, el archivo ntp.conf.cluster es el mismo en todos los nodos del cluster.
Realice este paso en cada nodo del cluster.
Utilice el comando svcadm para reiniciar el daemon de NTP.
# svcadm enable ntp
phys-schost# clresource enable resource[,...]
Para obtener más información sobre el uso del comando clresource, consulte la página del comando man clresource(1CL) y la Oracle Solaris Cluster Data Services Planning and Administration Guide.
Ejemplo 9-8 Cambio de nombre de host privado
En el ejemplo siguiente, se cambia el nombre de host privado de clusternode2-priv a clusternode4-priv, en el nodo phys-schost-2.
[Disable all applications and data services as necessary.] phys-schost-1# /etc/init.d/xntpd stop phys-schost-1# clnode show | grep node ... private hostname: clusternode1-priv private hostname: clusternode2-priv private hostname: clusternode3-priv ... phys-schost-1# clsetup phys-schost-1# nscd -i hosts phys-schost-1# vi /etc/inet/ntp.conf ... peer clusternode1-priv peer clusternode4-priv peer clusternode3-priv phys-schost-1# ping clusternode4-priv phys-schost-1# /etc/init.d/xntpd start [Enable all applications and data services disabled at the beginning of the procedure.]
Utilice este procedimiento para agregar un nombre de host privado a un nodo sin voto en un cluster global una vez finalizada la instalación. En los procedimientos tratados en este capítulo, phys-schost# refleja una solicitud de cluster global. Realice este procedimiento sólo en un cluster global.
phys-schost# clsetup
Responda las preguntas cuando se lo solicite. No existe un nombre predeterminado para el sistema privado de un nodo sin votación del cluster global. Necesitará proporcionar un nombre de host.
Utilice este procedimiento para cambiar el nombre de host privado de un nodo sin voto una vez finalizada la instalación.
Durante la instalación inicial del cluster se asignan nombre de host privados. El nombre de host privado usa el formato clusternode< nodeid>-priv, por ejemplo: clusternode3-priv . Cambie un nombre de host privado sólo si el nombre ya se utiliza en el dominio.
Precaución - No intente asignar direcciones IP a los nuevos nombres de host privados. El software de cluster los asigna. |
phys-schost# refleja un indicador de cluster global. Siga este procedimiento en un cluster global.
Este procedimiento proporciona las formas largas de los comandos de Oracle Solaris Cluster. La mayoría de los comandos también tienen una forma corta. A excepción de las formas de los nombres de comandos, los comandos son idénticos.
phys-schost# clresource disable resource1, resource2
Incluya lo siguiente en las aplicaciones que deshabilita.
Servicios HA-DNS y HA-NFS, si están configurados
Cualquier aplicación que se haya configurado de manera personalizada para utilizar el nombre de host privado
Cualquier aplicación que utilicen los clientes mediante la interconexión privada
Para obtener más información sobre el uso del comando clresource, consulte la página del comando man clresource(1CL) y la Oracle Solaris Cluster Data Services Planning and Administration Guide.
phys-schost# clsetup
Debe realizar este paso únicamente desde uno de los nodos del cluster. Para obtener más información, consulte la página del comando man clsetup(1CL).
Nota - Cuando seleccione un nombre nuevo para el sistema privado, compruebe que no se utilice en el cluster.
No existe opción predeterminada para un nodo sin votación de un nombre de host privado del cluster global. Se debe proporcionar un nombre de host.
Responda las preguntas cuando se lo solicite. Se le solicitará el nombre del nodo sin voto cuyo nombre de host privado esté cambiando (clusternode< nodeid> -priv) y el nuevo nombre de host privado.
Efectúe este paso en todos los nodos del cluster. El vaciado evita que las aplicaciones del cluster y los servicios de datos intenten acceder al nombre de host privado anterior.
phys-schost# nscd -i hosts
Utilice este procedimiento para suprimir un nombre de host privado para un nodo sin voto en un cluster global. Realice este procedimiento sólo en un cluster global.
Para obtener más información, consulte la página del comando man clsetup(1CL).
Puede cambiar el nombre de un nodo que es parte de una configuración de Oracle Solaris Cluster. Debe cambiar el nombre del host de Oracle Solaris para poder cambiar el nombre del nodo. Utilice el clnode rename para cambiar el nombre del nodo.
Las instrucciones siguientes se aplican a cualquier aplicación que se esté ejecutando en un cluster global.
ok> boot -x
# clnode rename -n newnodename oldnodename
# sync;sync;sync;/etc/reboot
# clnode status -v
Puede elegir si desea cambiar la propiedad hostnamelist del recurso de nombre de host lógico antes o después de cambiar el nombre del nodo; para ello, siga los pasos descritos en Cómo cambiar el nombre de un nodo. Este paso es opcional.
En los pasos siguientes se describe cómo configurar el recurso apache-lh-res para que funcione con el nuevo nombre de host lógico. Se debe ejecutar en modo de cluster.
# clrg offline apache-rg
# clrs disable appache-lh-res
# clrs set -p HostnameList=test-2 apache-lh-res
# clrs enable apache-lh-res
# clrg online -eM apache-rg
# clrs status apache-rs
Ponga un nodo del cluster global en estado de mantenimiento al sacar el nodo fuera de servicio por un período de tiempo extendido. De esta forma, el nodo no contribuye al número de quórum mientras sea objeto de tareas de mantenimiento o reparación. Para poner un nodo en estado de mantenimiento, éste se debe cerrar con los comandos clnode evacuate y cluster shutdown. Para obtener más información, consulte las páginas del comando man clnode(1CL) y cluster(1CL).
Nota - Use el comando shutdown de Oracle Solaris para cerrar un solo nodo. Use el comando cluster shutdown sólo cuando vaya a cerrar todo un cluster.
Cuando un cluster se cierra y se pone en estado de mantenimiento, el número de votos de quórum de todos los dispositivos de quórum configurados con puertos al nodo se reduce en uno. Los números de votos del nodo y del dispositivo de quórum se incrementan en uno cuando el nodo sale del modo de mantenimiento y vuelve a estar en línea.
Utilice el comando clquorum disable para poner un nodo de cluster en estado de mantenimiento. Para obtener más información, consulte la página del comando man clquorum(1CL).
phys-schost# refleja un indicador de cluster global. Siga este procedimiento en un cluster global.
Este procedimiento proporciona las formas largas de los comandos de Oracle Solaris Cluster. La mayoría de los comandos también tienen una forma corta. A excepción de las formas de los nombres de comandos, los comandos son idénticos.
phys-schost# clnode evacuate node
phys-schost# shutdown -g0 -y -i 0
phys-schost# clquorum disable node
Especifica el nombre de un nodo que desea poner en modo de mantenimiento.
phys-schost# clquorum status node
El nodo puesto en estado de mantenimiento debe tener un Status de offline y 0 (cero) para los votos de quórum Present y Possible.
Ejemplo 9-9 Cómo poner un nodo del cluster global en estado de mantenimiento
En el siguiente ejemplo se pone un nodo de cluster en estado de mantenimiento y se comprueban los resultados. La salida de clnode status muestra los Node votes para que phys-schost-1 sea 0 y el estado sea Offline. El Quorum Summary debe mostrar también el número de votos reducido. Según la configuración, la salida de Quorum Votes by Device puede indicar que algunos dispositivos del disco de quórum también se encuentran desconectados.
[On the node to be put into maintenance state:] phys-schost-1# clnode evacuate phys-schost-1 phys-schost-1# shutdown -g0 -y -i0 [On another node in the cluster:] phys-schost-2# clquorum disable phys-schost-1 phys-schost-2# clquorum status phys-schost-1 -- Quorum Votes by Node -- Node Name Present Possible Status --------- ------- -------- ------ phys-schost-1 0 0 Offline phys-schost-2 1 1 Online phys-schost-3 1 1 Online
Véase también
Para volver a poner en línea un nodo, consulte Cómo sacar un nodo del estado de mantenimiento.
Utilice el siguiente procedimiento para volver a poner en línea un nodo del cluster global y restablecer el recuento de votos de quórum al valor predeterminado. En los nodos del cluster, el número de quórum predeterminado es uno. En los dispositivos de quórum, el número de quórum predeterminado es N-1, donde N es el número de nodos con número de votos distinto de cero que tienen puertos conectados al dispositivo de quórum.
Si un nodo se pone en estado de mantenimiento, el número de votos de quórum se reduce en uno. Todos los dispositivos de quórum configurados con puertos conectados al nodo también ven reducido su número de votos. Al restablecer el número de votos de quórum y un nodo se quita del estado de mantenimiento, el número de votos de quórum y el del dispositivo de quórum se ven incrementados en uno.
Ejecute este procedimiento siempre que haya puesto el nodo del cluster global en estado de mantenimiento y vaya a sacarlo de él.
Precaución - Si no especifica ni la opción globaldev ni node, el número de quórum se restablece para todo el cluster. |
phys-schost# refleja un indicador de cluster global. Siga este procedimiento en un cluster global.
Este procedimiento proporciona las formas largas de los comandos de Oracle Solaris Cluster. La mayoría de los comandos también tienen una forma corta. A excepción de las formas de los nombres de comandos, los comandos son idénticos.
El recuento de quórum debe restablecerse de un nodo que no esté en estado de mantenimiento antes de reiniciar el nodo; de lo contrario, el nodo puede bloquearse mientras espera el quórum.
phys-schost# clquorum reset
El indicador de cambio que restablece el quórum.
phys-schost# clquorum status
El nodo que ha quitado del estado de mantenimiento deber tener el estado de online y mostrar el recuento de votos adecuado para los votos de quórum Present y Possible.
Ejemplo 9-10 Eliminación de un nodo de cluster del estado de mantenimiento y restablecimiento del recuento de votos de quórum
En el ejemplo siguiente se restablece el recuento de quórum para un nodo de cluster y sus dispositivos de quórum a los valores predeterminados y se comprueba el resultado. El resultado de scstat -q muestra los Node votes para que phys-schost-1 sea 1 y que el estado sea online. El Quorum Summary debe mostrar también un incremento en los recuentos de votos.
phys-schost-2# clquorum reset
En los sistemas basados en SPARC, ejecute el comando siguiente.
ok boot
En los sistemas basados en x86, ejecute los comandos siguientes.
Cuando aparezca el menú GRUB, seleccione la entrada de Oracle Solaris que corresponda y pulse Intro. Aparece el menú de GRUB, que es similar al siguiente:
GNU GRUB version 0.95 (631K lower / 2095488K upper memory) +-------------------------------------------------------------------------+ | Solaris 10 /sol_10_x86 | | Solaris failsafe | | | +-------------------------------------------------------------------------+ Use the ^ and v keys to select which entry is highlighted. Press enter to boot the selected OS, 'e' to edit the commands before booting, or 'c' for a command-line.
phys-schost-1# clquorum status --- Quorum Votes Summary --- Needed Present Possible ------ ------- -------- 4 6 6 --- Quorum Votes by Node --- Node Name Present Possible Status --------- ------- -------- ------ phys-schost-2 1 1 Online phys-schost-3 1 1 Online --- Quorum Votes by Device --- Device Name Present Possible Status ----------- ------- -------- ------ /dev/did/rdsk/d3s2 1 1 Online /dev/did/rdsk/d17s2 0 1 Online /dev/did/rdsk/d31s2 1 1 Online `
Realice este procedimiento para desinstalar el software de Oracle Solaris Cluster de un nodo del cluster global antes de desconectarlo de una configuración de cluster completamente establecida. Puede seguir este procedimiento para desinstalar el software desde el último nodo de un cluster.
Nota - No siga este procedimiento para desinstalar el software Oracle Solaris Cluster desde un nodo que todavía no se haya unido al cluster o que aún esté en modo de instalación. En cambio, vaya a “Desinstalación del software de Oracle Solaris Cluster para solucionar problemas de instalación” en la Guía de instalación del software de Oracle Solaris Cluster.
phys-schost# refleja un indicador de cluster global. Siga este procedimiento en un cluster global.
Este procedimiento proporciona las formas largas de los comandos de Oracle Solaris Cluster. La mayoría de los comandos también tienen una forma corta. A excepción de las formas de los nombres de comandos, los comandos son idénticos.
Consulte la Tabla 8-2.
Nota - Compruebe que haya eliminado el nodo de la configuración del cluster mediante clnode remove antes de continuar con este procedimiento.
phys-schost# claccess allow -h hostname
Especifica el nombre del nodo que se va a agregar a la lista de autenticación del nodo.
También puede usar la utilidad clsetup. Consulte la página del comando man clsetup(1CL) y Cómo agregar un nodo a un cluster existente para conocer los procedimientos.
phys-schost# clzonecluster uninstall -F zoneclustername
Para ver los pasos específicos, consulte Cómo eliminar un cluster de zona.
En un sistema basado en SPARC, ejecute el siguiente comando.
# shutdown -g0 -y -i0ok boot -x
En un sistema basado en x86, ejecute los siguientes comandos.
# shutdown -g0 -y -i0 ... <<< Current Boot Parameters >>> Boot path: /pci@0,0/pci8086,2545@3/pci8086,1460@1d/pci8086,341a@7,1/ sd@0,0:a Boot args: Type b [file-name] [boot-flags] <ENTER> to boot with options or i <ENTER> to enter boot interpreter or <ENTER> to boot with defaults <<< timeout in 5 seconds >>> Select (b)oot or (i)nterpreter: b -x
Si el registro de productos de Java ES contiene un registro de que el software de Oracle Solaris Cluster ya se instaló, el instalador de Java ES muestra el componente de Oracle Solaris Cluster atenuado y no permite la reinstalación.
Ejecute el siguiente comando, donde ver es la versión de la distribución de Java ES desde donde instaló el software de Oracle Solaris Cluster.
# /var/sadm/prod/SUNWentsysver/uninstall
Para obtener más información sobre el uso del comando uninstall, consulte el Capítulo 8, Uninstalling de Sun Java Enterprise System 5 Update 1 Installation Guide for UNIX.
Si el nodo desinstalado está conectado a un dispositivo de almacenamiento que usa interfaces de canal de fibra, el cierre no es necesario.
Consejo - Si utiliza un dispositivo de archivo de bucle de retorno (lofi), el desinstalador de Java ES quita automáticamente el archivo lofi, denominado /.globaldevices. Para obtener más información acerca de la migración de un espacio de nombre de dispositivos globales a lofi, consulte Migración del espacio de nombre de dispositivos globales.
En esta sección se describen los mensajes de error que puede recibir cuando ejecuta el comando clnode remove y las medidas correctivas que debe utilizar.
Los siguientes mensajes de error indican que el nodo del cluster global que ha eliminado todavía tiene sistemas de archivos del cluster a los que se hace referencia en el archivo vfstab.
Verifying that no unexpected global mounts remain in /etc/vfstab ... failed clnode: global-mount1 is still configured as a global mount. clnode: global-mount1 is still configured as a global mount. clnode: /global/dg1 is still configured as a global mount. clnode: It is not safe to uninstall with these outstanding errors. clnode: Refer to the documentation for complete uninstall instructions. clnode: Uninstall failed.
Para corregir este error, vuelva a Cómo instalar el software de Oracle Solaris Cluster desde un nodo de cluster y repita el procedimiento. Compruebe que haya realizado correctamente el Paso 7 del procedimiento antes de volver a ejecutar el comando clnode remove.
Los siguientes mensajes de error indican que el nodo que ha eliminado todavía está en la lista con un grupo de dispositivos.
Verifying that no device services still reference this node ... failed clnode: This node is still configured to host device service " service". clnode: This node is still configured to host device service " service2". clnode: This node is still configured to host device service " service3". clnode: This node is still configured to host device service " dg1". clnode: It is not safe to uninstall with these outstanding errors. clnode: Refer to the documentation for complete uninstall instructions. clnode: Uninstall failed.
Si no utilizó el programa installer para instalar o actualizar el software de Sun Cluster u Oracle Solaris Cluster que ahora desea quitar, no hay ninguna secuencia de comandos de desinstalación que se pueda utilizar para esa versión de software. En cambio, siga los pasos indicados a continuación para desinstalar el software.
# cd /directory
# scinstall -r
# mv /var/sadm/install/productregistry /var/sadm/install/productregistry.sav
En esta sección se describe cómo crear, configurar y gestionar la base de información de administración (MIB) de eventos del Protocolo simple de administración de red (SNMP). Esta sección también describe cómo habilitar, inhabilitar y cambiar la MIB de eventos de SNMP de Oracle Solaris Cluster.
El software Oracle Solaris Cluster admite actualmente una MIB, la MIB de eventos. El software del administrador de SNMP intercepta los eventos del cluster en tiempo real. Si se habilita, el administrador de SNMP envía automáticamente notificaciones de captura a todos los sistemas definidos en el comando clsnmphost. La MIB mantiene una tabla de sólo lectura con los 50 eventos más actuales. Debido a que los clusters generan numerosas notificaciones, sólo se envían como notificaciones de capturas los eventos con cierto grado de warning (advertencia) o superior. Esta información no se mantiene después de reiniciar.
La MIB de eventos de SNMP está definida en el archivo sun-cluster-event-mib.mib y se ubica en el directorio /usr/cluster/lib/mib. Esta definición puede usarse para interpretar la información de captura de SNMP.
El número de puerto predeterminado del módulo SNMP del evento es 11161 y el puerto predeterminado de las capturas de SNMP es 11162. Estos números de puerto se pueden cambiar modificando el archivo de propiedad de Common Agent Container, /etc/cacao/instances/default/private/cacao.properties.
Crear, configurar y administrar una MIB de eventos de SNMP de Oracle Solaris Cluster puede implicar las tareas siguientes.
Tabla 9-2 Mapa de tareas: creación, configuración y administración de la MIB de eventos de SNMP de Oracle Solaris Cluster
|
En este procedimiento se muestra cómo habilitar una MIB de eventos de SNMP.
phys-schost# refleja un indicador de cluster global. Siga este procedimiento en un cluster global.
Este procedimiento proporciona las formas largas de los comandos de Oracle Solaris Cluster. La mayoría de los comandos también tienen una forma corta. A excepción de las formas de los nombres de comandos, los comandos son idénticos.
phys-schost-1# clsnmpmib enable [-n node] MIB
Especifica el nodo en el que se ubica la MIB de eventos que desea habilitar. Puede especificar un nombre o un ID de nodo. Si no especifica esta opción, de forma predeterminada se utiliza el nodo actual.
Especifica el nombre de la MIB que desea habilitar. En este caso, el nombre de la MIB debe ser event.
En este procedimiento se muestra cómo deshabilitar una MIB de eventos de SNMP.
phys-schost# refleja un indicador de cluster global. Siga este procedimiento en un cluster global.
Este procedimiento proporciona las formas largas de los comandos de Oracle Solaris Cluster. La mayoría de los comandos también tienen una forma corta. A excepción de las formas de los nombres de comandos, los comandos son idénticos.
phys-schost-1# clsnmpmib disable -n node MIB
Especifica el nodo en el que se ubica la MIB de eventos que desea deshabilitar. Puede especificar un nombre o un ID de nodo. Si no especifica esta opción, de forma predeterminada se utiliza el nodo actual.
Especifica el tipo de MIB que desea deshabilitar. En este caso, debe especificar el tipo event.
En este procedimiento se muestra cómo cambiar el protocolo para una MIB de eventos de SNMP.
phys-schost# refleja un indicador de cluster global. Siga este procedimiento en un cluster global.
Este procedimiento proporciona las formas largas de los comandos de Oracle Solaris Cluster. La mayoría de los comandos también tienen una forma corta. A excepción de las formas de los nombres de comandos, los comandos son idénticos.
phys-schost-1# clsnmpmib set -n node -p version=value MIB
Especifica el nodo en el que se ubica la MIB de eventos que desea cambiar. Puede especificar un nombre o un ID de nodo. Si no especifica esta opción, de forma predeterminada se utiliza el nodo actual.
Especifica la versión del protocolo SNMP que desea usar con las MIB. Especifica el valor como se muestra a continuación:
version=SNMPv2
version=snmpv2
version=2
version=SNMPv3
version=snmpv3
version=3
Especifica el nombre de la MIB o las MIB a las que hay que aplicar el subcomando. En este caso, debe especificar el tipo event. Si no se especifica este operando, este subcomando utiliza el signo más predeterminado (+), que significa todas las MIB. Si utiliza el operando MIB, especifique la MIB en una lista delimitada por espacios después de todas las demás opciones de líneas de comandos.
En este procedimiento se muestra cómo agregar un host de SNMP de un nodo a la lista de hosts que recibirá notificaciones de capturas para las MIB.
phys-schost# refleja un indicador de cluster global. Siga este procedimiento en un cluster global.
Este procedimiento proporciona las formas largas de los comandos de Oracle Solaris Cluster. La mayoría de los comandos también tienen una forma corta. A excepción de las formas de los nombres de comandos, los comandos son idénticos.
phys-schost-1# clsnmphost add -c SNMPcommunity [-n node] host
Especifica el nombre de la comunidad de SNMP que se usa junto con el nombre del host.
Se debe especificar el nombre de la comunidad de SNMP SNMPcommunity cuando agregue un host a una comunidad que no sea public. Si usa el subcomando add sin la opción -c, el subcomando utiliza public como nombre de comunidad predeterminado.
Si el nombre de comunidad especificado no existe, este comando crea la comunidad.
Especifica el nombre del nodo del host de SNMP al que se ha proporcionado acceso a las MIB de SNMP en el cluster. Puede especificar un nombre o un ID de nodo. Si no especifica esta opción, de forma predeterminada se utiliza el nodo actual.
Especifica el nombre, la dirección IP o la dirección IPv6 del host al que se ha proporcionado acceso a las MIB de SNMP en el cluster.
En este procedimiento se muestra cómo eliminar un host de SNMP de un nodo de la lista de hosts que recibirá notificaciones de capturas para las MIB.
phys-schost# refleja un indicador de cluster global. Siga este procedimiento en un cluster global.
Este procedimiento proporciona las formas largas de los comandos de Oracle Solaris Cluster. La mayoría de los comandos también tienen una forma corta. A excepción de las formas de los nombres de comandos, los comandos son idénticos.
phys-schost-1# clsnmphost remove -c SNMPcommunity -n node host
Elimina el host de SNMP especificado del nodo especificado.
Especifica el nombre de la comunidad de SNMP de la que se ha eliminado el host de SNMP.
Especifica el nombre del node del que se ha eliminado el host de SNMP de la configuración. Puede especificar un nombre o un ID de nodo. Si no especifica esta opción, de forma predeterminada se utiliza el nodo actual.
Especifica el nombre, la dirección IP o la dirección IPv6 del host que se ha eliminado de la configuración.
Para eliminar todos los hosts de la comunidad SNMP especificada, use un signo más (+) para el host con la opción -c. Para eliminar todos los hosts, use el signo más (+) para el host.
En este procedimiento se muestra cómo agregar un usuario de SNMP a la configuración de usuario de SNMP en un nodo.
phys-schost# refleja un indicador de cluster global. Siga este procedimiento en un cluster global.
Este procedimiento proporciona las formas largas de los comandos de Oracle Solaris Cluster. La mayoría de los comandos también tienen una forma corta. A excepción de las formas de los nombres de comandos, los comandos son idénticos.
phys-schost-1# clsnmpuser create -n node -a authentication \ -f password user
Especifica el nodo en el que se agrega el usuario de SNMP. Puede especificar un nombre o un ID de nodo. Si no especifica esta opción, de forma predeterminada se utiliza el nodo actual.
Especifica el protocolo de autenticación que se utiliza para autorizar al usuario. El valor del protocolo de autenticación puede ser SHA o MD5.
Especifica un archivo que contiene las contraseñas de usuario de SNMP. Si no especifica esta opción al crear un usuario, el comando solicita una contraseña. Esta opción sólo es válida con el subcomando add.
Las contraseñas de los usuarios deben especificarse en líneas distintas y con el formato siguiente:
user:password
Las contraseñas no pueden tener espacios ni los siguientes caracteres:
; (punto y coma)
: (dos puntos)
\ (barra diagonal inversa)
\n (línea nueva)
Especifica el nombre del usuario de SNMP que desea agregar.
En este procedimiento se muestra cómo eliminar un usuario de SNMP de la configuración de usuario de SNMP en un nodo.
phys-schost# refleja un indicador de cluster global. Siga este procedimiento en un cluster global.
Este procedimiento proporciona las formas largas de los comandos de Oracle Solaris Cluster. La mayoría de los comandos también tienen una forma corta. A excepción de las formas de los nombres de comandos, los comandos son idénticos.
phys-schost-1# clsnmpuser delete -n node user
Especifica el nodo del que se elimina el usuario de SNMP. Puede especificar un nombre o un ID de nodo. Si no especifica esta opción, de forma predeterminada se utiliza el nodo actual.
Especifica el nombre del usuario de SNMP que desea eliminar.
Puede establecer límites de carga para activar la distribución automática de la carga del grupo de recursos entre nodos o zonas. Puede configurar un conjunto de límites de carga para cada nodo del cluster. Asigna factores de carga a grupos de recursos y los factores de carga se corresponden con los límites de carga de los nodos. El funcionamiento predeterminado consiste en distribuir la carga del grupo de recursos de forma uniforme entre todos los nodos disponibles en la lista de nodos del grupo de recursos.
El RGM inicia los grupos de recursos en un nodo de la lista de nodos del grupo de recursos para que no se superen los límites de carga del nodo. Debido a que el RGM asigna grupos de recursos a los nodos, los factores de carga de los grupos de recursos de cada nodo se suman para proporcionar una carga total. La carga total se compara respecto a los límites de carga de ese nodo.
Un límite de carga consta de los siguientes elementos:
Un nombre asignado por el usuario.
Un valor de límite flexible: un límite de carga flexible se puede exceder temporalmente.
Un valor de límite fijo: los límites de carga fijos no pueden excederse nunca y se aplican de manera estricta.
Puede definir tanto el límite fijo como el límite flexible con un solo comando. Si uno de los límites no se establece explícitamente, se utilizará el valor predeterminado. Los límites de carga fijos y flexibles de cada nodo se crean y modifican con los comandos clnode create-loadlimit, clnode set-loadlimit y clnode delete-loadlimit. Consulte la página del comando man clnode(1CL) para obtener más información.
También puede configurar un grupo de recursos para que tenga una prioridad superior y reducir así la probabilidad de ser desplazado de un nodo específico. También puede establecer una propiedad preemption_mode para determinar si un grupo de recursos se apoderará de un nodo mediante un grupo de recursos de mayor prioridad debido a la sobrecarga de nodos. La propiedad concentrate_load también permite concentrar la carga del grupo de recursos en el menor número de nodos posible. El valor predeterminado de la propiedad concentrate_load es FALSE .
Nota - Puede configurar límites de carga en los nodos de un cluster global o de un cluster de zona. Puede utilizar la línea de comandos, la utilidad clsetup o la interfaz del Oracle Solaris Cluster Manager para configurar los límites de carga. En los procedimientos siguientes se explica cómo configurar límites de carga mediante la línea de comandos.
# clnode create-loadlimit -p limitname=mem_load -Z zc1 -p softlimit=11 -p hardlimit=20 node1 node2 node3
En este ejemplo, el nombre del cluster de zona es zc1. La propiedad de ejemplo se llama mem_load y tiene un límite flexible de 11 y un límite de carga fijo de 20. Los límites fijos y flexibles son argumentos opcionales y, si no se definen de forma específica, el valor predeterminado será ilimitado. Consulte la página del comando man clnode(1CL) para obtener más información.
# clresourcegroup set -p load_factors=mem_load@50,factor2@1 rg1 rg2
En este ejemplo, los factores de carga se definen en los dos grupos de recursos, rg1 y rg2. La configuración de factor de carga se corresponde con los límites de carga definidos para los nodos. También puede realizar este paso durante la creación del grupo de recursos con el comando clresourcegroup create. Para obtener más información, consulte la página del comando man clresourcegroup(1CL).
# clresourcegroup remaster rg1 rg2
Este comando puede mover los grupos de recursos de su nodo maestro actual a otros nodos para conseguir una distribución uniforme de la carga.
# clresourcegroup set -p priority=600 rg1
El valor predeterminado de prioridad es 500. Los grupos de recursos con valores de prioridad mayores tienen preferencia en la asignación de nodos por encima de los grupos de recursos con valores de prioridad menores.
# clresourcegroup set -p Preemption_mode=No_cost rg1
Para obtener más información, consulte la página del comando man clresourcegroup(1CL) en las opciones HAS_COST, NO_COST y NEVER.
# cluster set -p Concentrate_load=TRUE
Una afinidad negativa o positiva fuerte tiene preferencia por encima de la distribución de carga. Las afinidades fuertes no pueden infringirse, del mismo modo que los límites de carga fijos. Si define afinidades fuertes y límites de carga fijos, es posible que algunos grupos de recursos estén obligados a permanecer sin conexión, si no pueden cumplirse ambas restricciones.
En el siguiente ejemplo se especifica una afinidad positiva fuerte entre el grupo de recursos rg1 del cluster de zona zc1 y el grupo de recursos rg2 del cluster de zona zc2.
# clresourcegroup set -p RG_affinities=++zc2:rg2 zc1:rg1
# clnode status -Z all -v
El resultado incluirá toda configuración del límite de carga definida en el nodo o en las zonas no globales.