JavaScript is required to for searching.
Omitir Vínculos de navegación
Salir de la Vista de impresión
Guía de administración del sistema de Oracle Solaris Cluster     Oracle Solaris Cluster (Español)
search filter icon
search icon

Información del documento

Prefacio

1.  Introducción a la administración de Oracle Solaris Cluster

2.  Oracle Solaris Cluster y RBAC

3.  Cierre y arranque de un clúster

4.  Métodos de replicación de datos

5.  Administración de dispositivos globales, supervisión de rutas de disco y sistemas de archivos de clúster

6.  Administración de quórum

7.  Administración de interconexiones de clústers y redes públicas

8.  Adición y eliminación de un nodo

9.  Administración del clúster

Información general sobre la administración del clúster

Cambio del nombre del clúster

Cómo cambiar el nombre del clúster si utiliza Veritas CVM

Asignación de un ID de nodo a un nombre de nodo

Uso de la autenticación del nodo del clúster nuevo

Restablecimiento de la hora del día en un clúster

SPARC: Visualización de la PROM OpenBoot en un nodo

Cambio del nombre de host privado de nodo

Adición un nombre de host privado a un nodo sin votación en un clúster global

Cambio del nombre de host privado en un nodo sin votación de un clúster global

Eliminación del nombre de host privado para un nodo sin votación en un clúster global

Cómo cambiar el nombre de un nodo

Cómo cambiar los nombres de host lógicos utilizados por los recursos de nombre de host lógico de Oracle Solaris Cluster existentes

Colocación de un nodo en estado de mantenimiento

Procedimiento para sacar un nodo del estado de mantenimiento

Desinstalación del software Oracle Solaris Cluster desde un nodo del clúster

Solución de problemas de la desinstalación de nodos

Entradas no eliminadas del sistema de archivos de clúster

No supresión de la lista de grupos de dispositivos

Falta la secuencia de comandos de desinstalación

Creación, configuración y administración de MIB de eventos de SNMP de Oracle Solaris Cluster

Habilitación de una MIB de eventos de SNMP

Inhabilitación de una MIB de eventos de SNMP

Cambio de una MIB de eventos de SNMP

Habilitación de un host de SNMP para que reciba capturas de SNMP en un nodo

Inhabilitación de la recepción de capturas de SNMP en un nodo por parte del host de SNMP

Adición de un usuario de SNMP a un nodo

Eliminación de un usuario de SNMP de un nodo

Configuración de los límites de carga

Cómo configurar límites de carga en un nodo

Ejecución de tareas administrativas del clúster de zona

Eliminación de un clúster de zona

Eliminación de un sistema de archivos desde un clúster de zona

Eliminación de un dispositivo de almacenamiento desde un clúster de zona

Solución de problemas

Ejecución de una aplicación fuera del clúster global

Ejecución de un metaconjunto de Solaris Volume Manager de los nodos que han arrancado en un modo que no es de clúster

Restauración de un conjunto de discos dañado

Cómo guardar la configuración de software de Solaris Volume Manager

Cómo purgar el conjunto de discos dañado

Cómo volver a crear la configuración de software de Solaris Volume Manager

10.  Configuración del control del uso de la CPU

11.  Aplicación de parches en el software y el firmware de Oracle Solaris Cluster

12.  Copias de seguridad y restauraciones de clústers

13.  Administración de Oracle Solaris Cluster con las interfaces gráficas de usuario

A.  Ejemplo

Índice

Información general sobre la administración del clúster

Esta sección describe cómo realizar tareas administrativas para todo el clúster global o de zona. La tabla siguiente enumera estas tareas administrativas y los procedimientos asociados. Las tareas administrativas del clúster suelen efectuarse en la zona global. Para administrar un clúster de zona, al menos un equipo que almacenará como host el clúster de zona debe estar activado en modo de clúster. No todos los nodos clúster de zona deben estar activados y en funcionamiento; Oracle Solaris Cluster reproduce cualquier cambio de configuración si el nodo que está fuera del clúster se vuelve a unir a éste.


Nota - De manera predeterminada, la administración de energía está deshabilitada para que no interfiera con el clúster. Si habilita la administración de energía en un clúster de un solo nodo, el clúster continuará ejecutándose pero podría no estar disponible durante unos segundos. La función de administración de energía intenta cerrar el nodo, pero no lo consigue.


En este capítulo, phys-schost# refleja una solicitud de clúster global. El indicador de solicitud de shell interactivo de clzonecluster es clzc:schost>.

Tabla 9-1 Lista de tareas: administrar el clúster

Tarea
Instrucciones
Agregar o eliminar un nodo de un clúster
Cambiar el nombre del clúster
Enumerar los ID de nodos y sus nombres de nodo correspondientes
Permitir o denegar que se agreguen nodos nuevos al clúster
Cambiar la hora de un clúster mediante el protocolo NTP
Cerrar un nodo con el indicador ok de la PROM OpenBoot en un sistema basado en SPARC o con el mensaje Press any key to continuede un menú de GRUB en un sistema basado en x86
Agregar o cambiar el nombre de host privado
Poner un nodo de clúster en estado de mantenimiento
Cambiar el nombre de un nodo
Sacar un nodo del clúster fuera del estado de mantenimiento
Desinstale el software del clúster de un nodo del clúster
Agregar y administrar una MIB de eventos de SNMP
Configurar los límites de carga de un nodo
Mover un clúster de zona, preparar un clúster de zona para aplicaciones, eliminar un clúster de zona

Cambio del nombre del clúster

Si es necesario, el nombre del clúster puede cambiarse tras la instalación inicial.

phys-schost# refleja un indicador de clúster global. Siga este procedimiento en un clúster global.

Este procedimiento proporciona las formas largas de los comandos Oracle Solaris Cluster. La mayoría de los comandos también tienen una forma corta. A excepción de las formas de los nombres de comandos, los comandos son idénticos.

  1. Conviértase en superusuario en un nodo del clúster global.
  2. Inicie la utilidad clsetup.
    phys-schost# clsetup

    Aparece el menú principal.

  3. Para cambiar el nombre del clúster, escriba el número correspondiente a la opción Other Cluster Properties (Otras propiedades del clúster).

    Aparece el menú Other Cluster Properties (Otras propiedades del clúster).

  4. Seleccione desde el menú y siga las instrucciones que aparecen en la pantalla.
  5. Si desea que la etiqueta de servicio de Oracle Solaris Cluster refleje el nombre del clúster nuevo, elimine la etiqueta de Oracle Solaris Cluster y reinicie el clúster. Para eliminar la instancia de la etiqueta de servicio de Oracle Solaris Cluster, realice los subpasos siguientes en todos los nodos del clúster.
    1. Enumere todas las etiquetas de servicio.
      phys-schost# stclient -x
    2. Busque el número de instancia de la etiqueta de servicio de Oracle Solaris Cluster; a continuación, ejecute el comando siguiente.
      phys-schost# stclient -d -i service_tag_instance_number
    3. Rearranque todos los nodos del clúster.
      phys-schost# reboot

Ejemplo 9-1 Cambio del nombre del clúster

El ejemplo siguiente muestra el comando cluster(1CL) generado desde la utilidad clsetup(1CL) para cambiar al nombre nuevo del clúster, dromedary.

phys-schost# cluster rename -c dromedary

Cómo cambiar el nombre del clúster si utiliza Veritas CVM

Si tiene un grupo de discos de Veritas Cluster Volume Manager (CVM) que utiliza Oracle Solaris Cluster, puede cambiar el nombre del clúster después de la instalación inicial.

  1. Conviértase en superusuario en un nodo del clúster global.
  2. Si utiliza Oracle RAC 11g o 10 g, lleve a cabo los pasos siguientes.
    1. Detenga y deshabilite Oracle Cluster Ready Services (CRS) en todos los nodos.
      /etc/init.d/init.crs stop
      /etc/init.d/init.crs disable
    2. Desactive el recurso SUNW.scalable_rac_server_proxy y los recursos SUNW.ScalDevGroup de Oracle Solaris Cluster para evitar que se conecten después de un reinicio.
      # clrs disable resource_name
  3. Detenga todos los volúmenes en cada grupo de discos de CVM.
    # vxvol -g dg_name stoppall
  4. Deporte los grupos de discos de CVM.
    # vxdg deport dg_name
  5. Cambiar nombre del clúster.
    # cluster rename -c new_name
  6. Vuelva a arrancar todos los nodos del clúster.
  7. Importe el grupo de discos como un grupo de discos compartido.
    # vxdg -s import dg_name
  8. Inicie los volúmenes en cada grupo de discos.
    # vxvol -g dg_name startall
  9. Active e inicie Oracle CRS en todos los nodos.
    /etc/init.d/init.crs enable
    /etc/init.d/init.crs start
  10. Active los recursos de Oracle Solaris Cluster que ha desactivado anteriormente.
    # clrs enable +

Asignación de un ID de nodo a un nombre de nodo

Al instalar Oracle Solaris Cluster, de forma automática se asigna un número exclusivo de ID de nodo a todos los nodos. El número de ID de nodo se asigna a un nodo en el orden en que se une al clúster por primera vez. Una vez asignado, no se puede cambiar. El número de ID de nodo suele usarse en mensajes de error para identificar el nodo del clúster al que hace referencia el mensaje. Siga este procedimiento para determinar la asignación entre los ID y los nombres de los nodos.

Para visualizar la información sobre la configuración para un clúster global o de zona no hace falta ser superusuario. Un paso de este procedimiento se realiza desde un nodo de clúster global. El otro paso se efectúa desde un nodo de clúster de zona.

  1. Use el comando clnode(1CL) para mostrar la información sobre configuración del clúster para el clúster global.
    phys-schost# clnode show | grep Node
  2. También puede mostrar los ID de nodo para un clúster de zona. El nodo de clúster de zona tiene el mismo ID que el nodo de clúster global donde se ejecuta.
    phys-schost# zlogin sczone clnode -v | grep Node

Ejemplo 9-2 Asignación de ID del nodo al nombre del nodo

El ejemplo siguiente muestra las asignaciones de ID de nodo para un clúster global.

phys-schost# clnode show | grep Node
=== Cluster Nodes ===
Node Name:                phys-schost1
  Node ID:                1
Node Name:                 phys-schost2
  Node ID:                2
Node Name:                phys-schost3
  Node ID:                3

Uso de la autenticación del nodo del clúster nuevo

Oracle Solaris Cluster permite determinar si se pueden agregar nodos nuevos al clúster global y el tipo de autenticación que puede utilizar. Puede permitir que cualquier nodo nuevo se una al clúster por la red pública, denegar que los nodos nuevos se unan al clúster o indicar que un nodo en particular se una al clúster. Los nodos nuevos se pueden autenticar mediante la autenticación estándar de UNIX o Diffie-Hellman (DES). Si selecciona la autenticación DES, también debe configurar todas las pertinentes claves de cifrado antes de unir un nodo. Para obtener más información, consulte las páginas de comando man keyserv(1M) y publickey(4).

phys-schost# refleja un indicador de clúster global. Siga este procedimiento en un clúster global.

Este procedimiento proporciona las formas largas de los comandos Oracle Solaris Cluster. La mayoría de los comandos también tienen una forma corta. A excepción de las formas de los nombres de comandos, los comandos son idénticos.

  1. Conviértase en superusuario en un nodo del clúster global.
  2. Inicie la utilidad clsetup(1CL).
    phys-schost# clsetup

    Aparece el menú principal.

  3. Para trabajar con la autenticación del clúster, escriba el número correspondiente a la opción de nodos nuevos.

    Aparece el menú Nuevos nodos.

  4. Seleccione desde el menú y siga las instrucciones que aparecen en la pantalla.

Ejemplo 9-3 Procedimiento para evitar que un equipo nuevo se agregue al clúster global

La utilidad clsetup genera el comando claccess. El ejemplo siguiente muestra el comando claccess, que evita que equipos nuevos se agreguen al clúster.

phys-schost# claccess deny -h hostname

Ejemplo 9-4 Procedimiento para permitir que todos los equipos nuevos se agreguen al clúster global

La utilidad clsetup genera el comando claccess. El ejemplo siguiente muestra el comando claccess, que permite que todos los equipos nuevos se agreguen al clúster.

phys-schost# claccess allow-all

Ejemplo 9-5 Procedimiento para especificar que se agregue un equipo nuevo al clúster global

La utilidad clsetup genera el comando claccess. El ejemplo siguiente muestra el comando claccess, que permite que un solo equipo nuevo se agregue al clúster.

phys-schost# claccess allow -h hostname

Ejemplo 9-6 Configuración de la autenticación en UNIX estándar

La utilidad clsetup genera el comando claccess. El ejemplo siguiente muestra el comando claccess, que restablece la configuración de la autenticación UNIX estándar para los nodos nuevos que se unan al clúster.

phys-schost# claccess set -p protocol=sys

Ejemplo 9-7 Configuración de la autenticación en DES

La utilidad clsetup genera el comando claccess. El ejemplo siguiente muestra el comando claccess, que usa la autenticación DES para los nodos nuevos que se unan al clúster.

phys-schost# claccess set -p protocol=des

Cuando use la autenticación DES, también debe configurar todas las claves de cifrado necesarias antes de unir un nodo al clúster. Para obtener más información, consulte las páginas de comando man keyserv(1M) y publickey(4).

Restablecimiento de la hora del día en un clúster

El software Oracle Solaris Cluster usa el protocolo NTP para mantener la sincronización temporal entre los nodos del clúster. Los ajustes del clúster global se efectúa automáticamente según sea necesario cuando los nodos sincronizan su hora. Para obtener más información, consulte Oracle Solaris Cluster Concepts Guide y Network Time Protocol User's Guide.


Precaución

Precaución - Si utiliza NTP, no intente ajustar la hora del clúster mientras se encuentre activo y en funcionamiento. No ajuste la hora mediante los comandos date(1), rdate(1M), xntpd(1M) ni svcadm(1M) de forma interactiva ni dentro de las secuencias de comandos cron(1M).


phys-schost# refleja un indicador de clúster global. Siga este procedimiento en un clúster global.

Este procedimiento proporciona las formas largas de los comandos Oracle Solaris Cluster. La mayoría de los comandos también tienen una forma corta. A excepción de las formas de los nombres de comandos, los comandos son idénticos.

  1. Conviértase en superusuario en un nodo del clúster global.
  2. Cierre el clúster global.
    phys-schost# cluster shutdown -g0 -y -i 0
  3. Compruebe que el nodo muestre el indicador ok en los sistemas basados en SPARC o el mensaje Press any key to continue en el menú de GRUB de los sistemas basados en x86.
  4. Arranque el nodo en un modo que no sea de clúster.
    • En los sistemas basados en SPARC, ejecute el comando siguiente.

      ok boot -x
    • En los sistemas basados en x86, ejecute los comandos siguientes.

      # shutdown -g -y -i0
      
      Press any key to continue
    1. En el menú de GRUB, utilice las teclas de flecha para seleccionar la correspondiente entrada de Oracle Solaris y escriba e para editar los comandos.

      El menú de GRUB que aparece es similar al siguiente:

      GNU GRUB version 0.95 (631K lower / 2095488K upper memory)
      +-------------------------------------------------------------------------+
      | Solaris 10 /sol_10_x86                                                  |
      | Solaris failsafe                                                        |
      |                                                                         |
      +-------------------------------------------------------------------------+
      Use the ^ and v keys to select which entry is highlighted.
      Press enter to boot the selected OS, 'e' to edit the
      commands before booting, or 'c' for a command-line.

      Para obtener más información sobre el arranque basado en GRUB, consulte Booting an x86 Based System by Using GRUB (Task Map) de System Administration Guide: Basic Administration.

    2. En la pantalla de los parámetros de arranque, utilice las teclas de flecha para seleccionar la entrada de núcleo y escriba e para editarla.

      La pantalla de los parámetros de arranque de GRUB que aparece es similar a la siguiente:

      GNU GRUB version 0.95 (615K lower / 2095552K upper memory)
      +----------------------------------------------------------------------+
      | root (hd0,0,a)                                                       |
      | kernel /platform/i86pc/multiboot                                     |
      | module /platform/i86pc/boot_archive                                  |
      +----------------------------------------------------------------------+
      Use the ^ and v keys to select which entry is highlighted.
      Press 'b' to boot, 'e' to edit the selected command in the
      boot sequence, 'c' for a command-line, 'o' to open a new line
      after ('O' for before) the selected line, 'd' to remove the
      selected line, or escape to go back to the main menu.
    3. Agregue -x al comando para especificar que el sistema arranque en un modo que no sea de clúster.
      [ Minimal BASH-like line editing is supported. For the first word, TAB
      lists possible command completions. Anywhere else TAB lists the possible
      completions of a device/filename. ESC at any time exits. ]
      
      grub edit> kernel /platform/i86pc/multiboot -x
    4. Pulse la tecla Intro para aceptar el cambio y volver a la pantalla de los parámetros de arranque.

      La pantalla muestra el comando editado.

      GNU GRUB version 0.95 (615K lower / 2095552K upper memory)
      +----------------------------------------------------------------------+
      | root (hd0,0,a)                                                       |
      | kernel /platform/i86pc/multiboot -x                                  |
      | module /platform/i86pc/boot_archive                                  |
      +----------------------------------------------------------------------+
      Use the ^ and v keys to select which entry is highlighted.
      Press 'b' to boot, 'e' to edit the selected command in the
      boot sequence, 'c' for a command-line, 'o' to open a new line
      after ('O' for before) the selected line, 'd' to remove the
      selected line, or escape to go back to the main menu.-
    5. Escriba b para arrancar el nodo en un modo que no sea de clúster.

      Nota - Este cambio en el comando del parámetro de arranque del núcleo no se conserva tras arrancar el sistema. La próxima vez que rearranque el nodo, lo hará en modo de clúster. Para arrancarlo en el modo que no es de clúster, realice estos pasos de nuevo para agregar la opción -x al comando del parámetro de arranque del núcleo.


  5. En un solo nodo, configure la hora del día; para ello, ejecute el comando date.
    phys-schost# date HHMM.SS
  6. En los otros equipos, sincronice la hora de ese nodo; para ello, ejecute el comando rdate(1M).
    phys-schost# rdate hostname
  7. Arranque cada nodo para reiniciar el clúster.
    phys-schost# reboot
  8. Compruebe que el cambio se haya hecho en todos los nodos del clúster.

    Ejecute el comando date en todos los nodos.

    phys-schost# date

SPARC: Visualización de la PROM OpenBoot en un nodo

Siga este procedimiento si debe configurar o cambiar la configuración de la PROM OpenBoot™.

phys-schost# refleja un indicador de clúster global. Siga este procedimiento en un clúster global.

Este procedimiento proporciona las formas largas de los comandos Oracle Solaris Cluster. La mayoría de los comandos también tienen una forma corta. A excepción de las formas de los nombres de comandos, los comandos son idénticos.

  1. Conecte la consola al nodo para que se cierre.
    # telnet tc_name tc_port_number
    nombre_ct

    Especifica el nombre del concentrador de terminales.

    tc_número_puerto

    Especifica el número del puerto del concentrador de terminales. Los números de puerto dependen de la configuración. Los puertos 2 y 3 (5002 y 5003) suelen usarse para el primer clúster instalado en un sitio.

  2. Cierre el nodo del clúster mediante el comando clnode evacuate y, a continuación, mediante el comando shutdown El comando clnode evacuate conmuta todos los grupos de dispositivos del nodo especificado al siguiente nodo por orden de preferencia. El comando también conmuta todos los grupos de recursos del nodo especificado de votación o sin votación de clúster global por el siguiente nodo de votación o sin votación preferido.
    phys-schost# clnode evacuate node
    # shutdown -g0 -y

    Precaución

    Precaución - No use send brk en una consola del clúster para cerrar el nodo del clúster.


  3. Ejecute los comandos de OBP.

Cambio del nombre de host privado de nodo

Use este procedimiento para cambiar el nombre de host privado de un clúster una vez finalizada la instalación.

Durante la instalación inicial del clúster se asignan nombre de host privados predeterminados. El nombre de host privado usa el formato clusternode< id_nodo>-priv; por ejemplo: clusternode3-priv. Cambie un nombre de host privado sólo si el nombre ya se utiliza en el dominio.


Precaución

Precaución - No intente asignar direcciones IP a los nuevos nombres de host privados. Las asigna el software de agrupación en clúster.


phys-schost# refleja un indicador de clúster global. Siga este procedimiento en un clúster global.

Este procedimiento proporciona las formas largas de los comandos Oracle Solaris Cluster. La mayoría de los comandos también tienen una forma corta. A excepción de las formas de los nombres de comandos, los comandos son idénticos.

  1. En todos los nodos del clúster, inhabilite cualquier recurso de servicio de datos u otras aplicaciones que puedan almacenar en caché nombres de host privados.
    phys-schost# clresource disable resource[,...]

    Incluya la información siguiente en las aplicaciones que inhabilite.

    • Los servicios de HA-DNS y HA-NFS, si están configurados

    • Cualquier aplicación configurada de forma personalizada para utilizar el nombre de host privado

    • Cualquier aplicación que los clientes utilicen en la interconexión privada

    Para obtener información sobre el uso del comando clresource, consulte la página de comando man clresource(1CL) y Oracle Solaris Cluster Data Services Planning and Administration Guide .

  2. Si el archivo de configuración NTP hace referencia al nombre de host privado que está cambiando, desactive el daemon del protocolo NTP en todos los nodos del clúster.

    Utilice el comando svcadm para detener el daemon del protocolo NTP. Consulte la página de comando man svcadm(1M) para obtener más información sobre el daemon del protocolo NTP.

    phys-schost# svcadm disable ntp
  3. Ejecute la utilidad clsetup(1CL) para cambiar el nombre de host privado del nodo correspondiente.

    Ejecute la utilidad desde uno de los nodos del clúster.


    Nota - Cuando seleccione un nombre nuevo para el sistema privado, compruebe que no se utilice en el nodo del clúster.


  4. Escriba el número correspondiente a la opción del nombre de host privado.
  5. Escriba el número correspondiente a la opción de cambiar el nombre de host privado.

    Responda a las preguntas cuando se indique. Se le solicitará el nombre del nodo cuyo nombre de host privado desee cambiar (clusternode< idnodo> -priv), así como el nombre de host nuevo para el sistema privado.

  6. Purgue la memoria caché del servicio de nombres.

    Efectúe este paso en todos los nodos del clúster. La purga evita que las aplicaciones del clúster y los servicios de datos intenten acceder al nombre de host privado anterior.

    phys-schost# nscd -i hosts
  7. Si ha cambiado un nombre de host privado en el archivo de configuración de NTP, actualice el archivo de configuración de NTP (ntp.conf o ntp.conf.cluster) en todos los nodos.
    1. Use la herramienta de edición que prefiera.

      Si efectúa este paso durante la instalación, recuerde eliminar los nombres de los nodos que estén configurados. La plantilla predeterminada está preconfigurada con 16 nodos. En general, el archivo ntp.conf.cluster es el mismo en todos los nodos del clúster.

    2. Compruebe que pueda realizar un ping correctamente en el nombre de host privado desde todos los nodos del clúster.
    3. Reinicie el daemon de NTP.

      Efectúe este paso en todos los nodos del clúster.

      Utilice el comando svcadm para reiniciar el daemon de NTP.

      # svcadm enable ntp
  8. Habilite todos los recursos de servicio de datos y otras aplicaciones inhabilitados en el Paso 1.
    phys-schost# clresource enable resource[,...]

    Para obtener información sobre el uso del comando clresource, consulte la página de comando man clresource(1CL) y Oracle Solaris Cluster Data Services Planning and Administration Guide .

Ejemplo 9-8 Cambio del nombre de host privado

El ejemplo siguiente cambia el nombre de host privado de clusternode2-priv a clusternode4-priv en el nodo phys-schost-2.

[Disable all applications and data services as necessary.]
phys-schost-1# /etc/init.d/xntpd stop
phys-schost-1# clnode show | grep node
 ...
 private hostname:                           clusternode1-priv
 private hostname:                           clusternode2-priv
 private hostname:                           clusternode3-priv
 ...
phys-schost-1# clsetup
phys-schost-1# nscd -i hosts
phys-schost-1# vi /etc/inet/ntp.conf
 ...
 peer clusternode1-priv
 peer clusternode4-priv
 peer clusternode3-priv
phys-schost-1# ping clusternode4-priv
phys-schost-1# /etc/init.d/xntpd start
[Enable all applications and data services disabled at the beginning of the procedure.]

Adición un nombre de host privado a un nodo sin votación en un clúster global

Siga este procedimiento para agregar un nombre de host privado a un nodo sin votación en un clúster global una vez finalizada la instalación. En los procedimientos tratados en este capítulo, phys-schost# refleja una solicitud de clúster global. Realice este procedimiento sólo en un clúster global.

  1. Ejecute la utilidad clsetup(1CL) para agregar un nombre de host privado a la zona adecuada.
    phys-schost# clsetup
  2. Escriba el número correspondiente a la opción de nombres de host privados y pulse la tecla Intro.
  3. Escriba el número correspondiente a la opción de agregar un nombre de host privado de zona y pulse la tecla Intro.

    Responda a las preguntas cuando se indique. No existe un nombre predeterminado para el sistema privado de un nodo sin votación del clúster global. Se debe proporcionar un nombre de host.

Cambio del nombre de host privado en un nodo sin votación de un clúster global

Siga este procedimiento para cambiar el nombre de host privado de un nodo sin votación una vez finalizada la instalación.

Durante la instalación inicial del clúster se asignan nombre de host privados. El nombre de host privado usa el formato clusternode< id_nodo>-priv; por ejemplo: clusternode3-priv. Cambie un nombre de host privado sólo si el nombre ya se utiliza en el dominio.


Precaución

Precaución - No intente asignar direcciones IP a los nuevos nombres de host privados. Las asigna el software de agrupación en clúster.


phys-schost# refleja un indicador de clúster global. Siga este procedimiento en un clúster global.

Este procedimiento proporciona las formas largas de los comandos Oracle Solaris Cluster. La mayoría de los comandos también tienen una forma corta. A excepción de las formas de los nombres de comandos, los comandos son idénticos.

  1. En todos los nodos del clúster global, inhabilite cualquier recurso de servicio de datos u otras aplicaciones que puedan almacenar en caché nombres de host privados.
    phys-schost# clresource disable resource1, resource2

    Incluya la información siguiente en las aplicaciones que inhabilite.

    • Los servicios de HA-DNS y HA-NFS, si están configurados

    • Cualquier aplicación configurada de forma personalizada para utilizar el nombre de host privado

    • Cualquier aplicación que los clientes utilicen en la interconexión privada

    Para obtener información sobre el uso del comando clresource, consulte la página de comando man clresource(1CL) y Oracle Solaris Cluster Data Services Planning and Administration Guide .

  2. Ejecute la utilidad clsetup(1CL) para cambiar el nombre de host privado del nodo sin votación adecuado de clúster global.
    phys-schost# clsetup

    Este paso debe hacerse desde un solo nodo del clúster.


    Nota - Cuando seleccione un nombre nuevo para el sistema privado, compruebe que no se utilice en el clúster.


  3. Escriba el número correspondiente a la opción de nombres de host privados y pulse la tecla Intro.
  4. Escriba el número correspondiente a la opción de agregar un nombre de host privado de zona y pulse la tecla Intro.

    No existe un nodo sin votación predeterminado del nombre de host privado de un clúster global. Se debe proporcionar un nombre de host.

  5. Escriba el número correspondiente a la opción de cambiar el nombre de host privado de zona.

    Responda a las preguntas cuando se indique. Se le solicitará el nombre del nodo sin votación cuyo nombre de host privado esté cambiando (clusternode< id_nodo> -priv), así como el nombre nuevo del sistema privado.

  6. Purgue la memoria caché del servicio de nombres.

    Efectúe este paso en todos los nodos del clúster. La purga evita que las aplicaciones del clúster y los servicios de datos intenten acceder al nombre de host privado anterior.

    phys-schost# nscd -i hosts
  7. Habilite todos los recursos de servicio de datos y otras aplicaciones inhabilitados en el Paso 1.

Eliminación del nombre de host privado para un nodo sin votación en un clúster global

Siga este procedimiento para eliminar un nombre de host privado para un nodo sin votación en un clúster global. Realice este procedimiento sólo en un clúster global.

  1. Ejecute la utilidad clsetup(1CL) para eliminar un nombre de host privado en la zona adecuada.
  2. Escriba el número correspondiente a la opción del nombre de host privado de zona.
  3. Escriba el número correspondiente a la opción de eliminar un nombre de host privado de zona.
  4. Escriba el nombre de host privado del nombre del nodo sin votación que va a eliminar.

Cómo cambiar el nombre de un nodo

Puede cambiar el nombre de un nodo que forme parte de una configuración de Oracle Solaris Cluster. Debe cambiar el nombre del host de Oracle Solaris para poder cambiar el nombre del nodo. Utilice el clnode rename para cambiar el nombre del nodo.

Las instrucciones siguientes se aplican a cualquier aplicación que se esté ejecutando en un clúster global.

  1. En el clúster global, conviértase en superusuario o asuma una función que proporcione la autorización de RBAC solaris.cluster.modify.
  2. Si va a cambiar el nombre de un nodo de un clúster de Oracle Solaris Cluster Geographic Edition que se encuentra en asociación con una configuración de Oracle Solaris, deberá llevar a cabo pasos adicionales. Si el clúster en el que está realizando el procedimiento de cambio de nombre es el clúster principal del grupo de protección y quiere que la aplicación del grupo de protección permanezca en línea, puede cambiar el grupo de protección al clúster secundario durante el procedimiento de cambio de nombre. Para obtener más información sobre los clústeres y nodos de Geographic Edition, consulte el Capítulo 5, Administering Cluster Partnerships de Oracle Solaris Cluster Geographic Edition System Administration Guide.
  3. Cambie los nombres de host de Oracle Solaris siguiendo los pasos indicados en Cómo cambiar el nombre de host de un sistema de Guía de administración del sistema: Administración avanzada, pero no reinicie el sistema al final del procedimiento. En su lugar, cierre el clúster una vez completados los pasos.
  4. Inicie todos los nodos del clúster en un modo que no sea de clúster.
    ok> boot -x
  5. En un modo que no sea de clúster, en el nodo donde haya cambiado el nombre de host de Oracle Solaris, cambie el nombre del nodo y ejecute el comando cmd en cada uno de los host a los que haya cambiado el nombre. Cambie el nombre de los nodos uno por uno.
    # clnode rename -n newnodename oldnodename
  6. Actualice las referencias existentes al nombre de host anterior en las aplicaciones que se ejecuten en el clúster.
  7. Compruebe que se haya cambiado el nombre del nodo consultando los mensajes de comando y los archivos de registro.
  8. Reinicie todos los nodos en modo clúster.
    # sync;sync;sync;/etc/reboot
  9. Compruebe que el nodo muestre el nuevo nombre.
    # clnode status -v
  10. Si va a cambiar el nombre de un nodo de clúster de Geographic Edition y el clúster asociado del clúster que contiene el nodo al que se ha cambiado el nombre todavía hace referencia al nombre de nodo anterior, el estado de sincronización del grupo de protección se mostrará como un error. Debe actualizar el grupo de protección de un nodo del clúster asociado que contiene el nodo cuyo nombre se ha cambiado mediante el comando geopg update <pg>. Después de completar este paso, ejecute el comando geopg start -e global <pg>. Más adelante, puede volver a cambiar el grupo de protección al clúster que contiene el nodo cuyo nombre se ha cambiado.
  11. Puede elegir si desea cambiar la propiedad hostnamelist de recursos de nombre de host lógico. Consulte Cómo cambiar los nombres de host lógicos utilizados por los recursos de nombre de host lógico de Oracle Solaris Cluster existentes para obtener instrucciones sobre este paso opcional.

Cómo cambiar los nombres de host lógicos utilizados por los recursos de nombre de host lógico de Oracle Solaris Cluster existentes

Puede elegir si desea cambiar la propiedad hostnamelist del recurso de nombre de host lógico antes o después de cambiar el nombre del nodo; para ello, siga los pasos descritos en Cómo cambiar el nombre de un nodo. Este paso es opcional.

  1. En el clúster global, conviértase en superusuario o asuma una función que proporcione la autorización de RBAC solaris.cluster.modify.
  2. Si lo desea, puede cambiar los nombres de host lógicos utilizados por cualquiera de los recursos existentes de nombre de host lógico de Oracle Solaris Cluster.

    En los pasos siguientes se describe cómo configurar el recurso apache-lh-res para que funcione con el nuevo nombre de host lógico. Se debe ejecutar en modo clúster.

    1. En el modo clúster, ponga fuera de línea los grupos de recursos de Apache que contengan los nombres de host lógicos.
      # clrg offline apache-rg
    2. Deshabilite los recursos de nombre de host lógico de Apache.
      # clrs disable appache-lh-res
    3. Proporcione la nueva lista de nombres de host.
      # clrs set -p HostnameList=test-2 apache-lh-res
    4. Cambie las referencias de la aplicación a entradas anteriores en la propiedad hostnamelist para hacer referencia a las entradas nuevas.
    5. Habilitar los nuevos recursos de nombre de host lógico de Apache
      # clrs enable apache-lh-res
    6. Ponga en línea los grupos de recursos de Apache.
      # clrg online apache-rg
    7. Compruebe que la aplicación se haya iniciado correctamente; para ello, ejecute el comando siguiente para realizar la comprobación de un cliente.
      # clrs status apache-rs

Colocación de un nodo en estado de mantenimiento

Ponga un nodo de clúster global en estado de mantenimiento si el nodo va a estar fuera de servicio durante mucho tiempo. De esta forma, el nodo no contribuye al número de quórum mientras sea objeto de tareas de mantenimiento o reparación. Para poner un nodo en estado de mantenimiento, éste tiene se debe cerrar con los comandos de evacuación clnode(1CL) y de cierre cluster(1CL).


Nota - Use el comando shutdown de Oracle Solaris para cerrar un solo nodo. Use el comando cluster shutdown sólo cuando vaya a cerrar todo un clúster.


Cuando un clúster se cierra y se pone en estado de mantenimiento, el número de votos de quórum de todos los dispositivos de quórum configurados con puertos al nodo se reduce en uno. Los números de votos del nodo y del dispositivo de quórum se incrementan en uno cuando el nodo sale del modo de mantenimiento y vuelve a estar en línea.

Use el comando de inhabilitación clquorum(1CL) para poner un nodo del clúster en estado de mantenimiento.

phys-schost# refleja un indicador de clúster global. Siga este procedimiento en un clúster global.

Este procedimiento proporciona las formas largas de los comandos Oracle Solaris Cluster. La mayoría de los comandos también tienen una forma corta. A excepción de las formas de los nombres de comandos, los comandos son idénticos.

  1. Conviértase en superusuario o asuma una función que proporcione la autorización de RBAC solaris.cluster.modify en el nodo del clúster global que va a poner en estado de mantenimiento.
  2. Evacue del nodo todos los grupos de recursos y de dispositivos. El comando clnode evacuate conmuta todos los grupos de recursos y de dispositivos, incluidos todos los nodos de no votación, del nodo especificado al siguiente nodo por orden de preferencia.
    phys-schost# clnode evacuate node
  3. Cierre el nodo que ha evacuado.
    phys-schost# shutdown -g0 -y-i 0
  4. Conviértase en superusuario o asuma una función que proporcione la autorización de RBAC solaris.cluster.modify en otro nodo del clúster y ponga el nodo cerrado en el Paso 3 en estado de mantenimiento.
    phys-schost# clquorum disable  node
    node

    Especifica el nombre de un nodo que desea poner en estado de mantenimiento.

  5. Compruebe que el nodo del clúster global esté en estado de mantenimiento.
    phys-schost# clquorum status node

    El nodo puesto en estado de mantenimiento debe tener un Status de offline y 0 para los votos de quórum Present y Possible.

Ejemplo 9-9 Colocación de un nodo del clúster global en estado de mantenimiento

En el ejemplo siguiente se pone un nodo del clúster en estado de mantenimiento y se comprueban los resultados. La salida de clnode status muestra los Node votes para que phys-schost-1 sea 0 y el estado sea Offline. El Quorum Summary debe mostrar también el número de votos reducido. Según la configuración, la salida de Quorum Votes by Device deber indicar que algunos dispositivos del disco también se encuentran fuera de línea.

[On the node to be put into maintenance state:]
phys-schost-1# clnode  evacuate phys-schost-1
phys-schost-1# shutdown -g0 -y -i0

[On another node in the cluster:]
phys-schost-2# clquorum disable phys-schost-1
phys-schost-2# clquorum status phys-schost-1

-- Quorum Votes by Node --

Node Name           Present       Possible       Status
---------           -------       --------       ------
phys-schost-1       0             0              Offline
phys-schost-2       1             1              Online
phys-schost-3       1             1              Online

Véase también

Para volver a poner en línea un nodo, consulte Procedimiento para sacar un nodo del estado de mantenimiento.

Procedimiento para sacar un nodo del estado de mantenimiento

Complete el procedimiento descrito a continuación para volver a poner en línea un nodo del clúster global y restablecer el valor predeterminado en el número de votos de quórum. En los nodos del clúster, el número de quórum predeterminado es uno. En los dispositivos de quórum, el número de quórum predeterminado es N-1, donde N es el número de nodos con número de votos distinto de cero que tienen puertos conectados al dispositivo de quórum.

Si un nodo se pone en estado de mantenimiento, el número de votos de quórum se reduce en uno. Todos los dispositivos de quórum configurados con puertos conectados al nodo también ven reducido su número de votos. Al restablecer el número de votos de quórum y un nodo se quita del estado de mantenimiento, el número de votos de quórum y el del dispositivo de quórum se ven incrementados en uno.

Ejecute este procedimiento siempre que haya puesto el nodo del clúster global en estado de mantenimiento y vaya a sacarlo de él.


Precaución

Precaución - Si no especifica ni la opción globaldev ni node, el recuento de quórum se restablece para todo el clúster.


phys-schost# refleja un indicador de clúster global. Siga este procedimiento en un clúster global.

Este procedimiento proporciona las formas largas de los comandos Oracle Solaris Cluster. La mayoría de los comandos también tienen una forma corta. A excepción de las formas de los nombres de comandos, los comandos son idénticos.

  1. Conviértase en superusuario o asuma una función que proporcione la autorización RBAC de solaris.cluster.modify en cualquier nodo del clúster global que no sea el que se está en estado de mantenimiento.
  2. Según el número de nodos que tenga en la configuración del clúster global, realice uno de los pasos siguientes:
    • Si tiene dos nodos en la configuración del clúster, vaya al Paso 4.

    • Si tiene más de dos nodos en la configuración del clúster, vaya a Paso 3.

  3. Si el nodo que va a quitar del estado de mantenimiento va a tener dispositivos de quórum, restablezca el número de votos de quórum del clúster desde un nodo que no se esté en estado de mantenimiento.

    El número de quórum debe restablecerse desde un nodo que no se esté en estado de mantenimiento antes de rearrancar el nodo; de lo contrario, el nodo puede bloquearse mientras espera el quórum.

    phys-schost# clquorum reset
    reset

    El indicador de cambio que restablece el quórum.

  4. Arranque el nodo que está quitando del estado de mantenimiento.
  5. Compruebe el número de votos de quórum.
    phys-schost# clquorum status

    El nodo que ha quitado del estado de mantenimiento deber tener el estado de online y mostrar el número de votos adecuado para los votos de quórum Present y Possible.

Ejemplo 9-10 Eliminación de un nodo del clúster del estado de mantenimiento y restablecimiento del número de votos de quórum

El ejemplo siguiente restablece el número de quórum para un nodo del clúster y sus dispositivos de quórum a la configuración predeterminada y comprueba el resultado. El resultado de scstat -q muestra los Node votes para que phys-schost-1 sea 1 y que el estado sea online. La salida de Quorum Summary también debe mostrar un aumento en el número de votos.

phys-schost-2# clquorum reset
phys-schost-1# clquorum status

--- Quorum Votes Summary ---

            Needed   Present   Possible
            ------   -------   --------
            4        6         6


--- Quorum Votes by Node ---

Node Name        Present       Possible      Status
---------        -------       --------      ------
phys-schost-2    1             1             Online
phys-schost-3    1             1             Online


--- Quorum Votes by Device ---

Device Name           Present      Possible      Status
-----------           -------      --------      ------
/dev/did/rdsk/d3s2    1            1             Online
/dev/did/rdsk/d17s2   0            1             Online
/dev/did/rdsk/d31s2   1            1             Online
`

Desinstalación del software Oracle Solaris Cluster desde un nodo del clúster

Aplique este procedimiento para desinstalar el software Oracle Solaris Cluster desde un nodo del clúster global antes de desconectarlo de una configuración del clúster completamente establecida. Puede seguir este procedimiento para desinstalar el software desde el último nodo de un clúster.


Nota - No siga este procedimiento para desinstalar el software Oracle Solaris Cluster desde un nodo que todavía no se haya unido al clúster o que aún esté en modo de instalación. En lugar de eso, vaya a "Cómo anular la configuración del software Oracle Solaris Cluster para solucionar problemas de instalación" en Oracle Solaris Cluster Software Installation Guide .


phys-schost# refleja un indicador de clúster global. Siga este procedimiento en un clúster global.

Este procedimiento proporciona las formas largas de los comandos Oracle Solaris Cluster. La mayoría de los comandos también tienen una forma corta. A excepción de las formas de los nombres de comandos, los comandos son idénticos.

  1. Compruebe que haya completado correctamente todas las tareas de los requisitos previos del mapa de tareas para eliminar un nodo del clúster.

    Consulte la Tabla 8-2.


    Nota - Compruebe que haya eliminado el nodo de la configuración del clúster mediante clnode remove antes de continuar con este procedimiento.


  2. Conviértase en superusuario en un miembro activo del clúster global que no sea el nodo del clúster global que va a desinstalar. Realice este procedimiento desde un nodo del clúster global.
  3. En el miembro activo del clúster, agregue el nodo que desea desinstalar a la lista de autenticación de nodos del clúster.
    phys-schost# claccess allow -h hostname
    -h

    Especifica el nombre del nodo que se va a agregar a la lista de autenticación de nodos.

    También puede usar la utilidad clsetup(1CL). Consulte los procedimientos en Adición de un nodo a la lista de nodos autorizados.

  4. Conviértase en superusuario en el nodo que vaya a desinstalar.
  5. Si tiene un clúster de zona, desinstálelo.
    phys-schost# clzonecluster uninstall -F zoneclustername

    Para consultar los pasos específicos, Eliminación de un clúster de zona.

  6. Si el nodo tiene una partición dedicada para el espacio de nombres de dispositivos globales, rearranque el nodo del clúster global en un modo que no sea de clúster.
    • Ejecute el comando siguiente en un sistema basado en SPARC.

      # shutdown -g0 -y -i0ok boot -x
    • Ejecute los comandos siguientes en un sistema basado en x86.

      # shutdown -g0 -y -i0
      ...
                            <<< Current Boot Parameters >>>
      Boot path: /pci@0,0/pci8086,2545@3/pci8086,1460@1d/pci8086,341a@7,1/
      sd@0,0:a
      Boot args:
      
      Type    b [file-name] [boot-flags] <ENTER>  to boot with options
      or      i <ENTER>                           to enter boot interpreter
      or      <ENTER>                             to boot with defaults
      
                        <<< timeout in 5 seconds >>>
      Select (b)oot or (i)nterpreter: b -x
  7. En el archivo /etc/vfstab, elimine todas las entradas de sistema de archivos montadas globalmente excepto los montajes globales de /global/.devices.
  8. Si quiere volver a instalar el software Oracle Solaris Cluster en este nodo, elimine la entrada de Oracle Solaris Cluster del registro de productos de Sun Java Enterprise System (Java ES).

    Si en el registro de productos de Java ES aparece que se ha instalado el software Oracle Solaris Cluster, el programa de instalación muestra el componente de Oracle Solaris Cluster atenuado y no permite la reinstalación.

    1. Inicie el programa de desinstalación de Java ES.

      Ejecute el comando siguiente, donde ver es la versión de distribución de Java ES desde la que instaló el software Oracle Solaris Cluster.

      # /var/sadm/prod/SUNWentsysver/uninstall
    2. Siga los indicadores para seleccionar Oracle Solaris Cluster para desinstalar.

      Para obtener más información sobre cómo utilizar el comando uninstall, consulte el Capítulo 8, Uninstalling de Sun Java Enterprise System 5 Update 1 Installation Guide for UNIX.

  9. Si no tiene previsto volver a instalar el software Oracle Solaris Cluster en este clúster, desconecte los cables y el conmutador de transporte, si los hubiera, de los otros dispositivos del clúster.
    1. Si el nodo desinstalado está conectado a un dispositivo de almacenamiento que usa una interfaz SCSI paralelo, instale un terminador de SCSI al conector de SCSI del dispositivo de almacenamiento después de haber desconectado los cables de transporte.

      Si el nodo desinstalado está conectado a un dispositivo de almacenamiento que usa interfaces de canal de fibra, el cierre no es necesario.

    2. Consulte la documentación suministrada con el adaptador del sistema y el servidor respecto a los procedimientos de desconexión.

    Consejo - Si usa un dispositivo de interfaz de archivo de bucle invertido (lofi), el programa de desinstalación de Java ES elimina de forma automática el archivo lofi, que se denomina /.globaldevices. Para obtener más información cómo migrar un espacio de nombres de dispositivos globales a un lofi, consulte Migración del espacio de nombre de dispositivos globales.


Solución de problemas de la desinstalación de nodos

Esta sección describe los mensajes de error que pueden generarse al ejecutar el comando clnode remove  y las medidas correctivas que debe utilizar.

Entradas no eliminadas del sistema de archivos de clúster

Los mensajes de error siguientes indican que el nodo del clúster global que ha eliminado todavía tiene sistemas de archivo del clúster referenciados en el archivo vfstab.

Verifying that no unexpected global mounts remain in /etc/vfstab ... failed
clnode:  global-mount1 is still configured as a global mount.
clnode:  global-mount1 is still configured as a global mount.
clnode:  /global/dg1 is still configured as a global mount.
 
clnode:  It is not safe to uninstall with these outstanding errors.
clnode:  Refer to the documentation for complete uninstall instructions.
clnode:  Uninstall failed.

Para corregir este error, vuelva a Desinstalación del software Oracle Solaris Cluster desde un nodo del clúster y repita el procedimiento. Compruebe que haya realizado correctamente el Paso 7 del procedimiento antes de volver a ejecutar el comando clnode remove.

No supresión de la lista de grupos de dispositivos

Los mensajes de error siguientes indican que el nodo que ha eliminado todavía está en la lista con un grupo de dispositivos.

Verifying that no device services still reference this node ... failed
clnode:  This node is still configured to host device service "
service".
clnode:  This node is still configured to host device service "
service2".
clnode:  This node is still configured to host device service "
service3".
clnode:  This node is still configured to host device service "
dg1".
 
clnode:  It is not safe to uninstall with these outstanding errors.          
clnode:  Refer to the documentation for complete uninstall instructions.
clnode:  Uninstall failed.

Falta la secuencia de comandos de desinstalación

Si no ha utilizado el programa installer para instalar o actualizar el software Sun Cluster u Oracle Solaris Cluster que ahora quiere eliminar, no habrá ninguna secuencia de comandos de desinstalación disponible para esta versión del software. En su lugar, siga los pasos indicados a continuación para desinstalar el software.

Cómo desinstalar el software Sun Cluster 3.1 y 3.2 sin una secuencia de comandos de desinstalación

  1. Conviértase en superusuario o asuma una función que proporcione la autorización de RBAC solaris.cluster.modify.
  2. Acceda a un directorio que no esté asociado con ningún paquete de Sun Cluster.
    # cd /directory
  3. Desinstale el software de Sun Cluster del nodo.
    # scinstall -r
  4. Cambie el nombre del archivo productregistry para permitir la posible reinstalación del software en el futuro.
    # mv /var/sadm/install/productregistry /var/sadm/install/productregistry.sav

Creación, configuración y administración de MIB de eventos de SNMP de Oracle Solaris Cluster

Esta sección describe cómo crear, configurar y administrar la base de información de administración (MIB) del evento del protocolo SNMP. Esta sección también describe cómo habilitar, inhabilitar y cambiar la MIB de eventos de SNMP de Oracle Solaris Cluster.

El software Oracle Solaris Cluster admite actualmente una MIB, la MIB de eventos. El software del administrador de SNMP intercepta los eventos del clúster en tiempo real. Si se habilita, el administrador de SNMP envía automáticamente notificaciones de captura a todos los sistemas definidos en el comando clsnmphost. La MIB mantiene una tabla de sólo lectura con los 50 eventos más actuales. Debido a que los clústers generan numerosas notificaciones, sólo se envían como notificaciones de capturas los eventos con cierto grado de warning (advertencia) o superior. Esta información no se mantiene después de rearrancar.

La MIB de eventos de SNMP está definida en el archivo sun-cluster-event-mib.mib y se ubica en el directorio /usr/cluster/lib/mib. Esta definición puede usarse para interpretar la información de captura de SNMP.

El número de puerto predeterminado del módulo SNMP del evento es 11161 y el puerto predeterminado de las capturas de SNMP es 11162. Estos números de puerto se pueden cambiar modificando el archivo de propiedad de Common Agent Container, /etc/cacao/instances/default/private/cacao.properties.

Crear, configurar y administrar una MIB de eventos de SNMP de Oracle Solaris Cluster puede implicar las tareas siguientes.

Tabla 9-2 Mapa de tareas: crear, configurar y administrar la MIB de eventos de SNMP de Oracle Solaris Cluster

Tarea
Instrucciones
Habilitar una MIB de eventos de SNMP
Inhabilitar una MIB de eventos de SNMP
Cambiar una MIB de eventos de SNMP
Agregar un host de SNMP a la lista de hosts que recibirán las notificaciones de captura de las MIB
Quitar un host de SNMP
Agregar un usuario de SNMP
Suprimir un usuario de SNMP

Habilitación de una MIB de eventos de SNMP

Este procedimiento muestra cómo habilitar una MIB de eventos de SNMP.

phys-schost# refleja un indicador de clúster global. Siga este procedimiento en un clúster global.

Este procedimiento proporciona las formas largas de los comandos Oracle Solaris Cluster. La mayoría de los comandos también tienen una forma corta. A excepción de las formas de los nombres de comandos, los comandos son idénticos.

  1. Conviértase en superusuario o asuma una función que cuente con autorización RBAC solaris.cluster.modify.
  2. Habilite la MIB de eventos de SNMP.
    phys-schost-1# clsnmpmib enable [-n node] MIB
    [-n nodo]

    Especifica el nodo en el que se ubica la MIB del evento que desea habilitar. Puede especificar un nombre o un ID de nodo. Si no especifica esta opción, de forma predeterminada se utiliza el nodo actual.

    MIB

    Especifica el nombre de la MIB que desea habilitar. En este caso, el nombre de la MIB debe ser event.

Inhabilitación de una MIB de eventos de SNMP

Este procedimiento muestra cómo inhabilitar una MIB de eventos de SNMP.

phys-schost# refleja un indicador de clúster global. Siga este procedimiento en un clúster global.

Este procedimiento proporciona las formas largas de los comandos Oracle Solaris Cluster. La mayoría de los comandos también tienen una forma corta. A excepción de las formas de los nombres de comandos, los comandos son idénticos.

  1. Conviértase en superusuario o asuma una función que proporcione la autorización de RBAC solaris.cluster.modify.
  2. Inhabilite la MIB de eventos de SNMP.
    phys-schost-1# clsnmpmib disable -n node MIB
    -n nodo

    Especifica el nodo en el que se ubica la MIB del evento que desea inhabilitar. Puede especificar un nombre o un ID de nodo. Si no especifica esta opción, de forma predeterminada se utiliza el nodo actual.

    MIB

    Especifica el tipo de MIB que desea inhabilitar. En este caso, debe especificar el tipo event.

Cambio de una MIB de eventos de SNMP

Este procedimiento muestra cómo cambiar una MIB de eventos de SNMP.

phys-schost# refleja un indicador de clúster global. Siga este procedimiento en un clúster global.

Este procedimiento proporciona las formas largas de los comandos Oracle Solaris Cluster. La mayoría de los comandos también tienen una forma corta. A excepción de las formas de los nombres de comandos, los comandos son idénticos.

  1. Conviértase en superusuario o asuma una función que proporcione la autorización de RBAC solaris.cluster.modify.
  2. Cambie el protocolo de la MIB de eventos de SNMP.
    phys-schost-1# clsnmpmib set -n node -p version=value MIB
    -n nodo

    Especifica el nodo en el que se ubica la MIB del evento que desea cambiar. Puede especificar un nombre o un ID de nodo. Si no especifica esta opción, de forma predeterminada se utiliza el nodo actual.

    -p version=valor

    Especifica la versión del protocolo SNMP que desea usar con las MIB. Especifique el valor tal y como se indica a continuación:

    • version=SNMPv2

    • version=snmpv2

    • version=2

    • version=SNMPv3

    • version=snmpv3

    • version=3

    MIB

    Especifica el nombre de la MIB o las MIB a las que hay que aplicar el subcomando. En este caso, debe especificar el tipo event. Si no especifica este operando, el subcomando usa el signo más predeterminado (+), que equivale a todas las MIB. Si usa el operando de MIB, especifique la MIB en una lista delimitada por espacios después de todas las demás opciones de línea de comandos.

Habilitación de un host de SNMP para que reciba capturas de SNMP en un nodo

Este procedimiento muestra cómo agregar un host de SNMP de un nodo a la lista de sistemas que recibirá las notificaciones de captura para las MIB.

phys-schost# refleja un indicador de clúster global. Siga este procedimiento en un clúster global.

Este procedimiento proporciona las formas largas de los comandos Oracle Solaris Cluster. La mayoría de los comandos también tienen una forma corta. A excepción de las formas de los nombres de comandos, los comandos son idénticos.

  1. Conviértase en superusuario o asuma una función que proporcione la autorización de RBAC solaris.cluster.modify.
  2. Agregue el host a la lista de hosts de SNMP de una comunidad en otro nodo.
    phys-schost-1# clsnmphost add -c SNMPcommunity [-n node] host
    -c comunidad_SNMP

    Especifica el nombre de la comunidad de SNMP que se usa en combinación con el nombre del host.

    Se debe especificar el nombre de comunidad de SNMP comunidad_SNMP cuando agregue un host que no sea public a la comunidad. Si usa el subcomando add sin la opción -c, el subcomando utiliza public como nombre de comunidad predeterminado.

    Si el nombre de comunidad especificado no existe, este comando crea la comunidad.

    -n nodo

    Especifica el nombre del nodo del host de SNMP al que se ha proporcionado acceso a las MIB de SNMP en el clúster. Puede especificar un nombre o un ID de nodo. Si no especifica esta opción, de forma predeterminada se utiliza el nodo actual.

    host

    Especifica el nombre, la dirección IP o la dirección IPv6 del host al que se ha proporcionado acceso a las MIB de SNMP en el clúster.

Inhabilitación de la recepción de capturas de SNMP en un nodo por parte del host de SNMP

Este procedimiento muestra cómo eliminar un host de SNMP de un nodo de la lista de hosts que recibirán las notificaciones de captura para las MIB.

phys-schost# refleja un indicador de clúster global. Siga este procedimiento en un clúster global.

Este procedimiento proporciona las formas largas de los comandos Oracle Solaris Cluster. La mayoría de los comandos también tienen una forma corta. A excepción de las formas de los nombres de comandos, los comandos son idénticos.

  1. Conviértase en superusuario o asuma una función que proporcione la autorización de RBAC solaris.cluster.modify.
  2. Elimine el host de la lista de hosts de SNMP de una comunidad en el nodo especificado.
    phys-schost-1# clsnmphost remove -c SNMPcommunity -n node host
    remove

    Elimina el host de SNMP especificado del nodo indicado.

    -c comunidad_SNMP

    Especifica el nombre de la comunidad de SNMP de la que se ha eliminado el host de SNMP.

    -n nodo

    Especifica el nombre del nodo en el que se ha eliminado de la configuración el host de SNMP. Puede especificar un nombre o un ID de nodo. Si no especifica esta opción, de forma predeterminada se utiliza el nodo actual.

    host

    Especifica el nombre, la dirección IP o la dirección IPv6 del host que se ha eliminado de la configuración.

    Para eliminar todos los sistemas de la comunidad SNMP especificada, use un signo más (+) para el host con la opción -c. Para eliminar todos los sistemas, use el signo más (+) para el host.

Adición de un usuario de SNMP a un nodo

Este procedimiento muestra cómo agregar un usuario de SNMP a la configuración de usuarios de SNMP en un nodo.

phys-schost# refleja un indicador de clúster global. Siga este procedimiento en un clúster global.

Este procedimiento proporciona las formas largas de los comandos Oracle Solaris Cluster. La mayoría de los comandos también tienen una forma corta. A excepción de las formas de los nombres de comandos, los comandos son idénticos.

  1. Conviértase en superusuario o asuma una función que proporcione la autorización de RBAC solaris.cluster.modify.
  2. Agregue el usuario de SNMP.
    phys-schost-1# clsnmpuser create -n node -a authentication \
                  -f password user
    -n nodo

    Especifica el nodo en el que se ha agregado el usuario de SNMP. Puede especificar un nombre o un ID de nodo. Si no especifica esta opción, de forma predeterminada se utiliza el nodo actual.

    -a autenticación

    Especifica el protocolo de autenticación que se utiliza para autorizar al usuario. El valor del protocolo de autenticación puede ser SHA o MD5.

    -f contraseña

    Especifica un archivo con las contraseñas de usuario de SNMP. Si no especifica esta opción al crear un usuario, el comando solicita una contraseña. Esta opción sólo es válida con el subcomando add.

    Las contraseñas de los usuarios deben especificarse en líneas distintas y con el formato siguiente:

    user:password

    Las contraseñas no pueden tener espacios ni los caracteres siguientes:

    • ; (punto y coma)

    • : (dos puntos)

    • \ (barra diagonal inversa)

    • \n (línea nueva)

    usuario

    Especifica el nombre del usuario de SNMP que desea agregar.

Eliminación de un usuario de SNMP de un nodo

Este procedimiento muestra cómo eliminar un usuario de SNMP de la configuración de usuarios de SNMP en un nodo.

phys-schost# refleja un indicador de clúster global. Siga este procedimiento en un clúster global.

Este procedimiento proporciona las formas largas de los comandos Oracle Solaris Cluster. La mayoría de los comandos también tienen una forma corta. A excepción de las formas de los nombres de comandos, los comandos son idénticos.

  1. Conviértase en superusuario o asuma una función que proporcione la autorización de RBAC solaris.cluster.modify.
  2. Quite el usuario de SNMP.
    phys-schost-1# clsnmpuser delete -n node user
    -n nodo

    Especifica el nodo desde el que se ha eliminado el usuario de SNMP. Puede especificar un nombre o un ID de nodo. Si no especifica esta opción, de forma predeterminada se utiliza el nodo actual.

    usuario

    Especifica el nombre del usuario de SNMP que desea eliminar.

Configuración de los límites de carga

Puede habilitar la distribución automática de la carga del grupo de recursos entre los nodos o las zonas estableciendo límites de carga. Puede configurar un conjunto de límites de carga para cada nodo del clúster. Usted asigna factores de carga a los grupos de recursos y los factores de carga corresponden a los límites de carga definidos de los nodos. El funcionamiento predeterminado consiste en distribuir la carga del grupo de recursos de forma uniforme entre todos los nodos disponibles en la lista de nodos del grupo de recursos.

El RGM inicia los grupos de recursos en un nodo de la lista de nodos del grupo de recursos para que no se superen los límites de carga del nodo. Puesto que el RGM asigna grupos de recursos a los nodos, los factores de carga de los grupos de recursos de cada nodo se suman para proporcionar una carga total. La carga total se compara con los límites de carga del nodo.

Un límite de carga consta de los elementos siguientes:

Puede definir tanto el límite fijo como el límite flexible con un solo comando. Si uno de los límites no se establece explícitamente, se utilizará el valor predeterminado. Los límites de carga fijos y flexibles de cada nodo se crean y modifican con los comandos clnode create-loadlimit, clnode set-loadlimit y clnode delete-loadlimit. Consulte la página de comando man clnode(1CL) para obtener más información.

Puede configurar un grupo de recursos para que tenga una mayor prioridad, de modo que sea menos probable que se desplace de un nodo específico. También puede establecer una propiedad preemption_mode para determinar si un grupo de recursos se apoderará de un nodo mediante un grupo de recursos de mayor prioridad debido a la sobrecarga de nodos. La propiedad concentrate_load también permite concentrar la carga del grupo de recursos en el menor número de nodos posible. El valor predeterminado de la propiedad concentrate_load es FALSE .


Nota - Puede configurar límites de carga en los nodos de un clúster global o de un clúster de zona. Puede utilizar la línea de comandos, la utilidad clsetup o la interfaz del Oracle Solaris Cluster Manager para configurar los límites de carga. En los procedimientos siguientes se explica cómo configurar límites de carga mediante la línea de comandos.


Cómo configurar límites de carga en un nodo

  1. Conviértase en superusuario o asuma una función que proporcione la autorización de RBAC solaris.cluster.modify en cualquier nodo del clúster global.
  2. Cree y configure un límite de carga para los nodos que quiera usar para el equilibrado de carga.
    # clnode create-loadlimit -p limitname=mem_load -Z zc1 -p 
    softlimit=11 -p hardlimit=20 node1 node2 node3

    En este ejemplo, el nombre del clúster de zona es zc1. La propiedad de ejemplo se llama mem_load y tiene un límite flexible de 11 y un límite de carga fijo de 20. Los límites fijos y flexibles son argumentos opcionales y, si no se definen de forma específica, el valor predeterminado será ilimitado. Consulte la página de comando man clnode(1CL) para obtener más información.

  3. Asigne valores de factor de carga a cada grupo de recursos.
    # clresourcegroup set -p load_factors=mem_load@50,factor2@1 rg1 rg2

    En este ejemplo, los factores de carga se definen en los dos grupos de recursos, rg1 y rg2. La configuración de factor de carga se corresponde con los límites de carga definidos para los nodos. También puede realizar este paso durante la creación del grupo de recursos con el comando clresourcegroup create. Para obtener más información, consulte la página de comando man clresourcegroup(1CL).

  4. Si lo desea, puede redistribuir la carga existente (clrg remaster).
    # clresourcegroup remaster rg1 rg2

    Este comando puede mover los grupos de recursos de su nodo maestro actual a otros nodos para conseguir una distribución uniforme de la carga.

  5. Si lo desea, puede conceder a algunos grupos de recursos una mayor prioridad que a otros.
    # clresourcegroup set -p priority=600 rg1

    La prioridad predeterminada es 500. Los grupos de recursos con valores de prioridad mayores tienen preferencia en la asignación de nodos por encima de los grupos de recursos con valores de prioridad menores.

  6. Si lo desea, puede definir la propiedad Preemption_mode.
    # clresourcegroup set -p Preemption_mode=No_cost rg1

    Consulte la página de comando man clresourcegroup(1CL) para obtener más información sobre las opciones HAS_COST, NO_COST y NEVER.

  7. Si lo desea, también puede definir el indicador Concentrate_load.
    # cluster set -p Concentrate_load=TRUE
  8. Si lo desea, puede especificar una afinidad entre grupos de recursos.

    Una afinidad negativa o positiva fuerte tiene preferencia por encima de la distribución de carga. Las afinidades fuertes no pueden infringirse, del mismo modo que los límites de carga fijos. Si define afinidades fuertes y límites de carga fijos, es posible que algunos grupos de recursos estén obligados a permanecer sin conexión, si no pueden cumplirse ambas restricciones.

    En el ejemplo siguiente se especifica una afinidad positiva fuerte entre el grupo de recursos rg1 del clúster de zona zc1 y el grupo de recursos rg2 del clúster de zona zc2.

    # clresourcegroup set -p RG_affinities=++zc2:rg2 zc1:rg1
  9. Compruebe el estado de todos los nodos de clúster global y de clúster de zona del clúster.
    # clnode status -Z all -v

    El resultado incluye todos los valores de límite de carga que hay definidos en el nodo o en sus zonas no globales.