JavaScript is required to for searching.
Omitir Vínculos de navegación
Salir de la Vista de impresión
Guía de instalación del software Oracle Solaris Cluster     Oracle Solaris Cluster (Español)
search filter icon
search icon

Información del documento

Prefacio

1.  Planificación de la configuración de Oracle Solaris Cluster

2.  Instalación del software en los nodos del clúster global

3.  Establecimiento del clúster global

Establecimiento de un nuevo clúster global o de un nuevo nodo de clúster global

Cómo configurar el software Oracle Solaris Cluster en todos los nodos (scinstall)

Cómo configurar el software Oracle Solaris Cluster en todos los nodos (XML)

Cómo instalar el software de Solaris y Oracle Solaris Cluster (JumpStart)

Cómo preparar el clúster para nodos de clúster global adicionales

Cómo cambiar la configuración de red privada al agregar nodos o redes privadas

Cómo configurar el software Oracle Solaris Cluster en nodos de clúster global adicionales (scinstall)

Cómo configurar el software Oracle Solaris Cluster en nodos de clúster global adicionales (XML)

Cómo actualizar los dispositivos del quórum tras agregar un nodo a un clúster global

Cómo configurar dispositivos del quórum

Cómo verificar los modos de configuración e instalación del quórum

Cómo cambiar nombres de host privados

Configuración de la distribución de la carga de grupos entre nodos

Cómo configurar límites de carga de un nodo

Cómo establecer la prioridad de un grupo de recursos

Cómo establecer factores de carga de un grupo de recursos

Cómo establecer el modo preferente de un grupo de recursos

Cómo concentrar carga en menos nodos del clúster

Cómo configurar Network Time Protocol (NTP)

Cómo configurar la arquitectura de seguridad IP (IPsec) en la interconexión privada del clúster

Cómo validar el clúster

Cómo registrar los datos de diagnóstico de la configuración del clúster

4.  Configuración del software Solaris Volume Manager

5.  Instalación y configuración de Veritas Volume Manager

6.  Creación de un sistema de archivos del clúster

7.  Creación de zonas no globales y clústeres de zona

8.  Instalación del módulo de Oracle Solaris Cluster en Sun Management Center

9.  Desinstalación del software del clúster

A.  Hojas de trabajo de instalación y configuración de Oracle Solaris Cluster

Índice

Establecimiento de un nuevo clúster global o de un nuevo nodo de clúster global

Esta sección ofrece información y procedimientos para establecer un clúster global nuevo y para agregar un nodo a un clúster existente. Los nodos de clúster global pueden ser máquinas físicas, (sólo SPARC) dominios de E/S de Sun Logical Domains (LDoms) o dominios invitados de LDoms. Un clúster puede estar formado por cualquier combinación de estos tipos de nodo. Antes de comenzar a realizar estas tareas, asegúrese de haber instalado los paquetes de software del sistema operativo Oracle Solaris, la estructura de Oracle Solaris Cluster, y otros productos, tal como se describe en Instalación del software.

Los mapas de tareas siguientes enumeran las tareas que deben efectuarse en el caso de un clúster global nuevo o en el de un nodo que se ha agregado a un clúster global ya existente. Realice los procedimientos en el orden indicado.

Tabla 3-1 Mapa de tareas: establecer un nuevo clúster global

Método
Instrucciones
Use uno de los métodos siguientes para establecer un nuevo clúster global:
  • Use la utilidad scinstall para establecer el clúster.
  • Utilice un archivo de configuración XML para establecer el clúster.
  • Configure un servidor de instalación de JumpStart. A continuación, cree un archivo de almacenamiento flash del sistema instalado. Por último, utilice la opción scinstall de JumpStart para instalar el archivo de almacenamiento flash en todos los nodos y establecer el clúster.
Asigne los votos del quórum y abandone el modo de instalación del clúster si todavía no lo ha hecho.
Valide la configuración del quórum.
(Opcional) Cambie el nombre de host privado de un nodo.
Cree o modifique el archivo de configuración de NTP si no lo ha hecho todavía.
(Opcional) Configure IPsec para proteger la interconexión privada.
Si utiliza un administrador de volúmenes, instale el software de administración de volúmenes.
Cree sistemas de archivos del clúster o sistemas de archivos locales de alta disponibilidad según sea necesario.
(Opcional) SPARC: Configure Sun Management Center para que supervise el clúster.
Instale las aplicaciones de terceros, registre los tipos de recursos y configure los grupos de recursos y los servicios de datos.
Oracle Solaris Cluster Data Services Planning and Administration Guide

Documentación suministrada con el software de la aplicación

Valide el clúster.
Realice un registro de línea de base de la configuración final del clúster.

Tabla 3-2 Mapa de tareas: agregar un nodo a un clúster global

Método
Instrucciones
Utilice el comando clsetup para agregar el nodo nuevo a la lista de nodos autorizados del clúster. Si fuera necesario, configure también la interconexión del clúster y reconfigure el intervalo de direcciones de red privada.
Reconfigure la interconexión del clúster y el rango de direcciones de redes privadas como sea preciso para acomodar el nodo agregado.
Use uno de los métodos siguientes para agregar un nodo a un clúster global:
  • Configure un servidor de instalación de JumpStart. A continuación, cree un archivo de almacenamiento flash del sistema instalado. Por último, utilice la opción scinstall de JumpStart para instalar el archivo de almacenamiento flash en el nodo que se agrega al clúster.
  • Configure el software Oracle Solaris Cluster en el nodo nuevo mediante la utilidad scinstall.
  • Configure el software Oracle Solaris Cluster en el nodo nuevo mediante un archivo de configuración XML.
Actualice la información de configuración del quórum.
Valide la configuración del quórum.
(Opcional) Cambie el nombre de host privado de un nodo.
Modifique la configuración de NTP.
Si IPsec está configurado en el clúster, configure IPsec en el nodo agregado.
Si utiliza un administrador de volúmenes, instale el software de administración de volúmenes.
Cree sistemas de archivos del clúster o sistemas de archivos locales de alta disponibilidad según sea necesario.
(Opcional) Si el clúster utiliza SPARC: Sun Management Center , instale Sun Management Center en el nodo nuevo y configure dicho nodo para supervisión.
Instale las aplicaciones de terceros, registre los tipos de recursos y configure los grupos de recursos y los servicios de datos.
Oracle Solaris Cluster Data Services Planning and Administration Guide

Documentación suministrada con el software de la aplicación

Valide el clúster.
Realice un registro de línea de base de la configuración final del clúster.

Cómo configurar el software Oracle Solaris Cluster en todos los nodos (scinstall)

Lleve a cabo este procedimiento en uno de los nodos del clúster global para configurar el software Oracle Solaris Cluster en todos los nodos del mismo.


Nota - En este procedimiento, se utiliza el formato interactivo del programa scinstall. Para utilizar los formatos no interactivos del comando scinstall como, por ejemplo, al crear secuencias de comandos de instalación, consulte la página de comando man scinstall(1M).

Asegúrese de que los paquetes de software Oracle Solaris Cluster se hayan instalado en el nodo de forma manual o mediante el modo silencioso del programa installer de antes de ejecutar el comando scinstall. Para obtener información sobre cómo ejecutar el programa installer de desde una secuencia de comandos de instalación, consulte Capítulo 5, Installing in Silent Mode de Sun Java Enterprise System 5 Update 1 Installation Guide for UNIX.


Antes de empezar

Realice las siguientes tareas:

Siga estas directrices para usar la utilidad scinstall interactiva en este procedimiento:

  1. Si ha inhabilitado la configuración remota durante la instalación del software Oracle Solaris Cluster, vuelva a habilitarla.

    Habilite acceso de shell remoto (rsh(1M)) o shell seguro (ssh(1)) para el superusuario en todos los nodos del clúster.

  2. Si utiliza conmutadores en la interconexión privada del nuevo clúster, asegúrese de que el Protocolo de detección de elementos próximos (NDP) esté inhabilitado.

    Siga los procedimientos incluidos en la documentación de los conmutadores para determinar si NDP está habilitado o si debe inhabilitar este protocolo.

    Durante la configuración del clúster, el software comprueba que no haya tráfico en la interconexión privada. Si NDP envía paquetes a un adaptador privado cuando se está comprobando si hay tráfico en la interconexión privada, el software presupondrá que la interconexión no es privada y se interrumpirá la configuración del clúster. Por lo tanto, NDP debe inhabilitarse durante la creación del clúster.

    Una vez establecido el clúster, puede volver a habilitar NDP en los conmutadores de interconexión privada si desea utilizar esta función.

  3. Inicie la utilidad scinstall desde un nodo del clúster.
    phys-schost# /usr/cluster/bin/scinstall
  4. Escriba el número correspondiente a la opción Create a New Cluster or Add a Cluster Node (Crear un clúster o agregar un nodo de clúster) y pulse la tecla Intro.
     *** Main Menu ***
    
        Please select from one of the following (*) options:
    
          * 1) Create a new cluster or add a cluster node
          * 2) Configure a cluster to be JumpStarted from this install server
            3) Manage a dual-partition upgrade
            4) Upgrade this cluster node
          * 5) Print release information for this cluster node
     
          * ?) Help with menu options
          * q) Quit
    
        Option:  1

    Aparece el menú Nuevo clúster o nodo del clúster.

  5. Escriba el número correspondiente a la opción para crear un clúster y pulse la tecla Intro.

    Aparece el menú Typical or Custom Mode (Modo típico o personalizado).

  6. Escriba el número correspondiente a la opción Typical or Custom (Típica o Personalizada) y pulse la tecla Intro.

    Aparece la pantalla Create a New Cluster (Crear un clúster). Lea los requisitos y, a continuación, pulse Control+D para continuar.

  7. Siga las indicaciones en el menú para proporcionar respuestas de la hoja de trabajo para la planificación de la configuración.

    La utilidad scinstall instala y configura todos los nodos del clúster y reinicia el clúster. El clúster se establecerá cuando todos los nodos se hayan iniciado satisfactoriamente en él. La salida de la instalación de Oracle Solaris Cluster se registra en un archivo /var/cluster/logs/install/scinstall.log. N.

  8. Compruebe en todos los nodos que los servicios multiusuario para la Utilidad de gestión de servicios (SMF) estén en línea.

    Si los servicios todavía no están en línea para un nodo, espere hasta que cambie el estado y aparezca como en línea antes de continuar con el siguiente paso.

    phys-schost# svcs multi-user-server node
    STATE          STIME    FMRI
    online         17:52:55 svc:/milestone/multi-user-server:default
  9. Desde un nodo, compruebe que todos los nodos se hayan unido al clúster.
    phys-schost# clnode status

    La salida presenta un aspecto similar al siguiente.

    === Cluster Nodes ===
    
    --- Node Status ---
    
    Node Name                                       Status
    ---------                                       ------
    phys-schost-1                                   Online
    phys-schost-2                                   Online
    phys-schost-3                                   Online

    Para obtener más información, consulte la página de comando man clnode(1CL).

  10. (Opcional) Habilite la función de reinicio automático de nodos.

    Esta función reinicia automáticamente un nodo cuando todas las rutas de disco compartido supervisadas presentan errores y siempre que al menos uno de los discos sea accesible desde otro nodo del clúster.

    1. Habilite el reinicio automático.
      phys-schost# clnode set -p reboot_on_path_failure=enabled
      -p

      Especifica la propiedad que se va a establecer.

      reboot_on_path_failure=enable

      Habilita el reinicio automático del nodo en caso de producirse un error en las rutas de discos compartidos supervisados.

    2. Compruebe que el reinicio automático tras un error de ruta de disco se encuentre habilitado.
      phys-schost# clnode show
      === Cluster Nodes ===                          
      
      Node Name:                                      node
      …
        reboot_on_path_failure:                          enabled
      …
  11. Si tiene intención de utilizar Oracle Solaris Cluster HA para NFS (HA para NFS) en un sistema de archivos local de alta disponibilidad, asegúrese de que el sistema de archivos de bucle invertido (LOFS) esté inhabilitado.

    Para inhabilitarlo, agregue la siguiente entrada al archivo /etc/system en cada uno de los nodos del clúster.

    exclude:lofs

    El cambio realizado en el archivo /etc/system se aplicará en el siguiente reinicio del sistema.


    Nota - No puede tener habilitado LOFS si utiliza HA para NFS en un sistema de archivos de alta disponibilidad y automountd se está ejecutando. LOFS puede provocar problemas de conmutación en HA para NFS. Si decide agregar HA para NFS en un sistema de archivos local de alta disponibilidad, realice uno de los siguientes cambios de configuración.

    Sin embargo, si configura zonas no globales en el clúster, debe habilitar LOFS en todos los nodos del clúster. Si HA para NFS se encuentra en un sistema de archivos local de alta disponibilidad y debe coexistir con LOFS, utilice una de las demás soluciones en lugar de inhabilitar LOFS.

    • Inhabilite LOFS.

    • Inhabilite el daemon automountd.

    • Excluya de la asignación de montaje automático todos los archivos que formen parte del sistema de archivos local de alta disponibilidad exportado por HA para NFS. Esta opción permite mantener habilitados tanto LOFS como el daemon automountd.


    Consulte The Loopback File System de System Administration Guide: Devices and File Systems para obtener información sobre los sistemas de archivos de bucle invertido.

Ejemplo 3-1 Configuración del software Oracle Solaris Cluster en todos los nodos

En el siguiente ejemplo, se muestran los mensajes de progreso de scinstall que se van registrando a medida que scinstall completa tareas de configuración en el clúster de dos nodos, schost. El clúster se instala desde phys-schost-1 mediante la utilidad scinstall en el modo típico. El otro nodo del clúster es phys-schost-2. Los nombres de los adaptadores son qfe2 y qfe3. La selección automática del dispositivo del quórum está habilitada. Los dos nodos utilizan la partición /globaldevices para el espacio de nombres de dispositivos globales.

  Installation and Configuration

    Log file - /var/cluster/logs/install/scinstall.log.24747

    Testing for "/globaldevices" on "phys-schost-1" … done
    Testing for "/globaldevices" on "phys-schost-2" … done
    Checking installation status … done

    The Sun Cluster software is already installed on "phys-schost-1".
    The Sun Cluster software is already installed on "phys-schost-2".
    Starting discovery of the cluster transport configuration.

    The following connections were discovered:

        phys-schost-1:qfe2  switch1  phys-schost-2:qfe2
        phys-schost-1:qfe3  switch2  phys-schost-2:qfe3

    Completed discovery of the cluster transport configuration.

    Started cluster check on "phys-schost-1".
    Started cluster check on "phys-schost-2".

    cluster check completed with no errors or warnings for "phys-schost-1".
    cluster check completed with no errors or warnings for "phys-schost-2".

    Removing the downloaded files … done

    Configuring "phys-schost-2" … done
    Rebooting "phys-schost-2" … done

    Configuring "phys-schost-1" … done
    Rebooting "phys-schost-1" …

Log file - /var/cluster/logs/install/scinstall.log.24747

Rebooting …

Errores más frecuentes

Configuración incorrecta: si uno o varios nodos no se pueden incorporar al clúster, o si se ha especificado información de configuración incorrecta, primero intente ejecutar de nuevo este procedimiento. Si no se soluciona el problema, realice el procedimiento Cómo anular la configuración del software Oracle Solaris Cluster para solucionar problemas de instalación en cada nodo que se haya configurado incorrectamente para suprimirlo de la configuración del clúster. No es necesario que desinstale los paquetes de software Oracle Solaris Cluster. A continuación, vuelva a realizar este procedimiento.

Pasos siguientes

Si pretende configurar algún dispositivo del quórum en el clúster, vaya a Cómo configurar dispositivos del quórum.

De lo contrario, vaya a Cómo verificar los modos de configuración e instalación del quórum.

Cómo configurar el software Oracle Solaris Cluster en todos los nodos (XML)

Lleve a cabo este procedimiento para configurar un clúster global nuevo mediante un archivo XML de configuración del clúster. El clúster nuevo puede ser un reflejo de un clúster existente que ejecute el software Oracle Solaris Cluster 3.3 5/11.

Mediante este procedimiento, se configuran los siguientes componentes del clúster:

Antes de empezar

Realice las siguientes tareas:

  1. Asegúrese de que el software Oracle Solaris Cluster 3.3 5/11 no esté instalado todavía en los nodos potenciales del clúster.
    1. Conviértase en superusuario en alguno de los nodos que desee configurar en el clúster nuevo.
    2. Determine si el software Oracle Solaris Cluster está o no configurado en el nodo potencial.
      phys-schost# /usr/sbin/clinfo -n
      • Si el comando devuelve el mensaje que se muestra a continuación, vaya al paso c.
        clinfo: node is not configured as part of acluster: Operation not applicable

        Este mensaje indica que el software Oracle Solaris Cluster todavía no se ha configurado en el nodo potencial.

      • Si el comando devuelve el número de ID del nodo, no realice este procedimiento.

        La devolución de un ID de nodo indica que el software Oracle Solaris Cluster ya está configurado en el nodo.

        Si el clúster ejecuta una versión anterior del software Oracle Solaris Cluster y desea instalar el software Oracle Solaris Cluster 3.3 5/11, realice los procedimientos de actualización recogidos en Oracle Solaris Cluster Upgrade Guide.

    3. Repita los pasos a y b en el resto de los nodos potenciales que desee configurar en el clúster nuevo.

      Si el software Oracle Solaris Cluster aún no se ha configurado en ningún nodo potencial del clúster, vaya al paso 2.

  2. Si utiliza conmutadores en la interconexión privada del nuevo clúster, asegúrese de que el Protocolo de detección de elementos próximos (NDP) esté inhabilitado.

    Siga los procedimientos incluidos en la documentación de los conmutadores para determinar si NDP está habilitado o si debe inhabilitar este protocolo.

    Durante la configuración del clúster, el software comprueba que no haya tráfico en la interconexión privada. Si NDP envía paquetes a un adaptador privado cuando se está comprobando si hay tráfico en la interconexión privada, el software presupondrá que la interconexión no es privada y se interrumpirá la configuración del clúster. Por lo tanto, NDP debe inhabilitarse durante la creación del clúster.

    Una vez establecido el clúster, puede volver a habilitar NDP en los conmutadores de interconexión privada si desea utilizar esta función.

  3. Si está creando un reflejo de un clúster existente que ejecuta el software Oracle Solaris Cluster 3.3 5/11, utilice un nodo de ese clúster para crear un archivo XML de configuración del clúster.
    1. Conviértase en superusuario en un miembro activo del clúster que desee reflejar.
    2. Exporte la información de la configuración del clúster existente a un archivo.
      phys-schost# cluster export -o clconfigfile
      -o

      Especifica el destino de salida.

      clconfigfile

      Nombre del archivo XML de configuración del clúster. El nombre de archivo especificado puede ser un archivo existente o un archivo nuevo que el comando creará.

      Para obtener más información, consulte la página de comando man cluster(1CL).

    3. Copie el archivo de configuración en el nodo potencial desde el que configurará el clúster nuevo.

      Puede almacenar el archivo en cualquier directorio accesible para el resto de los hosts que configurará como nodos del clúster.

  4. Conviértase en superusuario en el nodo potencial desde el que configurará el clúster nuevo.
  5. Modifique el archivo XML de configuración del clúster según sea necesario.
    1. Abra el archivo XML de configuración del clúster para editarlo.
      • Si va a crear un reflejo de un clúster existente, abra el archivo que creó con el comando cluster export.
      • Si no va a crear un reflejo de un clúster existente, cree un archivo nuevo.

        Base el archivo en la jerarquía de elementos que se muestra en la página de comando man clconfiguration(5CL). Puede almacenar el archivo en cualquier directorio accesible para el resto de los hosts que configurará como nodos del clúster.

    2. Modifique los valores de los elementos XML para reflejar la configuración de clúster que desea crear.
      • Para poder establecer un clúster, los siguientes componentes deben poseer valores válidos en el archivo XML de configuración del clúster:

        • Nombre del clúster

        • Nodos del clúster

        • Transporte del clúster

      • Al crear el clúster, se asume que la partición /globaldevices existe en todos los nodos que configure como nodos del clúster. El espacio de nombres de los dispositivos globales se crea en esa partición. Si necesita utilizar un nombre de sistema de archivos distinto para crear los dispositivos globales, agregue la propiedad que aparece a continuación al elemento <propertyList> de los nodos que no tengan una partición denominada /globaldevices.

        …
          <nodeList>
            <node name="node" id="N">
              <propertyList>
        …
                <property name="globaldevfs" value="/filesystem-name">
        …
              </propertyList>
            </node>
        …

        Si prefiere utilizar un dispositivo lofi para el espacio de nombres de los dispositivos globales, establezca el valor de la propiedad globaldevfs en lofi.

                <property name="globaldevfs" value="lofi">
      • Cuando modifique información de configuración exportada desde un clúster existente, tenga en cuenta que se utilizan algunos valores que deben cambiar para reflejar el nuevo clúster, como los nombres de nodo, en las definiciones de varios objetos del clúster.

      Consulte la página de comando man clconfiguration(5CL) para obtener información detallada sobre la estructura y el contenido del archivo XML de configuración del clúster.

  6. Valide el archivo XML de configuración del clúster.
    phys-schost# /usr/share/src/xmllint --valid --noout clconfigfile

    Consulte la página de comando man xmllint(1) para obtener más información.

  7. Cree el clúster desde el nodo potencial que contiene el archivo XML de configuración del clúster.
    phys-schost# cluster create -i clconfigfile
    -i clconfigfile

    Especifica el nombre del archivo XML de configuración del clúster que se va a utilizar como fuente de entrada.

  8. Compruebe en todos los nodos que los servicios multiusuario para la Utilidad de gestión de servicios (SMF) estén en línea.

    Si los servicios todavía no están en línea para un nodo, espere hasta que cambie el estado y aparezca como en línea antes de continuar con el siguiente paso.

    phys-schost# svcs multi-user-server node
    STATE          STIME    FMRI
    online         17:52:55 svc:/milestone/multi-user-server:default
  9. Desde un nodo, compruebe que todos los nodos se hayan unido al clúster.
    phys-schost# clnode status

    La salida presenta un aspecto similar al siguiente.

    === Cluster Nodes ===
    
    --- Node Status ---
    
    Node Name                                       Status
    ---------                                       ------
    phys-schost-1                                   Online
    phys-schost-2                                   Online
    phys-schost-3                                   Online

    Para obtener más información, consulte la página de comando man clnode(1CL).

  10. Instale los parches necesarios para que el software Oracle Solaris Cluster sea compatible, si todavía no lo ha hecho.

    Consulte Niveles de firmware y parches necesarios de Notas de la versión de Oracle Solaris Cluster 3.3 5/11 para conocer la ubicación de los parches y las instrucciones de instalación.

  11. Si tiene intención de utilizar Oracle Solaris Cluster HA para NFS (HA para NFS) en un sistema de archivos local de alta disponibilidad, asegúrese de que el sistema de archivos de bucle invertido (LOFS) esté inhabilitado.

    Para inhabilitarlo, agregue la siguiente entrada al archivo /etc/system en cada uno de los nodos del clúster.

    exclude:lofs

    El cambio realizado en el archivo /etc/system se aplicará en el siguiente reinicio del sistema.


    Nota - No puede tener habilitado LOFS si utiliza HA para NFS en un sistema de archivos de alta disponibilidad y automountd se está ejecutando. LOFS puede provocar problemas de conmutación en HA para NFS. Si decide agregar HA para NFS en un sistema de archivos local de alta disponibilidad, realice uno de los siguientes cambios de configuración.

    Sin embargo, si configura zonas no globales en el clúster, debe habilitar LOFS en todos los nodos del clúster. Si HA para NFS se encuentra en un sistema de archivos local de alta disponibilidad y debe coexistir con LOFS, utilice una de las demás soluciones en lugar de inhabilitar LOFS.

    • Inhabilite LOFS.

    • Inhabilite el daemon automountd.

    • Excluya de la asignación de montaje automático todos los archivos que formen parte del sistema de archivos local de alta disponibilidad exportado por HA para NFS. Esta opción permite mantener habilitados tanto LOFS como el daemon automountd.


    Consulte The Loopback File System de System Administration Guide: Devices and File Systems para obtener información sobre los sistemas de archivos de bucle invertido.

  12. Para crear reflejos de la información del quórum de un clúster existente, configure el dispositivo del quórum con el archivo XML de configuración del clúster.

    Debe configurar un dispositivo del quórum si ha creado un clúster de dos nodos. Si decide no utilizar el archivo XML de configuración del clúster para crear un dispositivo del quórum requerido, vaya a Cómo configurar dispositivos del quórum.

    1. Si utiliza un servidor de quórum como dispositivo del quórum, asegúrese de que el servidor esté configurado y funcione correctamente.

      Siga las instrucciones incluidas en Instalación y configuración del software Servidor de quórum.

    2. Si utiliza un dispositivo NAS como dispositivo del quórum, asegúrese de que esté configurado y operativo.
      1. Tenga en cuenta los requisitos para la utilización de un dispositivo NAS como dispositivo del quórum.

        Consulte Oracle Solaris Cluster 3.3 With Network-Attached Storage Device Manual .

      2. Siga las instrucciones de la documentación del dispositivo NAS para configurarlo.
    3. Asegúrese de que la información de configuración del quórum incluida en el archivo XML de configuración del clúster refleje valores válidos para el clúster que ha creado.
    4. Si ha realizado cambios en el archivo XML de configuración del clúster, valídelo.
      phys-schost# xmllint --valid --noout clconfigfile
    5. Configure el dispositivo del quórum.
      phys-schost# clquorum add -i clconfigfile devicename
      nombre_dispositivo

      Especifica el nombre del dispositivo que se va a configurar como dispositivo del quórum.

  13. Abandone el modo de instalación del clúster.
    phys-schost# clquorum reset
  14. Impida el acceso de máquinas que no estén configuradas como miembros del clúster a la configuración del mismo.
    phys-schost# claccess deny-all
  15. (Opcional) Habilite el reinicio automático de nodos cuando todas las rutas de disco compartido supervisadas presenten errores.
    1. Habilite el reinicio automático.
      phys-schost# clnode set -p reboot_on_path_failure=enabled
      -p

      Especifica la propiedad que se va a establecer.

      reboot_on_path_failure=enable

      Habilita el reinicio automático del nodo en caso de producirse un error en las rutas de discos compartidos supervisados.

    2. Compruebe que el reinicio automático tras un error de ruta de disco se encuentre habilitado.
      phys-schost# clnode show
      === Cluster Nodes ===                          
      
      Node Name:                                      node
      …
        reboot_on_path_failure:                          enabled
      …

Ejemplo 3-2 Configuración del software Oracle Solaris Cluster en todos los nodos utilizando un archivo XML

En el siguiente ejemplo, se crea el reflejo de la configuración del clúster y del quórum de un clúster de dos nodos existente en un clúster de dos nodos nuevo. El clúster nuevo se instala con el SO Solaris 10 y se configura sin zonas no globales. La configuración del clúster se exporta desde el nodo del clúster existente, phys-oldhost-1, al archivo XML de configuración del clúster clusterconf.xml. Los nombres de los nodos del clúster nuevo son phys-newhost-1 y phys-newhost-2. El dispositivo que se configura como dispositivo del quórum en el nuevo clúster es d3.

El nombre de indicador phys-newhost-N de este ejemplo señala que el comando se ejecuta en los dos nodos del clúster.

phys-newhost-N# /usr/sbin/clinfo -n
clinfo: node is not configured as part of acluster: Operation not applicable
 
phys-oldhost-1# cluster export -o clusterconf.xml
Copy clusterconf.xml to phys-newhost-1 and modify the file with valid values
 
phys-newhost-1# xmllint --valid --noout clusterconf.xml
No errors are reported
 
phys-newhost-1# cluster create -i clusterconf.xml
phys-newhost-N# svcs multi-user-server
STATE          STIME    FMRI
online         17:52:55 svc:/milestone/multi-user-server:default
phys-newhost-1# clnode status
Output shows that both nodes are online
 
phys-newhost-1# clquorum add -i clusterconf.xml d3
phys-newhost-1# clquorum reset

Errores más frecuentes

Configuración incorrecta: si uno o varios nodos no se pueden incorporar al clúster, o si se ha especificado información de configuración incorrecta, primero intente ejecutar de nuevo este procedimiento. Si no se soluciona el problema, realice el procedimiento Cómo anular la configuración del software Oracle Solaris Cluster para solucionar problemas de instalación en cada nodo que se haya configurado incorrectamente para suprimirlo de la configuración del clúster. No es necesario que desinstale los paquetes de software Oracle Solaris Cluster. A continuación, vuelva a realizar este procedimiento.

Pasos siguientes

Vaya a Cómo verificar los modos de configuración e instalación del quórum.

Véase también

Una vez que se haya establecido completamente el clúster, puede crear reflejos de la configuración del resto de los componentes del clúster existente. Si aún no lo ha hecho, modifique los valores de los elementos XML que desee para reflejar la configuración del clúster a la que va a agregar el componente. Por ejemplo, si va a crear reflejos de grupos de recursos, asegúrese de que la entrada <resourcegroupNodeList> contenga nombres de nodo válidos para el clúster nuevo y no los nombres de nodo del clúster que ha reflejado, a no ser que ambos coincidan.

Para crear reflejos de un componente del clúster, ejecute el subcomando export del comando orientado a objetos en el componente del clúster que desee reflejar. Para obtener más información acerca de la sintaxis y las opciones del comando, consulte la página de comando man del objeto del clúster que desee reflejar. En la tabla que aparece a continuación, se muestran los componentes del clúster que se pueden crear desde un archivo XML de configuración del clúster una vez que éste se haya establecido, así como la página de comando man correspondiente al comando que se utiliza para crear reflejos del componente.

Componente del clúster
Página de comando man
Instrucciones especiales
Grupos de dispositivos: Solaris Volume Manager y Veritas Volume Manager
En el caso de Solaris Volume Manager, cree en primer lugar los conjuntos de discos que especifique en el archivo XML de configuración del clúster.

En cuanto a VxVM, instale y configure en primer lugar el software VxVM y cree los grupos de discos que especifique en el archivo XML de configuración del clúster.

Recursos
Puede utilizar la opción -a de los comandos clresource, clressharedaddress o clreslogicalhostname para crear reflejos del tipo y el grupo de recursos asociados al recurso que va a reflejar.

Si no la utiliza, debe agregar primero el tipo y el grupo del recurso al clúster antes de añadir el recurso.

Recursos de dirección compartida
Recursos de nombre de host lógico
Tipos de recursos
Grupos de recursos
Dispositivos NAS
Debe configurar, en primer lugar, el dispositivo NAS, tal como se describe en la documentación del dispositivo.
Hosts SNMP
El comando clsnmphost create -i requiere que se especifique un archivo de contraseña de usuario con la opción -f.
Usuarios de SNMP
Umbrales de los recursos del sistema de supervisión en los objetos del clúster

Cómo instalar el software de Solaris y Oracle Solaris Cluster (JumpStart)

En este procedimiento, se describe cómo configurar y utilizar el método de instalación personalizada scinstall(1M) de JumpStart. Mediante este método se instalan tanto el SO Solaris como el software Oracle Solaris Cluster en todos los nodos del clúster global y se establece el clúster. También puede utilizar este procedimiento para agregar nodos nuevos a un clúster existente.

Antes de empezar

Realice las siguientes tareas:

Siga estas directrices para usar la utilidad scinstall interactiva en este procedimiento:

  1. Configure el servidor de instalación de JumpStart.

    Asegúrese de que el servidor de instalación de JumpStart cumpla los siguientes requisitos:

    • El servidor de instalación se encuentra en la misma subred que los nodos del clúster o en el servidor de inicio de Solaris de la subred que utilizan los nodos.

    • El servidor de instalación no es un nodo del clúster.

    • El servidor de instalación instala una versión del SO Solaris compatible con el software Oracle Solaris Cluster.

    • Existe un directorio JumpStart personalizado para la instalación del software Oracle Solaris Cluster. Este directorio dir_jumpstart debe cumplir los siguientes requisitos:

      • Contener una copia de la utilidad check.

      • Ser exportado mediante NFS para que lo lea el servidor de instalación de JumpStart.

    • Cada nuevo nodo del clúster se configura como un cliente de la instalación personalizada de JumpStart que utiliza el directorio JumpStart personalizado que se ha configurado para la instalación de Oracle Solaris Cluster.

    Siga las instrucciones correspondientes a su plataforma de software y su versión de SO para configurar el servidor de instalación de JumpStart. Consulte Creación de un servidor de perfiles para sistemas conectados en red de Guía de instalación de Solaris 10 10/09: instalación JumpStart personalizada e instalaciones avanzadas.

    Consulte también las páginas de comando man setup_install_server(1M) y add_install_client(1M).

  2. Si instala un nodo nuevo en un clúster existente, agréguelo a la lista de nodos de clúster autorizados.
    1. Pase a otro nodo activo del clúster e inicie la utilidad clsetup.
    2. Use la utilidad clsetup para agregar el nombre del nodo nuevo a la lista de nodos de clúster autorizados.

    Para obtener más información, consulte Adición de un nodo a la lista de nodos autorizados de Guía de administración del sistema de Oracle Solaris Cluster.

  3. En un nodo de clúster u otra máquina de la misma plataforma de servidor, instale el SO Solaris y los parches necesarios si aún no lo ha hecho.

    Si el software de Solaris ya está instalado en el servidor, debe comprobar que la instalación de Solaris cumpla los requisitos del software Oracle Solaris Cluster y cualquier otro software que pretenda instalar en el clúster. Consulte la sección Cómo instalar el software de Solaris para obtener más información sobre cómo instalar el software de Solaris de forma que cumpla los requisitos del software Oracle Solaris Cluster.

    Siga los procedimientos descritos en Cómo instalar el software de Solaris.

  4. (Opcional) SPARC: Instale el software Sun Logical Domains (LDoms) y cree los dominios si todavía no lo ha hecho.

    Siga los procedimientos descritos en SPARC: Instalación del software Sun Logical Domains y creación de dominios.

  5. Instale el software Oracle Solaris Cluster y los parches necesarios en el sistema instalado si todavía no lo ha hecho.

    Siga los procedimientos descritos en Cómo instalar los paquetes de software de los servicios de datos y la estructura de Oracle Solaris Cluster.

    Consulte Niveles de firmware y parches necesarios de Notas de la versión de Oracle Solaris Cluster 3.3 5/11 para conocer la ubicación de los parches y las instrucciones de instalación.

  6. Habilite el inicio automático del daemon de contenedor de agentes común al iniciar el sistema.
    machine# cacaoadm enable
  7. En el sistema instalado, actualice el archivo /etc/inet/hosts con todas las direcciones IP públicas que se utilizan en el clúster.

    Realice este paso independientemente de si está utilizando un servicio de nombres. Consulte la lista de componentes de Oracle Solaris Cluster cuyas direcciones IP debe agregar en Direcciones IP de red pública.

  8. En el sistema instalado, restablezca Oracle Java Web Console a su estado inicial sin configurar.

    El comando especificado más abajo elimina la información de la configuración de la consola web. Parte de esta información de configuración es específica del sistema instalado. Debe eliminar esta información antes de crear el archivo de almacenamiento flash. De lo contrario, la información de configuración transferida al nodo del clúster podría impedir que la consola web se iniciara o que interactuara correctamente con el nodo.

    # /usr/share/webconsole/private/bin/wcremove -i console

    Una vez instale la consola web no configurada en el nodo del clúster y la inicie por primera vez, ésta ejecutará automáticamente su configuración inicial y utilizará la información del nodo del clúster.

    Para obtener más información acerca del comando wcremove, consulte Oracle Java Web Console User Identity de System Administration Guide: Basic Administration.

  9. Cree el archivo de almacenamiento flash del sistema instalado.

    Siga los procedimientos que se explican en el Capítulo 3, Creación de contenedores Solaris Flash (tareas) de Guía de instalación de Solaris 10 10/09: contenedores Flash de Solaris (creación e instalación).

    machine# flarcreate -n name archive
    -n name

    Nombre para el archivo de almacenamiento flash.

    archivo

    Nombre de archivo para el archivo de almacenamiento flash, con la ruta completa. Como norma general, el nombre del archivo debe terminar en .flar.

  10. Asegúrese de que el archivo de almacenamiento se exporte mediante NFS para que el servidor de instalación de JumpStart lo lea.

    Consulte el Capítulo 4, Gestión de sistemas de archivos de red (descripción general) de Guía de administración del sistema: servicios de red para obtener más información acerca del uso automático de archivos compartidos.

    Consulte, además, las páginas de comando man share(1M) y dfstab(4).

  11. Conviértase en superusuario en el servidor de instalación de JumpStart.
  12. Inicie la utilidad scinstall(1M) desde el servidor de instalación de JumpStart.

    En la ruta de medios, sustituya arch por sparc o x86 y ver por 10 en el caso de Solaris 10.

    installserver# cd /cdrom/cdrom0Solaris_arch/Product/sun_cluster/ \
    Solaris_ver/Tools/
    
    installserver# ./scinstall

    Aparecerá el menú principal de scinstall.

  13. Seleccione el elemento de menú Configurar un clúster para que se le aplique JumpStart desde este servidor de instalación.

    Esta opción se utiliza para configurar las secuencias de comandos de finalización personalizadas de JumpStart. JumpStart utiliza estas secuencias de comandos de finalización para instalar el software Oracle Solaris Cluster.

     *** Main Menu ***
     
        Please select from one of the following (*) options:
    
          * 1) Create a new cluster or add a cluster node
          * 2) Configure a cluster to be JumpStarted from this install server
            3) Manage a dual-partition upgrade
            4) Upgrade this cluster node
          * 5) Print release information for this cluster node 
    
          * ?) Help with menu options
          * q) Quit
     
        Option:  2
  14. Siga las indicaciones en el menú para proporcionar respuestas de la hoja de trabajo para la planificación de la configuración.

    El comando scinstall almacena la información de configuración y copia el archivo class predeterminado autoscinstall.class en el directorio /dir_jumpstart/autoscinstall.d/3.2/. Este archivo es parecido al del siguiente ejemplo.

    install_type    initial_install
    system_type     standalone
    partitioning    explicit
    filesys         rootdisk.s0 free /
    filesys         rootdisk.s1 750  swap
    filesys         rootdisk.s3 512  /globaldevices
    filesys         rootdisk.s7 20
    cluster         SUNWCuser        add
    package         SUNWman          add
  15. Si fuera necesario, realice ajustes en el archivo autoscinstall.class para configurar JumpStart de modo que instale el archivo de almacenamiento flash.
    1. Modifique las entradas según sea necesario para que coincidan con la configuración que realizó cuando instaló el SO Solaris en la máquina del archivo de almacenamiento flash o cuando ejecutó la utilidad scinstall.

      Por ejemplo, si asignó el segmento 4 al sistema de archivos de dispositivos globales y especificó a scinstall que el nombre del sistema de archivos es /gdevs, tendría que cambiar la entrada /globaldevices del archivo autoscinstall.class de la siguiente manera:

      filesys         rootdisk.s4 512  /gdevs
    2. Modifique las siguientes entradas del archivo autoscinstall.class.
      Entrada existente que se ha de sustituir
      Entrada nueva que se agrega
      install_type
      initial_install
      install_type
      flash_install
      system_type
      standalone
      archive_location
      ubicación_tipo_recuperación

      Consulte la palabra clave archive_location en Palabra clave archive_location de Guía de instalación de Solaris 10 10/09: instalación JumpStart personalizada e instalaciones avanzadas para obtener información acerca de los valores válidos para tipo_recuperación y ubicación cuando se utilizan con la palabra clave archive_location.

    3. Suprima todas las entradas que pudieran instalar un paquete específico, como las que aparecen a continuación.
      cluster         SUNWCuser        add
      package         SUNWman          add
    4. Si desea utilizar un dispositivo lofi para el espacio de nombres de dispositivos globales, elimine la entrada filesys en la partición /globaldevices.
    5. Si su configuración tuviera requisitos del software de Solaris adicionales, modifique el archivo autoscinstall.class según corresponda.

      El archivo autoscinstall.class instala el grupo de software de usuario final de Solaris (SUNWCuser).

    6. Si ha instalado el grupo de software de Solaris de usuario final (SUNWCuser ), añada al archivo autoscinstall.class cualquier paquete de software de Solaris adicional que pueda necesitar.

      En la tabla que aparece a continuación, se muestran los paquetes de Solaris necesarios para que algunas funciones de Oracle Solaris Cluster sean compatibles. Estos paquetes no se incluyen en el grupo de software de usuario final de Solaris. Consulte Consideraciones sobre los grupos de software de Solaris para obtener más información.


      Función
      Paquetes de software de Solaris obligatorios
      scsnapshot
      SUNWp15u SUNWp15v SUNWp15p
      Oracle Solaris Cluster Manager
      SUNWapchr SUNWapchu

    Puede cambiar el archivo class predeterminado de las siguientes formas:

    • Edite el archivo autoscinstall.class directamente. Estos cambios se aplican a todos los nodos de todos los clústeres que utilicen este directorio JumpStart personalizado.

    • Actualice el archivo rules para que apunte a otros perfiles y, a continuación, ejecute la utilidad check para validar el archivo rules.

    Siempre que el perfil de instalación del SO Solaris cumpla los requisitos mínimos de asignación de sistema de archivos de Oracle Solaris Cluster, el software Oracle Solaris Cluster no pondrá ninguna restricción a la realización de otros cambios en el perfil de instalación. Consulte Particiones de disco del sistema para conocer las directrices relativas a las particiones, así como los requisitos para que el software Oracle Solaris Cluster sea compatible.

    Para obtener más información acerca de los perfiles de JumpStart, consulte el Capítulo 3, Preparación de instalaciones JumpStart personalizadas (tareas) de Guía de instalación de Solaris 10 10/09: instalación JumpStart personalizada e instalaciones avanzadas.

  16. Para efectuar cualquier otra tarea posterior a la instalación, configure su propia secuencia de comandos finish.

    Su propia secuencia de comandos de finalización se ejecuta después de la secuencia de comandos de finalización estándar instalada por el comando scinstall. Consulte la información sobre la preparación de instalaciones mediante JumpStart personalizadas en el Capítulo 3, Preparación de instalaciones JumpStart personalizadas (tareas) de Guía de instalación de Solaris 10 10/09: instalación JumpStart personalizada e instalaciones avanzadas para obtener información acerca de la creación de secuencias de comandos de finalización de JumpStart.

    1. Asegúrese de que el archivo class instale los paquetes de dependencia de Solaris.

      Consulte el Paso 15.

    2. Dé el nombre de finish a su secuencia de comandos de finalización.
    3. Realice las modificaciones pertinentes para que la secuencia de comandos finish realice las tareas posteriores a la instalación que desee.
    4. Copie la secuencia de comandos finish en cada directorio jumpstart_dir/autoscinstall.d/nodes/nodo.

      Cree un directorio nodo para cada nodo del clúster. También puede utilizar esta convención de nomenclatura para crear vínculos simbólicos en una secuencia de comandos finish compartida.

  17. Salga del servidor de instalación de JumpStart.
  18. Si utiliza conmutadores en la interconexión privada del nuevo clúster, asegúrese de que el Protocolo de detección de elementos próximos (NDP) esté inhabilitado.

    Siga los procedimientos incluidos en la documentación de los conmutadores para determinar si NDP está habilitado o si debe inhabilitar este protocolo.

    Durante la configuración del clúster, el software comprueba que no haya tráfico en la interconexión privada. Si NDP envía paquetes a un adaptador privado cuando se está comprobando si hay tráfico en la interconexión privada, el software presupondrá que la interconexión no es privada y se interrumpirá la configuración del clúster. Por lo tanto, NDP debe inhabilitarse durante la creación del clúster.

    Una vez establecido el clúster, puede volver a habilitar NDP en los conmutadores de interconexión privada si desea utilizar esta función.

  19. Si utiliza una consola de administración para el clúster, abra una pantalla de la consola para cada nodo del clúster.
    • Si el software Cluster Control Panel (CCP) se encuentra instalado y configurado en la consola de administración, use la utilidad cconsole(1M) para que se muestren las pantallas individuales de la consola.

      Utilice el siguiente comando, como superusuario, para iniciar la utilidad cconsole:

      adminconsole# /opt/SUNWcluster/bin/cconsole clustername &

      La utilidad cconsole abre, además, una ventana maestra desde la que puede enviar los datos introducidos a todas las ventanas individuales de la consola al mismo tiempo.

    • Si no usa la utilidad cconsole, conecte con la consola de cada nodo por separado.
  20. Cierre todos los nodos.
    phys-schost# shutdown -g0 -y -i0
  21. Arranque los nodos para comenzar la instalación mediante JumpStart.
    • En sistemas basados en SPARC, haga lo siguiente:
      ok boot net - install

      Nota - Deje un espacio a cada lado del guión (-) en el comando.


    • En sistemas basados en x86, haga lo siguiente:
      1. Pulse cualquier tecla para comenzar con la secuencia de inicio.
        Press any key to reboot.
        keystroke
      2. Cuando aparezca la pantalla de información de la BIOS, pulse Esc+2 o la tecla F2 inmediatamente.

        Cuando la secuencia de inicialización finalice, aparecerá la pantalla de la utilidad de configuración de la BIOS.

      3. En la barra de menús de la utilidad de configuración de la BIOS, vaya al elemento de menú Boot (Arranque).

        Aparece la lista de dispositivos de inicio.

      4. Vaya al IBA de la lista que esté conectado a la misma red que el servidor de instalación PXE de JumpStart y colóquelo en primer lugar en el orden de inicio.

        El número más bajo de los que aparecen a la derecha de las opciones de inicio IBA corresponde al número de puerto Ethernet más bajo. El número más alto de los que aparecen a la derecha de las opciones de inicio IBA corresponde al número de puerto Ethernet más alto.

      5. Guarde el cambio y salga de la BIOS.

        La secuencia de inicio vuelve a comenzar. Tras otros procesos, se muestra el menú GRUB.

      6. Seleccione inmediatamente la entrada de JumpStart de Solaris y pulse Intro.

        Nota - Si la entrada de JumpStart de Solaris es la única de la lista, también puede esperar hasta que se agote el tiempo de espera de la pantalla de selección. Si no responde en 30 segundos, el sistema continúa automáticamente con la secuencia de inicio.


        GNU GRUB version 0.95 (631K lower / 2095488K upper memory)
        +-------------------------------------------------------------------------+
        | Solaris_10 Jumpstart                                                    |
        |                                                                         |
        |                                                                         |
        +-------------------------------------------------------------------------+
        Use the ^ and v keys to select which entry is highlighted.
        Press enter to boot the selected OS, 'e' to edit the
        commands before booting, or 'c' for a command-line.

        Después de otros procesos, aparece el menú de tipo de instalación.

      7. En este menú, escriba inmediatamente el número del menú correspondiente a JumpStart personalizado.

        Nota - Si no escribe el número correspondiente a JumpStart personalizado antes de que finalice el periodo de espera de 30 segundos, el sistema inicia automáticamente la instalación interactiva de Solaris.


              Select the type of installation you want to perform:
        
                 1 Solaris Interactive
                 2 Custom JumpStart
                 3 Solaris Interactive Text (Desktop session)
                 4 Solaris Interactive Text (Console session)
                 5 Apply driver updates
                 6 Single user shell
        
                 Enter the number of your choice.
        2

        JumpStart instala el SO de Solaris y el software Oracle Solaris Cluster en todos los nodos. Una vez finalizada correctamente la instalación, todos los nodos se encuentran instalados completamente como nodos nuevos del clúster. La salida de la instalación de Oracle Solaris Cluster se registra en un archivo /var/cluster/logs/install/scinstall.log. N.

      8. Cuando vuelva a aparecer la pantalla de la BIOS, pulse inmediatamente Esc+2 o la tecla F2.

        Nota - Si no interrumpe la BIOS en ese momento, volverá automáticamente al menú de tipo de instalación. En ese menú, si no se introduce una opción en 30 segundos, el sistema inicia automáticamente una instalación interactiva.


        Después de otros procesos, aparece la utilidad de configuración de la BIOS.

      9. En la barra de menús, vaya al menú Boot (Arranque).

        Aparece la lista de dispositivos de inicio.

      10. Vaya a la entrada Disco duro y vuelva a colocarlo en primer lugar en el orden de inicio.
      11. Guarde el cambio y salga de la BIOS.

        La secuencia de inicio vuelve a comenzar. No se necesita más interacción con el menú GRUB para finalizar el inicio en el modo de clúster.

  22. Compruebe en todos los nodos que los servicios multiusuario para la Utilidad de gestión de servicios (SMF) estén en línea.

    Si los servicios todavía no están en línea para un nodo, espere hasta que cambie el estado y aparezca como en línea antes de continuar con el siguiente paso.

    phys-schost# svcs multi-user-server node
    STATE          STIME    FMRI
    online         17:52:55 svc:/milestone/multi-user-server:default
  23. Si instala un nodo nuevo en un clúster existente, cree puntos de montaje en el nuevo nodo para todos los sistemas de archivos de clúster existentes.
    1. Muestre los nombres de todos los sistemas de archivos del clúster desde un nodo de clúster activo.
      phys-schost# mount | grep global | egrep -v node@ | awk '{print $1}'
    2. En el nodo que ha agregado al clúster, cree un punto de montaje para cada sistema de archivos del clúster.
      phys-schost-new# mkdir -p mountpoint

      Por ejemplo, si un nombre de sistema de archivos devuelto por el comando de montaje es /global/dg-schost-1, ejecute mkdir -p /global/dg-schost-1 en el nodo que está agregando al clúster.


      Nota - Los puntos de montaje se activan tras el reinicio del clúster en el Paso 28.


    3. Si Veritas Volume Manager (VxVM) está instalado en algún nodo de los que ya existen en el clúster, consulte el número vxio de cada nodo con VxVM instalado.
      phys-schost# grep vxio /etc/name_to_major
      vxio NNN
      • Asegúrese de que se utilice el mismo número vxio en todos los nodos con VxVM instalado.

      • Asegúrese de que el uso del número vxio esté disponible para todos los nodos que no tengan VxVM instalado.

      • Si el número vxio ya se está utilizando en un nodo que no tiene VxVM instalado, libere el número en ese nodo. Cambie la entrada /etc/name_to_major para utilizar un número distinto.

  24. (Opcional) Si desea utilizar la reconfiguración dinámica en un servidor Sun Enterprise 10000 agregue la entrada que aparece a continuación al archivo /etc/system de cada nodo del clúster.
    set kernel_cage_enable=1

    Esta entrada se aplicará una vez reiniciado el sistema. Consulte Guía de administración del sistema de Oracle Solaris Cluster para obtener información sobre los procedimientos de reconfiguración dinámica en una configuración de Oracle Solaris Cluster. Consulte la documentación del servidor para obtener más información sobre la reconfiguración dinámica.

  25. Si tiene intención de utilizar Oracle Solaris Cluster HA para NFS (HA para NFS) en un sistema de archivos local de alta disponibilidad, asegúrese de que el sistema de archivos de bucle invertido (LOFS) esté inhabilitado.

    Para inhabilitarlo, agregue la siguiente entrada al archivo /etc/system en cada uno de los nodos del clúster.

    exclude:lofs

    El cambio realizado en el archivo /etc/system se aplicará en el siguiente reinicio del sistema.


    Nota - No puede tener habilitado LOFS si utiliza HA para NFS en un sistema de archivos de alta disponibilidad y automountd se está ejecutando. LOFS puede provocar problemas de conmutación en HA para NFS. Si decide agregar HA para NFS en un sistema de archivos local de alta disponibilidad, realice uno de los siguientes cambios de configuración.

    Sin embargo, si configura zonas no globales en el clúster, debe habilitar LOFS en todos los nodos del clúster. Si HA para NFS se encuentra en un sistema de archivos local de alta disponibilidad y debe coexistir con LOFS, utilice una de las demás soluciones en lugar de inhabilitar LOFS.

    • Inhabilite LOFS.

    • Inhabilite el daemon automountd.

    • Excluya de la asignación de montaje automático todos los archivos que formen parte del sistema de archivos local de alta disponibilidad exportado por HA para NFS. Esta opción permite mantener habilitados tanto LOFS como el daemon automountd.


    Consulte The Loopback File System de System Administration Guide: Devices and File Systems para obtener información sobre los sistemas de archivos de bucle invertido.

  26. Si va a usar alguno de los adaptadores que se indican a continuación para la interconexión del clúster, quite el comentario de la entrada que corresponda en el archivo /etc/system de cada nodo.
    Adaptador
    Entrada
    ipge
    establecer ipge:ipge_taskq_disable=1
    ixge
    establecer ixge:ixge_taskq_disable=1

    Esta entrada se aplicará una vez reiniciado el sistema.

  27. x86: Establezca el archivo de inicio predeterminado.

    La configuración de este valor permite reiniciar el nodo cuando no pueda acceder a un indicador de inicio de sesión.

    grub edit> kernel /platform/i86pc/multiboot kmdb
  28. Si ha llevado a cabo una tarea que requiere un reinicio del clúster, siga los pasos que se describen más abajo para hacerlo.

    Estas son algunas de las tareas que requieren un reinicio:

    • la adición de un nodo nuevo a un clúster existente

    • la instalación de parches que requieren un reinicio del nodo o del clúster

    • la realización de cambios en la configuración que requieren un reinicio para surtir efecto.

    1. Conviértase en superusuario en un nodo.
    2. Cierre el clúster.
      phys-schost-1# cluster shutdown -y -g0 clustername

      Nota - No reinicie el primer nodo instalado en el clúster hasta después de que el clúster se haya cerrado. Hasta que se inhabilite el modo de instalación del clúster, sólo el primer nodo instalado (el que estableció el clúster) cuenta con un voto del quórum. Si un clúster establecido que está aún en el modo de instalación no se cierra antes de que se reinicie el primer nodo instalado, el resto de los nodos del clúster no pueden obtener quórum. En tal caso, el clúster completo se cerraría.

      Los nodos del clúster permanecen en el modo de instalación hasta que ejecute por primera vez el comando clsetup. Este comando se ejecuta durante el procedimiento Cómo configurar dispositivos del quórum.


    3. Reinicie todos los nodos del clúster.
      • En sistemas basados en SPARC, haga lo siguiente:
        ok boot
      • En sistemas basados en x86, haga lo siguiente:

        Cuando aparezca el menú GRUB, seleccione la entrada de Solaris que corresponda y pulse Intro. El menú de GRUB que aparece es similar al siguiente:

        GNU GRUB version 0.95 (631K lower / 2095488K upper memory)
        +-------------------------------------------------------------------------+
        | Solaris 10 /sol_10_x86                                                  |
        | Solaris failsafe                                                        |
        |                                                                         |
        +-------------------------------------------------------------------------+
        Use the ^ and v keys to select which entry is highlighted.
        Press enter to boot the selected OS, 'e' to edit the
        commands before booting, or 'c' for a command-line.

        Para obtener más información acerca del inicio mediante GRUB, consulte Booting an x86 Based System by Using GRUB (Task Map) de System Administration Guide: Basic Administration.

    La utilidad scinstall instala y configura todos los nodos del clúster y reinicia el clúster. El clúster se establecerá cuando todos los nodos se hayan iniciado satisfactoriamente en él. La salida de la instalación de Oracle Solaris Cluster se registra en un archivo /var/cluster/logs/install/scinstall.log. N.

  29. (Opcional) Si no ha llevado a cabo el Paso 28 para reiniciar los nodos, inicie el servidor web de Oracle Java Web Console manualmente en cada nodo.
    phys-schost# smcwebserver start

    Para obtener más información, consulte la página de comando man smcwebserver(1M).

  30. Desde un nodo, compruebe que todos los nodos se hayan unido al clúster.
    phys-schost# clnode status

    La salida presenta un aspecto similar al siguiente.

    === Cluster Nodes ===
    
    --- Node Status ---
    
    Node Name                                       Status
    ---------                                       ------
    phys-schost-1                                   Online
    phys-schost-2                                   Online
    phys-schost-3                                   Online

    Para obtener más información, consulte la página de comando man clnode(1CL).

  31. (Opcional) Habilite en cada nodo el reinicio automático del mismo en caso de que de todas las rutas de disco compartido supervisadas presenten errores.
    1. Habilite el reinicio automático.
      phys-schost# clnode set -p reboot_on_path_failure=enabled
      -p

      Especifica la propiedad que se va a establecer.

      reboot_on_path_failure=enable

      Habilita el reinicio automático del nodo en caso de producirse un error en las rutas de discos compartidos supervisados.

    2. Compruebe que el reinicio automático tras un error de ruta de disco se encuentre habilitado.
      phys-schost# clnode show
      === Cluster Nodes ===                          
      
      Node Name:                                      node
      …
        reboot_on_path_failure:                          enabled
      …

Pasos siguientes

Si ha agregado un nodo a un clúster de dos nodos, vaya a Cómo actualizar los dispositivos del quórum tras agregar un nodo a un clúster global.

De lo contrario, vaya al siguiente procedimiento que corresponda:

Errores más frecuentes

Opción scinstall inhabilitada: si la opción JumpStart del comando scinstall no presenta un asterisco delante significa que está inhabilitada. Esta condición indica que la configuración de JumpStart no se ha completado o bien hay un error en la misma. Para solucionar esta situación, en primer lugar salga de la utilidad scinstall. Repita los procedimientos del Paso 1 al Paso 16 para corregir la configuración de JumpStart y, a continuación, reinicie la utilidad scinstall.

Cómo preparar el clúster para nodos de clúster global adicionales

Realice este procedimiento en los nodos de clúster global existentes con el fin de preparar el clúster para la adición de nodos nuevos.

Antes de empezar

Realice las siguientes tareas:

  1. Si utiliza Cluster Control Panel (CCP), actualice los archivos de configuración en la consola de administración.
    1. Añada el nombre del nodo que va a agregar a la entrada del clúster en el archivo /etc/clusters.
    2. Agregue a los archivos /etc/serialports una entrada con el nombre del nodo nuevo, el nombre de host del dispositivo de acceso a la consola del nodo y el número de puerto.
  2. Agregue el nombre del nodo nuevo a la lista de nodos autorizados del clúster.
    1. Conviértase en superusuario en cualquier nodo.
    2. Inicie la utilidad clsetup.
      phys-schost# clsetup

      Aparece el menú principal.

    3. Seleccione el elemento de menú Nuevos nodos.
    4. Seleccione el elemento de menú Especificar el nombre de una máquina que tiene permiso para agregarse a sí misma.
    5. Siga las indicaciones para agregar el nombre del nodo a la lista de equipos conocidos.

      La utilidad clsetup muestra el mensaje Comando completado satisfactoriamente si la tarea se ha completado sin errores.

    6. Salga de la utilidad clsetup.
  3. Si va a agregar un nodo a un clúster de un solo nodo, asegúrese de que existan dos interconexiones de clúster comprobando la configuración de interconexión.
    phys-schost# clinterconnect show

    Debe haber configurado al menos dos cables o dos adaptadores para poder agregar un nodo.

    • Si aparece información de la configuración de dos cables o adaptadores en la salida, continúe con el Paso 4.
    • Si no aparece información de configuración de cables ni de adaptadores, o aparece información de la configuración de solo un cable o adaptador, configure nuevas interconexiones del clúster.
      1. Inicie la utilidad clsetup en un nodo.
        phys-schost# clsetup
      2. Seleccione el elemento de menú Interconexión del clúster.
      3. Seleccione el elemento de menú Agregar un cable de transporte.

        Siga las instrucciones para especificar el nombre del nodo que se va a agregar al clúster, el nombre de un adaptador de transporte y si se va a utilizar un conmutador de transporte.

      4. Si fuera necesario, repita el Paso c para configurar una segunda interconexión del clúster.
      5. Cuando termine, salga de la utilidad clsetup.
      6. Verifique que el clúster tenga ya dos interconexiones del clúster configuradas.
        phys-schost# clinterconnect show

        La salida del comando debería mostrar información de la configuración de al menos dos interconexiones del clúster.

  4. Asegúrese de que la configuración de la red privada admita los nodos y las redes privadas que va a agregar.
    1. Haga que se muestre el número máximo de nodos, de redes privadas y así como de clústeres de zona admitido por la configuración de red privada actual.
      phys-schost# cluster show-netprops

      La salida presenta un aspecto similar al siguiente:

      === Private Network ===                        
      
      private_netaddr:                                172.16.0.0
        private_netmask:                                255.255.240.0
        max_nodes:                                      64
        max_privatenets:                                10
        max_zoneclusters:                               12
    2. Determine si la configuración de red privada actual puede admitir el nuevo número de nodos, incluidas las zonas no globales y las redes privadas.

Pasos siguientes

Configure el software Oracle Solaris Cluster en los nuevos nodos del clúster. Vaya a Cómo configurar el software Oracle Solaris Cluster en nodos de clúster global adicionales (scinstall) o a Cómo configurar el software Oracle Solaris Cluster en nodos de clúster global adicionales (XML).

Cómo cambiar la configuración de red privada al agregar nodos o redes privadas

Realice esta tarea para cambiar el intervalo de direcciones IP privadas del clúster global con el fin de admitir un incremento en uno o varios de los siguientes componentes de clúster:

También puede utilizar este procedimiento para disminuir el intervalo de direcciones IP privadas.


Nota - Para llevar a cabo este procedimiento es necesario cerrar todo el clúster. Si necesita cambiar únicamente la máscara de red para, por ejemplo, proporcionar compatibilidad con los clústeres de zona, no realice este procedimiento. En lugar de ello, ejecute el siguiente comando desde un nodo del clúster global que se esté ejecutando en el modo de clúster para especificar el número de clústeres de zona programado:

phys-schost# cluster set-netprops num_zoneclusters=N

Este comando no requiere que se cierre el clúster.


Antes de empezar

Asegúrese de que acceso de shell remoto (rsh(1M)) o shell seguro (ssh(1)) para el superusuario esté habilitado para todos los nodos del clúster.

  1. Conviértase en superusuario en un nodo de clúster.
  2. Inicie la utilidad clsetup en un nodo.
    # clsetup

    Aparecerá el menú principal de clsetup.

  3. Establezca fuera de línea cada grupo de recursos.

    Si el nodo contiene zonas no globales, todos los grupos de recursos de las zonas se establecerán fuera de línea.

    1. Escriba el número correspondiente a la opción Grupos de recursos y pulse la tecla Intro.

      Aparece el menú de grupos de recursos.

    2. Escriba el número correspondiente a la opción Poner en línea/fuera de línea o conmutar un grupo de recursos y pulse la tecla Intro.
    3. Siga las indicaciones para establecer todos los grupos de recursos fuera de línea y en el estado no administrado.
    4. Cuando todos los grupos de recursos estén fuera de línea, escriba q para volver al menú de grupo de recursos.
  4. Inhabilite todos los recursos del clúster.
    1. Escriba el número correspondiente a la opción Habilitar/inhabilitar un recurso y pulse la tecla Intro.
    2. Seleccione un recurso para inhabilitarlo y siga las indicaciones.
    3. Repita el paso anterior para cada recurso que desee inhabilitar.
    4. Cuando se hayan inhabilitado todos los grupos de recursos, escriba q para volver al menú de grupo de recursos.
  5. Salga de la utilidad clsetup.
  6. Asegúrese de que todos los recursos de todos los nodos se encuentren Fuera de línea y de que todos los grupos de recursos presenten el estado No administrado.
    # cluster status -t resource,resourcegroup
    -t

    Limita la salida al objeto de clúster especificado.

    recurso

    Especifica los recursos.

    resourcegroup

    Especifica los grupos de recursos.

  7. Cierre el clúster desde un nodo.
    # cluster shutdown -g0 -y
    -g

    Especifica el tiempo de espera en segundos.

    -y

    Impide que se emita la solicitud de confirmación del cierre.

  8. Inicie cada nodo en el modo sin clúster.
    • En sistemas basados en SPARC, ejecute el siguiente comando:
      ok boot -x
    • En sistemas basados en x86, ejecute los siguientes comandos:
      1. Utilice las teclas de flecha del menú GRUB para seleccionar la entrada de Solaris adecuada y escriba e para editar sus comandos.

        El menú de GRUB que aparece es similar al siguiente:

        GNU GRUB version 0.97 (639K lower / 1047488K upper memory)
        +----------------------------------------------------------------------+
        | Solaris 10 /sol_10_x86                                               | 
        | Solaris failsafe                                                     |
        |                                                                      |
        +----------------------------------------------------------------------+
        Use the ^ and v keys to select which entry is highlighted.
        Press enter to boot the selected OS, 'e' to edit the
        commands before booting, or 'c' for a command-line.

        Para obtener más información acerca del inicio mediante GRUB, consulte Booting an x86 Based System by Using GRUB (Task Map) de System Administration Guide: Basic Administration.

      2. En la pantalla de parámetros de inicio, seleccione la entrada kernel y escriba e para editarla.

        La pantalla de los parámetros de inicio de GRUB que aparece es similar a la siguiente:

        GNU GRUB version 0.97 (639K lower / 1047488K upper memory)
        +----------------------------------------------------------------------+
        | root (hd0,0,a)                                                       | 
        | kernel /platform/i86pc/multiboot                                     | 
        | module /platform/i86pc/boot_archive                                  | 
        |+----------------------------------------------------------------------+
        Use the ^ and v keys to select which entry is highlighted.
        Press 'b' to boot, 'e' to edit the selected command in the
        boot sequence, 'c' for a command-line, 'o' to open a new line
        after ('O' for before) the selected line, 'd' to remove the
        selected line, or escape to go back to the main menu.
      3. Agregue -x al comando para especificar que el sistema se inicia en el modo sin clúster.
        [ Minimal BASH-like line editing is supported. For the first word, TAB
        lists possible command completions. Anywhere else TAB lists the possible
        completions of a device/filename. ESC at any time exits. ]
        
        grub edit> kernel /platform/i86pc/multiboot -x
      4. Pulse Intro para aceptar el cambio y volver a la pantalla de parámetros de inicio.

        La pantalla muestra el comando editado.

        GNU GRUB version 0.97 (639K lower / 1047488K upper memory)
        +----------------------------------------------------------------------+
        | root (hd0,0,a)                                                       |
        | kernel /platform/i86pc/multiboot -x                                  |
        | module /platform/i86pc/boot_archive                                  |
        +----------------------------------------------------------------------+
        Use the ^ and v keys to select which entry is highlighted.
        Press 'b' to boot, 'e' to edit the selected command in the
        boot sequence, 'c' for a command-line, 'o' to open a new line
        after ('O' for before) the selected line, 'd' to remove the
        selected line, or escape to go back to the main menu.-
      5. Escriba b para iniciar el nodo en el modo sin clúster.

        Nota - Este cambio en el comando del parámetro de inicio del núcleo no se conserva tras el inicio del sistema. La siguiente vez que reinicie el nodo, se iniciará en el modo de clúster. Si, por el contrario, desea iniciar en el modo sin clúster, siga estos pasos para volver a agregar la opción -x al comando del parámetro de inicio del núcleo.


  9. Inicie la utilidad clsetup desde un nodo.

    Cuando se ejecuta en un modo que no sea de clúster, la utilidad clsetup muestra el menú principal para operaciones de un modo que no sea de clúster.

  10. Escriba el número correspondiente a la opción de cambiar el rango de direcciones IP y pulse la tecla Intro.

    La utilidad clsetup muestra la configuración de red privada actual; a continuación, pregunta si desea modificar esta configuración.

  11. Para cambiar la dirección IP de red privada o el intervalo de direcciones de red IP, escriba yes y pulse la tecla Intro.

    La utilidad clsetup muestra la dirección IP de red privada, 172.16.0.0 y pregunta si desea aceptarla de forma predeterminada.

  12. Cambie o acepte la dirección IP de red privada.
    • Para aceptar la dirección IP de red privada predeterminada y cambiar el rango de direcciones IP, escriba yes y pulse la tecla Intro.

      La utilidad clsetup pregunta si desea aceptar la máscara de red predeterminada. Vaya al siguiente paso para escribir su respuesta.

    • Para cambiar la dirección IP de red privada predeterminada, siga los subpasos descritos a continuación.
      1. Escriba no como respuesta a la pregunta de la utilidad clsetup sobre si desea aceptar la dirección predeterminada; a continuación, pulse la tecla Intro.

        La utilidad clsetup solicita la nueva dirección IP de red privada.

      2. Escriba la dirección IP nueva y pulse la tecla Intro.

        La utilidad clsetup muestra la máscara de red predeterminada; a continuación, pregunta si desea aceptar la máscara de red predeterminada.

  13. Modifique o acepte el rango de direcciones IP de red privada predeterminado.

    La máscara de red predeterminada es 255.255.240.0. Este rango de direcciones IP predeterminado admite un máximo de 64 nodos, 12 clústeres de zona y 10 redes privadas en el clúster.

    • Para aceptar el rango de direcciones IP predeterminado, escriba yes y pulse la tecla Intro.

      A continuación, vaya al siguiente paso.

    • Para cambiar el rango de direcciones IP, realice los subpasos siguientes.
      1. Escriba no como respuesta a la pregunta de la utilidad clsetup sobre si desea aceptar el rango de direcciones predeterminado; a continuación, pulse la tecla Intro.

        Si rechaza la máscara de red predeterminada, la utilidad clsetup solicita el número de nodos, redes privadas y clústeres de zona que tiene previsto configurar en el clúster.

      2. Especifique el número de nodos, redes privadas y clústeres de zona que tiene previsto configurar en el clúster.

        A partir de estas cantidades, la utilidad clsetup calcula dos máscaras de red como propuesta:

        • La primera máscara de red es la mínima para admitir el número de nodos, redes privadas y clústeres de zona que haya especificado.

        • La segunda máscara de red admite el doble de nodos, redes privadas y clústeres de zona que haya especificado para asumir un posible crecimiento en el futuro.

      3. Especifique una de las máscaras de red, u otra diferente, que admita el número previsto de nodos, redes privadas y clústeres de zona.
  14. Escriba yes como respuesta a la pregunta de la utilidad clsetup sobre si desea continuar con la actualización.
  15. Cuando haya finalizado, salga de la utilidad clsetup.
  16. Vuelva a reiniciar cada nodo en el clúster.
    1. Cierre todos los nodos.
      # shutdown -g0 -y
    2. Inicie cada nodo en el modo de clúster.
      • En sistemas basados en SPARC, haga lo siguiente:
        ok boot
      • En sistemas basados en x86, haga lo siguiente:

        Cuando aparezca el menú GRUB, seleccione la entrada de Solaris que corresponda y pulse Intro. El menú de GRUB que aparece es similar al siguiente:

        GNU GRUB version 0.95 (631K lower / 2095488K upper memory)
        +-------------------------------------------------------------------------+
        | Solaris 10 /sol_10_x86                                                  |
        | Solaris failsafe                                                        |
        |                                                                         |
        +-------------------------------------------------------------------------+
        Use the ^ and v keys to select which entry is highlighted.
        Press enter to boot the selected OS, 'e' to edit the
        commands before booting, or 'c' for a command-line.

        Para obtener más información acerca del inicio mediante GRUB, consulte Booting an x86 Based System by Using GRUB (Task Map) de System Administration Guide: Basic Administration.

  17. Inicie la utilidad clsetup en un nodo.
    # clsetup

    Aparecerá el menú principal de clsetup.

  18. Vuelva a habilitar todos los recursos inhabilitados.
    1. Escriba el número correspondiente a la opción Grupos de recursos y pulse la tecla Intro.

      Aparece el menú de grupos de recursos.

    2. Escriba el número correspondiente a la opción Habilitar/inhabilitar un recurso y pulse la tecla Intro.
    3. Seleccione un recurso para habilitarlo y siga las indicaciones.
    4. Repita el procedimiento para cada recurso inhabilitado.
    5. Cuando se hayan habilitado de nuevo todos los grupos de recursos, escriba q para volver al menú de grupo de recursos.
  19. Vuelva a colocar en línea cada grupo de recursos.

    Si el nodo contiene zonas no globales, establezca también en línea los grupos de recursos que se encuentren en esas zonas.

    1. Escriba el número correspondiente a la opción Poner en línea/fuera de línea o conmutar un grupo de recursos y pulse la tecla Intro.
    2. Siga las indicaciones para establecer el grupo de recursos en el estado administrado y, a continuación, póngalo en línea.
  20. Salga de la utilidad clsetup cuando todos los grupos de recursos vuelvan a estar en línea.

    Escriba q para salir de cada submenú o pulse Ctrl-C.

Pasos siguientes

Para agregar un nodo a un clúster existente, utilice uno de los siguientes procedimientos:

Para crear una zona no global en un nodo de clúster, consulte Configuración de una zona no global en un nodo del clúster global.

Cómo configurar el software Oracle Solaris Cluster en nodos de clúster global adicionales (scinstall)

Realice este procedimiento para agregar un nodo nuevo a un clúster global existente. Para agregar un nodo nuevo mediante JumpStart, siga los procedimientos descritos en Cómo instalar el software de Solaris y Oracle Solaris Cluster (JumpStart).


Nota - En este procedimiento, se utiliza el formato interactivo del programa scinstall. Para utilizar los formatos no interactivos del comando scinstall como, por ejemplo, al crear secuencias de comandos de instalación, consulte la página de comando man scinstall(1M).

Asegúrese de que los paquetes de software Oracle Solaris Cluster se hayan instalado en el nodo de forma manual o mediante el modo silencioso del programa installer de antes de ejecutar el comando scinstall. Para obtener información sobre cómo ejecutar el programa installer de desde una secuencia de comandos de instalación, consulte Capítulo 5, Installing in Silent Mode de Sun Java Enterprise System 5 Update 1 Installation Guide for UNIX.


Antes de empezar

Realice las siguientes tareas:

Siga estas directrices para usar la utilidad scinstall interactiva en este procedimiento:

  1. Conviértase en superusuario en el nodo de clúster que va a configurar.
  2. Inicie la utilidad scinstall.
    phys-schost-new# /usr/cluster/bin/scinstall

    Aparecerá el menú principal de scinstall.

  3. Escriba el número correspondiente a la opción Create a New Cluster or Add a Cluster Node (Crear un clúster o agregar un nodo de clúster) y pulse la tecla Intro.
      *** Main Menu ***
    
        Please select from one of the following (*) options:
    
          * 1) Create a new cluster or add a cluster node
            2) Configure a cluster to be JumpStarted from this install server
            3) Manage a dual-partition upgrade
            4) Upgrade this cluster node
          * 5) Print release information for this cluster node
    
          * ?) Help with menu options
          * q) Quit
    
        Option:  1

    Aparece el menú Nuevo clúster o nodo del clúster.

  4. Escriba el número correspondiente a la opción Agregar esta máquina como nodo de un clúster existente y pulse la tecla Intro.
  5. Siga las indicaciones en el menú para proporcionar respuestas de la hoja de trabajo para la planificación de la configuración.

    La utilidad scinstall configura el nodo y lo inicia en el clúster.

  6. Extraiga el DVD-ROM de la unidad de DVD-ROM.
    1. Para asegurarse de que no se esté utilizando el DVD-ROM, acceda a un directorio que no esté incluido en éste.
    2. Expulse el DVD-ROM.
      phys-schost# eject cdrom
  7. Repita este procedimiento en el resto de los nodos que vaya a agregar al clúster hasta que todos los nodos adicionales estén configurados por completo.
  8. Compruebe en todos los nodos que los servicios multiusuario para la Utilidad de gestión de servicios (SMF) estén en línea.

    Si los servicios todavía no están en línea para un nodo, espere hasta que cambie el estado y aparezca como en línea antes de continuar con el siguiente paso.

    phys-schost# svcs multi-user-server node
    STATE          STIME    FMRI
    online         17:52:55 svc:/milestone/multi-user-server:default
  9. Evite que se unan al clúster otros nodos desde un miembro activo del clúster.
    phys-schost# claccess deny-all

    También puede usar la utilidad clsetup. Consulte Adición de un nodo a la lista de nodos autorizados de Guía de administración del sistema de Oracle Solaris Cluster para obtener información sobre los procedimientos.

  10. Desde un nodo, compruebe que todos los nodos se hayan unido al clúster.
    phys-schost# clnode status

    La salida presenta un aspecto similar al siguiente.

    === Cluster Nodes ===
    
    --- Node Status ---
    
    Node Name                                       Status
    ---------                                       ------
    phys-schost-1                                   Online
    phys-schost-2                                   Online
    phys-schost-3                                   Online

    Para obtener más información, consulte la página de comando man clnode(1CL).

  11. Compruebe que todos los parches necesarios estén instalados.
    phys-schost# showrev -p
  12. (Opcional) Habilite el reinicio automático de nodos cuando todas las rutas de disco compartido supervisadas presenten errores.
    1. Habilite el reinicio automático.
      phys-schost# clnode set -p reboot_on_path_failure=enabled
      -p

      Especifica la propiedad que se va a establecer.

      reboot_on_path_failure=enable

      Habilita el reinicio automático del nodo en caso de producirse un error en las rutas de discos compartidos supervisados.

    2. Compruebe que el reinicio automático tras un error de ruta de disco se encuentre habilitado.
      phys-schost# clnode show
      === Cluster Nodes ===                          
      
      Node Name:                                      node
      …
        reboot_on_path_failure:                          enabled
      …
  13. Si tiene intención de utilizar Oracle Solaris Cluster HA para NFS (HA para NFS) en un sistema de archivos local de alta disponibilidad, asegúrese de que el sistema de archivos de bucle invertido (LOFS) esté inhabilitado.

    Para inhabilitarlo, agregue la siguiente entrada al archivo /etc/system en cada uno de los nodos del clúster.

    exclude:lofs

    El cambio realizado en el archivo /etc/system se aplicará en el siguiente reinicio del sistema.


    Nota - No puede tener habilitado LOFS si utiliza HA para NFS en un sistema de archivos de alta disponibilidad y automountd se está ejecutando. LOFS puede provocar problemas de conmutación en HA para NFS. Si decide agregar HA para NFS en un sistema de archivos local de alta disponibilidad, realice uno de los siguientes cambios de configuración.

    Sin embargo, si configura zonas no globales en el clúster, debe habilitar LOFS en todos los nodos del clúster. Si HA para NFS se encuentra en un sistema de archivos local de alta disponibilidad y debe coexistir con LOFS, utilice una de las demás soluciones en lugar de inhabilitar LOFS.

    • Inhabilite LOFS.

    • Inhabilite el daemon automountd.

    • Excluya de la asignación de montaje automático todos los archivos que formen parte del sistema de archivos local de alta disponibilidad exportado por HA para NFS. Esta opción permite mantener habilitados tanto LOFS como el daemon automountd.


    Consulte The Loopback File System de System Administration Guide: Devices and File Systems para obtener información sobre los sistemas de archivos de bucle invertido.

Ejemplo 3-3 Configuración del software Oracle Solaris Cluster en un nodo adicional

En el siguiente ejemplo se muestra el nodo phys-schost-3, que se ha agregado al clúster schost. El nodo patrocinador es phys-schost-1.

*** Adding a Node to an Existing Cluster ***
Fri Feb  4 10:17:53 PST 2005


scinstall -ik -C schost -N phys-schost-1 -A trtype=dlpi,name=qfe2 -A trtype=dlpi,name=qfe3 
-m endpoint=:qfe2,endpoint=switch1 -m endpoint=:qfe3,endpoint=switch2


Checking device to use for global devices file system ... done

Adding node "phys-schost-3" to the cluster configuration ... done
Adding adapter "qfe2" to the cluster configuration ... done
Adding adapter "qfe3" to the cluster configuration ... done
Adding cable to the cluster configuration ... done
Adding cable to the cluster configuration ... done

Copying the config from "phys-schost-1" ... done

Copying the postconfig file from "phys-schost-1" if it exists ... done
Copying the Common Agent Container keys from "phys-schost-1" ... done


Setting the node ID for "phys-schost-3" ... done (id=1)

Setting the major number for the "did" driver ... 
Obtaining the major number for the "did" driver from "phys-schost-1" ... done
"did" driver major number set to 300

Checking for global devices global file system ... done
Updating vfstab ... done

Verifying that NTP is configured ... done
Initializing NTP configuration ... done

Updating nsswitch.conf ... 
done

Adding clusternode entries to /etc/inet/hosts ... done


Configuring IP Multipathing groups in "/etc/hostname.<adapter>" files

Updating "/etc/hostname.hme0".

Verifying that power management is NOT configured ... done

Ensure that the EEPROM parameter "local-mac-address?" is set to "true" ... done
The "local-mac-address?" parameter setting has been changed to "true".

Ensure network routing is disabled ... done

Updating file ("ntp.conf.cluster") on node phys-schost-1 ... done
Updating file ("hosts") on node phys-schost-1 ... done

Rebooting ... 

Errores más frecuentes

Configuración incorrecta: si uno o varios nodos no se pueden incorporar al clúster, o si se ha especificado información de configuración incorrecta, primero intente ejecutar de nuevo este procedimiento. Si no se soluciona el problema, realice el procedimiento Cómo anular la configuración del software Oracle Solaris Cluster para solucionar problemas de instalación en cada nodo que se haya configurado incorrectamente para suprimirlo de la configuración del clúster. No es necesario que desinstale los paquetes de software Oracle Solaris Cluster. A continuación, vuelva a realizar este procedimiento.

Pasos siguientes

Si ha agregado un nodo a un clúster existente que utiliza un dispositivo del quórum, vaya a Cómo actualizar los dispositivos del quórum tras agregar un nodo a un clúster global.

De lo contrario, vaya a Cómo verificar los modos de configuración e instalación del quórum.

Cómo configurar el software Oracle Solaris Cluster en nodos de clúster global adicionales (XML)

Lleve a cabo este procedimiento para configurar un nuevo nodo del clúster mediante un archivo XML de configuración del clúster. El nodo nuevo puede ser un reflejo de un nodo de clúster existente que ejecute el software Oracle Solaris Cluster 3.3 5/11.

Mediante este procedimiento, se configuran los siguientes componentes del nodo:

Antes de empezar

Realice las siguientes tareas:

  1. Asegúrese de que el software Oracle Solaris Cluster no esté configurado aún en el nodo potencial que desee agregar a un clúster.
    1. Conviértase en superusuario en el nodo potencial.
    2. Compruebe si el software Oracle Solaris Cluster está configurado en el nodo potencial.
      phys-schost-new# /usr/sbin/clinfo -n
      • Si el comando presenta errores, vaya al Paso 2.

        El software Oracle Solaris Cluster aún no se ha configurado en el nodo. Puede agregar el nodo potencial al clúster.

      • Si el comando devuelve un número de ID de nodo, vaya al Paso c.

        El software Oracle Solaris Cluster ya está configurado en el nodo. Para poder agregar el nodo a un clúster distinto, debe suprimir la información de configuración del clúster existente.

    3. Arranque el nodo potencial en el modo sin clúster.
      • En sistemas basados en SPARC, ejecute el siguiente comando:
        ok boot -x
      • En sistemas basados en x86, ejecute los siguientes comandos:
        1. Utilice las teclas de flecha del menú GRUB para seleccionar la entrada de Solaris adecuada y escriba e para editar sus comandos.

          El menú de GRUB que aparece es similar al siguiente:

          GNU GRUB version 0.97 (639K lower / 1047488K upper memory)
          +----------------------------------------------------------------------+
          | Solaris 10 /sol_10_x86                                               | 
          | Solaris failsafe                                                     |
          |                                                                      |
          +----------------------------------------------------------------------+
          Use the ^ and v keys to select which entry is highlighted.
          Press enter to boot the selected OS, 'e' to edit the
          commands before booting, or 'c' for a command-line.

          Para obtener más información acerca del inicio mediante GRUB, consulte Booting an x86 Based System by Using GRUB (Task Map) de System Administration Guide: Basic Administration.

        2. En la pantalla de parámetros de inicio, seleccione la entrada kernel y escriba e para editarla.

          La pantalla de los parámetros de inicio de GRUB que aparece es similar a la siguiente:

          GNU GRUB version 0.97 (639K lower / 1047488K upper memory)
          +----------------------------------------------------------------------+
          | root (hd0,0,a)                                                       | 
          | kernel /platform/i86pc/multiboot                                     | 
          | module /platform/i86pc/boot_archive                                  | 
          |+----------------------------------------------------------------------+
          Use the ^ and v keys to select which entry is highlighted.
          Press 'b' to boot, 'e' to edit the selected command in the
          boot sequence, 'c' for a command-line, 'o' to open a new line
          after ('O' for before) the selected line, 'd' to remove the
          selected line, or escape to go back to the main menu.
        3. Agregue -x al comando para especificar que el sistema se inicia en el modo sin clúster.
          [ Minimal BASH-like line editing is supported. For the first word, TAB
          lists possible command completions. Anywhere else TAB lists the possible
          completions of a device/filename. ESC at any time exits. ]
          
          grub edit> kernel /platform/i86pc/multiboot -x
        4. Pulse Intro para aceptar el cambio y volver a la pantalla de parámetros de inicio.

          La pantalla muestra el comando editado.

          GNU GRUB version 0.97 (639K lower / 1047488K upper memory)
          +----------------------------------------------------------------------+
          | root (hd0,0,a)                                                       |
          | kernel /platform/i86pc/multiboot -x                                  |
          | module /platform/i86pc/boot_archive                                  |
          +----------------------------------------------------------------------+
          Use the ^ and v keys to select which entry is highlighted.
          Press 'b' to boot, 'e' to edit the selected command in the
          boot sequence, 'c' for a command-line, 'o' to open a new line
          after ('O' for before) the selected line, 'd' to remove the
          selected line, or escape to go back to the main menu.-
        5. Escriba b para iniciar el nodo en el modo sin clúster.

          Nota - Este cambio en el comando del parámetro de inicio del núcleo no se conserva tras el inicio del sistema. La siguiente vez que reinicie el nodo, se iniciará en el modo de clúster. Si, por el contrario, desea iniciar en el modo sin clúster, siga estos pasos para volver a agregar la opción -x al comando del parámetro de inicio del núcleo.


    4. Anule la configuración del software Oracle Solaris Cluster del nodo potencial.
      phys-schost-new# /usr/cluster/bin/clnode remove
  2. Si va a crear reflejos de un nodo que ejecuta el software Oracle Solaris Cluster 3.3 5/11, cree un archivo XML de configuración del clúster.
    1. Conviértase en superusuario en el nodo del clúster que desee reflejar.
    2. Exporte la información de configuración del nodo existente a un archivo.
      phys-schost# clnode export -o clconfigfile
      -o

      Especifica el destino de salida.

      clconfigfile

      Nombre del archivo XML de configuración del clúster. El nombre de archivo especificado puede ser un archivo existente o un archivo nuevo que el comando creará.

      Para obtener más información, consulte la página de comando man clnode(1CL).

    3. Copie el archivo XML de configuración del clúster en el nodo potencial que va a configurar como nodo nuevo del clúster.
  3. Conviértase en superusuario en el nodo potencial.
  4. Modifique el archivo XML de configuración del clúster según sea necesario.
    1. Abra el archivo XML de configuración del clúster para editarlo.
      • Si va a crear reflejos de un nodo de clúster existente, abra el archivo que creó con el comando clnode export.
      • Si no va a crear reflejos de un nodo de clúster existente, cree un archivo nuevo.

        Base el archivo en la jerarquía de elementos que se muestra en la página de comando man clconfiguration(5CL). Puede almacenar el archivo en cualquier directorio.

    2. Modifique los valores de los elementos XML para reflejar la configuración de nodo que desea crear.

      Consulte la página de comando man clconfiguration(5CL) para obtener información detallada sobre la estructura y el contenido del archivo XML de configuración del clúster.

  5. Valide el archivo XML de configuración del clúster.
    phys-schost-new# xmllint --valid --noout clconfigfile
  6. Configure el nuevo nodo del clúster.
    phys-schost-new# clnode add -n sponsornode -i clconfigfile
    -n nodo_patrocinador

    Especifica el nombre de un miembro del clúster existente para que actúe como patrocinador del nodo nuevo.

    -i clconfigfile

    Especifica el nombre del archivo XML de configuración del clúster que se va a utilizar como fuente de entrada.

  7. (Opcional) Habilite el reinicio automático de nodos cuando todas las rutas de disco compartido supervisadas presenten errores.
    1. Habilite el reinicio automático.
      phys-schost# clnode set -p reboot_on_path_failure=enabled
      -p

      Especifica la propiedad que se va a establecer.

      reboot_on_path_failure=enable

      Habilita el reinicio automático del nodo en caso de producirse un error en las rutas de discos compartidos supervisados.

    2. Compruebe que el reinicio automático tras un error de ruta de disco se encuentre habilitado.
      phys-schost# clnode show
      === Cluster Nodes ===                          
      
      Node Name:                                      node
      …
        reboot_on_path_failure:                          enabled
      …

Errores más frecuentes

Configuración incorrecta: si uno o varios nodos no se pueden incorporar al clúster, o si se ha especificado información de configuración incorrecta, primero intente ejecutar de nuevo este procedimiento. Si no se soluciona el problema, realice el procedimiento Cómo anular la configuración del software Oracle Solaris Cluster para solucionar problemas de instalación en cada nodo que se haya configurado incorrectamente para suprimirlo de la configuración del clúster. No es necesario que desinstale los paquetes de software Oracle Solaris Cluster. A continuación, vuelva a realizar este procedimiento.

Pasos siguientes

Si ha agregado un nodo a un clúster que utiliza un dispositivo del quórum, vaya a Cómo actualizar los dispositivos del quórum tras agregar un nodo a un clúster global.

De lo contrario, vaya a Cómo verificar los modos de configuración e instalación del quórum.

Cómo actualizar los dispositivos del quórum tras agregar un nodo a un clúster global

Si ha agregado un nodo a un clúster global, debe actualizar la información de configuración de los dispositivos del quórum, independientemente de si utiliza discos compartidos, dispositivos NAS, un servidor de quórum o una combinación de estos elementos. Para ello, quite todos los dispositivos del quórum y actualice el espacio de nombres de dispositivos globales. De forma opcional, puede reconfigurar los dispositivos del quórum que todavía desea utilizar. Así, se registra el nodo nuevo con cada dispositivo del quórum, lo que permite recalcular el recuento de votos basándose en el nuevo número de nodos del clúster.

Los nuevos dispositivos SCSI del quórum que se configuren se establecerán en las reservas SCSI-3.

Antes de empezar

Asegúrese de haber completado la instalación del software Oracle Solaris Cluster en el nodo que ha agregado.

  1. Conviértase en superusuario en un nodo de clúster.
  2. Asegúrese de que todos los nodos del clúster estén en línea.
    phys-schost# cluster status -t node
  3. Vea la configuración de quórum actual.

    La salida del comando muestra todos los dispositivos del quórum y los nodos. La siguiente salida de ejemplo muestra el dispositivo del quórum SCSI actual, d3.

    phys-schost# clquorum list
    d3
    …
  4. Anote el nombre de los dispositivos del quórum que aparecen en la lista.
  5. Quite el dispositivo del quórum original.

    Lleve a cabo este paso con todos los dispositivos del quórum configurados.

    phys-schost# clquorum remove devicename
    nombre_dispositivo

    Especifica el nombre del dispositivo del quórum.

  6. Compruebe que todos los dispositivos del quórum originales se hayan suprimido.

    Si los dispositivos del quórum se han borrado correctamente, ninguno de ellos aparece en la lista.

    phys-schost# clquorum status
  7. Actualice el espacio de nombres de dispositivos globales.
    phys-schost# cldevice populate

    Nota - Este paso es necesario para prevenir un posible error grave del nodo.


  8. Compruebe en cada nodo que el comando cldevice populate haya finalizado su proceso antes de intentar agregar un dispositivo del quórum.

    El comando cldevice populate se ejecuta de forma remota en todos los nodos, a pesar de que se emite desde un solo nodo. Para determinar si ha concluido el procesamiento del comando cldevice populate, ejecute el comando siguiente en todos los nodos del clúster.

    phys-schost# ps -ef | grep scgdevs
  9. (Opcional) Agregue un dispositivo del quórum.

    Puede configurar el mismo dispositivo que se utilizó originalmente como dispositivo del quórum o seleccionar un nuevo dispositivo compartido para configurarlo.

    1. (Opcional) Si desea seleccionar un nuevo dispositivo compartido para configurarlo como dispositivo del quórum, visualice todos los dispositivos que el sistema comprueba.

      De lo contrario, vaya al Paso c.

      phys-schost# cldevice list -v

      La salida es similar a la siguiente:

      DID Device          Full Device Path
      ----------          ----------------
      d1                  phys-schost-1:/dev/rdsk/c0t0d0
      d2                  phys-schost-1:/dev/rdsk/c0t6d0
      d3                  phys-schost-2:/dev/rdsk/c1t1d0
      d3                  phys-schost-1:/dev/rdsk/c1t1d0 
      …
    2. Desde la salida, seleccione un dispositivo compartido para configurarlo como dispositivo del quórum.
    3. Configure el dispositivo compartido como dispositivo del quórum.
      phys-schost# clquorum add -t type devicename
      -t tipo

      Especifica el tipo de dispositivo del quórum. Si no se especifica esta opción, se utilizará el tipo predeterminado, es decir, shared_disk.

    4. Repita este procedimiento con todos los dispositivos del quórum que desee configurar.
    5. Verifique la nueva configuración del quórum.
      phys-schost# clquorum list

      La salida debe mostrar todos los dispositivos del quórum y todos los nodos.

Ejemplo 3-4 Actualización de los dispositivos del quórum SCSI tras agregar un nodo a un clúster de dos nodos

En el siguiente ejemplo se identifica el dispositivo del quórum SCSI original d2, se quita ese dispositivo del quórum, se muestran los dispositivos compartidos disponibles, se actualiza el espacio de nombres del dispositivo global, se configura d3 como nuevo dispositivo del quórum SCSI y se verifica el nuevo dispositivo.

phys-schost# clquorum list
d2
phys-schost-1
phys-schost-2

phys-schost# clquorum remove d2
phys-schost# clquorum status
…
--- Quorum Votes by Device ---

Device Name       Present      Possible      Status
-----------       -------      --------      ------

phys-schost# cldevice list -v
DID Device          Full Device Path
----------          ----------------
…
d3                  phys-schost-2:/dev/rdsk/c1t1d0
d3                  phys-schost-1:/dev/rdsk/c1t1d0
…
phys-schost# cldevice populate
phys-schost# ps -ef - grep scgdevs
phys-schost# clquorum add d3
phys-schost# clquorum list
d3
phys-schost-1
phys-schost-2

Pasos siguientes

Vaya a Cómo verificar los modos de configuración e instalación del quórum.

Cómo configurar dispositivos del quórum


Nota - No es necesario que configure los dispositivos del quórum si se da alguna de las siguientes circunstancias:

En estos casos, pase a Cómo verificar los modos de configuración e instalación del quórum.


Realice este procedimiento una sola vez cuando el clúster nuevo se haya formado completamente. Utilice este procedimiento para asignar los votos del quórum y, a continuación, para quitar el clúster del modo de instalación.

Antes de empezar

  1. Si se dan las dos condiciones que aparecen a continuación, modifique las entradas de archivo de la máscara de red de la red pública en cada nodo del clúster.
    • Pretende utilizar un servidor de quórum.

    • La red pública utiliza la máscara de subred de longitud variable, también llamada enrutamiento de interdominios sin clases (CIDR).

    Si utiliza un servidor de quórum, pero la red pública utiliza subredes con clases, como se define en RFC 791, no es necesario que realice este paso.

    1. Agregue una entrada para cada subred pública utilizada por el clúster al archivo /etc/inet/netmasks.

      La siguiente entrada de ejemplo contiene una máscara de red y una dirección IP de red pública:

      10.11.30.0    255.255.255.0
    2. Anexe netmask + broadcast + a la entrada del nombre de host de cada archivo /etc/hostname.adaptador.
      nodename netmask + broadcast +
  2. Conviértase en superusuario en un nodo.
  3. Asegúrese de que todos los nodos del clúster estén en línea.
    phys-schost# cluster status -t node
  4. Para utilizar un disco compartido como dispositivo del quórum, verifique la conectividad del dispositivo a los nodos del clúster y elija el dispositivo que desea configurar.
    1. Visualice una lista de todos los dispositivos comprobados por el sistema desde un nodo del clúster.

      No es necesario que inicie sesión como superusuario para ejecutar este comando.

      phys-schost-1# cldevice list -v

      La salida es similar a la siguiente:

      DID Device          Full Device Path
      ----------          ----------------
      d1                  phys-schost-1:/dev/rdsk/c0t0d0
      d2                  phys-schost-1:/dev/rdsk/c0t6d0
      d3                  phys-schost-2:/dev/rdsk/c1t1d0
      d3                  phys-schost-1:/dev/rdsk/c1t1d0
      …
    2. Asegúrese de que la salida muestre todas las conexiones entre los nodos del clúster y los dispositivos de almacenamiento.
    3. Determine el nombre de ID del dispositivo global de cada disco compartido que esté configurando como dispositivo del quórum.

      Nota - Los discos compartidos que elija deben ser válidos para su uso como dispositivo del quórum. Consulte la sección Dispositivos de quórum para obtener más información acerca de la selección de dispositivos del quórum.


      Utilice la salida scdidadm del Paso a para identificar el nombre de ID de dispositivo de cada disco compartido que esté configurando como dispositivo del quórum. Por ejemplo, la salida del Paso a muestra que phys-schost-1 y phys-schost-2 comparten el dispositivo global d3.

  5. Si va a utilizar un disco compartido que no es compatible con el protocolo SCSI, asegúrese de que el aislamiento para ese disco compartido esté inhabilitado.
    1. Visualice la configuración de aislamiento del disco individual.
      phys-schost# cldevice show device
      
      === DID Device Instances ===
      DID Device Name:                                      /dev/did/rdsk/dN
      …
        default_fencing:                                     nofencing
      • Si el aislamiento del disco se ha establecido en nofencing o nofencing-noscrub, esto significa que está inhabilitado. Vaya al Paso 6.
      • Si el aislamiento del disco se ha establecido en pathcount o scsi, inhabilite este aislamiento. Vaya directamente al Paso c.
      • Si el aislamiento del disco se ha establecido en global, compruebe si el aislamiento está inhabilitado de manera global. Vaya al Paso b.

        Otra opción es, simplemente, inhabilitar el aislamiento del disco individual para que no se aplique independientemente del valor establecido en la propiedad global_fencing. Vaya directamente al Paso c

    2. Compruebe si el aislamiento está inhabilitado de forma global.
      phys-schost# cluster show -t global
      
      === Cluster ===
      Cluster name:                                         cluster
      …
         global_fencing:                                      nofencing
      • Si el aislamiento global se ha establecido en nofencing o nofencing-noscrub, significa que está inhabilitado para los discos compartidos cuya propiedad default_fencing se haya establecido en global. Vaya al Paso 6.
      • Si el aislamiento global se ha establecido en pathcount o prefer3, inhabilite el aislamiento para el disco compartido. Vaya al Paso c.

      Nota - Si la propiedad default_fencing de un disco individual se ha establecido en global, el aislamiento de ese disco estará inhabilitado siempre que la propiedad global_fencing, que afecta a todo el clúster, se haya establecido en nofencing o nofencing-noscrub . Si se cambia la propiedad global_fencing a un valor que permite el aislamiento, éste se habilitará en los discos cuya propiedad default_fencing se haya establecido en global.


    3. Inhabilite el aislamiento del disco compartido.
      phys-schost# cldevice set \
      -p default_fencing=nofencing-noscrub device
    4. Verifique que el aislamiento del disco compartido esté inhabilitado.
      phys-schost# cldevice show device
  6. Inicie la utilidad clsetup.
    phys-schost# clsetup

    Aparece la pantalla Configuración inicial del clúster.


    Nota - Si en lugar de ello aparece el menú principal, quiere decir que la configuración inicial del clúster ya se ha realizado correctamente. Vaya directamente al Paso 11.


  7. Responda al mensaje Do you want to add any quorum disks? (¿Desea agregar algún disco del quórum?).
    • Si el clúster es de dos nodos, debe configurar al menos un dispositivo del quórum compartido. Escriba para configurar uno o varios dispositivos del quórum.
    • Si el clúster tiene tres o más nodos, la configuración del dispositivo del quórum es opcional.
      • Escriba No si no desea configurar ningún dispositivo del quórum adicional. En ese caso, vaya directamente al Paso 10.
      • Escriba para configurar dispositivos del quórum adicionales. A continuación, vaya al Paso 8.
  8. Especifique el tipo de dispositivo que desea configurar como dispositivo del quórum.
    Tipo de dispositivo del quórum
    Descripción
    shared_disk
    LUN compartidos desde:
    • Disco SCSI compartido

    • Almacenamiento SATA (Serial Attached Technology Attachment)

    • NAS de Sun

    • Dispositivo de almacenamiento de Sun ZFS

    quorum_server
    Servidor de quórum
    netapp_nas
    NAS de Network Appliance
  9. Especifique el nombre del archivo que desea configurar como dispositivo del quórum.
    • En el caso de los servidores del quórum, especifique también la siguiente información:

      • la dirección IP del host del servidor de quórum

      • el número de puerto que usa el servidor de quórum para comunicarse con los nodos del clúster

    • En el caso de los dispositivos NAS de Network Appliance, especifique además la siguiente información:

      • el nombre del dispositivo NAS

      • el ID de LUN del dispositivo NAS

  10. Responda al mensaje ¿Reiniciar "installmode"?.

    Una vez que la utilidad clsetup haya establecido la configuración y el número de votos del quórum en el clúster, aparecerá el mensaje Inicialización del clúster completa. La utilidad le lleva de nuevo al menú principal.

  11. Salga de la utilidad clsetup.

Pasos siguientes

Verifique que la configuración del quórum sea correcta y que el modo de instalación esté inhabilitado. Vaya a Cómo verificar los modos de configuración e instalación del quórum.

Errores más frecuentes

Proceso de clsetup interrumpido: si el proceso de configuración del quórum se interrumpiera o no se completara correctamente, vuelva a ejecutar clsetup .

Cambios en el recuento de votos del quórum: si más adelante se incrementa o reduce el número de conexiones de nodos con un dispositivo de quórum, el número de votos de quórum no se recalcula de forma automática. Puede volver a establecer el voto del quórum correcto quitando cada uno de los dispositivos del quórum y agregándolos después nuevamente a la configuración uno por uno. En el caso de un clúster de dos nodos, agregue un nuevo dispositivo del quórum antes de quitar y volver a añadir el dispositivo del quórum original. A continuación, quite el dispositivo del quórum temporal. Consulte el procedimiento sobre cómo modificar una lista de nodos de un dispositivo del quórum en el Capítulo 6, Administración de quórum de Guía de administración del sistema de Oracle Solaris Cluster.

Dispositivo del quórum inalcanzable: si aparecen mensajes en los nodos de clúster que indican que un dispositivo del quórum es inalcanzable, o si se producen errores de los nodos de clúster con el mensaje CMM: Unable to acquire the quorum device, es posible que haya un problema con el dispositivo del quórum o con su ruta. Compruebe que el dispositivo del quórum y su ruta estén operativos.

Si el problema persiste, utilice otro dispositivo del quórum. Si desea utilizar el mismo dispositivo del quórum, puede aumentar su tiempo de espera, como se indica a continuación:


Nota - En Oracle Real Application Clusters (Oracle RAC), no modifique el tiempo de espera del quórum predeterminado de 25 segundos. En determinados casos en que una parte de la partición del clúster cree que la otra está inactiva ("cerebro dividido"), un tiempo de espera superior puede hacer que falle el proceso de migración tras error de Oracle RAC debido a la finalización del tiempo de espera de recursos VIP. Si el dispositivo del quórum que se utiliza no es adecuado para un tiempo de espera predeterminado de 25 segundos, utilice otro dispositivo.


Cómo verificar los modos de configuración e instalación del quórum

Lleve a cabo este procedimiento para verificar que la configuración del quórum se haya completado correctamente, en caso de que lo haya configurado, y que el modo de instalación del clúster esté inhabilitado.

No es necesario ser superusuario para ejecutar estos comandos.

  1. Desde cualquier nodo de clúster global, verifique la configuración del quórum de los nodos y del clúster.
    phys-schost% clquorum list

    La salida muestra los dispositivos del quórum y los nodos.

  2. Desde cualquier nodo, verifique que el modo de instalación del clúster está inhabilitado.
    phys-schost% cluster show -t global | grep installmode
      installmode:                                    disabled

    La creación e instalación del clúster se ha completado.

Pasos siguientes

Determine cuál de las tareas de la lista que se muestra a continuación corresponde a la siguiente tarea que se realizará en la configuración de su clúster. Si necesita realizar más de una tarea de las de esta lista, vaya a la que aparezca en primer lugar.

Véase también

Realice una copia de seguridad de la configuración del clúster.

Si dispone de una copia de seguridad de la configuración del clúster, le resultará más sencillo recuperarla cuando sea necesario. Para obtener más información, consulte Copias de seguridad de la configuración del clúster de Guía de administración del sistema de Oracle Solaris Cluster.

Cómo cambiar nombres de host privados

Realice esta tarea si no desea utilizar los nombres de host privados predeterminados, clusternodeid_nodo-priv, que se asignan durante la instalación del software Oracle Solaris Cluster.


Nota - No lleve a cabo este procedimiento una vez se hayan configurado e iniciado las aplicaciones y los servicios de datos. De lo contrario, algunas aplicaciones o servicios de datos podrían continuar utilizando el nombre de host privado antiguo después de haber cambiado el mismo, lo que causaría conflictos en el nombre de host. Si hubiera alguna aplicación o algún servicio de datos en ejecución, deténgalos antes de realizar este procedimiento.


Realice este procedimiento en un nodo activo del clúster.

  1. Conviértase en superusuario en un nodo del clúster global.
  2. Inicie la utilidad clsetup .
    phys-schost# clsetup

    Aparece el menú principal de clsetup.

  3. Escriba el número correspondiente a la opción Nombres de host privados y pulse la tecla Intro.

    Aparece el menú Nombres de host privados.

  4. Escriba el número correspondiente a la opción Cambiar un nombre de host privado y pulse la tecla Intro.
  5. Siga las instrucciones y responda a los avisos que vayan apareciendo para cambiar el nombre de host privado.

    Repita este paso con cada nombre de host que desee cambiar.

  6. Verifique los nuevos nombres de host privados.
    phys-schost# clnode show -t node | grep privatehostname
      privatehostname:                                clusternode1-priv
      privatehostname:                                clusternode2-priv
      privatehostname:                                clusternode3-priv

Pasos siguientes

Determine cuál de las tareas de la lista que se muestra a continuación corresponde a la siguiente tarea que se realizará en la configuración de su clúster. Si necesita realizar más de una tarea de las de esta lista, vaya a la que aparezca en primer lugar.

Configuración de la distribución de la carga de grupos entre nodos

La distribución automática de carga de grupos de recursos puede habilitarse entre nodos o zonas mediante el establecimiento de límites de carga. Asigna factores de carga a grupos de recursos y los factores de carga se corresponden con los límites de carga de los nodos.

El funcionamiento predeterminado es distribuir carga de grupos de recursos de forma uniforme entre todos los nodos disponibles. Cada grupo de recursos se inicia en un nodo de la lista de nodos. El Administrador de grupos de recursos (RGM) elige el nodo que satisfaga mejor la directiva de distribución de carga configurada. Debido a que el RGM asigna grupos de recursos a los nodos, los factores de carga de los grupos de recursos de cada nodo se suman para proporcionar una carga total. La carga total se compara respecto a los límites de carga de ese nodo.

Puede configurar límites de carga en un clúster global o en clúster de zona.

Los factores que se establecen para controlar la distribución de carga en cada nodo incluyen límites de carga, prioridad de grupo de recursos y modo preferente. En el clúster global, la propiedad Concentrate_load puede establecerse para seleccionar la directiva de distribución de carga preferida: concentrar la carga de grupos de recursos en el menor número posible de nodos sin sobrepasar los límites, o bien distribuir la carga lo más uniformemente posible entre todos los nodos disponibles. El comportamiento predeterminado es distribuir la carga de los grupos de recursos. Cada grupo de recursos continúa limitado a ejecutarse únicamente en los nodos de su lista de nodos, sea cual sea la configuración del factor de carga y del límite de carga.


Nota - Para configurar la distribución de carga de grupos de recursos puede utilizar la línea de comandos, la interfaz de Oracle Solaris Cluster Manager o la utilidad clsetup. El procedimiento siguiente explica cómo configurar la distribución de carga de grupos de recursos mediante la utilidad clsetup. Si desea obtener instrucciones sobre el uso de la línea de comandos para llevar a cabo estos procedimientos, consulte Configuración de los límites de carga de Guía de administración del sistema de Oracle Solaris Cluster.


Esta sección incluye los procedimientos siguientes:

Cómo configurar límites de carga de un nodo

Cada nodo del clúster o de zona puede tener su propio conjunto de límites de carga. Asigna factores de carga a grupos de recursos y los factores de carga se corresponden con los límites de carga de los nodos. Puede definir límites de carga flexibles (que se pueden sobrepasar) o rígidos (que no se pueden sobrepasar).

  1. Conviértase en superusuario en un nodo activo del clúster.
  2. Inicie la utilidad clsetup.
    phys-schost# clsetup

    Aparece el menú de clsetup.

  3. Seleccione el elemento de menú Otras tareas del clúster.

    Aparece el menú Otras tareas del clúster.

  4. Seleccione el elemento de menú Administrar distribución de carga de grupo de recursos.

    En pantalla aparece el menú Administrar distribución de carga de grupo de recursos.

  5. Seleccione el elemento de menú Administrar límites de carga.

    En pantalla aparece el menú Administrar límites de carga.

  6. Escriba y pulse Intro para continuar.
  7. Escriba el número de opción correspondiente a la operación que desea efectuar y pulse Intro.

    Puede crear, modificar o eliminar un límite de carga.

  8. Si ha decidido crear un límite de carga, seleccione el número de opción correspondiente al nodo en el que desea establecer el límite de carga.

    Si desea establecer un límite de carga en un segundo nodo, seleccione el número de opción correspondiente al segundo nodo y pulse Intro. Una vez seleccionados todos los nodos en los que desea configurar límites de carga, escriba q y pulse Intro.

  9. Escriba y pulse Intro para confirmar los nodos que ha seleccionado en el Paso 8.
  10. Escriba el nombre del límite de carga y pulse Intro.

    Por ejemplo, escriba mem_load como nombre de un límite de carga.

  11. Escriba o no para especificar un valor de límite flexible y pulse Intro.

    Si ha escrito , escriba el valor del límite flexible y pulse Intro.

  12. Escriba o no para especificar un valor de límite rígido y pulse Intro.

    Si ha escrito , escriba el valor del límite rígido y pulse Intro.

  13. Escriba y pulse Intro para proseguir la creación del límite de carga.
  14. Escriba para continuar con la actualización y pulse la tecla Intro.

    Aparece el mensaje Comando completado satisfactoriamente, junto con los límites flexible y rígido de carga correspondientes a los nodos seleccionados. Pulse Intro para continuar.

  15. Puede modificar o eliminar un límite de carga mediante los indicadores de la utilidad clsetup.

    Vuelva al menú anterior; para ello, escriba q y pulse Intro.

Cómo establecer la prioridad de un grupo de recursos

También puede configurar un grupo de recursos para que tenga una prioridad superior y reducir así la probabilidad de ser desplazado de un nodo específico. Si se superan los límites de carga, los grupos de recursos con prioridad inferior podrían quedarse sin conexión.

  1. Conviértase en superusuario en un nodo activo del clúster.
  2. Inicie la utilidad clsetup.
    phys-schost# clsetup

    Aparece el menú de clsetup.

  3. Seleccione el elemento de menú Otras tareas del clúster.

    Aparece el menú Otras tareas del clúster.

  4. Seleccione el elemento de menú Administrar distribución de carga de grupo de recursos.

    En pantalla aparece el menú Administrar distribución de carga de grupo de recursos.

  5. Seleccione el elemento de menú Establecer prioridad por grupo de recursos.

    Aparece en pantalla el menú Establecer prioridad por grupo de recursos.

  6. Escriba y pulse Intro.
  7. Escriba el número de opción correspondiente al grupo de recursos y pulse Intro.

    Se muestra el valor establecido para la prioridad. El valor predeterminado de Prioridad es 500.

  8. Escriba el valor nuevo de Prioridad y pulse Intro.
  9. Escriba para confirmar la entrada y pulse Intro.
  10. Pulse Intro para volver al menú anterior.

    En pantalla aparece el menú Administrar distribución de carga de grupo de recursos.

Cómo establecer factores de carga de un grupo de recursos

Un factor de carga es un valor que se asigna a la carga de un límite de carga. Los factores de carga se asignan a un grupo de recursos y dichos factores de carga se corresponden con la definición de límites de carga de los nodos.

  1. Conviértase en superusuario en un nodo activo del clúster.
  2. Inicie la utilidad clsetup.
    phys-schost# clsetup

    Aparece el menú de clsetup.

  3. Seleccione el elemento de menú Otras tareas del clúster.

    Aparece el menú Otras tareas del clúster.

  4. Seleccione el elemento de menú Administrar distribución de carga de grupo de recursos.

    En pantalla aparece el menú Administrar distribución de carga de grupo de recursos.

  5. Seleccione el elemento de menú Establecer factores de carga por grupo de recursos.

    Aparece en pantalla el menú Establecer factores de carga por grupo de recursos.

  6. Escriba y pulse la tecla Intro.
  7. Escriba el número de opción correspondiente al grupo de recursos y pulse Intro.
  8. Escriba el factor de carga.

    Por ejemplo, puede establecer un factor de carga denominado mem_load en el grupo de recursos seleccionado escribiendo mem_load@50. Pulse Ctrl+D cuando haya terminado.

  9. Pulse Intro para continuar con la actualización.
  10. Pulse Intro para volver al menú anterior.

    En pantalla aparece el menú Administrar distribución de carga de grupo de recursos.

Cómo establecer el modo preferente de un grupo de recursos

La propiedad preemption_mode determina si se aplicará el modo preferente a un grupo de recursos de un nodo mediante un grupo de recursos de prioridad superior debido a la sobrecarga de nodos. La propiedad indica el coste de mover un grupo de recursos de un nodo a otro.

  1. Conviértase en superusuario en un nodo activo del clúster.
  2. Inicie la utilidad clsetup.
    phys-schost# clsetup

    Aparece el menú de clsetup.

  3. Seleccione el elemento de menú Otras tareas del clúster.

    Aparece el menú Otras tareas del clúster.

  4. Seleccione el elemento de menú Administrar distribución de carga de grupo de recursos.

    En pantalla aparece el menú Administrar distribución de carga de grupo de recursos.

  5. Seleccione el elemento de menú Establecer modo preferente por grupo de recursos.

    Aparece en pantalla el menú Establecer modo preferente por grupo de recursos.

  6. Escriba y pulse Intro para continuar.
  7. Escriba el número de opción correspondiente al grupo de recursos y pulse Intro.

    Si el grupo de recursos tiene establecido un modo preferente, se muestra de manera similar a la siguiente:

    The preemption mode property of "rg11" is currently set to the following: preemption mode:  Has_Cost
  8. Escriba el número de opción para el modo preferente que desee y pulse Intro.

    Las tres opciones son Has_cost, No_cost o Never.

  9. Escriba para continuar con la actualización y pulse la tecla Intro.
  10. Pulse Intro para volver al menú anterior.

    En pantalla aparece el menú Administrar distribución de carga de grupo de recursos.

Cómo concentrar carga en menos nodos del clúster

Si la propiedad Concentrate_load se establece en False, el clúster distribuye grupos de carga de manera uniforme en todos los nodos disponibles. Si se establece en True, el clúster intenta concentrar carga de grupos de recursos en el menor número posible de nodos sin sobrepasar los límites de carga. De forma predeterminada, la propiedad Concentrate_load está establecida en False. La propiedad Concentrate_load sólo puede establecerse en un clúster global; no en uno de zona. En un clúster de zona, el valor predeterminado es siempre False.

  1. Conviértase en superusuario en un nodo activo del clúster.
  2. Inicie la utilidad clsetup.
    phys-schost# clsetup

    Aparece el menú de clsetup.

  3. Seleccione el elemento de menú Otras tareas del clúster.

    Aparece el menú Otras tareas del clúster.

  4. Seleccione el elemento de menú Establecer la propiedad concentrate_load del clúster.

    En pantalla aparece el menú Establecer la propiedad Concentrate_load del clúster.

  5. Escriba y pulse la tecla Intro.

    Se muestra el valor actual: TRUE o bien FALSE.

  6. Escriba para cambiar el valor y pulse Intro.
  7. Escriba para continuar con la actualización y pulse la tecla Intro.
  8. Pulse Intro para volver al menú anterior.

    Aparece el menú Otras tareas del clúster.

Cómo configurar Network Time Protocol (NTP)


Nota - Si ha instalado su propio archivo /etc/inet/ntp.conf antes de instalar el software Oracle Solaris Cluster, no es necesario que lleve a cabo este procedimiento. Determine el paso que debe realizar a continuación:


Realice esta tarea para crear o modificar el archivo de configuración de NTP después de llevar a cabo una de las siguientes tareas:

Si ha agregado un nodo a un clúster de un solo nodo, debe asegurarse de que el archivo de configuración de NTP que utilice se copie en el nodo de clúster original y en el nodo nuevo.

  1. Conviértase en superusuario en un nodo del clúster.
  2. Si dispone de su propio archivo /etc/inet/ntp.conf, cópielo en cada nodo del clúster.
  3. Si no dispone de su propio archivo /etc/inet/ntp.conf para instalarlo, use el archivo /etc/inet/ntp.conf.cluster como archivo de configuración de NTP.

    Nota - No cambie el nombre de ntp.conf.cluster por ntp.conf.


    Si el archivo /etc/inet/ntp.conf.cluster no existe en el nodo, es posible que disponga de un archivo /etc/inet/ntp.conf de una instalación del software Oracle Solaris Cluster anterior. El software Oracle Solaris Cluster crea el archivo /etc/inet/ntp.conf.cluster como archivo de configuración de NTP si no existe un archivo /etc/inet/ntp.conf en el nodo. En tal caso, realice las modificaciones que se describen a continuación en ese archivo ntp.conf.

    1. Abra el archivo de configuración de NTP con el editor de texto que desee en un nodo del clúster para modificarlo.
    2. Asegúrese de que exista una entrada para el nombre de host privado de cada nodo del clúster.

      Si ha cambiado el nombre de host privado de cualquier nodo, asegúrese de que el archivo de configuración de NTP contenga el nuevo nombre de host privado.

    3. Realice otras modificaciones necesarias, si las hubiere, para cumplir los requisitos de NTP.
    4. Copie el archivo de configuración de NTP en todos los nodos del clúster.

      El contenido del archivo de configuración de NTP debe ser idéntico en todos los nodos del clúster.

  4. Detenga el daemon de NTP en todos los nodos.

    Espere a que el comando finalice correctamente en todos los nodos antes de continuar con el Paso 5.

    phys-schost# svcadm disable ntp
  5. Reinicie el daemon de NTP en todos los nodos.
    • Si utiliza el archivo ntp.conf.cluster, ejecute el siguiente comando:
      phys-schost# /etc/init.d/xntpd.cluster start

      La secuencia de comandos de inicio xntpd.cluster busca el archivo /etc/inet/ntp.conf en primer lugar.

      • Si existe el archivo ntp.conf, la secuencia de comandos se cierra inmediatamente sin necesidad de iniciar el daemon de NTP.

      • Si no existe el archivo ntp.conf, pero sí el archivo ntp.conf.cluster, la secuencia de comandos inicia el daemon de NTP. En ese caso, la secuencia de comandos utiliza el archivo ntp.conf.cluster como archivo de configuración de NTP.

    • Si utiliza el archivo ntp.conf, ejecute el comando siguiente:
      phys-schost# svcadm enable ntp

Pasos siguientes

Determine cuál de las tareas de la lista que se muestra a continuación corresponde a la siguiente tarea que se realizará en la configuración de su clúster. Si necesita realizar más de una tarea de las de esta lista, vaya a la que aparezca en primer lugar.

Cómo configurar la arquitectura de seguridad IP (IPsec) en la interconexión privada del clúster

Puede configurar la arquitectura de seguridad IP (IPsec) de forma que la interfaz clprivnet proporcione una comunicación TCP/IP segura en la interconexión del clúster.

Para obtener información acerca de IPsec, consulte Parte IV, Seguridad IP de Guía de administración del sistema: servicios IP y la página de comando man ipsecconf(1M). Para obtener información sobre la interfaz clprivnet, consulte la página de comando man clprivnet(7).

Realice este procedimiento en todos los nodos de votación de clúster global que desee configurar para que utilicen IPsec.

  1. Conviértase en superusuario.
  2. Determine la dirección IP de la interfaz clprivnet de cada nodo.
    phys-schost# ifconfig clprivnet0
  3. Configure, en cada nodo, el archivo de normas /etc/inet/ipsecinit.conf y agregue las asociaciones de seguridad (SA) entre cada par de direcciones IP de interconexiones privadas que desee que utilicen IPsec.

    Siga las instrucciones que aparecen en la sección Cómo proteger el tráfico entre dos sistemas con IPsec de Guía de administración del sistema: servicios IP. Además, tenga en cuenta las siguientes directrices:

    • Asegúrese de que los valores de los parámetros de configuración de esas direcciones sean coherentes en todos los nodos asociados.

    • Configure cada directiva como una línea independiente del archivo de configuración.

    • Para implementar IPsec sin necesidad de reiniciarlo, siga las instrucciones que encontrará en el ejemplo del procedimiento Protección del tráfico con IPsec sin necesidad de reiniciar.

    Para obtener más información acerca de la norma sa unique, consulte la página de comando man ipsecconf(1M).

    1. Agregue, en todos los archivos, una entrada para cada dirección IP clprivnet del clúster para que utilicen IPsec.

      Incluya la dirección IP clprivnet del nodo local.

    2. Si utiliza interfaces de red virtuales (VNIC), agregue también una entrada para la dirección IP de cada interfaz física utilizada por las VNIC.
    3. (Opcional) Incluya la directiva sa unique en la entrada para habilitar la segmentación de datos en todos los vínculos.

      Esta opción ayuda al controlador a hacer un uso óptimo del ancho de banda de la red privada del clúster, lo que ofrece una alta granularidad de la distribución y un mayor rendimiento. La interfaz clprivnet utiliza el índice de parámetros de seguridad (SPI) del paquete para segmentar el tráfico.

  4. Edite, en cada nodo, el archivo /etc/inet/ike/config para configurar el parámetro p2_idletime_secs.

    Agregue esta entrada a las reglas de directivas configuradas para los transportes del clúster. Esta configuración establece el tiempo del que disponen las asociaciones de seguridad para volver a generarse cuando se reinicia un nodo del clúster y limita el tiempo de un nodo reiniciado para volver a unirse al clúster. 30 segundos debería ser un valor adecuado.

    phys-schost# vi /etc/inet/ike/config
    …
    {
        label "clust-priv-interconnect1-clust-priv-interconnect2"
    …
    p2_idletime_secs 30
    }
    …

Pasos siguientes

Determine cuál de las tareas de la lista que se muestra a continuación corresponde a la siguiente tarea que se realizará en la configuración de su clúster. Si necesita realizar más de una tarea de las de esta lista, vaya a la que aparezca en primer lugar.

De lo contrario, si ha completado todas las tareas de instalación y configuración del software, valide el clúster. Vaya a Cómo validar el clúster.

Cómo validar el clúster

Una vez completada la configuración del clúster, utilice el comando cluster check para validar la configuración y la funcionalidad del clúster. Para obtener más información, consulte la página de comando man cluster(1CL).


Consejo - Para realizar consultas o resolver problemas de forma más sencilla, en cada validación que ejecute, utilice la opción -o dir_salida para especificar un subdirectorio para los archivos de registro. Si se reutiliza el nombre de un subdirectorio que ya existe, se eliminarán todos los archivos existentes en dicho subdirectorio. Por tanto, para asegurarse de que haya disponibles archivos de registro para futuras consultas, especifique un nombre de subdirectorio exclusivo para cada comprobación de clúster que vaya a efectuar.


Antes de empezar

Asegúrese de haber completado la instalación y la configuración de todos los componentes de hardware y software en el clúster, incluidos el firmware y los parches.

  1. Conviértase en superusuario en un nodo de clúster.
  2. Asegúrese de tener las comprobaciones más actuales.

    Vaya a la ficha Parches y actualizaciones de My Oracle Support. Mediante la búsqueda avanzada, seleccione "Solaris Cluster" como producto y especifique "comprobar" en el campo de descripción para localizar los parches de Oracle Solaris Cluster que contengan comprobaciones. Aplique los parches que aún no estén instalados en el clúster.

  3. Ejecute las comprobaciones de validación básicas.
    # cluster check -v -o outputdir
    -v

    Modo detallado

    -o dir_salida

    Redirige la salida al subdirectorio dir_salida.

    El comando ejecuta todas las comprobaciones básicas disponibles. No se ve afectada ninguna función del clúster.

  4. Ejecute las comprobaciones de validación interactivas.
    # cluster check -v -k interactive -o outputdir
    -k interactive

    Especifica comprobaciones de validación interactivas en ejecución

    El comando ejecuta todas las comprobaciones de validación interactivas disponibles y le solicita información necesaria sobre el clúster. No se ve afectada ninguna función del clúster.

  5. Ejecute las comprobaciones de validación funcionales.
    1. Enumere todas las comprobaciones funcionales disponibles en el modo detallado.
      # cluster list-checks -k functional
    2. Determine qué comprobaciones funcionales realizan acciones que puedan afectar a la disponibilidad o los servicios del clúster en un entorno de producción.

      Por ejemplo, una comprobación funcional puede desencadenar que el nodo genere avisos graves o una conmutación por error a otro nodo.

      # cluster list-checks -v -C checkID
      -C ID_comprobación

      Especifica una comprobación concreta.

    3. Si hay peligro de que la comprobación funcional que desea efectuar interrumpa el funcionamiento del clúster, asegúrese de que el clúster no esté en producción.
    4. Inicie la comprobación funcional.
      # cluster check -v -k functional -C checkid -o outputdir
      -k functional

      Especifica comprobaciones de validación funcionales en ejecución.

      Responda a las peticiones de la comprobación para confirmar la ejecución de la comprobación y para cualquier información o acciones que deba realizar.

    5. Repita el Paso c y el Paso d para cada comprobación funcional que quede por ejecutar.

      Nota - Para fines de registro, especifique un nombre de subdirectorio dir_salida único para cada comprobación que se ejecuta. Si vuelve a utilizar un nombre dir_salida, la salida para la nueva comprobación sobrescribe el contenido existente del subdirectorio dir_salida reutilizado.


Ejemplo 3-5 Listado de comprobaciones de validación interactivas

En el siguiente ejemplo se enumeran todas las comprobaciones interactivas que están disponibles para ejecutarse en el clúster. En la salida del ejemplo aparece un muestreo de posibles comprobaciones; las comprobaciones disponibles reales varían en cada configuración.

# cluster list-checks -k interactive
 Some checks might take a few moments to run (use -v to see progress)...
 I6994574  :   (Moderate)   Fix for GLDv3 interfaces on cluster transport vulnerability applied?

Ejemplo 3-6 Ejecución de una comprobación de validación funcional

El siguiente ejemplo muestra primero el listado detallado de comprobaciones funcionales. La descripción detallada aparece en una lista para la comprobación F6968101, que indica que la comprobación podría alterar los servicios del clúster. El clúster se elimina de la producción. La comprobación funcional se ejecuta con salida detallada registrada en el subdirectorio funct.test.F6968101.12Jan2011. En la salida de ejemplo aparece un muestreo de posibles comprobaciones; las comprobaciones disponibles reales varían en cada configuración.

# cluster list-checks -k functional
 F6968101  :   (Critical)   Perform resource group switchover
 F6984120  :   (Critical)   Induce cluster transport network failure - single adapter.
 F6984121  :   (Critical)   Perform cluster shutdown
 F6984140  :   (Critical)   Induce node panic
…

# cluster list-checks -v -C F6968101
 F6968101: (Critical) Perform resource group switchover
Keywords: SolarisCluster3.x, functional
Applicability: Applicable if multi-node cluster running live.
Check Logic: Select a resource group and destination node. Perform 
'/usr/cluster/bin/clresourcegroup switch' on specified resource group 
either to specified node or to all nodes in succession.
Version: 1.2
Revision Date: 12/10/10 

Take the cluster out of production

# cluster check -k functional -C F6968101 -o funct.test.F6968101.12Jan2011
F6968101 
  initializing...
  initializing xml output...
  loading auxiliary data...
  starting check run...
     pschost1, pschost2, pschost3, pschost4:     F6968101.... starting:  
Perform resource group switchover           


  ============================================================

   >>> Functional Check <<<

    'Functional' checks exercise cluster behavior. It is recommended that you
    do not run this check on a cluster in production mode.' It is recommended
    that you have access to the system console for each cluster node and
    observe any output on the consoles while the check is executed.

    If the node running this check is brought down during execution the check
    must be rerun from this same node after it is rebooted into the cluster in
    order for the check to be completed.

    Select 'continue' for more details on this check.

          1) continue
          2) exit

          choice: 1


  ============================================================

   >>> Check Description <<<
…
Follow onscreen directions

Pasos siguientes

Antes de poner el clúster en funcionamiento, realice un registro de línea de base de la configuración del clúster para futuros diagnósticos. Vaya a Cómo registrar los datos de diagnóstico de la configuración del clúster.

Cómo registrar los datos de diagnóstico de la configuración del clúster

Cuando termine de configurar el clúster global y antes de ponerlo en funcionamiento, use la utilidad Oracle Explorer para registrar la información de línea de base acerca del clúster. Estos datos se pueden utilizar en caso de que se diera una necesidad de solucionar un problema con el clúster.

  1. Conviértase en superusuario.
  2. Instale el software Oracle Explorer, si aún no está instalado.

    Services Tools Bundle contiene los paquetes de Oracle Explorer SUNWexplo y SUNWexplu. Consulte http://www.oracle.com/us/support/systems/premier/services-tools-bundle-sun-systems-163717.html para obtener información sobre la descarga y la instalación del software.

  3. Ejecute la utilidad explorer en todos los nodos del clúster.

    Utilice el comando adecuado para su plataforma:


    Servidor
    Comando
    Sun Fire 3800 a 6800
    # explorer -i -w default,scextended
    Sun Fire V1280 y E2900
    # explorer -i -w default,1280extended
    Sun Fire T1000 y T2000
    # explorer -i -w default,Tx000
    Sun Fire X4x00 y X8x00
    # explorer -i -w default,ipmi
    Resto de plataformas
    # explorer -i

    Para más información, consulte la página de comando man explorer(1M) en el directorio /opt/SUNWexplo/man/man1m/ y Oracle Explorer User’s Guide.

    El archivo de salida explorer se guarda en el directorio /opt/SUNWexplo/output/ como explorer.id_host.nombre_host-fecha.tar.gz.

  4. Guarde los archivos en una ubicación a la que pueda acceder si el clúster quedara inoperativo por completo.
  5. Envíe todos los archivos explorer por correo electrónico a la dirección de la base de datos de Oracle Explorer correspondiente a su ubicación geográfica.

    La base de datos de Oracle Explorer pondrá la salida de explorer a disposición de la asistencia técnica de Oracle cuando estos datos resulten necesarios para ayudar a diagnosticar un problema técnico del clúster.


    Ubicación
    Dirección de correo electrónico
    Norteamérica, América central y Sudamérica (AMER)
    explorer-database-americas@sun.com
    Europa, Oriente medio y África (EMEA)
    explorer-database-emea@sun.com
    Asia, Australia, Nueva Zelanda y el Pacífico (APAC)
    explorer-database-apac@sun.com

    Para utilizar FTP o HTTPS para enviar archivos de Oracle Explorer, también puede seguir los procedimientos que se indican en Oracle Explorer User’s Guide .