JavaScript is required to for searching.
Omitir Vínculos de navegación
Salir de la Vista de impresión
Guía de instalación del software de Oracle Solaris Cluster     Oracle Solaris Cluster 3.3 3/13 (Español)
search filter icon
search icon

Información del documento

Prefacio

1.  Planificación de la configuración de Oracle Solaris Cluster

2.  Instalación del software en los nodos del cluster global

3.  Establecimiento del cluster global

Establecimiento de un nuevo cluster global o de un nuevo nodo de cluster global

Cómo configurar el software Oracle Solaris Cluster en todos los nodos (scinstall)

Cómo configurar el software Oracle Solaris Cluster en todos los nodos (XML)

Instalación de Oracle Solaris y el software de Oracle Solaris Cluster (JumpStart)

Cómo preparar el cluster para nodos de cluster global adicionales

Cómo cambiar la configuración de red privada al agregar nodos o redes privadas

Cómo configurar el software Oracle Solaris Cluster en nodos de cluster global adicionales (scinstall)

Configuración del software de Oracle Solaris Cluster en nodos de cluster global adicionales (XML)

Cómo actualizar los dispositivos del quórum tras agregar un nodo a un cluster global

Cómo configurar dispositivos del quórum

Cómo verificar los modos de configuración e instalación del quórum

Cómo cambiar nombres de host privados

Configuración de la distribución de carga de grupos de recursos en los nodos

Configuración de los límites de carga para un nodo

Definición de una prioridad para un grupo de recursos

Definición de los factores de carga para un grupo de recursos

Definición del modo de preferencia para un grupo de recursos

Concentración de la carga en menos nodos del cluster

Configuración de Network Time Protocol (NTP)

Configuración de la arquitectura de seguridad IP (IPsec) en la interconexión privada del cluster

Cómo validar el cluster

Cómo registrar los datos de diagnóstico de la configuración del cluster

4.  Configuración del software de Solaris Volume Manager

5.  Creación de un sistema de archivos del cluster

6.  Creación de zonas no globales y clusters de zona

7.  Desinstalación del software del cluster

Índice

Establecimiento de un nuevo cluster global o de un nuevo nodo de cluster global

Esta sección ofrece información y procedimientos para establecer un cluster global nuevo y para agregar un nodo a un cluster existente. Los nodos del cluster global pueden ser máquinas físicas, (sólo SPARC) dominios de E/S de Oracle VM Server para SPARC o dominios invitados de Oracle VM Server para SPARC. Un cluster puede estar formado por cualquier combinación de estos tipos de nodo. Antes de comenzar a realizar estas tareas, asegúrese de haber instalado los paquetes de software del sistema operativo Oracle Solaris, la estructura de Oracle Solaris Cluster, y otros productos, tal como se describe en Instalación del software.

Los mapas de tareas siguientes enumeran las tareas que deben efectuarse en el caso de un cluster global nuevo o en el de un nodo que se ha agregado a un cluster global ya existente. Realice los procedimientos en el orden indicado.

Tabla 3-1 Mapa de tareas: establecer un nuevo cluster global

Método
Instrucciones
Use uno de los métodos siguientes para establecer un nuevo cluster global:
  • Use la utilidad scinstall para establecer el cluster.
  • Utilice un archivo de configuración XML para establecer el cluster.
  • Configure un servidor de instalación de JumpStart. A continuación, cree un archivo flash del sistema instalado. Por último, utilice la opción scinstall de JumpStart para instalar el archivo flash en todos los nodos y establecer el cluster.
Asigne los votos del quórum y abandone el modo de instalación del cluster si todavía no lo ha hecho.
Valide la configuración del quórum.
(Opcional) Cambie el nombre de host privado de un nodo.
Cree o modifique el archivo de configuración de NTP si no lo ha hecho todavía.
(Opcional) Configure IPsec para proteger la interconexión privada.
Si utiliza Solaris Volume Manager, configure el software de administración de volúmenes.
Cree sistemas de archivos del cluster o sistemas de archivos locales de alta disponibilidad según sea necesario.
Instale las aplicaciones de terceros, registre los tipos de recursos y configure los grupos de recursos y los servicios de datos.
Oracle Solaris Cluster Data Services Planning and Administration Guide

Documentación suministrada con el software de la aplicación

Valide el cluster.
Realice un registro de línea de base de la configuración final del cluster.

Tabla 3-2 Mapa de tareas: agregar un nodo a un cluster global

Método
Instrucciones
Utilice el comando clsetup para agregar el nodo nuevo a la lista de nodos autorizados del cluster. Si fuera necesario, configure también la interconexión del cluster y reconfigure el intervalo de direcciones de red privada.
Reconfigure la interconexión del cluster y el rango de direcciones de redes privadas como sea preciso para acomodar el nodo agregado.
Use uno de los métodos siguientes para agregar un nodo a un cluster global:
  • Configure un servidor de instalación de JumpStart. A continuación, cree un archivo flash del sistema instalado. Por último, utilice la opción scinstall de JumpStart para instalar el archivo flash en el nodo que está agregando al cluster.
  • Configure el software Oracle Solaris Cluster en el nodo nuevo mediante la utilidad scinstall.
  • Configure el software Oracle Solaris Cluster en el nodo nuevo mediante un archivo de configuración XML.
Actualice la información de configuración del quórum.
Valide la configuración del quórum.
(Opcional) Cambie el nombre de host privado de un nodo.
Modifique la configuración de NTP.
Si IPsec está configurado en el cluster, configure IPsec en el nodo agregado.
Si utiliza Solaris Volume Manager, configure el software de administración de volúmenes.
Cree sistemas de archivos del cluster o sistemas de archivos locales de alta disponibilidad según sea necesario.
Instale las aplicaciones de terceros, registre los tipos de recursos y configure los grupos de recursos y los servicios de datos.
Oracle Solaris Cluster Data Services Planning and Administration Guide

Documentación suministrada con el software de la aplicación

Valide el cluster.
Realice un registro de línea de base de la configuración final del cluster.

Cómo configurar el software Oracle Solaris Cluster en todos los nodos (scinstall)

Lleve a cabo este procedimiento en uno de los nodos del cluster global para configurar el software de Oracle Solaris Cluster en todos los nodos del mismo.


Nota - En este procedimiento, se utiliza el formato interactivo del programa scinstall. Para utilizar los formatos no interactivos del comando scinstall como, por ejemplo, al crear secuencias de comandos de instalación, consulte la página del comando man scinstall(1M).

Asegúrese de que los paquetes de software de Oracle Solaris Cluster se hayan instalado en el nodo manualmente o con el modo silencioso del programa installer antes de ejecutar el comando scinstall. Para obtener información sobre cómo ejecutar el programa installer desde una secuencia de comandos de instalación, consulte Capítulo 5, Installing in Silent Mode de Sun Java Enterprise System 5 Update 1 Installation Guide for UNIX.


Antes de empezar

Realice las siguientes tareas:

Siga estas directrices para usar la utilidad scinstall interactiva en este procedimiento:

  1. Si ha desactivado la configuración remota durante la instalación del software de Oracle Solaris Cluster, vuelva a activar la configuración remota.

    Active acceso de shell remoto (rsh(1M)) o shell seguro (ssh(1)) para el superusuario en todos los nodos del cluster.

  2. Si utiliza conmutadores en la interconexión privada del nuevo cluster, asegúrese de que el Protocolo de detección de elementos próximos (NDP) esté inhabilitado.

    Siga los procedimientos incluidos en la documentación de los conmutadores para determinar si NDP está habilitado o si debe inhabilitar este protocolo.

    Durante la configuración del cluster, el software comprueba que no haya tráfico en la interconexión privada. Si NDP envía paquetes a un adaptador privado cuando se está comprobando si hay tráfico en la interconexión privada, el software presupondrá que la interconexión no es privada y se interrumpirá la configuración del cluster. Por lo tanto, NDP debe inhabilitarse durante la creación del cluster.

    Una vez establecido el cluster, puede volver a habilitar NDP en los conmutadores de interconexión privada si desea utilizar esta función.

  3. Inicie la utilidad scinstall desde un nodo del cluster.
    phys-schost# /usr/cluster/bin/scinstall
  4. Escriba el número correspondiente a la opción Create a New Cluster or Add a Cluster Node (Crear un cluster o agregar un nodo de cluster) y pulse la tecla Intro.
     *** Main Menu ***
    
        Please select from one of the following (*) options:
    
          * 1) Create a new cluster or add a cluster node
          * 2) Configure a cluster to be JumpStarted from this install server
            3) Manage a dual-partition upgrade
            4) Upgrade this cluster node
          * 5) Print release information for this cluster node
     
          * ?) Help with menu options
          * q) Quit
    
        Option:  1

    Aparece el menú Nuevo cluster o nodo del cluster.

  5. Escriba el número correspondiente a la opción para crear un cluster y pulse la tecla Intro.

    Aparece el menú Typical or Custom Mode (Modo típico o personalizado).

  6. Escriba el número correspondiente a la opción Typical or Custom (Típica o Personalizada) y pulse la tecla Intro.

    Aparece la pantalla Create a New Cluster (Crear un cluster). Lea los requisitos y, a continuación, pulse Control+D para continuar.

  7. Siga las indicaciones en el menú para proporcionar respuestas de la hoja de trabajo para la planificación de la configuración.

    La utilidad scinstall instala y configura todos los nodos del cluster y reinicia el cluster. El cluster se establece cuando todos los nodos se han iniciado con éxito en el cluster. La salida de la instalación de Oracle Solaris Cluster se registra en el archivo /var/cluster/logs/install/scinstall.log.N.

  8. Compruebe en todos los nodos que los servicios multiusuario para la utilidad de gestión de servicios (SMF) estén en línea.

    Si los servicios todavía no están en línea para un nodo, espere hasta que cambie el estado y aparezca como en línea antes de continuar con el siguiente paso.

    phys-schost# svcs multi-user-server node
    STATE          STIME    FMRI
    online         17:52:55 svc:/milestone/multi-user-server:default
  9. Desde un nodo, verifique que todos los nodos se hayan unido al cluster.
    phys-schost# clnode status

    La salida presenta un aspecto similar al siguiente.

    === Cluster Nodes ===
    
    --- Node Status ---
    
    Node Name                                       Status
    ---------                                       ------
    phys-schost-1                                   Online
    phys-schost-2                                   Online
    phys-schost-3                                   Online

    Para obtener más información, consulte la página del comando man clnode(1CL).

  10. (Opcional) Active la función de reinicio automático de nodos.

    Esta función reinicia automáticamente un nodo cuando todas las rutas de disco compartido supervisadas presentan errores y siempre que al menos uno de los discos sea accesible desde otro nodo del cluster.


    Nota - En el momento de configuración inicial, la supervisión de la ruta del disco se activa de manera predeterminada para todos los dispositivos detectados.


    1. Habilite el reinicio automático.
      phys-schost# clnode set -p reboot_on_path_failure=enabled
      -p

      Especifica la propiedad que se va a establecer.

      reboot_on_path_failure=enable

      Habilita el reinicio automático del nodo en caso de producirse un error en las rutas de discos compartidos supervisados.

    2. Compruebe que el reinicio automático tras un error de ruta de disco se encuentre habilitado.
      phys-schost# clnode show
      === Cluster Nodes ===                          
      
      Node Name:                                      node
      …
        reboot_on_path_failure:                          enabled
      …
  11. Si tiene pensado usar Oracle Solaris Cluster HA para NFS (HA para NFS) un sistema de archivos local de alta disponibilidad, asegúrese de que el sistema de archivos de bucle de retorno (LOFS) esté desactivado.

    Para desactivar el LOFS, agregue la siguiente entrada al archivo /etc/system en cada nodo del cluster.

    exclude:lofs

    El cambio realizado en el archivo /etc/system se aplicará en el siguiente reinicio del sistema.


    Nota - No puede tener el LOFS activado si utiliza HA para NFS en un sistema de archivos local de alta disponibilidad tener y y ejecuta automountd. El LOFS puede causar problemas de conmutación para HA para NFS. Si elige agregar HA para NFS en un sistema de archivos local de alta disponibilidad, debe realizar uno de los siguientes cambios de configuración.

    Sin embargo, si configura las zonas no globales en el cluster, debe activar LOFS en todos los nodos del cluster. Si HA para NFS en un sistema de archivos local de alta disponibilidad debe coexistir con LOFS, use una de las otras soluciones en lugar de desactivar LOFS.

    • Desactive LOFS.

    • Inhabilite el daemon automountd.

    • Excluya del mapa del montador automático todos los archivos que formen parte del sistema de archivos locales de alta disponibilidad exportado por HA para NFS. Esta opción permite conservar tanto el LOFS como el daemon automountd activados.


    Consulte The Loopback File System de System Administration Guide: Devices and File Systems para obtener información acerca de los sistemas de archivos de bucle de retorno.

Ejemplo 3-1 Configuración del software Oracle Solaris Cluster en todos los nodos

En el siguiente ejemplo, se muestran los mensajes de progreso de scinstall que se van registrando a medida que scinstall completa tareas de configuración en el cluster de dos nodos, schost. El cluster se instala desde phys-schost-1 mediante la utilidad scinstall en el modo típico. El otro nodo del cluster es phys-schost-2. Los nombres de los adaptadores son bge2 y bge3. La selección automática del dispositivo del quórum está habilitada.

  Installation and Configuration

    Log file - /var/cluster/logs/install/scinstall.log.24747

    Configuring global device using lofi on phys-schost-1: done
    Starting discovery of the cluster transport configuration.
    The Oracle Solaris Cluster software is already installed on "phys-schost-1".
    The Oracle Solaris Cluster software is already installed on "phys-schost-2".
    Starting discovery of the cluster transport configuration.

    The following connections were discovered:

        phys-schost-1:bge2  switch1  phys-schost-2:bge2
        phys-schost-1:bge3  switch2  phys-schost-2:bge3

    Completed discovery of the cluster transport configuration.

    Started cluster check on "phys-schost-1".
    Started cluster check on "phys-schost-2".

    cluster check completed with no errors or warnings for "phys-schost-1".
    cluster check completed with no errors or warnings for "phys-schost-2".

    Removing the downloaded files … done

    Configuring "phys-schost-2" … done
    Rebooting "phys-schost-2" … done

    Configuring "phys-schost-1" … done
    Rebooting "phys-schost-1" …

Log file - /var/cluster/logs/install/scinstall.log.24747

Rebooting …

Errores más frecuentes

Configuración incorrecta: si uno o varios nodos no se pueden incorporar al cluster, o si se ha especificado información de configuración incorrecta, primero intente ejecutar de nuevo este procedimiento. Si no se soluciona el problema, realice el procedimiento Cómo anular la configuración del software Oracle Solaris Cluster para solucionar problemas de instalación en cada nodo que se haya configurado incorrectamente para suprimirlo de la configuración del cluster. No es necesario que desinstale los paquetes de software Oracle Solaris Cluster. A continuación, vuelva a ejecutar este procedimiento.

Pasos siguientes

Si pretende configurar algún dispositivo del quórum en el cluster, vaya a Cómo configurar dispositivos del quórum.

De lo contrario, vaya a Cómo verificar los modos de configuración e instalación del quórum.

Cómo configurar el software Oracle Solaris Cluster en todos los nodos (XML)

Lleve a cabo este procedimiento para configurar un cluster global nuevo mediante un archivo XML de configuración del cluster. El cluster nuevo puede ser un reflejo de un cluster existente que ejecute el software Oracle Solaris Cluster 3.3 3/13.

Mediante este procedimiento, se configuran los siguientes componentes del cluster:

Antes de empezar

Realice las siguientes tareas:

  1. Asegúrese de que el software de Oracle Solaris Cluster 3.3 3/13 no esté configurado todavía en los nodos potenciales del cluster.
    1. Conviértase en superusuario en alguno de los nodos que desee configurar en el cluster nuevo.
    2. Determine si el software de Oracle Solaris Cluster está o no configurado en el nodo potencial.
      phys-schost# /usr/sbin/clinfo -n
      • Si el comando devuelve el mensaje que se muestra a continuación, vaya al paso c.
        clinfo: node is not configured as part of acluster: Operation not applicable

        Este mensaje indica que el software de Oracle Solaris Cluster todavía no se ha configurado en el nodo potencial.

      • Si el comando devuelve el número de ID del nodo, no realice este procedimiento.

        La devolución de un ID de nodo indica que el software de Oracle Solaris Cluster ya está configurado en el nodo.

        Si el cluster ejecuta una versión anterior del software de Oracle Solaris Cluster y usted desea instalar el software de Oracle Solaris Cluster 3.3 3/13, realice los procedimientos de actualización que se indican en la Oracle Solaris Cluster Upgrade Guide.

    3. Repita los pasos a y b en el resto de los nodos potenciales que desee configurar en el cluster nuevo.

      Si el software de Oracle Solaris Cluster aún no se ha configurado en ningún nodo potencial del cluster, vaya al paso 2.

  2. Si utiliza conmutadores en la interconexión privada del nuevo cluster, asegúrese de que el Protocolo de detección de elementos próximos (NDP) esté inhabilitado.

    Siga los procedimientos incluidos en la documentación de los conmutadores para determinar si NDP está habilitado o si debe inhabilitar este protocolo.

    Durante la configuración del cluster, el software comprueba que no haya tráfico en la interconexión privada. Si NDP envía paquetes a un adaptador privado cuando se está comprobando si hay tráfico en la interconexión privada, el software presupondrá que la interconexión no es privada y se interrumpirá la configuración del cluster. Por lo tanto, NDP debe inhabilitarse durante la creación del cluster.

    Una vez establecido el cluster, puede volver a habilitar NDP en los conmutadores de interconexión privada si desea utilizar esta función.

  3. Si está duplicando un cluster existente que ejecuta el software de Oracle Solaris Cluster 3.3 3/13, utilice un nodo de ese cluster para crear un archivo XML de configuración del cluster.
    1. Conviértase en superusuario en un miembro activo del cluster que desee reflejar.
    2. Exporte la información de la configuración del cluster existente a un archivo.
      phys-schost# cluster export -o clconfigfile
      -o

      Especifica el destino de salida.

      clconfigfile

      Nombre del archivo XML de configuración del cluster. El nombre de archivo especificado puede ser un archivo existente o un archivo nuevo que el comando creará.

      Para obtener más información, consulte la página del comando man cluster(1CL).

    3. Copie el archivo de configuración en el nodo potencial desde el que configurará el cluster nuevo.

      Puede almacenar el archivo en cualquier directorio accesible para el resto de los hosts que configurará como nodos del cluster.

  4. Conviértase en superusuario en el nodo potencial desde el que configurará el cluster nuevo.
  5. Modifique el archivo XML de configuración del cluster según sea necesario.
    1. Abra el archivo XML de configuración del cluster para editarlo.
      • Si va a crear un reflejo de un cluster existente, abra el archivo que creó con el comando cluster export.
      • Si no va a crear un reflejo de un cluster existente, cree un archivo nuevo.

        Base el archivo en la jerarquía de elementos que se muestra en la página del comando man clconfiguration(5CL). Puede almacenar el archivo en cualquier directorio accesible para el resto de los hosts que configurará como nodos del cluster.

    2. Modifique los valores de los elementos XML para reflejar la configuración de cluster que desea crear.
      • Para poder establecer un cluster, los siguientes componentes deben poseer valores válidos en el archivo XML de configuración del cluster:

        • Nombre del cluster

        • Nodos del cluster

        • Transporte del cluster

      • De manera predeterminada, el cluster se crea con el espacio de nombres de dispositivos globales configurado en un dispositivo lofi. Si, en cambio, necesita utilizar un sistema de archivos dedicado en el cual crear los dispositivos globales, agregue la siguiente propiedad al elemento <propertyList> para cada nodo que vaya a usar una partición en lugar de un dispositivo lofi.

        …
          <nodeList>
            <node name="node" id="N">
              <propertyList>
        …
                <property name="globaldevfs" value="/filesystem-name">
        …
              </propertyList>
            </node>
        …
      • Cuando modifique información de configuración exportada desde un cluster existente, tenga en cuenta que se utilizan algunos valores que deben cambiar para reflejar el nuevo cluster, como los nombres de nodo, en las definiciones de varios objetos del cluster.

      Consulte la página del comando man clconfiguration(5CL) para obtener información detallada sobre la estructura y el contenido del archivo XML de configuración del cluster.

  6. Valide el archivo XML de configuración del cluster.
    phys-schost# /usr/share/src/xmllint --valid --noout clconfigfile

    Consulte la página del comando man xmllint(1) para obtener más información.

  7. Cree el cluster desde el nodo potencial que contiene el archivo XML de configuración del cluster.
    phys-schost# cluster create -i clconfigfile
    -i clconfigfile

    Especifica el nombre del archivo XML de configuración del cluster que se va a utilizar como fuente de entrada.

  8. Compruebe en todos los nodos que los servicios multiusuario para la utilidad de gestión de servicios (SMF) estén en línea.

    Si los servicios todavía no están en línea para un nodo, espere hasta que cambie el estado y aparezca como en línea antes de continuar con el siguiente paso.

    phys-schost# svcs multi-user-server node
    STATE          STIME    FMRI
    online         17:52:55 svc:/milestone/multi-user-server:default
  9. Desde un nodo, verifique que todos los nodos se hayan unido al cluster.
    phys-schost# clnode status

    La salida presenta un aspecto similar al siguiente.

    === Cluster Nodes ===
    
    --- Node Status ---
    
    Node Name                                       Status
    ---------                                       ------
    phys-schost-1                                   Online
    phys-schost-2                                   Online
    phys-schost-3                                   Online

    Para obtener más información, consulte la página del comando man clnode(1CL).

  10. Instale los parches necesarios para admitir el software de Oracle Solaris Cluster (si todavía no lo ha hecho).

    Consulte Parches y niveles de firmware requeridos de Notas de la versión de Oracle Solaris Cluster 3.3 3/13 para conocer la ubicación de parches y obtener instrucciones de instalación.

  11. Si tiene pensado usar Oracle Solaris Cluster HA para NFS (HA para NFS) un sistema de archivos local de alta disponibilidad, asegúrese de que el sistema de archivos de bucle de retorno (LOFS) esté desactivado.

    Para desactivar el LOFS, agregue la siguiente entrada al archivo /etc/system en cada nodo del cluster.

    exclude:lofs

    El cambio realizado en el archivo /etc/system se aplicará en el siguiente reinicio del sistema.


    Nota - No puede tener el LOFS activado si utiliza HA para NFS en un sistema de archivos local de alta disponibilidad tener y y ejecuta automountd. El LOFS puede causar problemas de conmutación para HA para NFS. Si elige agregar HA para NFS en un sistema de archivos local de alta disponibilidad, debe realizar uno de los siguientes cambios de configuración.

    Sin embargo, si configura las zonas no globales en el cluster, debe activar LOFS en todos los nodos del cluster. Si HA para NFS en un sistema de archivos local de alta disponibilidad debe coexistir con LOFS, use una de las otras soluciones en lugar de desactivar LOFS.

    • Desactive LOFS.

    • Inhabilite el daemon automountd.

    • Excluya del mapa del montador automático todos los archivos que formen parte del sistema de archivos locales de alta disponibilidad exportado por HA para NFS. Esta opción permite conservar tanto el LOFS como el daemon automountd activados.


    Consulte The Loopback File System de System Administration Guide: Devices and File Systems para obtener información acerca de los sistemas de archivos de bucle de retorno.

  12. Para crear reflejos de la información del quórum de un cluster existente, configure el dispositivo del quórum con el archivo XML de configuración del cluster.

    Debe configurar un dispositivo del quórum si ha creado un cluster de dos nodos. Si decide no utilizar el archivo XML de configuración del cluster para crear un dispositivo del quórum requerido, vaya a Cómo configurar dispositivos del quórum.

    1. Si utiliza un servidor de quórum como dispositivo del quórum, asegúrese de que el servidor esté configurado y funcione correctamente.

      Siga las instrucciones incluidas en Instalación y configuración del software Servidor de quórum.

    2. Si utiliza un dispositivo NAS como dispositivo del quórum, asegúrese de que esté configurado y operativo.
      1. Tenga en cuenta los requisitos para la utilización de un dispositivo NAS como dispositivo del quórum.

        Consulte Oracle Solaris Cluster 3.3 3/13 With Network-Attached Storage Device Manual .

      2. Siga las instrucciones de la documentación del dispositivo NAS para configurarlo.
    3. Asegúrese de que la información de configuración del quórum incluida en el archivo XML de configuración del cluster refleje valores válidos para el cluster que ha creado.
    4. Si ha realizado cambios en el archivo XML de configuración del cluster, valídelo.
      phys-schost# xmllint --valid --noout clconfigfile
    5. Configure el dispositivo del quórum.
      phys-schost# clquorum add -i clconfigfile devicename
      devicename

      Especifica el nombre del dispositivo que se va a configurar como dispositivo del quórum.

  13. Abandone el modo de instalación del cluster.
    phys-schost# clquorum reset
  14. Impida el acceso de máquinas que no estén configuradas como miembros del cluster a la configuración del mismo.
    phys-schost# claccess deny-all
  15. (Opcional) Habilite el reinicio automático de nodos cuando todas las rutas de disco compartido supervisadas presenten errores.

    Nota - En el momento de configuración inicial, la supervisión de la ruta del disco se activa de forma predeterminada para todos los dispositivos detectados.


    1. Habilite el reinicio automático.
      phys-schost# clnode set -p reboot_on_path_failure=enabled
      -p

      Especifica la propiedad que se va a establecer.

      reboot_on_path_failure=enable

      Habilita el reinicio automático del nodo en caso de producirse un error en las rutas de discos compartidos supervisados.

    2. Compruebe que el reinicio automático tras un error de ruta de disco se encuentre habilitado.
      phys-schost# clnode show
      === Cluster Nodes ===                          
      
      Node Name:                                      node
      …
        reboot_on_path_failure:                          enabled
      …

Ejemplo 3-2 Configuración del software Oracle Solaris Cluster en todos los nodos utilizando un archivo XML

En el siguiente ejemplo, se crea el reflejo de la configuración del cluster y del quórum de un cluster de dos nodos existente en un cluster de dos nodos nuevo. El cluster nuevo se instala con el SO Oracle Solaris 10 y no se configura con zonas no globales. La configuración del cluster se exporta desde el nodo del cluster existente, phys-oldhost-1, al archivo XML de configuración del cluster clusterconf.xml. Los nombres de los nodos del cluster nuevo son phys-newhost-1 y phys-newhost-2. El dispositivo que se configura como dispositivo del quórum en el nuevo cluster es d3.

El nombre de indicador phys-newhost-N de este ejemplo señala que el comando se ejecuta en los dos nodos del cluster.

phys-newhost-N# /usr/sbin/clinfo -n
clinfo: node is not configured as part of acluster: Operation not applicable
 
phys-oldhost-1# cluster export -o clusterconf.xml
Copy clusterconf.xml to phys-newhost-1 and modify the file with valid values
 
phys-newhost-1# xmllint --valid --noout clusterconf.xml
No errors are reported
 
phys-newhost-1# cluster create -i clusterconf.xml
phys-newhost-N# svcs multi-user-server
STATE          STIME    FMRI
online         17:52:55 svc:/milestone/multi-user-server:default
phys-newhost-1# clnode status
Output shows that both nodes are online
 
phys-newhost-1# clquorum add -i clusterconf.xml d3
phys-newhost-1# clquorum reset

Errores más frecuentes

Configuración incorrecta: si uno o varios nodos no se pueden incorporar al cluster, o si se ha especificado información de configuración incorrecta, primero intente ejecutar de nuevo este procedimiento. Si no se soluciona el problema, realice el procedimiento Cómo anular la configuración del software Oracle Solaris Cluster para solucionar problemas de instalación en cada nodo que se haya configurado incorrectamente para suprimirlo de la configuración del cluster. No es necesario que desinstale los paquetes de software Oracle Solaris Cluster. A continuación, vuelva a ejecutar este procedimiento.

Pasos siguientes

Vaya a Cómo verificar los modos de configuración e instalación del quórum.

Véase también

Una vez que se haya establecido completamente el cluster, puede crear reflejos de la configuración del resto de los componentes del cluster existente. Si aún no lo ha hecho, modifique los valores de los elementos XML que desee para reflejar la configuración del cluster a la que va a agregar el componente. Por ejemplo, si va a duplicar grupos de recursos, asegúrese de que la entrada <resourcegroupNodeList> contenga nombres de nodo válidos para el cluster nuevo y no los nombres de nodo del cluster que ha reflejado, a no ser que ambos coincidan.

Para crear reflejos de un componente del cluster, ejecute el subcomando export del comando orientado a objetos en el componente del cluster que desee reflejar. Para obtener más información acerca de la sintaxis y las opciones del comando, consulte la página del comando man del objeto del cluster que desee reflejar. En la tabla que aparece a continuación, se muestran los componentes del cluster que se pueden crear desde un archivo XML de configuración del cluster una vez que éste se haya establecido, así como la página del comando man correspondiente al comando que se utiliza para duplicar el componente.

Datos de componentes del cluster
Página del comando man
Instrucciones especiales
Grupos de dispositivos: Solaris Volume Manager
En el caso de Solaris Volume Manager, cree en primer lugar los conjuntos de discos que especifique en el archivo XML de configuración del cluster.
Recursos
Puede utilizar la opción -a de los comandos clresource, clressharedaddress o clreslogicalhostname para duplicar también el tipo y el grupo de recursos asociados al recurso que va a duplicar.

Si no la utiliza, debe agregar primero el tipo y el grupo del recurso al cluster antes de añadir el recurso.

Recursos de dirección compartida
Recursos de nombre de host lógico
Tipos de recursos
Grupos de recursos
Dispositivos NAS
Debe configurar, en primer lugar, el dispositivo NAS, tal como se describe en la documentación del dispositivo.
Hosts SNMP
El comando clsnmphost create -i requiere que se especifique un archivo de contraseña de usuario con la opción -f.
Usuarios SNMP
Umbrales de los recursos del sistema de supervisión en los objetos del cluster

Instalación de Oracle Solaris y el software de Oracle Solaris Cluster (JumpStart)

En este procedimiento, se describe cómo configurar y utilizar el método de instalación personalizada scinstall(1M) de JumpStart. Mediante este método se instalan tanto el SO Oracle Solaris como el software de Oracle Solaris Cluster en todos los nodos del cluster global y se establece el cluster. También puede utilizar este procedimiento para agregar nuevos nodos a un cluster existente.

Antes de empezar

Realice las siguientes tareas:

Siga estas directrices para usar la utilidad scinstall interactiva en este procedimiento:

  1. Configure el servidor de instalación de JumpStart.

    Asegúrese de que el servidor de instalación de JumpStart cumpla los siguientes requisitos:

    • El servidor de instalación está en la misma subred que los nodos del cluster o en el servidor de inicio de Oracle Solaris para la subred que utilizan los nodos del cluster.

    • El servidor de instalación no es un nodo del cluster.

    • El servidor de instalación instala una versión del SO Oracle Solaris admitida por el software de Oracle Solaris Cluster.

    • Existe un directorio JumpStart personalizado para la instalación del software de Oracle Solaris Cluster. Este directorio jumpstart-dir debe cumplir los siguientes requisitos:

      • Contener una copia de la utilidad check.

      • Ser exportada por NFS para que el servidor de instalación JumpStart realice la lectura.

    • Cada nuevo nodo del cluster se configura como un cliente de la instalación personalizada de JumpStart que utiliza el directorio JumpStart personalizado que se ha configurado para la instalación de Oracle Solaris Cluster.

    Siga las instrucciones correspondientes a su plataforma de software y su versión de SO para configurar el servidor de instalación de JumpStart. Consulte Creación de un servidor de perfiles para sistemas conectados en red de Guía de instalación de Oracle Solaris 10 1/13: instalaciones JumpStart.

    Consulte también las páginas del comando man setup_install_server(1M) y add_install_client(1M).

  2. Si instala un nodo nuevo en un cluster existente, agréguelo a la lista de nodos del cluster autorizados.
    1. Cambie a otro nodo del cluster que se encuentre activo e inicie la utilidad clsetup.
    2. Utilice la utilidad clsetup para agregar el nombre del nuevo nodo a la lista de nodos de cluster autorizados.

    Para obtener más información, consulte Cómo agregar un nodo a un cluster existente de Guía de administración del sistema de Oracle Solaris Cluster.

  3. En un nodo del cluster u otra máquina de la misma plataforma de servidor, instale el SO Oracle Solaris y los parches que sean requeridos (si todavía no lo ha hecho).

    Si el software de Oracle Solaris ya se encuentra instalado en el servidor, debe asegurarse de que la instalación de Oracle Solaris cumpla con los requisitos de software de Oracle Solaris Cluster y de cualquier otro software que vaya a instalar en el cluster. Consulte Cómo instalar el software de Oracle Solaris para obtener más información sobre cómo instalar el software de Oracle Solaris para cumplir con los requisitos del software de Oracle Solaris Cluster.

    Siga los procedimientos que se describen en Cómo instalar el software de Oracle Solaris.

  4. (Opcional) SPARC: En el sistema instalado, instale el software de Oracle VM Server para SPARC y cree dominios (si todavía no lo ha hecho).

    Siga los procedimientos que se describen en SPARC: Instalación del software de Oracle VM Server para SPARC y creación de dominios.

  5. Sobre el sistema instalado, instale el software de Oracle Solaris Cluster y los parches requeridos (si todavía no lo ha hecho).

    Siga los procedimientos descritos en Instalación de los paquetes de software de los servicios de datos y la estructura de Oracle Solaris Cluster.

    Consulte Parches y niveles de firmware requeridos de Notas de la versión de Oracle Solaris Cluster 3.3 3/13 para conocer la ubicación de parches y obtener instrucciones de instalación.

  6. Active el daemon contenedor de agentes común para que se inicie automáticamente durante los inicios del sistema.
    machine# cacaoadm enable
  7. En el sistema instalado, actualice el archivo /etc/inet/hosts con todas las direcciones IP públicas que se utilizan en el cluster.

    Realice este paso independientemente de si está utilizando un servicio de nombres. Consulte Direcciones IP de red pública para obtener un listado de componentes de Oracle Solaris Cluster cuyas direcciones IP deban agregarse.

  8. En el sistema instalado, restablezca Oracle Java Web Console a su estado inicial no configurado.

    El comando especificado más abajo elimina la información de la configuración de la consola web. Parte de esta información de configuración es específica del sistema instalado. Debe eliminar esta información antes de crear el archivo flash. De lo contrario, la información de configuración transferida al nodo del cluster podría impedir que la consola web se iniciara o que interaccionara correctamente con el nodo del cluster.

    # /usr/share/webconsole/private/bin/wcremove -i console

    Una vez que instale la consola web no configurada en el nodo del cluster y la inicie por primera vez, ésta ejecutará automáticamente su configuración inicial y utilizará la información del nodo del cluster.

    Para obtener más información acerca del comando wcremove, consulte Identidad de usuario de Oracle Java Web Console de Administración de Oracle Solaris: administración básica.

  9. Cree el archivo flash del sistema instalado.

    Siga los procedimientos descritos en el Capítulo 3, Creación de un archivo flash (tareas) de Guía de instalación de Oracle Solaris 10 1/13: archivos flash (creación e instalación).

    machine# flarcreate -n name archive
    -n name

    Nombre que se le dará al archivo flash.

    archive

    Nombre de archivo que se le dará al archivo flash, con la ruta completa. Por convención, el nombre del archivo termina en .flar.

  10. Asegúrese de que el archivo flash se exporte por NFS para que el servidor de instalación JumpStart realice la lectura.

    Consulte el Capítulo 4, Gestión de sistemas de archivos de red (descripción general) de Guía de administración del sistema: servicios de red para obtener más información acerca del uso compartido de archivos automático.

    Consulte también las páginas del comando man share(1M) y dfstab(4).

  11. Conviértase en superusuario en el servidor de instalación JumpStart.
  12. Desde el servidor de instalación JumpStart, inicie la utilidad scinstall(1M).

    En la ruta de medios, reemplace arch por sparc o x86, y ver por 10 para Oracle Solaris 10.

    installserver# cd /cdrom/cdrom0/Solaris_arch/Product/sun_cluster/ \
    Solaris_ver/Tools/
    
    installserver# ./scinstall

    Aparecerá el menú principal de scinstall.

  13. Seleccione la opción de menú Configure a Cluster (Configurar un cluster) para que se le aplique JumpStart desde este servidor de instalación.

    Esta opción se utiliza para configurar secuencias de comandos de finalización personalizadas de JumpStart. JumpStart utiliza estas secuencias de comandos de finalización para instalar el software de Oracle Solaris Cluster.

     *** Main Menu ***
     
        Please select from one of the following (*) options:
    
          * 1) Create a new cluster or add a cluster node
          * 2) Configure a cluster to be JumpStarted from this install server
            3) Manage a dual-partition upgrade
            4) Upgrade this cluster node
          * 5) Print release information for this cluster node 
    
          * ?) Help with menu options
          * q) Quit
     
        Option:  2
  14. Siga las indicaciones en el menú para proporcionar respuestas de la hoja de trabajo para la planificación de la configuración.

    El comando scinstall almacena la información de configuración y copia el archivo class predeterminado autoscinstall.class en el directorio /jumpstart-dir /autoscinstall.d/3.2/. Este archivo es similar al siguiente ejemplo.

    install_type    initial_install
    system_type     standalone
    partitioning    explicit
    filesys         rootdisk.s0 free /
    filesys         rootdisk.s1 750  swap
    filesys         rootdisk.s3 512  /globaldevices
    filesys         rootdisk.s7 20
    cluster         SUNWCuser        add
    package         SUNWman          add
  15. Si es necesario, realice los ajustes en el archivo autoscinstall.class para configurar JumpStart para instalar el archivo flash.

    Modificar entradas según sea necesario para que coincidan con las opciones de configuración que realizó cuando instaló el SO Oracle Solaris en la máquina del archivo flash o cuando ejecutó la utilidad scinstall.

    1. Para utilizar un dispositivo lofi para el espacio de nombres de dispositivos globales, suprima la entrada filesys para la partición /globaldevices.
    2. Cambie las siguientes entradas en el archivo autoscinstall.class.
      Entrada existente que se debe reemplazar
      Nueva entrada que se debe agregar
      install_type
      initial_install
      install_type
      flash_install
      system_type
      standalone
      archive_location
      retrieval_type location

      Consulte Palabra clave archive_location de Guía de instalación de Oracle Solaris 10 1/13: instalaciones JumpStart para obtener información sobre los valores válidos para retrieval_type y location cuando se usa con la palabra clave archive_location.

    3. Suprima todas las entradas que pudieran instalar un paquete específico, como las que aparecen a continuación.
      cluster         SUNWCuser        add
      package         SUNWman          add
    4. Si la configuración tiene requisitos adicionales del software de Oracle Solaris, cambie el archivo autoscinstall.class según corresponda.

      El archivo autoscinstall.class instala el grupo de software de Oracle Solaris para usuarios finales (SUNWCuser).

    5. Si instala el grupo de software de Oracle Solaris para usuarios finales (SUNWCuser), será necesario agregar al archivo autoscinstall.class todos los paquetes de software de Oracle Solaris adicionales que puedan llegar a ser necesarios.

      En la siguiente tabla, se enumeran los paquetes de Oracle Solaris que son necesarios para admitir algunas funcionalidades de Oracle Solaris Cluster. Estos paquetes no se incluyen en el grupo de software de Oracle Solaris para usuarios finales. Consulte Consideraciones del grupo de software de Oracle Solaris si desea obtener más información.


      Función
      Paquetes de software de Oracle Solaris obligatorios
      scsnapshot
      SUNWp15u SUNWp15v SUNWp15p
      Oracle Solaris Cluster Manager
      SUNWapchr SUNWapchu

    Puede cambiar el archivo class predeterminado de una de las siguientes maneras:

    • Edite directamente el archivo autoscinstall.class. Estos cambios se aplican a todos los nodos de todos los clusters que utilizan este directorio JumpStart personalizado.

    • Actualice el archivo rules para que apunte a otros perfiles y, a continuación, ejecute la utilidad check para validar el archivo rules.

    Siempre y cuando el perfil de instalación del SO Oracle Solaris cumpla los requisitos mínimos de asignación del sistema de archivos de Oracle Solaris Cluster, el software de Oracle Solaris Cluster no impone restricciones respecto de otros cambios en el perfil de instalación. Consulte Particiones de disco del sistema para obtener los requisitos y las directrices de la realización de particiones para admitir el software de Oracle Solaris Cluster.

    Para obtener más información sobre perfiles de JumpStart, consulte el Capítulo 3, Preparación de instalaciones JumpStart (tareas) de Guía de instalación de Oracle Solaris 10 1/13: instalaciones JumpStart.

  16. Para realizar cualquier otra tarea posterior a la instalación, configure su propia secuencia de comandos de finalización.

    Su propia secuencia de comandos de finalización se ejecuta después de la secuencia de comandos de finalización estándar que instala el comando scinstall. Consulte el Capítulo 3, Preparación de instalaciones JumpStart (tareas) de Guía de instalación de Oracle Solaris 10 1/13: instalaciones JumpStart para obtener información sobre la creación de secuencia de comandos de finalización de JumpStart.

    1. Asegúrese de que el archivo class instalará cualquier dependencia de paquetes de Oracle Solaris.

      Consulte el Paso 15.

    2. Asigne un nombre a su secuencia de comandos de finalización finish.
    3. Realice las modificaciones para las tareas posteriores a la instalación que desea llevar a cabo mediante la secuencia de comandos finish.
    4. Copie la secuencias de comandos finish en cada directorio jumpstart-dir/autoscinstall.d/nodes/ node.

      Cree un directorio node para cada nodo del cluster. Utilice también esta convención de denominación para crear enlaces simbólicos con una secuencia de comandos finish compartida.

  17. Salga del servidor de instalación de JumpStart.
  18. Si utiliza conmutadores en la interconexión privada del nuevo cluster, asegúrese de que el Protocolo de detección de elementos próximos (NDP) esté inhabilitado.

    Siga los procedimientos incluidos en la documentación de los conmutadores para determinar si NDP está habilitado o si debe inhabilitar este protocolo.

    Durante la configuración del cluster, el software comprueba que no haya tráfico en la interconexión privada. Si NDP envía paquetes a un adaptador privado cuando se está comprobando si hay tráfico en la interconexión privada, el software presupondrá que la interconexión no es privada y se interrumpirá la configuración del cluster. Por lo tanto, NDP debe inhabilitarse durante la creación del cluster.

    Una vez establecido el cluster, puede volver a habilitar NDP en los conmutadores de interconexión privada si desea utilizar esta función.

  19. Si utiliza una consola de administración para el cluster, abra una pantalla de la consola para cada nodo del cluster.
    • Si el software Cluster Control Panel (CCP) se instala y se configura en la consola de administración, emplee la utilidad cconsole(1M) para mostrar las pantallas individuales de la consola.

      Utilice el siguiente comando, como superusuario, para iniciar la utilidad cconsole:

      adminconsole# /opt/SUNWcluster/bin/cconsole clustername &

      La utilidad cconsole abre, además, una ventana maestra desde la que puede enviar los datos introducidos a todas las ventanas individuales de la consola al mismo tiempo.

    • Si no usa la utilidad cconsole, conecte con la consola de cada nodo por separado.
  20. Cierre todos los nodos.
    phys-schost# shutdown -g0 -y -i0
  21. Inicie los nodos para comenzar la instalación mediante JumpStart.
    • En los sistemas basados en SPARC, haga lo siguiente:
      ok boot net - install

      Nota - Deje un espacio a cada lado del guión (-) en el comando.


    • En los sistemas basados en x86, haga lo siguiente:
      1. Pulse cualquier tecla para empezar la secuencia de inicio.
        Press any key to reboot.
        keystroke
      2. En cuanto aparezca la pantalla de información del BIOS, pulse inmediatamente Esc+2 o pulse la tecla F2.

        Una vez completada la secuencia de inicialización, aparece la pantalla BIOS Setup Utility (Utilidad de instalación del BIOS).

      3. En la barra de menú IOS Setup Utility (Utilidad de instalación del BIOS), acceda a la opción de menú Boot (Inicio).

        Aparece la lista de dispositivos de inicio.

      4. Acceda al IBA que figura en la lista, el cual está conectado a la misma red que el servidor de instalación JumpStart PXE, y muévalo a la parte superior de la orden de inicio.

        El número más bajo a la derecha de las opciones de inicio del IBA corresponden al número de puerto Ethernet inferior. El número más alto a la derecha de las opciones de inicio del IBA corresponden al número de puerto Ethernet superior.

      5. Guarde los cambios y salga del BIOS.

        La secuencia de inicio comenzará de nuevo. Después de su procesamiento posterior, se muestra el menú de GRUB.

      6. Seleccione inmediatamente la entrada de Oracle Solaris JumpStart y pulse Intro.

        Nota - Si la entrada de Oracle Solaris JumpStart es la única entrada en la lista, de manera alternativa, puede esperar a que la pantalla de selección entre en tiempo de espera. Si el usuario no responde en 30 segundos, el sistema continúa automáticamente la secuencia de inicio.


        Después de su procesamiento posterior, se muestra el menú del tipo de instalación.

      7. Desde el menú del tipo de instalación, escriba inmediatamente el número de menú de JumpStart personalizado.

        Nota - Si no escribe el número de JumpStart personalizado antes de que termine el tiempo de espera que dura 30 segundos, el sistema inicia automáticamente la instalación interactiva de Oracle Solaris.


        JumpStart instala el sistema operativo Oracle Solaris y el software de Oracle Solaris Cluster en cada nodo. Una vez que la instalación finaliza de manera correcta, todos los nodos se encuentran instalados completamente como nodos nuevos del cluster. La salida de la instalación de Oracle Solaris Cluster se registra en el archivo /var/cluster/logs/install/scinstall.log. N.

      8. En cuanto vuelve a aparecer la pantalla del BIOS, pulse inmediatamente Esc+2 o pulse la tecla F2.

        Nota - Si no interrumpe el BIOS en esta instancia, éste vuelve automáticamente al menú del tipo de instalación. Si no se introduce ninguna opción en el transcurso de 30 segundos, el sistema empieza automáticamente una instalación interactiva.


        Después del procesamiento posterior, se muestra la utilidad de instalación del BIOS.

      9. En la barra de menú, acceda al menú Boot (Inicio).

        Aparece la lista de dispositivos de inicio.

      10. Acceda a la entrada de unidad de disco duro y vuelva a moverla a la parte superior de la orden de inicio.
      11. Guarde los cambios y salga del BIOS.

        La secuencia de inicio comenzará de nuevo. No se necesita más interacción con el menú GRUB para concluir el inicio en el modo del cluster.

  22. Compruebe en todos los nodos que los servicios multiusuario para la utilidad de gestión de servicios (SMF) estén en línea.

    Si los servicios todavía no están en línea para un nodo, espere hasta que cambie el estado y aparezca como en línea antes de continuar con el siguiente paso.

    phys-schost# svcs multi-user-server node
    STATE          STIME    FMRI
    online         17:52:55 svc:/milestone/multi-user-server:default
  23. Si va a instalar un nuevo nodo en un cluster existente, cree puntos de montaje en el nuevo nodo para todos los sistemas de archivos del cluster existente.
    1. Desde otro nodo del cluster que se encuentre activo, muestre los nombres de todos los sistemas de archivos del cluster.
      phys-schost# mount | grep global | egrep -v node@ | awk '{print $1}'
    2. En el nodo que ha agregado al cluster, cree un punto de montaje para cada sistema de archivos del cluster.
      phys-schost-new# mkdir -p mountpoint

      Por ejemplo, si un nombre de sistema de archivos devuelto por el comando de montaje es /global/dg-schost-1, ejecute mkdir -p /global/dg-schost-1 en el nodo que está agregando al cluster.


      Nota - Los puntos de montaje se activan después de reiniciar el cluster en el Paso 27.


  24. Si tiene pensado usar Oracle Solaris Cluster HA para NFS (HA para NFS) un sistema de archivos local de alta disponibilidad, asegúrese de que el sistema de archivos de bucle de retorno (LOFS) esté desactivado.

    Para desactivar el LOFS, agregue la siguiente entrada al archivo /etc/system en cada nodo del cluster.

    exclude:lofs

    El cambio realizado en el archivo /etc/system se aplicará en el siguiente reinicio del sistema.


    Nota - No puede tener el LOFS activado si utiliza HA para NFS en un sistema de archivos local de alta disponibilidad tener y y ejecuta automountd. El LOFS puede causar problemas de conmutación para HA para NFS. Si elige agregar HA para NFS en un sistema de archivos local de alta disponibilidad, debe realizar uno de los siguientes cambios de configuración.

    Sin embargo, si configura las zonas no globales en el cluster, debe activar LOFS en todos los nodos del cluster. Si HA para NFS en un sistema de archivos local de alta disponibilidad debe coexistir con LOFS, use una de las otras soluciones en lugar de desactivar LOFS.

    • Desactive LOFS.

    • Inhabilite el daemon automountd.

    • Excluya del mapa del montador automático todos los archivos que formen parte del sistema de archivos locales de alta disponibilidad exportado por HA para NFS. Esta opción permite conservar tanto el LOFS como el daemon automountd activados.


    Consulte The Loopback File System de System Administration Guide: Devices and File Systems para obtener información acerca de los sistemas de archivos de bucle de retorno.

  25. Si va a usar alguno de los adaptadores que se indican a continuación para la interconexión del cluster, quite el comentario de la entrada que corresponda en el archivo /etc/system de cada nodo.
    Adaptador
    Entrada
    ipge
    establecer ipge:ipge_taskq_disable=1
    ixge
    establecer ixge:ixge_taskq_disable=1

    Esta entrada se aplicará una vez reiniciado el sistema.

  26. x86: Establezca el archivo de inicio predeterminado.

    La configuración de este valor permite reiniciar el nodo cuando no pueda acceder a un indicador de inicio de sesión.

    grub edit> kernel /platform/i86pc/multiboot kmdb
  27. Si ha llevado a cabo una tarea que requiere un reinicio del cluster, siga los pasos que se describen más abajo para hacerlo.

    A continuación, se incluyen algunas de las tareas que requieren un reinicio:

    • Adición de un nodo nuevo a un cluster existente.

    • Instalación de parches que requieren un reinicio del cluster o del nodo.

    • Realización de cambios en la configuración que requieren un reinicio para surtir efecto.

    1. Conviértase en superusuario en un nodo.
    2. Cierre el cluster.
      phys-schost-1# cluster shutdown -y -g0 clustername

      Nota - No reinicie el primer nodo instalado en el cluster hasta que el cluster se haya cerrado. Hasta que se inhabilite el modo de instalación del cluster, sólo el primer nodo instalado (el que estableció el cluster) cuenta con un voto del quórum. Si un cluster establecido que está aún en el modo de instalación no se cierra antes de que se reinicie el primer nodo instalado, el resto de los nodos del cluster no pueden obtener quórum. En tal caso, el cluster completo se cerraría.

      Los nodos del cluster permanecen en el modo de instalación hasta que ejecute por primera vez el comando clsetup. Este comando se ejecuta durante el procedimiento Cómo configurar dispositivos del quórum.


    3. Rearranque cada nodo del cluster.

    La utilidad scinstall instala y configura todos los nodos del cluster y reinicia el cluster. El cluster se establece cuando todos los nodos se han iniciado con éxito en el cluster. La salida de la instalación de Oracle Solaris Cluster se registra en el archivo /var/cluster/logs/install/scinstall.log.N.

  28. (Opcional) Si no ha realizado el Paso 27 para reiniciar los nodos, inicie el servidor web Oracle Java Web Console manualmente en cada nodo.
    phys-schost# smcwebserver start

    Para obtener más información, consulte la página del comando man smcwebserver(1M).

  29. Desde un nodo, verifique que todos los nodos se hayan unido al cluster.
    phys-schost# clnode status

    La salida presenta un aspecto similar al siguiente.

    === Cluster Nodes ===
    
    --- Node Status ---
    
    Node Name                                       Status
    ---------                                       ------
    phys-schost-1                                   Online
    phys-schost-2                                   Online
    phys-schost-3                                   Online

    Para obtener más información, consulte la página del comando man clnode(1CL).

  30. (Opcional) Habilite en cada nodo el reinicio automático del mismo en caso de que de todas las rutas de disco compartido supervisadas presenten errores.

    Nota - En el momento de configuración inicial, la supervisión de la ruta del disco se activa de forma predeterminada para todos los dispositivos detectados.


    1. Habilite el reinicio automático.
      phys-schost# clnode set -p reboot_on_path_failure=enabled
      -p

      Especifica la propiedad que se va a establecer.

      reboot_on_path_failure=enable

      Habilita el reinicio automático del nodo en caso de producirse un error en las rutas de discos compartidos supervisados.

    2. Compruebe que el reinicio automático tras un error de ruta de disco se encuentre habilitado.
      phys-schost# clnode show
      === Cluster Nodes ===                          
      
      Node Name:                                      node
      …
        reboot_on_path_failure:                          enabled
      …

Pasos siguientes

Si ha agregado un nodo a un cluster de dos nodos, vaya a Cómo actualizar los dispositivos del quórum tras agregar un nodo a un cluster global.

De lo contrario, vaya al siguiente procedimiento que corresponda:

Errores más frecuentes

Opción scinstall inactiva: si la opción JumpStart del comando scinstall no presenta un asterisco delante, significa que está inactiva. Esta condición indica que la configuración de JumpStart no se ha completado o bien hay un error en la misma. Para solucionar esta situación, en primer lugar salga de la utilidad scinstall. Repita los procedimientos del Paso 1 al Paso 16 para corregir la configuración de JumpStart y, a continuación, reinicie la utilidad scinstall.

Cómo preparar el cluster para nodos de cluster global adicionales

Realice este procedimiento en los nodos de cluster global existentes con el fin de preparar el cluster para la adición de nodos nuevos.

Antes de empezar

Realice las siguientes tareas:

  1. Si utiliza Cluster Control Panel (CCP), actualice los archivos de configuración en la consola de administración.
    1. Agregue el nombre del nodo que va a incorporar a la entrada del cluster en el archivo /etc/clusters.
    2. Agregue a los archivos /etc/serialports una entrada con el nombre de nodo nuevo, el nombre de host del nodo del dispositivo de acceso a la consola y el número de puerto.
  2. Agregue el nombre del nodo nuevo a la lista de nodos autorizados del cluster.
    1. Conviértase en superusuario en cualquier nodo.
    2. Inicie la utilidad clsetup.
      phys-schost# clsetup

      Aparece el menú principal.

    3. Seleccione la opción de menú New Nodes (Nuevos nodos).
    4. Seleccione la opción de menú Specify the Name of a Machine Which May Add Itself (Especificar el nombre de una máquina que tiene permiso para agregarse a sí misma).
    5. Siga las indicaciones para agregar el nombre del nodo a la lista de equipos conocidos.

      La utilidad clsetup muestra el mensaje Comando completado satisfactoriamente si la tarea se ha completado sin errores.

    6. Cierre la utilidad clsetup.
  3. Si va a agregar un nodo a un cluster de un solo nodo, asegúrese de que existan dos interconexiones de cluster comprobando la configuración de interconexión.
    phys-schost# clinterconnect show

    Debe haber configurado al menos dos cables o dos adaptadores para poder agregar un nodo.

    • Si en la salida aparece información de la configuración de dos cables o adaptadores, continúe con el Paso 4.
    • Si no aparece información de configuración de cables ni de adaptadores, o aparece información de la configuración de solo un cable o adaptador, configure nuevas interconexiones del cluster.
      1. Inicie la utilidad clsetup en un nodo.
        phys-schost# clsetup
      2. Seleccione la opción de menú Cluster Interconnect (Interconexión del cluster).
      3. Seleccione la opción de menú Add a Transport Cable (Agregar un cable de transporte).

        Siga las instrucciones para especificar el nombre del nodo que se va a agregar al cluster, el nombre de un adaptador de transporte y si se va a utilizar un conmutador de transporte.

      4. Si fuera necesario, repita el Paso c para configurar una segunda interconexión del cluster.
      5. Cuando haya terminado, salga de la utilidad clsetup.
      6. Verifique que el cluster tenga ya dos interconexiones del cluster configuradas.
        phys-schost# clinterconnect show

        La salida del comando debería mostrar información de la configuración de al menos dos interconexiones del cluster.

  4. Asegúrese de que la configuración de la red privada admita los nodos y las redes privadas que va a agregar.
    1. Haga que se muestre el número máximo de nodos, de redes privadas y así como de clusters de zona admitido por la configuración de red privada actual.
      phys-schost# cluster show-netprops

      La salida presenta un aspecto similar al siguiente:

      === Private Network ===                        
      
      private_netaddr:                                172.16.0.0
        private_netmask:                                255.255.240.0
        max_nodes:                                      64
        max_privatenets:                                10
        max_zoneclusters:                               12
    2. Determine si la configuración de red privada actual puede admitir el nuevo número de nodos, incluidas las zonas no globales y las redes privadas.

Pasos siguientes

Configure el software Oracle Solaris Cluster en los nuevos nodos del cluster. Vaya a Cómo configurar el software Oracle Solaris Cluster en nodos de cluster global adicionales (scinstall) o a Configuración del software de Oracle Solaris Cluster en nodos de cluster global adicionales (XML).

Cómo cambiar la configuración de red privada al agregar nodos o redes privadas

Realice esta tarea para cambiar el intervalo de direcciones IP privadas del cluster global con el fin de admitir un incremento en uno o varios de los siguientes componentes del cluster:

También puede utilizar este procedimiento para disminuir el intervalo de direcciones IP privadas.


Nota - Para llevar a cabo este procedimiento es necesario cerrar todo el cluster. Si necesita cambiar únicamente la máscara de red para, por ejemplo, proporcionar compatibilidad con los clusters de zona, no realice este procedimiento. En lugar de ello, ejecute el siguiente comando desde un nodo del cluster global que se esté ejecutando en el modo de cluster para especificar el número de clusters de zona programado:

phys-schost# cluster set-netprops num_zoneclusters=N

Este comando no requiere que se cierre el cluster.


Antes de empezar

Asegúrese de que acceso de shell remoto (rsh(1M)) o shell seguro (ssh(1)) para el superusuario esté activado para todos los nodos del cluster.

  1. Conviértase en superusuario en un nodo de cluster.
  2. Inicie la utilidad clsetup desde un nodo.
    # clsetup

    Aparece el menú principal de clsetup.

  3. Establezca fuera de línea cada grupo de recursos.

    Si el nodo contiene zonas no globales, cualquier grupo de recursos que se encuentre en las zonas también se cambia a sin conexión.

    1. Escriba el número que corresponde a la opción para grupos de recursos y pulse la tecla Intro.

      Aparece el menú de grupos de recursos.

    2. Escriba el número que corresponde a la opción para poner en línea/fuera de línea o conmutar un grupo de recursos y pulse la tecla Intro.
    3. Siga las indicaciones para establecer todos los grupos de recursos fuera de línea y en el estado no administrado.
    4. Cuando todos los grupos de recursos estén fuera de línea, escriba q para volver al menú de grupo de recursos.
  4. Inhabilite todos los recursos del cluster.
    1. Escriba el número correspondiente a la opción para activar/desactivar un recurso y pulse la tecla Intro.
    2. Seleccione un recurso para inhabilitarlo y siga las indicaciones.
    3. Repita el paso anterior para cada recurso que desee inhabilitar.
    4. Cuando se hayan inhabilitado todos los grupos de recursos, escriba q para volver al menú de grupo de recursos.
  5. Cierre la utilidad clsetup.
  6. Asegúrese de que todos los recursos de todos los nodos se encuentren Offline y de que todos los grupos de recursos presenten el estado Unmanaged.
    # cluster status -t resource,resourcegroup
    -t

    Limita la salida al objeto de cluster especificado.

    resource

    Especifica los recursos.

    resourcegroup

    Especifica los grupos de recursos.

  7. Cierre el cluster desde uno de los nodos.
    # cluster shutdown -g0 -y
    -g

    Especifica el tiempo de espera en segundos.

    -y

    Impide que se emita la solicitud de confirmación del cierre.

  8. Inicie cada nodo en el modo sin cluster.
    • En los sistemas basados en SPARC, ejecute el siguiente comando:
      ok boot -x
    • En los sistemas basados en x86, ejecute los siguientes comandos:
      1. En el menú de GRUB, utilice las teclas de flecha para seleccionar la correspondiente entrada de Oracle Solaris y escriba e para editar los comandos.

        Para obtener más información sobre el inicio basado en GRUB, consulte Cómo iniciar un sistema basado en x86 mediante GRUB (mapa de tareas) de Administración de Oracle Solaris: administración básica.

      2. En la pantalla de parámetros de inicio, seleccione la entrada kernel y escriba e para editarla.
      3. Agregue -x al comando para especificar que el sistema se inicia en el modo sin cluster.
      4. Pulse Intro para aceptar el cambio y volver a la pantalla de parámetros de inicio.

        La pantalla muestra el comando editado.

      5. Escriba b para iniciar el nodo en el modo sin cluster.

        Nota - Este cambio en el comando del parámetro de inicio del núcleo no se conserva tras el inicio del sistema. La siguiente vez que reinicie el nodo, se iniciará en el modo de cluster. Si, por el contrario, desea iniciar en el modo sin cluster, siga estos pasos para volver a agregar la opción -x al comando del parámetro de inicio del núcleo.


  9. Inicie la utilidad clsetup desde un nodo.

    Cuando se ejecuta en un modo que no sea de cluster, la utilidad clsetup muestra el menú principal para operaciones de un modo que no sea de cluster.

  10. Escriba el número que corresponde a la opción para cambiar la asignación de direcciones de red y rangos para el transporte del cluster y pulse la tecla Intro.

    La utilidad clsetup muestra la configuración de red privada actual; a continuación, pregunta si desea modificar esta configuración.

  11. Para cambiar la dirección IP de red privada o el intervalo de direcciones de red IP, escriba yes y pulse la tecla Intro.

    La utilidad clsetup muestra la dirección IP de red privada, 172.16.0.0, y pregunta si desea aceptarla de forma predeterminada.

  12. Cambie o acepte la dirección IP de red privada.
    • Para aceptar la dirección IP de red privada predeterminada y cambiar el rango de direcciones IP, escriba yes y pulse la tecla Intro.

      La utilidad clsetup le preguntará si está de acuerdo con aceptar la máscara de red predeterminada. Vaya al paso siguiente para introducir su respuesta.

    • Para cambiar la dirección IP de red privada, realice estos pasos secundarios.
      1. Escriba no como respuesta a la pregunta de la utilidad clsetup sobre si desea aceptar la dirección predeterminada; a continuación, pulse la tecla Intro.

        La utilidad clsetup solicita la nueva dirección IP de red privada.

      2. Escriba la dirección IP nueva y pulse la tecla Intro.

        La utilidad clsetup muestra la máscara de red predeterminada; a continuación, pregunta si desea aceptar la máscara de red predeterminada.

  13. Modifique o acepte el rango de direcciones IP de red privada predeterminado.

    La máscara de red predeterminada es 255.255.240.0. Este rango de direcciones IP predeterminado admite un máximo de 64 nodos, 12 clusters de zona y 10 redes privadas en el cluster.

    • Para aceptar el rango de direcciones IP predeterminado, escriba yes y pulse la tecla Intro.

      Continúe directamente con el paso siguiente.

    • Para cambiar el rango de direcciones IP, realice los siguientes pasos secundarios.
      1. Escriba no como respuesta a la pregunta de la utilidad clsetup sobre si desea aceptar el rango de direcciones predeterminado; a continuación, pulse la tecla Intro.

        Si rechaza la máscara de red predeterminada, la utilidad clsetup solicita el número de nodos, redes privadas y clusters de zona que tiene previsto configurar en el cluster.

      2. Especifique el número de nodos, redes privadas y clusters de zona que tiene previsto configurar en el cluster.

        A partir de estas cantidades, la utilidad clsetup calcula dos máscaras de red como propuesta:

        • La primera máscara de red es la mínima para admitir el número de nodos, redes privadas y clusters de zona que haya especificado.

        • La segunda máscara de red admite el doble de nodos, redes privadas y clusters de zona que haya especificado para asumir un posible crecimiento en el futuro.

      3. Especifique una de las máscaras de red, u otra diferente, que admita el número previsto de nodos, redes privadas y clusters de zona.
  14. Escriba yes como respuesta a la pregunta de la utilidad clsetup sobre si desea continuar con la actualización.
  15. Cuando haya finalizado, salga de la utilidad clsetup.
  16. Vuelva a reiniciar cada nodo en el cluster.
    1. Cierre todos los nodos.
      # shutdown -g0 -y
    2. Inicie cada nodo en el modo de cluster.
  17. Inicie la utilidad clsetup desde un nodo.
    # clsetup

    Aparece el menú principal de clsetup.

  18. Vuelva a habilitar todos los recursos inhabilitados.
    1. Escriba el número que corresponde a la opción para grupos de recursos y pulse la tecla Intro.

      Aparece el menú de grupos de recursos.

    2. Escriba el número correspondiente a la opción para activar/desactivar un recurso y pulse la tecla Intro.
    3. Seleccione un recurso para habilitarlo y siga las indicaciones.
    4. Repita el procedimiento para cada recurso inhabilitado.
    5. Cuando se hayan habilitado de nuevo todos los grupos de recursos, escriba q para volver al menú de grupo de recursos.
  19. Vuelva a colocar en línea cada grupo de recursos.

    Si el nodo contiene zonas no globales, establezca también en línea los grupos de recursos que se encuentren en esas zonas.

    1. Escriba el número que corresponde a la opción para poner en línea/fuera de línea o conmutar un grupo de recursos y pulse la tecla Intro.
    2. Siga las indicaciones para establecer el grupo de recursos en el estado administrado y, a continuación, póngalo en línea.
  20. Salga de la utilidad clsetup cuando todos los grupos de recursos vuelvan a estar en línea.

    Escriba q para salir de cada submenú o pulse Ctrl-C.

Pasos siguientes

Para agregar un nodo a un cluster existente, utilice uno de los siguientes procedimientos:

Para crear una zona no global en un nodo del cluster, consulte Configuración de una zona no global en un nodo del cluster global.

Cómo configurar el software Oracle Solaris Cluster en nodos de cluster global adicionales (scinstall)

Realice este procedimiento para agregar un nodo nuevo a un cluster global existente. Para agregar un nodo nuevo mediante JumpStart, siga los procedimientos descritos en Instalación de Oracle Solaris y el software de Oracle Solaris Cluster (JumpStart).


Nota - En este procedimiento, se utiliza el formato interactivo del programa scinstall. Para utilizar los formatos no interactivos del comando scinstall como, por ejemplo, al crear secuencias de comandos de instalación, consulte la página del comando man scinstall(1M).

Asegúrese de que los paquetes de software de Oracle Solaris Cluster se hayan instalado en el nodo manualmente o con el modo silencioso del programa installer antes de ejecutar el comando scinstall. Para obtener información sobre cómo ejecutar el programa installer desde una secuencia de comandos de instalación, consulte Capítulo 5, Installing in Silent Mode de Sun Java Enterprise System 5 Update 1 Installation Guide for UNIX.


Antes de empezar

Realice las siguientes tareas:

Siga estas directrices para usar la utilidad scinstall interactiva en este procedimiento:

  1. Conviértase en superusuario en el nodo de cluster que va a configurar.
  2. Inicie la utilidad scinstall.
    phys-schost-new# /usr/cluster/bin/scinstall

    Aparecerá el menú principal de scinstall.

  3. Escriba el número correspondiente a la opción Create a New Cluster or Add a Cluster Node (Crear un cluster o agregar un nodo de cluster) y pulse la tecla Intro.
      *** Main Menu ***
    
        Please select from one of the following (*) options:
    
          * 1) Create a new cluster or add a cluster node
            2) Configure a cluster to be JumpStarted from this install server
            3) Manage a dual-partition upgrade
            4) Upgrade this cluster node
          * 5) Print release information for this cluster node
    
          * ?) Help with menu options
          * q) Quit
    
        Option:  1

    Aparece el menú Nuevo cluster o nodo del cluster.

  4. Escriba el número correspondiente a la opción Agregar esta máquina como nodo de un cluster existente y pulse la tecla Intro.
  5. Siga las indicaciones en el menú para proporcionar respuestas de la hoja de trabajo para la planificación de la configuración.

    La utilidad scinstall configura el nodo y lo inicia en el cluster.

  6. Extraiga el DVD-ROM de la unidad de DVD-ROM.
    1. Para asegurarse de que no se esté utilizando el DVD-ROM, vaya a un directorio que no se encuentre en el DVD-ROM.
    2. Expulse el DVD-ROM.
      phys-schost# eject cdrom
  7. Repita este procedimiento en el resto de los nodos que vaya a agregar al cluster hasta que todos los nodos adicionales estén configurados por completo.
  8. Compruebe en todos los nodos que los servicios multiusuario para la utilidad de gestión de servicios (SMF) estén en línea.

    Si los servicios todavía no están en línea para un nodo, espere hasta que cambie el estado y aparezca como en línea antes de continuar con el siguiente paso.

    phys-schost# svcs multi-user-server node
    STATE          STIME    FMRI
    online         17:52:55 svc:/milestone/multi-user-server:default
  9. Evite que se unan al cluster otros nodos desde un miembro activo del cluster.
    phys-schost# claccess deny-all

    También puede usar la utilidad clsetup. Consulte Cómo agregar un nodo a un cluster existente de Guía de administración del sistema de Oracle Solaris Cluster para obtener información sobre los procedimientos.

  10. Desde un nodo, verifique que todos los nodos se hayan unido al cluster.
    phys-schost# clnode status

    La salida presenta un aspecto similar al siguiente.

    === Cluster Nodes ===
    
    --- Node Status ---
    
    Node Name                                       Status
    ---------                                       ------
    phys-schost-1                                   Online
    phys-schost-2                                   Online
    phys-schost-3                                   Online

    Para obtener más información, consulte la página del comando man clnode(1CL).

  11. Compruebe que todos los parches necesarios estén instalados.
    phys-schost# showrev -p
  12. (Opcional) Habilite el reinicio automático de nodos cuando todas las rutas de disco compartido supervisadas presenten errores.

    Nota - En el momento de configuración inicial, la supervisión de la ruta del disco se activa de forma predeterminada para todos los dispositivos detectados.


    1. Habilite el reinicio automático.
      phys-schost# clnode set -p reboot_on_path_failure=enabled
      -p

      Especifica la propiedad que se va a establecer.

      reboot_on_path_failure=enable

      Habilita el reinicio automático del nodo en caso de producirse un error en las rutas de discos compartidos supervisados.

    2. Compruebe que el reinicio automático tras un error de ruta de disco se encuentre habilitado.
      phys-schost# clnode show
      === Cluster Nodes ===                          
      
      Node Name:                                      node
      …
        reboot_on_path_failure:                          enabled
      …
  13. Si tiene pensado usar Oracle Solaris Cluster HA para NFS (HA para NFS) un sistema de archivos local de alta disponibilidad, asegúrese de que el sistema de archivos de bucle de retorno (LOFS) esté desactivado.

    Para desactivar el LOFS, agregue la siguiente entrada al archivo /etc/system en cada nodo del cluster.

    exclude:lofs

    El cambio realizado en el archivo /etc/system se aplicará en el siguiente reinicio del sistema.


    Nota - No puede tener el LOFS activado si utiliza HA para NFS en un sistema de archivos local de alta disponibilidad tener y y ejecuta automountd. El LOFS puede causar problemas de conmutación para HA para NFS. Si elige agregar HA para NFS en un sistema de archivos local de alta disponibilidad, debe realizar uno de los siguientes cambios de configuración.

    Sin embargo, si configura las zonas no globales en el cluster, debe activar LOFS en todos los nodos del cluster. Si HA para NFS en un sistema de archivos local de alta disponibilidad debe coexistir con LOFS, use una de las otras soluciones en lugar de desactivar LOFS.

    • Desactive LOFS.

    • Inhabilite el daemon automountd.

    • Excluya del mapa del montador automático todos los archivos que formen parte del sistema de archivos locales de alta disponibilidad exportado por HA para NFS. Esta opción permite conservar tanto el LOFS como el daemon automountd activados.


    Consulte The Loopback File System de System Administration Guide: Devices and File Systems para obtener información acerca de los sistemas de archivos de bucle de retorno.

Ejemplo 3-3 Configuración del software Oracle Solaris Cluster en un nodo adicional

En el siguiente ejemplo se muestra el nodo phys-schost-3, que se ha agregado al cluster schost. El nodo patrocinador es phys-schost-1.

*** Adding a Node to an Existing Cluster ***
Fri Feb  4 10:17:53 PST 2005


scinstall -ik -C schost -N phys-schost-1 -A trtype=dlpi,name=bge2 -A trtype=dlpi,name=bge3 
-m endpoint=:bge2,endpoint=switch1 -m endpoint=:bge3,endpoint=switch2


Checking device to use for global devices file system ... done

Adding node "phys-schost-3" to the cluster configuration ... done
Adding adapter "bge2" to the cluster configuration ... done
Adding adapter "bge3" to the cluster configuration ... done
Adding cable to the cluster configuration ... done
Adding cable to the cluster configuration ... done

Copying the config from "phys-schost-1" ... done

Copying the postconfig file from "phys-schost-1" if it exists ... done
Copying the Common Agent Container keys from "phys-schost-1" ... done


Setting the node ID for "phys-schost-3" ... done (id=1)

Setting the major number for the "did" driver ... 
Obtaining the major number for the "did" driver from "phys-schost-1" ... done
"did" driver major number set to 300

Checking for global devices global file system ... done
Updating vfstab ... done

Verifying that NTP is configured ... done
Initializing NTP configuration ... done

Updating nsswitch.conf ... 
done

Adding clusternode entries to /etc/inet/hosts ... done


Configuring IP Multipathing groups in "/etc/hostname.<adapter>" files

Updating "/etc/hostname.hme0".

Verifying that power management is NOT configured ... done

Ensure that the EEPROM parameter "local-mac-address?" is set to "true" ... done
The "local-mac-address?" parameter setting has been changed to "true".

Ensure network routing is disabled ... done

Updating file ("ntp.conf.cluster") on node phys-schost-1 ... done
Updating file ("hosts") on node phys-schost-1 ... done

Rebooting ... 

Errores más frecuentes

Configuración incorrecta: si uno o varios nodos no se pueden incorporar al cluster, o si se ha especificado información de configuración incorrecta, primero intente ejecutar de nuevo este procedimiento. Si no se soluciona el problema, realice el procedimiento Cómo anular la configuración del software Oracle Solaris Cluster para solucionar problemas de instalación en cada nodo que se haya configurado incorrectamente para suprimirlo de la configuración del cluster. No es necesario que desinstale los paquetes de software Oracle Solaris Cluster. A continuación, vuelva a ejecutar este procedimiento.

Pasos siguientes

Si ha agregado un nodo a un cluster existente que utiliza un dispositivo del quórum, vaya a Cómo actualizar los dispositivos del quórum tras agregar un nodo a un cluster global.

De lo contrario, vaya a Cómo verificar los modos de configuración e instalación del quórum.

Configuración del software de Oracle Solaris Cluster en nodos de cluster global adicionales (XML)

Lleve a cabo este procedimiento para configurar un nuevo nodo del cluster mediante un archivo XML de configuración del cluster. El nodo nuevo puede ser una duplicación de un nodo de cluster existente que ejecute el software de Oracle Solaris Cluster 3.3 3/13.

Mediante este procedimiento, se configuran los siguientes componentes del nodo:

Antes de empezar

Realice las siguientes tareas:

  1. Asegúrese de que el software de Oracle Solaris Cluster no esté configurado aún en el nodo potencial que desee agregar a un cluster.
    1. Conviértase en superusuario en el nodo potencial.
    2. Compruebe si el software de Oracle Solaris Cluster está configurado en el nodo potencial.
      phys-schost-new# /usr/sbin/clinfo -n
      • Si el comando presenta errores, vaya al Paso 2.

        El software de Oracle Solaris Cluster aún no se ha configurado en el nodo. Puede agregar el nodo potencial al cluster.

      • Si el comando devuelve un número de ID de nodo, continúe con el paso Paso c.

        El software de Oracle Solaris Cluster ya está configurado en el nodo. Para poder agregar el nodo a un cluster distinto, debe suprimir la información de configuración del cluster existente.

    3. Arranque el nodo potencial en el modo sin cluster.
      • En los sistemas basados en SPARC, ejecute el siguiente comando:
        ok boot -x
      • En los sistemas basados en x86, ejecute los siguientes comandos:
        1. En el menú de GRUB, utilice las teclas de flecha para seleccionar la correspondiente entrada de Oracle Solaris y escriba e para editar los comandos.

          Para obtener más información sobre el inicio basado en GRUB, consulte Cómo iniciar un sistema basado en x86 mediante GRUB (mapa de tareas) de Administración de Oracle Solaris: administración básica.

        2. En la pantalla de parámetros de inicio, seleccione la entrada kernel y escriba e para editarla.
        3. Agregue -x al comando para especificar que el sistema se inicia en el modo sin cluster.
        4. Pulse Intro para aceptar el cambio y volver a la pantalla de parámetros de inicio.

          La pantalla muestra el comando editado.

        5. Escriba b para iniciar el nodo en el modo sin cluster.

          Nota - Este cambio en el comando del parámetro de inicio del núcleo no se conserva tras el inicio del sistema. La siguiente vez que reinicie el nodo, se iniciará en el modo de cluster. Si, por el contrario, desea iniciar en el modo sin cluster, siga estos pasos para volver a agregar la opción -x al comando del parámetro de inicio del núcleo.


    4. Anule la configuración del software de Oracle Solaris Cluster del nodo potencial.
      phys-schost-new# /usr/cluster/bin/clnode remove
  2. Si va a duplicar un nodo que ejecuta el software de Oracle Solaris Cluster 3.3 3/13, cree un archivo XML de configuración del cluster.
    1. Conviértase en superusuario en el nodo del cluster que desee reflejar.
    2. Exporte la información de configuración del nodo existente a un archivo.
      phys-schost# clnode export -o clconfigfile
      -o

      Especifica el destino de salida.

      clconfigfile

      Nombre del archivo XML de configuración del cluster. El nombre de archivo especificado puede ser un archivo existente o un archivo nuevo que el comando creará.

      Para obtener más información, consulte la página del comando man clnode(1CL).

    3. Copie el archivo XML de configuración del cluster en el nodo potencial que va a configurar como nodo nuevo del cluster.
  3. Conviértase en superusuario en el nodo potencial.
  4. Modifique el archivo XML de configuración del cluster según sea necesario.
    1. Abra el archivo XML de configuración del cluster para editarlo.
      • Si va a crear reflejos de un nodo de cluster existente, abra el archivo que creó con el comando clnode export.
      • Si no va a crear reflejos de un nodo de cluster existente, cree un archivo nuevo.

        Base el archivo en la jerarquía de elementos que se muestra en la página del comando man clconfiguration(5CL). Puede almacenar el archivo en cualquier directorio.

    2. Modifique los valores de los elementos XML para reflejar la configuración de nodo que desea crear.

      Consulte la página del comando man clconfiguration(5CL) para obtener información detallada sobre la estructura y el contenido del archivo XML de configuración del cluster.

  5. Valide el archivo XML de configuración del cluster.
    phys-schost-new# xmllint --valid --noout clconfigfile
  6. Configure el nuevo nodo del cluster.
    phys-schost-new# clnode add -n sponsornode -i clconfigfile
    -n sponsornode

    Especifica el nombre de un miembro del cluster existente para que actúe como patrocinador del nodo nuevo.

    -i clconfigfile

    Especifica el nombre del archivo XML de configuración del cluster que se va a utilizar como fuente de entrada.

  7. (Opcional) Habilite el reinicio automático de nodos cuando todas las rutas de disco compartido supervisadas presenten errores.

    Nota - En el momento de configuración inicial, la supervisión de la ruta del disco se activa de forma predeterminada para todos los dispositivos detectados.


    1. Habilite el reinicio automático.
      phys-schost# clnode set -p reboot_on_path_failure=enabled
      -p

      Especifica la propiedad que se va a establecer.

      reboot_on_path_failure=enable

      Habilita el reinicio automático del nodo en caso de producirse un error en las rutas de discos compartidos supervisados.

    2. Compruebe que el reinicio automático tras un error de ruta de disco se encuentre habilitado.
      phys-schost# clnode show
      === Cluster Nodes ===                          
      
      Node Name:                                      node
      …
        reboot_on_path_failure:                          enabled
      …

Errores más frecuentes

Configuración incorrecta: si uno o varios nodos no se pueden incorporar al cluster, o si se ha especificado información de configuración incorrecta, primero intente ejecutar de nuevo este procedimiento. Si no se soluciona el problema, realice el procedimiento Cómo anular la configuración del software Oracle Solaris Cluster para solucionar problemas de instalación en cada nodo que se haya configurado incorrectamente para suprimirlo de la configuración del cluster. No es necesario que desinstale los paquetes de software Oracle Solaris Cluster. A continuación, vuelva a ejecutar este procedimiento.

Pasos siguientes

Si ha agregado un nodo a un cluster que utiliza un dispositivo del quórum, vaya a Cómo actualizar los dispositivos del quórum tras agregar un nodo a un cluster global.

De lo contrario, vaya a Cómo verificar los modos de configuración e instalación del quórum.

Cómo actualizar los dispositivos del quórum tras agregar un nodo a un cluster global

Si ha agregado un nodo a un cluster global, debe actualizar la información de configuración de los dispositivos del quórum, independientemente de si utiliza discos compartidos, dispositivos NAS, un servidor de quórum o una combinación de estos elementos. Para ello, quite todos los dispositivos del quórum y actualice el espacio de nombres de dispositivos globales. De forma opcional, puede reconfigurar los dispositivos del quórum que todavía desea utilizar. Así, se registra el nodo nuevo con cada dispositivo de quórum, lo que permite recalcular el recuento de votos basándose en el nuevo número de nodos del cluster.

Los nuevos dispositivos SCSI del quórum que se configuren se establecerán en las reservas SCSI-3.

Antes de empezar

Asegúrese de haber completado la instalación del software de Oracle Solaris Cluster en el nodo que ha agregado.

  1. Conviértase en superusuario en un nodo de cluster.
  2. Asegúrese de que todos los nodos del cluster estén en línea.
    phys-schost# cluster status -t node
  3. Vea la configuración de quórum actual.

    La salida del comando muestra todos los dispositivos del quórum y los nodos. La siguiente salida de ejemplo muestra el dispositivo del quórum SCSI actual, d3.

    phys-schost# clquorum list
    d3
    …
  4. Anote el nombre de los dispositivos del quórum que aparecen en la lista.
  5. Quite el dispositivo del quórum original.

    Lleve a cabo este paso con todos los dispositivos del quórum configurados.

    phys-schost# clquorum remove devicename
    devicename

    Especifica el nombre del dispositivo del quórum.

  6. Compruebe que todos los dispositivos del quórum originales se hayan suprimido.

    Si los dispositivos del quórum se han borrado correctamente, ninguno de ellos aparece en la lista.

    phys-schost# clquorum status
  7. Actualice el espacio de nombres de dispositivos globales.
    phys-schost# cldevice populate

    Nota - Este paso es necesario para prevenir un posible error grave del nodo.


  8. Compruebe en cada nodo que el comando cldevice populate haya finalizado su proceso antes de intentar agregar un dispositivo del quórum.

    El comando cldevice populate se ejecuta de forma remota en todos los nodos, aunque el comando se haya emitido sólo desde un nodo. Para determinar si ha concluido el procesamiento del comando cldevice populate, ejecute el comando siguiente en todos los nodos del cluster.

    phys-schost# ps -ef | grep scgdevs
  9. (Opcional) Agregue un dispositivo del quórum.

    Puede configurar el mismo dispositivo que se utilizó originalmente como dispositivo del quórum o seleccionar un nuevo dispositivo compartido para configurarlo.

    1. (Opcional) Si desea seleccionar un nuevo dispositivo compartido para configurarlo como dispositivo de quórum, visualice todos los dispositivos que el sistema comprueba.

      De lo contrario, vaya directamente al Paso c.

      phys-schost# cldevice list -v

      La salida es similar a la siguiente:

      DID Device          Full Device Path
      ----------          ----------------
      d1                  phys-schost-1:/dev/rdsk/c0t0d0
      d2                  phys-schost-1:/dev/rdsk/c0t6d0
      d3                  phys-schost-2:/dev/rdsk/c1t1d0
      d3                  phys-schost-1:/dev/rdsk/c1t1d0 
      …
    2. Desde la salida, seleccione un dispositivo compartido para configurarlo como dispositivo de quórum.
    3. Configure el dispositivo compartido como dispositivo del quórum.
      phys-schost# clquorum add -t type devicename
      -t type

      Especifica el tipo de dispositivo del quórum. Si no se especifica esta opción, se utilizará el tipo predeterminado, es decir, shared_disk.

    4. Repita este procedimiento con todos los dispositivos del quórum que desee configurar.
    5. Verifique la nueva configuración del quórum.
      phys-schost# clquorum list

      La salida debe mostrar todos los dispositivos del quórum y todos los nodos.

Ejemplo 3-4 Actualización de los dispositivos del quórum SCSI tras agregar un nodo a un cluster de dos nodos

En el siguiente ejemplo, se identifica el dispositivo de quórum SCSI original d2, se elimina ese dispositivo de quórum, se muestran los dispositivos compartidos disponibles, se actualiza el espacio de nombres del dispositivo global, se configura d3 como nuevo dispositivo de quórum SCSI y se verifica el nuevo dispositivo.

phys-schost# clquorum list
d2
phys-schost-1
phys-schost-2

phys-schost# clquorum remove d2
phys-schost# clquorum status
…
--- Quorum Votes by Device ---

Device Name       Present      Possible      Status
-----------       -------      --------      ------

phys-schost# cldevice list -v
DID Device          Full Device Path
----------          ----------------
…
d3                  phys-schost-2:/dev/rdsk/c1t1d0
d3                  phys-schost-1:/dev/rdsk/c1t1d0
…
phys-schost# cldevice populate
phys-schost# ps -ef - grep scgdevs
phys-schost# clquorum add d3
phys-schost# clquorum list
d3
phys-schost-1
phys-schost-2

Pasos siguientes

Vaya a Cómo verificar los modos de configuración e instalación del quórum.

Cómo configurar dispositivos del quórum


Nota - No es necesario que configure los dispositivos del quórum si se da alguna de las siguientes circunstancias:

En estos casos, pase a Cómo verificar los modos de configuración e instalación del quórum.


Realice este procedimiento una sola vez cuando el cluster nuevo se haya formado completamente. Utilice este procedimiento para asignar los votos del quórum y, a continuación, para quitar el cluster del modo de instalación.

Antes de empezar

  1. Si se dan las dos condiciones que aparecen a continuación, modifique las entradas de archivo de la máscara de red de la red pública en cada nodo del cluster.
    • Pretende utilizar un servidor de quórum.

    • La red pública utiliza la máscara de subred de longitud variable, también llamada enrutamiento de interdominios sin clases (CIDR).

    Si utiliza un servidor de quórum, pero la red pública utiliza subredes con clases, como se define en RFC 791, no es necesario que realice este paso.

    1. Agregue al archivo /etc/inet/netmasks una entrada por cada subred pública que emplee el cluster.

      La entrada siguiente es un ejemplo que contiene una dirección IP de red pública y una máscara de red:

      10.11.30.0    255.255.255.0
    2. Anexe netmask + broadcast + al nombre de host para cada archivo /etc/hostname.adaptador.
      nodename netmask + broadcast +
  2. Conviértase en superusuario en un nodo.
  3. Asegúrese de que todos los nodos del cluster estén en línea.
    phys-schost# cluster status -t node
  4. Para utilizar un disco compartido como dispositivo del quórum, verifique la conectividad del dispositivo a los nodos del cluster y elija el dispositivo que desea configurar.
    1. Visualice una lista de todos los dispositivos comprobados por el sistema desde un nodo del cluster.

      No es necesario que inicie sesión como superusuario para ejecutar este comando.

      phys-schost-1# cldevice list -v

      La salida es similar a la siguiente:

      DID Device          Full Device Path
      ----------          ----------------
      d1                  phys-schost-1:/dev/rdsk/c0t0d0
      d2                  phys-schost-1:/dev/rdsk/c0t6d0
      d3                  phys-schost-2:/dev/rdsk/c1t1d0
      d3                  phys-schost-1:/dev/rdsk/c1t1d0
      …
    2. Asegúrese de que la salida muestre todas las conexiones entre los nodos del cluster y los dispositivos de almacenamiento.
    3. Determine el nombre de ID del dispositivo global de cada disco compartido que esté configurando como dispositivo de quórum.

      Nota - Los discos compartidos que elija deben ser válidos para su uso como dispositivo del quórum. Consulte la sección Dispositivos de quórum para obtener más información acerca de la selección de dispositivos del quórum.


      Utilice la salida scdidadm del Paso a para identificar el nombre de ID de dispositivo de cada disco compartido que esté configurando como dispositivo de quórum. Por ejemplo, la salida del Paso a muestra que phys-schost-1 y phys-schost-2 comparten el dispositivo global d3.

  5. Si va a utilizar un disco compartido que no es compatible con el protocolo SCSI, asegúrese de que el aislamiento para ese disco compartido esté desactivado.
    1. Visualice la configuración de aislamiento del disco individual.
      phys-schost# cldevice show device
      
      === DID Device Instances ===
      DID Device Name:                                      /dev/did/rdsk/dN
      …
        default_fencing:                                     nofencing
      • Si el aislamiento del disco se ha establecido en nofencing o nofencing-noscrub, esto significa que está inhabilitado. Vaya al Paso 6.
      • Si el aislamiento del disco se ha establecido en pathcount o scsi, inhabilite este aislamiento. Vaya al Paso c.
      • Si el aislamiento del disco se ha establecido en global, compruebe si el aislamiento está inhabilitado de manera global. Continúe con el Paso b.

        Otra opción es simplemente desactivar el aislamiento del disco individual para que no se aplique independientemente del valor establecido en la propiedad global_fencing. Vaya directamente al Paso c

    2. Compruebe si el aislamiento está inhabilitado de forma global.
      phys-schost# cluster show -t global
      
      === Cluster ===
      Cluster name:                                         cluster
      …
         global_fencing:                                      nofencing
      • Si el aislamiento global se ha establecido en nofencing o nofencing-noscrub, significa que está desactivado para los discos compartidos cuya propiedad default_fencing se haya establecido en global. Vaya al Paso 6.
      • Si el aislamiento global se ha establecido en pathcount o prefer3, inhabilite el aislamiento para el disco compartido. Vaya al Paso c.

      Nota - Si la propiedad default_fencing de un disco individual se ha establecido en global, el aislamiento de ese disco estará inhabilitado siempre que la propiedad global_fencing, que afecta a todo el cluster, se haya establecido en nofencing o nofencing-noscrub . Si se cambia la propiedad global_fencing a un valor que permite el aislamiento, éste se activará en los discos cuya propiedad default_fencing se haya establecido en global.


    3. Inhabilite el aislamiento del disco compartido.
      phys-schost# cldevice set \
      -p default_fencing=nofencing-noscrub device
    4. Verifique que el aislamiento del disco compartido esté inhabilitado.
      phys-schost# cldevice show device
  6. Inicie la utilidad clsetup.
    phys-schost# clsetup

    Aparece la pantalla Configuración inicial del cluster.


    Nota - Si en lugar de ello aparece el menú principal, quiere decir que la configuración inicial del cluster ya se ha realizado correctamente. Vaya al Paso 11.


  7. Responda a la pregunta del indicador Do you want to add any quorum devices? (¿Desea agregar algún dispositivo de quórum?).
    • Si el cluster es de dos nodos, debe configurar al menos un dispositivo del quórum compartido. Escriba para configurar uno o varios dispositivos del quórum.
    • Si el cluster tiene tres o más nodos, la configuración del dispositivo del quórum es opcional.
      • Escriba No si no desea configurar ningún dispositivo del quórum adicional. En ese caso, vaya directamente al Paso 10.
      • Escriba para configurar dispositivos del quórum adicionales. Luego, siga con el Paso 8.
  8. Especifique el tipo de dispositivo que desea configurar como dispositivo del quórum.
    Tipo de dispositivo de quórum
    Descripción
    shared_disk
    LUN compartidos desde:
    • Disco SCSI compartido

    • Almacenamiento SATA (Serial Attached Technology Attachment)

    • NAS de Sun

    • Dispositivo de almacenamiento de Sun ZFS

    quorum_server
    Servidor de quórum
  9. Especifique el nombre del archivo que desea configurar como dispositivo de quórum.

    En el caso de los servidores del quórum, especifique también la siguiente información:

    • La dirección IP del host del servidor de quórum.

    • El número de puerto que usa el servidor de quórum para comunicarse con los nodos del cluster.

  10. Cuando aparezca la pregunta del indicador Is it okay to reset "installmode"? (¿Es correcto restablecer el modo de instalación?), escriba Yes (Sí).

    Una vez que la utilidad clsetup haya establecido la configuración y el número de votos del quórum en el cluster, aparecerá el mensaje Inicialización del cluster completa. La utilidad le lleva de nuevo al menú principal.

  11. Cierre la utilidad clsetup.

Pasos siguientes

Verifique que la configuración del quórum sea correcta y que el modo de instalación esté inhabilitado. Vaya a Cómo verificar los modos de configuración e instalación del quórum.

Errores más frecuentes

Proceso de clsetup interrumpido: si el proceso de configuración del quórum se interrumpe o no se completa correctamente, vuelva a ejecutar clsetup.

Cambios en el recuento de votos del quórum: si más adelante se incrementa o reduce el número de conexiones de nodos con un dispositivo de quórum, el número de votos de quórum no se recalcula de manera automática. Puede volver a establecer el voto del quórum correcto quitando cada uno de los dispositivos de quórum y agregándolos después nuevamente a la configuración uno por uno. En caso de un nodo de dos clusters, agregue temporalmente un nuevo dispositivo de quórum antes de quitar y volver a agregar el dispositivo de quórum original. A continuación, elimine el dispositivo de quórum temporal. Consulte el procedimiento sobre cómo modificar una lista de nodos de un dispositivo del quórum en el Capítulo 6, Administración de quórum de Guía de administración del sistema de Oracle Solaris Cluster.

Dispositivo de quórum inalcanzable: si aparecen mensajes en los nodos del cluster que indican que un dispositivo de quórum es inalcanzable, o si se producen fallos en los nodos del cluster con el mensaje CMM: Unable to acquire the quorum device (CMM: No se puede adquirir el dispositivo de quórum), es posible que haya un problema con el dispositivo de quórum o su ruta. Compruebe que el dispositivo del quórum y su ruta estén operativos.

Si el problema persiste, utilice otro dispositivo del quórum. Si desea utilizar el mismo dispositivo del quórum, puede aumentar su tiempo de espera, como se indica a continuación:


Nota - En Oracle Real Application Clusters (Oracle RAC), no modifique el tiempo de espera del quórum predeterminado de 25 segundos. En determinados casos en que las dos partes de un cluster se desconectan y cada una de ellas cree que la otra parte está inactiva, un tiempo de espera superior puede hacer que falle el proceso de conmutación por error de Oracle RAC VIP debido a la finalización del tiempo de espera de recursos VIP. Si el dispositivo del quórum que se utiliza no es adecuado para un tiempo de espera predeterminado de 25 segundos, utilice otro dispositivo.


Cómo verificar los modos de configuración e instalación del quórum

Lleve a cabo este procedimiento para verificar que la configuración del quórum se haya completado correctamente, en caso de que lo haya configurado, y que el modo de instalación del cluster esté inactivo.

No es necesario ser superusuario para ejecutar estos comandos.

  1. Desde cualquier nodo de cluster global, verifique la configuración del quórum de los nodos y del cluster.
    phys-schost% clquorum list

    La salida muestra los dispositivos del quórum y los nodos.

  2. Desde cualquier nodo, verifique que el modo de instalación del cluster esté desactivado.
    phys-schost% cluster show -t global | grep installmode
      installmode:                                    disabled

    La creación e instalación del cluster se ha completado.

Pasos siguientes

Determine cuál de las tareas de la lista que se muestra a continuación corresponde a la siguiente tarea que se realizará en la configuración de su cluster. Si necesita realizar más de una tarea de las de esta lista, vaya a la que aparezca en primer lugar.

Véase también

Realice una copia de seguridad de la configuración del cluster.

Si dispone de una copia de seguridad de la configuración del cluster, le resultará más sencillo recuperarla cuando sea necesario. Para obtener más información, consulte Copias de seguridad de la configuración del cluster de Guía de administración del sistema de Oracle Solaris Cluster.

Cómo cambiar nombres de host privados

Realice esta tarea si no desea utilizar los nombres de host privados predeterminados, clusternodenodeid -priv, que se asignan durante la instalación del software de Oracle Solaris Cluster.


Nota - No lleve a cabo este procedimiento una vez se hayan configurado e iniciado las aplicaciones y los servicios de datos. De lo contrario, algunas aplicaciones o servicios de datos podrían continuar utilizando el nombre de host privado antiguo después de haber cambiado el mismo, lo que causaría conflictos en el nombre de host. Si hubiera alguna aplicación o algún servicio de datos en ejecución, deténgalos antes de realizar este procedimiento.


Realice este procedimiento en un nodo activo del cluster.

  1. Conviértase en superusuario en un nodo del cluster global.
  2. Inicie la utilidad clsetup.
    phys-schost# clsetup

    Aparece el menú principal de clsetup.

  3. Escriba el número correspondiente a la opción Nombres de host privados y pulse la tecla Intro.

    Aparece el menú Nombres de host privados.

  4. Escriba el número correspondiente a la opción Change a Node Private Hostname (Cambiar un nombre de host privado) y pulse la tecla Intro.
  5. Siga las instrucciones y responda a los avisos que vayan apareciendo para cambiar el nombre de host privado.

    Repita este paso con cada nombre de host que desee cambiar.

  6. Verifique los nuevos nombres de host privados.
    phys-schost# clnode show -t node | grep privatehostname
      privatehostname:                                clusternode1-priv
      privatehostname:                                clusternode2-priv
      privatehostname:                                clusternode3-priv

Pasos siguientes

Determine cuál de las tareas de la lista que se muestra a continuación corresponde a la siguiente tarea que se realizará en la configuración de su cluster. Si necesita realizar más de una tarea de las de esta lista, vaya a la que aparezca en primer lugar.

Configuración de la distribución de carga de grupos de recursos en los nodos

Puede activar la distribución automática de la carga de grupos de recursos en los nodos o zonas estableciendo límites de carga. Asigna factores de carga a grupos de recursos y los factores de carga se corresponden con los límites de carga de los nodos.

El comportamiento predeterminado es distribuir la carga de grupos de recursos de manera uniforme en todos los nodos disponibles. Cada grupo de recursos se inicia en un nodo de esta lista de nodos. El Administrador de grupos de recursos (RGM) selecciona el nodo que mejor cumple la política de distribución de la carga configurada. Debido a que el RGM asigna grupos de recursos a los nodos, los factores de carga de los grupos de recursos de cada nodo se suman para proporcionar una carga total. La carga total se compara respecto a los límites de carga de ese nodo.

Puede configurar límites de carga en un cluster global o un cluster de zona.

Los factores establecidos para el control de la distribución de carga en cada nodo incluyen los límites de carga, las prioridades de grupos de recursos y el modo de preferencia. En el cluster global, puede establecer la propiedad Concentrate_load para seleccionar la política de distribución de carga preferida: para que se concentre la carga de grupos de recursos en la menor cantidad de nodos posible sin exceder los límites de carga o para distribuir la carga de la manera más uniforme posible entre todos los nodos disponibles. El comportamiento predeterminado es aumentar el tamaño de carga de grupos de recursos. Cada grupo de recursos continuará limitándose a ejecutar sólo en los nodos de su lista de nodos, independientemente del factor de carga y los valores de límite de carga.


Nota - Puede utilizar la línea de comandos, la interfaz del gestor de Oracle Solaris Cluster o la utilidad clsetup para configurar la distribución de la carga para los grupos de recursos. En el procedimiento siguiente, se ilustra cómo configurar la distribución de carga para los grupos de recursos mediante la utilidad clsetup. Para obtener instrucciones sobre cómo utilizar la línea de comandos para realizar estos procedimientos, consulte Configuración de límites de carga de Guía de administración del sistema de Oracle Solaris Cluster.


Esta sección incluye los procedimientos siguientes:

Configuración de los límites de carga para un nodo

Cada zona o nodo del cluster puede tener su propio conjunto de límites de carga. Asigna factores de carga a grupos de recursos y los factores de carga se corresponden con los límites de carga de los nodos. Puede establecer límites de carga flexibles (que se pueden superar) o límites de carga rígidos (que no se pueden superar).

  1. Conviértase en superusuario en un nodo activo del cluster.
  2. Inicie la utilidad clsetup.
    phys-schost# clsetup

    Se muestra el menú clsetup.

  3. Seleccione la opción de menú Other Cluster Tasks (Otras tareas del cluster).

    Se muestra el menú Other Cluster Tasks (Otras tareas del cluster).

  4. Seleccione la opción de menú Manage Resource Group Load Distribution (Gestionar distribución de carga de grupos de recursos).

    Se muestra el menú Manage Resource Group Load Distribution (Gestionar distribución de carga de grupos de recursos).

  5. Seleccione la opción de menú Manage Load Limits (Gestionar límites de carga).

    Se muestra el menú Manage Load Limits (Gestionar límites de carga).

  6. Escriba yes y pulse la tecla Intro para continuar.
  7. Escriba el número de opción que corresponde a la operación que desea realizar y pulse la tecla Intro.

    Puede crear, modificar y suprimir un límite de carga.

  8. Si decide crear un límite de carga, seleccione el número de opción que corresponde al nodo donde desee establecer el límite de carga.

    Si desea establecer un límite de carga en un segundo nodo, seleccione el número de opción que se corresponda con el segundo nodo y pulse la tecla Intro. Después de haber seleccionado todos los nodos en los que desea configurar límites de carga, escriba q y pulse la tecla Intro.

  9. Escriba yes y pulse la tecla Intro para confirmar los nodos seleccionados en Paso 8.
  10. Escriba el nombre del límite de carga y pulse la tecla Intro.

    Por ejemplo, escriba mem_load como nombre de un límite de carga.

  11. Especifique yes (sí) o no para establecer un valor de límite flexible y pulse la tecla Intro.

    Si ha escrito yes (sí), introduzca el valor de límite flexible y pulse la tecla Intro.

  12. Escriba yes (sí) o no para establecer un valor de límite rígido y pulse la tecla Intro.

    Si ha escrito yes (sí), introduzca el valor de límite rígido y pulse la tecla Intro.

  13. Escriba yes y pulse la tecla Intro para continuar con el proceso de creación del límite de carga.
  14. Escriba yes para continuar con la actualización y pulse la tecla Intro.

    Se muestra el mensaje Command completed successfully (El comando se completó con éxito) junto con los límites de carga flexibles y rígidos para los nodos seleccionados. Pulse la tecla Intro para continuar.

  15. Para modificar o suprimir un límite de carga, siga los indicadores de la utilidad clsetup.

    Para volver al menú anterior, escriba q y pulse la tecla Intro.

Definición de una prioridad para un grupo de recursos

También puede configurar un grupo de recursos para que tenga una prioridad superior y reducir así la probabilidad de ser desplazado de un nodo específico. Si de sobrepasan los límites de la carga, es posible que los grupos de recursos de menor prioridad estén obligados a permanecer sin conexión.

  1. Conviértase en superusuario en un nodo activo del cluster.
  2. Inicie la utilidad clsetup.
    phys-schost# clsetup

    Se muestra el menú clsetup.

  3. Seleccione la opción de menú Other Cluster Tasks (Otras tareas del cluster).

    Se muestra el menú Other Cluster Tasks (Otras tareas del cluster).

  4. Seleccione la opción de menú Manage Resource Group Load Distribution (Gestionar distribución de carga de grupos de recursos).

    Se muestra el menú Manage Resource Group Load Distribution (Gestionar distribución de carga de grupos de recursos).

  5. Seleccione la opción de menú Set Priority Per Resource Group (Establecer prioridad por grupo de recursos).

    Se muestra el menú Set Priority Per Resource Group (Establecer prioridad por grupo de recursos).

  6. Escriba yes (sí) y pulse la tecla Intro.
  7. Escriba la opción que se corresponda con el grupo de recursos y pulse la tecla Intro.

    Se muestran los valores de prioridad existentes. El valor de prioridad predeterminado es 500.

  8. Escriba el nuevo valor de prioridad y pulse la tecla Intro.
  9. Escriba yes (sí) para confirmar la entrada y pulse la tecla Intro.
  10. Pulse la tecla Intro para volver al menú anterior.

    Se muestra el menú Manage Resource Group Load Distribution (Gestionar distribución de carga de grupos de recursos).

Definición de los factores de carga para un grupo de recursos

Un factor de carga es un valor que se asigna a la carga en un límite de carga. Los factores de carga se asignan a un grupo de recursos, y estos factores de carga corresponden a los límites de carga definidos de los nodos.

  1. Conviértase en superusuario en un nodo activo del cluster.
  2. Inicie la utilidad clsetup.
    phys-schost# clsetup

    Se muestra el menú clsetup.

  3. Seleccione la opción de menú Other Cluster Tasks (Otras tareas del cluster).

    Se muestra el menú Other Cluster Tasks (Otras tareas del cluster).

  4. Seleccione la opción de menú Manage Resource Group Load Distribution (Gestionar distribución de carga de grupos de recursos).

    Se muestra el menú Manage Resource Group Load Distribution (Gestionar distribución de carga de grupos de recursos).

  5. Seleccione la opción de menú Set Load Factors Per Resource Group (Establecer factores de carga por grupo de recursos).

    Se muestra el menú Set Load Factors Per Resource Group (Establecer factores de carga por grupo de recursos).

  6. Escriba yes (sí) y pulse la tecla Intro.
  7. Escriba el número de opción correspondiente al grupo de recursos y pulse Intro.
  8. Escriba el factor de carga deseado.

    Por ejemplo, para establecer un factor de carga denominado mem_load en el grupo de recursos seleccionado, escriba mem_load@50. Pulse Ctrl-D cuando haya terminado.

  9. Pulse la tecla Intro para continuar con la actualización.
  10. Pulse la tecla Intro para volver al menú anterior.

    Se muestra el menú Manage Resource Group Load Distribution (Gestionar distribución de carga de grupos de recursos).

Definición del modo de preferencia para un grupo de recursos

La propiedad preemption_mode determina si un grupo de recursos se apoderará de un nodo mediante un grupo de recursos de mayor prioridad debido a la sobrecarga de nodos. La propiedad indica el costo de trasladar un grupo de recursos de un nodo a otro.

  1. Conviértase en superusuario en un nodo activo del cluster.
  2. Inicie la utilidad clsetup.
    phys-schost# clsetup

    Se muestra el menú clsetup.

  3. Seleccione la opción de menú Other Cluster Tasks (Otras tareas del cluster).

    Se muestra el menú Other Cluster Tasks (Otras tareas del cluster).

  4. Seleccione la opción de menú Manage Resource Group Load Distribution (Gestionar distribución de carga de grupos de recursos).

    Se muestra el menú Manage Resource Group Load Distribution (Gestionar distribución de carga de grupos de recursos).

  5. Seleccione la opción de menú Set Preemption Mode per Resource Group (Establezca el modo de preferencia por grupo de recursos).

    Se muestra el menú Set the Preemption Mode of a Resource Group (Establecer modo de preferencia de un grupo de recursos).

  6. Escriba yes (sí) y pulse la tecla Intro para continuar.
  7. Escriba el número de opción correspondiente al grupo de recursos y pulse Intro.

    Si el grupo de recursos tiene establecido un modo de preferencia, se muestra de manera similar a la siguiente:

    The preemption mode property of "rg11" is currently set to the following: preemption mode:  Has_Cost
  8. Escriba el número de opción para el modo de preferencia que desee y pulse Intro.

    Las tres opciones son Has_cost, No_cost y Never.

  9. Escriba yes para continuar con la actualización y pulse la tecla Intro.
  10. Pulse la tecla Intro para volver al menú anterior.

    Se muestra el menú Manage Resource Group Load Distribution (Gestionar distribución de carga de grupos de recursos).

Concentración de la carga en menos nodos del cluster

Si se establece la propiedad Concentrate_load en False, el cluster difunde cargas de grupos de recursos de manera uniforme entre todos los nodos disponibles. Si se define esta propiedad en True, el cluster intenta concentrar la carga de grupos de recursos en la menor cantidad posible de nodos, sin exceder los límites de carga. De manera predeterminada, la propiedad Concentrate_load está establecida en False. Sólo puede definir la propiedad Concentrate_load en un cluster global; no puede establecer esta propiedad en un cluster de zona. En un cluster de zona, la configuración predeterminada siempre es False.

  1. Conviértase en superusuario en un nodo activo del cluster.
  2. Inicie la utilidad clsetup.
    phys-schost# clsetup

    Se muestra el menú clsetup.

  3. Seleccione la opción de menú Other cluster tasks (Otras tareas del cluster).

    Se muestra el menú Other Cluster Tasks (Otras tareas del cluster).

  4. Seleccione la opción de menú Set the concentrate_load Property of the Cluster (Establecer la propiedad concentrate_load del cluster).

    Se muestra el menú Set the Concentrate Load Property of the Cluster (Establecer la propiedad concentrate_load del cluster).

  5. Escriba yes (sí) y pulse la tecla Intro.

    Se muestra el valor actual de TRUE o FALSE.

  6. Escriba yes para cambiar el valor y pulse la tecla Intro.
  7. Escriba yes para continuar con la actualización y pulse la tecla Intro.
  8. Pulse la tecla Intro para volver al menú anterior.

    Se muestra el menú Other Cluster Tasks (Otras tareas del cluster).

Configuración de Network Time Protocol (NTP)


Nota - Si ha instalado su propio archivo /etc/inet/ntp.conf antes de instalar el software de Oracle Solaris Cluster, no es necesario que lleve a cabo este procedimiento. Determine el paso que debe realizar a continuación:


Realice esta tarea para crear o modificar el archivo de configuración de NTP tras realizar cualquiera de las siguientes tareas:

Si ha agregado un nodo a un cluster de un solo nodo, debe asegurarse de que el archivo de configuración de NTP que utilice se copie en el nodo del cluster original y en el nodo nuevo.

  1. Conviértase en superusuario en un nodo del cluster.
  2. Si dispone de su propio archivo /etc/inet/ntp.conf, cópielo en cada nodo del cluster.
  3. Si no dispone de su propio archivo /etc/inet/ntp.conf para instalarlo, use el archivo /etc/inet/ntp.conf.cluster como archivo de configuración de NTP.

    Nota - No cambie el nombre del archivo ntp.conf.cluster a ntp.conf.


    Si el archivo /etc/inet/ntp.conf.cluster no existe en el nodo, es posible que disponga de un archivo /etc/inet/ntp.conf de una instalación del software de Oracle Solaris Cluster anterior. El software de Oracle Solaris Cluster crea el archivo /etc/inet/ntp.conf.cluster como archivo de configuración de NTP si no existe un archivo /etc/inet/ntp.conf en el nodo. Si es así, realice las siguientes modificaciones en el archivo ntp.conf.

    1. Utilice el editor de texto que prefiera para abrir el archivo de configuración de NTP en un nodo del cluster a fin de editarlo.
    2. Asegúrese de que exista una entrada para el nombre de host privado de cada nodo del cluster.

      Si ha cambiado el nombre de host privado de cualquier nodo, asegúrese de que el archivo de configuración de NTP contenga el nuevo nombre de host privado.

    3. Si es necesario, realice otras modificaciones para satisfacer sus requisitos de NTP.
    4. Copie el archivo de configuración de NTP en todos los nodos del cluster.

      El contenido del archivo de configuración de NTP debe ser idéntico en todos los nodos del cluster.

  4. Detenga el daemon NTP en cada nodo.

    Esperar a que el comando termine de ejecutarse correctamente en cada nodo antes de seguir con el Paso 5.

    phys-schost# svcadm disable ntp
  5. Reinicie el daemon NTP en cada nodo.
    • Si usa el archivo ntp.conf.cluster, ejecute el siguiente comando:
      phys-schost# /etc/init.d/xntpd.cluster start

      La secuencia de comandos de inicio xntpd.cluster busca primero el archivo /etc/inet/ntp.conf.

      • Si el archivo ntp.conf existe, la secuencia de comandos se cierra inmediatamente sin iniciar el daemon NTP.

      • Si el archivo ntp.conf no existe, pero el archivo ntp.conf.cluster sí existe, la secuencia de comandos inicia el daemon NTP. En este caso, la secuencia de comandos utiliza el archivo ntp.conf.cluster como archivo de configuración de NTP.

    • Si utiliza el archivo ntp.conf, ejecute el comando siguiente:
      phys-schost# svcadm enable ntp

Pasos siguientes

Determine cuál de las tareas de la lista que se muestra a continuación corresponde a la siguiente tarea que se realizará en la configuración de su cluster. Si necesita realizar más de una tarea de las de esta lista, vaya a la que aparezca en primer lugar.

Configuración de la arquitectura de seguridad IP (IPsec) en la interconexión privada del cluster

Puede configurar la arquitectura de seguridad IP (IPsec) para la interfaz clprivnet a fin de proporcionar comunicación TCP/IP segura en la interconexión del cluster.

Para obtener más información sobre IPsec, consulte Parte IV, Seguridad IP de Administración de Oracle Solaris: servicios IP y la página del comando man ipsecconf(1M). Para obtener información sobre la interfaz clprivnet, consulte la página del comando man clprivnet(7).

Realice este procedimiento en todos los nodos con voto del cluster global que desee configurar para que utilicen IPsec.

  1. Conviértase en superusuario.
  2. Determine la dirección IP de la interfaz clprivnet de cada nodo.
    phys-schost# ifconfig clprivnet0
  3. En cada nodo, configure el archivo de política /etc/inet/ipsecinit.conf y agregue asociaciones de seguridad (SA) entre cada par de direcciones IP privadas y de interconexión con el que desee usar IPsec.

    Siga las instrucciones que se proporcionan en Cómo proteger el tráfico entre dos sistemas con IPsec de Administración de Oracle Solaris: servicios IP. Además, tenga en cuenta las siguientes directrices:

    • Asegúrese de que los valores de los parámetros de configuración de estas direcciones mantengan una coherencia en todos los nodos asociados.

    • Configurar cada política como una línea separada en el archivo de configuración.

    • Para implementar IPSec sin reiniciar, siga las instrucciones del ejemplo del procedimiento, Protección del tráfico con IPsec sin reiniciar.

    Para obtener más información acerca de la norma sa unique, consulte la página del comando man ipsecconf(1M).

    1. Agregue, en todos los archivos, una entrada para cada dirección IP clprivnet del cluster para que utilicen IPsec.

      Incluya la dirección IP clprivnet del nodo local.

    2. Si utiliza VNIC, también debe agregar una entrada para la dirección IP de cada interfaz física que emplean las VNIC.
    3. (Opcional) Para activar la segmentación de datos mediante todos los enlaces, incluya la política sa unique en la entrada.

      Esta función ayuda al controlador a utilizar de manera óptima el ancho de banda de la red privada del cluster, que proporciona una elevada granularidad de distribución y un mejor rendimiento. La interfaz clprivnet utiliza el índice de parámetros de seguridad (SPI) del paquete para segmentar el tráfico.

  4. En cada nodo, edite el archivo /etc/inet/ike/config para configurar el parámetro p2_idletime_secs .

    Agregue esta entrada con reglas de política que se han configurado para transportes del cluster. Este valor proporciona el tiempo para las asociaciones de seguridad que se vuelven a generar cuando un nodo del cluster se reinicia y además limita la rapidez con la que el nodo reiniciado puede volver a unirse al cluster. Un valor de 30 segundos debería ser suficiente.

    phys-schost# vi /etc/inet/ike/config
    …
    {
        label "clust-priv-interconnect1-clust-priv-interconnect2"
    …
    p2_idletime_secs 30
    }
    …

Pasos siguientes

Determine cuál de las tareas de la lista que se muestra a continuación corresponde a la siguiente tarea que se realizará en la configuración de su cluster. Si necesita realizar más de una tarea de las de esta lista, vaya a la que aparezca en primer lugar.

De lo contrario, si ha completado todas las tareas de configuración e instalación de software y hardware, valide el cluster. Vaya a Cómo validar el cluster.

Cómo validar el cluster

Una vez completada la configuración del cluster, utilice el comando cluster check para validar la configuración y la funcionalidad del cluster. Para obtener más información, consulte la página del comando man cluster(1CL).


Consejo - Para realizar consultas o resolver problemas de forma más sencilla, en cada validación que ejecute, utilice la opción -o outputdir para especificar un subdirectorio para los archivos de registro. Si se reutiliza el nombre de un subdirectorio que ya existe, se eliminarán todos los archivos existentes en dicho subdirectorio. Por tanto, para asegurarse de que haya disponibles archivos de registro para futuras consultas, especifique un nombre de subdirectorio exclusivo para cada comprobación de cluster que vaya a efectuar.


Antes de empezar

Asegúrese de haber completado la instalación y la configuración de todos los componentes de hardware y software en el cluster, incluidos el firmware y los parches.

  1. Conviértase en superusuario en un nodo de cluster.
  2. Asegúrese de que dispone de las comprobaciones más actuales.

    Vaya a la ficha Patches & Updates (Parches y actualizaciones) de My Oracle Support. Mediante la búsqueda avanzada, seleccione "Solaris Cluster" como producto y especifique "comprobar" en el campo de descripción para localizar los parches de Oracle Solaris Cluster que contengan comprobaciones. Aplique todos los parches que no se encuentren instalados en el cluster.

  3. Ejecute las comprobaciones de validación básicas.
    # cluster check -v -o outputdir
    -v

    Modo detallado

    -o outputdir

    Redirige la salida al subdirectorio outputdir.

    El comando ejecuta todas las comprobaciones básicas disponibles. No se ve afectada ninguna función del cluster.

  4. Ejecute las comprobaciones de validación interactivas.
    # cluster check -v -k interactive -o outputdir
    -k interactive

    Especifica comprobaciones de validación interactivas en ejecución

    El comando ejecuta todas las comprobaciones de validación interactivas disponibles y le solicita información necesaria sobre el cluster. No se ve afectada ninguna función del cluster.

  5. Ejecute las comprobaciones de validación funcionales.
    1. Enumere todas las comprobaciones funcionales disponibles en el modo detallado.
      # cluster list-checks -k functional
    2. Determine qué comprobaciones funcionales realizan acciones que puedan afectar a la disponibilidad o los servicios del cluster en un entorno de producción.

      Por ejemplo, una comprobación funcional puede desencadenar que el nodo genere avisos graves o una conmutación por error a otro nodo.

      # cluster list-checks -v -C checkID
      -C checkID

      Especifica un una comprobación específica.

    3. Si hay peligro de que la comprobación funcional que desea efectuar interrumpa el funcionamiento del cluster, asegúrese de que el cluster no esté en producción.
    4. Inicie la comprobación funcional.
      # cluster check -v -k functional -C checkid -o outputdir
      -k functional

      Especifica comprobaciones de validación funcionales en ejecución.

      Responda a las peticiones de la comprobación para confirmar la ejecución de la comprobación y para cualquier información o acciones que deba realizar.

    5. Repita el Paso c y el Paso d para cada comprobación funcional que quede por ejecutar.

      Nota - para fines de registro, especifique un único nombre de subdirectorio dir_salida para cada comprobación que se ejecuta. Si vuelve a utilizar un nombre dir_salida, la salida para la nueva comprobación sobrescribe el contenido existente del subdirectorio dir_salida reutilizado.


Ejemplo 3-5 Listado de comprobaciones de validación interactivas

En el siguiente ejemplo se enumeran todas las comprobaciones interactivas que están disponibles para ejecutarse en el cluster. En la salida del ejemplo aparece un muestreo de posibles comprobaciones; las comprobaciones disponibles reales varían en cada configuración.

# cluster list-checks -k interactive
 Some checks might take a few moments to run (use -v to see progress)...
 I6994574  :   (Moderate)   Fix for GLDv3 interfaces on cluster transport vulnerability applied?

Ejemplo 3-6 Ejecución de una comprobación de validación funcional

El siguiente ejemplo muestra primero el listado detallado de comprobaciones funcionales. La descripción detallada aparece en una lista para la comprobación F6968101, que indica que la comprobación podría alterar los servicios del cluster. El cluster se elimina de la producción. La comprobación funcional se ejecuta con salida detallada registrada en el subdirectorio funct.test.F6968101.12Jan2011. En la salida de ejemplo aparece un muestreo de posibles comprobaciones; las comprobaciones disponibles reales varían en cada configuración.

# cluster list-checks -k functional
 F6968101  :   (Critical)   Perform resource group switchover
 F6984120  :   (Critical)   Induce cluster transport network failure - single adapter.
 F6984121  :   (Critical)   Perform cluster shutdown
 F6984140  :   (Critical)   Induce node panic
…

# cluster list-checks -v -C F6968101
 F6968101: (Critical) Perform resource group switchover
Keywords: SolarisCluster3.x, functional
Applicability: Applicable if multi-node cluster running live.
Check Logic: Select a resource group and destination node. Perform 
'/usr/cluster/bin/clresourcegroup switch' on specified resource group 
either to specified node or to all nodes in succession.
Version: 1.2
Revision Date: 12/10/10 

Take the cluster out of production

# cluster check -k functional -C F6968101 -o funct.test.F6968101.12Jan2011
F6968101 
  initializing...
  initializing xml output...
  loading auxiliary data...
  starting check run...
     pschost1, pschost2, pschost3, pschost4:     F6968101.... starting:  
Perform resource group switchover           


  ============================================================

   >>> Functional Check <<<

    'Functional' checks exercise cluster behavior. It is recommended that you
    do not run this check on a cluster in production mode.' It is recommended
    that you have access to the system console for each cluster node and
    observe any output on the consoles while the check is executed.

    If the node running this check is brought down during execution the check
    must be rerun from this same node after it is rebooted into the cluster in
    order for the check to be completed.

    Select 'continue' for more details on this check.

          1) continue
          2) exit

          choice: 1


  ============================================================

   >>> Check Description <<<
…
Follow onscreen directions

Pasos siguientes

Antes de poner el cluster en funcionamiento, realice un registro de línea de base de la configuración del cluster para futuros diagnósticos. Vaya a Cómo registrar los datos de diagnóstico de la configuración del cluster.

Cómo registrar los datos de diagnóstico de la configuración del cluster

Cuando termine de configurar el cluster global y antes de ponerlo en funcionamiento, use la utilidad Oracle Explorer para registrar la información de línea de base acerca del cluster. Estos datos se pueden utilizar en caso de que se diera una necesidad de resolver un problema con el cluster.

  1. Conviértase en superusuario.
  2. Instale el software de Oracle Explorer, si aún no está instalado.

    Services Tools Bundle contiene los paquetes de Oracle Explorer SUNWexplo y SUNWexplu. Consulte http://www.oracle.com/us/support/systems/premier/services-tools-bundle-sun-systems-163717.html para obtener información sobre la descarga y la instalación del software.

  3. Ejecute la utilidad explorer en todos los nodos del cluster.

    Utilice el comando adecuado para su plataforma. Por ejemplo, para recolectar información en un servidor Sun Fire T1000 de Oracle, ejecute el siguiente comando:

    # explorer -i -w default,Tx000

    Para más información, consulte la página del comando man explorer(1M), en el directorio /opt/SUNWexplo/man/man1m/, y la Guía del usuario de Oracle Explorer Data Collector, que se encuentra en la nota 1153444.1 de My Oracle Support:

    https://support.oracle.com

    El archivo de salida explorer se guarda en el directorio /opt/SUNWexplo/output/ como explorer.hostid.hostname-date .tar.gz.

  4. Guarde los archivos en una ubicación a la que pueda acceder si el cluster quedara inoperativo por completo.
  5. Envíe todos los archivos explorer por correo electrónico al alias de la base de datos de Oracle Explorer correspondiente a su ubicación geográfica.

    Siga los procedimientos mencionados en la Guía de usuario de Oracle Explorer Data Collector para usar FTP o HTTPS con el fin de enviar archivos de Oracle Explorer.

    La base de datos de Oracle Explorer pondrá la salida de explorer a disposición de la asistencia técnica de Oracle cuando estos datos resulten necesarios para ayudar a diagnosticar un problema técnico del cluster.