12 Consejos de resolución de problemas

ACSLS HA 8.4 es la integración de la aplicación ACSLS que funciona en un sistema de dos nodos en Solaris 11.2 con IPMP y ZFS bajo el control de Solaris Cluster 4.2.

Verificación de que ACSLS se esté ejecutando

Para verificar que los servicios ACSLS se ejecuten en el nodo activo, utilice el siguiente comando como usuario acsss:

# su - acsss
$ acsss status

Si hay uno o más servicios desactivados, actívelos con $ acsss enable.

Si la pantalla de estado muestra que hay uno o más servicios ACSLS en modo de mantenimiento, ejecute el comando $ acsss l-status.

Busque la ruta al archivo log del servicio defectuoso y consulte ese log para comprender el motivo por el cual el servicio se colocó en modo de mantenimiento.

Si hay uno o más servicios acsls en modo de mantenimiento, se pueden eliminar desactivándolos y luego activándolos con el comando acsss.

$ acsss shutdown
$ acsss enable

Como usuario root, use # svcadm clear <service name> para eliminar un servicio individual.

El servicio no se elimina hasta que se corrija el fallo subyacente.

También se deben revisar los logs operativos específicos como medio para revelar el origen del problema. La mayoría de ellos se encuentran en el directorio $ACS_HOME/log.

El log principal que se revisará es acsss_event.log. Este log registra la mayoría de los eventos relacionados con la operación general de ACSLS.

Si el problema se relaciona con la GUI de ACSLS o con la operación de la biblioteca lógica, los logs relevantes se encuentran en el directorio $ACS_HOME/log/sslm.

Para la GUI de ACSLS y WebLogic, busque AcslsDomain.log, AdminServer.log y gui_trace.logs.

Los problemas de instalación relacionados con WebLogic se encuentran en weblogic.log.

Para los problemas de la biblioteca lógica, después de configurar la biblioteca lógica, puede consultar slim_event.logs y smce_stderr.log.

Control de la conexión con el recurso de disco compartido

  1. Verifique que el recurso acsls-storage esté en línea en el nodo de cluster activo.

    # clrs status acsls-storage
    
  2. Si el recurso acsls-storage no está en línea, verifique que el recurso esté montado en ZFS en el nodo activo:

    # zpool status
    

    Si acslspool no está montado en el nodo activo, verifique que esté montado en el nodo en espera.

    # ssh standby hostname zpool status
    

    Si el recurso de disco compartido está montado en el nodo en espera, conmute el control del cluster a ese nodo.

    # clrg switch -n standby hostname acsls-rg
    
  3. Si acslspool no está montado en el nodo activo y el recurso acsls-storage está fuera de línea, verifique que acslspool esté visible para el nodo activo.

    # zpool import (no argument)
    

    Nota:

    Esta operación solamente funciona si acsls-storage está fuera de línea. Para ponerlo fuera de línea, utilice el comando clrs disable acsls-storage.

    Si acslspool está visible para el nodo activo, intente importarlo:

    # zpool import -f acslspool
    

    Si la operación import funciona correctamente, coloque el recurso acsls-storage en línea para Solaris Cluster:

    # clrs enable acsls-storage
    

    Si acslspool no está visible para el nodo activo, es necesario resolver el problema de conexión física con la unidad compartida.

Cuando no se puede hacer ping en el host lógico

  1. Verifique que el nombre de host lógico esté registrado en Solaris Cluster.

    # clrslh list
    
  2. Determine el nodo activo:

    # clrg status | grep -i Online
    
  3. Verifique si se puede hacer ping en el nodo activo.

    # ping <node name>
    
  4. Verifique que el recurso de nombre logical-host esté en línea para el nodo activo.

    # clrslh status
    

    Si el host lógico no está en línea, actívelo.

    # clrs enable <logical host>
    
  5. Verifique el estado de las interfaces IP asignadas al grupo público.

    # ipadm
    

    En la pantalla de salida, verifique el estado ok de cada miembro del grupo público ipmp.

  6. Para cada interfaz del grupo público (ipmp0), verifique el estado físico.

    # dladm show-phys
    
  7. Verifique que el host lógico esté asociado con una de las dos interfaces del grupo ipmp público (que se muestra en el paso 5).

    # arp <logical-hostname>
    # ifconfig net0
    # ifconfig net4
    

    En este ejemplo, se supone que net0 y ne4 fueron asignados al grupo público ipmp.

    La dirección MAC de una de las dos interfaces debe coincidir con la dirección MAC asignada al nombre de host lógico.

Comprobación de la interconexión entre nodos

Si sospecha que hay un error en el control del cluster debido a la pérdida de comunicación del cluster entre los dos nodos, puede comprobar la interconexión privada del cluster de la siguiente manera:

# cluster status -t interconnect