StorageTek Automated Cartridge System Library Software Instalación, configuración y operación del cluster de High Availability 8.3 Versión 8.3 E54096-01 |
|
![]() Anterior |
![]() Siguiente |
ACSLS HA 8.3 es la integración de la aplicación ACSLS que funciona en un sistema de dos nodos en Solaris 11 con IPMP y ZFS bajo el control de Solaris Cluster 4.1.
Para verificar que los servicios ACSLS se ejecuten en el nodo activo, utilice el siguiente comando como usuario acsss
:
# su - acsss $ acsss status
Si hay uno o más servicios desactivados, actívelos con $
acsss enable
.
Si la pantalla de estado revela que hay uno o más servicios ACSLS en modo de mantenimiento, ejecute el comando $ acsss l-status
.
Busque la ruta al archivo log del servicio defectuoso y consulte ese log para comprender el motivo por el cual el servicio se colocó en modo de mantenimiento.
Si hay uno o más servicios acsls en modo de mantenimiento, se pueden eliminar desactivándolos y luego activándolos con el comando acsss
.
$ acsss shutdown $ acsss enable
Como root
, también puede eliminar un servicio individual. # svcadm clear <service name>
El servicio no se eliminará hasta que se corrija el fallo subyacente.
También se deben revisar los logs operativos específicos como medio para revelar el origen del problema. La mayoría de ellos se encuentran en el directorio $ACS_HOME/log
.
El log principal que se revisará es acsss_event.log
. Este log registra la mayoría de los eventos relacionados con la operación general de ACSLS.
Si el problema se relaciona con la GUI de ACSLS o con la operación de la biblioteca lógica, los logs relevantes se encuentran en el directorio $ACS_HOME/log/sslm
.
Para la GUI de ACSLS y WebLogic, busque AcslsDomain.log
, AdminServer.log
y gui_trace.logs
.
Los problemas de instalación relacionados con WebLogic se encuentran en weblogic.log
.
Para los problemas de la biblioteca lógica, después de configurar la biblioteca lógica, puede consultar slim_event.logs
y smce_stderr.log
.
Verifique que el recurso acsls-storage esté en línea en el nodo de cluster activo.
# clrs status acsls-storage
Si el recurso acsls-storage no está en línea, verifique que el recurso esté montado en ZFS en el nodo activo:
# zpool status
Si acslspool no está montado en el nodo activo, verifique que esté montado en el nodo en espera.
# ssh standby hostname
zpool status
Si el recurso de disco compartido está montado en el nodo en espera, conmute el control del cluster a ese nodo.
# clrg switch -n standby hostname
acsls-rg
Si acslspool no está montado en el nodo activo, y el recurso acsls-storage está fuera de línea, verifique si acslspool está visible para el nodo activo.
# zpool import (no argument)
Nota: Esta operación solamente funciona siacsls-storage está fuera de línea. Para ponerlo fuera de línea, utilice el comando clrs disable acsls-storage . |
Si acslspool está visible para el nodo activo, puede intentar importarlo:
# zpool import -f acslspool
Si la operación import
funciona correctamente, coloque el recurso acsls-storage
en línea para Solaris Cluster:
# clrs enable acsls-storage
Si acslspool
no está visible para el nodo activo, será necesario resolver el problema de conexión física con la unidad compartida.
Verifique que el nombre de host lógico esté registrado en Solaris Cluster.
# clrslh list
Determine el nodo activo:
# clrg status | grep -i Online
Verifique que pueda hacer ping en el nodo activo.
# ping <node name>
Verifique que el recurso de nombre de host lógico esté en línea en el nodo activo.
# clrslh status
Si el host lógico no está en línea, actívelo.
# clrs enable <logical host>
Verifique el estado de las interfaces IP asignadas al grupo público.
# ipadm
En la pantalla de salida, verifique el estado ok de cada miembro del grupo público ipmp.
Para cada interfaz del grupo público (ipmp0), verifique el estado físico.
# dladm show-phys
Verifique que el host lógico esté asociado con una de las dos interfaces del grupo ipmp público (que se muestra en el paso 5).
# arp <logical-hostname> # ifconfig net0 # ifconfig net4
En este ejemplo, se supone que net0 y ne4 fueron asignados al grupo público ipmp.
La dirección MAC de una de las dos interfaces debe coincidir con la dirección MAC asignada al nombre de host lógico.