Los siguientes problemas conocidos afectan al funcionamiento de la versión Sun Cluster 3.2. Estos errores y problemas se clasifican en las siguientes categorías:
Resumen del problema: El comando -clnode remove --force debería eliminar los nodos de los metaconjuntos. La Sun Cluster System Administration Guide for Solaris OS proporciona procedimientos para eliminar un nodo del clúster. Estos procedimientos indican al usuario que debe ejecutar el comando metaset para eliminar el conjunto de discos de Solaris Volume Manager antes de ejecutar clnode remove.
Solución: Si no se siguen estos procedimientos, es posible que sea necesario eliminar los datos del nodo caducados de CCR en la forma habitual. En el nodo activo del clúster, utilice el comando metaset para borrar el nodo de los conjuntos de discos de Solaris Volume Manager. A continuación, ejecute clnode clear --force obsolete_nodename.
Resumen del problema: En un clúster instalado con el grupo de software de usuario final de Solaris 10, SUNWCuser, la ejecución del comando scsnapshot puede fallar con el siguiente error:
# scsnapshot -o … /usr/cluster/bin/scsnapshot[228]: /usr/perl5/5.6.1/bin/perl: not found |
Solución: Realice uno de los pasos siguientes:
Instale el grupo de software de distribución completa de Solaris.
Instale los paquetes de Perl: SUNWpl5u, SUNWpl5v y SUNWpl5p.
Resumen del problema: La propiedad Auxnodelist del recurso de dirección compartida no se puede utilizar durante la creación de recursos de dirección compartida, ya que esto provocará errores y SEGV cuando se cree el recurso escalable que dependa de este recurso de red de dirección compartida. El mensaje de error de validación del recurso escalable presenta el siguiente formato:
Method methodname (scalable svc) on resource resourcename stopped or terminated due to receipt of signal 11 |
Además, el archivo del núcleo central se genera desde ssm_wrapper. Los usuarios no podrán establecer la propiedad Auxnodelisty, por lo tanto, no podrán identificar los nodos del clúster que pueden alojar la dirección compartida, pero que no se pueden utilizar nunca como principal.
Solución: Vuelva a crear en un nodo el recurso de dirección compartida sin especificar la propiedad Auxnodelist. A continuación, vuelva a ejecutar el comando de creación de recursos escalables y use el recurso de dirección compartida que ha creado de nuevo como recurso de red.
Resumen del problema: El comando del servidor del quórum clquorumserver no establece correctamente el estado del mecanismo de inicio para el siguiente reinicio.
Solución: Realice las siguientes tareas para iniciar o detener el software del servidor del quórum.
Muestre el estado del servicio quorumserver.
# svcs -a | grep quorumserver |
Si el servicio está deshabilitado, la salida presentará un aspecto parecido al siguiente:
disabled 3:33:45 svc:/system/cluster/quorumserver:default |
Inicie el software del servidor del quórum.
Si el servicio quorumserver está deshabilitado, utilice el comando svcadm enable.
# svcadm enable svc:/system/cluster/quorumserver:default |
Si el servicio quorumserver está en línea, utilice el comando clquorumserver.
# clquorumserver start + |
Deshabilite el servicio quorumserver.
# svcadm disable svc:/system/cluster/quorumserver:default |
Inicie el software del servidor del quórum.
# clquorumserver start + |
Cambie el nombre del archivo /etc/rc2.d/.S99quorumserver a /etc/rc2.d/S99quorumserver.
# mv /etc/rc2.d/.S99quorumserver /etc/rc2.d/S99quorumserver |
Detenga el software del servidor del quórum.
# clquorumserver stop + |
Inicie el software del servidor del quórum.
# mv /etc/rc2.d/S99quorumserver /etc/rc2.d/.S99quorumserver |
Resumen del problema: El recurso de agente del nodo (NA, Node Agent) en Sun Cluster HA para Application Server se crea, aunque no se haya establecido ninguna dependencia en el recurso de DAS. El comando debería mostrar un mensaje de error si no se ha establecido la dependencia, ya que un recurso de DAS debe estar en línea para poder iniciar el recurso de NA.
Solución: Al crear el recurso de NA, asegúrese de establecer una dependencia de recurso en el recurso de DAS.
Resumen del problema: La revisión de HA MySQL agrega una nueva variable denominada MYSQL_DATADIR al archivo mysql_config. Esta nueva variable debe señalar al directorio en el que se almacena el archivo de configuración my.conf de MySQL. Si esta variable no se configura correctamente, la preparación de la base de datos con mysql_register fallará.
Solución: Defina la variable MYSQL_DATADIR para que señale al directorio en el que se almacena el archivo de configuración my.conf de SQL.
Resumen del problema: Si se utiliza InfiniBand como transporte del clúster y hay dos adaptadores en cada nodo con dos puertos por adaptador y un total de dos conmutadores, la función de detección automática de adaptadores de la utilidad scinstall puede sugerir que hay dos rutas de transporte usando el mismo adaptador.
Solución: Especifique manualmente los adaptadores de transporte en cada nodo.
Resumen del problema: La instalación de IPv6 en las interconexiones, que es un paso necesario para reenviar los paquetes de servicios escalables de IPv6, ya no se habilitará de forma predeterminada. Las interfaces de IPv6, como se muestra al utilizar el comando ifconfig, ya no se instalarán de forma predeterminada en los adaptadores de interconexión.
Solución: Habilite manualmente la compatibilidad con los servicios escalables de IPv6.
Asegúrese de que se hayan preparado todos los nodos del clúster para ejecutar los servicios de IPv6. Entre estas tareas, se incluyen la configuración correcta de las interfaces de red, el software de aplicación de servidor/cliente, los servicios de nombres y la infraestructura de enrutamiento. Si no se realizan estas tareas, es posible que se produzcan fallos inesperados en las aplicaciones de red. Para obtener más información, consulte la documentación de administración del sistema de Solaris para los servicios de IPv6.
En cada nodo, agregue la siguiente entrada al archivo /etc/system.
set cl_comm:ifk_disable_v6=0 |
Habilite, en cada nodo, la instalación de IPv6 en los adaptadores de interconexión.
# /usr/cluster/lib/sc/config_ipv6 |
La utilidad config_ipv6 muestra una interfaz de IPv6 en todos los adaptadores de interconexión del clúster que tengan una dirección de vínculo local. Esta utilidad permite el reenvío correcto de los paquetes de servicios escalables de IPv6 a través de las interconexiones.
También puede reiniciar cada nodo del clúster para activar el cambio de configuración.
Resumen del problema: Si se intenta utilizar el comando clnode add con un archivo XML, es decir, mediante el transporte de conexión directa, este comando interpreta erróneamente la información del cable y agrega información de configuración incorrecta. Como resultado, el nodo que se va a agregar no se puede unir al clúster.
Solución: Utilice el comando scinstall para agregar un nodo al clúster cuando el transporte del clúster esté conectado directamente.
Resumen del problema: El comando scinstall actualiza el archivo /etc/nsswitch.conf para agregar la entrada cluster para las bases de datos hosts y netmasks. Este cambio actualiza el archivo /net/nsswitch.conf para la zona global. Sin embargo, al crear e instalar una zona no global, esta zona recibe su propia copia del archivo /etc/nsswitch.conf. Los archivos /etc/nsswitch.conf ubicados en las zonas no globales no presentarán la entrada cluster para las bases de datos hosts y netmasks. Fallará cualquier intento de resolver las direcciones IP y los nombres de hosts específicos del clúster en la zona no global mediante las consultas getXbyY.
Solución: Actualice manualmente el archivo /etc/nsswitch.conf para las zonas no globales con la entrada cluster de las bases de datos hosts y netmasks. De esta forma, se garantiza que las resoluciones de direcciones IP y nombres de hosts específicos del cluster estén disponibles en las zonas no globales.
Resumen del problema: Los mensajes traducidos de los programas de administración del servidor del quórum como, por ejemplo, clquorumserver, se proporcionan como parte de los paquetes de traducción centrales. Debido a esto, los mensajes del servidor del quórum sólo aparecerán en inglés. Los paquetes de traducción del servidor del quórum deben separarse de los paquetes de traducción centrales e instalarse en el sistema del servidor del quórum.
Solución: Instale los siguientes paquetes en el host en el que se ha instalado el software del servidor del quórum:
SUNWcsc (chino simplificado)
SUNWdsc (alemán)
SUNWesc (español)
SUNWfsc (francés)
SUNWhsc (chino tradicional)
SUNWjsc (japonés)
SUNWksc (coreano)
Si se necesita la página de comando man en japonés para el servidor del quórum, instale el paquete SUNWjscman (página de comando man en japonés).
Resumen del problema: El programa de instalación de Sun Cluster 3.2 muestra un mensaje de advertencia sobre el espacio de intercambio insuficiente al instalar la versión en chino simplificado del software de Sun Cluster 3.2. El programa de instalación proporciona un tamaño de intercambio incorrecto de 0,0 KB en la pantalla de comprobación de los requisitos del sistema.
Solución: Si el tamaño de intercambio es superior al tamaño de los requisitos del sistema, puede omitir con seguridad este problema. Se puede utilizar el programa de instalación de SC 3.2 con la configuración regional C o inglesa; esta versión compruebe el tamaño de intercambio correctamente.
Resumen del problema: cleanipc falla si el entorno de vínculos de tiempo de ejecución no contiene la ruta /sapmnt/SAPSID/exe.
Solución: Agregue como usuario root de Solaris la ruta /sapmnt/SAPSID/exe a la biblioteca predeterminada del archivo ld.config.
Para configurar la ruta de biblioteca predeterminada del entorno de vínculos de tiempo de ejecución para las aplicaciones de 32 bits, introduzca el siguiente comando:
# crle -u -l /sapmnt/SAPSID/exe |
Para configurar la ruta de biblioteca predeterminada del entorno de vínculos de tiempo de ejecución para las aplicaciones de 64 bits, introduzca el siguiente comando:
# crle -64 -u -l /sapmnt/SAPSID/exe |
Resumen del problema: Al cerrar un clúster, UCMMD puede pasar a la reconfiguración de uno o varios de los nodos si uno de éstos sobrepasa ligeramente al clúster de UCMMD. Si se produce esta situación el proceso de cierre detiene el comando rpc.md en el nodo, mientras que UCMMD intenta realizar el paso de devolución. En éste, el comando metaclust obtiene un tiempo de espera de RPC y sale del paso con un error, debido a que falta el proceso rpc.mdcommd. Este error provoca que UCMMD anule el nodo, lo que podría ocasionar un aviso grave en el nodo.
Solución: Puede omitir con seguridad este problema. Cuando el nodo arranca la copia de seguridad, el software de Sun Cluster detecta esta condición y permite a UCMMD iniciarse, a pesar del hecho de que el error se produjo en la anterior reconfiguración.
Resumen del problema: El proceso de validación de recursos de Sun Cluster no acepta el nombre de host de los grupos IPMP para la propiedad netiflist durante la creación de recursos de dirección compartida o nombre de host lógico.
Solución: Utilice el nombre del nodo en lugar del Id. al especificar los nombres de grupos IPMP durante la creación de recursos de dirección compartida o nombre de host lógico.
Resumen del problema: Este problema se detecta al encapsular el disco original root y se intenta realizar una actualización automática de VxVM 3.5 en el SO Solaris 9 8/03 OS a VxVM 5.0 en el SO Solaris 10 6/06. La secuencia de comandos vxlufinish falla con el siguiente error.
#./vslufinish -u 5.10 VERITAS Volume Manager VxVM 5.0 Live Upgrade finish on the Solairs release <5.10> Enter the name of the alternate root diskgroup: altrootdg ld.so.1: vxparms: fatal: libvxscsi.so: open failed: No such file or directory ld.so.1: vxparms: fatal: libvxscsi.so: open failed: No such file or directory Killed ld.so.1: ugettxt: fatal: libvxscsi.so: open failed: No such file or directory ERROR:vxlufinish Failed: /altroot.5.10/usr/lib/vxvm/bin/vxencap -d -C 10176 -c -p 5555 -g -g altrootdg rootdisk=c0t1d0s2 Please install, if 5.0 or higher version of VxVM is not installed on alternate bootdisk. |
Solución: Utilice, en su lugar, el método de actualización estándar o de partición doble.
Póngase en contacto con el servicio de asistencia o el representante de Sun para conocer si la compatibilidad de la actualización automática de Sun Cluster 3.2 con VxVM 5.0 estará disponible próximamente.
Resumen del problema: Durante la actualización automática, los comandos lucreate y luupgrade no pueden cambiar los nombres de DID en el entorno de arranque alternativo para que se correspondan con la entrada /global/.devices/node@N.
Solución: Antes de iniciar la actualización automática, realice los siguientes pasos en cada nodo del clúster.
Conviértase en superusuario.
Realice una copia de seguridad del archivo /etc/vfstab.
# cp /etc/vfstab /etc/vfstab.old |
Abra el archivo /etc/vfstab para editarlo.
Busque la línea que se corresponda con /global/.device/node@N.
Edite la entrada del dispositivo global.
Sustituya los nombres de DID por los nombres físicos.
Cambie /dev/did/{r}dsk/dYsZ a /dev/{r}dsk/cNtXdYs Z.
Elimine global de la entrada.
En el siguiente ejemplo, se muestra el nombre del dispositivo DID d3s3 que se corresponde con /global/.devices/node@s, en el que se han cambiado los nombres de dispositivos físicos y se ha eliminado la entrada global:
Original: /dev/did/dsk/d3s3 /dev/did/rdsk/d3s3 /global/.devices/node@2 ufs 2 no global Changed: dev/dsk/c0t0d0s3 /dev/rdsk/c0t0d0s3 /global/.devices/node@2 ufs 2 no - |
Una vez modificado el archivo /etc/vfstab en todos los nodos del clúster, realice una actualización automática del clúster, pero deténgala antes de efectuar el reinicio desde el entorno de arranque alternativo actualizado.
En el entorno actual que no se ha actualizado, restablezca el archivo /etc/vfstab original en cada uno de los nodos.
# cp /etc/vstab.old /etc/vfstab |
En el entorno de arranque alternativo, abra el archivo /etc/vfstab para editarlo.
Encuentre la línea que se corresponda con /global/.devices/node@N y sustituya el guión (-) ubicado al final de la entrada por la palabra global.
/dev/dsk/cNtXdYsZ /dev/rdsk/cNtXdYsZ /global/.devices/node@N ufs 2 no global |
Reinicie el nodo desde el entorno de arranque alternativo actualizado.
Los nombres de DID se sustituyen automáticamente por el archivo /etc/vfstab.
Resumen del problema: Este problema se detecta al actualizar VERITAS Volume Manager (VxVM) durante una actualización automática de Sun Cluster. La secuencia de comandos vxlustart se utiliza para actualizar el SO Solaris y VxVM a partir de la versión anterior. La secuencia de comandos muestra mensajes de error parecidos a los siguientes:
# ./vxlustart -u 5.10 -d c0t1d0 -s OSimage VERITAS Volume Manager VxVM 5.0. Live Upgrade is now upgrading from 5.9 to <5.10> … ERROR: Unable to copy file systems from boot environment <sorce.8876> to BE <dest.8876>. ERROR: Unable to populate file systems on boot environment <dest.8876>. ERROR: Cannot make file systems for boot environment <dest.8876>. ERROR: vxlustart: Failed: lucreate -c sorce.8876 -C /dev/dsk/c0t0d0s2 -m -:/dev/dsk/c0t1d0s1:swap -m /:/dev/dsk/c0t1d0s0:ufs -m /globaldevices:/dev/dsk/c0t1d0s3:ufs -m /mc_metadb:/dev/dsk/c0t1d0s7:ufs -m /space:/dev/dsk/c0t1d0s4:ufs -n dest.8876 |
Solución: Utilice el método de actualización estándar o de partición doble para actualizar el clúster a VxVM 5.0.
Póngase en contacto con el servicio de asistencia o el representante de Sun para conocer si la compatibilidad de la actualización automática de Sun Cluster 3.2 con VxVM 5.0 estará disponible próximamente.
Resumen del problema: En los clústers en los que se ejecuta VERITAS Volume Manager (VxVM), la actualización estándar o de partición doble de cualquiera de los siguientes componentes de software fallará si se encapsula el disco raíz:
Actualización del SO Solaris a una versión diferente
Actualización de VxVM
Actualización del software Sun Cluster
Se muestra un aviso grave del nodo del clúster y no se puede efectuar el arranque después de la actualización. Esto se debe a los cambios en los números mayor y menor realizados por VXVM durante la actualización.
Solución: Cancele la encapsulación del disco raíz antes de iniciar la actualización.
Si no se sigue correctamente el procedimiento anterior, es posible que se produzcan problemas graves inesperados en todos los nodos que se están actualizando. Además, la encapsulación y la cancelación de la encapsulación del disco raíz provocan que se produzca un reinicio adicional automático del nodo (cada vez que se realice este proceso), lo que aumentará el número de reinicios necesarios durante la actualización.
Resumen del problema: Después de realizar una actualización automática de la versión 3.1 de Sun Cluster en Solaris 9 a la versión 3.2 en Solaris 10, no se pueden correctamente las zonas con el software del clúster. El problema es que no se han creado los datos de pspool para los paquetes de Sun Cluster. Por lo tanto, no se han propagado correctamente los paquetes que deben propagarse a las zonas no globales como, por ejemplo SUNWsczu.
Solución: Una vez actualizados los paquetes de Sun Cluster mediante el comando scinstall -R y antes de que se haya reiniciado el clúster en el modo de clúster, ejecute dos veces la siguiente secuencia de comandos:
Una vez para los paquetes de la estructura de Sun Cluster
Otra vez para los paquetes de servicios de datos de Sun Cluster
Prepare y ejecute esta secuencia de una de las siguientes formas:
Configure las variables de los paquetes de la estructura de Sun Cluster y ejecute la secuencia de comandos. A continuación, modifique la variable PATHNAME para los paquetes de servicios de datos y vuelva a ejecutar la secuencia de comandos.
Cree dos secuencias de comandos, una con variables definidas en la secuencia de comandos de los paquetes de la estructura y otra con las variables definidas para los paquetes de servicios de datos. A continuación, ejecute las dos secuencias de comandos.
Conviértase en superusuario.
Cree una secuencia de comandos con el siguiente contenido.
#!/bin/ksh typeset PLATFORM=${PLATFORM:-`uname -p`} typeset PATHNAME=${PATHNAME:-/cdrom/cdrom0/Solaris_${PLATFORM}/Product/sun_cluster/Solaris_10/Packages} typeset BASEDIR=${BASEDIR:-/} cd $PATHNAME for i in * do if pkginfo -R ${BASEDIR} $i >/dev/null 2>&1 then mkdir -p ${BASEDIR}/var/sadm/pkg/$i/save/pspool pkgadd -d . -R ${BASEDIR} -s ${BASEDIR}/var/sadm/pkg/$i/save/pspool $i fi done
Defina las variables PLATFORM, PATHNAME y BASEDIR.
Defina estas variables como variables de entorno o modifique directamente los valores en la secuencia de comandos.
El nombre de la plataforma. Por ejemplo, puede ser sparc o x86. La variable PLATFORM se define de forma predeterminada en la salida del comando uname -p.
Una ruta al dispositivo desde el que se pueden instalar los paquetes de la estructura o los servicios de datos de Sun Cluster. Este valor se corresponde con la opción -d del comando pkgadd.
Por ejemplo, para los paquetes de la estructura de Sun Cluster, este valor presentaría el siguiente formato:
/cdrom/cdrom0/Solaris_${PLATFORM}/Product/sun_cluster/Solaris_10/Packages |
Para los paquetes de servicios de datos, este valor presentaría el siguiente formato:
/cdrom/cdrom0/Solaris_${PLATFORM}/Product/sun_cluster_agents/Solaris_10/Packages |
El nombre de ruta completo del directorio que se utilizará como ruta raíz y que se corresponde con la opción -R del comando pkgadd. Para la actualización automática, defina este valor en la ruta raíz que se utiliza con la opción -R del comando scinstall. La variable BASEDIR se define de forma predeterminada en el sistema de archivos raíz (/).
Ejecute la secuencia de comandos, una vez para los paquetes de la estructura de Sun Cluster y otra para los paquetes de servicios de datos.
Una vez ejecutada la secuencia de comandos, debería aparecer el siguiente mensaje en el indicador de comando para cada paquete:
Transferring pkgname package instance |
Si ya existe el directorio pspool para un paquete o si la secuencia de comandos se ejecuta dos veces para el mismo conjunto de paquetes, se mostrará el siguiente error en el indicador de comandos:
Transferring pkgname package instance pkgadd: ERROR: unable to complete package transfer - identical version of pkgname already exists on destination device |
Se trata de un mensaje inofensivo que puede omitirse con seguridad.
Una vez ejecutada la secuencia de comandos para los paquetes de la estructura y los servicios de datos, arranque los nodos en el modo de clúster.
Resumen del problema: Si se agrega un nuevo nodo del clúster sin comprobar que el nodo presenta las mismas revisiones que los nodos del clúster existentes, es posible que los nodos del clúster muestren un aviso grave.
Solución: Antes de agregar los nodos al clúster, asegúrese de que al nuevo nodo se le aplican las revisiones necesarias para que presente el mismo nivel de revisiones que los nodos del clúster existentes. De lo contrario, los nodos del clúster podrían mostrar un aviso grave.