Notas de la versión de Sun Cluster 3.2 para el SO Solaris

Problemas y errores conocidos

Los siguientes problemas conocidos afectan al funcionamiento de la versión Sun Cluster 3.2. Estos errores y problemas se clasifican en las siguientes categorías:

Administración

La opción clnode remove -f no puede eliminar el nodo con el grupo de dispositivos de Solaris Volume Manager. (6471834)

Resumen del problema: El comando -clnode remove --force debería eliminar los nodos de los metaconjuntos. La Sun Cluster System Administration Guide for Solaris OS proporciona procedimientos para eliminar un nodo del clúster. Estos procedimientos indican al usuario que debe ejecutar el comando metaset para eliminar el conjunto de discos de Solaris Volume Manager antes de ejecutar clnode remove.

Solución: Si no se siguen estos procedimientos, es posible que sea necesario eliminar los datos del nodo caducados de CCR en la forma habitual. En el nodo activo del clúster, utilice el comando metaset para borrar el nodo de los conjuntos de discos de Solaris Volume Manager. A continuación, ejecute clnode clear --force obsolete_nodename.

scsnapshot no funciona con el metaclúster SUNWCluster de Solaris 10. (6477905)

Resumen del problema: En un clúster instalado con el grupo de software de usuario final de Solaris 10, SUNWCuser, la ejecución del comando scsnapshot puede fallar con el siguiente error:


# scsnapshot -o
…
/usr/cluster/bin/scsnapshot[228]: /usr/perl5/5.6.1/bin/perl:  not found

Solución: Realice uno de los pasos siguientes:

Las entradas de la propiedad Auxnodelist provocan SEGV durante la creación de recursos escalables. (6494243)

Resumen del problema: La propiedad Auxnodelist del recurso de dirección compartida no se puede utilizar durante la creación de recursos de dirección compartida, ya que esto provocará errores y SEGV cuando se cree el recurso escalable que dependa de este recurso de red de dirección compartida. El mensaje de error de validación del recurso escalable presenta el siguiente formato:


Method methodname (scalable svc) on resource resourcename stopped or terminated 
due to receipt of signal 11

Además, el archivo del núcleo central se genera desde ssm_wrapper. Los usuarios no podrán establecer la propiedad Auxnodelisty, por lo tanto, no podrán identificar los nodos del clúster que pueden alojar la dirección compartida, pero que no se pueden utilizar nunca como principal.

Solución: Vuelva a crear en un nodo el recurso de dirección compartida sin especificar la propiedad Auxnodelist. A continuación, vuelva a ejecutar el comando de creación de recursos escalables y use el recurso de dirección compartida que ha creado de nuevo como recurso de red.

Los comandos de inicio y parada clquorumserver deberían establecer el estado de inicio correctamente para el siguiente arranque. (6496008)

Resumen del problema: El comando del servidor del quórum clquorumserver no establece correctamente el estado del mecanismo de inicio para el siguiente reinicio.

Solución: Realice las siguientes tareas para iniciar o detener el software del servidor del quórum.

ProcedureCómo iniciar el software del servidor del quórum en el SO Solaris 10

  1. Muestre el estado del servicio quorumserver.


    # svcs -a | grep quorumserver
    

    Si el servicio está deshabilitado, la salida presentará un aspecto parecido al siguiente:


    disabled        3:33:45 svc:/system/cluster/quorumserver:default
  2. Inicie el software del servidor del quórum.

    • Si el servicio quorumserver está deshabilitado, utilice el comando svcadm enable.


      # svcadm enable svc:/system/cluster/quorumserver:default
      
    • Si el servicio quorumserver está en línea, utilice el comando clquorumserver.


      # clquorumserver start +
      

ProcedureCómo detener el software del servidor del quórum en el SO Solaris 10

    Deshabilite el servicio quorumserver.


    # svcadm disable svc:/system/cluster/quorumserver:default
    

ProcedureCómo iniciar el software del servidor del quórum en el SO Solaris 9

  1. Inicie el software del servidor del quórum.


    # clquorumserver start +
    
  2. Cambie el nombre del archivo /etc/rc2.d/.S99quorumserver a /etc/rc2.d/S99quorumserver.


    # mv /etc/rc2.d/.S99quorumserver /etc/rc2.d/S99quorumserver
    

ProcedureCómo detener el software del servidor del quórum en el SO Solaris 9

  1. Detenga el software del servidor del quórum.


    # clquorumserver stop +
    
  2. Inicie el software del servidor del quórum.


    # mv /etc/rc2.d/S99quorumserver /etc/rc2.d/.S99quorumserver
    

Servicios de datos

La creación del recurso de agente del nodo de Sun Cluster HA para Sun Java System Application Server se realiza satisfactoriamente, aunque no se ha establecido la dependencia del recurso en el recurso del servidor de administración de dominio (DAS, Domain Administration Server). (6262459)

Resumen del problema: El recurso de agente del nodo (NA, Node Agent) en Sun Cluster HA para Application Server se crea, aunque no se haya establecido ninguna dependencia en el recurso de DAS. El comando debería mostrar un mensaje de error si no se ha establecido la dependencia, ya que un recurso de DAS debe estar en línea para poder iniciar el recurso de NA.

Solución: Al crear el recurso de NA, asegúrese de establecer una dependencia de recurso en el recurso de DAS.

La nueva variable de la revisión de HA MySQL debe configurarse para todas las nuevas instancias. (6516322)

Resumen del problema: La revisión de HA MySQL agrega una nueva variable denominada MYSQL_DATADIR al archivo mysql_config. Esta nueva variable debe señalar al directorio en el que se almacena el archivo de configuración my.conf de MySQL. Si esta variable no se configura correctamente, la preparación de la base de datos con mysql_register fallará.

Solución: Defina la variable MYSQL_DATADIR para que señale al directorio en el que se almacena el archivo de configuración my.conf de SQL.

Instalación

La detección automática con configuraciones de InfiniBand puede sugerir a veces que hay rutas usando el mismo adaptador. (6299097)

Resumen del problema: Si se utiliza InfiniBand como transporte del clúster y hay dos adaptadores en cada nodo con dos puertos por adaptador y un total de dos conmutadores, la función de detección automática de adaptadores de la utilidad scinstall puede sugerir que hay dos rutas de transporte usando el mismo adaptador.

Solución: Especifique manualmente los adaptadores de transporte en cada nodo.

No se habilita de forma predeterminada la compatibilidad con servicios escalables de IPv6. (6332656)

Resumen del problema: La instalación de IPv6 en las interconexiones, que es un paso necesario para reenviar los paquetes de servicios escalables de IPv6, ya no se habilitará de forma predeterminada. Las interfaces de IPv6, como se muestra al utilizar el comando ifconfig, ya no se instalarán de forma predeterminada en los adaptadores de interconexión.

Solución: Habilite manualmente la compatibilidad con los servicios escalables de IPv6.

ProcedureCómo habilitar manualmente la compatibilidad con los servicios escalables de IPv6.

Antes de empezar

Asegúrese de que se hayan preparado todos los nodos del clúster para ejecutar los servicios de IPv6. Entre estas tareas, se incluyen la configuración correcta de las interfaces de red, el software de aplicación de servidor/cliente, los servicios de nombres y la infraestructura de enrutamiento. Si no se realizan estas tareas, es posible que se produzcan fallos inesperados en las aplicaciones de red. Para obtener más información, consulte la documentación de administración del sistema de Solaris para los servicios de IPv6.

  1. En cada nodo, agregue la siguiente entrada al archivo /etc/system.


    set cl_comm:ifk_disable_v6=0
    
  2. Habilite, en cada nodo, la instalación de IPv6 en los adaptadores de interconexión.


    # /usr/cluster/lib/sc/config_ipv6
    

    La utilidad config_ipv6 muestra una interfaz de IPv6 en todos los adaptadores de interconexión del clúster que tengan una dirección de vínculo local. Esta utilidad permite el reenvío correcto de los paquetes de servicios escalables de IPv6 a través de las interconexiones.

    También puede reiniciar cada nodo del clúster para activar el cambio de configuración.

clnode add no puede agregar un nodo desde un archivo XML si éste contiene información de transporte de conexión directa. (6485249)

Resumen del problema: Si se intenta utilizar el comando clnode add con un archivo XML, es decir, mediante el transporte de conexión directa, este comando interpreta erróneamente la información del cable y agrega información de configuración incorrecta. Como resultado, el nodo que se va a agregar no se puede unir al clúster.

Solución: Utilice el comando scinstall para agregar un nodo al clúster cuando el transporte del clúster esté conectado directamente.

El archivo /etc/nsswitch.conf no se actualiza con la información de base de datos de host y netmasks durante la instalación en una zona no global. (6345227)

Resumen del problema: El comando scinstall actualiza el archivo /etc/nsswitch.conf para agregar la entrada cluster para las bases de datos hosts y netmasks. Este cambio actualiza el archivo /net/nsswitch.conf para la zona global. Sin embargo, al crear e instalar una zona no global, esta zona recibe su propia copia del archivo /etc/nsswitch.conf. Los archivos /etc/nsswitch.conf ubicados en las zonas no globales no presentarán la entrada cluster para las bases de datos hosts y netmasks. Fallará cualquier intento de resolver las direcciones IP y los nombres de hosts específicos del clúster en la zona no global mediante las consultas getXbyY.

Solución: Actualice manualmente el archivo /etc/nsswitch.conf para las zonas no globales con la entrada cluster de las bases de datos hosts y netmasks. De esta forma, se garantiza que las resoluciones de direcciones IP y nombres de hosts específicos del cluster estén disponibles en las zonas no globales.

Localización

Los mensajes traducidos del servidor del quórum se proporcionan como parte de los paquetes de traducción centrales. (6482813)

Resumen del problema: Los mensajes traducidos de los programas de administración del servidor del quórum como, por ejemplo, clquorumserver, se proporcionan como parte de los paquetes de traducción centrales. Debido a esto, los mensajes del servidor del quórum sólo aparecerán en inglés. Los paquetes de traducción del servidor del quórum deben separarse de los paquetes de traducción centrales e instalarse en el sistema del servidor del quórum.

Solución: Instale los siguientes paquetes en el host en el que se ha instalado el software del servidor del quórum:

Si se necesita la página de comando man en japonés para el servidor del quórum, instale el paquete SUNWjscman (página de comando man en japonés).

El programa de instalación muestra un tamaño de intercambio incorrecto para la versión en chino simplificado de Sun Cluster 3.2. (6495984)

Resumen del problema: El programa de instalación de Sun Cluster 3.2 muestra un mensaje de advertencia sobre el espacio de intercambio insuficiente al instalar la versión en chino simplificado del software de Sun Cluster 3.2. El programa de instalación proporciona un tamaño de intercambio incorrecto de 0,0 KB en la pantalla de comprobación de los requisitos del sistema.

Solución: Si el tamaño de intercambio es superior al tamaño de los requisitos del sistema, puede omitir con seguridad este problema. Se puede utilizar el programa de instalación de SC 3.2 con la configuración regional C o inglesa; esta versión compruebe el tamaño de intercambio correctamente.

Tiempo de ejecución

El comando binario cleanipc necesita el parámetro User_env para LD_LIBRARY_PATH. (4996643)

Resumen del problema: cleanipc falla si el entorno de vínculos de tiempo de ejecución no contiene la ruta /sapmnt/SAPSID/exe.

Solución: Agregue como usuario root de Solaris la ruta /sapmnt/SAPSID/exe a la biblioteca predeterminada del archivo ld.config.

Para configurar la ruta de biblioteca predeterminada del entorno de vínculos de tiempo de ejecución para las aplicaciones de 32 bits, introduzca el siguiente comando:


# crle -u -l /sapmnt/SAPSID/exe

Para configurar la ruta de biblioteca predeterminada del entorno de vínculos de tiempo de ejecución para las aplicaciones de 64 bits, introduzca el siguiente comando:


# crle -64 -u -l /sapmnt/SAPSID/exe

Avisos graves del nodo debido a que metaclust devuelve el error, RPC: programa no registrado. (6256220)

Resumen del problema: Al cerrar un clúster, UCMMD puede pasar a la reconfiguración de uno o varios de los nodos si uno de éstos sobrepasa ligeramente al clúster de UCMMD. Si se produce esta situación el proceso de cierre detiene el comando rpc.md en el nodo, mientras que UCMMD intenta realizar el paso de devolución. En éste, el comando metaclust obtiene un tiempo de espera de RPC y sale del paso con un error, debido a que falta el proceso rpc.mdcommd. Este error provoca que UCMMD anule el nodo, lo que podría ocasionar un aviso grave en el nodo.

Solución: Puede omitir con seguridad este problema. Cuando el nodo arranca la copia de seguridad, el software de Sun Cluster detecta esta condición y permite a UCMMD iniciarse, a pesar del hecho de que el error se produjo en la anterior reconfiguración.

La validación de recursos de Sun Cluster no acepta el nombre de host de los grupos IPMP para la propiedad netiflist. (6383994)

Resumen del problema: El proceso de validación de recursos de Sun Cluster no acepta el nombre de host de los grupos IPMP para la propiedad netiflist durante la creación de recursos de dirección compartida o nombre de host lógico.

Solución: Utilice el nombre del nodo en lugar del Id. al especificar los nombres de grupos IPMP durante la creación de recursos de dirección compartida o nombre de host lógico.

Actualización

La secuencia de comandos vxlufinish devuelve un error al encapsular el disco raíz. (6448341)

Resumen del problema: Este problema se detecta al encapsular el disco original root y se intenta realizar una actualización automática de VxVM 3.5 en el SO Solaris 9 8/03 OS a VxVM 5.0 en el SO Solaris 10 6/06. La secuencia de comandos vxlufinish falla con el siguiente error.


#./vslufinish -u 5.10

    VERITAS Volume Manager VxVM 5.0
    Live Upgrade finish on the Solairs release <5.10>

    Enter the name of the alternate root diskgroup: altrootdg
ld.so.1: vxparms: fatal: libvxscsi.so: open failed: No such file or directory
ld.so.1: vxparms: fatal: libvxscsi.so: open failed: No such file or directory
Killed
ld.so.1: ugettxt: fatal: libvxscsi.so: open failed: No such file or directory
ERROR:vxlufinish Failed: /altroot.5.10/usr/lib/vxvm/bin/vxencap -d -C 10176
-c -p 5555 -g
    -g altrootdg rootdisk=c0t1d0s2
    Please install, if 5.0 or higher version of VxVM is not installed
    on alternate bootdisk.

Solución: Utilice, en su lugar, el método de actualización estándar o de partición doble.

Póngase en contacto con el servicio de asistencia o el representante de Sun para conocer si la compatibilidad de la actualización automática de Sun Cluster 3.2 con VxVM 5.0 estará disponible próximamente.

La actualización automática debería permitir que se montasen dispositivos globales desde el disco de arranque. (6433728)

Resumen del problema: Durante la actualización automática, los comandos lucreate y luupgrade no pueden cambiar los nombres de DID en el entorno de arranque alternativo para que se correspondan con la entrada /global/.devices/node@N.

Solución: Antes de iniciar la actualización automática, realice los siguientes pasos en cada nodo del clúster.

  1. Conviértase en superusuario.

  2. Realice una copia de seguridad del archivo /etc/vfstab.


    # cp /etc/vfstab /etc/vfstab.old
    
  3. Abra el archivo /etc/vfstab para editarlo.

  4. Busque la línea que se corresponda con /global/.device/node@N.

  5. Edite la entrada del dispositivo global.

    • Sustituya los nombres de DID por los nombres físicos.

      Cambie /dev/did/{r}dsk/dYsZ a /dev/{r}dsk/cNtXdYs Z.

    • Elimine global de la entrada.

    En el siguiente ejemplo, se muestra el nombre del dispositivo DID d3s3 que se corresponde con /global/.devices/node@s, en el que se han cambiado los nombres de dispositivos físicos y se ha eliminado la entrada global:


    Original:
    /dev/did/dsk/d3s3    /dev/did/rdsk/d3s3    /global/.devices/node@2   ufs   2   no   global
    
    Changed:
    dev/dsk/c0t0d0s3     /dev/rdsk/c0t0d0s3    /global/.devices/node@2   ufs   2   no   -
  6. Una vez modificado el archivo /etc/vfstab en todos los nodos del clúster, realice una actualización automática del clúster, pero deténgala antes de efectuar el reinicio desde el entorno de arranque alternativo actualizado.

  7. En el entorno actual que no se ha actualizado, restablezca el archivo /etc/vfstab original en cada uno de los nodos.


    # cp /etc/vstab.old /etc/vfstab
    
  8. En el entorno de arranque alternativo, abra el archivo /etc/vfstab para editarlo.

  9. Encuentre la línea que se corresponda con /global/.devices/node@N y sustituya el guión (-) ubicado al final de la entrada por la palabra global.


    /dev/dsk/cNtXdYsZ    /dev/rdsk/cNtXdYsZ    /global/.devices/node@N   ufs   2   no   global
    
  10. Reinicie el nodo desde el entorno de arranque alternativo actualizado.

    Los nombres de DID se sustituyen automáticamente por el archivo /etc/vfstab.

La secuencia de comandos vxlustart no puede crear un entorno de arranque alternativo durante una actualización automática. (6445430)

Resumen del problema: Este problema se detecta al actualizar VERITAS Volume Manager (VxVM) durante una actualización automática de Sun Cluster. La secuencia de comandos vxlustart se utiliza para actualizar el SO Solaris y VxVM a partir de la versión anterior. La secuencia de comandos muestra mensajes de error parecidos a los siguientes:


# ./vxlustart -u 5.10 -d c0t1d0 -s OSimage

   VERITAS Volume Manager VxVM 5.0.
   Live Upgrade is now upgrading from 5.9 to <5.10>
…
ERROR: Unable to copy file systems from boot environment &lt;sorce.8876> to BE &lt;dest.8876>.
ERROR: Unable to populate file systems on boot environment &lt;dest.8876>.
ERROR: Cannot make file systems for boot environment &lt;dest.8876>.
ERROR: vxlustart: Failed: lucreate -c sorce.8876 -C /dev/dsk/c0t0d0s2 
-m -:/dev/dsk/c0t1d0s1:swap -m /:/dev/dsk/c0t1d0s0:ufs 
-m /globaldevices:/dev/dsk/c0t1d0s3:ufs -m /mc_metadb:/dev/dsk/c0t1d0s7:ufs 
-m /space:/dev/dsk/c0t1d0s4:ufs -n dest.8876

Solución: Utilice el método de actualización estándar o de partición doble para actualizar el clúster a VxVM 5.0.

Póngase en contacto con el servicio de asistencia o el representante de Sun para conocer si la compatibilidad de la actualización automática de Sun Cluster 3.2 con VxVM 5.0 estará disponible próximamente.

Número mayores de vxio diferentes en los nodos al encapsular el disco raíz. (6445917)

Resumen del problema: En los clústers en los que se ejecuta VERITAS Volume Manager (VxVM), la actualización estándar o de partición doble de cualquiera de los siguientes componentes de software fallará si se encapsula el disco raíz:

Se muestra un aviso grave del nodo del clúster y no se puede efectuar el arranque después de la actualización. Esto se debe a los cambios en los números mayor y menor realizados por VXVM durante la actualización.

Solución: Cancele la encapsulación del disco raíz antes de iniciar la actualización.


Precaución – Precaución –

Si no se sigue correctamente el procedimiento anterior, es posible que se produzcan problemas graves inesperados en todos los nodos que se están actualizando. Además, la encapsulación y la cancelación de la encapsulación del disco raíz provocan que se produzca un reinicio adicional automático del nodo (cada vez que se realice este proceso), lo que aumentará el número de reinicios necesarios durante la actualización.


No se pueden utilizar las zonas después de realizar una actualización automática de la versión 3.1 de Sun Cluster en Solaris 9 a la versión 3.2 en Solaris 10. (6509958)

Resumen del problema: Después de realizar una actualización automática de la versión 3.1 de Sun Cluster en Solaris 9 a la versión 3.2 en Solaris 10, no se pueden correctamente las zonas con el software del clúster. El problema es que no se han creado los datos de pspool para los paquetes de Sun Cluster. Por lo tanto, no se han propagado correctamente los paquetes que deben propagarse a las zonas no globales como, por ejemplo SUNWsczu.

Solución: Una vez actualizados los paquetes de Sun Cluster mediante el comando scinstall -R y antes de que se haya reiniciado el clúster en el modo de clúster, ejecute dos veces la siguiente secuencia de comandos:

ProcedureInstrucciones de uso de la secuencia de comandos

Antes de empezar

Prepare y ejecute esta secuencia de una de las siguientes formas:

  1. Conviértase en superusuario.

  2. Cree una secuencia de comandos con el siguiente contenido.

    #!/bin/ksh
    
    typeset PLATFORM=${PLATFORM:-`uname -p`}
    typeset PATHNAME=${PATHNAME:-/cdrom/cdrom0/Solaris_${PLATFORM}/Product/sun_cluster/Solaris_10/Packages}
    typeset BASEDIR=${BASEDIR:-/}
    
    cd $PATHNAME
    for i in *
    do
    	if pkginfo -R ${BASEDIR} $i >/dev/null 2>&1
    	then
    		mkdir -p ${BASEDIR}/var/sadm/pkg/$i/save/pspool
    		pkgadd -d . -R ${BASEDIR} -s ${BASEDIR}/var/sadm/pkg/$i/save/pspool $i
    	fi
    done
  3. Defina las variables PLATFORM, PATHNAME y BASEDIR.

    Defina estas variables como variables de entorno o modifique directamente los valores en la secuencia de comandos.

    PLATFORM

    El nombre de la plataforma. Por ejemplo, puede ser sparc o x86. La variable PLATFORM se define de forma predeterminada en la salida del comando uname -p.

    PATHNAME

    Una ruta al dispositivo desde el que se pueden instalar los paquetes de la estructura o los servicios de datos de Sun Cluster. Este valor se corresponde con la opción -d del comando pkgadd.

    Por ejemplo, para los paquetes de la estructura de Sun Cluster, este valor presentaría el siguiente formato:


    /cdrom/cdrom0/Solaris_${PLATFORM}/Product/sun_cluster/Solaris_10/Packages

    Para los paquetes de servicios de datos, este valor presentaría el siguiente formato:


    /cdrom/cdrom0/Solaris_${PLATFORM}/Product/sun_cluster_agents/Solaris_10/Packages
    BASEDIR

    El nombre de ruta completo del directorio que se utilizará como ruta raíz y que se corresponde con la opción -R del comando pkgadd. Para la actualización automática, defina este valor en la ruta raíz que se utiliza con la opción -R del comando scinstall. La variable BASEDIR se define de forma predeterminada en el sistema de archivos raíz (/).

  4. Ejecute la secuencia de comandos, una vez para los paquetes de la estructura de Sun Cluster y otra para los paquetes de servicios de datos.

    Una vez ejecutada la secuencia de comandos, debería aparecer el siguiente mensaje en el indicador de comando para cada paquete:


    Transferring pkgname package instance

    Nota –

    Si ya existe el directorio pspool para un paquete o si la secuencia de comandos se ejecuta dos veces para el mismo conjunto de paquetes, se mostrará el siguiente error en el indicador de comandos:


    Transferring pkgname package instance
    pkgadd: ERROR: unable to complete package transfer
        - identical version of pkgname already exists on destination device

    Se trata de un mensaje inofensivo que puede omitirse con seguridad.


  5. Una vez ejecutada la secuencia de comandos para los paquetes de la estructura y los servicios de datos, arranque los nodos en el modo de clúster.

No se puede agregar un nodo a un clúster existente al que se le ha aplicado una revisión de Sun Cluster 3.2 sin agregar la revisión principal de Sun Cluster 3.2 al nodo. (6554107)

Resumen del problema: Si se agrega un nuevo nodo del clúster sin comprobar que el nodo presenta las mismas revisiones que los nodos del clúster existentes, es posible que los nodos del clúster muestren un aviso grave.

Solución: Antes de agregar los nodos al clúster, asegúrese de que al nuevo nodo se le aplican las revisiones necesarias para que presente el mismo nivel de revisiones que los nodos del clúster existentes. De lo contrario, los nodos del clúster podrían mostrar un aviso grave.