Notas de la versión de Sun Cluster 3.2 para el SO Solaris

Actualización

La secuencia de comandos vxlufinish devuelve un error al encapsular el disco raíz. (6448341)

Resumen del problema: Este problema se detecta al encapsular el disco original root y se intenta realizar una actualización automática de VxVM 3.5 en el SO Solaris 9 8/03 OS a VxVM 5.0 en el SO Solaris 10 6/06. La secuencia de comandos vxlufinish falla con el siguiente error.


#./vslufinish -u 5.10

    VERITAS Volume Manager VxVM 5.0
    Live Upgrade finish on the Solairs release <5.10>

    Enter the name of the alternate root diskgroup: altrootdg
ld.so.1: vxparms: fatal: libvxscsi.so: open failed: No such file or directory
ld.so.1: vxparms: fatal: libvxscsi.so: open failed: No such file or directory
Killed
ld.so.1: ugettxt: fatal: libvxscsi.so: open failed: No such file or directory
ERROR:vxlufinish Failed: /altroot.5.10/usr/lib/vxvm/bin/vxencap -d -C 10176
-c -p 5555 -g
    -g altrootdg rootdisk=c0t1d0s2
    Please install, if 5.0 or higher version of VxVM is not installed
    on alternate bootdisk.

Solución: Utilice, en su lugar, el método de actualización estándar o de partición doble.

Póngase en contacto con el servicio de asistencia o el representante de Sun para conocer si la compatibilidad de la actualización automática de Sun Cluster 3.2 con VxVM 5.0 estará disponible próximamente.

La actualización automática debería permitir que se montasen dispositivos globales desde el disco de arranque. (6433728)

Resumen del problema: Durante la actualización automática, los comandos lucreate y luupgrade no pueden cambiar los nombres de DID en el entorno de arranque alternativo para que se correspondan con la entrada /global/.devices/node@N.

Solución: Antes de iniciar la actualización automática, realice los siguientes pasos en cada nodo del clúster.

  1. Conviértase en superusuario.

  2. Realice una copia de seguridad del archivo /etc/vfstab.


    # cp /etc/vfstab /etc/vfstab.old
    
  3. Abra el archivo /etc/vfstab para editarlo.

  4. Busque la línea que se corresponda con /global/.device/node@N.

  5. Edite la entrada del dispositivo global.

    • Sustituya los nombres de DID por los nombres físicos.

      Cambie /dev/did/{r}dsk/dYsZ a /dev/{r}dsk/cNtXdYs Z.

    • Elimine global de la entrada.

    En el siguiente ejemplo, se muestra el nombre del dispositivo DID d3s3 que se corresponde con /global/.devices/node@s, en el que se han cambiado los nombres de dispositivos físicos y se ha eliminado la entrada global:


    Original:
    /dev/did/dsk/d3s3    /dev/did/rdsk/d3s3    /global/.devices/node@2   ufs   2   no   global
    
    Changed:
    dev/dsk/c0t0d0s3     /dev/rdsk/c0t0d0s3    /global/.devices/node@2   ufs   2   no   -
  6. Una vez modificado el archivo /etc/vfstab en todos los nodos del clúster, realice una actualización automática del clúster, pero deténgala antes de efectuar el reinicio desde el entorno de arranque alternativo actualizado.

  7. En el entorno actual que no se ha actualizado, restablezca el archivo /etc/vfstab original en cada uno de los nodos.


    # cp /etc/vstab.old /etc/vfstab
    
  8. En el entorno de arranque alternativo, abra el archivo /etc/vfstab para editarlo.

  9. Encuentre la línea que se corresponda con /global/.devices/node@N y sustituya el guión (-) ubicado al final de la entrada por la palabra global.


    /dev/dsk/cNtXdYsZ    /dev/rdsk/cNtXdYsZ    /global/.devices/node@N   ufs   2   no   global
    
  10. Reinicie el nodo desde el entorno de arranque alternativo actualizado.

    Los nombres de DID se sustituyen automáticamente por el archivo /etc/vfstab.

La secuencia de comandos vxlustart no puede crear un entorno de arranque alternativo durante una actualización automática. (6445430)

Resumen del problema: Este problema se detecta al actualizar VERITAS Volume Manager (VxVM) durante una actualización automática de Sun Cluster. La secuencia de comandos vxlustart se utiliza para actualizar el SO Solaris y VxVM a partir de la versión anterior. La secuencia de comandos muestra mensajes de error parecidos a los siguientes:


# ./vxlustart -u 5.10 -d c0t1d0 -s OSimage

   VERITAS Volume Manager VxVM 5.0.
   Live Upgrade is now upgrading from 5.9 to <5.10>
…
ERROR: Unable to copy file systems from boot environment &lt;sorce.8876> to BE &lt;dest.8876>.
ERROR: Unable to populate file systems on boot environment &lt;dest.8876>.
ERROR: Cannot make file systems for boot environment &lt;dest.8876>.
ERROR: vxlustart: Failed: lucreate -c sorce.8876 -C /dev/dsk/c0t0d0s2 
-m -:/dev/dsk/c0t1d0s1:swap -m /:/dev/dsk/c0t1d0s0:ufs 
-m /globaldevices:/dev/dsk/c0t1d0s3:ufs -m /mc_metadb:/dev/dsk/c0t1d0s7:ufs 
-m /space:/dev/dsk/c0t1d0s4:ufs -n dest.8876

Solución: Utilice el método de actualización estándar o de partición doble para actualizar el clúster a VxVM 5.0.

Póngase en contacto con el servicio de asistencia o el representante de Sun para conocer si la compatibilidad de la actualización automática de Sun Cluster 3.2 con VxVM 5.0 estará disponible próximamente.

Número mayores de vxio diferentes en los nodos al encapsular el disco raíz. (6445917)

Resumen del problema: En los clústers en los que se ejecuta VERITAS Volume Manager (VxVM), la actualización estándar o de partición doble de cualquiera de los siguientes componentes de software fallará si se encapsula el disco raíz:

Se muestra un aviso grave del nodo del clúster y no se puede efectuar el arranque después de la actualización. Esto se debe a los cambios en los números mayor y menor realizados por VXVM durante la actualización.

Solución: Cancele la encapsulación del disco raíz antes de iniciar la actualización.


Precaución – Precaución –

Si no se sigue correctamente el procedimiento anterior, es posible que se produzcan problemas graves inesperados en todos los nodos que se están actualizando. Además, la encapsulación y la cancelación de la encapsulación del disco raíz provocan que se produzca un reinicio adicional automático del nodo (cada vez que se realice este proceso), lo que aumentará el número de reinicios necesarios durante la actualización.


No se pueden utilizar las zonas después de realizar una actualización automática de la versión 3.1 de Sun Cluster en Solaris 9 a la versión 3.2 en Solaris 10. (6509958)

Resumen del problema: Después de realizar una actualización automática de la versión 3.1 de Sun Cluster en Solaris 9 a la versión 3.2 en Solaris 10, no se pueden correctamente las zonas con el software del clúster. El problema es que no se han creado los datos de pspool para los paquetes de Sun Cluster. Por lo tanto, no se han propagado correctamente los paquetes que deben propagarse a las zonas no globales como, por ejemplo SUNWsczu.

Solución: Una vez actualizados los paquetes de Sun Cluster mediante el comando scinstall -R y antes de que se haya reiniciado el clúster en el modo de clúster, ejecute dos veces la siguiente secuencia de comandos:

ProcedureInstrucciones de uso de la secuencia de comandos

Antes de empezar

Prepare y ejecute esta secuencia de una de las siguientes formas:

  1. Conviértase en superusuario.

  2. Cree una secuencia de comandos con el siguiente contenido.

    #!/bin/ksh
    
    typeset PLATFORM=${PLATFORM:-`uname -p`}
    typeset PATHNAME=${PATHNAME:-/cdrom/cdrom0/Solaris_${PLATFORM}/Product/sun_cluster/Solaris_10/Packages}
    typeset BASEDIR=${BASEDIR:-/}
    
    cd $PATHNAME
    for i in *
    do
    	if pkginfo -R ${BASEDIR} $i >/dev/null 2>&1
    	then
    		mkdir -p ${BASEDIR}/var/sadm/pkg/$i/save/pspool
    		pkgadd -d . -R ${BASEDIR} -s ${BASEDIR}/var/sadm/pkg/$i/save/pspool $i
    	fi
    done
  3. Defina las variables PLATFORM, PATHNAME y BASEDIR.

    Defina estas variables como variables de entorno o modifique directamente los valores en la secuencia de comandos.

    PLATFORM

    El nombre de la plataforma. Por ejemplo, puede ser sparc o x86. La variable PLATFORM se define de forma predeterminada en la salida del comando uname -p.

    PATHNAME

    Una ruta al dispositivo desde el que se pueden instalar los paquetes de la estructura o los servicios de datos de Sun Cluster. Este valor se corresponde con la opción -d del comando pkgadd.

    Por ejemplo, para los paquetes de la estructura de Sun Cluster, este valor presentaría el siguiente formato:


    /cdrom/cdrom0/Solaris_${PLATFORM}/Product/sun_cluster/Solaris_10/Packages

    Para los paquetes de servicios de datos, este valor presentaría el siguiente formato:


    /cdrom/cdrom0/Solaris_${PLATFORM}/Product/sun_cluster_agents/Solaris_10/Packages
    BASEDIR

    El nombre de ruta completo del directorio que se utilizará como ruta raíz y que se corresponde con la opción -R del comando pkgadd. Para la actualización automática, defina este valor en la ruta raíz que se utiliza con la opción -R del comando scinstall. La variable BASEDIR se define de forma predeterminada en el sistema de archivos raíz (/).

  4. Ejecute la secuencia de comandos, una vez para los paquetes de la estructura de Sun Cluster y otra para los paquetes de servicios de datos.

    Una vez ejecutada la secuencia de comandos, debería aparecer el siguiente mensaje en el indicador de comando para cada paquete:


    Transferring pkgname package instance

    Nota –

    Si ya existe el directorio pspool para un paquete o si la secuencia de comandos se ejecuta dos veces para el mismo conjunto de paquetes, se mostrará el siguiente error en el indicador de comandos:


    Transferring pkgname package instance
    pkgadd: ERROR: unable to complete package transfer
        - identical version of pkgname already exists on destination device

    Se trata de un mensaje inofensivo que puede omitirse con seguridad.


  5. Una vez ejecutada la secuencia de comandos para los paquetes de la estructura y los servicios de datos, arranque los nodos en el modo de clúster.

No se puede agregar un nodo a un clúster existente al que se le ha aplicado una revisión de Sun Cluster 3.2 sin agregar la revisión principal de Sun Cluster 3.2 al nodo. (6554107)

Resumen del problema: Si se agrega un nuevo nodo del clúster sin comprobar que el nodo presenta las mismas revisiones que los nodos del clúster existentes, es posible que los nodos del clúster muestren un aviso grave.

Solución: Antes de agregar los nodos al clúster, asegúrese de que al nuevo nodo se le aplican las revisiones necesarias para que presente el mismo nivel de revisiones que los nodos del clúster existentes. De lo contrario, los nodos del clúster podrían mostrar un aviso grave.