Resumen del problema: Este problema se detecta al encapsular el disco original root y se intenta realizar una actualización automática de VxVM 3.5 en el SO Solaris 9 8/03 OS a VxVM 5.0 en el SO Solaris 10 6/06. La secuencia de comandos vxlufinish falla con el siguiente error.
#./vslufinish -u 5.10 VERITAS Volume Manager VxVM 5.0 Live Upgrade finish on the Solairs release <5.10> Enter the name of the alternate root diskgroup: altrootdg ld.so.1: vxparms: fatal: libvxscsi.so: open failed: No such file or directory ld.so.1: vxparms: fatal: libvxscsi.so: open failed: No such file or directory Killed ld.so.1: ugettxt: fatal: libvxscsi.so: open failed: No such file or directory ERROR:vxlufinish Failed: /altroot.5.10/usr/lib/vxvm/bin/vxencap -d -C 10176 -c -p 5555 -g -g altrootdg rootdisk=c0t1d0s2 Please install, if 5.0 or higher version of VxVM is not installed on alternate bootdisk. |
Solución: Utilice, en su lugar, el método de actualización estándar o de partición doble.
Póngase en contacto con el servicio de asistencia o el representante de Sun para conocer si la compatibilidad de la actualización automática de Sun Cluster 3.2 con VxVM 5.0 estará disponible próximamente.
Resumen del problema: Durante la actualización automática, los comandos lucreate y luupgrade no pueden cambiar los nombres de DID en el entorno de arranque alternativo para que se correspondan con la entrada /global/.devices/node@N.
Solución: Antes de iniciar la actualización automática, realice los siguientes pasos en cada nodo del clúster.
Conviértase en superusuario.
Realice una copia de seguridad del archivo /etc/vfstab.
# cp /etc/vfstab /etc/vfstab.old |
Abra el archivo /etc/vfstab para editarlo.
Busque la línea que se corresponda con /global/.device/node@N.
Edite la entrada del dispositivo global.
Sustituya los nombres de DID por los nombres físicos.
Cambie /dev/did/{r}dsk/dYsZ a /dev/{r}dsk/cNtXdYs Z.
Elimine global de la entrada.
En el siguiente ejemplo, se muestra el nombre del dispositivo DID d3s3 que se corresponde con /global/.devices/node@s, en el que se han cambiado los nombres de dispositivos físicos y se ha eliminado la entrada global:
Original: /dev/did/dsk/d3s3 /dev/did/rdsk/d3s3 /global/.devices/node@2 ufs 2 no global Changed: dev/dsk/c0t0d0s3 /dev/rdsk/c0t0d0s3 /global/.devices/node@2 ufs 2 no - |
Una vez modificado el archivo /etc/vfstab en todos los nodos del clúster, realice una actualización automática del clúster, pero deténgala antes de efectuar el reinicio desde el entorno de arranque alternativo actualizado.
En el entorno actual que no se ha actualizado, restablezca el archivo /etc/vfstab original en cada uno de los nodos.
# cp /etc/vstab.old /etc/vfstab |
En el entorno de arranque alternativo, abra el archivo /etc/vfstab para editarlo.
Encuentre la línea que se corresponda con /global/.devices/node@N y sustituya el guión (-) ubicado al final de la entrada por la palabra global.
/dev/dsk/cNtXdYsZ /dev/rdsk/cNtXdYsZ /global/.devices/node@N ufs 2 no global |
Reinicie el nodo desde el entorno de arranque alternativo actualizado.
Los nombres de DID se sustituyen automáticamente por el archivo /etc/vfstab.
Resumen del problema: Este problema se detecta al actualizar VERITAS Volume Manager (VxVM) durante una actualización automática de Sun Cluster. La secuencia de comandos vxlustart se utiliza para actualizar el SO Solaris y VxVM a partir de la versión anterior. La secuencia de comandos muestra mensajes de error parecidos a los siguientes:
# ./vxlustart -u 5.10 -d c0t1d0 -s OSimage VERITAS Volume Manager VxVM 5.0. Live Upgrade is now upgrading from 5.9 to <5.10> … ERROR: Unable to copy file systems from boot environment <sorce.8876> to BE <dest.8876>. ERROR: Unable to populate file systems on boot environment <dest.8876>. ERROR: Cannot make file systems for boot environment <dest.8876>. ERROR: vxlustart: Failed: lucreate -c sorce.8876 -C /dev/dsk/c0t0d0s2 -m -:/dev/dsk/c0t1d0s1:swap -m /:/dev/dsk/c0t1d0s0:ufs -m /globaldevices:/dev/dsk/c0t1d0s3:ufs -m /mc_metadb:/dev/dsk/c0t1d0s7:ufs -m /space:/dev/dsk/c0t1d0s4:ufs -n dest.8876 |
Solución: Utilice el método de actualización estándar o de partición doble para actualizar el clúster a VxVM 5.0.
Póngase en contacto con el servicio de asistencia o el representante de Sun para conocer si la compatibilidad de la actualización automática de Sun Cluster 3.2 con VxVM 5.0 estará disponible próximamente.
Resumen del problema: En los clústers en los que se ejecuta VERITAS Volume Manager (VxVM), la actualización estándar o de partición doble de cualquiera de los siguientes componentes de software fallará si se encapsula el disco raíz:
Actualización del SO Solaris a una versión diferente
Actualización de VxVM
Actualización del software Sun Cluster
Se muestra un aviso grave del nodo del clúster y no se puede efectuar el arranque después de la actualización. Esto se debe a los cambios en los números mayor y menor realizados por VXVM durante la actualización.
Solución: Cancele la encapsulación del disco raíz antes de iniciar la actualización.
Si no se sigue correctamente el procedimiento anterior, es posible que se produzcan problemas graves inesperados en todos los nodos que se están actualizando. Además, la encapsulación y la cancelación de la encapsulación del disco raíz provocan que se produzca un reinicio adicional automático del nodo (cada vez que se realice este proceso), lo que aumentará el número de reinicios necesarios durante la actualización.
Resumen del problema: Después de realizar una actualización automática de la versión 3.1 de Sun Cluster en Solaris 9 a la versión 3.2 en Solaris 10, no se pueden correctamente las zonas con el software del clúster. El problema es que no se han creado los datos de pspool para los paquetes de Sun Cluster. Por lo tanto, no se han propagado correctamente los paquetes que deben propagarse a las zonas no globales como, por ejemplo SUNWsczu.
Solución: Una vez actualizados los paquetes de Sun Cluster mediante el comando scinstall -R y antes de que se haya reiniciado el clúster en el modo de clúster, ejecute dos veces la siguiente secuencia de comandos:
Una vez para los paquetes de la estructura de Sun Cluster
Otra vez para los paquetes de servicios de datos de Sun Cluster
Prepare y ejecute esta secuencia de una de las siguientes formas:
Configure las variables de los paquetes de la estructura de Sun Cluster y ejecute la secuencia de comandos. A continuación, modifique la variable PATHNAME para los paquetes de servicios de datos y vuelva a ejecutar la secuencia de comandos.
Cree dos secuencias de comandos, una con variables definidas en la secuencia de comandos de los paquetes de la estructura y otra con las variables definidas para los paquetes de servicios de datos. A continuación, ejecute las dos secuencias de comandos.
Conviértase en superusuario.
Cree una secuencia de comandos con el siguiente contenido.
#!/bin/ksh typeset PLATFORM=${PLATFORM:-`uname -p`} typeset PATHNAME=${PATHNAME:-/cdrom/cdrom0/Solaris_${PLATFORM}/Product/sun_cluster/Solaris_10/Packages} typeset BASEDIR=${BASEDIR:-/} cd $PATHNAME for i in * do if pkginfo -R ${BASEDIR} $i >/dev/null 2>&1 then mkdir -p ${BASEDIR}/var/sadm/pkg/$i/save/pspool pkgadd -d . -R ${BASEDIR} -s ${BASEDIR}/var/sadm/pkg/$i/save/pspool $i fi done
Defina las variables PLATFORM, PATHNAME y BASEDIR.
Defina estas variables como variables de entorno o modifique directamente los valores en la secuencia de comandos.
El nombre de la plataforma. Por ejemplo, puede ser sparc o x86. La variable PLATFORM se define de forma predeterminada en la salida del comando uname -p.
Una ruta al dispositivo desde el que se pueden instalar los paquetes de la estructura o los servicios de datos de Sun Cluster. Este valor se corresponde con la opción -d del comando pkgadd.
Por ejemplo, para los paquetes de la estructura de Sun Cluster, este valor presentaría el siguiente formato:
/cdrom/cdrom0/Solaris_${PLATFORM}/Product/sun_cluster/Solaris_10/Packages |
Para los paquetes de servicios de datos, este valor presentaría el siguiente formato:
/cdrom/cdrom0/Solaris_${PLATFORM}/Product/sun_cluster_agents/Solaris_10/Packages |
El nombre de ruta completo del directorio que se utilizará como ruta raíz y que se corresponde con la opción -R del comando pkgadd. Para la actualización automática, defina este valor en la ruta raíz que se utiliza con la opción -R del comando scinstall. La variable BASEDIR se define de forma predeterminada en el sistema de archivos raíz (/).
Ejecute la secuencia de comandos, una vez para los paquetes de la estructura de Sun Cluster y otra para los paquetes de servicios de datos.
Una vez ejecutada la secuencia de comandos, debería aparecer el siguiente mensaje en el indicador de comando para cada paquete:
Transferring pkgname package instance |
Si ya existe el directorio pspool para un paquete o si la secuencia de comandos se ejecuta dos veces para el mismo conjunto de paquetes, se mostrará el siguiente error en el indicador de comandos:
Transferring pkgname package instance pkgadd: ERROR: unable to complete package transfer - identical version of pkgname already exists on destination device |
Se trata de un mensaje inofensivo que puede omitirse con seguridad.
Una vez ejecutada la secuencia de comandos para los paquetes de la estructura y los servicios de datos, arranque los nodos en el modo de clúster.
Resumen del problema: Si se agrega un nuevo nodo del clúster sin comprobar que el nodo presenta las mismas revisiones que los nodos del clúster existentes, es posible que los nodos del clúster muestren un aviso grave.
Solución: Antes de agregar los nodos al clúster, asegúrese de que al nuevo nodo se le aplican las revisiones necesarias para que presente el mismo nivel de revisiones que los nodos del clúster existentes. De lo contrario, los nodos del clúster podrían mostrar un aviso grave.