Notas de la versión de Sun Cluster 3.1 8/05 para el SO Solaris

Problemas conocidos

Los siguientes problemas conocidos afectan al funcionamiento de la versión Sun Cluster 3.1 8/05.

scvxinstall crea entradas vfstab incorrectas cuando el dispositivo de inicio tiene varias rutas (4639243)

Resumen del problema: scvxinstall crea entradas /etc/vfstab incorrectas cuando el dispositivo de inicio tiene varias rutas.

Solución: ejecute scvxinstall y seleccione la opción de encapsulación. Cuando aparezca el siguiente mensaje, pulse Ctrl-C para anular el reinicio:


este nodo se reiniciará en 20 segundos. Pulse Ctrl-C para anular la operación.

Edite la entrada vfstab para que /global/.devices utilice el nombre /dev/{r}dsk/cXtXdX, en lugar del nombre /dev/did/{r}dsk. Esta entrada modificada permite que VxVM lo reconozca como disco raíz. Vuelva a ejecutar scvxinstall y seleccione la opción de encapsulación. El archivo vfstab incluye las actualizaciones necesarias. Permita que se lleve a cabo el reinicio. La encapsulación se realiza de forma normal.

ProcedureCómo corregir errores de /etc/vfstab para un dispositivo de inicio con varias rutas

Pasos
  1. Ejecute scvxinstall y seleccione la opción de encapsulación.

    El sistema muestra el siguiente mensaje:


    This node will be re-booted in 20 seconds.  Type Ctrl-C to abort.
  2. Anule el reinicio.


    Ctrl-C
  3. Edite la entrada /etc/vfstab para que /global/.devices utilice el nombre /dev/{r}dsk/cXtXdX en lugar del nombre /dev/did/{r}dsk.

    Esta entrada revisada permite que VxVM lo reconozca como disco raíz.

  4. Vuelva a ejecutar scvxinstall y seleccione la opción de encapsulación.

    El archivo /etc/vfstab incluye las actualizaciones necesarias. Permita que se lleve a cabo el reinicio. La encapsulación se realiza de forma normal.

Tiempo de espera del método de parada de SAP liveCache excedido (4836272)

Resumen del problema: el servicio de datos de Sun Cluster HA para SAP liveCache utiliza el comando dbmcli para iniciar y detener liveCache. Si ejecuta Solaris 9, es posible que el servicio de red no quede disponible cuando falle una red pública de un nodo del clúster.

Solución: agregue una de las siguientes entradas para la base de datos publickey a los archivos /etc/nsswitch.conf de cada nodo que pueda ser el principal para los recursos liveCache:

publickey:
publickey:  files
publickey:  files [NOTFOUND=return] nis
publickey:  files [NOTFOUND=return] nisplus

La adición de una de las entradas anteriores, además de las actualizaciones documentadas en Sun Cluster Data Service for SAP liveCache Guide for Solaris OS garantiza que los comandos su y dbmcli no hagan referencia a los servicios de nombres NIS/NIS+. Si se sobrepasan los servicios de nombres NIS/NIS+ se asegura que el servicio de datos se inicie y se detenga correctamente durante un fallo en la red.

El requisito de nsswitch.conf no debe aplicarse a la base de datos passwd (4904975)

Resumen del problema: el requisito del archivo nsswitch.conf en Preparing the Nodes and Disks de Sun Cluster Data Service for SAP liveCache Guide for Solaris OS no se aplica a la entrada de la base de datos passwd. Si se cumplen estos requisitos, el comando su se podría bloquear en cada nodo que pueda controlar el recurso liveCache cuando la red pública esté abierta.

Solución: en todos los nodos que puedan controlar el recurso liveCache, asegúrese de que la entrada del archivo /etc/nsswitch.conf para la base de datos passwd sea:

passwd: files nis [TRYAGAIN=0]

sccheck se bloquea (4944192)

Resumen del problema: sccheck podría bloquearse si se inicia simultáneamente desde varios nodos.

Solución: no inicie sccheck desde ninguna consola múltiple que envíe comandos a varios nodos. Las ejecuciones de sccheck se pueden solapar, pero ésta no se debe iniciar simultáneamente.

Los archivos binarios de Java enlazados con una versión incorrecta de Java pueden provocar que el agente HADB funcione incorrectamente (4968899)

Resumen del problema: actualmente, el servicio de datos de HADB no utiliza la variable de entorno JAVA_HOME. Por lo tanto, HADB, cuando se ejecuta desde el servicio de datos de HADB, usa los archivos binarios de Java de /usr/bin/. Para que el servicio de datos de HADB funcione correctamente, los archivos binarios de Java de /usr/bin/ deben estar enlazados a la versión apropiada de Java 1.4 o posterior.

Solución: si no le importa cambiar de versión predeterminada disponible, realice el procedimiento que se indica debajo. Por ejemplo, esta solución presupone que el directorio /usr/j2se es la ubicación en la que reside la versión más reciente de Java (como 1.4 y superior).

  1. Si tiene un directorio llamado java/ en el directorio /usr/, muévalo a una ubicación temporal.

  2. En el directorio /usr/, enlace /usr/bin/java y todos los demás archivos binarios relacionados con Java con la versión adecuada de Java.


    # ln -s j2se java
    

Si no desea cambiar la versión predeterminada disponible, asigne la variable de entorno JAVA_HOME a la versión adecuada de Java (J2SE 1.4 y superior) en la secuencia de comandos /opt/SUNWappserver7/SUNWhadb/4/bin/hadbm.

Al agregar un nodo del clúster nuevo es necesario reiniciar el clúster (4971299)

Resumen del problema: cuando se agrega un nodo al clúster que ejecuta Sun Cluster Support para Oracle Real Application Clusters y utiliza la función de clúster de VxVM, la función de clúster que se ejecuta en otros nodos no reconoce el nodo nuevo.

Solución: VERITAS tiene previsto solucionar este problema en VxVM 3.5 MP4 y VxVM 4.0 MP2. La solución para VxVM 4.1 ya está disponible.

Para corregir el problema si la solución no está disponible todavía, reinicie la base de datos de Oracle y los nodos del clúster. Este paso sincroniza la Oracle UDLM y actualiza la función de clúster VxVM para reconocer el nodo añadido.


Nota –

No instale y configure Sun Cluster Support para Oracle Real Application Clusters en el nuevo nodo hasta que haya realizado este paso.


  1. Desde un nodo de clúster distinto al nodo que se acaba de agregar, cierre la base de datos Oracle Real Application Clusters.

  2. Reinicie el mismo nodo en el que ha cerrado la base de datos de Oracle.


    # scswitch -S -h thisnode
    # shutdown -g0 -y -i6
    

    Espere hasta que el nodo se haya reiniciado completamente antes de continuar con el siguiente paso.

  3. Reinicie la base de datos de Oracle.

  4. Repita los pasos del 1 al 3 con cada uno de los nodos restantes que ejecuten Sun Cluster Support para Oracle Real Application Clusters.

    • Si un único nodo es capaz de manejar la carga de trabajo de la base de datos de Oracle, puede realizar estos pasos en varios nodos simultáneamente.

    • Si se necesita más de un nodo para encargarse de la carga de trabajo de la base de datos, realice estos pasos en el nodo cada vez.

HA-DB se reinicializa sin elementos de reserva (4973982)

Resumen del problema: debido al error 4974875, cuando se lleva a cabo una recuperación automática, se reinicializa la base de datos sin elementos de reserva. El error mencionado anteriormente se ha solucionado e integrado en la versión 4.3 de HA-DB. Para HA-DB 4.2 y versiones inferiores, siga uno de los procedimientos descritos a continuación para cambiar los roles de los nodos de HA-DB.

Solución: realice uno de los procedimientos siguientes para cambiar los roles de los nodos de HA-DB:

  1. Identifique los nodos de HA-DB para los que se han cambiado sus roles tras una recuperación automática con éxito.

  2. En todos los nodos identificados en el paso 1, desactive el supervisor de errores del recurso HA-DB en cuestión, en un nodo cada vez.


    # cladm noderole -db dbname -node nodeno -setrole role-before-auto_recovery
    
  3. Active el supervisor de errores del recurso HA-DB en cuestión.

    o

  1. Identifique los nodos de HA-DB para los que se han cambiado sus roles tras una recuperación automática con éxito.

  2. En todos los nodos que albergan la base de datos, desactive el supervisor de errores para el recurso HA-DB en cuestión.

  3. En cualquiera de los nodos, ejecute el comando para cada nodo de HA-DB que necesite modificar su rol.


    # cladm noderole -db dbname -node nodeno -setrole role-before-auto_recovery
    

El otro nodo no puede acceder a pnmd durante la actualización por turnos (4997693)

Resumen del problema: si la actualización por turnos no se realiza en todos los nodos, aquellos que todavía no se han actualizado no podrán ver los grupos IPMP en los nodos actualizados.

Solución: termine de actualizar todos los nodos del clúster.

El campo de fecha del panel de filtro avanzado sólo admite el formato mm/dd/aaaa (5075018)

Resumen del problema: el campo de fecha del panel de filtro avanzado de SunPlex Manager sólo admite el formato mm/dd/aaaa. Sin embargo, en configuraciones regionales distintas del inglés, el formato de fecha no corresponde a mm/dd/aaaa, por lo que la fecha devuelta en el panel de calendario no coincidirá con dicho formato.

Solución: en el panel de filtro avanzado, utilice el formato mm/dd/aaaa para introducir el intervalo de fechas. No use el botón Set... (Establecer...) para mostrar el calendario y seleccionar la fecha.

En la configuración regional en japonés, los mensajes de error de scrgadm contienen caracteres ilegibles (5083147)

Resumen del problema: en la configuración regional en japonés, los mensajes de error de scrgadm no se muestran correctamente. Los mensajes contienen caracteres ilegibles.

Solución: ejecute la configuración regional del sistema en inglés, de forma que sea éste el idioma en que se muestren los mensajes de error.

La secuencia de comandos /usr/cluster/lib/cmass/ipmpgroupmanager.sh desactiva la interfaz IPv6 (6174170)

Resumen del problema: SunPlex Manager utiliza /usr/cluster/lib/cmass/ipmpgroupmanager.sh para eliminar grupos IPMP y adaptadores de los grupos IPMP. La secuencia de comandos actualiza el archivo /etc/hostname6.adaptername correctamente sólo para eliminar el nombre del grupo, pero ejecuta el comando ifconfig siguiente para desactivar la interfaz IPv6:


ifconfig adaptername inet6 unplumb

Solución: reinicie el nodo para volver a activar la interfaz. O, si lo desea, ejecute en el nodo el comando ifconfig que se indica debajo. Esta solución alternativa no obliga a reiniciar el nodo.


ifconfig adaptername inet6 plumb up

La página del grupo IPMP debe rellenar la lista de adaptadores de acuerdo con la versión de IP elegida por el usuario (6174805)

Resumen del problema: la lista de adaptadores que se muestra en las páginas de los grupos IPMP no depende de la versión de IP elegida por el usuario. Estas páginas muestran una lista de todos los adaptadores que no tienen grupos configurados. Asimismo, dicha lista debe actualizarse de acuerdo con la versión elegida en el botón de opción de la versión de IP:

Solución: una vez seleccionada la versión de IP, asegúrese de elegir en la lista sólo el adaptador habilitado para la versión de IP seleccionada.

Al cambiar la opción elegida para el adaptador de "IPv4 and IPv6" a "IPv4 only", no se elimina la versión IPv4 (6179721)

Resumen del problema: la lista de adaptadores que se muestra en las páginas de los grupos IPMP depende de la versión de IP elegida por el usuario. La versión actual de SunPlex Manager incluye un error que le hace mostrar siempre una lista completa de todos los adaptadores, independientemente de la versión de IP. SunPlex Manager no debería permitir al usuario mover un adaptador habilitado para IPv4 e IPv6 a sólo IPv4.

Solución: el usuario no debe intentar mover un adaptador configurado para IPv4 e IPv6 a sólo IPv4.

Error en la configuración de Sun Java System Administration Server si el paquete SUNWasvr no está instalado (6196005)

Resumen del problema: se produce un error al intentar configurar el servicio de datos para Sun Java System Administration Server si dicha aplicación no está instalada. El intento no tiene éxito porque el tipo de recurso SUNW.mps necesita que exista el directorio /etc/mps/admin/v5.2/cluster/SUNW.mps. Este directorio sólo existe si el paquete SUNWasvr está instalado.

Solución: para solucionar el problema, realice el procedimiento que se indica debajo.

ProcedureCómo instalar el paquete SUNWasvr

Pasos
  1. Inicie sesión como usuario root o asuma un rol equivalente en un nodo del clúster.

  2. Averigüe si está instalado el paquete SUNWasvr.


    # pkginfo SUNWasvr
    
  3. Si el paquete SUNWasvr no está instalado, realice los pasos siguientes para instalarlo desde el CD-ROM de Sun Cluster:

    1. Inserte el CD-ROM 2 de 2 de Sun Cluster en la unidad correspondiente.

    2. Vaya al directorio que contiene el paquete SUNWasvr.


      # cd /cdrom/cdrom0/Solaris_sparc/Product/administration_svr/Packages
      
    3. Introduzca el comando para instalar el paquete.


      # pkgadd -d . SUNWasvr
      
    4. Extraiga el CD-ROM de la unidad.

Los cambios realizados en startd/duration no se aplican inmediatamente (6196325)

Resumen del problema: como en Solaris 10, el servicio de datos de Sun Cluster HA para NFS establece la propiedad /startd/duration en transient para los servicios de Service Management Facility (SMF) /network/nfs/server, /network/nfs/status y /network/nfs/nlockmgr . El objetivo de dicha configuración de propiedad es impedir que SMF reinicie estos servicios en caso de error. Un error de SMF impide que se reinicie /network/nfs/status y /network/nfs/nlockmgr tras el primer error, a pesar de la configuración de propiedad.

Solución: para que Sun Cluster HA para NFS funcione correctamente, ejecute el comando siguiente en todos los nodos después de crear el primer recurso de Sun Cluster HA para NFS y antes de poner en línea el recurso de Sun Cluster HA para NFS:


# pkill -9 -x 'startd|lockd'

Si es la primera vez que inicia Sun Cluster, ejecute el comando anterior en todos los nodos principales posibles después de crear el primer recurso de Sun Cluster HA para NFS y antes de poner en línea el recurso de Sun Cluster HA para NFS.

El comando scinstall no copia todos los archivos de seguridad comunes del contenedor de agentes (6203133)

Resumen del problema: cuando se agrega un nodo a un clúster, la utilidad scinstall comprueba si hay archivos de NSS (Network Security Services) en dicho nodo. El contenedor de agente común necesita estos archivos y claves de seguridad. Si existen, la utilidad copia los archivos de seguridad del contenedor de agente común desde el nodo promotor hasta el nodo agregado. Pero si el nodo promotor no tiene instaladas las claves de seguridad de NSS, la copia no se realiza correctamente y se interrumpe el procesamiento de scinstall.

Solución: realice el procedimiento que se indica debajo para instalar el software de NSS, vuelva a crear las claves de seguridad y reinicie el contenedor de agente común en los nodos del clúster existentes.

ProcedureCómo instalar software de NSS al agregar un nodo a un clúster

Realice el procedimiento siguiente en todos los nodos del clúster existentes como superusuario o con cualquier rol que proporcione el nivel de acceso adecuado.

Antes de empezar

Tenga a mano el CD-ROM 1 de 2 de Sun Cluster. Los paquetes de NSS se encuentran en /cdrom/cdrom0/Solaris_arch/Product/shared_components/Packages/, donde arch es sparc o x86 y ver es 8 (de Solaris 8), 9 (de Solaris 9) o 10 (de Solaris 10).

Pasos
  1. En cada nodo, detenga el agente de Sun Web Console.


    # /usr/sbin/smcwebserver stop
    
  2. En cada nodo, detenga el agente del archivo de seguridad.


    # /opt/SUNWcacao/bin/cacaoadm stop
    
  3. En cada nodo, compruebe si están instalados los paquetes de NSS y, si es así, determine la versión.


    # cat /var/sadm/pkg/SUNWtls/pkginfo | grep SUNW_PRODVERS
    SUNW_PRODVERS=3.9.4
  4. Si está instalada una versión anterior a la 3.9.4, elimine los paquetes existentes de NSS.


    # pkgrm packages
    

    En la siguiente tabla se enumeran los paquetes aplicables para cada plataforma de hardware.

    Plataforma de hardware 

    Nombres de los paquetes de NSS 

    SPARC 

    SUNWtls SUNWtlsu SUNWtlsx

    x86 

    SUNWtls SUNWtlsu

  5. En cada nodo, si ha eliminado los paquetes de NSS o si no había ninguno instalado, instale los paquetes más recientes de NSS desde el CD-ROM 1 de 2 de Sun Cluster.

    • Para los sistemas operativos Solaris 8 o Solaris 9, use el siguiente comando:


      # pkgadd -d . packages
      
    • Para el sistema operativo Solaris 10, use el siguiente comando:


      # pkgadd -G -d . packages
      
  6. Cambie a un directorio que no sea del CD-ROM y sáquelo después.


    # eject cdrom
    
  7. En cada nodo, cree las claves de seguridad de NSS.


    # /opt/SUNWcacao/bin/cacaoadm create-keys
    
  8. En cada nodo, inicie el agente del archivo de seguridad.


    # /opt/SUNWcacao/bin/cacaoadm start
    
  9. En cada nodo, inicie el agente de Sun Web Console.


    # /usr/sbin/smcwebserver start
    
  10. En el nodo que está agregando al clúster, reinicie la utilidad scinstall y siga los procedimientos para instalar el nodo nuevo.

Posible error al eliminar un grupo de interfaces públicas con adaptadores IPv4 e IPv6 de SunPlex Manager (6209229)

Resumen del problema: en ocasiones, durante la eliminación de un grupo de interfaces públicas que tienen habilitados adaptadores IPv4 e IPv6 se produce un error al intentar eliminar el adaptador IPv6 del grupo. Se muestra el mensaje de error siguiente:


ifparse: Operation netmask not supported for inet6
/sbin/ifparse
/usr/cluster/lib/cmass/ipmpgroupmanager.sh[8]:
/etc/hostname.adaptname.tmpnumber: cannot open

Solución: edite el archivo/etc/hostname6.adaptername para que incluya las líneas siguientes:


plumb
up
-standby

Ejecute el comando siguiente en el nodo del clúster:


ifconfig adaptername inet6 plumb up -standby

Pérdida de datos durante el procedimiento de instalación de revisiones con reinicio (nodo) (6210440)

Resumen del problema: Sun Cluster no responde al intentar realizar una actualización por turnos de la versión Sun Cluster 3.1 9/04 a la versión Sun Cluster 3.1 8/05 debido a un problema de memoria al reiniciar el primer nodo actualizado en módo de clúster.

Solución: si utiliza Sun Cluster 3.1 9/04 o la revisión equivalente (revisión 09 o posterior) y desea realizar un procedimiento de instalación de revisiones con reinicio para actualizar a la versión Sun Cluster 3.1 8/05 o la revisión equivalente (revisión 12), antes de actualizar el clúster o aplicar esta revisión del núcleo central debe realizar los pasos que se indican debajo.

ProcedureCómo preparar una actualización a Sun Cluster 3.1 8/05

Pasos
  1. Elija el tipo de procedimiento de instalación de revisiones apropiado para sus requisitos de disponibilidad:

    • Revisión con reinicio (nodo)

    • Revisión con reinicio (clúster y firmware)

    Estos procedimientos de instalación de revisiones se describen en el Capítulo 8, Aplicación de revisiones en el software y firmware de Sun Cluster de Sun Cluster: Guía de administración del sistema para el SO Solaris.

  2. Según el sistema operativo que utilice, aplique una de las revisiones siguientes:

    • 117909-11 Sun Cluster 3.1 Core Patch for SunOS 5.9 X86

    • 117950-11 Sun Cluster 3.1 Core Patch for Solaris 8

    • 117949-11 Sun Cluster 3.1 Core Patch for Solaris 9

    Debe completar todo el procedimiento de instalación de revisiones antes de actualizar a Sun Cluster 3.1 8/05 o a la revisión equivalente (revisión 12).

Los procesos de instalación e inicio de zona no funcionan tras la instalación de Sun Cluster (6211453)

Resumen del problema: la instalación del software Sun Cluster agrega exclude: lofs a /etc/system. Como lofs es esencial para el funcionamiento de las zonas, zone install y zone boot no funcionan correctamente.

Solución: antes de intentar crear una zona, realice el procedimiento que se indica debajo.

ProcedureCómo ejecutar la instalación y el inicio de zonas tras la instalación de Sun Cluster

Pasos
  1. Si ejecuta Sun Cluster HA para NFS, excluya de la asignación del montador automático todos los archivos que forman parte del sistema de archivos local de alta disponibilidad que exporta el servidor de NFS.

  2. En cada nodo del clúster, edite el archivo /etc/system para eliminar todas las líneas exclude: lofs.

  3. Reinicie el clúster.

Solaris 10 requiere pasos adicionales para la recuperación del error de montaje de un sistema de archivos del clúster durante el inicio (6211485)

Resumen del problema: el sistema operativo Solaris 10 requiere procedimientos de recuperación diferentes a los de versiones anteriores cuando un sistema de archivos del clúster no se monta correctamente durante el inicio. En lugar de presentar una solicitud de inicio de sesión, es posible que se produzca un error en el servicio mountgfsys que ponga el nodo en estado de mantenimiento. Los mensajes de salida pueden parecerse a los siguientes:


WARNING - Unable to globally mount all filesystems.
Check logs for error messages and correct the problems.
 
May 18 14:06:58 pkaffa1 svc.startd[8]: system/cluster/mountgfsys:default misconfigured
 
May 18 14:06:59 pkaffa1 Cluster.CCR: /usr/cluster/bin/scgdevs:
Filesystem /global/.devices/node@1 is not available in /etc/mnttab.

Solución: después de solucionar el problema de montaje del sistema de archivos del clúster, debe volver a poner en línea el servicio mountgfsys. Ejecute los comandos siguientes para recuperar el servicio mountgfsys y sincronizar el espacio de nombres de los dispositivos globales:


# svcadm clear svc:/system/cluster/mountgfsys:default
# svcadm clear svc:/system/cluster/gdevsync:default

Entonces, el proceso de inicio continuará.

Una actualización al sistema operativo Solaris 10 incompatible daña el archivo /etc/path_to_inst (6216447)

Resumen del problema: Sun Cluster 3.1 8/05 no admite la actualización a la versión de marzo de 2005 del sistema operativo Solaris 10. Cualquier intento de actualizar a dicha versión podría dañar el archivo /etc/path_to_inst. Esto impediría que se inicie correctamente el nodo. El archivo dañado podría parecerse al siguiente, con entradas duplicadas para algunos de los nombres de dispositivos repetidos, pero con el prefijo /node@nodeid en el nombre del dispositivo físico:


…
"/node@nodeid/physical_device_name" instance_number "driver_binding_name"
…
"/physical_device_name" instance_number "driver_binding_name"

Asimismo, algunos servicios importantes de Solaris no se iniciarían correctamente, incluida la conexión de redes y el montaje del sistema de archivos. También se podrían imprimir mensajes en la consola informando de que el servicio está mal configurado.

Solución: utilice el procedimiento que se indica debajo.

ProcedureCómo recuperar el sistema cuando un archivo /etc/path_to_inst está dañado

El procedimiento siguiente describe cómo recuperar el sistema cuando la actualización a Solaris 10 daña un archivo /etc/path_to_inst.


Nota –

Este procedimiento no intenta corregir ningún otro problema asociado a la actualización de Sun Cluster a la versión de marzo de 2005 del sistema operativo Solaris 10.


Realice el procedimiento en todos los nodos actualizados a la versión de marzo de 2005 del sistema operativo Solaris 10.

Antes de empezar

Si resulta imposible iniciar un nodo, hágalo desde la red o desde un CD-ROM. Cuando el nodo funcione correctamente, ejecute el comando fsck y monte el sistema de archivos local en una partición del tipo /a. Durante el paso 2, utilice el nombre del montaje del sistema de archivos local en la ruta del directorio /etc.

Pasos
  1. Asuma el rol de superusuario u otro equivalente en el nodo.

  2. Cambie al directorio /etc.


    # cd /etc
    
  3. Compruebe si el archivo path_to_inst está dañado.

    Cuando el archivo path_to_inst está dañado, se observan las características siguientes:

    • El archivo incluye un bloque de entradas que contienen /node@nodeid al principio de los nombres de dispositivos físicos.

    • Algunas de las entradas se muestran de nuevo, pero sin el prefijo /node@nodeid.

    Si el archivo no tiene este formato, puede que haya algún otro problema. No continúe con el procedimiento. Si necesita asistencia técnica, póngase en contacto con su representante de servicios de Sun.

  4. Si el archivo path_to_inst está dañado tal y como se describe en el paso 3, ejecute los comandos siguientes:


    # cp path_to_inst path_to_inst.bak
    # sed -n -e "/^#/p" -e "s,node@./,,p" path_to_inst.bak > path_to_inst
    
  5. Revise el archivo path_to_inst para comprobar que se haya reparado.

    Un archivo reparado mostrará los cambios siguientes:

    • El prefijo /node@nodeid se ha eliminado de todos los nombres de dispositivos físicos.

    • No hay entradas duplicadas para ninguno de los nombres de dispositivos físicos.

  6. Compruebe que los permisos del archivo path_to_inst sean de sólo lectura.


    # ls -l /etc/path_to_inst
    -r--r--r--   1 root     root        2946 Aug  8  2005 path_to_inst
  7. Lleve a cabo un reinicio de reconfiguración en modo de no clúster.


    # reboot -- -rx
    
  8. Después de reparar todos los nodos del clúster afectados, vaya a Cómo actualizar el software que mantiene la relación de dependencia antes de una modernización no periódica de Software Sun Cluster: Guía de instalación para el sistema operativo Solaris para continuar con el proceso de actualización.

Tiempo de espera agotado en la devolución de llamada de reconfiguración de CMM; anulación del nodo (6217017)

Resumen del problema: en clústeres de x86 con transportes ce, puede que CMM detenga un nodo sobrecargado debido a un error interno de comunicación ("split-brain").

Solución: para los clústeres de x86 que utilicen la tarjeta PCI Gigaswift Ethernet en la red privada, agregue la cadena siguiente a /etc/system:


set ce:ce_tx_ring_size=8192

Los nodos pueden mostrar un aviso grave cuando un nodo se integra en un clúster que tiene más de dos nodos o lo abandona, ejecuta Solaris 10 y utiliza almacenamiento de Hitachi (6227074)

Resumen del problema: en clústeres que tienen más de dos nodos, ejecutan Solaris 10 y utilizan almacenamiento de Hitachi, todos los nodos del clúster pueden mostrar un aviso grave cuando se integre un nodo en el clúster o lo abandone.

Solución: por el momento, no existe ninguna solución. Si tiene este problema, póngase en contacto con su proveedor de servicios de Sun para obtener la revisión apropiada.

El comando installer de Java ES 2005Q1 no instala completamente Application Server 8.1 EE (6229510)

Resumen del problema: el comando installer de Java ES 2005Q1 no puede instalar Application Server Enterprise Edition 8.1 si la opción Configure Later (Configurar más tarde) está seleccionada. Al seleccionar la opción Configure Later (Configurar más tarde), se instala la versión Platform Edition, pero no Enterprise Edition.

Solución: cuando instale Application Server Enterprise Edition 8.1 mediante el comando installer de Java ES, utilice la opción Configure Now (Configurar ahora). Al seleccionar la opción Configure Later (Configurar más tarde), se instala sólo la versión Platform Edition.

scvxinstall hace que se reinicie rpcbind (6237044)

Resumen del problema: si se reinicia el servicio de enlace de SMF, puede verse afectado el funcionamiento de Solaris Volume Manager. La instalación de los paquetes de Veritas 4.1 VxVM reinicia el servicio de enlace de SMF.

Solución: reinicie Solaris Volume Manager sólo después de reiniciar el servicio de enlace de SMF o tras instalar VxVM 4.1 en un host S10.


svcadm restart svc:/network/rpc/scadmd:default

En un sistema con Solaris 10, no se pueden instalar los servicios de datos de Sun Cluster cuando Sun Cluster se ha instalado mediente el comando installer de Java ES (6237159)

Resumen del problema: este problema sólo se produce en sistemas que ejecutan Solaris 10. Cuando el usuario utiliza el comando installer de Java ES del CD-ROM de Sun Cluster Agents para instalar los servicios de datos de Sun Cluster una vez instalado el núcleo central de Sun Cluster, el comando installer muestra los siguientes mensajes de error:


The installer has determined that you must manually remove incompatible versions
of the following components before proceeding:

[Sun Cluster 3.1 8/05, Sun Cluster 3.1 8/05, Sun Cluster 3.1 8/05]

After you remove these components, go back.
Component                       Required By ...

1. Sun Cluster 3.1 8/05     HA Sun Java System Message Queue : HA Sun Java
                            System Message Queue
2. Sun Cluster 3.1 8/05     HA Sun Java System Application Server : HA Sun Java
									System Application Server
3. Sun Cluster 3.1 8/05     HA/Scalable Sun Java System Web Server : HA/Scalable
									Sun Java System Web Server
4. Select this option to go back to the component list. This process might take
									a few moments while the installer rechecks your
									system for installed components.

Select a component to see the details. Press 4 to go back the product list
[4] {"<" goes back, "!" exits}

Solución: en un sistema que utilice Solaris 10, instale manualmente el servicio de datos de Sun Cluster mediante el comando pkgadd o scinstall. Si el servicio de datos de Sun Cluster mantiene algún tipo de dependencia con componentes compartidos, instale manualmente dichos componentes mediante el comando pkgadd. El vínculo siguiente muestra los componentes compartidos de cada producto:

Mensaje de error, /usr/sbin/smcwebserver: ... j2se/opt/javahelp/lib: does not exist (6238302)

Resumen del problema: al iniciar Sun Web Console, puede que se muestre el mensaje siguiente:


/usr/sbin/smcwebserver:../../../../j2se/opt/javahelp/lib: does not exist

Solución: no es necesario tener en cuenta dicho mensaje. Si lo desea, puede agregar manualmente un vínculo a /usr/j2se/opt para que señale a la dirección correcta de Java Help 2.0 introduciendo:


# ln -s /usr/jdk/packages/javax.help-2.0 /usr/j2se/opt/javahelp

El nodo muestra un aviso grave tras la actualización del sistema operativo a Solaris 10 desde Sun Cluster 3.1 4/04 en Solaris 9 (6245238)

Resumen del problema: al actualizar desde el sistema operativo Solaris 9 a Solaris 10 en un clúster que ejecuta Sun Cluster 3.1 4/04 o una versión anterior, cuando se inicia el nodo en modo de no clúster, éste muestra un aviso grave.

Solución: instale una de las revisiones que se indican debajo antes de actualizar desde Solaris 9 a Solaris 10.

SunPlex Installer no crea recursos en los grupos de recursos (6250327)

Resumen del problema: cuando se utiliza SunPlex Installer para configurar los servicios de datos de Sun Cluster HA for Apache y Sun Cluster HA para NFS dentro del proceso de instalación de Sun Cluster, SunPlex Installer no crea los recursos ni los grupos de dispositivos necesarios en los grupos de recursos.

Solución: no utilice SunPlex Installer para instalar y configurar los servicios de datos. En lugar de ello, siga los procedimientos que se indican en los manuales Software Sun Cluster: Guía de instalación para el sistema operativo Solaris, Sun Cluster Data Service for Apache Guide for Solaris OS o Sun Cluster Data Service for NFS Guide for Solaris OS para instalar y configurar dichos servicios de datos.

Cambios en HA-NFS para ofrecer compatibilidad con NFSv4 y solucionar el problema 6244819 (6251676)

Resumen del problema: NFSv4 no es compatible con Sun Cluster 3.1 8/05.

Solución: Solaris 10 incorpora NFSv4, una versión nueva del protocolo NFS, que constituye el protocolo predeterminado para los clientes y servidores de Solaris 10. Aunque el software Sun Cluster 3.1 8/05 es compatible con Solaris 10, no admite el uso del protocolo NFSv4 con el servicio de Sun Cluster HA para NFS en el clúster para lograr una alta disponibilidad para el servidor de NFS. Con el fin de garantizar que ningún cliente de NFS pueda utilizar el protocolo NFSv4 para comunicarse con el servidor de NFS en Sun Cluster, edite el archivo /etc/default/nfs y cambie la línea NFS_SERVER_VERSMAX=4 por NFS_SERVER_VERSMAX=3. Esto garantizará que los clientes del servicio de Sun Cluster HA para NFS en el clúster utilicen únicamente el protocolo NFSv3.

NOTA: esta restricción y la solución mencionada arriba no afecta al uso de los nodos del clúster de Solaris 10 como clientes de NFSv4. Los nodos del clúster pueden actuar como clientes de NFSv4.

Error del comando metaset cuando se reinicia el servicio rpcbind (6252216)

Resumen del problema: se produce un error del comando metaset al reiniciar el servicio rpcbind.

Solución: asegúrese de que no está realizando ninguna operación de configuración en el sistema de Sun Cluster y, a continuación, interrumpa el proceso rpc.metad mediante el comando:


# pkill -9 rpc.metad

Aviso grave del nodo debido a un error devuelto por metaclust: RPC: programa no registrado (6256220)

Resumen del problema: al cerrar el clúster, puede que se produzca un aviso grave en alguno de los nodos debido al orden en que se detienen los servicios en los mismos. Si el servicio de RPC se detiene antes que el entorno de RAC, pueden producirse errores cuando el recurso de SVM intente reconfigurarse. Esto hace que se envíe un mensaje de error al entorno de RAC, que a su vez provoca el aviso grave del nodo. Dicho problema se ha detectado cuando Sun Cluster utiliza el entorno de RAC con la opción de almacenamiento de SVM. La funcionalidad de Sun Cluster no debe verse afectada por ello.

Solución: el aviso grave es una respuesta predeterminada y no es necesario tenerla en cuenta; sin embargo, debe realizarse una limpieza del núcleo central para recuperar espacio en el sistema de archivos.

El bloqueo en la resolución de las direcciones NIS impide la conmutación por error (6257112)

Resumen del problema: en el sistema operativo Solaris 10, se ha modificado el archivo /etc/nsswitch.conf para que incluya NIS en la entrada ipnodes.


ipnodes:    files nis [NOTFOUND=return]

Esto provocará un bloqueo en la resolución de direcciones si el servidor NIS no está accesible debido a un problema de NIS o a un error de todos los adaptadores de redes públicas. Dicho problema impedirá que los recursos de conmutación por error o de direcciones compartidas migren en caso de error.

Solución: realice los procedimientos siguientes antes de crear los recursos de host lógico o de direcciones compartidas:

  1. Cambie la entrada ipnodes del archivo /etc/nsswitch.conf de [NOTFOUND=return] a [TRYAGAIN=0].


    ipnodes:    files nis [TRYAGAIN=0]
  2. Compruebe que se han agregado todas las direcciones IP de los host lógicos y las direcciones compartidas a los archivos /etc/inet/ipnodes y /etc/inet/hosts.

scinstall no actualiza el servicio de datos de Sun Cluster para Sun Java System Application Server EE (6263451)

Resumen del problema: al intentar actualizar el servicio de datos de Sun Cluster para Sun Java System Application Server EE desde la versión 3.1 9/04 a la 3.1 8/05, scinstall no elimina el paquete de j2ee y muestra el mensaje siguiente:


Skipping "SUNWscswa" - already installed

No se actualiza el servicio de datos de Sun Cluster para Sun Java System Application Server EE.

Solución: elimine y agregue manualmente el paquete sap_j2ee mediante los comandos:


# # pkgrm SUNWscswa
# pkgadd [-d device] SUNWscswa

scnas: El sistema de archivos de NAS no se monta durante el proceso de inicio (6268260)

Resumen del problema: resulta imposible comprobar la viabilidad del sistema de archivos de NFS antes de una conmutación por error o de que se utilice scswitch para buscar el servicio de datos del nodo. Si un nodo no cuenta con el sistema de archivos de NFS, el cambio o la conmutación por error a dicho nodo provocará un error en el servicio de datos que requiere intervención manual. Se necesita un mecanismo como HAStoragePlus para comprobar la viabilidad del sistema de archivos antes de intentar el cambio o la conmutación por error a dicho nodo.

Solución: los sistemas de archivos que utilizan administradores de archivos (filer) de NAS (con entradas en /etc/vfstab) se montan fuera del control de Sun Cluster, por lo que Sun Cluster no es consciente de los problemas. Si el sistema de archivos deja de estar disponible, se producirá un error en algunos servicios de datos, por ejemplo, Sun Cluster HA para Oracle, cuando se ejecutan métodos de servicios de datos como START o STOP.

Dicho error puede tener distintas consecuencias:

Para evitar estos problemas, realice uno de los siguientes procedimientos:

El supervisor de errores de HADB no reinicia el proceso de ma (6269813)

Resumen del problema: el servicio de datos de Sun Cluster no reinicia el proceso de ma cuando se interrumpe el servicio de datos o deja de funcionar inesperadamente.

Solución: se trata del comportamiento previsto y el servicio de datos no se ve afectado.

rgmd provoca un volcado del núcleo central durante la actualización por turnos (6271037)

Resumen del problema: el intento de eliminar un recurso durante una actualización por turnos antes de que todos los nodos ejecuten el software nuevo puede provocar un aviso grave en uno de los nodos. No elimine ningún recurso hasta que todos los nodos tengan instalado el software nuevo.

Solución: durante una actualización por turnos, no elimine ningún recurso de RGM hasta que todos los nodos tengan instalado el software nuevo.

La base de datos HADB no se reinicia tras el cierre e inicio de un clúster (6276868)

Resumen del problema: la base de datos HADB no se reinicia después de reiniciar los nodos del clúster. El usuario no tendrá acceso a la base de datos.

Solución: reinicie uno de los servicios de datos de administración mediante el procedimiento que se indica debajo. Si dicho procedimiento no resuelve el problema, elimine la base de datos y vuelva a crearla.

ProcedureReinicio de un servicio de datos de administración

Pasos
  1. Escriba el siguiente comando en el nodo que se va a parar: La opción -h no debe incluir el nombre del nodo en el que desea que se detenga el agente de administración.


    scswitch -z -g hadb resource grp -h node1, node2...
    
  2. Cambie de nuevo el grupo de recursos al nodo original.


    scswitch —Z —g hadb resource grp
    
  3. Compruebe el estado de la base de datos. Espere hasta que la base de datos muestre el estado “detenido”.


    hadbm status -n database
    
  4. Inicie la base de datos.


    hadbm start database
    

SUNW.iim muestra un tamaño 0 tras agregar el paquete SUNWiimsc (6277593)

Resumen del problema: el paquete SUNWiimsc de sun_cluster_agents no es válido. Después de agregar dicho paquete, el tamaño de SUNW.iim en /opt/SUNWiim/cluster es 0.

Solución: sustituya el paquete SUNW.iim y vuelva a registrarlo mediante los pasos que se indican debajo.

ProcedureCómo instalar el paquete SUNW.iim correcto

Pasos
  1. Copie el paquete SUNW.iim correcto desde el CD-ROM.


    # cp 2of2_CD/Solaris_arch/Product/sun_cluster_agents/Solaris_os
    /Packages/SUNWiimsc/reloc/SUNWiim/cluster/SUNW.iim /opt/SUNWiim/Cluster/SUNW.iim
    
  2. Elimine cualquier registro de SUNW.iim existente.


    # rm /usr/cluster/lib/rgm/rtreg/SUNW.iim
    
  3. Registre el servicio de datos en Sun Cluster.


    sh 2of2_CD/Solaris_arch/Product/sun_cluster_agents/
    Solaris_os/Packages/SUNWiimsc/install/postinstall

Posible error al agregar un grupo IPMP nuevo mediante SunPlex Manager (6278059)

Resumen del problema: en ocasiones, al intentar agregar un grupo IPMP nuevo utilizando SunPlex Manager se produce un error y aparece el mensaje siguiente:


An error was encountered by the system. If you were performing an action
when this occurred, review the current system state prior to proceeding.

Solución: según la versión de IP que utilice, realice uno de los procedimientos que se indican debajo.

ProcedureAdición de un grupo IPMP nuevo mediante SunPlex Manager cuando se utiliza IPv4

Pasos
  1. Introduzca el siguiente comando:


    ifconfig interface inet plumb group groupname [addif address deprecated] 
    netmask + broadcast + up -failover
    
  2. Si se ha proporcionado una dirección de prueba, actualice el archivo /etc/hostname .interface para agregar:


    group groupname addif address netmask + broadcast + deprecated -failover up
  3. Si no se ha proporcionado ninguna dirección de prueba, actualice el archivo /etc/hostname.interface para agregar:


    group.groupname netmask + broadcast -failover up

ProcedureAdición de un grupo IPMP nuevo mediante SunPlex Manager cuando se utiliza IPv6

Pasos
  1. Introduzca el comando siguiente:


    ifconfig interface inet6 plumb up group groupname
    
  2. Actualice el archivo /etc/hostname6.interface para agregar las entradas siguientes:


    group groupname plumb up
  3. Si todavía no existe el archivo /etc/hostname6.interface, créelo y agregue las entradas mencionadas arriba.

El recurso HADB continúa reiniciándose tras provocar un aviso grave en uno de los nodos del clúster (6278435)

Resumen del problema: después de poner en línea el recurso y provocar un aviso grave en uno de los nodos del clúster (por ejemplo, shutdown o uadmin), el recurso continúa reiniciándose en los demás nodos. El usuario no podrá emitir ningún comando de administración.

Solución: para evitar este problema, inicie sesión en un solo nodo como usuario root u otro rol que tenga privilegios de acceso equivalentes y aumente el valor de probe_timeout para el recurso hasta los 600 segundos mediante el comando siguiente:


scrgadm -c -j hadb resource -x Probe_timeout=600

Para verificar el cambio, cierre uno de los nodos del clúster y compruebe que el recurso no entre en el estado de degradado.

En Solaris 10, los servicios escalables no funcionan cuando tanto las redes públicas como los transportes de Sun Cluster utilizan adaptadores controlados mediante bge(7D) (6278520)

Resumen del problema: la característica de equilibrio de carga de los servicios escalables de Sun Cluster no funciona en los sistemas Solaris 10 cuando las redes públicas y los transportes de Sun Cluster utilizan adaptadores controlados mediante bge. Entre las plataformas que incorporan NIC y utilizan bge se incluyen Sun Fire V210, V240 y V250.

Este problema no afecta a los servicios de datos de conmutación por error.

Solución: no configure las redes públicas ni los transportes de clústeres para que utilicen adaptadores controlados mediante bge.

No se puede ver el registro del sistema en SunPlex Manager cuando la configuración regional predeterminada es multibyte (6281445)

Resumen del problema: cuando la configuración regional predeterminada de SunPlex Manager se ha establecido en multibyte, no se puede ver el registro del sistema.

Solución: establezca C como configuración regional predeterminada o muestre manualmente el registro del sistema (/var/adm/messages) mediante un shell de línea de comandos.

No se puede poner en línea el agente del nodo utilizando scswitch en el nodo 1 (6283646)

Resumen del problema: es necesario configurar las instancias y los agentes de nodos para que escuchen en la dirección IP o el nombre de host de conmutación por error. Al crear los agentes de nodos y las instancias de Sun Java System Application Server, se establece de forma predeterminada el nombre de host del nodo físico. La dirección IP HTTP y la propiedad client-hostname se cambian en domain.xml. No obstante, como no se reinicia Domain Admin Server, los cambios no se aplican. Por lo tanto, los agentes de nodos sólo aparecen en el nodo físico en el que se configuraron, aunque no en el otro nodo.

Solución: cambie la propiedad client-hostname en la sección del agente del nodo de domain.xml, de forma que escuche en la dirección IP de conmutación por error y reinice Domain Admin Server para que se apliquen los cambios.

SunPlex Manager y Cacao 1.1 sólo admiten JDK 1.5.0_03 (6288183)

Resumen del problema: al utilizar SunPlex Manager en Sun Cluster 3.1 8/05 con Cacao 1.1, sólo se admite JDK 1.5.0_03.

Solución: instale JDK 1.5 manualmente mediante el procedimiento que se indica debajo.

ProcedureCómo instalar JDK 1.5 manualmente

Pasos
  1. Agregue JDK 1.5 desde el directorio de componentes compartidos de JES 4 (para obtener instrucciones, consulte las notas de la versión de JES 4).

  2. Detenga Cacao.


    # /opt/SUNWcacao/bin/cacaoadm stop
    
  3. Inicie Cacao.


    # /opt/SUNWcacao/bin/cacaoadm start
    

Se producen errores durante el inicio después de instalar la revisión 117949–14 de SC3.1 (8/05) en Solaris 9 y la revisión 117950–14 en Solaris 8 Java VM (6291206)

Resumen del problema: este error se produce en un sistema de Sun Cluster que ejecute la versión 3.1 (9/04) con las revisiones de actualización a Sun Cluster (8/05) al aplicar la revisión 117949-14 en un sistema que ejecute Solaris 9 o la revisión 117950-14 en un sistema que ejecute Solaris 8. Cuando se inicia el equipo, aparece el mensaje de error siguiente:


# An unexpected error has been detected by HotSpot Virtual Machine:
#
#  SIGSEGV (0xb) at pc=0xfaa90a88, pid=3102, tid=1
#
# Java VM: Java HotSpot(TM) Client VM (1.5.0_01-b07 mixed mode, sharing)
# Problematic frame:
# C  [libcmas_common.so+0xa88]  newStringArray+0x70
#
# An error report file with more information is saved as /tmp/hs_err_pid3102.log
#
# If you would like to submit a bug report, please visit:
#   http://java.sun.com/webapps/bugreport/crash.jsp
#

Solución: al actualizar desde Sun Cluster 3.1 (9/04) a Sun Cluster 3.1 (8/05), ademas de la revisión del núcleo central, instale la revisión de SPM introduciendo el comando que se indica debajo.

En un sistema que utilice Solaris 8, ejecute el comando siguiente después de aplicar la revisión del núcleo central 117950-14:


 patchadd patchdir/118626-04

En un sistema que utilice Solaris 9, ejecute el comando siguiente después de aplicar la revisión 117949-14:


patchadd patchdir/118627-04 

Posible error en el registro de recursos de Directory Server y Administration Server (6298187)

Resumen del problema: en ocasiones, el proceso de registro de los recursos de Directory Server y Administration Server no funciona correctamente. El sistema mostrará el siguiente mensaje:


Registration file not found for "SUNW.mps" in /usr/cluster/lib/rgm/rtreg

Solución: registre directamente el archivo que falta desde la ubicación pkg introduciendo uno de los siguientes comandos:

Los nodos de clústeres de Solaris 10 puede que no se comuniquen correctamente con equipos que tienen asignaciones de direcciones tanto IPv4 como IPv6 (6306113)

Resumen del problema: si un nodo de Sun Cluster que ejecute Solaris 10 no tiene interfaces IPv6 configuradas para redes públicas (por ejemplo, no para interconexiones de clústeres), no se podrá acceder a equipos que tengan asignaciones de direcciones tanto IPv4 como IPv6 en un servicio de nombres, como NIS. Los paquetes de las aplicaciones como telnet y traceroot que seleccionan la dirección IPv6 a través de IPv4 se enviarán a los adaptadores de transportes de clústeres y se eliminarán.

Solución: utilice una de las soluciones siguientes, de acuerdo con la configuración del clúster.