Omitir V�nculos de navegaci�n | |
Salir de la Vista de impresi�n | |
Notas de la versión de Oracle Solaris Cluster 4.0 Oracle Solaris Cluster 4.0 (Español) |
Notas de la versión de Oracle Solaris Cluster 4.0
Compatibilidad con Automated Installer
Nombres de paquetes de Cluster nuevos
Sistema de archivos raíz predeterminado de Oracle Solaris ZFS
Compatibilidad seleccionada para zonas no globales
HA para Oracle con replicación de Oracle Data Guard
Lo que no está incluido en el software Oracle Solaris Cluster 4.0
Comandos modificados en esta versión
Oracle Clusterware no puede crear todos los SID para el recurso ora.asm (12680224)
Las direcciones IP de una interfaz IP con errores ya no se pueden usar localmente (7099852)
La adición de un disco DID a una zona Solaris no acepta un comodín para *dsk (7081090)
Requisitos de software de Oracle Solaris Cluster Geographic Edition
Sistema operativo Oracle Solaris
Software de administración de volúmenes
x86: Error del comando clzonecluster export (7066586)
El uso de chmod para setuid devuelve error en zona no global del servidor secundario PxFS (7020380)
Las aplicaciones escalables no se aíslan entre clústeres de zona (6911363)
scinstall intenta crear un grupo IPMP en una interfaz de reserva (7095759)
Fallo del nombre de host lógico al conmutar por error causado por getnetmaskbyaddr() (7075347)
ssm_start falla debido a IPMP no relacionado inactivo (6938555)
Herramientas de gestión de parches
Conjunto de documentación de Oracle Solaris Cluster 4.0
El procedimiento de HA para zonas se movió al manual de servicio de datos
Páginas del comando man de la sección 3HA
Opción -c perfil_configuración.xml
Corrección al conjunto predeterminado de paquetes instalados por Automated Installer
Los siguientes problemas y errores conocidos afectan el funcionamiento del software Oracle Solaris Cluster y Oracle Solaris Cluster Geographic Edition 4.0 a partir del momento de la publicación. Los errores y problemas se agrupan en las categorías siguientes:
Póngase en contacto con los servicios de asistencia de Oracle para saber si hay disponible una corrección de código.
Resumen del problema: El siguiente comando podría fallar en máquinas x86.
# clzonecluster export zonename usage: export [-f output-file]
Solución alternativa: En su lugar, use el siguiente comando.
# zonecfg -z zone-cluster-name export
Resumen del problema: El comando chmod ejecutado desde una zona no global podría fallar en un sistema de archivos del clúster. El funcionamiento del comando chmod es correcto desde una zona no global en un nodo donde se ubica el PxFS principal, pero falla desde una zona no global en un nodo donde se ubica el PxFS secundario. Por ejemplo:
# chmod 4755 /global/oracle/test-file
Solución alternativa: Realice una de las siguientes acciones:
Realice la operación en cualquier nodo del clúster global que acceda al sistema de archivos del clúster.
Realice la operación en cualquier zona no global que se ejecute en el nodo principal PxFS que tenga un montaje de bucle de retorno para el sistema de archivos del clúster.
Cambie el PxFS principal al nodo del clúster global donde se está ejecutando la zona no global que detectó el error.
Resumen del problema: Cuando utiliza un archivo de configuración XML para crear recursos, si alguno de los recursos tiene propiedades de extensión que no son ajustables, es decir, el atributo de propiedad del recurso Tunable está establecido en None, el comando no puede crear el recurso.
Solución alternativa: Edite el archivo de configuración XML para eliminar las propiedades de extensión no ajustables del recurso.
Resumen del problema: Si utiliza zonas no globales con marca solaris10 con IP exclusivo en un host de Oracle Solaris Cluster, el comando clnode status con la opción -m o -v informa un error en el archivo /var/adm/messages similar al siguiente:
Cluster.CCR: [ID 544775 daemon.error] libpnm system error: Failed to resolve pnm proxy zonename
Este error no afecta la ejecución de la zona no global o del clúster. No es necesario que la zona con marca solaris10 esté bajo el control del clúster para que se vean los errores.
El problema sólo se ve en zonas con marca solaris10 con IP exclusivo. Este problema no se presenta cuando existen las siguientes condiciones:
La zona tiene la marca solaris y utiliza un IP exclusivo.
La zona tiene la marca solaris10 y utiliza un IP compartido.
La zona tiene la marca solaris y utiliza un IP compartido.
Solución alternativa: No hay solución. Los mensajes de error no afectan la ejecución de la zona no global o del clúster global.
Resumen del problema: Si un nuevo dispositivo de almacenamiento se agrega a un clúster y se configura con tres o más rutas de DID, el nodo en que se ejecuta el comando cldevice populate puede no llegar a registrar su clave PGR en el dispositivo.
Solución alternativa: Ejecute el comando cldevice populate en todos los nodos del clúster o bien ejecute el comando cldevice populate dos veces en el mismo nodo.
Resumen público: La desactivación del aislamiento de un dispositivo compartido con una carga de E/S activa podría provocar un error grave de conflicto de reserva para uno de los nodos conectado al dispositivo.
Solución: Desactive la E/S del dispositivo antes de desactivar el aislamiento de ese dispositivo.
Resumen del problema: Cambiar una configuración de un clúster de tres nodos a uno de dos podría suponer la pérdida completa del clúster si uno de los nodos restantes abandona el clúster o se quita de la configuración del clúster.
Solución alternativa: Inmediatamente después de quitar un nodo de una configuración de clúster de tres nodos, ejecute el comando cldevice clear en uno de los nodos del clúster que quedan.
Resumen del problema: Si se crea un recurso NFS para un punto de montaje ZFS y el prefijo de este punto de montaje coincide con una entrada del sistema de archivos UFS en el archivo vfstab, el servicio de datos HA para NFS no podrá validarse si el sistema de archivos UFS no está montado en el nodo.
Solución alternativa: Monte el sistema de archivos UFS en el nodo donde el recurso HAStoragePlus que pertenece al sistema de archivos ZFS está en línea. Sólo debe hacer esto si se crea o se actualiza el recurso. En cualquier otro momento, no hay restricción que determine que el sistema de archivos UFS deba montarse antes de que el grupo de recursos pueda establecerse sin conexión o en línea, y que el grupo de recursos pueda cambiarse a cualquier nodo que se desee.
Resumen del problema: El código de Oracle Solaris Cluster no puede determinar la versión de Oracle CRS cuando el usuario su está utilizando el shell csh.
Solución alternativa: Un usuario que es propietario de ${CRS_HOME}/bin/srvctl no debe usar el shell csh.
Resumen del problema: El valor STOP_TIMEOUT en el servicio de datos HA para Oracle VM Server for SPARC es demasiado bajo para completar la migración de dominios invitados.
Solución alternativa: Aumente el valor predeterminado STOP_TIMEOUT a, por lo menos, 900, o al intervalo de tiempo de migración esperado multiplicado por 4.
Resumen del problema: Si las aplicaciones escalables configuradas para ejecutarse en clústeres de zona diferentes se enlazan a INADDR_ANY y usan el mismo puerto, los servicios escalables no pueden distinguir entre las instancias de estas aplicaciones que se ejecuten en clústeres de zona distintos.
Solución alternativa: No configure las aplicaciones escalables para enlazar a INADDR_ANY como la dirección IP local o para enlazarlas a un puerto que no entre en conflicto con otra aplicación escalable.
Resumen del problema: Al agregar o quitar un dispositivo NAS, la ejecución del comando clnas add o clnas remove en varios nodos al mismo tiempo podría dañar el archivo de configuración NAS.
Solución alternativa: Ejecute el comando clnas add o clnas remove en un solo nodo cada vez.
Resumen del problema: El comando cluster check utiliza servicios de Common Agent Container (CAC) para la comunicación entre nodos y requiere que CAC se esté ejecutando. Si algún administrador ejecuta la comprobación S6979686 mientras el nodo no es miembro del clúster y los servicios de CAC no se están ejecutando, aparece el siguiente mensaje:
Insufficient Data: 1; /usr/sbin/cacaoadm status: Unable to check SMF status
Solución alternativa: Puede ignorar este error. Seleccione la opción Omitir este error y continuar para continuar mientras instala el software Oracle Solaris Cluster.
Resumen del problema: Si desinstala Oracle Solaris Cluster y vuelve a instalarlo y configurarlo en el mismo entorno de inicio, el clúster se iniciará correctamente, pero podrían faltar algunos servicios de clúster. Ejecute el comando svcs -x y compruebe si hay servicios que comienzan con svc:/system/cluster.
# svcs -x svc:/system/cluster/rgm-starter:default (Resource Group Manager Daemon) State: offline since Fri Oct 28 18:30:36 2011 Reason: Dependency svc:/system/cluster/rpc-fed:default is absent. See: http://sun.com/msg/SMF-8000-E2 Impact: 5 dependent services are not running. (Use -v for list.)
Solución alternativa: Use los siguientes comandos para agregar el servicio que falta. En el siguiente ejemplo, se muestra la adición del servicio svc:/system/cluster/rpc-fed:default.
# service=svc:/system/cluster/rpc-fed:default # svccfg -s ${service%:*} add ${service##*:} # svccfg -s ${service} addpg general framework # svccfg -s ${service} delcust -M # svcadm enable ${service}
Luego, vuelva a ejecutar el comando svcs -x para comprobar si faltan más servicios de clúster.
Resumen del problema: Si los nodos del clúster tienen grupos IPMP creados con una configuración activa-reserva antes de que se realice la configuración de Oracle Solaris Cluster, el comando scinstall fallará con los siguientes mensajes de error durante la configuración de Oracle Solaris Cluster:
Configuring IP multipathing groups ...failed scinstall: Failed to retrieve the broadcast value for this adapter
Si el adaptador de reserva no tiene un valor de difusión, el comando scinstall imprime el mensaje de error anterior y no continúa con la creación del grupo. El comando scinstall, sin embargo, continuará sin problemas.
Solución alternativa: No se requiere una solución y se puede ignorar el mensaje.
Resumen del problema: Cuando se elimina un nodo del clúster con el comando clnode remove -F nombre_nodo, una entrada obsoleta del nodo eliminado podría permanecer en los grupos de dispositivos de Solaris Volume Manager.
Solución: Elimine el nodo del grupo de dispositivos de Solaris Volume Manager con el comando metaset antes de ejecutar el comando clnode remove -F nombre_nodo.
Si ejecutó el comando clnode remove -F nombre_nodo antes de eliminar el nodo del grupo de dispositivos de Solaris Volume Manager, ejecute el comando metaset desde un nodo de clúster activo para eliminar la entrada obsoleta del nodo del grupo de dispositivos de Solaris Volume Manager. Luego ejecute el comando clnode clear -F nombre_nodo para eliminar por completo del clúster todos los rastros del nodo.
Resumen del problema: Si hay rutas redundantes en el hardware de red entre los adaptadores de interconexión, la utilidad scinstall podría producir un error al configurar la ruta de interconexión entre ellos.
Solución: Si la detección automática detecta varias rutas de interconexión, especifique manualmente los pares de adaptadores para cada ruta.
Resumen del problema: La conmutación por error del nombre de host lógico requiere la obtención de la máscara de red de la red si nis está habilitado para el servicio de nombres netmasks. Esta llamada a getnetmaskbyaddr() se bloquea por un rato debido a CR 7051511, que podría bloquearse lo suficiente como para que el administrador de grupos de recursos (RGM) coloque el recurso en estado ERROR. Esto se produce aunque las entradas de máscara de red correctas estén en los archivos locales /etc/netmasks. Este problema afecta sólo a clústeres de hosts múltiples, como nodos del clúster que residen en subredes múltiples.
Solución alternativa: Configure el archivo /etc/nsswitch.conf, que es administrado por un servicio SMF, para usar sólo files para búsquedas de netmasks.
# /usr/sbin/svccfg -s svc:/system/name-service/switch setprop config/netmask = astring:\"files\" # /usr/sbin/svcadm refresh svc:/system/name-service/switch
Resumen del problema: Un recurso escalable que depende de un recurso SUNW.SharedAddress no puede conectarse debido a un error de un grupo IPMP ubicado en una subred no utilizada por el recurso de direcciones compartidas. Aparecen mensajes similares a los siguientes en el archivo syslog de los nodos del clúster:
Mar 22 12:37:51 schost1 SC SUNW.gds:5,Traffic_voip373,Scal_service_voip373,SSM_START: ID 639855 daemon.error IPMP group sc_ipmp1 has status DOWN. Assuming this node cannot respond to client requests.
Solución alternativa: Repare el grupo IPMP que ha fallado y reinicie el recurso escalable que ha generado el error.