Omitir Vínculos de navegación | |
Salir de la Vista de impresión | |
![]() |
Notas de la versión de Oracle Solaris Cluster 3.3 3/13 Oracle Solaris Cluster 3.3 3/13 (Español) |
Notas de la versión de Oracle Solaris Cluster 3.3 3/13
Novedades del software Oracle Solaris Cluster 3.3 3/13
Nuevos asistentes clsetup para crear un cluster de zona
Dependencias de recursos que se pueden definir por nodo
Estructura de seguridad de cluster mejorada
Respuesta y detección de errores más rápidas por monitores de almacenamiento
Nuevo asistente clsetup para configurar el servicio de datos de Oracle PeopleSoft Application Server
Nuevo asistente clsetup para configurar el servicio de datos de Oracle WebLogic Server
Nuevo servicio de datos para Oracle External Proxy
Nuevo servicio de datos para SAP NetWeaver
Nuevo servicio de datos para Oracle PeopleSoft Enterprise Process Scheduler
Nuevo servicio de datos para Oracle Web Tier
Compatibilidad para la replicación de datos de Sun ZFS Storage Appliance con Geographic Edition
Oracle ACFS como sistema de archivos de cluster
Páginas de topología en Oracle Solaris Cluster Manager
Comandos modificados en esta versión
Oracle ASM con volúmenes lógicos reflejados de Solaris Volume Manager
El recurso proxy de ACFS se desconecta durante la instalación de binarios de Oracle (16581850)
Sistema operativo Oracle Solaris
Características no admitidas en esta versión
Dispositivos NAS de Network Appliance
Protocolo directo de socket (SDP)
No se puede definir el tamaño de la MTU de Jumbo Frame para la interfaz clprivnet (16618736)
El sistema de archivos de cluster no admite atributos extendidos (15790565)
No se puede registrar el tipo de recurso SUNW.scalable_acfs_proxy en un cluster de zona (15700050)
La detección automática no funciona en LDoms con E/S híbrida (15581535)
Se necesitan más comprobaciones de validación al combinar DID (15423531)
Recursos sun.storage_proxy.type en estado fuera de línea después de uadmin 5 1 (16910145)
La configuración activa-en espera no se admite para HA para TimesTen (16861602)
Un recurso de LDom desactivado mantiene el LDom en un estado vinculado (16323723)
Se producen errores al suprimir un recurso de HA LDom (16229698)
Las aplicaciones escalables no se aíslan entre clusters de zona (15611122)
El estado de DR sigue como unknown en un socio (15808054)
La ejecución del comando scinstall -u deja las zonas instaladas en el estado montado (15817301)
El resultado de la comprobación de requisitos del sistema es incorrecto (12185261)
El comando clzonecluster cancel puede generar un error (15950187)
Falla de nombre de host lógico al conmutar por error causada por getnetmaskbyaddr() (15733435)
Parches y niveles de firmware requeridos
Aplicación de un parche de núcleo de Oracle Solaris Cluster 3.3 3/13
Cómo se aplica el parche de núcleo de Oracle Solaris Cluster 3.3 3/13
Eliminación de un parche de núcleo de Oracle Solaris Cluster 3.3 3/13
Cómo se elimina un parche de núcleo de Oracle Solaris Cluster 3.3 3/13
Herramientas de gestión de parches
Parche para compatibilidad de cluster con matriz Sun StorageTek 2530
Kit de documentación de Oracle Solaris Cluster 3.3 3/13
Guía de instalación del software
Los siguientes errores y problemas conocidos afectan el funcionamiento de la versión Oracle Solaris Cluster 3.3 3/13. Póngase en contacto con el representante de asistencia de Oracle para averiguar si hay un arreglo disponible. Los errores y problemas se agrupan en las categorías siguientes:
Resumen del problema: la MTU de la interfaz de cluster clprivnet siempre está definido en el valor predeterminado de 1500 y no coincide con la MTU del cluster de la MTU de las interconexiones privadas subyacentes. Por lo tanto, no puede establecer el tamaño de la MTU de Jumbo Frame para la interfaz clprivnet .
Solución alternativa: no se conoce una solución. Póngase en contacto con el representante de asistencia de Oracle para averiguar si hay un parche disponible.
Resumen del problema: la utilidad de comprobación del cluster podría informar una infracción en la comprobación S6708502, que indica que el proceso en tiempo real ora_dism no se admite para Oracle Solaris Cluster.
Solución alternativa: omita la infracción en la comprobación para este proceso específico. Este proceso en tiempo real es nuevo para Oracle RAC 12c y se permite para Oracle Solaris Cluster.
Resumen del problema: el recurso de base de datos HA-Oracle no realizará una conmutación por error cuando falle la red pública si la base de datos HA-Oracle se ha configurado para utilizar el agente de escucha SCAN de Grid Infrastructure.
Solución alternativa: cuando utilice el agente de escucha SCAN de Oracle Grid Infrastructure con una base de datos HA-Oracle, agregue un host lógico con una dirección IP que esté en la misma subred que el agente de escucha SCAN en el grupo de recursos de base de datos HA-Oracle.
Resumen del problema: los atributos extendidos no son actualmente compatibles con los sistemas de archivos de cluster. Cuando un usuario monta un sistema de archivos de cluster con la opción de montaje xattr, se observa el siguiente comportamiento:
Las operaciones de atributos extendidos en un archivo normal generan el error ENOENT.
Las operaciones de atributos extendidos en un directorio dan como resultado operaciones normales en el propio directorio.
Por lo tanto, cualquier programa que acceda a los atributos extendidos de archivos en un sistema de archivos de cluster podría no obtener los resultados esperados.
Solución alternativa: monte un sistema de archivos de cluster con la opción de montaje noxattr.
Resumen del problema: si un servicio de datos de conmutación por error, como HA para Oracle, se configura con el recurso scalmountpoint para sondear y detectar un fallo de acceso al almacenamiento NAS y se interrumpe la interfaz de red (por ejemplo, debido a la pérdida de una conexión por cable), el sondeo del monitor se bloquea. Si la propiedad Failover_mode del recurso de servicio de datos se define en SOFT, esto da como resultado el estado stop-failed, y el recurso no realiza la conmutación por error. El mensaje de error asociado es similar al siguiente:
SC[SUNW.ScalMountPoint:3,scalmnt-rg,scal-oradata-11g-rs,/usr/cluster/lib/rgm /rt/scal_mountpoint/scal_mountpoint_probe]: Probing thread for mountpoint /oradata/11g is hanging for timeout period 300 seconds
Solución alternativa: cambie la propiedad Failover_mode en el recurso de servicio de datos a HARD.
# clresource set -p Failover_mode=HARD ora-server-rs # clresource show -v ora-server-rs | grep Failover_mode Failover_mode: HARD
Resumen del problema: la implementación actual requiere que haya un archivo RTR, en lugar de un enlace simbólico al archivo, en /usr/cluster/lib/rgm/rtreg.
Solución alternativa: ejecute los comandos siguientes como superusuario en un nodo del cluster global.
# cp /opt/SUNWscor/oracle_asm/etc/SUNW.scalable_acfs_proxy /usr/cluster/lib/rgm/rtreg/ # clrt register -Z zoneclustername SUNW.scalable_acfs_proxy # rm /usr/cluster/lib/rgm/rtreg/SUNW.scalable_acfs_proxy
Resumen del problema: los subcomandos clzonecluster boot, reboot y halt fallan, incluso si uno de los nodos de cluster no está en el cluster. Aparece un error parecido al siguiente:
root@pnode1:~# clzc reboot zoneclustername clzc: (C827595) "pnode2" is not in cluster mode. clzc: (C493113) No such object. root@pnode1:~# clzc halt zoneclustername clzc: (C827595) "pnode2" is not in cluster mode. clzc: (C493113) No such object.
Los subcomandos clzonecluster boot, reboot y halt deben saltear nodos que están en modo sin cluster, pero no deben fallar.
Solución alternativa: use la siguiente opción con los comandos clzonecluster boot o clzonecluster halt para especificar la lista de nodos para el subcomando:
-n nodename[,…]
La opción -n permite ejecutar los subcomandos en el subconjunto de nodos especificado. Por ejemplo, si, en un cluster de tres nodos con los nodos pnode1, pnode2 y pnode3, el nodo pnode2 se desactiva, puede ejecutar los siguientes subcomandos clzonecluster para excluir el nodo desactivado:
clzonecluster halt -n pnode1,pnode3 zoneclustername clzonecluster boot -n pnode1,pnode3 zoneclustername clzonecluster reboot -n pnode1,pnode3 zoneclustername
Resumen del problema: es posible que el comando chmod no pueda cambiar los permisos setuid en un archivo de un sistema de archivos de cluster. Si el comando chmod se ejecuta en una zona no global, y la zona no global no se encuentra en el servidor principal PxFS, el comando chmod no puede cambiar el permiso setuid.
Por ejemplo:
# chmod 4755 /global/oracle/test-file chmod: WARNING: can't change /global/oracle/test-file
Solución alternativa: realice una de las siguientes acciones:
Realice la operación en cualquier nodo del cluster global que acceda al sistema de archivos del cluster.
Realice la operación en cualquier zona no global que se ejecute en el nodo principal PxFS que tenga un montaje de bucle de retorno para el sistema de archivos del cluster.
Cambie el PxFS principal al nodo del cluster global donde se está ejecutando la zona no global que detectó el error.
Resumen del problema: cuando utiliza un archivo de configuración XML para crear recursos, si alguno de los recursos tiene propiedades de extensión que no son ajustables, es decir, el atributo de propiedad de recurso Tunable está establecido en None, el comando no puede crear el recurso.
Solución alternativa: edite el archivo de configuración XML para eliminar las propiedades de extensión no ajustables del recurso.
Resumen del problema: la desactivación del aislamiento de un dispositivo compartido con una carga de E/S activa podría provocar un aviso grave de conflicto de reserva para uno de los nodos conectado al dispositivo.
Solución alternativa: desactive la E/S del dispositivo antes de desactivar el aislamiento de ese dispositivo.
Resumen del problema: durante la configuración de cluster en dominios lógicos con E/S híbrida, la detección automática no notifica ninguna ruta para la interconexión de cluster.
Solución alternativa: al ejecutar la utilidad interactiva scinstall, elija configurar el nodo patrocinador y los nodos adicionales en operaciones independientes, en lugar de configurar todos los nodos en una sola operación. Cuando la utilidad le pregunte si desea usar la detección automática, responda que no. A continuación, puede seleccionar adaptadores de transporte de la lista proporcionada por la utilidad scinstall.
Resumen del problema: si un grupo de dispositivos Hitachi TrueCopy cuyo par de réplica se encuentra en el estado COPY o un grupo de dispositivos EMC SRDF cuyo par de réplica está dividido intentan cambiar el grupo de dispositivos a otro nodo, se produce un fallo en la operación de switchover. Además, el grupo de dispositivos no puede volver al estado en línea en el nodo original hasta que el par de réplica se vuelve a establecer en un estado apareado.
Solución alternativa: verifique que las réplicas TrueCopy no tengan el estado COPY o que las réplicas SRDF no estén divididas antes de intentar cambiar el grupo de dispositivos globales asociado de Oracle Solaris Cluster a otro nodo del cluster.
Resumen del problema: cambiar una configuración de un cluster de tres nodos a uno de dos podría suponer la pérdida completa del cluster si uno de los nodos restantes abandona el cluster o se quita de la configuración del cluster.
Solución alternativa: inmediatamente después de quitar un nodo de una configuración de cluster de tres nodos, ejecute el comando cldevice clear en uno de los nodos del cluster que quedan.
Resumen del problema: los comandos scdidadm y cldevice no pueden verificar si los dispositivos SRDF replicados que se combinarán en un único dispositivo DID son, en realidad, réplicas de ellos mismos y pertenecen al grupo de replicación especificado.
Solución alternativa: tenga cuidado al combinar dispositivos DID para utilizarlos con SRDF. Asegúrese de que las instancias de dispositivo DID especificadas sean réplicas de ellas mismas y que pertenezcan al grupo de replicación especificado.
Resumen del problema: Durante un cierre inesperado de un nodo de cluster, como, por ejemplo, un aviso grave de un nodo, el Oracle Clusterware sun.storage-proxy-resource del tipo sun.storage_proxy.type puede permanecer fuera de línea al iniciar el nodo. Esto, a su vez, causa que el recurso del proxy del servidor RAC de Oracle Solaris Cluster permanezca fuera de línea
Solución alternativa: realice los siguientes pasos.
Active el recurso del proxy de almacenamiento de ACFS manualmente.
# crsctl stop res sun.storage-proxy-resource -n nodename # crsctl start res sun.storage-proxy-resource -n nodename
Ponga en línea el recurso del proxy del servidor RAC de Oracle Solaris Cluster.
# clresourcegroup online rac-server-proxy-resource-group
Resumen del problema: la configuración activa-en espera de TimesTen requiere una integración de los métodos de Oracle Solaris Cluster en la utilidad ttCWadmin de TimesTen. Esta integración aún no se produjo, aunque se describa en la Oracle Solaris Cluster Data Service for Oracle TimesTen Guide . Por lo tanto, no utilice la configuración activa-en espera de TimesTen con Oracle Solaris Cluster HA para TimesTen y no use la utilidad ttCWadmin de TimesTen en Oracle Solaris Cluster.
El servicio de datos TimesTen de Oracle Solaris Cluster incluye un conjunto de tipos de recursos. La mayoría de estos tipos de recursos, se deben utilizar con las configuraciones activa-en espera de TimesTen. Solamente debe usar el tipo de recurso ORCL.TimesTen_server para tener configuraciones de TimesTen altamente disponibles con Oracle Solaris Cluster.
Solución alternativa: no utilice la configuración activa-en espera de TimesTen.
Resumen del problema: si ejecuta el comando clzonecluster halt zonecluster , seguido del comando clzonecluster boot zonecluster, uno o varios de los nodos no pueden iniciarse y se genera el siguiente error:
root@node1:/# clzonecluster boot zc1 Waiting for zone boot commands to complete on all the nodes of the zone cluster "zc1"... clzc: (C215301) Command execution failed on node node2. zoneadm: zone 'zc1': These file-systems are mounted on subdirectories of /gpool/zones/zone1/root: zoneadm: zone 'zc1': /gpool/zones/zone1/root/u01 zoneadm: zone 'zc1': call to zoneadmd failed
El nodo del cluster de zona no se iniciará y el comando clzonecluster status muestra los nodos como sin conexión.
Solución alternativa: desmonte el sistema de archivos en la zona global de los nodos sin conexión: /usr/sbin/umount/gpool/zones/zone1/root/u01 (en el caso anterior) y ejecute el siguiente comando en la zona global de cualquier nodo del cluster de zona: /usr/cluster/bin/clzonecluster boot -n offline-node zonecluster. Verifique que los nodos sin conexión estén ahora conectados mediante el comando /usr/cluster/bin/clzonecluster status.
Resumen del problema: cuando el recurso de HA para Oracle VM Server for SPARC (HA para dominios lógicos) se desactiva durante operaciones de mantenimiento manuales, se produce un error en la exportación de zpool. Este fallo se produce porque el estado vinculado del dominio lógico mantiene el zpool ZFS, que depende del recurso ZFS de conmutación por error, en un estado ocupado. Los procesos de switchover y conmutación por error no se ven afectados.
Solución alternativa: realice los siguientes pasos.
Libere recursos del dominio lógico.
# ldm unbind-dom ldom
Borre el recurso HASP que tiene el estado STOP_FAILED.
Para obtener más información, consulte Clearing the STOP_FAILED Error Flag on Resources de Oracle Solaris Cluster Data Services Planning and Administration Guide.
Resumen del problema: el sondeo de HAStoragePlus no vuelve a montar automáticamente un sistema de archivos ZFS de Solaris, si se ha desmontado.
Solución alternativa: proporcione un punto de montaje para el conjunto de datos y, luego, el sondeo de HAStoragePlus volverá a montar de forma automática todos los sistemas de archivos desmontados manualmente. Por ejemplo:
# zfs list NAME USED AVAIL REFER MOUNTPOINT pool-1 414K 417G 32K none pool-1/test1 31.5K 417G 31.5K /testmount1 pool-1/test2 31.5K 417G 31.5K /testmount2
Si se proporciona un punto de montaje a pool-1, el sondeo de HAStoragePlus volverá a montar de forma automática todos los sistemas de archivos desmontados manualmente.
# zfs set -p mountpoint=/pool-1 pool-1 # zfs list NAME USED AVAIL REFER MOUNTPOINT pool-1 414K 417G 32K /pool-1 pool-1/test1 31.5K 417G 31.5K /testmount1 pool-1/test2 31.5K 417G 31.5K /testmount2
Resumen del problema: cuando detiene el servicio de datos HA-OHS, aparece el mensaje /bin/grep: illegal option -q aunque el recurso se desconecta correctamente.
Solución alternativa: asegúrese de que los procesos de OHS no estén en ejecución antes de que el cluster tome el control de la aplicación OHS. Si los procesos no se ejecutan fuera del control del cluster, puede omitir este mensaje.
Resumen del problema: aparecen mensajes de error relacionados con la eliminación de una entrada de CCR (configuración de dominio) cuando se suprime el recurso.
Solución alternativa: estos mensajes de error son inofensivos y se pueden omitir.
Resumen del problema: si la aplicación WebLogic Server se configura en un sistema de archivos de conmutación por error, el asistente no puede crear un recurso. Si las instancias de WebLogic Server se configuran para escuchar en todas las direcciones IP, el asistente tampoco puede crear un recurso.
Solución alternativa: si la aplicación WebLogic Server se configura en un sistema de archivos de conmutación por error y el asistente no puede crear un recurso, cree manualmente el recurso HA-WLS para un sistema de archivos de conmutación por error. Si las instancias de WebLogic Server se configuran para escuchar en todas las direcciones IP y el asistente no puede crear un recurso, configure las instancias de modo que sólo escuchen en los hosts lógicos como se recomienda en la documentación, o bien cree manualmente el recurso HA-WLS.
Resumen del problema: se produce un error al configurar la estructura de RAC con el asistente de servicio de datos en un cluster de zona si el asistente se ejecuta desde un nodo que no forma parte del cluster de zona.
Solución alternativa: si desea configurar el servicio de datos en un cluster de zona, ejecute el asistente desde uno de los nodos que aloja el cluster de zona.
Resumen del problema: tras aplicar los parches de Samba 119757-20 (SPARC) o 119758-20 (x86), la ubicación de los archivos binarios cambia de /usr/sfw/bin a /usr/bin y de /usr/sfw/lib a /usr/lib/samba. Esto interrumpe el servicio de datos de Oracle Solaris Cluster para Samba.
Solución alternativa: si se han instalado los parches enumerados anteriormente, se debe volver a registrar el recurso de servicio de datos de Oracle Solaris Cluster para Samba (debe eliminarlo y registrarlo de nuevo). El archivo /opt/SUNWscsmb/util/samba_config debe especificar la nueva ubicación de los archivos binarios como se describió anteriormente. Una vez modificado el archivo samba_config, se debe ejecutar el archivo /opt/SUNWscsmb/util/samba_register para registrar el recurso nuevamente.
Resumen del problema: si se establece la propiedad Debug_level en 1, es imposible iniciar un recurso de instancia de diálogo en ningún nodo.
Solución alternativa: use Debug_level=2, que es un superconjunto de Debug_level=1.
Resumen del problema: cuando la entrada de archivo /etc/vfstab de un sistema de archivos de cluster tiene un valor de montaje en el inicio de no y el sistema de archivos de cluster se configura en un recurso SUNW.HAStoragePlus que pertenece a un grupo de recursos escalable, el recurso SUNW.HAStoragePlus no se puede conectar. El recurso permanece en el estado Starting hasta que se agota el tiempo de espera de prenet_start_method.
Solución alternativa: en la entrada de archivo /etc/vfstab del sistema de archivos de cluster, establezca el valor de montaje en el inicio en yes.
Resumen del problema: si las aplicaciones escalables configuradas para ejecutarse en clusters de zona diferentes se enlazan a INADDR_ANY y usan el mismo puerto, los servicios escalables no pueden distinguir entre las instancias de estas aplicaciones que se ejecuten en clusters de zona distintos.
Solución alternativa: no configure las aplicaciones escalables para enlazar a INADDR_ANY como la dirección IP local o para enlazarlas a un puerto que no entre en conflicto con otra aplicación escalable.
Al agregar o quitar un dispositivo NAS, la ejecución del comando clnas addo clnas remove en varios nodos al mismo tiempo podría dañar el archivo de configuración NAS.
Solución alternativa: ejecute los comandos clnas add o clnas remove en un nodo por vez.
Resumen del problema: cuando una zona no global de marca native se agrega a la lista de nodos de un grupo de recursos que contiene un recurso de HAStoragePlus con agrupaciones ZFS configuradas, el recurso de HAStoragePlus puede pasar al estado Faulted. Este problema sólo se produce cuando el nodo físico que aloja la zona native forma parte de la lista de nodos del grupo de recursos.
Solución alternativa: reinicie el grupo de recursos que contiene el recurso con errores de HAStoragePlus.
# clresourcegroup restart faulted-resourcegroup
Resumen del problema: : el asistente de configuración de Oracle RAC falla con el mensaje ERROR: Oracle ASM is either not installed or the installation is invalid! (Oracle ASM no está instalado o la instalación no es válida).
Solución alternativa: asegúrese de que la entrada “ASM” esté primero dentro del archivo /var/opt/oracle/oratab, de la siguiente forma:
root@phys-schost-1:~# more /var/opt/oracle/oratab … +ASM1:/u01/app/11.2.0/grid:N # line added by Agent MOON:/oracle/ora_base/home:N
Resumen del problema: la operación de recuperación falla cuando el cluster principal pierde el acceso al dispositivo de almacenamiento.
Solución alternativa: desactive el cluster principal que perdió el acceso al almacenamiento.
Resumen del problema: cuando Geographic Edition cambia un grupo de protección (PG) para que tenga el rol secundario, deja de gestionar los grupos de dispositivos de ASM por error. Si el cluster se reinicia después, y los LUN son de lectura y escritura, estos grupos de dispositivos se vuelven a activar por error. Al reiniciar Geographic Edition, se desactivarán las escrituras en esos LUN, y es posible que el usuario reciba varios errores de escritura graves en la consola del sistema. Estos errores no indican ningún problema grave y se pueden omitir. Geographic Edition funcionará correctamente.
Solución alternativa: omita los mensajes.
Resumen del problema: si un nodo deja el cluster cuando el sitio es el principal, los LUN de iSCSI o proyectos dejan de estar aislados. Sin embargo, después de un switchover o una recuperación, cuando el nodo se une al nuevo nodo secundario, los LUN de iSCSI o proyectos tienen aislamiento , y las aplicaciones en este nodo no pueden tener acceso al sistema de archivos después de que éste pase al nodo primario.
Solución alternativa: reinicie el nodo.
Resumen del problema: si Oracle Solaris Cluster Geographic Edition está configurado en un cluster de zona, se envían notificaciones duplicadas por correo electrónico sobre la pérdida de la conexión con clusters de socios desde el cluster de zona y el cluster global. Los correos electrónicos se deben enviar únicamente desde el cluster de zona.
Solución alternativa: éste es un efecto secundario del manejo de eventos de cluster. Este mensaje es inofensivo y los correos electrónicos duplicados deben omitirse.
Resumen del problema: el estado de DR se sigue informando como unknown, aunque los recursos de DR informen correctamente el estado de replicación.
Solución alternativa: ejecute el comando geopg validate protection-group para forzar una notificación de estado de grupo de recursos al grupo de protección.
Resumen del problema: si utiliza la interfaz de usuario del explorador (BUI) para detener la replicación, el grupo de protección pasa a un estado de error de configuración cuando falla la validación de grupo de protección.
Solución alternativa: desde la BUI, realice las siguientes acciones para detener la replicación.
En la ficha Shares (Recursos compartidos), seleccione el proyecto que se va a replicar.
Haga clic en la ficha Replication (Replicación) y seleccione la opción Scheduled (Programada).
Espere hasta que el estado cambie a manual y, a continuación, haga clic en el botón Enable/Disable (Activar/Desactivar).
Resumen del problema: cuando se utiliza la instalación centralizada, la utilidad scinstall no puede configurar el cluster cuando está activada la autenticación DES y los nodos se han especificado como nombres de host completos. Aparece un mensaje de error similar al siguiente:
Updating file ("ntp.conf.cluster) on node <FQ-host-name) ... failed scinstall: Failed to configure ("ntp.conf.cluster") on node <FQ-host-name> scinstall: scinstall did NOT complete successfully!
Solución alternativa: vuelva a ejecutar la utilidad scinstall y esta vez seleccione la opción para configurar un nodo por vez. Especifique el nombre del nodo sin el nombre de dominio. Si configura un cluster de dos nodos, se producirá un error en la configuración de quórum y el modo de instalación no se restablecerá. Restablezca manualmente el modo de instalación en ese caso, una vez que los nodos se hayan iniciado en modo de cluster.
Resumen del problema: un cluster de zona puede tener el estado Ready-Offline cuando se inicia debido a que no se ha completado la configuración del sistema Oracle Solaris en las zonas del cluster de zona. Las zonas del cluster de zona se encuentran en el modo de configuración interactiva del sistema en espera de la introducción de datos. Esto se produce cuando no hay ningún archivo de configuración del sistema (/etc/sysidcfg) o cuando el archivo no contiene todas las propiedades de configuración del sistema necesarias en la zona global del nodo del cluster.
Solución alternativa: antes de instalar un cluster de zona, cree el archivo /etc/sysidcfg y especifique todas las propiedades de configuración del sistema necesarias en todos los nodos del cluster. Las propiedades de configuración del archivo se utilizan para realizar la configuración del sistema Oracle Solaris de manera automática durante el primer inicio del cluster de zona. La lista de las propiedades necesarias de configuración del sistema Oracle Solaris puede variar de acuerdo con la versión del sistema operativo Oracle Solaris. Consulte Administración de Oracle Solaris: administración básica para obtener más detalles. Como alternativa, una vez que se haya instalado e iniciado el cluster de zona, utilice zlogin -C zone para iniciar sesión en todos los nodos del cluster de zona y completar manualmente la configuración del sistema Oracle Solaris.
Resumen del problema: la ejecución del comando scinstall -u deja las zonas "installed" en el estado "mounted". Este estado genera un problema para la actualización automática cuando se reinicia el sistema, ya que no puede corregir las rutas de zonas para el entorno de inicio alternativo.
Solución alternativa: realice los siguientes pasos.
Ejecute el comando svcadm disable zones.
Todas las zonas en ejecución deben tener ahora el estado montado. Es posible que el servicio entre en mantenimiento una vez transcurridos 100 segundos, pero esto no es un problema.
Ejecute el comando zoneadm —z zonename unmount para todas las zonas.
Escriba init 6.
Resumen del problema: el agente de Oracle Enterprise Manager Ops Center para Oracle Solaris 10 utiliza el software JavaDB para la base de datos de configuración. Al instalar el software Oracle Solaris Cluster con la utilidad installer, se reinstala el paquete de software JavaDB y, por lo tanto, se suprime una base de datos de configuración del agente.
Se notifican los siguientes mensajes de error en el agente de Ops Center tras eliminar el paquete:
java.sql.SQLException: Database '/var/opt/sun/xvm/agentdb' not found. at org.apache.derby.impl.jdbc.SQLExceptionFactory40.getSQLException(Unknown Source) at org.apache.derby.impl.jdbc.Util.newEmbedSQLException(Unknown Source) at org.apache.derby.impl.jdbc.Util.newEmbedSQLException(Unknown Source)
Se ha dañado el agente, y se debe desconfigurar o configurar.
Solución alternativa: instale manualmente en todos los nodos del cluster los siguientes paquetes JavaDB adicionales desde el medio de Oracle Solaris Cluster:
SUNWjavadb-demo
SUNWjavadb-javadoc
SUNWjavadb-docs
SUNWjavadb-client
Al ejecutar la utilidad installer, no se eliminan los paquetes de base de datos JavaDB existentes.
Resumen del problema: cuando emplea la utilidad installer en las configuraciones regionales Chino simplificado y Chino tradicional para instalar el software Oracle Solaris Cluster, el software que comprueba los requisitos del sistema notifica erróneamente que el espacio de intercambio es de 0 MB.
Solución alternativa: omita la información notificada. En estas configuraciones regionales, puede ejecutar el siguiente comando para determinar el espacio de intercambio correcto:
# df -h | grep swap
Resumen del problema: la configuración interactiva clzonecluster (que se abre con el comando clzonecluster configure zcname) puede bloquearse en algunas circunstancias cuando se ejecuta el subcomando cancel . Se muestra el mensaje de error Error executing zone configure command.
Solución alternativa: puede omitir este mensaje sin problemas. Debido a este problema, sólo se pierden los datos de configuración que no se guardaron. Para evitar un bloqueo de la utilidad de configuración, no utilice el comando cancel.
Resumen del problema: no se reconoce ninguna variable de entorno especificada en el manifiesto del servicio cuando el servicio se coloca bajo del control del tipo de recurso SUNW.Proxy_SMF_failover.
Solución alternativa: modifique los métodos de servicio para establecer las variables de entorno directamente.
Resumen del problema: las rutas de transporte del cluster se desconectan con el uso accidental del comando ifconfig unplumb en la interfaz del transporte privado.
Solución alternativa: desactive y vuelva a activar el cable al que la interfaz desactivada está conectada.
Determine el cable al que la interfaz está conectada.
# /usr/cluster/bin/clinterconnect show | grep Cable
Desactive el cable para esta interfaz en este nodo.
# /usr/cluster/bin/clinterconnect disable cable
Vuelva a activar el cable para establecer la ruta en línea.
# /usr/cluster/bin/clinterconnect enable cable
Resumen del problema: la conmutación por error del nombre de host lógico requiere obtener la máscara de red de la red si se activó nis/ldap para el servicio de nombres netmasks. Esta llamada a getnetmaskbyaddr() se bloquea por un rato debido a CR 7051511, que podría bloquearse lo suficiente como para que el administrador de grupos de recursos (RGM) coloque el recurso en estado ERROR. Esto se produce aunque las entradas de máscara de red correctas estén en los archivos locales /etc/netmasks. Este problema afecta sólo a clusters de hosts múltiples, como nodos del cluster que residen en subredes múltiples.
Solución alternativa: configure el archivo /etc/nsswitch.conf, que es administrado por un servicio SMF, para usar sólo files para búsquedas de netmasks.
# /usr/sbin/svccfg -s svc:/system/name-service/switch setprop config/netmask = astring:\"files\" # /usr/sbin/svcadm refresh svc:/system/name-service/switch