Omitir Vínculos de navegación | |
Salir de la Vista de impresión | |
![]() |
Notas de la versión de Oracle Solaris Cluster 4.1 Oracle Solaris Cluster 4.1 (Español) |
1. Notas de la versión de Oracle Solaris Cluster 4.1
Compatibilidad con el sistema operativo Oracle Solaris 11.2
Nuevos asistentes clsetup para crear un cluster de zona
Compatibilidad para clusters de zona con marca solaris10
Compatibilidad para clusters de zona de IP exclusiva
Compatibilidad para Trusted Extensions con clusters de zona
Dependencias de recursos que se pueden definir por nodo
Estructura de seguridad de cluster mejorada
Compatibilidad para el protocolo directo de socket mediante la interconexión del cluster
Respuesta y detección de errores más rápidas por monitores de almacenamiento
Agrupaciones de almacenamiento ZFS
Nuevo asistente clsetup para configurar el servicio de datos de Oracle PeopleSoft Application Server
Nuevo asistente clsetup para configurar el servicio de datos de Oracle WebLogic Server
Compatibilidad para servicios de datos de MySQL y MySQL Cluster
Servicio de datos nuevo para PostgreSQL
Servicio de datos nuevo para Samba
Servicio de datos nuevo para SAP NetWeaver
Servicio de datos nuevo para SAP MaxDB
Servicio de datos nuevo para Siebel 8.2.2
Servicio de datos nuevo para Sybase ASE
Servicio de datos nuevo para Oracle Traffic Director
Servicio de datos nuevo para Oracle TimesTen
Manual nuevo para el servicio de datos de SAP NetWeaver
Nuevo servicio de datos para Oracle External Proxy
Nuevo servicio de datos para Oracle PeopleSoft Enterprise Process Scheduler
Nuevo servicio de datos para Oracle Web Tier
Compatibilidad para el servicio de datos de Oracle E-Business 12.1.1
Compatibilidad para la replicación de datos de Sun ZFS Storage Appliance con Geographic Edition
Compatibilidad para EMC Symmetrix Remote Data Facility con Geographic Edition
Compatibilidad para la replicación de MySQL con Geographic Edition
Nuevas páginas del comando man para los comandos de mantenimiento avanzados ccradm y dcs_config
Compatibilidad seleccionada para zonas no globales
Lo que no está incluido en el software Oracle Solaris Cluster 4.1
Conjuntos de discos de Solaris Volume Manager en un cluster de zona
Comandos modificados en esta versión
El host lógico no realiza un failover con el fallo de la red pública (16979921)
Oracle ASM con volúmenes lógicos reflejados de Solaris Volume Manager
Volcados de núcleo osysmond en zona con marca S10 durante root.sh de GI e inicio de CRS (14456069)
Oracle Clusterware no puede crear todos los SID para el recurso ora.asm (12680224)
Es posible que la instalación de Oracle Solaris 11 SRU falle debido al comando pkg desactualizado
La agregación del adaptador principal al grupo IPMP elimina la configuración del DNS (7198718)
Requisitos de software de Geographic Edition
Sistema operativo Oracle Solaris
Software de administración de volúmenes
No se puede definir el tamaño de la MTU de Jumbo Frame para la interfaz clprivnet (16618736)
privnet no existente evita que clusters de zona se inicien pese a privnet válido (7199431)
El sistema de archivos de cluster no admite atributos extendidos (7167470)
Se necesitan más comprobaciones de validación al combinar DID (6605101)
La configuración activa-en espera no se admite para HA para TimesTen (16861602)
Pérdida de descriptor de archivo SUNW.Proxy_SMF_failover sc_delegated_restarter (7189211)
Las aplicaciones escalables no se aíslan entre clusters de zona (6911363)
El comando clresource show -p devuelve información incorrecta (7200960)
El estado de DR sigue como unknown en un socio (7189050)
El control sobre el secundario falla porque fs umount falló en el primario (7182720)
El asistente no detectará el SID de ASM (7190064)
cacao no se puede comunicar en máquinas que ejecutan Trusted Extensions (7183625)
Falla de nombre de host lógico al conmutar por error causada por getnetmaskbyaddr() (7075347)
Herramientas de gestión de parches
Conjunto de documentación de Oracle Solaris Cluster 4.1
Guía de HA para Oracle Solaris Zones
Guía de replicación de datos de Geographic Edition para Availability Suite de Oracle Solaris
Los siguientes problemas y errores conocidos afectan el funcionamiento del software de Oracle Solaris Cluster y Oracle Solaris Cluster Geographic Edition 4.1 a partir del momento de la publicación. Los errores y problemas se agrupan en las categorías siguientes:
Póngase en contacto con el representante de asistencia de Oracle para averiguar si hay un arreglo disponible.
Resumen del problema: el reinicio o la detención de un nodo de cluster de zona de IP exclusiva con marca solaris10 puede arrojar un aviso grave en los nodos de zona global. Esto se genera cuando los nodos de cluster de zona usan la red de base como interfaz de red (pública) principal y hay tarjetas de interfaz de red virtual (VNIC) en esa interfaz de red de base configuradas para otros nodos de cluster de zona de ese cluster.
Solución alternativa: Cree y use VNIC como interfaces de red principales para los clusters de zona de IP exclusiva.
Resumen del problema: Si utiliza el comando /usr/sbin/shutdown en una zona de un cluster de zona de IP exclusiva para detener o reiniciar la zona, el software de cluster puede detener otras zonas activas y en ejecución del cluster de zona.
Solución alternativa: No utilice el comando /usr/sbin/shutdown en una zona de un cluster de zona de IP exclusiva para detener o reiniciar la zona. En cambio, utilice el comando /usr/cluster/bin/clzonecluster en la zona global para detener o reiniciar una zona de un cluster de zona de IP exclusiva. El comando /usr/cluster/bin/clzonecluster es la mejor manera de detener o reiniciar una zona de cualquier tipo de cluster de zona. Si se presenta este problema, utilice el comando /usr/cluster/bin/clzonecluster para iniciar las zonas que haya detenido el software de cluster.
Resumen del problema: Al realizar la identificación del sistema en una zona de un cluster de zona de IP exclusiva con marca solaris10, el servicio SMF svc_private_network:default pasa al modo de mantenimiento en esa zona. En los reinicios siguientes de la zona, el problema no se presenta.
Solución alternativa: Después de realizar la configuración de la identificación del sistema en una zona de un cluster de zona de IP exclusiva con marca solaris10, reinicie esa zona.
Resumen del problema: la MTU de la interfaz de cluster clprivnet siempre está definido en el valor predeterminado de 1500 y no coincide con la MTU del cluster de la MTU de las interconexiones privadas subyacentes. Por lo tanto, no puede establecer el tamaño de la MTU de Jumbo Frame para la interfaz clprivnet .
Solución alternativa: no se conoce una solución.
Resumen del problema: el recurso de base de datos HA-Oracle no realizará una conmutación por error cuando falle la red pública si la base de datos HA-Oracle se ha configurado para utilizar el agente de escucha SCAN de Grid Infrastructure.
Solución alternativa: cuando utilice el agente de escucha SCAN de Oracle Grid Infrastructure con una base de datos HA-Oracle, agregue un host lógico con una dirección IP que esté en la misma subred que el agente de escucha SCAN en el grupo de recursos de base de datos HA-Oracle.
Resumen del problema: Los asistentes de configuración de servicio de datos existentes no permiten configurar recursos y grupos de recursos escalables de HAStoragePlus. Además, los asistentes tampoco pueden detectar recursos y grupos de recursos existentes escalables de HAStoragePlus.
Por ejemplo, durante la configuración de HA para WebLogic Server en modo de varias instancias, el asistente mostrará No highly available storage resources are available for selection. (No hay recursos de almacenamiento de alta disponibilidad disponibles para la selección), incluso cuando haya grupos de recursos y recursos escalables existentes de HAStoragePlus en el cluster.
Solución alternativa: Configure servicios de datos que utilicen recursos y grupos de recursos escalables de HAStoragePlus, de la siguiente forma:
Use los comandos clresourcegroup y clresource para configurar recursos y grupos de recursos de HAStoragePlus en modo escalable.
Use el asistente clsetup para configurar servicios de datos como si estuviesen en sistemas de archivos locales, como si no hubiese recursos de almacenamiento involucrados.
Use la CLI para crear una dependencia de reinicio fuera de línea en los recursos escalables de HAStoragePlus, que configuró en el Paso 1, y una afinidad positiva fuerte en los grupos de recursos escalables de HAStoragePlus.
Resumen del problema: Cuando un nodo de cluster de zona se elimina de un cluster de zona de IP exclusiva, los nodos de cluster global que alojan el cluster de zona de IP exclusiva arrojan un aviso grave. El problema sólo se detecta en un cluster global con interconexiones InfiniBand.
Solución alternativa: Detenga el cluster de zona de IP exclusiva antes de eliminar el nodo de cluster de zona.
Resumen del problema: Si se especifican enlaces de red no válidos o no existentes como recursos privnet en una configuración de cluster de zona de IP exclusiva (ip-type=exclusive), el nodo de cluster de zona no se puede unir al cluster de zona a pesar de la presencia de recursos privnet válidos.
Solución alternativa: Elimine el recurso privnet no válido de la configuración de cluster de zona y vuelva a iniciar el nodo de cluster de zona.
# clzonecluster reboot -n nodename zone-cluster
Si lo desea, también puede crear el enlace de red ausente que corresponde al recurso privnet no válido y, a continuación, reiniciar la zona. Consulte la página del comando man dladm(1M) para obtener más información.
Resumen del problema: En una cluster de zona de IP exclusiva, si configura un recurso net en el ámbito de nodo con la propiedad defrouter especificada y la propiedad allowed-address no especificada, el software de Oracle Solaris produce un error. El software de Oracle Solaris requiere que, para un cluster de zona de IP exclusiva, siempre se especifique la propiedad allowed-address si se especifica la propiedad defrouter. Si no lo hace, el software de Oracle Solaris informa el mensaje de error adecuado, pero el cluster ya completó el CCR con la información del cluster de zona. Esta acción deja el cluster de zona en el estado Unknown.
Solución alternativa: Especifique la propiedad allowed-address para el cluster de zona.
Resumen del problema: Los subcomandos clzonecluster boot, reboot y halt fallan, incluso si uno de los nodos de cluster no está en el cluster. Aparece un error parecido al siguiente:
root@pnode1:~# clzc reboot zoneclustername clzc: (C827595) "pnode2" is not in cluster mode. clzc: (C493113) No such object. root@pnode1:~# clzc halt zoneclustername clzc: (C827595) "pnode2" is not in cluster mode. clzc: (C493113) No such object.
Los subcomandos clzonecluster boot, reboot y halt deben saltear nodos que están en modo sin cluster, pero no deben fallar.
Solución alternativa: Use la siguiente opción con los comandos clzonecluster boot o clzonecluster halt para especificar la lista de nodos para el subcomando:
-n nodename[,…]
La opción -n permite ejecutar los subcomandos en el subconjunto de nodos especificado. Por ejemplo, si, en un cluster de tres nodos con los nodos pnode1, pnode2 y pnode3, el nodo pnode2 se desactiva, puede ejecutar los siguientes subcomandos clzonecluster para excluir el nodo desactivado:
clzonecluster halt -n pnode1,pnode3 zoneclustername clzonecluster boot -n pnode1,pnode3 zoneclustername clzonecluster reboot -n pnode1,pnode3 zoneclustername
Resumen del problema: los atributos extendidos no son actualmente compatibles con los sistemas de archivos de cluster. Cuando un usuario monta un sistema de archivos de cluster con la opción de montaje xattr, se observa el siguiente comportamiento:
Las operaciones de atributo extendido en un archivo normal fallan con el error ENOENT.
Las operaciones de atributo extendido en un directorio serán operaciones normales en el directorio.
Por lo tanto, cualquier programa que acceda a los atributos extendidos de archivos en un sistema de archivos de cluster podría no obtener los resultados esperados.
Solución alternativa: Monte un sistema de archivos de cluster con la opción de montaje noxattr.
Resumen del problema: Es posible que el comando chmod no pueda cambiar los permisos setuid en un archivo de un sistema de archivos de cluster. Si el comando chmod se ejecuta en una zona no global, y la zona no global no se encuentra en el servidor principal PxFS, el comando chmod no puede cambiar el permiso setuid.
Por ejemplo:
# chmod 4755 /global/oracle/test-file chmod: WARNING: can't change /global/oracle/test-file
Solución alternativa: realice una de las siguientes acciones:
Realice la operación en cualquier nodo del cluster global que acceda al sistema de archivos del cluster.
Realice la operación en cualquier zona no global que se ejecute en el nodo principal PxFS que tenga un montaje de bucle de retorno para el sistema de archivos del cluster.
Cambie el PxFS principal al nodo del cluster global donde se está ejecutando la zona no global que detectó el error.
Resumen del problema: cuando utiliza un archivo de configuración XML para crear recursos, si alguno de los recursos tiene propiedades de extensión que no son ajustables, es decir, el atributo de propiedad de recurso Tunable está establecido en None, el comando no puede crear el recurso.
Solución alternativa: edite el archivo de configuración XML para eliminar las propiedades de extensión no ajustables del recurso.
Resumen del problema: la desactivación del aislamiento de un dispositivo compartido con una carga de E/S activa podría provocar un aviso grave de conflicto de reserva para uno de los nodos conectado al dispositivo.
Solución alternativa: desactive la E/S del dispositivo antes de desactivar el aislamiento de ese dispositivo.
Resumen del problema: Si un grupo de dispositivos EMC SRDF cuyo par de réplica está dividido intenta conmutar el grupo de dispositivos a otro nodo, la operación de switchover falla. Además, el grupo de dispositivos no puede volver al estado en línea en el nodo original hasta que el par de réplica se vuelve a establecer en un estado apareado.
Solución alternativa: Verifique que las réplicas SRDF no estén divididas antes de intentar conmutar el grupo de dispositivos globales asociado de Oracle Solaris Cluster a otro nodo de cluster.
Resumen del problema: Cambiar una configuración de un cluster de tres nodos a uno de dos podría suponer la pérdida completa del cluster si uno de los nodos restantes abandona el cluster o se quita de la configuración del cluster.
Solución alternativa: Inmediatamente después de quitar un nodo de una configuración de clúster de tres nodos, ejecute el comando cldevice clear en uno de los nodos del clúster que quedan.
Resumen del problema: El comando cldevice no puede verificar si los dispositivos SRDF replicados que se combinan en un único dispositivo DID sean, en realidad, réplicas de ellos mismos y pertenezcan al grupo de replicación especificado.
Solución alternativa: tenga cuidado al combinar dispositivos DID para utilizarlos con SRDF. Asegúrese de que las instancias de dispositivo DID especificadas sean réplicas de ellas mismas y que pertenezcan al grupo de replicación especificado.
Resumen del problema: la configuración activa-en espera de TimesTen requiere una integración de los métodos de Oracle Solaris Cluster en la utilidad ttCWadmin de TimesTen. Esta integración aún no se produjo, aunque se describa en la Oracle Solaris Cluster Data Service for Oracle TimesTen Guide . Por lo tanto, no utilice la configuración activa-en espera de TimesTen con Oracle Solaris Cluster HA para TimesTen y no use la utilidad ttCWadmin de TimesTen en Oracle Solaris Cluster.
El servicio de datos TimesTen de Oracle Solaris Cluster incluye un conjunto de tipos de recursos. La mayoría de estos tipos de recursos, se deben utilizar con las configuraciones activa-en espera de TimesTen. Solamente debe usar el tipo de recurso ORCL.TimesTen_server para tener configuraciones de TimesTen altamente disponibles con Oracle Solaris Cluster.
Solución alternativa: no utilice la configuración activa-en espera de TimesTen.
Resumen del problema: La actualización de todas las propiedades de un recurso SUNW.ScalMountPoint que esté configurado con un sistema de archivos NAS para un cluster de zona pueden fallar y producir un mensaje de error parecido al siguiente:
clrs: hostname:zone-cluster : Bad address
Solución alternativa: Utilice el comando clresource para suprimir el recurso y, a continuación, vuelva a crear el recurso con todas las propiedades necesarias.
Resumen del problema: Considere un sistema de archivos de cluster con la siguiente entrada en el archivo /etc/vfstab del cluster global con un valor de montaje en inicio de no:
# cat /etc/vfstab /dev/md/datadg/dsk/d0 /dev/md/datadg/rdsk/d0 /global/fs-data ufs 5 no logging,global
Cuando un recurso de HAStoragePlus se crea en un grupo de recursos escalable de un cluster de zona y el sistema de archivos de cluster superior tiene el valor de montaje en inicio establecido en no, es posible que los datos del sistema de archivos de cluster no se puedan ver mediante el punto de montaje del nodo de cluster de zona.
Solución alternativa: Realice los siguientes pasos para evitar este problema.
Desde un nodo de cluster global, desconecte el grupo de recursos escalable del cluster de zona que contiene HAStoragePlus.
# clresourcegroup offline -Z zonecluster scalable-resource-group
En el archivo /etc/vfstab de cada nodo de cluster global, cambie el valor de montaje en inicio de la entrada del sistema de archivos del cluster a yes.
/dev/md/datadg/dsk/d0 /dev/md/datadg/rdsk/d0 /global/fs-data ufs 5 yes logging,global
Desde un nodo de cluster global, conecte el grupo de recursos escalable del cluster de zona que contiene HAStoragePlus.
# clresourcegroup online -Z zonecluster scalable-resource-group
Resumen del problema: : el asistente de configuración de Oracle RAC falla con el mensaje ERROR: Oracle ASM is either not installed or the installation is invalid! (Oracle ASM no está instalado o la instalación no es válida).
Solución alternativa: : Asegúrese de que la entrada “ASM” esté primero dentro del archivo /var/opt/oracle/oratab, de la siguiente forma:
root@phys-schost-1:~# more /var/opt/oracle/oratab … +ASM1:/u01/app/11.2.0/grid:N # line added by Agent MOON:/oracle/ora_base/home:N
Resumen del problema: : La configuración del recurso de HA-WebLogic Server mediante el asistente clsetup dentro de una zona/un cluster de zona falla si WebLogic Server está instalado en un punto de montaje NFS.
Este problema no ocurre con el almacenamiento NFS en cluster global y si se utiliza un almacenamiento que no sea NFS.
Condición para este problema: Monte el almacenamiento NFS con WebLogic Server instalado dentro de las zonas y configure WebLogic Server con el asistente clsetup.
Mensaje de error: ERROR: The specified path is not a valid WebLogic Server domain location. Similar message will be displayed for Home Location, Start Script and Environment file
Finalmente falla en la detección del servidor de administración, gestionado o RPS.
Not able to find the WebLogic Administration Server Instance. Make sure the provided WebLogic Domain Location (<DOMAIN_LOCATION_PROVIDED>) is the valid one. No Reverse Proxy Server Instances found. You can't proceed further. No Managed Server instances found. You can't proceed further.
Solución alternativa: Configure el recurso de WebLogic Server manualmente.
Resumen del problema: Este problema afecta los recursos de Generic Data Service (GDS) que cumplen todas las condiciones siguientes.
No hay ninguna secuencia de comandos de sondeo personalizada configurada.
La propiedad network_aware está establecida en FALSE.
La propiedad Retry_count está establecida en -1.
Si los recursos siguen sin poder iniciarse, GDS los seguirá reiniciando para siempre. Hay un problema donde se produce el error Restart operation failed: cluster is reconfiguring (Error de operación de reinicio: el cluster se está reconfigurando). Esto genera que el recurso GDS no se reinicie automáticamente.
Solución alternativa: Desactive manualmente los recursos GDS afectados y, a continuación, vuelva a activarlos.
Resumen del problema: Cada vez que se desactiva o activa el recurso de proxy SMF SUNW.Proxy_SMF_failover, el recuento del descriptor de archivo aumenta en uno. Las conmutaciones repetidas pueden aumentar los descriptores de archivo a 256 y llegar al punto límite en el que el recurso ya no se puede establecer en línea nunca más.
Solución alternativa: Desactive y vuelva a activar el servicio SMF sc_restarter.
# svcadm disable sc_restarter # svcadm enable sc_restarter
Resumen del problema: Si se establece la propiedad Debug_level en 1, es imposible iniciar un recurso de instancia de diálogo en ningún nodo.
Solución alternativa: use Debug_level=2, que es un superconjunto de Debug_level=1.
Resumen del problema: Si las aplicaciones escalables configuradas para ejecutarse en clústeres de zona diferentes se enlazan a INADDR_ANY y usan el mismo puerto, los servicios escalables no pueden distinguir entre las instancias de estas aplicaciones que se ejecuten en clústeres de zona distintos.
Solución alternativa: No configure las aplicaciones escalables para enlazar a INADDR_ANY como la dirección IP local o para enlazarlas a un puerto que no entre en conflicto con otra aplicación escalable.
Resumen del problema: Al agregar o eliminar un dispositivo NAS, la ejecución del comando clnas add o clnas remove en varios nodos al mismo tiempo podría dañar el archivo de configuración NAS.
Solución alternativa: Ejecute el comando clnas add o clnas remove en un solo nodo cada vez.
Resumen del problema: En una zona no global con marca solaris10, el comando clresource show -p property devuelve información incorrecta.
Solución alternativa: Este error es provocado por binarios de versiones previas de Oracle Solaris Cluster 4.1 en la zona con marca solaris10. Ejecute el siguiente comando desde la zona global para obtener la información correcta sobre recursos de zonas no globales locales:
# clresource show -p property -Z zone-name
Resumen del problema: Si un nodo deja el cluster cuando el sitio es el principal, los LUN de iSCSI o proyectos dejan de estar aislados. Sin embargo, después de un switchover o una recuperación, cuando el nodo se une al nuevo nodo secundario, los LUN de iSCSI o proyectos tienen aislamiento , y las aplicaciones en este nodo no pueden tener acceso al sistema de archivos después de que éste pase al nodo primario.
Solución alternativa: Reinicie el nodo.
Resumen del problema: El estado de DR se sigue informando como unknown, aunque los recursos de DR informen correctamente el estado de replicación.
Solución alternativa: Ejecute el comando geopg validateprotection-group para forzar una notificación de estado de grupo de recursos al grupo de protección.
Resumen del problema: El control de un grupo de protección falla si umount del sistema de archivos falla en el sitio primario.
Solución alternativa: Realice los siguientes pasos.
Ejecute fuser -cufile-system.
Compruebe si existen ID de proceso de no aplicación, como cd, en el sitio principal.
Termine estos procesos antes de realizar una operación de control.
Resumen del problema: si utiliza la interfaz de usuario del explorador (BUI) para detener la replicación, el grupo de protección pasa a un estado de error de configuración cuando falla la validación de grupo de protección.
Solución alternativa: desde la BUI, realice las siguientes acciones para detener la replicación.
En la ficha Shares (Recursos compartidos), seleccione el proyecto que se va a replicar.
Haga clic en la ficha Replication (Replicación) y seleccione la opción Scheduled (Programada).
Espere hasta que el estado cambie a manual y, a continuación, haga clic en el botón Enable/Disable (Activar/Desactivar).
Resumen del problema: Si Oracle Solaris Cluster Geographic Edition está configurado en un cluster de zona, notificaciones duplicadas por correo electrónico sobre la pérdida de conexión con clusters de socios se envían desde el cluster de zona y el cluster global. Los mensajes de correo electrónico se deben enviar únicamente desde el cluster de zona.
Solución alternativa: Éste es un efecto secundario del manejo de eventos de cluster. Es inofensivo, y los duplicados se deben ignorar.
Resumen del problema: Al instalar agentes en una zona no global con marca solaris10 desde un DVD de Oracle Solaris Cluster 3.3 o 3.3 5/11, el comando clzoncecluster install-cluster falla si no especifica los parches que admiten zonas con marca solaris10.
Solución alternativa: Realice los siguientes pasos para instalar agentes de un DVD de Oracle Solaris Cluster 3.3 o 3.3 5/11 en una zona con marca solaris10.
Reinicie el cluster de zona en modo fuera de línea.
# clzonecluster reboot -o zonecluster
Ejecute el comando clzonecluster install-cluster especificando la información del parche de núcleo que admite zonas con marca solaris10.
# clzonecluster install-cluster -d dvd -p patchdir=patchdir[,patchlistfile=patchlistfile] \ -n node[,…]] zonecluster
Después de terminar la instalación, reinicie el cluster de zona para que vuelva a estar en línea.
# clzonecluster reboot zonecluster
Resumen del problema: Cuando el comando clzonecluster install se utiliza para instalar desde un DVD de la versión de Oracle Solaris Cluster, no se imprime ningún mensaje, pero no se instala nada en los nodos.
Solución alternativa: Para instalar la versión de Oracle Solaris Cluster en una zona con marca solaris10, no utilice el comando clzonecluster install, que se usa para instalar la imagen de Oracle Solaris 10. En su lugar, utilice el comando clzonecluster install-cluster.
Resumen del problema: El uso de letras mayúsculas en el nombre de host de nodo de cluster provoca que la creación de recursos de proxy de la instancia ASM falle.
Solución alternativa: Utilice sólo letras minúsculas para los nombres de host de nodos de cluster al instalar el software de Oracle Solaris Cluster.
Resumen del problema: : Al usar la utilidad clsetup para configurar la base de datos de HA para Oracle o HA para Oracle RAC, la pantalla del identificador del sistema de Oracle ASM no puede detectar o configurar el SID de Oracle ASM cuando un nombre de host de nodo de cluster está configurado con letras mayúsculas.
Solución alternativa: Utilice sólo letras minúsculas para los nombres de host de nodos de cluster al instalar el software de Oracle Solaris Cluster.
Resumen del problema: : El uso de letras mayúsculas en el nombre de host de nodo de cluster provoca que la creación de recursos de proxy de la base de datos RAC falle.
Solución alternativa: : Utilice sólo letras minúsculas para los nombres de host de nodos de cluster al instalar el software de Oracle Solaris Cluster.
Resumen del problema: Resulta difícil saber cuáles son los nombres de los agentes que se deben especificar cuando se utiliza el comando clzonecluster install-cluster para instalar agentes con la opción -s.
Solución alternativa: : Cuando se usa el comando clzonecluster install-cluster -d dvd -s {all | software-component [,…]} options zone-cluster para crear un cluster de zona con marca solaris10, puede especificar los siguientes componentes con la opción -s:
geo
9ias
apache
container
dhcp
dns
ebs (solamente SPARC)
hadb
ids
iws
kerberos
livecache
mqi
mqs
mys
n1ge
n1sps
nfs
obiee (solamente SPARC)
oep
ohs
opmn
oracle
pax (solamente SPARC)
PeopleSoft (solamente SPARC)
PostgreSQL
rac
s1as
s1mq
saa (solamente SPARC)
sag (solamente SPARC)
sap
sapdb
sapnetw
sapwebas
siebel (solamente SPARC)
smb
sybase
TimesTen
tomcat
wls
xvm (solamente SPARC)
Resumen del problema: Si la función Trusted Extensions del software de Oracle Solaris se activa antes de que el software de Oracle Solaris Cluster esté instalado y configurado, los procedimientos de configuración de Oracle Solaris Cluster no pueden copiar las claves de seguridad del contenedor de agente común de un nodo a otros nodos del cluster. Para que el contenedor funcione correctamente en los nodos del cluster, es necesario que existan copias idénticas de las claves de seguridad en todos los nodos de cluster.
Solución alternativa: Copie manualmente las claves de seguridad de un nodo de cluster global en el resto de los nodos del cluster global.
En cada nodo, detenga el agente de archivo de seguridad.
phys-schost# /usr/sbin/cacaoadm stop
En un nodo, cambie al archivo /etc/cacao/instances/default/.
phys-schost-1# cd /etc/cacao/instances/default/
Cree un archivo tar del directorio /etc/cacao/instances/default/.
phys-schost-1# tar cf /tmp/SECURITY.tar security
Copie el archivo /tmp/SECURITY.tar en todos los demás nodos del cluster.
Extraiga los archivos de seguridad de todos los nodos en los que haya copiado el archivo /tmp/SECURITY.tar.
Se sobrescriben todos los archivos de seguridad que ya existen en el directorio /etc/cacao/instances/default/.
phys-schost-2# cd /etc/cacao/instances/default/ phys-schost-2# tar xf /tmp/SECURITY.tar
Elimine el archivo /tmp/SECURITY.tar de todos los nodos del cluster.
Nota - Es preciso eliminar todas las copias del archivo tar para evitar riesgos de seguridad.
phys-schost-1# rm /tmp/SECURITY.tar phys-schost-2# rm /tmp/SECURITY.tar
En cada nodo, reinicie el agente de archivo de seguridad.
phys-schost# /usr/sbin/cacaoadm start
Resumen del problema: Cuando se elimina un nodo del cluster con el comando clnode remove -Fnodename, una entrada obsoleta del nodo eliminado podría permanecer en los grupos de dispositivos de Solaris Volume Manager.
Solución alternativa: Elimine el nodo del grupo de dispositivos de Solaris Volume Manager con el comando metaset antes de ejecutar el comando clnode remove -Fnodename.
Si ejecutó el comando clnode remove -F nombre_nodo antes de eliminar el nodo del grupo de dispositivos de Solaris Volume Manager, ejecute el comando metaset desde un nodo de cluster activo para eliminar la entrada obsoleta del nodo del grupo de dispositivos de Solaris Volume Manager. Luego ejecute el comando clnode clear -Fnodename para eliminar por completo del cluster todos los rastros del nodo.
Resumen del problema: Si hay rutas redundantes en el hardware de red entre los adaptadores de interconexión, la utilidad scinstall podría producir un error al configurar la ruta de interconexión entre ellos.
Solución alternativa: Si la detección automática detecta varias rutas de interconexión, especifique manualmente los pares de adaptadores para cada ruta.
Resumen del problema: Para un cluster de zona de IP compartida (ip-type=shared), si la zona no global subyacente de un nodo de cluster de zona se cierra mediante el comando uadmin 1 0 o uadmin 2 0, la conmutación por error resultante de los recursos LogicalHostname puede generar la configuración de direcciones IP duplicadas en un nuevo nodo primario. La dirección duplicada se marca con el indicador DUPLICATE hasta cinco minutos después; tiempo durante el cual la dirección no puede ser usada por la aplicación. Consulte la página del comando man ifconfig(1M) para obtener más información sobre el indicador DUPLICATE.
Solución alternativa: Use uno de los siguientes métodos.
Cierre de manera correcta el nodo de cluster de zona desde la zona global.
# /usr/cluster/bin/clzonecluster -n nodename halt zone-cluster
Antes de realizar una acción de cierre desde el nodo de cluster de zona, quite todos los grupos de recursos del nodo de cluster de zona.
# /usr/cluster/bin/clresourcegroup evacuate -n zone-cluster-node +
Resumen del problema: No se reconoce ninguna variable de entorno especificada en el manifiesto del servicio cuando el servicio se coloca bajo del control del tipo de recurso SUNW.Proxy_SMF_failover.
Solución alternativa: No hay solución.
Resumen del problema: Las rutas de transporte del cluster se desconectan con el uso accidental del comando ipadm disable-if en la interfaz del transporte privado.
Solución alternativa: desactive y vuelva a activar el cable al que la interfaz desactivada está conectada.
Determine el cable al que la interfaz está conectada.
# /usr/cluster/bin/clinterconnect show | grep Cable
Desactive el cable para esta interfaz en este nodo.
# /usr/cluster/bin/clinterconnect disable cable
Vuelva a activar el cable para establecer la ruta en línea.
# /usr/cluster/bin/clinterconnect enable cable
Resumen del problema: La conmutación por error del nombre de host lógico requiere la obtención de la máscara de red de la red si nis está activado para el servicio de nombres netmasks. Esta llamada a getnetmaskbyaddr() se bloquea por un rato debido a CR 7051511, que podría bloquearse lo suficiente como para que el administrador de grupos de recursos (RGM) coloque el recurso en estado ERROR. Esto se produce aunque las entradas de máscara de red correctas estén en los archivos locales /etc/netmasks. Este problema afecta sólo a clusters de hosts múltiples, como nodos del cluster que residen en subredes múltiples.
Solución alternativa: configure el archivo /etc/nsswitch.conf, que es administrado por un servicio SMF, para usar sólo files para búsquedas de netmasks.
# /usr/sbin/svccfg -s svc:/system/name-service/switch setprop config/netmask = astring:\"files\" # /usr/sbin/svcadm refresh svc:/system/name-service/switch
Resumen del problema: La ejecución de scinstall -u update en un nodo de cluster x86 no puede actualizar los paquetes del cluster en algunas ocasiones. Se informan los siguientes mensajes de error:
root@phys-schost-1:~# scinstall -u update Calling "scinstall -u preupgrade" Renamed "/.alt.s11u1_24a-2/etc/cluster/ccr" to "/.alt.s11u1_24a-2/etc/cluster/ccr.upgrade". Log file - /.alt.s11u1_24a-2/var/cluster/logs/install/scinstall.upgrade.log.12037 ** Upgrading software ** Startup: Linked image publisher check ... Done Startup: Refreshing catalog 'aie' ... Done Startup: Refreshing catalog 'solaris' ... Done Startup: Refreshing catalog 'ha-cluster' ... Done Startup: Refreshing catalog 'firstboot' ... Done Startup: Checking that pkg(5) is up to date ... Done Planning: Solver setup ... Done Planning: Running solver ... Done Planning: Finding local manifests ... Done Planning: Fetching manifests: 0/26 0% complete Planning: Fetching manifests: 26/26 100% complete Planning: Package planning ... Done Planning: Merging actions ... Done Planning: Checking for conflicting actions ... Done Planning: Consolidating action changes ... Done Planning: Evaluating mediators ... Done Planning: Planning completed in 16.30 seconds Packages to update: 26 Planning: Linked images: 0/1 done; 1 working: zone:OtherNetZC pkg: update failed (linked image exception(s)): A 'update' operation failed for child 'zone:OtherNetZC' with an unexpected return value of 1 and generated the following output: pkg: 3/4 catalogs successfully updated: Framework stall: URL: 'http://bea100.us.oracle.com:24936/versions/0/'
Solución alternativa: Antes de ejecutar el comando scinstall -u update, ejecute pkg refresh --full.