Este documento proporciona la siguiente información relacionada con el software SunTM Cluster 3.1 10/03.
Si desea obtener más información sobre los servicios de datos de Sun Cluster 3.1 10/03, consulte Sun Cluster 3.1 Data Services 10/03: Notas sobre la versión.
Este apartado proporciona información relacionada con las nuevas características, la funcionalidad y los productos admitidos en el sotware Sun Cluster 3.1 10/03.
El Protocolo para la notificación de la reconfiguración de los clústers (CRNP) proporciona un mecanismo donde pueden registrarse las aplicaciones y recibir la subsiguiente notificación asíncrona de los eventos de reconfiguración de Sun Cluster. Los servicios de datos que se ejecutan en el clúster y fuera de él se pueden registrar para la notificación de errores. Las notificaciones incluyen los cambios en la pertenencia al clúster, los grupos de recursos y el estado de éstos.
La Supervisión de la ruta de discos (DPM) informa a los administradores del sistema de los fallos en la ruta de los discos en el caso de las rutas primaria y secundaria. El mecanismo de detección de fallos en la ruta del disco genera un evento en la Estructura de eventos del clúster y permite la intervención manual.
Esta función reparte en bandas el tráfico IP enviado a las direcciones IP lógicas por nodo a través de las interconexiones privadas. El tráfico TCP se reparte en bandas en una granularidad por conexión. El tráfico de UDP se reparte en bandas por paquetes.
La integración del mecanismo de conocimientos eRAS de Sun con la utilidad sccheck(1M), aumenta enormemente la capacidad de sccheck para detectar configuraciones “vulnerables” reforzando muchas verificaciones eRAS existentes. Los informes sobre la vulnerabilidad se producen tanto desde nodos individuales, como desde el clúster.
Esta función permite el uso del Control de acceso basado en rol (RBAC) para la administración y el funcionamiento del clúster.
Esta función amplía la funcionalidad de Sun Cluster para admitir los clústers de un único nodo.
Esta función permite a los desarrolladores utilizar el entorno de desarrollo de Sun ONE Studio para crear agentes.
Esta función mejora scinstall(1M); ahora se puede instalar todos los nodos de un nuevo clúster desde un único punto de control. Además es compatible con la herramienta de instalación Solaris Web Start.
Los componentes de Sun Cluster adaptados a entornos nacionales están ahora disponibles en cinco idiomas y se pueden instalar mediante el programa Web Start. Si desea obtener más información, consulte Sun Cluster 3.1 10/03: Guía de instalación del software.
Idioma |
Componente de Sun Cluster adaptado a entornos nacionales |
---|---|
Francés |
Instalación Panel de control del clúster (CCP) Software de Sun Cluster Servicios de datos de Sun Cluster Módulo de Sun Cluster para Sun Management Center SunPlex Manager |
Japonés |
Instalación Panel de control del clúster (CCP) Software de Sun Cluster Servicios de datos de Sun Cluster Módulo de Sun Cluster para Sun Management Center SunPlex Manager Páginas de comando man de Sun Cluster Páginas de comando man del Panel de control del clúster Páginas de comando man de los servicios de datos de Sun Cluster |
Chino simplificado |
Instalación Panel de control del clúster (CCP) Software de Sun Cluster Servicios de datos de Sun Cluster Módulo de Sun Cluster para Sun Management Center SunPlex Manager |
Chino tradicional |
Instalación Panel de control del clúster (CCP) Software de Sun Cluster Servicios de datos de Sun Cluster Módulo de Sun Cluster para Sun Management Center SunPlex Manager |
Coreano |
Instalación Panel de control del clúster (CCP) Software de Sun Cluster Servicios de datos de Sun Cluster Módulo de Sun Cluster para Sun Management Center SunPlex Manager |
Si desea obtener más información sobre las mejoras en los servicios de datos, consulte Sun Cluster 3.1 Data Services 10/03: Notas sobre la versión.
Este apartado describe el software admitido y los requisitos de memoria del software Sun Cluster 3.1 10/03.
Sistema operativo y modificaciones: las versiones de Solaris admitidas y las modificaciones están disponibles en el URL siguiente:
Para obtener más información, consulte Modificaciones y niveles de firmware requeridos.
Gestores de volúmenes
En Solaris 8: Solstice DiskSuiteTM 4.2.1 y VERITAS Volume Manager 3.2 y 3.5.
En Solaris 9: Gestor de volúmenes de Solaris y VERITAS Volume Manager 3.5.
Si va a modernizar VERITAS Volume Manager (VxVM) de 3.2 a 3.5, la función Cluster Volume Manager (CVM) no estará disponible hasta que instale la clave de la licencia de CVM para la versión 3.5. En VxVM 3.5, la clave de la licencia de CVM para la versión 3.2 no activa CVM y se debe modernizar a la clave de licencia de CVM para la versión 3.5.
Sistemas de archivos
En Solaris 8: Solaris UFS y VERITAS File System 3.4 y 3.5.
En Solaris 9: Solaris UFS y VERITAS File System 3.5.
Servicios de datos (agentes): si desea obtener más información sobre los servicios de datos, consulte Sun Cluster 3.1 Data Services 10/03: Notas sobre la versión.
Los servicios de datos de Sun Cluster 3.0 se pueden ejecutar en el software Sun Cluster 3.1 10/03, excepto según se indica en Ejecución de Sun Cluster HA para Oracle 3.0 en el software Sun Cluster 3.1 10/03.
Requisitos de memoria: el software Sun Cluster 3.1 10/03 necesita una memoria extra más allá de lo que exige un nodo en condiciones normales de trabajo. La memoria extra equivale a 128 MB más un 10%. Por ejemplo, si un nodo autónomo requiere normalmente 1 GB de memoria, se precisarán 256 MB extras para cumplir con los requisitos de memoria.
RSMAPI: el software Sun Cluster 3.1 10/03 admite la Interfaz de programación de la aplicación de memoria remota compartida (RSMAPI) en interconexiones compatibles con RSM, como PCI-SCI.
Las restricciones siguientes se aplican a la versión Sun Cluster 3.1 10/03:
Restricciones de la Ruta múltiple de red IP (Protocolo de Internet)
Ejecución de Sun Cluster HA para Oracle 3.0 en el software Sun Cluster 3.1 10/03
Si desea obtener más información sobre otras restricciones o problemas conocidos, consulte Problemas conocidos.
Las cintas multisistema, el CD-ROM y el DVD-ROM no se admiten.
No se admite la Ruta alternativa (AP).
Los dispositivos de almacenamiento con más de una única ruta desde un nodo determinado del clúster hasta el contenedor no se admiten, excepto en los dispositivos de almacenamiento siguientes:
Sun StorEdgeTM A3500, para los que se admiten dos rutas a cada uno de los dos nodos
Cualquier dispositivo que admita Sun StorEdge Traffic Manager
Los dispositivos de almacenamiento EMC que utilicen EMC PowerPath
Si va a utilizar un servidor Sun EnterpriseTM 420R con una tarjeta PCI en la ranura J4701, la placa base debe estar en el nivel de guión 15 o por encima (501-5168-15 o superior). Si desea buscar el número de referencia y el nivel de revisión de la placa base, mire en el borde de la placa que está más cercano a la ranura PCI 1.
Se han observado avisos graves del sistema en los clústers cuando las tarjetas de E/S UDWIS se utilizan en la ranura 0 de una placa en un servidor Sun Enterprise 10000; no instale las tarjetas de E/S UDWIS en la ranura 0 de una placa en este servidor.
Si aumenta o reduce el número de anexos al nodo en un dispositivo del quórum, el recuento de votos del quórum no se vuelve a calcular automáticamente. Para restablecer el número correcto de votos del quórum se pueden eliminar de la configuración todos los dispositivos del quórum y volverlos a agregar.
No se admite SunVTSTM.
No se admite IPv6.
Los tipos de transporte de la Memoria remota compartida (RSM) se mencionan en la documentación pero no se admiten. Si utiliza RSMAPI, especifique dlpi como tipo de transporte.
No se admite la Interfaz coherente escalable (SCI) como interconexión del clúster. No obstante, se admite la interfaz PCI-SCI.
El software Sun Cluster reserva las interfaces de red lógica para uso propio.
Las aplicaciones de clientes que se ejecutan en los nodos del clúster no se deben asignar a direcciones IP lógicas de un servicio de datos de HA. Durante la recuperación de fallos, es posible que estas direcciones IP lógicas desaparezcan, dejando al cliente sin conexión.
Si va a modernizar VERITAS Volume Manager (VxVM) de 3.2 a 3.5, la función Cluster Volume Manger (CVM) no estará disponible hasta que instale la clave de la licencia de CVM para la versión 3.5. En VxVM 3.5, la clave de la licencia de CVM para la versión 3.2 no activa CVM y se debe modernizar a la clave de licencia de CVM para la versión 3.5.
En las configuraciones de Solstice DiskSuite/Solaris Volume Manager que utilizan mediadores, el número de sistemas de mediadores configurados en un conjunto de discos ha de ser exactamente dos.
La herramienta de DiskSuite (Solstice DiskSuite metatool) y el módulo de almacenamiento ampliado de Solaris Management Console (Gestor de volúmenes de Solaris) no son compatibles con Sun Cluster 3.1 10/03.
Con VxVM 3.2 o posterior, no se pueden desactivar las Rutas múltiples dinámicas (DMP) con el comando scvxinstall durante la instalación de VxVM. Este procedimiento se describe en el capítulo “Installing and Configuring VERITAS Volume Manager” in Sun Cluster 3.1 10/03: Guía de instalación del software. El uso de Rutas múltiples dinámicas de Veritas se admite en las configuraciones siguientes.
Una única ruta de E/S por nodo en el almacenamiento compartido del clúster.
Una solución admitida de rutas múltiples (Sun Traffic Manager, EMC PowerPath, Hiatchi HDLM) que gestiona las rutas de E/S múltiples por nodo con el almacenamiento compartido del clúster. No se admite el uso único de Rutas múltiples dinámicas (DMP) para gestionar varias rutas de E/S por nodo en el almacenamiento compartido.
Los grupos de discos raíz sencillos (rootdg creados en un único segmento del disco raíz) no se admiten como tipos de discos con VxVM en el software Sun Cluster 3.1 10/03.
No se admite el software RAID 5.
No se admiten las cuotas en los sistemas de archivos del clúster.
El software Sun Cluster 3.1 10/03 no admite el uso del sistema de archivos de bucle (LOFS) en los nodos del clúster.
El comando umount -f se comporta igual que umount sin la opción -f. No admite los desmontajes forzados.
El comando unlink(1M) no se admite en directorios que no estén vacíos.
No se admite el comando lockfs -d; use lockfs -n como solución alternativa.
El sistema de archivos del clúster no admite ninguna de las funciones del sistema de archivos de Solaris según las cuales se podría colocar un punto final de la comunicación en el espacio de nombres del sistema de archivos. Por este motivo, aunque cree un zócalo para el dominio de UNIX cuyo nombre sea una ruta del sistema de archivos del clúster, el zócalo no sobrevivirá a una anomalía de un nodo. Además, los fifos o conducciones con nombre que cree en un sistema de archivos del clúster no son accesibles de manera general, y tampoco debe intentar el uso de fattach desde un nodo diferente del nodo local.
No es posible desactivar la ejecución de los binarios en los sistemas de archivos del clúster que se monten mediante la opción de montaje forcedirectio.
No es posible volver a montar un sistema de archivos del clúster con la opción de montaje directio añadida en el momento de volver a efectuar el montaje.
No es posible establecer la opción de montaje directio en un único archivo mediante directio ioctl.
Las funciones siguientes de VxFS no se admiten en una configuración de Sun Cluster 3.1 10/03.
E/S rápida
Capturas
Puntos de comprobación de almacenamiento
Las asesorías de la antememoria se pueden usar, pero el efecto sólo se observa en un nodo concreto.
VERITAS CFS (precisa de la función de clúster de VERITAS y de VCS)
Todas las demás opciones y funciones de VxFS que se admiten en una configuración del clúster se admiten en el software Sun Cluster 3.1 10/03. Consulte la documentación de VxFS y las páginas de comando man para obtener detalles sobre las opciones de VxFS que se admiten, o no, en la configuración del clúster.
Las siguientes opciones específicas de montaje de VxFS no se admiten en una configuración de Sun Cluster 3.1 10/03.
convosync (Conversión a O_SYNC)
mincache
qlog, delaylog, tmplog
Si desea obtener información sobre la administración del sistema de archivos del clúster de VxFS en una configuración de Sun Cluster, consulte “Administering Cluster File Systems Overview” in Sun Cluster 3.1 10/03: Guía de administración del sistema.
Esta sección identifica las restricciones sobre el uso de la Ruta múltiple de red IP que se aplican solamente en un entorno de Sun Cluster 3.1 10/03 o que son diferentes de la información suministrada en la documentación de Solaris para la Ruta múltiple de red IP.
No se admite IPv6.
Todos los adaptadores de red pública deben estar en grupos de la Ruta múltiple de red IP.
En el archivo /etc/default/mpathd, no cambie TRACK_INTERFACES_ONLY_WITH_GROUPS de sí a no.
La mayoría de los procedimientos, directrices y restricciones identificados en la documentación de Solaris para la Ruta múltiple de red IP son los mismos que los de un entorno que sea o no del clúster. Por este motivo, consulte la documentación apropiada de Solaris para buscar información adicional sobre las restricciones de la Ruta múltiple de red IP.
Versión del sistema operativo |
Si desea obtener más instrucciones, vaya a... |
---|---|
Sistema operativo Solaris 8 |
IP Network Multipathing Administration Guide |
Sistema operativo Solaris 9 |
“IP Network Multipathing Topics” en System Administration Guide:Serie IP |
No configure los nodos de clústers como encaminadores (portales), ya que si el sistema se apaga, como los clientes no pueden buscar un encaminamiento alternativo no se pueden recuperar.
No configure los nodos del clúster como servidores NIS ni NIS+. No obstante los nodos del clúster pueden ser clientes de NIS o NIS+.
No utilice una configuración de Sun Cluster para proporcionar un arranque altamente disponible o un servicio de instalación en los sistemas clientes.
No utilice una configuración de Sun Cluster para proporcionar un servicio de rarpd.
Si desea instalar un servicio RPC en el clúster, el servicio no debe utilizar los siguientes números de programas: 100141, 100142 y 100248, ya que están reservados para los daemons de Sun Cluster rgmd_receptionist, fed y pmfd, respectivamente. Si el servicio RPC que instale también utiliza uno de estos números de programas, deberá cambiar el servicio para que utilice un número de programa diferente.
En la actualidad, Sun StorEdge Network Data Replicator (SNDR) sólo se puede utilizar con HAStorage. Esta restricción sólo se aplica al grupo de recursos ligeros que incluye el sistema lógico que SNDR utiliza para la replicación. El grupo de recursos de aplicaciones aún puede usar HAStoragePlus con SNDR. Puede utilizar un sistema de archivos a prueba de fallos con HAStoragePlus y SNDR mediante HAStorage para el grupo de recursos de SNDR y HAStoragePlus para el grupo de recursos de la aplicación, donde los recursos HAStorage y HAStoragePlus apuntan al mismo dispositivo DCS subyacente. Se está desarrollando una modificación para conseguir que SNDR trabaje con HAStoragePlus.
No se admite la ejecución de clases de programación de procesos de alta prioridad en los nodos del clúster. Los procesos que se ejecuten en la clase de programación de compartición del tiempo con una alta prioridad o los procesos que se ejecuten en la clase de programación en tiempo real no deben ejecutarse en los nodos del clúster. Sun Cluster se basa en los subprocesos del núcleo que no se ejecutan en la clase de programación en tiempo real. Otros procesos de compartición del tiempo que se ejecutan con una prioridad más alta de la normal o procesos en tiempo real pueden evitar que los subprocesos del núcleo de Sun Cluster adquieran los ciclos necesarios para la CPU.
El software Sun Cluster 3.1 10/03 sólo puede proporcionar servicio a aquellos servicios de datos que se suministran con el producto Sun Cluster o se configuran con la API de servicios de datos de Sun Cluster.
El software Sun Cluster actualmente no tiene un servicio de datos de HA para el subsistema sendmail(1M) que puede ejecutarse en nodos individuales del clúster, pero no estará muy disponible, incluidas las funcionalidades de entrega, encaminamiento, puesta en cola o intentos de recuperación del correo electrónico.
Si desea obtener información sobre las restricciones de servicios de datos específicos, consulte Sun Cluster 3.1 Data Services 10/03: Notas sobre la versión.
El servicio de datos de Sun Cluster HA para Oracle 3.0 se puede ejecutar en el software Sun Cluster 3.1 10/03 sólo si se utiliza con las versiones siguientes del sistema operativo Solaris:
Solaris 8, versión de 32 bits
Solaris 8, versión de 64 bits
Solaris 9, versión de 32 bits
El servicio de datos de Sun Cluster HA para Oracle 3.0 no puede ejecutarse en el software Sun Cluster 3.1 10/03 si se utiliza con la versión de 64 bits de Solaris 9.
Los siguientes problemas conocidos afectan al funcionamiento de la versión Sun Cluster 3.1 10/03. Si desea conocer la información más actual, consulte el documento Sun Cluster 3.1 10/03 Release Notes Supplement en línea en http://docs.sun.com.
Resumen del problema: el archivo /etc/mnttab no muestra el estado largefile más actual de un sistema de archivos VxFS montado globalmente.
Solución alternativa: use el comando fsadm para comprobar el estado largefile del sistema de archivos, en lugar de la entrada /etc/mnttab.
Resumen del problema: algunas veces, las rutas privadas de transporte de interconexión que terminan en un adaptador qfe no aparecen en línea.
Solución alternativa: siga los pasos que se indican a continuación:
El uso de scstat -W identifica el adaptador que falla. La salida mostrará todas las rutas de transporte con ese adaptador como uno de los puntos finales de la ruta en los estados faulted o waiting.
Utilice scsetup para eliminar de la configuración del clúster todos los cables conectados con el adaptador.
Utilice scsetup de nuevo para suprimir ese adaptador de la configuración del clúster.
Vuelva a añadir el adaptador y los cables.
Compruebe si aparecen las rutas. Si el problema persiste, repita los pasos que van del 1 al 5 varias veces.
Compruebe si aparecen las rutas. Si el problema persiste aún, rearranque el nodo con el adaptador que falla. Antes de rearrancar el nodo, el resto del clúster debe tener suficientes votos del quórum para sobrevivir al rearranque del nodo.
Resumen del problema: el recuento de un bloque de archivos no siempre es coherente en todos los nodos del clúster después de las operaciones de escritura para asignar bloques en un archivo disperso. En el caso de un sistema de archivos del clúster colocado en UFS (o VxFS 3.4), la incoherencia del bloque en los nodos del clúster desaparece en unos 30 segundos.
Solución alternativa: las operaciones de metadatos de archivos que actualizan el inode (touch, etc.) deben sincronizar el valor st_blocks de manera que las operaciones subsiguientes de metadatos aseguren la coherencia de los valores de st_blocks.
Resumen del problema: el servicio de datos de Sun Cluster HA para Oracle utiliza el comando su para iniciar y detener la base de datos. El servicio de la red puede que deje de estar disponible si una red pública del nodo del clúster falla.
Solución alternativa: en Solaris 9, configure los archivos /etc/nsswitch.conf de la manera siguiente, de modo que el servicio de datos se inicie y detenga correctamente en el caso de un fallo en la red:
En cada nodo que pueda ser primario para los recursos oracle_server u oracle_listener, modifique /etc/nsswitch.conf de manera que incluya las entradas siguientes para la contraseña, el grupo, la clave pública y las bases de datos de proyectos:
passwd: files
group: files
publickey: files
project: files
Resumen del problema: el desmontaje de un sistema de archivos del clúster falla en algunas ocasiones aunque el comando fuser muestre que no hay usuarios en ningún nodo.
Solución alternativa: vuelva a intentar el desmontaje después de que se hayan terminado todas las operaciones de E/S asíncronas en el sistema de archivos subyacente.
Resumen del problema: el agente Sun Cluster HA-Siebel no supervisará los componentes individuales de Siebel. Si se detecta un fallo en un componente Siebel, sólo se registrará un mensaje de advertencia en syslog.
Solución alternativa: reinicie el grupo de recursos del servidor Siebel cuyos componentes estén fuera de línea mediante el comando scswitch -R -h nodo -g grupo_recursos.
Resumen del problema: la instalación de la admisión de Sun Cluster para RAC en un nodo recién añadido provocará que las instancias de Oracle RAC dejen de estar disponibles.
Solución alternativa: si desea añadir un nodo a un clúster que se ejecute con la admisión de Oracle RAC sin perder la disponibilidad de la base de datos de Oracle RAC son necesarios unos pasos especiales en la instalación. En el ejemplo siguiente se describe el proceso de pasar de un clúster de 3 nodos a uno de 4, con Oracle RAC ejecutándose en los nodos 1, 2 y 3:
Instale Sun Cluster en el nuevo nodo (nodo 4).
Nota: no instale los paquetes de admisión de RAC en este momento.
Vuelva a arrancar el nuevo nodo en el clúster.
Cuando el nuevo nodo se haya unido al clúster, cierre la base de datos de Oracle RAC en uno de los nodos donde ya se esté ejecutando (nodo 1, en este ejemplo).
Rearranque el nodo donde la base de datos estaba simplemente cerrada (nodo 1).
Después de hacer una copia de seguridad del nodo (nodo 1), inicie la base de datos de Oracle en ese nodo para reanudar el servicio de la base de datos.
Si un único nodo es capaz de gestionar la carga de trabajo de la base de datos, cierre ésta en el resto de nodos (nodos 2 y 3) y rearranque éstos. Si se requiere más de un nodo para que admita la carga de trabajo de la base de datos, hágalos de uno en uno, como se describe en los pasos que van del 3 al 5.
Después de rearrancar todos los nodos se pueden instalar sin riesgos los paquetes de admisión de Oracle RAC en el nodo nuevo.
Resumen del problema: la secuencia remove no consigue anular el registro del tipo de recurso SUNW.gds y muestra el mensaje siguiente:
Resource type has been un-registered already.
Solución alternativa: después del uso de la secuencia remove, anule manualmente el registro SUNW.gds. También puede utilizar el comando scsetup o SunPlex Manager.
Resumen del problema: el uso del
comando shutdown o de comandos parecidos de Solaris (por
ejemplo uadmin) para cerrar un nodo del clúster
puede provocar un aviso grave del nodo y mostrar el mensaje siguiente:
CMM: Shutdown timer expired. Halting.
Solución alternativa: póngase en contacto con su representante de servicios de Sun para obtener asistencia. Este aviso grave es necesario para proporcionar una manera segura y garantizada para que otro nodo del clúster asuma los servicios que dispensaba el nodo que se está cerrando.
Resumen del problema: los clústers que utilicen los adaptadores ce en la interconexión privada pueden advertir tiempos de espera excedidos en la ruta y subsiguientes avisos graves de los nodos si uno o más nodos del clúster tienen más de cuatro procesadores.
Solución alternativa: configure el parámetro ce_taskq_disable en el controlador ce añadiendo set ce:ce_taskq_disable=1 al archivo /etc/system en todos los nodos del clúster y rearrancando éstos después. De este modo se asegura que las transacciones (y otros paquetes) se entreguen siempre en el contexto de una interrupción, suprimiendo los tiempos de espera de las rutas y los posteriores avisos graves del nodo. Las consideraciones del quórum se deben tener en cuenta al arrancar los nodos del clúster.
Resumen del problema: el comando scrgadm evita el alojamiento de nombres de sistemas lógicos o direcciones compartidas que pertenecen a una subred diferente de la del grupo IPMP (NAFO).
Solución alternativa: utilice el formulario siguiente del comando scrgadm:
scrgadm -a -j <resource> -t <resource_type> -g <resource_group> -x HostnameList=<logical_hostname> -x NetIfList=<nafogroup>@<nodeid>.
Observe que los nombres de los nodos no parecen funcionar en la NetIfList; utilice en su lugar identificadores de nodos (nodeid).
Resumen del problema: una recuperación de fallos o una conmutación insatisfactoria de un sistema de archivos puede llevar a éste a un estado de error.
Solución alternativa: desmonte y vuelva a montar el sistema de archivos.
Resumen del problema: si la conmutación de un grupo de dispositivos está en progreso cuando un nodo se une al clúster, el nodo que se une y la conmutación se pueden bloquear. Cualquier intento de acceder a un servicio de dispositivos también se bloqueará. Es más probable que ocurra esto en un clúster con más de dos nodos y si el sistema de archivos montado en el dispositivo es un sistema de archivos VxFS.
Solución alternativa: para evitar esta situación, no inicie los conmutadores del grupo de dispositivos mientras un nodo se esté uniendo al clúster. Si esta situación se produce, todos los nodos del clúster se deben rearrancar para restaurar el acceso a los grupos de dispositivos.
Resumen del problema: SunPlex Manager contiene una instalación de servicio de datos que configura un servicio de DNS altamente disponible en el clúster. Si el usuario no proporciona una configuración de DNS, como un archivo named.conf, el asistente intenta generar una configuración válida de DNS mediante la autodetección de una red y la configuración del servicio de nombres. No obstante, falla en algunos entornos de red, lo que provoca que el asistente falle sin emitir un mensaje de error.
Solución alternativa: cuando se le indique, proporcione al asistente de instalación del servicio de datos de DNS de SunPlex Manager un archivo named.conf válido. De lo contrario, siga los procedimientos documentados en el servicio de datos de DNS para configurar manualmente el DNS de alta disponibilidad del clúster.
Resumen del problema: SunPlex Manager contiene un asistente de instalación para el servicio de datos que configura un servicio de Oracle realmente disponible en el clúster, mediante la instalación y configuración de los binarios de Oracle, así como la creación de la configuración del clúster. No obstante, el asistente de instalación no funciona en la actualidad y provoca varios errores según la configuración del software de los usuarios.
Solución alternativa: instale y configure manualmente el servicio de datos de Oracle en el clúster, mediante los procedimientos proporcionados en la documentación de Sun Cluster.
Resumen del problema: al cerrar o rearrancar un nodo, éste puede bloquearse y la secuencia de cierre o rearranque puede que no se complete. El sistema se bloquea después de emitir el mensaje siguiente: Failfast: Halting because all userland daemons all have died.
Solución alternativa: antes de cerrar o rearrancar el nodo, ejecute el comando siguiente: psradm -f -a:
Para cerrar un nodo:
# scswitch -S -h <node>
# psradm -f -a
# shutdown -g0 -y -i0
Para rearrancar un nodo:
# scswitch -S -h <node>
# psradm -f -a
# shutdown -g0 -y -i6
En algunas instancias poco frecuentes, es posible que las soluciones alternativas sugeridas no consigan solucionar este problema.
Resumen del problema: en los sistemas grandes que ejecuten Sun Cluster 3.x el comando shutdown -g0 -y -i6, utilizado para rearrancar un nodo, puede hacer que el sistema vaya al indicador OK con el mensaje Failfast: Halting because all userland daemons have died, en vez de rearrancar.
Solución alternativa: utilice una de las soluciones alternativas siguientes:
Detenga el nodo y escriba boot en el indicador ok.
Desactive failfasts antes de rearrancar el nodo:
# /usr/cluster/lib/sc/cmm_ctl -f
# shutdown -g0 -y -i6
Recuerde volver a activar failfasts después de rearrancar el nodo:
# /usr/cluster/lib/sc/cmm_ctl -f
o aumente el tiempo de espera de failfast_panic_delay antes de cerrar el sistema, mediante el siguiente comando mdb:
(echo 'cl_comm`conf+8/W 0t600000' ;
echo 'cl_comm`conf+c/W 0t600000') | mdb -kw
De esta manera se ajusta el tiempo de espera en 600000 ms (10 minutos).
Resumen del problema: el proceso DLM de Oracle no termina durante el cierre y evita que /var se desmonte.
Solución alternativa: utilice una de las dos soluciones alternativas siguientes:
No utilice una partición separada de /var.
Utilice reboot/halt en lugar de init o shutdown.
Resumen del problema: la sonda receptora de Oracle puede superar el tiempo de espera en un sistema con gran carga, provocando que el receptor de Oracle se reinicie.
Solución alternativa: en un sistema con gran carga, los agotamientos del tiempo de espera de la sonda del recurso del receptor de Oracle se pueden evitar aumentando el valor de la propiedad Thorough_probe_interval del recurso.
El tiempo de espera de la sonda se calcula del modo siguiente:
10 segundos si Thorough_probe_interval es mayor de 20 segundos
60 segundos si Thorough_probe_interval es mayor de 120 segundos
Thorough_probe_interval/2 en otros casos
Resumen del problema: si está definido como TRUE, la propiedad del grupo de recursos de RG_system indica que el grupo de recursos y sus recursos se están utilizando para la admisión de la infraestructura del clúster, en lugar de implementar un servicio de datos del usuario. Si el valor de RG_system es TRUE, RGM evita que el administrador del sistema deje fuera de línea al grupo o a sus recursos o que modifique sus propiedades. En algunas instancias, el nodo puede producir avisos graves cuando se intenta modificar un grupo de recursos adecuadamente después de configurar correctamente la propiedad de RG_system como TRUE.
Solución alternativa: no modifique el valor de la propiedad del grupo de recursos de RG_system.
Resumen del problema: en cada nodo que pueda controlar el recurso liveCache, el comando su puede que se bloquee cuando la red pública se desconecte.
Solución alternativa: en cada nodo que pueda controlar el recurso liveCache, se recomiendan los cambios siguientes de /etc/nsswitch.conf, para que el comando su no se bloquee cuando la red pública esté desconectada:
passwd: files nis [TRYAGAIN=0]
Resumen del problema: los asistentes de instalación del servicio de datos de SunPlex Manager para Apache y Oracle no admiten Solaris 9 ni una versión superior.
Solución alternativa: instale manualmente Oracle en el clúster y consulte para ello la documentación de Sun Cluster. Si desea instalar Apache en Solaris 9 (o una versión superior), añada manualmente los paquetes de Apache para Solaris SUNWapchr y SUNWapchu antes de ejecutar el asistente de instalación.
Resumen del problema: si añade nodos a un clúster durante la instalación y la configuración, puede que vea un fallo en la “autenticación de RPC“. Los mensajes de error son parecidos a los siguientes:
“Eror de autentificación de RPC”
“No está autorizado a comunicarse con <nodo patrocinador>”
“La verificación del nombre de clúster no ha sido satisfactoria”
Solución alternativa: si un nombre de dominio no está configurado (es decir, si no se encuentra el archivo /etc/defaultdomain), configure el nombre del dominio en todos los nodos que se unan al clúster, mediante el comando domainname(1M) antes de proceder con la instalación. Por ejemplo, # domainname xxx.
Esta sección proporciona información sobre modificaciones para las configuraciones de Sun Cluster.
Debe ser un usuario registrado de SunSolveTM para ver y descargar las modificaciones requeridas por el producto Sun Cluster. Si no tiene una cuenta de SunSolve, póngase en contacto con su distribuidor o representante de servicios de Sun o regístrese en línea en http://sunsolve.sun.com.
PatchPro es una herramienta de gestión de modificaciones diseñada para facilitar la selección y la descarga de modificaciones necesarias para la instalación o mantenimiento de Sun Cluster. PatchPro proporciona una herramienta Modalidad interactiva específica de Sun Cluster para hacer que la instalación de modificaciones sea más fácil y una herramienta Modalidad Experto para mantener la configuración con el último conjunto de modificaciones que es especialmente útil cuando se desee obtener las últimas modificaciones, no sólo las de mayor disponibilidad ni las modificaciones de seguridad.
Para acceder a la herramienta PatchPro del software Sun Cluster, vaya a http://www.sun.com/PatchPro/, haga clic en “Sun Cluster,” y elija el Modalidad interactiva o Modalidad Experto. Siga las instrucciones de la herramienta PatchPro para describir la configuración del clúster y descargar las modificaciones.
La página web SunSolveTM Online proporciona acceso las 24 horas del día a la información más actualizada concerniente a las modificaciones, al software y al firmware de los productos de Sun. Acceda a la página web de SunSolve en http://sunsolve.sun.com para obtener las matrices más actuales del software, firmware y revisiones de modificaciones admitidas.
Puede encontrar información sobre modificaciones de Sun Cluster 3.1 10/03 a través de Info Docs. Si desea ver Info Docs, inicie la sesión en SunSolve y acceda a la selección de búsqueda Simple en la parte superior de la página principal. En la página Simple Search (Búsqueda simple) haga clic en el cuadro Info Docs y escriba Sun Cluster 3.1 en el cuadro de criterios de búsqueda. De este modo se abre la página Info Doc del software Sun Cluster 3.1.
Antes de instalar el software Sun Cluster 3.1 10/03 y aplicar las modificaciones en un componente del clúster (sistema operativo Solaris, software Sun Cluster, gestor de volúmenes, software de servicio de datos o hardware del disco), revise Info Docs y los archivos README que acompañen a las modificaciones. Todos los nodos del clúster deben tener el mismo nivel de modificaciones para conseguir un funcionamiento adecuado del cúster.
Si desea conocer los procedimientos específicos de las modificaciones y los consejos sobre la administración, consulte “Patching Sun Cluster Software and Firmware” in Sun Cluster 3.1 10/03: Guía de administración del sistema.
El conjunto de documentación para el usuario de Sun Cluster 3.1 10/03 está disponible en formatos PDF y HTML en Sun Cluster 3.1 10/03 CD-ROM.
El conjunto de documentación del usuario de Sun Cluster 3.1 Data Services 10/03 está disponible en Sun Cluster 3.1 Agents 10/03 CD-ROM.
El software del servidor AnswerBook2TM no es necesario para leer la documentación de Sun Cluster 3.1 10/03. Consulte el archivo index.html en el nivel superior del CD-ROM si desea obtener más información. Este archivo index.html permite leer los manuales en PDF y HTML directamente a partir del CD-ROM y acceder a las instrucciones para instalar los paquetes de documentación.
El paquete SUNWsdocs debe instalarse antes que los paquetes de documentación de Sun Cluster. Puede utilizar pkgadd para instalar el paquete SUNWsdocs. El paquete SUNWsdocs se encuentra en el directorio SunCluster_3.1/Sol_N/Packages/ de Sun Cluster 3.1 10/03 CD-ROM, donde N es 8 de Solaris 8 o 9 de Solaris 9. El paquete SUNWsdocs también se instala automáticamente si ejecuta el programa installer en el CD-ROM de documentación de Solaris 9.
El conjunto de la documentación del usuario de Sun Cluster 3.1 10/03 consta de las siguientes colecciones:
La colección de Sun Cluster 3.1 10/03 que contiene los manuales siguientes:
Sun Cluster 3.1: Guía de conceptos
Sun Cluster 3.1 11/03: Guía del desarrollador de los servicios de datos
Sun Cluster 3.1 10/03 Error Messages Guide
La colección Sun Cluster 3.x Hardware Administration Collection, que contiene los manuales siguientes:
Sun Cluster 3.x Hardware Administration Manual
Sun Cluster 3.x With Sun StorEdge 3310 Array Manual
Sun Cluster 3.x With Sun StorEdge 3510 FC Array Manual
Sun Cluster 3.x With Sun StorEdge 3900 or 6900 Series System Manual
Sun Cluster 3.x With Sun StorEdge 6120 Array Manual
Sun Cluster 3.x With Sun StorEdge 6320 System Manual
Sun Cluster 3.x With Sun StorEdge 9900 Series Storage Device Manual
Sun Cluster 3.x With Sun StorEdge A1000 or Netra st A1000 Array Manual
Sun Cluster 3.x With Sun StorEdge A3500/A3500FC System Manual
Sun Cluster 3.x With Sun StorEdge A5x00 Array Manual
Sun Cluster 3.x With Sun StorEdge D1000 or Netra st D1000 Disk Array Manual
Sun Cluster 3.x With Sun StorEdge D2 Array Manual
Sun Cluster 3.x With Sun StorEdge MultiPack Enclosure Manual
Sun Cluster 3.x With Sun StorEdge Netra D130 or StorEdge S1 Enclosure Manual
La colección de referencia Sun Cluster 3.1 10/03 Reference Collection que contiene el manual siguiente:
Si desea obtener una lista de los manuales incluidos en la colección Sun Cluster 3.1 Data Services 10/03 Collection, consulte Sun Cluster 3.1 Data Services 10/03: Notas sobre la versión.
Además, la sede web docs.sun.comSM permite acceder a la documentación en línea de Sun Cluster. Puede explorar docs.sun.com o buscar el tema o el título específico de un manual en la sede web siguiente:
Esta sección trata sobre los errores conocidos u omisiones en la documentación, la ayuda en línea o las páginas de comando man y corrige estos problemas.
Sun Cluster 3.1 10/03 no admite el transporte de RSM. Todas las referencias a éste que aparezcan en la colección de documentación de Sun Cluster se deben descartar.
Esta sección trata de errores conocidos u omisiones de Sun Cluster 3.1 10/03: Guía de instalación del software.
Esta sección trata errores y omisiones de la ayuda en línea de SunPlex Manager.
En el archivo de ayuda en línea “Sun Cluster HA for Oracle,”, en la sección “Before Starting,” existe una nota incorrecta.
Incorrecto:
Si no hay ninguna entrada para shmsys y semsys en /etc/system, se utilizarán automáticamente los valores predeterminados de dichas variables en /etc/system. A continuación se debe rearrancar el sistema. Consulte la documentación de instalación de Oracle para comprobar que estos valores sean correctos en la base de datos.
Correcto:
Si no hay ninguna entrada para las variables shmsys y semsys del archivo /etc/system cuando se instalen los servicos de datos Oracle, se puede abrir /etc/system e insertar los valores predeterminados de dichas variables. A continuación se debe rearrancar el sistema. Consulte la documentación de instalación de Oracle para comprobar que estos valores sean correctos en la base de datos.
En la tabla de "Perfiles de derechos de RBAC de Sun Cluster", las autorizaciones solaris.cluster.appinstall y solaris.cluster.install deben mostrarse en el perfil de Gestión de clúster en lugar de Funcionamiento del clúster.
En la tabla de “Perfiles de derechos de RBAC de Sun Cluster,” del perfil Comandos de Sun Cluster, sccheck(1M) también se debe incluir en la lista de comandos.
Esta sección trata los errores y omisiones de Sun Cluster 3.1 10/03: Guía de administración del sistema.
Los grupos de un único disco raíz no se admiten como tipos de discos con VERITAS Volume Manager en Sun Cluster. En consecuencia, si ejecuta el procedimiento “Cómo restaurar un sistema de archivos raíz (/) encapsulado (VERITAS Volume Manager)” en Sun Cluster 3.1 10/03: Guía de administración del sistema, debe ignorar el paso 9 que le pide determinar si el grupo del disco raíz (rootdg) se encuentra en un único dispositivo del disco raíz. Debe completar los pasos que van del 1 al 8, saltar el 9 y continuar con el 10 hasta el final del procedimiento.
Cuando aumente o reduzca el número de anexos del nodo en un dispositivo del quórum, el recuento de votos del quórum no se vuelve a calcular de manera automática. Puede volver a establecer el voto correcto del quórum si borra todos los dispositivos del quórum y los vuelve a añadir a la configuración.
Algunos mensajes de error relacionados con los servicios de datos del Sun Cluster no se encuentran en la Guía de mensajes de error. Si desea una lista de los mensajes de error que no se incluyeron en la colección de documentación, consulte Sun Cluster 3.1 Data Services 10/03: Notas sobre la versión
Los errores y omisiones relacionados con la documentación del servicio de datos se describen en Sun Cluster 3.1 Data Services 10/03: Notas sobre la versión.
Esta sección trata los errores y las omisiones de las páginas de comando man de Sun Cluster.
La página de comando man scconf_transp_adap_sci(1M) indica que los adaptadores de transporte SCI se pueden utilizar con el tipo de transporte rsm. Esta indicación es incorrecta. Los adaptadores de transporte SCI no admiten el tipo de transporte rsm. Los adaptadores de transporte SCI admiten solamente el tipo de transporte dlpi.
La siguiente frase explica el nombre de un adaptador SCI–PCI. Esta información no se incluye en la actualidad en la página de comando man scconf_transp_adap_sci(1M).
Nueva información:
Use the name sciN to specify an SCI adapter.
El párrafo siguiente explica el comportamiento del comando scgdevs. Esta información no se incluye actualmente en la página de comando man scgdevs(1M).
Nueva información:
scgdevs(1M) called from the local node will perform its work on remote nodes asynchronously. Therefore, command completion on the local node does not necessarily mean it has completed its work cluster wide.
En esta versión, el API_version actual se ha aumentado a 3 desde su valor anterior de 2. Si está desarrollando un agente de Sun Cluster y desea evitar que el nuevo tipo de recurso se registre en una versión anterior del software Sun Cluster, declare API_version=3 en el archivo RTR del agente. Si desea más información, consulte rt_reg(4) y rt_properties(5).
Si desea ver las páginas de comando man de los servicios de datos de Sun Cluster 3.0, instale las últimas modificaciones de los servicios de datos de Sun Cluster 3.0 que instaló en el software Sun Cluster 3.1 10/03. Consulte Modificaciones y niveles de firmware requeridos si desea obtener más información.
Tras aplicar la modificación, acceda a las páginas de comando man del servicio de datos de Sun Cluster 3.0 mediante la ejecución del comando man -M con la ruta completa de la página de comando man como argumento. El ejemplo siguiente abre la página de comando man de Apache.
% man -M /opt/SUNWscapc/man SUNW.apache |
Considere la opción de modificar MANPATH para activar el acceso a las páginas de comando man del servicio de datos de Sun Cluster 3.0 sin especificar la ruta completa. El ejemplo siguiente describe la entrada del comando para la adición de la ruta de la página de comando man de Apache en MANPATH y la visualización de la página de comando man de Apache.
% MANPATH=/opt/SUNWscapc/man:$MANPATH; export MANPATH % man SUNW.apache |