Este documento proporciona la siguiente información sobre el software de SunTM Cluster 3.2.
En esta sección, se proporciona información relacionada con las nuevas características, funciones y productos admitidos del software Sun Cluster 3.2. Asimismo, incluye información acerca de algunas restricciones introducidas en esta versión.
En estas secciones se proporcionan las siguientes nuevas características del software de Sun Cluster 3.2.
Nuevo conjunto de comandos orientados a objetos de Sun Cluster
Compatibilidad de Sun Cluster con los servicios de la utilidad de administración de servicios
Compatibilidad con la etiqueta Interfaz de firmware extensible (EFI) y discos con varios terabytes
Compatibilidad ampliada con los componentes de software de VERITAS
Creación automática de grupos de IPMP de varios adaptadores mediante scinstall
Compatibilidad del shell seguro con el software del panel de control del clúster
Compatibilidad del filtro IP con los servicios de conmutación por error
La nueva interfaz de línea de comandos de Sun Cluster incluye un comando diferente para cada tipo de objeto del clúster y utiliza letras de opciones y nombres de subcomandos coherentes. El nuevo conjunto de comandos de Sun Cluster admite también nombres de comandos largos y cortos. La salida del comando proporciona mensajes de error y ayuda mejorados, así como informes de configuración y estado que permiten una mejor lectura. Además, algunos comandos incluyen opciones de importación y exportación con el uso de archivos de configuración basados en XML portátiles. Estas opciones permiten repetir una parte de la configuración del clúster o la configuración completa, lo que acelera el proceso de clonación parcial o completa de la configuración. Consulte la página de comando man Intro(1CL) para obtener más información.
El paquete de instalación de Sun Cluster Oracle RAC, así como la configuración, se integra ahora en los procedimientos de Sun Cluster. Se pueden utilizar los nuevos tipos y propiedades de recursos específicos de Oracle RAC para obtener un control más preciso.
La capacidad de administración ampliada de Oracle RAC, proporcionada por los tipos de recursos ScalDeviceGroup y ScalMountPoint permite simplificar la integración de Oracle RAC en las configuraciones de Sun Cluster, así como mejorar la función de diagnóstico y la disponibilidad. Consulte Sun Cluster Data Service for Oracle RAC Guide for Solaris OS para obtener más información.
Sun Cluster proporciona nuevos asistentes para la configuración de servicios de datos que simplifican la configuración de las aplicaciones más utilizadas mediante la detección automática de los parámetros seleccionados y la validación inmediata. Los asistentes para la configuración de servicios de datos se proporcionan con dos formatos:
La GUI de Sun Cluster Manager
La interfaz de línea de comandos de clsetup
Se admiten los siguientes servicios de datos con el formato de GUI de Sun Cluster Manager:
HA-Oracle
Oracle RAC
HA-NFS
HA-Apache, todas las versiones incluidas en el software de Solaris
HA-SAP
El formato de interfaz de línea de comandos de clsetup admite todas las aplicaciones compatibles con Sun Cluster Manager.
Consulte la documentación de Sun Cluster de cada uno de los servicios de datos admitidos para obtener más información.
El software de Sun Cluster permite utilizar ahora un intervalo reducido de direcciones IP para las interconexiones privadas. Además, ahora puede personalizar la dirección IP base y su intervalo durante la instalación o después de ésta.
Estos cambios en el esquema de dirección IP facilitan la integración de los entornos de Sun Cluster en las redes existentes con espacios de dirección regulados o limitados. Consulte How to Change the Private Network Address or Address Range of an Existing Cluster de Sun Cluster System Administration Guide for Solaris OS para obtener más información.
El software de Sun Cluster proporciona ahora una completa integración con la Utilidad de administración de Servicios (SMF, Service Management Facility) del SO Solaris 10 y permite la encapsulación de aplicaciones controladas por SMF en el modelo de administración de recursos de Sun Cluster. SMF continúa realizando la administración local del ciclo de vida de nivel de servicio, mientras que las operaciones de administración de fallos del clúster de nivel de recursos (nodo, almacenamiento) las realiza el software de Sun Cluster.
Al transferir aplicaciones de un entorno de un único nodo del SO Solaris 10 a un entorno de varios nodos de Sun Cluster, aumenta la disponibilidad con un esfuerzo mínimo. Consulte Enabling Solaris SMF Services to Run With Sun Cluster de Sun Cluster Data Services Planning and Administration Guide for Solaris OS para obtener más información.
Esta nueva función permite la personalización del protocolo de separación predeterminado. Entre las opciones, se incluyen SCSI-3, SCSI-2 o detección por descubrimiento.
Esta flexibilidad permite el uso predeterminado de SCSI-3, un protocolo más reciente, para obtener mayor compatibilidad con la función de multirruta, una integración más sencilla con el almacenamiento en dispositivos que no son de Sun y tiempos de recuperación más cortos en el nuevo almacenamiento, a la vez que se mantiene la compatibilidad con el comportamiento de Sun Cluster 3.0 o 3.1 y SCSI-2 para los dispositivos más antiguos. Consulte Administering the SCSI Protocol Settings for Storage Devices de Sun Cluster System Administration Guide for Solaris OS para obtener más información.
Una nueva opción de dispositivo del quórum está disponible actualmente en el software de Sun Cluster. En lugar de utilizar un disco compartido y los protocolos de reserva de SCSI, ahora se puede utilizar un servidor de Solaris ubicado fuera del clúster para ejecutar un módulo de servidor del quórum, que admite un protocolo de reserva atómico a través de TCP/IP Esta compatibilidad permite acelerar el tiempo de conmutación por error y también reduce los costes de implementación: suprime la necesidad de un disco del quórum compartido para cualquier situación en la que se necesite (dos nodos) o desee el uso de un quórum. Consulte la Sun Cluster Quorum Server User’s Guide para obtener más información.
El software de Sun Cluster se puede configurar ahora para reiniciar automáticamente un nodo en caso de fallar todas las rutas a discos compartidos. Una reacción más rápida en caso de producirse un fallo grave de rutas de disco mejora la disponibilidad. Consulte Administering Disk-Path Monitoring de Sun Cluster System Administration Guide for Solaris OS para obtener más información.
Ahora se crean automáticamente puntos de montaje de HAStoragePlus en caso de producirse un fallo de montaje. Esta función impide que se produzcan situaciones de conmutación por error debido a un fallo, mejorando de esta forma la disponibilidad del entorno.
El software de Sun Cluster admite ahora los siguientes servicios de datos en las zonas no globales de Solaris.
Servicio de datos de Sun Cluster para Apache
Servicio de datos de Sun Cluster para Apache Tomcat
Servicio de datos de Sun Cluster para DHCP
Servicio de datos de Sun Cluster para el Servicio de nombres de dominio (DNS)
Servicio de datos de Sun Cluster para Kerberos
Servicio de datos de Sun Cluster para mySQL
Servicio de datos de Sun Cluster para N1 Grid Service Provisioning Server
Servicio de datos de Sun Cluster para Oracle
Servicio de datos de Sun Cluster para Oracle Application Server
Servicio de datos de Sun Cluster para PostgreSQL
Servicio de datos de Sun Cluster para Samba
Servicio de datos de Sun Cluster para Sun Java System Application Server
Servicio de datos de Sun Cluster para Sun Java System Message Queue Server
Servicio de datos de Sun Cluster para Sun Java System Web Server
Esta función permite combinar las ventajas de la contención de aplicaciones ofrecidas por las zonas de Solaris y el aumento de la disponibilidad proporcionado por el software de Sun Cluster. Consulte la documentación de Sun Cluster de los servicios de datos adecuados para obtener más información.
ZFS se admite como sistema de archivos local de alta disponibilidad en la versión Sun Cluster 3.2. ZFS, incluido en el software de Sun Cluster, ofrece una solución de sistema de archivos de alta calidad que combina la alta disponibilidad, la integridad de los datos, el rendimiento y la escalabilidad, satisfaciendo las necesidades de los entornos más exigentes.
Se están agregando continuas mejoras a ZFS para optimizar el rendimiento con todas las cargas de trabajo, sobre todo, las transacciones de base de datos. Asegúrese de que se hayan instalado las últimas revisiones de ZFS y de que se haya optimizado la configuración para su tipo de carga de trabajo específico.
Los clústers del campus basados en Sun Cluster admiten ahora la repetición basada en controladores de HDS TrueCopy, lo que permite la administración automatizada de las configuraciones de TrueCopy. El software de Sun Cluster administra de forma automática y transparente el cambio al sitio del campus secundario en caso de producirse una conmutación por error; de esta forma, la solución es menos propensa a presentar errores, a la vez que se mejora su disponibilidad general. Esta nueva infraestructura de repetición de datos remota permite al software de Sun Cluster admitir nuevas configuraciones para los clientes que se han estandarizado en una infraestructura de repetición específica como, por ejemplo, TrueCopy, y en ubicaciones en las que la repetición basada en host no es viable debido a la distancia o la incompatibilidad de las aplicaciones.
Esta nueva combinación aporta una disponibilidad mejorada y una menor complejidad a la par que un coste inferior. El software de Sun Cluster utiliza la infraestructura de repetición de cliente TrueCopy, lo que limita la necesidad de usar soluciones de repetición adicionales.
Los clústeres del campus basados en especificaciones admiten ahora una amplia gama de configuraciones a distancia. Estos clústeres admiten este tipo de configuraciones mediante el requisito de conformidad con una tasa de errores y latencia en lugar de con un conjunto fijo de distancias y componentes.
Consulte el Capítulo 7, Campus Clustering With Sun Cluster Software de Sun Cluster 3.1 - 3.2 Hardware Administration Manual for Solaris OS para obtener más información.
Las configuraciones de Sun Cluster admiten ahora discos con una capacidad superior a 1 TB, que utilizan el nuevo formato de disco Interfaz de firmware extensible (EFI, Extensible Firmware Interface). Este formato es necesario para los discos de varios terabytes, pero puede utilizarse con discos de menos capacidad. Esta nueva función amplía las configuraciones de Sun Cluster admitidas a entornos con requisitos de almacenamiento de gama alta.
El administrador de volúmenes y el sistema de archivos VERITAS, que forma parte de VERITAS Storage Foundation 5.0, se admiten ahora en las plataformas SPARC, así como VERITAS Volume Manager 4.1 con el SO Solaris 10 en las plataformas x86/x64.
VERITAS Volume Replicator (VVR) 5.0, y VERITAS Fast Mirror Resynchronization (FMR) 4.1 y 5.0, que forman parte de VERITAS FlashSnap, pueden utilizarse ahora en los entornos de Sun Cluster ubicados en las plataformas SPARC.
Ahora se puede utilizar la administración de cuota con HAStoragePlus en los sistemas de archivos UFS locales para obtener un mejor control del consumo de recursos.
El software de Sun Cluster ofrece actualmente una facilidad de uso mejorada para las implementaciones de Oracle, incluido el software de repetición de datos DataGuard. Los clientes pueden especificar ahora una base de datos HA-Oracle para que forme parte de la configuración de Oracle DataGuard como sitio principal o auxiliar. Esta base de datos puede ser un dispositivo auxiliar lógico o físico. Para obtener más información, consulte Sun Cluster Data Service for Oracle Guide for Solaris OS .
Cuando el agente de HA-Oracle administra una base de datos auxiliar, sólo controlará el inicio, la parada y la supervisión de esa base de datos. El agente no reiniciará la recuperación de la base de datos auxiliar si se conmuta por error a otro nodo.
Con esta nueva función de intercambio de software, el proceso de actualización se ha simplificado en gran medida. Cualquier componente de la pila de software, junto con el software de Sun Cluster, puede actualizarse en un solo paso: el sistema operativo Solaris, el software de Sun Cluster, los sistemas de archivos, los administradores de volúmenes, las aplicaciones y los servicios. Esta automatización reduce el riesgo de que se produzcan errores humanos durante la actualización del clúster y reduce al mínimo las posibilidades de que se produzcan interrupciones del servicio en una actualización del clúster estándar.
El método de actualización automática puede utilizarse ahora con el software de Sun Cluster. Este método reduce el tiempo de inactividad del sistema en un nodo durante la actualización, así como los reinicios innecesarios; por lo tanto, reduce el periodo de tiempo de mantenimiento necesario durante el que el servicio se encuentra en peligro.
En el momento de la publicación, la actualización automática sólo se puede utilizar si la instalación de Sun Cluster usa Solaris Volume Manager para administrar el almacenamiento o los grupos de discos. La actualización automática no admite actualmente VXVM. Consulte Actualización para obtener más información.
Cualquier actualización automática de Solaris 8 a Solaris 9 requiere la aplicación de la revisión de SVM 116669-18 antes de efectuar el reinicio desde el arranque alternativo.
La instalación de Sun Cluster Manager, la GUI de administración de Sun Cluster, es ahora opcional. Este cambio suprime el acceso basado en web al clúster para cumplir con las reglas de seguridad potenciales. Consulte Cómo instalar el marco de trabajo y los paquetes de software de servicio de datos de Sun Cluster de Software Sun Cluster: Guía de instalación para el sistema operativo Solaris para obtener información sobre cómo anular la selección de Sun Cluster Manager durante la instalación.
El software de Sun Cluster incluye un nuevo mecanismo de eventos de SNMP de Sun Cluster, así como un nuevo MIB de SNMP. Estas nuevas funciones permiten las aplicaciones de administración de SNMP de terceros para realizar el registro directamente con el software de Sun Cluster y recibir las notificaciones oportunas de los eventos del clúster. Una notificación de eventos precisa y la integración con estructuras de administración empresarial de terceros mediante la compatibilidad con SNMP estándar proporcionan una supervisión proactiva y una mayor disponibilidad. Consulte Creating, Setting Up, and Managing the Sun Cluster SNMP Event MIB de Sun Cluster System Administration Guide for Solaris OS para obtener más información.
La información de comandos puede registrarse ahora con el software de Sun Cluster. Esta capacidad facilita el diagnóstico de los fallos del clúster y proporciona un historial de las acciones de administraciones para las funciones de archivado o repetición. Para obtener más información, consulte How to View the Contents of Sun Cluster Command Logs de Sun Cluster System Administration Guide for Solaris OS.
El software de Sun Cluster ofrece nuevas herramientas de visualización y medición del uso de los recursos del sistema, incluida la medición precisa del consumo por nodo, recurso y grupo de recursos. Estas nuevas herramientas proporcionan datos de historial, así como administración de umbrales, y control y reserva de la CPU. Este control mejorado permite administrar de forma más eficaz la capacidad y el nivel de servicio.
La utilidad interactiva scinstall configura un grupo IPMP de un único adaptador o varios para cada conjunto de adaptadores de red pública en función de los adaptadores disponibles en cada subred. Esta funcionalidad sustituye al comportamiento anterior de la utilidad, en el que se creaba un grupo IPMP de un único adaptador para cada adaptador disponible de la subred. Para obtener más información sobre éste y otros cambios efectuados en las directivas de grupo IPMP, consulte Redes públicas de Software Sun Cluster: Guía de instalación para el sistema operativo Solaris.
Se ha agregado la compatibilidad del shell seguro con el panel de control del clúster (CCP) mediante las siguientes funciones:
Adición de compatibilidad del shell seguro con la utilidad cconsole. Para establecer conexiones del shell seguro a las consolas del nodo desde la interfaz gráfica de usuario (GUI) de cconsole, marque la casilla de verificación Usar SSH en el menú Opciones.
También puede iniciar directamente la utilidad en el modo de shell seguro introduciendo el siguiente comando en la línea de comandos:
cconsole -s [-l username] |
Introducción de la nueva utilidad cssh para establecer una conexión segura con los nodos del clúster.
Para obtener más información sobre la preparación y el uso de las funciones de shell seguro de CCP, consulte Cómo instalar el software Cluster Control Panel en una consola de administración de Software Sun Cluster: Guía de instalación para el sistema operativo Solaris. Para obtener información sobre las actualizaciones de las páginas de comando man relacionadas, consulte ccp(1M), cconsole(1M), crlogin(1M), cssh(1M) y ctelnet(1M), y serialports(4).
El nuevo número mínimo de interconexiones del clúster que debe tener un clúster se ha cambiado a una sola interconexión entre los nodos. Se ha modificado la utilidad interactiva scinstall para que permita la configuración de sólo una interconexión al usar esta utilidad en el modo personalizado. Para usar el modo típico de la utilidad, debe configurar dos interconexiones. Para obtener más información, consulte Interconexión de clúster de Software Sun Cluster: Guía de instalación para el sistema operativo Solaris.
El software de Sun Cluster 3.2 admite el filtro IP de Solaris para los servicios de conmutación por error. El filtro IP de Solaris proporciona funciones de filtrado de paquetes con estado y traducción de la dirección de red (NAT). También incluye la capacidad de crear y administrar conjuntos de direcciones. Para obtener más información sobre el filtro IP de Solaris, consulte la Parte IV, IP Security de System Administration Guide: IP Services en System Administration Guide: IP Services . Para obtener información sobre cómo configurar el filtrado IP con el software de Sun Cluster, consulte Uso de la función de filtrado IP de Solaris con Sun Cluster.
La función de separación requiere que cada clúster del nodo utilice siempre la misma dirección IP de origen al acceder a la unidad NetApp NAS. Los sistemas multiorigen utilizan varias direcciones IP de origen. El administrador de un sistema multiorigen debe asegurarse de que se utilice siempre una única dirección IP de origen al acceder a la unidad NetApp NAS. Para ello, se debe establecer la configuración de red adecuada.
Esta sección contiene información sobre problemas de compatibilidad de Sun Cluster como, por ejemplo, las funciones que están próximas a desaparecer.
Otros problemas de compatibilidad relacionados con la estructura de Sun Cluster aparecen documentados en el Capítulo 1, Planificación de la configuración de Sun Cluster de Software Sun Cluster: Guía de instalación para el sistema operativo Solaris.
Otros problemas de compatibilidad relacionados con la actualización de Sun Cluster aparecen documentados en el Requisitos de modernización y directrices para la compatibilidad del software de Software Sun Cluster: Guía de instalación para el sistema operativo Solaris.
Para conocer otros problemas o restricciones, consulte Problemas y errores conocidos.
Las siguientes funciones están próximas a su desaparición en el software de Sun Cluster 3.2.
A partir de la versión Sun Cluster 3.2, se dejará de utilizar Sun Cluster 3.0. El número de referencia de Sun Cluster 3.0 ya no estará disponible.
A partir de la versión Sun Cluster 3.2, Sun Cluster ya no admitirá Solaris 8.
Es posible que la función de actualización por turnos no esté disponible para la actualización de Sun Cluster a la siguiente versión inferior. En ese caso, se ofrecerán otros procedimientos diseñados para limitar las interrupciones del clúster durante las actualizaciones de software.
Es posible que el comando sccheck ya no se incluya en una próxima versión. Sin embargo, la funcionalidad correspondiente se proporcionará mediante el comando cluster check.
Los siguientes problemas conocidos pueden afectar al funcionamiento de la versión Sun Cluster 3.2 con el sistema operativo Solaris 10 11/06. Póngase en contacto con su representante de Sun para obtener las revisiones de Solaris necesarias para solucionar estos problemas. Para obtener más información, consulte el documento 87995.
Debe actualizar el sistema operativo a Solaris 10 11/06 antes de aplicar las revisiones de Solaris.
Se produce un error del comando metaset al reiniciar el servidor rpcbind.
Conjuntos de discos: la información de devid no se escribe en un conjunto de discos creado recientemente.
svm ha salido con el error 1 en el paso cmmstep5, aviso grave relacionado con los nodos.
fsck: svc:/system/filesystem/usr no se puede iniciar desde el punto none.
Solaris Volume Manager (SVM) no muestra el metaconjunto después de la actualización del clúster en x86.
El tiempo de espera de commd debería ser un porcentaje del valor de tiempo de espera de metaclust.
metaset -s diskset -t debería tomar posesión del nodo del clúster después del reinicio.
SVM elimina aún el conjunto de discos si falta el archivo nodeid de Sun Cluster.
fsck* svc:/systsem/filesystem/usr no se puede iniciar desde el punto destacado.
El nuevo elemento fsck_ufs(1M) presenta errores al utilizar el archivo ya montado.
Aviso grave relacionado con los nodos con CMM:el clúster ha perdido el quórum operativo en amd64.
create_ramdisk: no puede buscar el desplazamiento -1.
Se ha agregado la entrada etc/cluster/nodeid a filelist.ramdisk.
create_ramdisk debe reaccionar de forma más eficaz en relación con los archivos o directorios que faltan.
La eliminación del vínculo devfsadm no proporciona compatibilidad completa con la interposición.
Sun Cluster no admite la función fssnap perteneciente a UFS. Puede usar fssnap en sistemas locales que no estén controlados por Sun Cluster. Se aplican las siguientes restricciones a la compatibilidad con fssnap:
Se admite en sistemas de archivos locales no administrados por el software de Sun Cluster.
No se admite en los sistemas de archivos globales.
No se admite en los sistemas de archivos locales controlados por HAStoragePlus
El módulo de almacenamiento mejorado de la consola de administración de Solaris (Solaris Volume Manager) no es compatible con el software de Sun Cluster. Use la interfaz de línea de comandos o las utilidades de Sun Cluster para configurar el software de Solaris Volume Manager.
En algunos casos, Sun Cluster 3.2 no admite el uso de sistemas de archivos de realimentación o LOFS (Loopback File System). Si necesita activar el servicio LOFS en un nodo de clúster, por ejemplo, cuando configura zonas no globales, debe determinar primero si las restricciones de LOFS se aplican a su configuración. Para obtener más información sobre las restricciones y soluciones alternativas que permiten el uso de LOFS cuando existen condiciones restrictivas, consulte Restricciones de funciones del sistema operativo Solaris de Software Sun Cluster: Guía de instalación para el sistema operativo Solaris.
Para obtener las funciones de accesibilidad comercializadas desde la publicación de este medio, consulte la sección 508 de evaluaciones de productos disponible en Sun previa solicitud para determinar las versiones más adecuadas para implementar las soluciones accesibles.
Este apartado describe los cambios realizados en las interfaces de comandos de Sun Cluster que pueden provocar errores en las secuencias de comandos del usuario.
A partir de la versión Sun Cluster 3.2, el software de Sun Cluster incluye un conjunto de comandos orientados a objetos. Aunque el software de Sun Cluster aún admite el conjunto de comandos original, la documentación acerca de los procedimientos de Sun Cluster sólo hace referencia al conjunto de comandos orientados a objetos. Para obtener más información sobre el conjunto de comandos orientados a objetos, consulte la página de comando man Intro(1CL). Para obtener una lista de los comandos orientados a objetos para los procedimientos de Sun Cluster habituales, consulte la Referencia rápida de Sun Cluster.
Se han cambiado las siguientes opciones del comando scinstall en la versión Sun Cluster 3.2:
Se ha suprimido el uso de la opción -d con la opción -i. El comando scinstall ya no realiza la instalación de los paquetes de software de Sun Cluster. Utilice, en su lugar, el comando installer. Para obtener más información, consulte Cómo instalar el marco de trabajo y los paquetes de software de servicio de datos de Sun Cluster de Software Sun Cluster: Guía de instalación para el sistema operativo Solaris.
La opción - d es aún válida con las opciones -a, -c y -u.
La opción -k ya no es necesaria. Aún se proporciona para obtener compatibilidad con versiones anteriores junto con las secuencias de comandos que utilizan esta opción.
Se ha suprimido el uso de la opción -M. En su lugar, utilice la herramienta de administración de revisiones adecuada para la versión del SO Solaris que ejecuta el clúster. Consulte Revisiones y firmware requeridos para obtener más información.
La opción -q del comando scconf se ha modificado para distinguir entre dispositivos del quórum locales compartidos (SCSI) y otros tipos de dispositivos del quórum (incluidos los dispositivos NetApp NAS). Utilice la subopción name para especificar el nombre del dispositivo de almacenamiento compartido adjunto al agregar un dispositivo del quórum compartido al clúster o eliminarlo. Esta subopción puede utilizarse también con la forma change del comando para cambiar el estado de un dispositivo del quórum. Aunque la subopción globaldev se puede utilizar todavía para dispositivos de almacenamiento compartido SCSI, debe emplearse la subopción name para los demás tipos de dispositivos de almacenamiento compartido. Para obtener más información sobre este cambio en scconf y el uso de dispositivos del quórum, consulte scconf(1M), scconf_quorum_dev_netapp_nas(1M), scconf_quorum_dev_netapp_nas(1M) y scconf_quorum_dev_scsi(1M).
Ya no es necesario modificar directamente la propiedad del recurso Network_resources_used. Utilice, en su lugar, la propiedad Resource_dependencies. RGM actualiza automáticamente la propiedad Network_resources_used en función de la configuración de la propiedad Resource_dependencies. Para obtener más información sobre los usos actuales de estas dos propiedades de recursos, consulte r_properties(5).
En esa sección, se proporciona información sobre los cambios en los nombres de productos de las aplicaciones compatibles con Sun Cluster. Según la versión de Sun Cluster que utilice, es posible que la documentación de Sun Cluster no refleje los cambios en los nombres de productos que se especifican debajo.
El software de Sun Cluster 3.2 se distribuye como parte de Solaris Cluster 3.2 y Sun Java Availability Suite.
En esta sección, se describen el software admitido y los requisitos de memoria del software de Sun Cluster 3.2.
Requisitos de memoria: el software de Sun Cluster 3.2 presenta los siguientes requisitos de memoria para cada nodo del clúster:
Un mínimo de 512 MB de memoria RAM física (normalmente, 2 GB).
Un mínimo de 6 GB de espacio disponible en el disco duro.
Los requisitos de disco duro y memoria física reales vienen determinados por las aplicaciones que se encuentran instaladas. Consulte la documentación de la aplicación o póngase en contacto con el proveedor de aplicaciones para calcular los requisitos de disco duro y memoria física adicionales.
RSMAPI: el software Sun Cluster 3.2 admite la Interfaz de programación de la aplicación de memoria remota compartida (RSMAPI) en conexiones compatibles con RSM, como PCI-SCI.
Sistema operativo Solaris (OS): el software de Sun Cluster 3.2 y de servidor del quórum necesita las siguientes versiones mínimas del SO Solaris:
Solaris 9: sólo Solaris 9 9/05 SPARC.
Solaris 10: Solaris 10 11/06.
Solaris Trusted Extensions
Sun Cluster 3.2 admite zonas no globales en un clúster. Solaris 10 11/06 incluye compatibilidad con Solaris Trusted Extensions. Solaris Trusted Extensions utiliza también zonas no globales. No se ha probado la interacción de Sun Cluster y Solaris Trusted Extensions con el uso de zonas no globales. Se recomienda a los clientes que actúen con precaución al utilizar estas tecnologías.
Gestores de volúmenes
Plataforma |
sistema operativo |
Gestor de volúmenes |
Función de clúster |
---|---|---|---|
SPARC |
Solaris 9 |
Solaris Volume Manager. |
Solaris Volume Manager para Sun Cluster. |
VERITAS Volume Manager 4.1. Esta compatibilidad requiere VxVM 4.1 MP2. |
Función de clúster de VERITAS Volume Manager 4.1. |
||
Los componentes de VERITAS Volume Manager se proporcionan como parte de VERITAS Storage Foundation 4.1. Esta compatibilidad requiere VxVM 4.1 MP2. |
Función de clúster de VERITAS Volume Manager 4.1. |
||
Los componentes de VERITAS Volume Manager se proporcionan como parte de VERITAS Storage Foundation 5.0. Esta compatibilidad requiere VxVM 5.0 MP1. |
Función de clúster de VERITAS Volume Manager 5.0. |
||
Solaris 10 |
Solaris Volume Manager. |
Solaris Volume Manager para Sun Cluster. |
|
VERITAS Volume Manager 4.1. Esta compatibilidad requiere VxVM 4.1 MP2. |
VERITAS Volume Manager 4.1 con función de clúster. |
||
VERITAS Volume Manager 4.1. Esta compatibilidad requiere VxVM 4.1 MP2. |
VERITAS Volume Manager 4.1 con función de clúster. |
||
Los componentes de VERITAS Volume Manager se proporcionan como parte de VERITAS Storage Foundation 5.0. Esta compatibilidad requiere VxVM 5.0 MP1. |
Función de clúster de VERITAS Volume Manager 5.0. |
||
x86 |
Solaris 10 |
Solaris Volume Manager. |
Solaris Volume Manager para Sun Cluster. |
Los componentes de VERITAS Volume Manager se proporcionan como parte de VERITAS Storage Foundation 4.1. |
N/A - Sun Cluster 3.2 no admite la función de clúster de VXVM en la plataforma x86. |
Sistemas de archivos
Sun StorEdgeTM Availability Suite 10
Sun Management Center 3.6.1
Servicios de datos (agentes): póngase en contacto con su representante de ventas de Sun para obtener una lista completa de las versiones de las aplicaciones y los servicios de datos admitidos.
La documentación de los servicios de datos, incluidas las páginas de comando man y la ayuda en línea de los asistentes, ya no se traduce a otros idiomas distintos al inglés.
Los siguientes servicios de datos de Sun Cluster admiten zonas no globales:
Servicio de datos de Sun Cluster para Apache
Servicio de datos de Sun Cluster para Apache Tomcat
Servicio de datos de Sun Cluster para DHCP
Servicio de datos de Sun Cluster para el Servicio de nombres de dominio (DNS)
Servicio de datos de Sun Cluster para Kerberos
Servicio de datos de Sun Cluster para mySQL
Servicio de datos de Sun Cluster para N1 Grid Service Provisioning Server
Servicio de datos de Sun Cluster para Oracle
Servicio de datos de Sun Cluster para Oracle Application Server
Sun Cluster HA para PostgreSQL
Servicio de datos de Sun Cluster para Samba
Servicio de datos de Sun Cluster para Sun Java System Application Server
Servicio de datos de Sun Cluster para Sun Java System Message Queue Server
Servicio de datos de Sun Cluster para Sun Java System Web Server
Los procedimientos de la versión de Sun Cluster HA para Sun JavaTM System Directory Server que utiliza Sun Java System Directory Server 5.0 y 5.1 se encuentran en Sun Cluster 3.1 Data Service para Sun ONE Directory Server. Para versiones posteriores de Sun Java System Directory Server, consulte la documentación de dicho producto.
Los siguientes servicios de datos no son compatibles con Solaris 10 en esta versión de Sun Cluster.
Servicio de datos de Sun Cluster para Agfa IMPAX
Servicio de datos de Sun Cluster para SWIFT Alliance Access
Servicio de datos de Sun Cluster para SWIFT Alliance Gateway
A continuación, se muestra una lista de los servicios de datos de Sun Cluster y sus tipos de recursos.
Servicios de datos |
Tipo de recurso de Sun Cluster |
---|---|
Sun Cluster HA para Agfa IMPAX |
SUNW.gds |
Sun Cluster HA for Apache |
SUNW.apache |
Sun Cluster HA para Apache Tomcat |
SUNW.gds |
Sun Cluster HA para BroadVision One-To-One Enterprise |
SUNW.bv |
Sun Cluster HA para DHCP |
SUNW.gds |
Sun Cluster HA para DNS |
SUNW.dns |
Sun Cluster HA para MySQL |
SUNW.gds |
Sun Cluster HA para NetBackup |
SUNW.netbackup_master |
Sun Cluster HA para NFS |
SUNW.nfs |
Sun Cluster Oracle Application Server |
SUNW.gds |
Sun Cluster HA para Oracle E-Business Suite |
SUNW.gds |
Sun Cluster HA para Oracle |
SUNW.oracle_server SUNW.oracle_listener |
Sun Cluster Support para Oracle Real Application Clusters |
SUNW.rac_framework SUNW.rac_udlm SUNW.rac_svm SUNW.rac_cvm SUNW.rac_hwraid SUNW.oracle_rac_server SUNW.oracle_listener SUNW.scaldevicegroup SUNW.scalmountpoint SUNW.crs_framework SUNW.scalable_rac_server_proxy |
Sun Cluster HA para PostgreSQL |
SUNW.gds |
Sun Cluster HA para Samba |
SUNW.gds |
Sun Cluster HA para SAP |
SUNW.sap_ci SUNW.sap_ci_v2 SUNW.sap_as SUNW.sap_as_v2 |
Sun Cluster HA para SAP liveCache |
SUNW.sap_livecache SUNW.sap_xserver |
Sun Cluster HA for SAP DB |
SUNW.sapdb SUNW.sap_xserver |
Sun Cluster HA para SAP Web Application Server |
SUNW.sapenq SUNW.saprepl SUNW.sapscs SUNW.sapwebas |
Sun Cluster HA para Siebel |
SUNW.sblgtwy SUNW.sblsrvr |
Sun Cluster HA para Solaris Containers |
SUNW.gds |
Sun Cluster HA para N1 Grid Engine |
SUNW.gds |
Sun Cluster HA para Sun Java System Application Server, versiones compatibles anteriores a la 8.1 |
SUNW.s1as |
Sun Cluster HA para Sun Java System Application Server, versiones compatibles a partir de la 8.1 |
SUNW.jsas SUNW.jsas-na |
Sun Cluster HA para Sun Java System Application Server EE (compatible con versiones de HADB anteriores a la 4.4) |
SUNW.hadb |
Sun Cluster HA para Sun Java System Application Server EE (compatible con versiones de HADB a partir de la 4.4) |
SUNW.hadb_ma |
Sun Cluster HA for Sun Java System Message Queue |
SUNW.s1mq |
Sun Cluster HA para Sun Java System Web Server |
SUNW.iws |
Sun Cluster HA para SWIFTAlliance Access |
SUNW.gds |
Sun Cluster HA para SWIFTAlliance Gateway |
SUNW.gds |
Sun Cluster HA para Sybase ASE |
SUNW.sybase |
Sun Cluster HA para WebLogic Server |
SUNW.wls |
Sun Cluster HA para WebSphere MQ |
SUNW.gds |
Sun Cluster HA para WebSphere MQ Integrator |
SUNW.gds |
Sun Cluster Security Hardening (Refuerzo de seguridad de Sun Cluster) utiliza las técnicas de refuerzo del sistema operativo Solaris recomendadas por el programa Sun BluePrintsTM para conseguir un fortalecimiento en la seguridad básica de los clústers. Solaris Security Toolkit (conjunto de herramientas de seguridad de Solaris) automatiza la implementación de Sun Cluster Security Hardening.
La documentación de Sun Cluster Security Hardening está disponible en http://www.sun.com/blueprints/0203/817-1079.pdf. También puede acceder al artículo desde http://www.sun.com/software/security/blueprints. Desde esta URL, desplácese hacia la cabecera "Architecture" para encontrar el artículo "Securing the Sun Cluster 3.x Software".La documentación describe cómo proteger las implementaciones de Sun Cluster 3.x en un entorno de Solaris. La descripción incluye el uso de Solaris Security Toolkit y otras técnicas de seguridad de avanzada metodología recomendadas por los expertos en seguridad de Sun. Los siguientes servicios de datos son compatibles con Sun Cluster Security Hardening:
Sun Cluster HA for Apache
Sun Cluster HA para Apache Tomcat
Sun Cluster HA para el servidor WebLogic BEA
Sun Cluster HA para DHCP
Sun Cluster HA para DNS
Sun Cluster HA para MySQL
Sun Cluster HA para N1 GridEngine
Sun Cluster HA para NetBackup
Sun Cluster HA para NFS
Sun Cluster HA para Oracle E-Business Suite
Sun Cluster HA para Oracle
Sun Cluster Support para Oracle Real Application Clusters
Sun Cluster HA para PostgreSQL
Sun Cluster HA para Samba
Sun Cluster HA para Siebel
Sun Cluster HA para Solaris Containers
Sun Cluster HA para SWIFTAlliance Access
Sun Cluster HA para SWIFTAlliance Gateway
Sun Cluster HA para Sun Java System Directory Server
Sun Cluster HA for Sun Java System Message Queue
Sun Cluster HA para Sun Java System Messaging Server
Sun Cluster HA para Sun Java System Web Server
Sun Cluster HA para Sybase ASE
Sun Cluster HA para WebSphere MQ
Sun Cluster HA para WebSphere MQ Integrator
Los siguientes problemas conocidos afectan al funcionamiento de la versión Sun Cluster 3.2. Estos errores y problemas se clasifican en las siguientes categorías:
Resumen del problema: El comando -clnode remove --force debería eliminar los nodos de los metaconjuntos. La Sun Cluster System Administration Guide for Solaris OS proporciona procedimientos para eliminar un nodo del clúster. Estos procedimientos indican al usuario que debe ejecutar el comando metaset para eliminar el conjunto de discos de Solaris Volume Manager antes de ejecutar clnode remove.
Solución: Si no se siguen estos procedimientos, es posible que sea necesario eliminar los datos del nodo caducados de CCR en la forma habitual. En el nodo activo del clúster, utilice el comando metaset para borrar el nodo de los conjuntos de discos de Solaris Volume Manager. A continuación, ejecute clnode clear --force obsolete_nodename.
Resumen del problema: En un clúster instalado con el grupo de software de usuario final de Solaris 10, SUNWCuser, la ejecución del comando scsnapshot puede fallar con el siguiente error:
# scsnapshot -o … /usr/cluster/bin/scsnapshot[228]: /usr/perl5/5.6.1/bin/perl: not found |
Solución: Realice uno de los pasos siguientes:
Instale el grupo de software de distribución completa de Solaris.
Instale los paquetes de Perl: SUNWpl5u, SUNWpl5v y SUNWpl5p.
Resumen del problema: La propiedad Auxnodelist del recurso de dirección compartida no se puede utilizar durante la creación de recursos de dirección compartida, ya que esto provocará errores y SEGV cuando se cree el recurso escalable que dependa de este recurso de red de dirección compartida. El mensaje de error de validación del recurso escalable presenta el siguiente formato:
Method methodname (scalable svc) on resource resourcename stopped or terminated due to receipt of signal 11 |
Además, el archivo del núcleo central se genera desde ssm_wrapper. Los usuarios no podrán establecer la propiedad Auxnodelisty, por lo tanto, no podrán identificar los nodos del clúster que pueden alojar la dirección compartida, pero que no se pueden utilizar nunca como principal.
Solución: Vuelva a crear en un nodo el recurso de dirección compartida sin especificar la propiedad Auxnodelist. A continuación, vuelva a ejecutar el comando de creación de recursos escalables y use el recurso de dirección compartida que ha creado de nuevo como recurso de red.
Resumen del problema: El comando del servidor del quórum clquorumserver no establece correctamente el estado del mecanismo de inicio para el siguiente reinicio.
Solución: Realice las siguientes tareas para iniciar o detener el software del servidor del quórum.
Muestre el estado del servicio quorumserver.
# svcs -a | grep quorumserver |
Si el servicio está deshabilitado, la salida presentará un aspecto parecido al siguiente:
disabled 3:33:45 svc:/system/cluster/quorumserver:default |
Inicie el software del servidor del quórum.
Si el servicio quorumserver está deshabilitado, utilice el comando svcadm enable.
# svcadm enable svc:/system/cluster/quorumserver:default |
Si el servicio quorumserver está en línea, utilice el comando clquorumserver.
# clquorumserver start + |
Deshabilite el servicio quorumserver.
# svcadm disable svc:/system/cluster/quorumserver:default |
Inicie el software del servidor del quórum.
# clquorumserver start + |
Cambie el nombre del archivo /etc/rc2.d/.S99quorumserver a /etc/rc2.d/S99quorumserver.
# mv /etc/rc2.d/.S99quorumserver /etc/rc2.d/S99quorumserver |
Detenga el software del servidor del quórum.
# clquorumserver stop + |
Inicie el software del servidor del quórum.
# mv /etc/rc2.d/S99quorumserver /etc/rc2.d/.S99quorumserver |
Resumen del problema: El recurso de agente del nodo (NA, Node Agent) en Sun Cluster HA para Application Server se crea, aunque no se haya establecido ninguna dependencia en el recurso de DAS. El comando debería mostrar un mensaje de error si no se ha establecido la dependencia, ya que un recurso de DAS debe estar en línea para poder iniciar el recurso de NA.
Solución: Al crear el recurso de NA, asegúrese de establecer una dependencia de recurso en el recurso de DAS.
Resumen del problema: La revisión de HA MySQL agrega una nueva variable denominada MYSQL_DATADIR al archivo mysql_config. Esta nueva variable debe señalar al directorio en el que se almacena el archivo de configuración my.conf de MySQL. Si esta variable no se configura correctamente, la preparación de la base de datos con mysql_register fallará.
Solución: Defina la variable MYSQL_DATADIR para que señale al directorio en el que se almacena el archivo de configuración my.conf de SQL.
Resumen del problema: Si se utiliza InfiniBand como transporte del clúster y hay dos adaptadores en cada nodo con dos puertos por adaptador y un total de dos conmutadores, la función de detección automática de adaptadores de la utilidad scinstall puede sugerir que hay dos rutas de transporte usando el mismo adaptador.
Solución: Especifique manualmente los adaptadores de transporte en cada nodo.
Resumen del problema: La instalación de IPv6 en las interconexiones, que es un paso necesario para reenviar los paquetes de servicios escalables de IPv6, ya no se habilitará de forma predeterminada. Las interfaces de IPv6, como se muestra al utilizar el comando ifconfig, ya no se instalarán de forma predeterminada en los adaptadores de interconexión.
Solución: Habilite manualmente la compatibilidad con los servicios escalables de IPv6.
Asegúrese de que se hayan preparado todos los nodos del clúster para ejecutar los servicios de IPv6. Entre estas tareas, se incluyen la configuración correcta de las interfaces de red, el software de aplicación de servidor/cliente, los servicios de nombres y la infraestructura de enrutamiento. Si no se realizan estas tareas, es posible que se produzcan fallos inesperados en las aplicaciones de red. Para obtener más información, consulte la documentación de administración del sistema de Solaris para los servicios de IPv6.
En cada nodo, agregue la siguiente entrada al archivo /etc/system.
set cl_comm:ifk_disable_v6=0 |
Habilite, en cada nodo, la instalación de IPv6 en los adaptadores de interconexión.
# /usr/cluster/lib/sc/config_ipv6 |
La utilidad config_ipv6 muestra una interfaz de IPv6 en todos los adaptadores de interconexión del clúster que tengan una dirección de vínculo local. Esta utilidad permite el reenvío correcto de los paquetes de servicios escalables de IPv6 a través de las interconexiones.
También puede reiniciar cada nodo del clúster para activar el cambio de configuración.
Resumen del problema: Si se intenta utilizar el comando clnode add con un archivo XML, es decir, mediante el transporte de conexión directa, este comando interpreta erróneamente la información del cable y agrega información de configuración incorrecta. Como resultado, el nodo que se va a agregar no se puede unir al clúster.
Solución: Utilice el comando scinstall para agregar un nodo al clúster cuando el transporte del clúster esté conectado directamente.
Resumen del problema: El comando scinstall actualiza el archivo /etc/nsswitch.conf para agregar la entrada cluster para las bases de datos hosts y netmasks. Este cambio actualiza el archivo /net/nsswitch.conf para la zona global. Sin embargo, al crear e instalar una zona no global, esta zona recibe su propia copia del archivo /etc/nsswitch.conf. Los archivos /etc/nsswitch.conf ubicados en las zonas no globales no presentarán la entrada cluster para las bases de datos hosts y netmasks. Fallará cualquier intento de resolver las direcciones IP y los nombres de hosts específicos del clúster en la zona no global mediante las consultas getXbyY.
Solución: Actualice manualmente el archivo /etc/nsswitch.conf para las zonas no globales con la entrada cluster de las bases de datos hosts y netmasks. De esta forma, se garantiza que las resoluciones de direcciones IP y nombres de hosts específicos del cluster estén disponibles en las zonas no globales.
Resumen del problema: Los mensajes traducidos de los programas de administración del servidor del quórum como, por ejemplo, clquorumserver, se proporcionan como parte de los paquetes de traducción centrales. Debido a esto, los mensajes del servidor del quórum sólo aparecerán en inglés. Los paquetes de traducción del servidor del quórum deben separarse de los paquetes de traducción centrales e instalarse en el sistema del servidor del quórum.
Solución: Instale los siguientes paquetes en el host en el que se ha instalado el software del servidor del quórum:
SUNWcsc (chino simplificado)
SUNWdsc (alemán)
SUNWesc (español)
SUNWfsc (francés)
SUNWhsc (chino tradicional)
SUNWjsc (japonés)
SUNWksc (coreano)
Si se necesita la página de comando man en japonés para el servidor del quórum, instale el paquete SUNWjscman (página de comando man en japonés).
Resumen del problema: El programa de instalación de Sun Cluster 3.2 muestra un mensaje de advertencia sobre el espacio de intercambio insuficiente al instalar la versión en chino simplificado del software de Sun Cluster 3.2. El programa de instalación proporciona un tamaño de intercambio incorrecto de 0,0 KB en la pantalla de comprobación de los requisitos del sistema.
Solución: Si el tamaño de intercambio es superior al tamaño de los requisitos del sistema, puede omitir con seguridad este problema. Se puede utilizar el programa de instalación de SC 3.2 con la configuración regional C o inglesa; esta versión compruebe el tamaño de intercambio correctamente.
Resumen del problema: cleanipc falla si el entorno de vínculos de tiempo de ejecución no contiene la ruta /sapmnt/SAPSID/exe.
Solución: Agregue como usuario root de Solaris la ruta /sapmnt/SAPSID/exe a la biblioteca predeterminada del archivo ld.config.
Para configurar la ruta de biblioteca predeterminada del entorno de vínculos de tiempo de ejecución para las aplicaciones de 32 bits, introduzca el siguiente comando:
# crle -u -l /sapmnt/SAPSID/exe |
Para configurar la ruta de biblioteca predeterminada del entorno de vínculos de tiempo de ejecución para las aplicaciones de 64 bits, introduzca el siguiente comando:
# crle -64 -u -l /sapmnt/SAPSID/exe |
Resumen del problema: Al cerrar un clúster, UCMMD puede pasar a la reconfiguración de uno o varios de los nodos si uno de éstos sobrepasa ligeramente al clúster de UCMMD. Si se produce esta situación el proceso de cierre detiene el comando rpc.md en el nodo, mientras que UCMMD intenta realizar el paso de devolución. En éste, el comando metaclust obtiene un tiempo de espera de RPC y sale del paso con un error, debido a que falta el proceso rpc.mdcommd. Este error provoca que UCMMD anule el nodo, lo que podría ocasionar un aviso grave en el nodo.
Solución: Puede omitir con seguridad este problema. Cuando el nodo arranca la copia de seguridad, el software de Sun Cluster detecta esta condición y permite a UCMMD iniciarse, a pesar del hecho de que el error se produjo en la anterior reconfiguración.
Resumen del problema: El proceso de validación de recursos de Sun Cluster no acepta el nombre de host de los grupos IPMP para la propiedad netiflist durante la creación de recursos de dirección compartida o nombre de host lógico.
Solución: Utilice el nombre del nodo en lugar del Id. al especificar los nombres de grupos IPMP durante la creación de recursos de dirección compartida o nombre de host lógico.
Resumen del problema: Este problema se detecta al encapsular el disco original root y se intenta realizar una actualización automática de VxVM 3.5 en el SO Solaris 9 8/03 OS a VxVM 5.0 en el SO Solaris 10 6/06. La secuencia de comandos vxlufinish falla con el siguiente error.
#./vslufinish -u 5.10 VERITAS Volume Manager VxVM 5.0 Live Upgrade finish on the Solairs release <5.10> Enter the name of the alternate root diskgroup: altrootdg ld.so.1: vxparms: fatal: libvxscsi.so: open failed: No such file or directory ld.so.1: vxparms: fatal: libvxscsi.so: open failed: No such file or directory Killed ld.so.1: ugettxt: fatal: libvxscsi.so: open failed: No such file or directory ERROR:vxlufinish Failed: /altroot.5.10/usr/lib/vxvm/bin/vxencap -d -C 10176 -c -p 5555 -g -g altrootdg rootdisk=c0t1d0s2 Please install, if 5.0 or higher version of VxVM is not installed on alternate bootdisk. |
Solución: Utilice, en su lugar, el método de actualización estándar o de partición doble.
Póngase en contacto con el servicio de asistencia o el representante de Sun para conocer si la compatibilidad de la actualización automática de Sun Cluster 3.2 con VxVM 5.0 estará disponible próximamente.
Resumen del problema: Durante la actualización automática, los comandos lucreate y luupgrade no pueden cambiar los nombres de DID en el entorno de arranque alternativo para que se correspondan con la entrada /global/.devices/node@N.
Solución: Antes de iniciar la actualización automática, realice los siguientes pasos en cada nodo del clúster.
Conviértase en superusuario.
Realice una copia de seguridad del archivo /etc/vfstab.
# cp /etc/vfstab /etc/vfstab.old |
Abra el archivo /etc/vfstab para editarlo.
Busque la línea que se corresponda con /global/.device/node@N.
Edite la entrada del dispositivo global.
Sustituya los nombres de DID por los nombres físicos.
Cambie /dev/did/{r}dsk/dYsZ a /dev/{r}dsk/cNtXdYs Z.
Elimine global de la entrada.
En el siguiente ejemplo, se muestra el nombre del dispositivo DID d3s3 que se corresponde con /global/.devices/node@s, en el que se han cambiado los nombres de dispositivos físicos y se ha eliminado la entrada global:
Original: /dev/did/dsk/d3s3 /dev/did/rdsk/d3s3 /global/.devices/node@2 ufs 2 no global Changed: dev/dsk/c0t0d0s3 /dev/rdsk/c0t0d0s3 /global/.devices/node@2 ufs 2 no - |
Una vez modificado el archivo /etc/vfstab en todos los nodos del clúster, realice una actualización automática del clúster, pero deténgala antes de efectuar el reinicio desde el entorno de arranque alternativo actualizado.
En el entorno actual que no se ha actualizado, restablezca el archivo /etc/vfstab original en cada uno de los nodos.
# cp /etc/vstab.old /etc/vfstab |
En el entorno de arranque alternativo, abra el archivo /etc/vfstab para editarlo.
Encuentre la línea que se corresponda con /global/.devices/node@N y sustituya el guión (-) ubicado al final de la entrada por la palabra global.
/dev/dsk/cNtXdYsZ /dev/rdsk/cNtXdYsZ /global/.devices/node@N ufs 2 no global |
Reinicie el nodo desde el entorno de arranque alternativo actualizado.
Los nombres de DID se sustituyen automáticamente por el archivo /etc/vfstab.
Resumen del problema: Este problema se detecta al actualizar VERITAS Volume Manager (VxVM) durante una actualización automática de Sun Cluster. La secuencia de comandos vxlustart se utiliza para actualizar el SO Solaris y VxVM a partir de la versión anterior. La secuencia de comandos muestra mensajes de error parecidos a los siguientes:
# ./vxlustart -u 5.10 -d c0t1d0 -s OSimage VERITAS Volume Manager VxVM 5.0. Live Upgrade is now upgrading from 5.9 to <5.10> … ERROR: Unable to copy file systems from boot environment <sorce.8876> to BE <dest.8876>. ERROR: Unable to populate file systems on boot environment <dest.8876>. ERROR: Cannot make file systems for boot environment <dest.8876>. ERROR: vxlustart: Failed: lucreate -c sorce.8876 -C /dev/dsk/c0t0d0s2 -m -:/dev/dsk/c0t1d0s1:swap -m /:/dev/dsk/c0t1d0s0:ufs -m /globaldevices:/dev/dsk/c0t1d0s3:ufs -m /mc_metadb:/dev/dsk/c0t1d0s7:ufs -m /space:/dev/dsk/c0t1d0s4:ufs -n dest.8876 |
Solución: Utilice el método de actualización estándar o de partición doble para actualizar el clúster a VxVM 5.0.
Póngase en contacto con el servicio de asistencia o el representante de Sun para conocer si la compatibilidad de la actualización automática de Sun Cluster 3.2 con VxVM 5.0 estará disponible próximamente.
Resumen del problema: En los clústers en los que se ejecuta VERITAS Volume Manager (VxVM), la actualización estándar o de partición doble de cualquiera de los siguientes componentes de software fallará si se encapsula el disco raíz:
Actualización del SO Solaris a una versión diferente
Actualización de VxVM
Actualización del software Sun Cluster
Se muestra un aviso grave del nodo del clúster y no se puede efectuar el arranque después de la actualización. Esto se debe a los cambios en los números mayor y menor realizados por VXVM durante la actualización.
Solución: Cancele la encapsulación del disco raíz antes de iniciar la actualización.
Si no se sigue correctamente el procedimiento anterior, es posible que se produzcan problemas graves inesperados en todos los nodos que se están actualizando. Además, la encapsulación y la cancelación de la encapsulación del disco raíz provocan que se produzca un reinicio adicional automático del nodo (cada vez que se realice este proceso), lo que aumentará el número de reinicios necesarios durante la actualización.
Resumen del problema: Después de realizar una actualización automática de la versión 3.1 de Sun Cluster en Solaris 9 a la versión 3.2 en Solaris 10, no se pueden correctamente las zonas con el software del clúster. El problema es que no se han creado los datos de pspool para los paquetes de Sun Cluster. Por lo tanto, no se han propagado correctamente los paquetes que deben propagarse a las zonas no globales como, por ejemplo SUNWsczu.
Solución: Una vez actualizados los paquetes de Sun Cluster mediante el comando scinstall -R y antes de que se haya reiniciado el clúster en el modo de clúster, ejecute dos veces la siguiente secuencia de comandos:
Una vez para los paquetes de la estructura de Sun Cluster
Otra vez para los paquetes de servicios de datos de Sun Cluster
Prepare y ejecute esta secuencia de una de las siguientes formas:
Configure las variables de los paquetes de la estructura de Sun Cluster y ejecute la secuencia de comandos. A continuación, modifique la variable PATHNAME para los paquetes de servicios de datos y vuelva a ejecutar la secuencia de comandos.
Cree dos secuencias de comandos, una con variables definidas en la secuencia de comandos de los paquetes de la estructura y otra con las variables definidas para los paquetes de servicios de datos. A continuación, ejecute las dos secuencias de comandos.
Conviértase en superusuario.
Cree una secuencia de comandos con el siguiente contenido.
#!/bin/ksh typeset PLATFORM=${PLATFORM:-`uname -p`} typeset PATHNAME=${PATHNAME:-/cdrom/cdrom0/Solaris_${PLATFORM}/Product/sun_cluster/Solaris_10/Packages} typeset BASEDIR=${BASEDIR:-/} cd $PATHNAME for i in * do if pkginfo -R ${BASEDIR} $i >/dev/null 2>&1 then mkdir -p ${BASEDIR}/var/sadm/pkg/$i/save/pspool pkgadd -d . -R ${BASEDIR} -s ${BASEDIR}/var/sadm/pkg/$i/save/pspool $i fi done
Defina las variables PLATFORM, PATHNAME y BASEDIR.
Defina estas variables como variables de entorno o modifique directamente los valores en la secuencia de comandos.
El nombre de la plataforma. Por ejemplo, puede ser sparc o x86. La variable PLATFORM se define de forma predeterminada en la salida del comando uname -p.
Una ruta al dispositivo desde el que se pueden instalar los paquetes de la estructura o los servicios de datos de Sun Cluster. Este valor se corresponde con la opción -d del comando pkgadd.
Por ejemplo, para los paquetes de la estructura de Sun Cluster, este valor presentaría el siguiente formato:
/cdrom/cdrom0/Solaris_${PLATFORM}/Product/sun_cluster/Solaris_10/Packages |
Para los paquetes de servicios de datos, este valor presentaría el siguiente formato:
/cdrom/cdrom0/Solaris_${PLATFORM}/Product/sun_cluster_agents/Solaris_10/Packages |
El nombre de ruta completo del directorio que se utilizará como ruta raíz y que se corresponde con la opción -R del comando pkgadd. Para la actualización automática, defina este valor en la ruta raíz que se utiliza con la opción -R del comando scinstall. La variable BASEDIR se define de forma predeterminada en el sistema de archivos raíz (/).
Ejecute la secuencia de comandos, una vez para los paquetes de la estructura de Sun Cluster y otra para los paquetes de servicios de datos.
Una vez ejecutada la secuencia de comandos, debería aparecer el siguiente mensaje en el indicador de comando para cada paquete:
Transferring pkgname package instance |
Si ya existe el directorio pspool para un paquete o si la secuencia de comandos se ejecuta dos veces para el mismo conjunto de paquetes, se mostrará el siguiente error en el indicador de comandos:
Transferring pkgname package instance pkgadd: ERROR: unable to complete package transfer - identical version of pkgname already exists on destination device |
Se trata de un mensaje inofensivo que puede omitirse con seguridad.
Una vez ejecutada la secuencia de comandos para los paquetes de la estructura y los servicios de datos, arranque los nodos en el modo de clúster.
Resumen del problema: Si se agrega un nuevo nodo del clúster sin comprobar que el nodo presenta las mismas revisiones que los nodos del clúster existentes, es posible que los nodos del clúster muestren un aviso grave.
Solución: Antes de agregar los nodos al clúster, asegúrese de que al nuevo nodo se le aplican las revisiones necesarias para que presente el mismo nivel de revisiones que los nodos del clúster existentes. De lo contrario, los nodos del clúster podrían mostrar un aviso grave.
Este apartado proporciona información sobre las revisiones para las configuraciones de Sun Cluster. Si actualiza a la versión Sun Cluster 3.2 del software, consulte el Capítulo 8, Modernización del software Sun Cluster de Software Sun Cluster: Guía de instalación para el sistema operativo Solaris. La aplicación de una revisión de Sun Cluster 3.2 Core no proporciona los mismos resultados que la actualización del software a la versión Sun Cluster 3.2.
Lea el archivo README (Léame) de la revisión antes de aplicar o eliminar cualquier revisión.
Si utiliza el método (nodo) de revisión de reinicio para instalar la revisión principal de Sun Cluster, 125510 (S9/SPARC), 125511 (S10/SPARC) o 125512 (S19/x64), debe haber instalado anteriormente la versión -02 de la revisión antes de poder instalar versiones superiores. Si no ha instalado la revisión -02 y desea instalar la versión -03 o superior (si está disponible), debe usar el método de reinicio del clúster.
Consulte la siguiente lista de ejemplos para obtener escenarios de aplicación de revisiones:
Si dispone del software Sun Cluster 3.2 en el sistema operativo Solaris 10 en SPARC con la revisión 125511-02 y desea instalar 125511-03 o superior, es posible que deba usar el método de reinicio del nodo o el clúster.
Si dispone del software Sun Cluster 3.2 en el sistema operativo Solaris 10 en SPARC sin tener instalada la revisión 125511-02 y desea instalar 125511-03 o superior, tiene las siguientes opciones:
Use el método de reinicio del clúster para instalar 125511-03.
Instale 125511-02 con el método de reinicio del nodo y, a continuación, instale 125511-03 con el mismo método.
Debe ser un usuario registrado de SunSolveTM para ver y descargar las revisiones requeridas por el producto Sun Cluster. Si no tiene una cuenta de SunSolve, póngase en contacto con su distribuidor o representante de servicios, o regístrese en línea en http://sunsolve.sun.com.
Realice el siguiente procedimiento para aplicar la revisión principal de Sun Cluster 3.2.
Instale la revisión mediante el procedimiento de reinicio normal para la revisión principal.
Verifique que se haya instalado correctamente la revisión en todos los nodos y que funciona adecuadamente.
Registre la nueva versión de los tipos de recursos SUNW.HAStoragePlus, SUNW.ScalDeviceGroup y SUNW.ScalMountPoint que se han actualizado con esta revisión. Lleve a cabo la actualización de cualquier recurso existente de estos tipos a las nuevas versiones.
Para obtener información sobre cómo registrar un tipo de recurso, consulte Registering a Resource Type de Sun Cluster Data Services Planning and Administration Guide for Solaris OS en Sun Cluster Data Services Planning and Administration Guide for Solaris OS .
Si se ha eliminado la revisión principal de Sun Cluster 3.2, cualquier recurso actualizado en el paso 3 se debe restablecer a la versión anterior de los tipos de recursos. Para realizar el proceso de restablecimiento a la versión anterior, es necesario planificar el tiempo de inactividad de estos servicios. Por lo tanto, no realice el paso 3 hasta que esté preparado para confirmar la aplicación permanente de la revisión principal de Sun Cluster 3.2 en el clúster.
Realice el siguiente procedimiento para eliminar la revisión principal de Sun Cluster 3.2.
Muestre los tipos de recursos del clúster.
# clrt list |
Si la lista devuelve SUNW.HAStoragePlus:5, SUNW.ScalDeviceGroup:2 o SUNW.ScalMountPoint:2, debe eliminar estos tipos de recursos. Para obtener instrucciones sobre cómo eliminar un tipo de recurso, consulte How to Remove a Resource Type de Sun Cluster Data Services Planning and Administration Guide for Solaris OS en Sun Cluster Data Services Planning and Administration Guide for Solaris OS .
Reinicie todos los nodos del clúster en el modo sin clúster monousuario.
Para obtener instrucciones sobre cómo reiniciar los nodos del clúster en el modo sin clúster monousuario, consulte How to Boot a Cluster Node in Noncluster Mode de Sun Cluster System Administration Guide for Solaris OS en Sun Cluster System Administration Guide for Solaris OS .
Elimine la revisión principal de Sun Cluster 3.2 de cada nodo del clúster en el que se haya instalado.
# patchrm patch-id |
Reinicie, en el modo de clúster, todos los nodos en los que se haya eliminado la revisión principal de Sun Cluster 3.2.
Al reiniciar todos los nodos del clúster en los que se ha eliminado la revisión principal de Sun Cluster 3.2 antes de reiniciar los nodos no afectados, se garantiza que el clúster contenga la información correcta en el CCR. Si se ha aplicado la revisión principal en todos los nodos del clúster, puede reiniciarlos en cualquier orden en el modo de clúster.
Para obtener instrucciones sobre cómo reiniciar los nodos del clúster en el modo de clúster, consulte How to Reboot a Cluster Node de Sun Cluster System Administration Guide for Solaris OS en Sun Cluster System Administration Guide for Solaris OS .
Reinicie los nodos restantes en el modo de clúster.
La tecnología de administración de revisiones PatchPro está ahora disponible mediante Patch Manager 2.0 para el SO Solaris 9 y Sun Update Connection 1.0 para el SO Solaris 10.
Solaris 9: puede descargar de forma gratuita Sun Patch Manager 2.0 desde SunSolve en http://wwws.sun.com/software/download/products/40c8c2ad.html. La documentación de Sun Patch Manager está disponible en http://ttp://docs.sun.com/app/docs/coll/1152.1.
Solaris 10: Sun Update Connection está disponible mediante el Id. de revisión 121118-05 (SPARC) o 121119-05 (x86) o mediante descarga desde SunSolve. Consulte http://www.sun.com/service/sunupdate/gettingstarted.html para obtener información. La documentación de Sun Update Connection está disponible en http://docs.sun.com/app/docs/coll/1320.2.
Puede encontrar información adicional acerca de todas las opciones de administración de revisiones para el SO Solaris en http://www.sun.com/service/sunupdate/. Se proporciona información adicional sobre el uso de las herramientas de administración de revisiones de Sun en la Guía de administración de Solaris: administración básica, disponible en http://docs.sun.com. Consulte la versión de este manual publicada para la versión del SO Solaris que ha instalado.
Si algunas revisiones deben aplicarse cuando el nodo se encuentra en el modo sin clúster, puede aplicarlas por turnos, una cada vez, a menos que, en las instrucciones de una revisión, se solicite que cierre todo el clúster. Siga los procedimientos descritos en How to Apply a Rebooting Patch (Node) de Sun Cluster System Administration Guide for Solaris OS para preparar el nodo y arrancarlo en el modo sin clúster. Para facilitar la instalación, aplique a la vez todas las revisiones en un nodo que no se encuentre en el modo sin clúster.
La página web SunSolve Online proporciona acceso las 24 horas del día a la información más actualizada concerniente a las revisiones, al software y al firmware de los productos de Sun. Acceda a la página Web de SunSolve en http://sunsolve.sun.com para obtener las matrices más actuales del software, firmware y revisiones admitidas.
La información de revisiones de terceros de Sun Cluster 3.2 se proporciona mediante un documento de SunSolve. Esta página de documentos proporciona información sobre las revisiones de terceros para el hardware específico que tiene intención de usar en un entorno de Sun Cluster 3.2. Para buscar este documento de información, inicie una sesión en SunSolve. En la página de inicio de SunSolve, escriba Sun Cluster 3.x Third-Party Patches en el cuadro de criterios de búsqueda.
Antes de instalar el software Sun Cluster 3.2 y aplicar las revisiones a un componente del clúster (sistema operativo Solaris, software Sun Cluster, software del gestor de volúmenes, software de servicios de datos o el hardware del disco), revise cada archivo README que acompaña a las revisiones recuperadas. Todos los nodos del clúster deben tener el mismo nivel de revisiones para conseguir un funcionamiento adecuado del clúster.
Para conocer los procedimientos y obtener sugerencias sobre la administración de las revisiones, consulte el Capítulo 10, Patching Sun Cluster Software and Firmware de Sun Cluster System Administration Guide for Solaris OS.
El conjunto de la documentación del usuario de Sun Cluster 3.2 consta de las siguientes colecciones:
Manuales de servicios de datos de Sun Cluster 3.2 para el SO Solaris (SPARC Platform Edition)
Manuales de servicios de datos de Sun Cluster 3.2 para el SO Solaris (x86 Platform Edition)
Colección de hardware de Sun Cluster 3.1 - 3.2 para el SO Solaris (SPARC Platform Edition)
Colección de hardware de Sun Cluster 3.1 — 3.2 para el SO Solaris (x86 Platform Edition)
La documentación del usuario de Sun Cluster 3.2 está disponible en formatos PDF y HTML en el siguiente sitio web:
http://htt;://docs.sun.com/app/docs/prod/sun.cluster32
A partir de Sun Cluster 3.2, no se traducirá la documentación de los servicios de datos individuales y sólo estará disponible en inglés.
Además de buscar la documentación de producción de Sun en el sitio web, docs.sun.com, puede utilizar un motor de búsqueda escribiendo la siguiente sintaxis en el campo de búsqueda:
search-term site:docs.sun.com |
Por ejemplo, para buscar "broker", escriba lo siguiente:
broker site:docs.sun.com |
Para incluir otros sitios de Sun en la búsqueda (por ejemplo, java.sun.com, www.sun.com y developers.sun.com), utilice "sun.com" en lugar de "docs.sun.com" en el campo de búsqueda.
Número de referencia |
Título de manual |
---|---|
820–0335 | |
819-2969 | |
819-2972 | |
819-2974 |
Sun Cluster Data Services Planning and Administration Guide for Solaris OS |
819-2973 | |
819-2968 | |
819-3055 | |
819-2970 |
Software Sun Cluster: Guía de instalación para el sistema operativo Solaris |
819–0912 | |
819-2971 |
En esta sección, se describen los errores o las omisiones de la documentación, la ayuda en línea o las páginas de comando man de la versión Sun Cluster 3.2.
Guía de administración y planificación de los servicios de datos de Sun Cluster
Guía del servicio de datos de Sun Cluster para SAP liveCache
Guía del servicio de datos de Sun Cluster para SAP Web Application Server
En esta sección, se describen los errores y las omisiones de la Sun Cluster Concepts Guide for Solaris OS .
En la sección Sun Cluster Topologies for x86 de Sun Cluster Concepts Guide for Solaris OS , la siguiente instrucción acerca de la versión Sun Cluster 3.2 ha caducado: "Sun Cluster, cuando se compone de sistemas basados en plataformas x86, admite dos nodos por clúster."
En su lugar, la instrucción debería indicar lo siguiente: "Una configuración de Sun Cluster compuesta por sistemas basados en x86 admite hasta 8 nodos en un clúster que ejecuta Oracle RAC o hasta 4 nodos en un clúster que no ejecuta Oracle RAC."
En esta sección, se describen los errores o las omisiones de la Software Sun Cluster: Guía de instalación para el sistema operativo Solaris.
Si actualiza un clúster que ejecute también el software de Sun Cluster Geographic Edition, hay varios pasos de preparación adicionales que debe realizar antes de comenzar la actualización del software de Sun Cluster. Entre estos pasos se incluye el cierre de la infraestructura de Sun Cluster Geographic Edition. Consulte, en su lugar, el Capítulo 4, Upgrading the Sun Cluster Geographic Edition Software de Sun Cluster Geographic Edition Installation Guide en Sun Cluster Geographic Edition Installation Guide . Estos procedimientos indican cuándo se debe consultar la Guía de instalación del software de Sun Cluster para realizar la actualización de este software.
En esta sección se describen los errores y las omisiones de la Sun Cluster Data Services Planning and Administration Guide for Solaris OS .
En Resource Type Properties de Sun Cluster Data Services Planning and Administration Guide for Solaris OS, la descripción de la propiedad del recurso Failover no proporciona una instrucción relacionada con la compatibilidad con servicios escalables en las zonas no globales. Esta compatibilidad se aplica a los recursos para los que se han establecido la propiedad Failover del tipo de recurso en FALSE y la propiedad Scalable del recurso en TRUE. Esta combinación de configuración de propiedades indica que el servicio escalable utiliza el recurso SharedAddress para realizar el equilibrado de carga de red. En la versión Sun Cluster 3.2, puede configurar un servicio escalable de este tipo en un grupo de recursos que se ejecute en una zona no global. Sin embargo, no puede configurar un servicio escalable para que se ejecute en varias zonas no globales del mismo nodo.
En esta sección, se describen los errores y las omisiones de la Sun Cluster Data Service for MaxDB Guide for Solaris OS .
El servicio de datos de Sun Cluster para MaxDB admite las zonas no globales en los sistemas basados en SPARC y x86. Deben realizarse los siguientes cambios en la Guía del servicio de datos de Sun Cluster para MaxDB para obtener esta compatibilidad. Los siguientes pasos pueden realizarse en un clúster que se haya configurado para ejecutarse en zonas globales. Si instala el clúster para que se ejecute en zonas no globales, es posible que no sea necesario realizar algunos de los pasos indicados a continuación.
En cada zona, asegúrese de que todos los recursos de red estén presentes en el archivo /etc/hosts para evitar cualquier error debido a la búsqueda de servicios de nombres.
Cree, en cada zona, una entrada para el grupo MaxDB en el archivo /etc/group y agregue posibles usuarios al grupo.
Cree una entrada para el Id. de usuario de MaxDB en cada zona.
Utilice el siguiente comando para actualizar los archivos /etc/passwd y /etc/shadow con una entrada para el Id. de usuario.
# useradd -u uid -g group -d /sap-home maxdb user |
Cree directorios de puntos de montaje en las zonas en las que sea posible que se ejecute MaxDB.
Configure el archivo /etc/nsswitch.conf para que Sun Cluster HA para MaxDB se inicie o detenga correctamente en caso de producirse una recuperación ante fallos o conmutación por error.
Actualice el archivo /etc/services en cada zona con todos los puertos de MaxDB necesarios que se hayan obtenido desde las zonas globales /etc/services. Es posible que el siguiente paso no sea necesario si se ha instalado MaxDB en zonas no globales.
Copie /etc/opt/sdb de la zona global a todos los nodos de las zonas locales. Es posible que el siguiente paso no sea necesario para la instancia de MaxDB que se vaya a instalar en las zonas no globales.
Copie /var/spool/sql de la zona global a todos los nodos de las zonas locales. Es posible que el siguiente paso no sea necesario para la instancia de MaxDB que se vaya a instalar en las zonas no globales.
En los sistemas basados en x86, ejecute crle -64 -u -l /sapmnt/MaxDBSystemName/exe en todas las zonas locales en las que se ejecutará MaxDB.
En esta sección, se describen los errores y las omisiones de la Sun Cluster Data Service for SAP Guide for Solaris OS .
El servicio de datos de Sun Cluster para SAP admite las zonas no globales en los sistemas basados en SPARC y x86. Deben realizarse los siguientes cambios en la Guía del servicio de datos de Sun Cluster para SAP para obtener esta compatibilidad. Los siguientes pasos pueden realizarse en un clúster que se haya configurado para ejecutarse en zonas globales. Si instala el software para que se ejecute en zonas no globales, es posible que no sea necesario realizar algunos de los pasos indicados a continuación.
En cada zona, asegúrese de que todos los recursos de red estén presentes en el archivo /etc/hosts para evitar cualquier error debido a la búsqueda de servicios de nombres.
Cree, en cada zona, una entrada para el grupo SAP en el archivo /etc/group y agregue posibles usuarios al grupo.
Cree una entrada para el Id. de usuario de SAP en cada zona.
Utilice el siguiente comando para actualizar los archivos /etc/passwd y /etc/shadow con una entrada para el Id. de usuario.
# useradd -u uid -g group -d /sap-home sap user |
Cree directorios de puntos de montaje en las zonas en las que sea posible que se ejecute SAP.
Configure el archivo /etc/nsswitch.conf para que Sun Cluster HA para SAP se inicie o detenga correctamente en caso de producirse una recuperación ante fallos o conmutación por error.
Actualice el archivo /etc/services en cada nodo con todos los puertos de SAP necesarios que se hayan obtenido desde las zonas globales /etc/services. Es posible que el siguiente paso no sea necesario para la instancia de SAP que se vaya a instalar en las zonas no globales.
En los sistemas basados en x86, ejecute crle -64 -u -l /sapmnt/SAPSystemName/exe en todas las zonas locales en las que se ejecutará SAP.
En esta sección, se describen los errores y las omisiones de la Sun Cluster Data Service for SAP liveCache Guide for Solaris OS .
El servicio de datos de Sun Cluster para SAP liveCache admite las zonas no globales en los sistemas basados en SPARC y x86. Deben realizarse los siguientes cambios en la Guía del servicio de datos de Sun Cluster para SAP liveCache para obtener esta compatibilidad. Los siguientes pasos pueden realizarse en un clúster que se haya configurado para ejecutarse en zonas globales. Si instala el software para que se ejecute en zonas no globales, es posible que no sea necesario realizar algunos de los pasos indicados a continuación.
En cada zona, asegúrese de que todos los recursos de red estén presentes en el archivo /etc/hosts para evitar cualquier error debido a la búsqueda de servicios de nombres.
Cree, en cada zona, una entrada para el grupo SAP liveCache en el archivo /etc/group y agregue posibles usuarios al grupo.
Cree una entrada para el Id. de usuario de SAP liveCache en cada zona.
Utilice el siguiente comando para actualizar los archivos /etc/passwd y /etc/shadow con una entrada para el Id. de usuario.
# useradd -u uid -g group -d /sap-home sap user |
Cree directorios de puntos de montaje en las zonas en las que sea posible que se ejecute SAP liveCache.
Configure el archivo /etc/nsswitch.conf para que Sun Cluster HA para SAP liveCache se inicie o detenga correctamente en caso de producirse una recuperación ante fallos o conmutación por error.
Actualice el archivo /etc/services en cada nodo con todos los puertos de SAP liveCache necesarios que se hayan obtenido desde las zonas globales /etc/services. Es posible que el siguiente paso no sea necesario para la instancia de SAP liveCache que se vaya a instalar en las zonas no globales.
Copie /etc/opt/sdb desde la zona global a todos los nodos de las zonas locales. Es posible que el siguiente paso no sea necesario para la instancia de SAP liveCache que se vaya a instalar en las zonas no globales.
Copie /var/spool/sql desde la zona global a todos los nodos de las zonas locales. Es posible que el siguiente paso no sea necesario para la instancia de SAP liveCache que se vaya a instalar en las zonas no globales.
En los sistemas basados en x86, ejecute crle -64 -u -l /sapmnt/SAPSystemName/exe en todas las zonas locales en las que se ejecutará SAP liveCache.
En esta sección, se describen los errores y las omisiones de la Sun Cluster Data Service for SAP Web Application Server Guide for Solaris OS .
En SAP 7.0 y NW2004SR1, al iniciar una instancia de SAP, se inicia de forma predeterminada el proceso sapstartsrv. El proceso sapstartsrv no está bajo control de Sun Cluster HA para SAP Web Application Server. Por lo tanto, cuando Sun Cluster HA para SAP Web Application Server detiene o conmuta por error una instancia, el proceso sapstartsrv no se detiene.
Para evitar que se inicie el proceso sapstartsrv cuando Sun Cluster HA para SAP Web Application inicie una instancia de SAP, debe modificar la secuencia de comandos startsap. Además, debe cambiar el nombre del archivo /etc/rc3.d/S90sapinit por /etc/rc3.d/xxS90sapinit en todos los nodos de Sun Cluster.
El servicio de datos de Sun Cluster para SAP Web Application Server admite las zonas no globales en los sistemas basados en SPARC y x86. Deben realizarse los siguientes cambios en la Guía del servicio de datos de Sun Cluster para SAP Web Application Server para obtener esta compatibilidad. Los siguientes pasos pueden realizarse en un clúster que se haya configurado para ejecutarse en zonas globales. Si instala el software para que se ejecute en zonas no globales, es posible que no sea necesario realizar algunos de los pasos indicados a continuación.
En cada zona, asegúrese de que todos los recursos de red estén presentes en el archivo /etc/hosts para evitar cualquier error debido a la búsqueda de servicios de nombres.
Cree, en cada zona, una entrada para el grupo SAP Web Application Server en el archivo /etc/group y agregue posibles usuarios al grupo.
Cree una entrada para el Id. de usuario de SAP Web Application Server en cada zona.
Utilice el siguiente comando para actualizar los archivos /etc/passwd y /etc/shadow con una entrada para el Id. de usuario.
# useradd -u uid -g group -d /sap-home sap user |
Cree directorios de puntos de montaje en las zonas en las que sea posible que se ejecute SAP Web Application Server.
Configure el archivo /etc/nsswitch.conf para que Sun Cluster HA para SAP se inicie o detenga correctamente en caso de producirse una recuperación ante fallos o conmutación por error.
Actualice el archivo /etc/services en cada nodo con todos los puertos de SAP necesarios que se hayan obtenido desde las zonas globales /etc/services. Es posible que el siguiente paso no sea necesario para la instancia de SAP Web Application Server que se vaya a instalar en las zonas no globales.
En los sistemas basados en x86, ejecute crle -64 -u -l /sapmnt/SAPSystemName/exe en todas las zonas locales en las que se ejecutará SAP.
Realice el siguiente procedimiento para configurar un recurso HAStoragePlus para las zonas no globales.
Las entradas del archivo /etc/vfstab para los sistemas de archivos del clúster deberían contener la palabra clave global en las opciones de montaje.
Los archivos binarios de SAP que proporcionarán alta disponibilidad mediante el recurso HAStoragePlus deberían estar accesibles desde las zonas no globales.
En las zonas no globales, los sistemas de archivos utilizados por diferentes recursos de distintos grupos de recursos deben residir en un único recurso HAStoragePlus que resida, a su vez, en un grupo de recursos escalables. La lista de nodos del grupo de recursos HAStoragePlus escalables debe ser un superconjunto de las listas de nodos de los grupos de recursos de aplicaciones que tengan recursos que dependan de los sistemas de archivos. Estos recursos de aplicaciones que dependen de los sistemas de archivos deben presentar una estrecha relación de dependencia con el recurso HAStoragePlus. Además, el grupo de recursos de aplicaciones dependiente debe presentar una estrecha afinidad positiva con el grupo de recursos HAStoragePlus escalables.
En cualquier nodo del clúster, conviértase en superusuario o adopte una función que proporcione la autorización de RBAC solaris.cluster.modify.
Cree el grupo de recursos escalables con las zonas no globales que contengan el recurso HAStoragePlus.
# clresourcegroup create \ -p Maximum_primaries=m\ -p Desired_primaries=n\ [-n node-zone-list] hasp-resource-group |
Especifica el número máximo de elementos principales activos para este grupo de recursos.
Especifica el número de elementos principales activos en los que debería intentar iniciarse el grupo de recursos.
En la lista de nodos de un grupo de recursos HAStoragePlus, especifica la lista de nombres de nodos:nombres de zonas como la lista de nodos del grupo de recursos HAStoragePlus, en los que pueden establecerse en línea las instancias de SAP.
Especifica el nombre del grupo de recursos escalables que se va a agregar. Este nombre debe comenzar por un carácter ASCII.
Registre el tipo de recurso para el recurso HAStoragePlus.
# clresourcetype register HAStoragePlus |
Cree el recurso hasp de HAStoragePlus, y defina los puntos de montaje de los sistemas de archivos SAP y las rutas a dispositivos globales.
# clresource create -g hasp-resource-group -t SUNW.HAStoragePlus \ -p GlobalDevicePaths=/dev/global/dsk/d5s2,dsk/d6 \ -p affinityon=false -p FilesystemMountPoints=/sapmnt/JSC,/usr/sap/trans,/usr/sap/JSC hasp-resource |
Especifica el nombre del grupo de recursos.
Contiene los siguientes valores:
Nombres de grupos de dispositivos globales como, por ejemplo, sap-dg, dsk/d5 .
Rutas a dispositivos globales como, por ejemplo, /dev/global/dsk/d5s2, /dev/md/sap-dg/dsk/d6.
Contiene los siguientes valores:
Puntos de montaje de sistemas de archivos locales o del clúster como, por ejemplo, /local/mirrlogA,/local/mirrlogB,/sapmnt/JSC,/usr/sap/JSC.
El recurso HAStoragePlus se crea con el estado habilitado.
Registre el tipo de recurso para la aplicación SAP.
# clresourcetype register resource-type |
Especifica el nombre del tipo de recurso que se va a agregar. Para obtener información, consulte Productos admitidos.
Cree un grupo de recursos de SAP.
# clresourcegroup create [-n node-zone-list] -p RG_affinities=++hastorageplus-rg resource-group-1 |
Especifique el grupo de recursos de los servicios de SAP.
Agregue el recuso de la aplicación SAP a resource-group-1 y establezca la dependencia en hastorageplus-1.
# clresource create -g resource-group-1 -t SUNW.application \ [-p "extension-property[{node-specifier}]"=value, ?] \ -p Resource_dependencies=hastorageplus-1 resource |
Ponga en línea el grupo de recursos a prueba de fallos.
# clresourcegroup online resource-group-1 |
En esta sección, se describen los errores y las omisiones de la Sun Cluster System Administration Guide for Solaris OS .
Utilice este procedimiento para ejecutar una aplicación fuera del clúster con fines de prueba.
Determine si se utiliza el dispositivo del quórum en el metaconjunto de Solaris Volume Manager y si este dispositivo utiliza las reservas scsi2 o scsi3.
# clquorum show |
Si el dispositivo del quórum se encuentra en el metaconjunto de Solaris Volume Manager, agregue un nuevo dispositivo del quórum que no forme parte del metaconjunto para utilizarlo posteriormente en el modo sin clúster.
# clquorum add did |
Elimine el antiguo dispositivo del quórum.
# clqorum remove did |
Si el dispositivo del quórum utiliza una reserva scsi2, límpiela en el antiguo quórum y compruebe que no quede ninguna reserva scsi2.
# /usr/cluster/lib/sc/pgre -c pgre_scrub -d /dev/did/rdsk/dids2 # /usr/cluster/lib/sc/pgre -c pgre_inkeys -d /dev/did/rdsk/dids2 |
Extraiga el nodo que desee para arrancarlo en el modo sin clúster.
# clresourcegroup evacuate -n targetnode |
Establezca sin conexión cualquier grupo de recursos que contenga recursos HAStorage o HAStoragePlus, y dispositivos o sistemas de archivos asociados al metaconjunto que desea utilizar posteriormente en el modo sin clúster.
# clresourcegroup offline resourcegroupname |
Deshabilite todos los recursos de los grupos de recursos que ha establecido sin conexión.
# clresource disable resourcename |
Deje sin administrar el grupo de recursos.
# clresourcegroup unmanage resourcegroupname |
Establezca sin conexión el grupo o los grupos de dispositivos correspondientes.
# cldevicegroup offline devicegroupname |
Deshabilite el grupo o los grupos de dispositivos.
# cldevicegroup disable devicegroupname |
Arranque el nodo pasivo en el modo sin clúster.
# reboot -x |
Verifique que el proceso de arranque se haya completado en el nodo pasivo antes de continuar.
Solaris 9
El indicador de inicio de sesión sólo aparecerá una vez completado el proceso de arranque, por lo que no será necesario realizar ninguna acción.
Solaris 10
# svcs -x |
Determine si hay alguna reserva scsi3 en los discos del metaconjunto o los metaconjuntos. Ejecute los siguientes comandos en todos los discos de los metaconjuntos.
# /usr/cluster/lib/sc/scsi -c inkeys -d /dev/did/rdsk/dids2 |
Si hay alguna reserva scsi3 en los discos, límpielas.
# /usr/cluster/lib/sc/scsi -c scrub -d /dev/did/rdsk/dids2 |
Utilice el metaconjunto en el nodo extraído.
# metaset -s name -C take -f |
Monte el sistema o los sistemas de archivos que contengan el dispositivo definido en el metaconjunto.
# mount device mountpoint |
Inicie la aplicación y realice la prueba que desee. Una vez finalizada la prueba, detenga la aplicación.
Reinicie el nodo y espere a que finalice el proceso de arranque.
# reboot |
Establezca en línea el grupo o los grupos de dispositivos.
# cldevicegroup online -e devicegroupname |
Inicie el grupo o los grupos de recursos.
# clresourcegroup online -eM resourcegroupname |
Sun Cluster admite la función de filtrado IP de Solaris con las siguientes restricciones:
Sólo se admiten los servicios de datos de conmutación por error.
Sun Cluster no admite el filtrado IP con servicios de datos escalables.
Sólo se admite el filtrado sin estado.
No se admite el enrutamiento por NAT.
Se admite el uso de NAT para la traducción de direcciones locales. La traducción NAT reescribe los paquetes en línea y, por lo tanto, es indetectable para el software del clúster.
En el archivo /etc/iu.ap, modifique las entradas NIC públicas para mostrar clhbsndr pfil como la lista de módulos.
pfil debe ser el último módulo de la lista.
Si tiene el mismo tipo de adaptador para las redes pública y privada, las modificaciones realizadas en el archivo /etc/iu.ap enviarán a pfil a las secuencias de red privada. Sin embargo, el módulo de transporte del clúster eliminará automáticamente todos los módulos no deseados durante la creación de las secuencias, por lo que se eliminará pfil de las secuencias de red privada.
Para garantizar que el filtro IP funcione en el modo sin clúster, actualice el archivo /etc/ipf/pfil.ap.
Las actualizaciones al archivo /etc/iu.ap presentan ligeras diferencias. Consulte la documentación del filtro IP para obtener más información.
Reinicie todos los nodos afectados.
Puede arrancar los nodos de forma secuencial.
Agregue las reglas de filtrado al archivo /etc/ipf/ipf.conf en los nodos afectados. Para obtener información sobre la sintaxis de las reglas de filtrado IP, consulte ipf(4)
Tenga en cuenta las siguientes directrices y requisitos al agregar reglas de filtrado a los nodos de Sun Cluster.
Sun Cluster conmuta por error las direcciones de red de un nodo a otro. No se necesita ningún procedimiento o código especial durante la conmutación por error.
Todas las reglas de filtrado que hagan referencia a las direcciones IP de los recursos de nombre de host lógico o dirección compartida deben ser idénticas en todos los nodos del clúster.
Las reglas del nodo auxiliar harán referencia a una dirección IP inexistente. No obstante, esta regla forma parte del conjunto de reglas activas del filtro IP y se aplicará cuando el nodo reciba la dirección tras una conmutación por error.
Todas las reglas de filtrado deben ser idénticas para todos los NIC del mismo grupo IPMP. En otras palabras, si una regla es específica de una interfaz, debe existir también esa misma regla para todas las interfaces del mismo grupo IPMP.
Habilite el servicio de SMF ipfilter.
# svcadm enable /network/ipfilter:default |
En esta sección, se describen los errores y las omisiones de la Sun Cluster Data Services Developer’s Guide for Solaris OS .
En Resource Type Properties de Sun Cluster Data Services Developer’s Guide for Solaris OS, la descripción de la propiedad del recurso Failover no proporciona una instrucción relacionada con la compatibilidad con servicios escalables en las zonas no globales. Esta compatibilidad se aplica a los recursos para los que se han establecido la propiedad Failover del tipo de recurso en FALSE y la propiedad Scalable del recurso en TRUE. Esta combinación de configuración de propiedades indica que el servicio escalable utiliza el recurso SharedAddress para realizar el equilibrado de carga de red. En la versión Sun Cluster 3.2, puede configurar un servicio escalable de este tipo en un grupo de recursos que se ejecute en una zona no global. Sin embargo, no puede configurar un servicio escalable para que se ejecute en varias zonas no globales del mismo nodo.
Falta una descripción del cambio efectuado en el comportamiento de los tiempos de espera de los métodos en la versión Sun Cluster 3.2. Si se agota el tiempo de espera de devolución de llamadas del método RGM, el proceso se finaliza mediante la señal SIGABRT en lugar de la señal SIGTERM. Esto provoca que todos los miembros del grupo de procesos generen un archivo del núcleo central.
Evite escribir el método de servicio de datos que crea un nuevo grupo de procesos. Si el método de servicio de datos no necesita crear un nuevo grupo de procesos, escriba también un manejador de señal para las señales SIGTERM y SIGABRT. Escriba los manejadores de señales para reenviar la señal SIGTERM o SIGABRT al grupo de procesos subordinados antes de que el manejador de señal finalice el proceso superior. De esta forma, aumenta la probabilidad de que todos los procesos producidos por el método se finalicen correctamente.
Capítulo 12, Cluster Reconfiguration Notification Protocol de Sun Cluster Data Services Developer’s Guide for Solaris OS, falta la instrucción que indica que el Protocolo de notificación de reconfiguración del clúster (CRNP, Cluster Reconfiguration Notification Protocol) se ejecuta sólo en la zona global en el SO Solaris 10.
En Setting Up the Development Environment for Writing a Data Service de Sun Cluster Data Services Developer’s Guide for Solaris OS, aparece una nota en la que se indica que se necesita la distribución completa o para el desarrollador del grupo de software. Esta instrucción hace referencia al equipo de desarrollo. Sin embargo, como aparece después de la instrucción sobre la realización de pruebas del servicio de datos en un clúster, es posible que se malinterprete como un requisito para el clúster en el que se está ejecutando el servicio de datos.
En esta sección, se describen los errores y las omisiones de la Sun Cluster Quorum Server User’s Guide .
Los siguientes requisitos y directrices de instalación no se encuentran presentes o son confusos:
Los requisitos del software de Solaris para Sun Cluster se aplican también al software del servidor del quórum.
Las plataformas de hardware admitidas para un servidor del quórum son iguales a las admitidas para un nodo del clúster.
No es necesario configurar un servidor del quórum con el mismo hardware y en la misma plataforma de software que el clúster o los clústers para los que proporciona el quórum. Por ejemplo, un equipo basado en x86 que se ejecuta en el SO Solaris 9 se puede configurar como servidor del quórum para un clúster basado en SPARC que se ejecuta en el SO Solaris 10.
Un servidor del quórum puede configurarse en un nodo del clúster para proporcionar el quórum a otros clústers diferentes del clúster al que pertenece el nodo. Sin embargo, un servidor del quórum configurado en un nodo del clúster no proporcionará alta disponibilidad.
En esta sección, se describen los errores, las omisiones y las adiciones de las páginas de comando man de Sun Cluster.
En la siguiente sinopsis modificada y las secciones de opciones agregadas de la página de comando man ccp(1M), se describe la adición de la compatibilidad del shell seguro con las utilidades del panel de control del clúster (CCP):
SYNOPSIS
$CLUSTER_HOME/bin/ccp [-s] [-l username] [-p ssh-port] {clustername | nodename} |
OPCIONES
Se admiten las siguientes opciones:
Especifica el nombre de usuario de la conexión ssh. Esta opción se transfiere a la utilidad cconsole, crlogin o cssh cuando se inicia desde el CCP. La utilidad ctelnet omite esta opción.
Si no se especifica la opción -l, se utilizará el nombre de usuario que ha iniciado el CCP.
Especifica el número de puerto del shell seguro que se se utilizará. Esta opción se transfiere a la utilidad cssh cuando se inicia desde el CCP. Las utilidades cconsole, crlogin y ctelnet omiten esta opción.
Si no se especifica la opción -p, se utilizará el número de puerto predeterminado 22 para las conexiones seguras.
Especifica el uso de las conexiones del shell seguro a las consolas del nodo en lugar de las conexiones de telnet. Esta opción se transfiere a la utilidad cconsole cuando se inicia desde el CCP. Las utilidades crlogin, cssh y ctelnet omiten esta opción.
Si no se especifica la opción -s, la utilidad cconsole usa las conexiones de telnet a las consolas.
Para anular la opción -s, desactive la casilla de verificación Usar SSH del menú Opciones de la interfaz gráfica de usuario (GUI) de cconsole.
En la siguiente sinopsis modificada y las secciones de opciones agregadas de las páginas de comando man combinadas cconsole, crlogin, cssh y ctelnet, se describe la adición de la compatibilidad del shell seguro con las utilidades del panel de control del clúster:
SYNOPSIS
$CLUSTER_HOME/bin/cconsole [-s] [-l username] [clustername… | nodename…] $CLUSTER_HOME/bin/crlogin [-l username] [clustername… | nodename…] $CLUSTER_HOME/bin/cssh [-l username] [-p ssh-port] [clustername… | nodename…] $CLUSTER_HOME/bin/ctelnet [clustername… | nodename…] |
DESCRIPCIÓN
Esta utilidad establece directamente las conexiones del shell seguro con los nodos del clúster.
OPCIONES
Especifica el nombre de usuario de ssh para las conexiones remotas. Esta opción es válida con los comandos cconsole, crlogin y cssh.
El valor del argumento se recuerda para que los clústeres y los nodos que se especifiquen posteriormente utilicen el mismo nombre de usuario al establecer las conexiones.
Si no se especifica la opción -l, se utilizará el nombre de usuario que ha ejecutado el comando.
Especifica el número de puerto del shell seguro que se se utilizará. Esta opción es válida con el comando cssh.
Si no se especifica la opción -p, se utilizará el número de puerto predeterminado 22 para las conexiones seguras.
Especifica el uso de las conexiones del shell seguro en lugar de las conexiones de telnet a las consolas del nodo. Esta opción es válida con el comando cconsole.
Si no se especifica la opción -s, la utilidad usa las conexiones de telnet a las consolas.
Para anular la opción -s en la interfaz gráfica de usuario (GUI) de cconsole, desactive la casilla de verificación Usar SSH en el menú Opciones.
La descripción del subcomando remove implica que el comando no funcionará cuando se den determinadas condiciones. Sin embargo, el comando se ejecutará en estas condiciones, aunque es posible que el resultado afecte negativamente al clúster. A continuación, se proporciona una descripción más precisa del comportamiento y los requisitos del subcomando remove.
Para eliminar un nodo de un clúster, debe cumplir las siguientes directrices. De lo contrario, es posible que la eliminación del nodo ponga en peligro el quórum en el clúster.
Desconfigure el nodo que se va a eliminar en los dispositivos del quórum, a menos que se especifique también la opción -f.
Asegúrese de que el nodo que se va a eliminar no sea un miembro activo del clúster.
No elimine un nodo de un clúster de tres nodos a menos que se haya configurado, como mínimo, un dispositivo del quórum compartido.
El comando clnode remove intenta eliminar un subconjunto de referencias al nodo de la base de datos de configuración del clúster. Si se ha especificado también la opción -f, el subcomando intenta eliminar todas las referencias al nodo.
Antes de poder utilizar satisfactoriamente el comando clnode remove para eliminar un nodo del clúster, debe utilizar, en primer lugar, el comando claccess add para agregar el nodo a la lista de autenticación del clúster, si aún no lo ha hecho. Utilice el comando claccess list o claccess show para ver la lista de autenticación del clúster actual. Después, por motivos de seguridad, utilice el comando claccess deny-all para impedir el acceso a la configuración del clúster por parte de cualquier nodo del clúster. Para obtener más información, consulte la página de comando man claccess(1CL).
Falta la siguiente opción en la página de comando man clresource(1CL):
Si se indica el operando +, especifica que el comando funciona en recursos cuyo grupo de recursos se haya suspendido. Si no se especifica la opción u al especificar el operando +, el comando omite todos los recursos cuyo grupo de recursos se haya suspendido.
La opción -u es válida cuando se especifica el operando + en los subcomandos clear, disable, enable, monitor, set y unmonitor.
La descripción del operando + debería indicar que, al utilizarlo con el subcomando clear, disable, enable, monitor, set o unmonitor, el comando omite todos los recursos cuyo grupo de recursos se haya suspendido, a menos que se especifique también la opción -u.
El ejemplo proporcionado en los operandos + y - de las opciones -p, -x, and -y es incorrecto. Las definiciones deberían ser iguales a las siguientes:
Agrega un valor o valores a un valor de matriz de cadena. Sólo el subcomando "set" acepta este operador. Puede especificar este operador sólo para las propiedades que acepten las listas de valores de cadenas, como, por ejemplo, Resource_dependencies.
Elimina un valor o valores de un valor de matriz de cadena. Sólo el subcomando "set" acepta este operador. Puede especificar este operador sólo para las propiedades que acepten las listas de valores de cadenas, como, por ejemplo, Resource_dependencies.
La descripción y la sintaxis del subcomando evacuate indica de forma incorrecta que puede evacuar más de un nodo o zona en la misma llamada al comando. Puede especificar, en su lugar, sólo un nodo o zona en el comando evacuate .
Falta la siguiente opción en la página de comando man clresourcegroup(1CL):
Si se indica el operando +, especifica que el comando funciona en los grupos de recursos suspendidos. Si no se especifica la opción u al especificar el operando +, el comando omite todos los grupos de recursos suspendidos.
La opción -u es válida al especificar el operando + en los subcomandos add-node, manage, offline, online, quiesce, remaster, remove-node, restart, set, switch y unmanage.
La descripción del operando + debería indicar que, al utilizarlo con el subcomando add-node, manage, offline, online, quiesce, remaster, remove-node, restart, set, switch o unmanage, el comando omite todos los grupos de recursos suspendidos, a menos que se especifique también la opción -u.
Se ha modificado el uso de la propiedad Network_resources_used en la versión Sun Cluster 3.2. Si no se asigna un valor a esta propiedad, su valor se actualiza automáticamente mediante RGM en función de la configuración de las propiedades de dependencias de los recursos. No es necesario establecer directamente esta propiedad. En su lugar, establezca la propiedad Resource_dependencies, Resource_dependencies_offline_restart, Resource_dependencies_restart o Resource_dependencies_weak.
Para mantener la compatibilidad con las versiones anteriores del software de Sun Cluster, aún puede establecer directamente el valor de la propiedad Network_resources_used. Si lo hace, el valor de la propiedad Network_resources_used ya no derivará de la configuración de las propiedades de dependencias de los recursos.
Si agrega un nombre de recurso a la propiedad Network_resources_used, el nombre se agrega también automáticamente a la propiedad Resource_dependencies. La única forma de eliminar la dependencia consiste en eliminar ésta de la propiedad Network_resources_used. Si no está seguro de si la dependencia de recurso de red se ha agregado originalmente a la propiedad Resource_dependencies o a Network_resources_used, elimine la dependencia de ambas propiedades. Por ejemplo, el siguiente comando elimina una dependencia del recurso r1 hacia el recurso de red r2, independientemente de si se ha agregado la dependencia a la propiedadNetwork_resources_used o a Resource_dependencies:
# clresource set -p Network_resources_used-=r2 -p Resource_dependencies-=r2 r1 |
La página de comando man r_properties(5) contiene descripciones incorrectas de las propiedades Resource_dependencies, Resource_dependencies_offline_restart , Resource_dependencies_restart y Resource_dependencies_weak. Para obtener las descripciones correctas de estas propiedades, consulte Resource Properties de Sun Cluster Data Services Developer’s Guide for Solaris OS.
En la descripción del recurso Scalable, falta una instrucción relacionada con la compatibilidad de los servicios escalables en las zonas no globales. Esta compatibilidad se aplica a los recursos para los que se han establecido la propiedad Failover del tipo de recurso en FALSE y la propiedad Scalable del recurso en TRUE. Esta combinación de configuración de propiedades indica que el servicio escalable utiliza el recurso SharedAddress para realizar el equilibrado de carga de red. En la versión Sun Cluster 3.2, puede configurar un servicio escalable de este tipo en un grupo de recursos que se ejecute en una zona no global. Sin embargo, no puede configurar un servicio escalable para que se ejecute en varias zonas no globales del mismo nodo.
La descripción de la propiedad Failover del tipo de recurso contiene una instrucción incorrecta relacionada con la compatibilidad con los servicios escalables en las zonas no globales en la versión Sun Cluster 3.2. Esta compatibilidad se aplica a los recursos para los que se han establecido la propiedad Failover del tipo de recurso en FALSE y la propiedad Scalable del recurso en TRUE.
Incorrecto: no se puede utilizar un servicio escalable de este tipo en las zonas.
Correcto: se puede configurar un servicio escalable de este tipo en un grupo de recursos que se ejecute en una zona no global. Sin embargo, no puede configurar un servicio escalable para que se ejecute en varias zonas no globales del mismo nodo.
La siguiente información se ha agregado a la sección de descripción de la página de comando man serialport(4):
Para admitir las conexiones del shell seguro a las consolas del nodo, especifique el nombre del dispositivo de acceso a la consola y el número de puerto del shell seguro para cada nodo en el archivo /etc/serialports. Si utiliza la configuración predeterminada del shell seguro en el dispositivo de acceso a la consola, especifique el número de puerto 22.
En la página de comando man SUNW.Event(5), falta la instrucción que indica que el Protocolo de notificación de reconfiguración del clúster (CRNP, Cluster Reconfiguration Notification Protocol) se ejecuta sólo en la zona global en el SO Solaris 10