Notas de la versión de Sun Cluster 3.2 para el SO Solaris

Notas de la versión de Sun Cluster 3.2 para el SO Solaris

Este documento proporciona la siguiente información sobre el software de SunTM Cluster 3.2.

Novedades del software de Sun Cluster 3.2

En esta sección, se proporciona información relacionada con las nuevas características, funciones y productos admitidos del software Sun Cluster 3.2. Asimismo, incluye información acerca de algunas restricciones introducidas en esta versión.

Nuevas características y funcionalidad

En estas secciones se proporcionan las siguientes nuevas características del software de Sun Cluster 3.2.

Nuevo conjunto de comandos orientados a objetos de Sun Cluster

La nueva interfaz de línea de comandos de Sun Cluster incluye un comando diferente para cada tipo de objeto del clúster y utiliza letras de opciones y nombres de subcomandos coherentes. El nuevo conjunto de comandos de Sun Cluster admite también nombres de comandos largos y cortos. La salida del comando proporciona mensajes de error y ayuda mejorados, así como informes de configuración y estado que permiten una mejor lectura. Además, algunos comandos incluyen opciones de importación y exportación con el uso de archivos de configuración basados en XML portátiles. Estas opciones permiten repetir una parte de la configuración del clúster o la configuración completa, lo que acelera el proceso de clonación parcial o completa de la configuración. Consulte la página de comando man Intro(1CL) para obtener más información.

Administración e integración mejoradas de Oracle RAC 10g

El paquete de instalación de Sun Cluster Oracle RAC, así como la configuración, se integra ahora en los procedimientos de Sun Cluster. Se pueden utilizar los nuevos tipos y propiedades de recursos específicos de Oracle RAC para obtener un control más preciso.

La capacidad de administración ampliada de Oracle RAC, proporcionada por los tipos de recursos ScalDeviceGroup y ScalMountPoint permite simplificar la integración de Oracle RAC en las configuraciones de Sun Cluster, así como mejorar la función de diagnóstico y la disponibilidad. Consulte Sun Cluster Data Service for Oracle RAC Guide for Solaris OS para obtener más información.

Asistentes para la configuración de servicios de datos

Sun Cluster proporciona nuevos asistentes para la configuración de servicios de datos que simplifican la configuración de las aplicaciones más utilizadas mediante la detección automática de los parámetros seleccionados y la validación inmediata. Los asistentes para la configuración de servicios de datos se proporcionan con dos formatos:

Se admiten los siguientes servicios de datos con el formato de GUI de Sun Cluster Manager:

El formato de interfaz de línea de comandos de clsetup admite todas las aplicaciones compatibles con Sun Cluster Manager.

Consulte la documentación de Sun Cluster de cada uno de los servicios de datos admitidos para obtener más información.

Esquema de dirección IP flexible

El software de Sun Cluster permite utilizar ahora un intervalo reducido de direcciones IP para las interconexiones privadas. Además, ahora puede personalizar la dirección IP base y su intervalo durante la instalación o después de ésta.

Estos cambios en el esquema de dirección IP facilitan la integración de los entornos de Sun Cluster en las redes existentes con espacios de dirección regulados o limitados. Consulte How to Change the Private Network Address or Address Range of an Existing Cluster de Sun Cluster System Administration Guide for Solaris OS para obtener más información.

Compatibilidad de Sun Cluster con los servicios de la utilidad de administración de servicios

El software de Sun Cluster proporciona ahora una completa integración con la Utilidad de administración de Servicios (SMF, Service Management Facility) del SO Solaris 10 y permite la encapsulación de aplicaciones controladas por SMF en el modelo de administración de recursos de Sun Cluster. SMF continúa realizando la administración local del ciclo de vida de nivel de servicio, mientras que las operaciones de administración de fallos del clúster de nivel de recursos (nodo, almacenamiento) las realiza el software de Sun Cluster.

Al transferir aplicaciones de un entorno de un único nodo del SO Solaris 10 a un entorno de varios nodos de Sun Cluster, aumenta la disponibilidad con un esfuerzo mínimo. Consulte Enabling Solaris SMF Services to Run With Sun Cluster de Sun Cluster Data Services Planning and Administration Guide for Solaris OS para obtener más información.

Mayor flexibilidad para el protocolo de separación

Esta nueva función permite la personalización del protocolo de separación predeterminado. Entre las opciones, se incluyen SCSI-3, SCSI-2 o detección por descubrimiento.

Esta flexibilidad permite el uso predeterminado de SCSI-3, un protocolo más reciente, para obtener mayor compatibilidad con la función de multirruta, una integración más sencilla con el almacenamiento en dispositivos que no son de Sun y tiempos de recuperación más cortos en el nuevo almacenamiento, a la vez que se mantiene la compatibilidad con el comportamiento de Sun Cluster 3.0 o 3.1 y SCSI-2 para los dispositivos más antiguos. Consulte Administering the SCSI Protocol Settings for Storage Devices de Sun Cluster System Administration Guide for Solaris OS para obtener más información.

Sun Cluster Quorum Server

Una nueva opción de dispositivo del quórum está disponible actualmente en el software de Sun Cluster. En lugar de utilizar un disco compartido y los protocolos de reserva de SCSI, ahora se puede utilizar un servidor de Solaris ubicado fuera del clúster para ejecutar un módulo de servidor del quórum, que admite un protocolo de reserva atómico a través de TCP/IP Esta compatibilidad permite acelerar el tiempo de conmutación por error y también reduce los costes de implementación: suprime la necesidad de un disco del quórum compartido para cualquier situación en la que se necesite (dos nodos) o desee el uso de un quórum. Consulte la Sun Cluster Quorum Server User’s Guide para obtener más información.

Administración de fallos de rutas de disco

El software de Sun Cluster se puede configurar ahora para reiniciar automáticamente un nodo en caso de fallar todas las rutas a discos compartidos. Una reacción más rápida en caso de producirse un fallo grave de rutas de disco mejora la disponibilidad. Consulte Administering Disk-Path Monitoring de Sun Cluster System Administration Guide for Solaris OS para obtener más información.

Mejoras de la disponibilidad de HAStoragePlus

Ahora se crean automáticamente puntos de montaje de HAStoragePlus en caso de producirse un fallo de montaje. Esta función impide que se produzcan situaciones de conmutación por error debido a un fallo, mejorando de esta forma la disponibilidad del entorno.

Compatibilidad ampliada con las zonas de Solaris

El software de Sun Cluster admite ahora los siguientes servicios de datos en las zonas no globales de Solaris.

Esta función permite combinar las ventajas de la contención de aplicaciones ofrecidas por las zonas de Solaris y el aumento de la disponibilidad proporcionado por el software de Sun Cluster. Consulte la documentación de Sun Cluster de los servicios de datos adecuados para obtener más información.

ZFS

ZFS se admite como sistema de archivos local de alta disponibilidad en la versión Sun Cluster 3.2. ZFS, incluido en el software de Sun Cluster, ofrece una solución de sistema de archivos de alta calidad que combina la alta disponibilidad, la integridad de los datos, el rendimiento y la escalabilidad, satisfaciendo las necesidades de los entornos más exigentes.

Se están agregando continuas mejoras a ZFS para optimizar el rendimiento con todas las cargas de trabajo, sobre todo, las transacciones de base de datos. Asegúrese de que se hayan instalado las últimas revisiones de ZFS y de que se haya optimizado la configuración para su tipo de carga de trabajo específico.

Clúster del campus de HDS TrueCopy

Los clústers del campus basados en Sun Cluster admiten ahora la repetición basada en controladores de HDS TrueCopy, lo que permite la administración automatizada de las configuraciones de TrueCopy. El software de Sun Cluster administra de forma automática y transparente el cambio al sitio del campus secundario en caso de producirse una conmutación por error; de esta forma, la solución es menos propensa a presentar errores, a la vez que se mejora su disponibilidad general. Esta nueva infraestructura de repetición de datos remota permite al software de Sun Cluster admitir nuevas configuraciones para los clientes que se han estandarizado en una infraestructura de repetición específica como, por ejemplo, TrueCopy, y en ubicaciones en las que la repetición basada en host no es viable debido a la distancia o la incompatibilidad de las aplicaciones.

Esta nueva combinación aporta una disponibilidad mejorada y una menor complejidad a la par que un coste inferior. El software de Sun Cluster utiliza la infraestructura de repetición de cliente TrueCopy, lo que limita la necesidad de usar soluciones de repetición adicionales.

Clúster del campus basado en especificaciones

Los clústeres del campus basados en especificaciones admiten ahora una amplia gama de configuraciones a distancia. Estos clústeres admiten este tipo de configuraciones mediante el requisito de conformidad con una tasa de errores y latencia en lugar de con un conjunto fijo de distancias y componentes.

Consulte el Capítulo 7, Campus Clustering With Sun Cluster Software de Sun Cluster 3.1 - 3.2 Hardware Administration Manual for Solaris OS para obtener más información.

Compatibilidad con la etiqueta Interfaz de firmware extensible (EFI) y discos con varios terabytes

Las configuraciones de Sun Cluster admiten ahora discos con una capacidad superior a 1 TB, que utilizan el nuevo formato de disco Interfaz de firmware extensible (EFI, Extensible Firmware Interface). Este formato es necesario para los discos de varios terabytes, pero puede utilizarse con discos de menos capacidad. Esta nueva función amplía las configuraciones de Sun Cluster admitidas a entornos con requisitos de almacenamiento de gama alta.

Compatibilidad ampliada con los componentes de software de VERITAS

El administrador de volúmenes y el sistema de archivos VERITAS, que forma parte de VERITAS Storage Foundation 5.0, se admiten ahora en las plataformas SPARC, así como VERITAS Volume Manager 4.1 con el SO Solaris 10 en las plataformas x86/x64.

VERITAS Volume Replicator (VVR) 5.0, y VERITAS Fast Mirror Resynchronization (FMR) 4.1 y 5.0, que forman parte de VERITAS FlashSnap, pueden utilizarse ahora en los entornos de Sun Cluster ubicados en las plataformas SPARC.

Compatibilidad de cuota

Ahora se puede utilizar la administración de cuota con HAStoragePlus en los sistemas de archivos UFS locales para obtener un mejor control del consumo de recursos.

Compatibilidad con Oracle DataGuard

El software de Sun Cluster ofrece actualmente una facilidad de uso mejorada para las implementaciones de Oracle, incluido el software de repetición de datos DataGuard. Los clientes pueden especificar ahora una base de datos HA-Oracle para que forme parte de la configuración de Oracle DataGuard como sitio principal o auxiliar. Esta base de datos puede ser un dispositivo auxiliar lógico o físico. Para obtener más información, consulte Sun Cluster Data Service for Oracle Guide for Solaris OS .


Nota –

Cuando el agente de HA-Oracle administra una base de datos auxiliar, sólo controlará el inicio, la parada y la supervisión de esa base de datos. El agente no reiniciará la recuperación de la base de datos auxiliar si se conmuta por error a otro nodo.


Actualización de partición doble

Con esta nueva función de intercambio de software, el proceso de actualización se ha simplificado en gran medida. Cualquier componente de la pila de software, junto con el software de Sun Cluster, puede actualizarse en un solo paso: el sistema operativo Solaris, el software de Sun Cluster, los sistemas de archivos, los administradores de volúmenes, las aplicaciones y los servicios. Esta automatización reduce el riesgo de que se produzcan errores humanos durante la actualización del clúster y reduce al mínimo las posibilidades de que se produzcan interrupciones del servicio en una actualización del clúster estándar.

Actualización automática

El método de actualización automática puede utilizarse ahora con el software de Sun Cluster. Este método reduce el tiempo de inactividad del sistema en un nodo durante la actualización, así como los reinicios innecesarios; por lo tanto, reduce el periodo de tiempo de mantenimiento necesario durante el que el servicio se encuentra en peligro.

En el momento de la publicación, la actualización automática sólo se puede utilizar si la instalación de Sun Cluster usa Solaris Volume Manager para administrar el almacenamiento o los grupos de discos. La actualización automática no admite actualmente VXVM. Consulte Actualización para obtener más información.

Cualquier actualización automática de Solaris 8 a Solaris 9 requiere la aplicación de la revisión de SVM 116669-18 antes de efectuar el reinicio desde el arranque alternativo.

Instalación opcional de Sun Cluster Manager

La instalación de Sun Cluster Manager, la GUI de administración de Sun Cluster, es ahora opcional. Este cambio suprime el acceso basado en web al clúster para cumplir con las reglas de seguridad potenciales. Consulte Cómo instalar el marco de trabajo y los paquetes de software de servicio de datos de Sun Cluster de Software Sun Cluster: Guía de instalación para el sistema operativo Solaris para obtener información sobre cómo anular la selección de Sun Cluster Manager durante la instalación.

MIB de eventos de SNMP

El software de Sun Cluster incluye un nuevo mecanismo de eventos de SNMP de Sun Cluster, así como un nuevo MIB de SNMP. Estas nuevas funciones permiten las aplicaciones de administración de SNMP de terceros para realizar el registro directamente con el software de Sun Cluster y recibir las notificaciones oportunas de los eventos del clúster. Una notificación de eventos precisa y la integración con estructuras de administración empresarial de terceros mediante la compatibilidad con SNMP estándar proporcionan una supervisión proactiva y una mayor disponibilidad. Consulte Creating, Setting Up, and Managing the Sun Cluster SNMP Event MIB de Sun Cluster System Administration Guide for Solaris OS para obtener más información.

Registro de comandos

La información de comandos puede registrarse ahora con el software de Sun Cluster. Esta capacidad facilita el diagnóstico de los fallos del clúster y proporciona un historial de las acciones de administraciones para las funciones de archivado o repetición. Para obtener más información, consulte How to View the Contents of Sun Cluster Command Logs de Sun Cluster System Administration Guide for Solaris OS.

Supervisión de los recursos del sistema de carga de trabajo

El software de Sun Cluster ofrece nuevas herramientas de visualización y medición del uso de los recursos del sistema, incluida la medición precisa del consumo por nodo, recurso y grupo de recursos. Estas nuevas herramientas proporcionan datos de historial, así como administración de umbrales, y control y reserva de la CPU. Este control mejorado permite administrar de forma más eficaz la capacidad y el nivel de servicio.

Creación automática de grupos de IPMP de varios adaptadores mediante scinstall

La utilidad interactiva scinstall configura un grupo IPMP de un único adaptador o varios para cada conjunto de adaptadores de red pública en función de los adaptadores disponibles en cada subred. Esta funcionalidad sustituye al comportamiento anterior de la utilidad, en el que se creaba un grupo IPMP de un único adaptador para cada adaptador disponible de la subred. Para obtener más información sobre éste y otros cambios efectuados en las directivas de grupo IPMP, consulte Redes públicas de Software Sun Cluster: Guía de instalación para el sistema operativo Solaris.

Compatibilidad del shell seguro con el software del panel de control del clúster

Se ha agregado la compatibilidad del shell seguro con el panel de control del clúster (CCP) mediante las siguientes funciones:

Para obtener más información sobre la preparación y el uso de las funciones de shell seguro de CCP, consulte Cómo instalar el software Cluster Control Panel en una consola de administración de Software Sun Cluster: Guía de instalación para el sistema operativo Solaris. Para obtener información sobre las actualizaciones de las páginas de comando man relacionadas, consulte ccp(1M), cconsole(1M), crlogin(1M), cssh(1M) y ctelnet(1M), y serialports(4).

Nuevo requisito mínimo de una interconexión del clúster

El nuevo número mínimo de interconexiones del clúster que debe tener un clúster se ha cambiado a una sola interconexión entre los nodos. Se ha modificado la utilidad interactiva scinstall para que permita la configuración de sólo una interconexión al usar esta utilidad en el modo personalizado. Para usar el modo típico de la utilidad, debe configurar dos interconexiones. Para obtener más información, consulte Interconexión de clúster de Software Sun Cluster: Guía de instalación para el sistema operativo Solaris.

Compatibilidad del filtro IP con los servicios de conmutación por error

El software de Sun Cluster 3.2 admite el filtro IP de Solaris para los servicios de conmutación por error. El filtro IP de Solaris proporciona funciones de filtrado de paquetes con estado y traducción de la dirección de red (NAT). También incluye la capacidad de crear y administrar conjuntos de direcciones. Para obtener más información sobre el filtro IP de Solaris, consulte la Parte IV, IP Security de System Administration Guide: IP Services en System Administration Guide: IP Services . Para obtener información sobre cómo configurar el filtrado IP con el software de Sun Cluster, consulte Uso de la función de filtrado IP de Solaris con Sun Cluster.

Restricciones

Restricción de separación de NetApp NAS.

La función de separación requiere que cada clúster del nodo utilice siempre la misma dirección IP de origen al acceder a la unidad NetApp NAS. Los sistemas multiorigen utilizan varias direcciones IP de origen. El administrador de un sistema multiorigen debe asegurarse de que se utilice siempre una única dirección IP de origen al acceder a la unidad NetApp NAS. Para ello, se debe establecer la configuración de red adecuada.

Problemas de compatibilidad

Esta sección contiene información sobre problemas de compatibilidad de Sun Cluster como, por ejemplo, las funciones que están próximas a desaparecer.

Funciones en extinción

Las siguientes funciones están próximas a su desaparición en el software de Sun Cluster 3.2.

Sun Cluster 3.0

A partir de la versión Sun Cluster 3.2, se dejará de utilizar Sun Cluster 3.0. El número de referencia de Sun Cluster 3.0 ya no estará disponible.

Solaris 8

A partir de la versión Sun Cluster 3.2, Sun Cluster ya no admitirá Solaris 8.

Actualización por turnos

Es posible que la función de actualización por turnos no esté disponible para la actualización de Sun Cluster a la siguiente versión inferior. En ese caso, se ofrecerán otros procedimientos diseñados para limitar las interrupciones del clúster durante las actualizaciones de software.

sccheck

Es posible que el comando sccheck ya no se incluya en una próxima versión. Sin embargo, la funcionalidad correspondiente se proporcionará mediante el comando cluster check.

Sistema operativo Solaris 10 11/06

Los siguientes problemas conocidos pueden afectar al funcionamiento de la versión Sun Cluster 3.2 con el sistema operativo Solaris 10 11/06. Póngase en contacto con su representante de Sun para obtener las revisiones de Solaris necesarias para solucionar estos problemas. Para obtener más información, consulte el documento 87995.


Precaución – Precaución –

Debe actualizar el sistema operativo a Solaris 10 11/06 antes de aplicar las revisiones de Solaris.


6252216

Se produce un error del comando metaset al reiniciar el servidor rpcbind.

6331216

Conjuntos de discos: la información de devid no se escribe en un conjunto de discos creado recientemente.

6345158

svm ha salido con el error 1 en el paso cmmstep5, aviso grave relacionado con los nodos.

6367777

fsck: svc:/system/filesystem/usr no se puede iniciar desde el punto none.

6401357

Solaris Volume Manager (SVM) no muestra el metaconjunto después de la actualización del clúster en x86.

6402556

El tiempo de espera de commd debería ser un porcentaje del valor de tiempo de espera de metaclust.

6474029

metaset -s diskset -t debería tomar posesión del nodo del clúster después del reinicio.

6496941

SVM elimina aún el conjunto de discos si falta el archivo nodeid de Sun Cluster.

6367777

fsck* svc:/systsem/filesystem/usr no se puede iniciar desde el punto destacado.

6367948

El nuevo elemento fsck_ufs(1M) presenta errores al utilizar el archivo ya montado.

6425930

Aviso grave relacionado con los nodos con CMM:el clúster ha perdido el quórum operativo en amd64.

6361537

create_ramdisk: no puede buscar el desplazamiento -1.

6393691

Se ha agregado la entrada etc/cluster/nodeid a filelist.ramdisk.

6344611

create_ramdisk debe reaccionar de forma más eficaz en relación con los archivos o directorios que faltan.

6462748

La eliminación del vínculo devfsadm no proporciona compatibilidad completa con la interposición.

Compatibilidad con fssnap

Sun Cluster no admite la función fssnap perteneciente a UFS. Puede usar fssnap en sistemas locales que no estén controlados por Sun Cluster. Se aplican las siguientes restricciones a la compatibilidad con fssnap:

GUI de Solaris Volume Manager

El módulo de almacenamiento mejorado de la consola de administración de Solaris (Solaris Volume Manager) no es compatible con el software de Sun Cluster. Use la interfaz de línea de comandos o las utilidades de Sun Cluster para configurar el software de Solaris Volume Manager.

Sistema de archivos de realimentación (LOFS)

En algunos casos, Sun Cluster 3.2 no admite el uso de sistemas de archivos de realimentación o LOFS (Loopback File System). Si necesita activar el servicio LOFS en un nodo de clúster, por ejemplo, cuando configura zonas no globales, debe determinar primero si las restricciones de LOFS se aplican a su configuración. Para obtener más información sobre las restricciones y soluciones alternativas que permiten el uso de LOFS cuando existen condiciones restrictivas, consulte Restricciones de funciones del sistema operativo Solaris de Software Sun Cluster: Guía de instalación para el sistema operativo Solaris.

Funciones de accesibilidad para personas con discapacidad

Para obtener las funciones de accesibilidad comercializadas desde la publicación de este medio, consulte la sección 508 de evaluaciones de productos disponible en Sun previa solicitud para determinar las versiones más adecuadas para implementar las soluciones accesibles.

Comandos modificados en esta versión

Este apartado describe los cambios realizados en las interfaces de comandos de Sun Cluster que pueden provocar errores en las secuencias de comandos del usuario.

Interfaz de línea de comandos orientada a objetos

A partir de la versión Sun Cluster 3.2, el software de Sun Cluster incluye un conjunto de comandos orientados a objetos. Aunque el software de Sun Cluster aún admite el conjunto de comandos original, la documentación acerca de los procedimientos de Sun Cluster sólo hace referencia al conjunto de comandos orientados a objetos. Para obtener más información sobre el conjunto de comandos orientados a objetos, consulte la página de comando man Intro(1CL). Para obtener una lista de los comandos orientados a objetos para los procedimientos de Sun Cluster habituales, consulte la Referencia rápida de Sun Cluster.

Comando scinstall

Se han cambiado las siguientes opciones del comando scinstall en la versión Sun Cluster 3.2:

Comando scconf

La opción -q del comando scconf se ha modificado para distinguir entre dispositivos del quórum locales compartidos (SCSI) y otros tipos de dispositivos del quórum (incluidos los dispositivos NetApp NAS). Utilice la subopción name para especificar el nombre del dispositivo de almacenamiento compartido adjunto al agregar un dispositivo del quórum compartido al clúster o eliminarlo. Esta subopción puede utilizarse también con la forma change del comando para cambiar el estado de un dispositivo del quórum. Aunque la subopción globaldev se puede utilizar todavía para dispositivos de almacenamiento compartido SCSI, debe emplearse la subopción name para los demás tipos de dispositivos de almacenamiento compartido. Para obtener más información sobre este cambio en scconf y el uso de dispositivos del quórum, consulte scconf(1M), scconf_quorum_dev_netapp_nas(1M), scconf_quorum_dev_netapp_nas(1M) y scconf_quorum_dev_scsi(1M).

Propiedades de recursos

Ya no es necesario modificar directamente la propiedad del recurso Network_resources_used. Utilice, en su lugar, la propiedad Resource_dependencies. RGM actualiza automáticamente la propiedad Network_resources_used en función de la configuración de la propiedad Resource_dependencies. Para obtener más información sobre los usos actuales de estas dos propiedades de recursos, consulte r_properties(5).

Cambios en los nombres de productos

En esa sección, se proporciona información sobre los cambios en los nombres de productos de las aplicaciones compatibles con Sun Cluster. Según la versión de Sun Cluster que utilice, es posible que la documentación de Sun Cluster no refleje los cambios en los nombres de productos que se especifican debajo.


Nota –

El software de Sun Cluster 3.2 se distribuye como parte de Solaris Cluster 3.2 y Sun Java Availability Suite.


Nombre de producto actual 

Nombre de producto anterior 

Sun Cluster Manager 

SunPlex Manager 

Sun Cluster Agent Builder 

SunPlex Agent Builder 

Servidor de aplicaciones de Sun Java System 

Sun ONE Application Server 

Sun Java System Application Server EE (HADB) 

Sun Java System HADB 

Sun Java System Message Queue 

Sun ONE Message Queue 

Servidor Web de Sun Java System 

  • Sun ONE Web Server

  • iPlanet Web Server

  • NetscapeTM HTTP

Productos admitidos

En esta sección, se describen el software admitido y los requisitos de memoria del software de Sun Cluster 3.2.

Plataforma 

sistema operativo 

Gestor de volúmenes 

Función de clúster 

SPARC 

Solaris 9 

Solaris Volume Manager. 

Solaris Volume Manager para Sun Cluster. 

VERITAS Volume Manager 4.1. Esta compatibilidad requiere VxVM 4.1 MP2. 

Función de clúster de VERITAS Volume Manager 4.1. 

Los componentes de VERITAS Volume Manager se proporcionan como parte de VERITAS Storage Foundation 4.1. Esta compatibilidad requiere VxVM 4.1 MP2. 

Función de clúster de VERITAS Volume Manager 4.1. 

Los componentes de VERITAS Volume Manager se proporcionan como parte de VERITAS Storage Foundation 5.0. Esta compatibilidad requiere VxVM 5.0 MP1. 

Función de clúster de VERITAS Volume Manager 5.0. 

Solaris 10 

Solaris Volume Manager. 

Solaris Volume Manager para Sun Cluster. 

VERITAS Volume Manager 4.1. Esta compatibilidad requiere VxVM 4.1 MP2. 

VERITAS Volume Manager 4.1 con función de clúster. 

VERITAS Volume Manager 4.1. Esta compatibilidad requiere VxVM 4.1 MP2. 

VERITAS Volume Manager 4.1 con función de clúster. 

Los componentes de VERITAS Volume Manager se proporcionan como parte de VERITAS Storage Foundation 5.0. Esta compatibilidad requiere VxVM 5.0 MP1. 

Función de clúster de VERITAS Volume Manager 5.0. 

x86 

Solaris 10 

Solaris Volume Manager. 

Solaris Volume Manager para Sun Cluster. 

Los componentes de VERITAS Volume Manager se proporcionan como parte de VERITAS Storage Foundation 4.1. 

N/A - Sun Cluster 3.2 no admite la función de clúster de VXVM en la plataforma x86. 

Plataforma 

sistema operativo 

Sistema de archivos 

Funciones y administración de volúmenes externos 

SPARC 

Solaris 9 

Solaris UFS. 

N/D 

Sun StorEdge QFS: 

N/D 

Sistema de archivos independiente QFS 4.5 

Funciones: 

  • HA-NFS

  • HA-Oracle

Administración de volúmenes externos: 

  • SVM

  • VxVM

QFS 4.5: sistema de archivos QFS compartido 

Función: 

  • Oracle RAC

Administración de volúmenes externos: 

  • SVM Cluster File Manager

QFS 4.6. 

Funciones: 

  • COTC: clientes de QFS compartidos ubicados fuera del clúster

  • Conmutación por error de HA-SAM

VERITAS File System 4.1. 

N/D 

Los componentes de VERITAS File System se proporcionan como parte de VERITAS Storage Foundation 4.1 y 5.0. 

N/D 

SPARC 

Solaris 10 

Solaris ZFS. 

N/D 

Solaris ZFS. 

N/D 

Sun StorEdge QFS: 

N/D 

Sistema de archivos independiente QFS 4.5. 

Funciones: 

  • HA-NFS

  • HA-Oracle

Administración de volúmenes externos: 

  • SVM

  • VxVM

QFS 4.5: sistema de archivos QFS compartido 

Función: 

  • Oracle RAC

Administración de volúmenes externos: 

  • SVM Cluster File Manager

QFS 4.6. 

Funciones: 

  • COTC: clientes de QFS compartidos ubicados fuera del clúster

  • Conmutación por error de HA-SAM

VERITAS File System 4.1. 

N/D 

Los componentes de VERITAS File System se proporcionan como parte de VERITAS Storage Foundation 4.1 y 5.0. 

N/D 

x86 

Solaris 10 

Solaris UFS. 

N/D 

Solaris ZFS. 

N/D 

Sun StorEdge QFS: 

N/D 

Sistema de archivos independiente QFS 4.5 

Funciones: 

  • HA-NFS

  • HA-Oracle

Administración de volúmenes externos: 

  • SVM

  • VxVM

QFS 4.5: sistema de archivos QFS compartido 

Función: 

  • Oracle RAC

Administración de volúmenes externos: 

  • SVM Cluster File Manager

QFS 4.6. 

Funciones: 

  • COTC: clientes de QFS compartidos ubicados fuera del clúster

  • Conmutación por error de HA-SAM

Sun Cluster Security Hardening

Sun Cluster Security Hardening (Refuerzo de seguridad de Sun Cluster) utiliza las técnicas de refuerzo del sistema operativo Solaris recomendadas por el programa Sun BluePrintsTM para conseguir un fortalecimiento en la seguridad básica de los clústers. Solaris Security Toolkit (conjunto de herramientas de seguridad de Solaris) automatiza la implementación de Sun Cluster Security Hardening.

La documentación de Sun Cluster Security Hardening está disponible en http://www.sun.com/blueprints/0203/817-1079.pdf. También puede acceder al artículo desde http://www.sun.com/software/security/blueprints. Desde esta URL, desplácese hacia la cabecera "Architecture" para encontrar el artículo "Securing the Sun Cluster 3.x Software".La documentación describe cómo proteger las implementaciones de Sun Cluster 3.x en un entorno de Solaris. La descripción incluye el uso de Solaris Security Toolkit y otras técnicas de seguridad de avanzada metodología recomendadas por los expertos en seguridad de Sun. Los siguientes servicios de datos son compatibles con Sun Cluster Security Hardening:

Problemas y errores conocidos

Los siguientes problemas conocidos afectan al funcionamiento de la versión Sun Cluster 3.2. Estos errores y problemas se clasifican en las siguientes categorías:

Administración

La opción clnode remove -f no puede eliminar el nodo con el grupo de dispositivos de Solaris Volume Manager. (6471834)

Resumen del problema: El comando -clnode remove --force debería eliminar los nodos de los metaconjuntos. La Sun Cluster System Administration Guide for Solaris OS proporciona procedimientos para eliminar un nodo del clúster. Estos procedimientos indican al usuario que debe ejecutar el comando metaset para eliminar el conjunto de discos de Solaris Volume Manager antes de ejecutar clnode remove.

Solución: Si no se siguen estos procedimientos, es posible que sea necesario eliminar los datos del nodo caducados de CCR en la forma habitual. En el nodo activo del clúster, utilice el comando metaset para borrar el nodo de los conjuntos de discos de Solaris Volume Manager. A continuación, ejecute clnode clear --force obsolete_nodename.

scsnapshot no funciona con el metaclúster SUNWCluster de Solaris 10. (6477905)

Resumen del problema: En un clúster instalado con el grupo de software de usuario final de Solaris 10, SUNWCuser, la ejecución del comando scsnapshot puede fallar con el siguiente error:


# scsnapshot -o
…
/usr/cluster/bin/scsnapshot[228]: /usr/perl5/5.6.1/bin/perl:  not found

Solución: Realice uno de los pasos siguientes:

Las entradas de la propiedad Auxnodelist provocan SEGV durante la creación de recursos escalables. (6494243)

Resumen del problema: La propiedad Auxnodelist del recurso de dirección compartida no se puede utilizar durante la creación de recursos de dirección compartida, ya que esto provocará errores y SEGV cuando se cree el recurso escalable que dependa de este recurso de red de dirección compartida. El mensaje de error de validación del recurso escalable presenta el siguiente formato:


Method methodname (scalable svc) on resource resourcename stopped or terminated 
due to receipt of signal 11

Además, el archivo del núcleo central se genera desde ssm_wrapper. Los usuarios no podrán establecer la propiedad Auxnodelisty, por lo tanto, no podrán identificar los nodos del clúster que pueden alojar la dirección compartida, pero que no se pueden utilizar nunca como principal.

Solución: Vuelva a crear en un nodo el recurso de dirección compartida sin especificar la propiedad Auxnodelist. A continuación, vuelva a ejecutar el comando de creación de recursos escalables y use el recurso de dirección compartida que ha creado de nuevo como recurso de red.

Los comandos de inicio y parada clquorumserver deberían establecer el estado de inicio correctamente para el siguiente arranque. (6496008)

Resumen del problema: El comando del servidor del quórum clquorumserver no establece correctamente el estado del mecanismo de inicio para el siguiente reinicio.

Solución: Realice las siguientes tareas para iniciar o detener el software del servidor del quórum.

ProcedureCómo iniciar el software del servidor del quórum en el SO Solaris 10

  1. Muestre el estado del servicio quorumserver.


    # svcs -a | grep quorumserver
    

    Si el servicio está deshabilitado, la salida presentará un aspecto parecido al siguiente:


    disabled        3:33:45 svc:/system/cluster/quorumserver:default
  2. Inicie el software del servidor del quórum.

    • Si el servicio quorumserver está deshabilitado, utilice el comando svcadm enable.


      # svcadm enable svc:/system/cluster/quorumserver:default
      
    • Si el servicio quorumserver está en línea, utilice el comando clquorumserver.


      # clquorumserver start +
      

ProcedureCómo detener el software del servidor del quórum en el SO Solaris 10

    Deshabilite el servicio quorumserver.


    # svcadm disable svc:/system/cluster/quorumserver:default
    

ProcedureCómo iniciar el software del servidor del quórum en el SO Solaris 9

  1. Inicie el software del servidor del quórum.


    # clquorumserver start +
    
  2. Cambie el nombre del archivo /etc/rc2.d/.S99quorumserver a /etc/rc2.d/S99quorumserver.


    # mv /etc/rc2.d/.S99quorumserver /etc/rc2.d/S99quorumserver
    

ProcedureCómo detener el software del servidor del quórum en el SO Solaris 9

  1. Detenga el software del servidor del quórum.


    # clquorumserver stop +
    
  2. Inicie el software del servidor del quórum.


    # mv /etc/rc2.d/S99quorumserver /etc/rc2.d/.S99quorumserver
    

Servicios de datos

La creación del recurso de agente del nodo de Sun Cluster HA para Sun Java System Application Server se realiza satisfactoriamente, aunque no se ha establecido la dependencia del recurso en el recurso del servidor de administración de dominio (DAS, Domain Administration Server). (6262459)

Resumen del problema: El recurso de agente del nodo (NA, Node Agent) en Sun Cluster HA para Application Server se crea, aunque no se haya establecido ninguna dependencia en el recurso de DAS. El comando debería mostrar un mensaje de error si no se ha establecido la dependencia, ya que un recurso de DAS debe estar en línea para poder iniciar el recurso de NA.

Solución: Al crear el recurso de NA, asegúrese de establecer una dependencia de recurso en el recurso de DAS.

La nueva variable de la revisión de HA MySQL debe configurarse para todas las nuevas instancias. (6516322)

Resumen del problema: La revisión de HA MySQL agrega una nueva variable denominada MYSQL_DATADIR al archivo mysql_config. Esta nueva variable debe señalar al directorio en el que se almacena el archivo de configuración my.conf de MySQL. Si esta variable no se configura correctamente, la preparación de la base de datos con mysql_register fallará.

Solución: Defina la variable MYSQL_DATADIR para que señale al directorio en el que se almacena el archivo de configuración my.conf de SQL.

Instalación

La detección automática con configuraciones de InfiniBand puede sugerir a veces que hay rutas usando el mismo adaptador. (6299097)

Resumen del problema: Si se utiliza InfiniBand como transporte del clúster y hay dos adaptadores en cada nodo con dos puertos por adaptador y un total de dos conmutadores, la función de detección automática de adaptadores de la utilidad scinstall puede sugerir que hay dos rutas de transporte usando el mismo adaptador.

Solución: Especifique manualmente los adaptadores de transporte en cada nodo.

No se habilita de forma predeterminada la compatibilidad con servicios escalables de IPv6. (6332656)

Resumen del problema: La instalación de IPv6 en las interconexiones, que es un paso necesario para reenviar los paquetes de servicios escalables de IPv6, ya no se habilitará de forma predeterminada. Las interfaces de IPv6, como se muestra al utilizar el comando ifconfig, ya no se instalarán de forma predeterminada en los adaptadores de interconexión.

Solución: Habilite manualmente la compatibilidad con los servicios escalables de IPv6.

ProcedureCómo habilitar manualmente la compatibilidad con los servicios escalables de IPv6.

Antes de empezar

Asegúrese de que se hayan preparado todos los nodos del clúster para ejecutar los servicios de IPv6. Entre estas tareas, se incluyen la configuración correcta de las interfaces de red, el software de aplicación de servidor/cliente, los servicios de nombres y la infraestructura de enrutamiento. Si no se realizan estas tareas, es posible que se produzcan fallos inesperados en las aplicaciones de red. Para obtener más información, consulte la documentación de administración del sistema de Solaris para los servicios de IPv6.

  1. En cada nodo, agregue la siguiente entrada al archivo /etc/system.


    set cl_comm:ifk_disable_v6=0
    
  2. Habilite, en cada nodo, la instalación de IPv6 en los adaptadores de interconexión.


    # /usr/cluster/lib/sc/config_ipv6
    

    La utilidad config_ipv6 muestra una interfaz de IPv6 en todos los adaptadores de interconexión del clúster que tengan una dirección de vínculo local. Esta utilidad permite el reenvío correcto de los paquetes de servicios escalables de IPv6 a través de las interconexiones.

    También puede reiniciar cada nodo del clúster para activar el cambio de configuración.

clnode add no puede agregar un nodo desde un archivo XML si éste contiene información de transporte de conexión directa. (6485249)

Resumen del problema: Si se intenta utilizar el comando clnode add con un archivo XML, es decir, mediante el transporte de conexión directa, este comando interpreta erróneamente la información del cable y agrega información de configuración incorrecta. Como resultado, el nodo que se va a agregar no se puede unir al clúster.

Solución: Utilice el comando scinstall para agregar un nodo al clúster cuando el transporte del clúster esté conectado directamente.

El archivo /etc/nsswitch.conf no se actualiza con la información de base de datos de host y netmasks durante la instalación en una zona no global. (6345227)

Resumen del problema: El comando scinstall actualiza el archivo /etc/nsswitch.conf para agregar la entrada cluster para las bases de datos hosts y netmasks. Este cambio actualiza el archivo /net/nsswitch.conf para la zona global. Sin embargo, al crear e instalar una zona no global, esta zona recibe su propia copia del archivo /etc/nsswitch.conf. Los archivos /etc/nsswitch.conf ubicados en las zonas no globales no presentarán la entrada cluster para las bases de datos hosts y netmasks. Fallará cualquier intento de resolver las direcciones IP y los nombres de hosts específicos del clúster en la zona no global mediante las consultas getXbyY.

Solución: Actualice manualmente el archivo /etc/nsswitch.conf para las zonas no globales con la entrada cluster de las bases de datos hosts y netmasks. De esta forma, se garantiza que las resoluciones de direcciones IP y nombres de hosts específicos del cluster estén disponibles en las zonas no globales.

Localización

Los mensajes traducidos del servidor del quórum se proporcionan como parte de los paquetes de traducción centrales. (6482813)

Resumen del problema: Los mensajes traducidos de los programas de administración del servidor del quórum como, por ejemplo, clquorumserver, se proporcionan como parte de los paquetes de traducción centrales. Debido a esto, los mensajes del servidor del quórum sólo aparecerán en inglés. Los paquetes de traducción del servidor del quórum deben separarse de los paquetes de traducción centrales e instalarse en el sistema del servidor del quórum.

Solución: Instale los siguientes paquetes en el host en el que se ha instalado el software del servidor del quórum:

Si se necesita la página de comando man en japonés para el servidor del quórum, instale el paquete SUNWjscman (página de comando man en japonés).

El programa de instalación muestra un tamaño de intercambio incorrecto para la versión en chino simplificado de Sun Cluster 3.2. (6495984)

Resumen del problema: El programa de instalación de Sun Cluster 3.2 muestra un mensaje de advertencia sobre el espacio de intercambio insuficiente al instalar la versión en chino simplificado del software de Sun Cluster 3.2. El programa de instalación proporciona un tamaño de intercambio incorrecto de 0,0 KB en la pantalla de comprobación de los requisitos del sistema.

Solución: Si el tamaño de intercambio es superior al tamaño de los requisitos del sistema, puede omitir con seguridad este problema. Se puede utilizar el programa de instalación de SC 3.2 con la configuración regional C o inglesa; esta versión compruebe el tamaño de intercambio correctamente.

Tiempo de ejecución

El comando binario cleanipc necesita el parámetro User_env para LD_LIBRARY_PATH. (4996643)

Resumen del problema: cleanipc falla si el entorno de vínculos de tiempo de ejecución no contiene la ruta /sapmnt/SAPSID/exe.

Solución: Agregue como usuario root de Solaris la ruta /sapmnt/SAPSID/exe a la biblioteca predeterminada del archivo ld.config.

Para configurar la ruta de biblioteca predeterminada del entorno de vínculos de tiempo de ejecución para las aplicaciones de 32 bits, introduzca el siguiente comando:


# crle -u -l /sapmnt/SAPSID/exe

Para configurar la ruta de biblioteca predeterminada del entorno de vínculos de tiempo de ejecución para las aplicaciones de 64 bits, introduzca el siguiente comando:


# crle -64 -u -l /sapmnt/SAPSID/exe

Avisos graves del nodo debido a que metaclust devuelve el error, RPC: programa no registrado. (6256220)

Resumen del problema: Al cerrar un clúster, UCMMD puede pasar a la reconfiguración de uno o varios de los nodos si uno de éstos sobrepasa ligeramente al clúster de UCMMD. Si se produce esta situación el proceso de cierre detiene el comando rpc.md en el nodo, mientras que UCMMD intenta realizar el paso de devolución. En éste, el comando metaclust obtiene un tiempo de espera de RPC y sale del paso con un error, debido a que falta el proceso rpc.mdcommd. Este error provoca que UCMMD anule el nodo, lo que podría ocasionar un aviso grave en el nodo.

Solución: Puede omitir con seguridad este problema. Cuando el nodo arranca la copia de seguridad, el software de Sun Cluster detecta esta condición y permite a UCMMD iniciarse, a pesar del hecho de que el error se produjo en la anterior reconfiguración.

La validación de recursos de Sun Cluster no acepta el nombre de host de los grupos IPMP para la propiedad netiflist. (6383994)

Resumen del problema: El proceso de validación de recursos de Sun Cluster no acepta el nombre de host de los grupos IPMP para la propiedad netiflist durante la creación de recursos de dirección compartida o nombre de host lógico.

Solución: Utilice el nombre del nodo en lugar del Id. al especificar los nombres de grupos IPMP durante la creación de recursos de dirección compartida o nombre de host lógico.

Actualización

La secuencia de comandos vxlufinish devuelve un error al encapsular el disco raíz. (6448341)

Resumen del problema: Este problema se detecta al encapsular el disco original root y se intenta realizar una actualización automática de VxVM 3.5 en el SO Solaris 9 8/03 OS a VxVM 5.0 en el SO Solaris 10 6/06. La secuencia de comandos vxlufinish falla con el siguiente error.


#./vslufinish -u 5.10

    VERITAS Volume Manager VxVM 5.0
    Live Upgrade finish on the Solairs release <5.10>

    Enter the name of the alternate root diskgroup: altrootdg
ld.so.1: vxparms: fatal: libvxscsi.so: open failed: No such file or directory
ld.so.1: vxparms: fatal: libvxscsi.so: open failed: No such file or directory
Killed
ld.so.1: ugettxt: fatal: libvxscsi.so: open failed: No such file or directory
ERROR:vxlufinish Failed: /altroot.5.10/usr/lib/vxvm/bin/vxencap -d -C 10176
-c -p 5555 -g
    -g altrootdg rootdisk=c0t1d0s2
    Please install, if 5.0 or higher version of VxVM is not installed
    on alternate bootdisk.

Solución: Utilice, en su lugar, el método de actualización estándar o de partición doble.

Póngase en contacto con el servicio de asistencia o el representante de Sun para conocer si la compatibilidad de la actualización automática de Sun Cluster 3.2 con VxVM 5.0 estará disponible próximamente.

La actualización automática debería permitir que se montasen dispositivos globales desde el disco de arranque. (6433728)

Resumen del problema: Durante la actualización automática, los comandos lucreate y luupgrade no pueden cambiar los nombres de DID en el entorno de arranque alternativo para que se correspondan con la entrada /global/.devices/node@N.

Solución: Antes de iniciar la actualización automática, realice los siguientes pasos en cada nodo del clúster.

  1. Conviértase en superusuario.

  2. Realice una copia de seguridad del archivo /etc/vfstab.


    # cp /etc/vfstab /etc/vfstab.old
    
  3. Abra el archivo /etc/vfstab para editarlo.

  4. Busque la línea que se corresponda con /global/.device/node@N.

  5. Edite la entrada del dispositivo global.

    • Sustituya los nombres de DID por los nombres físicos.

      Cambie /dev/did/{r}dsk/dYsZ a /dev/{r}dsk/cNtXdYs Z.

    • Elimine global de la entrada.

    En el siguiente ejemplo, se muestra el nombre del dispositivo DID d3s3 que se corresponde con /global/.devices/node@s, en el que se han cambiado los nombres de dispositivos físicos y se ha eliminado la entrada global:


    Original:
    /dev/did/dsk/d3s3    /dev/did/rdsk/d3s3    /global/.devices/node@2   ufs   2   no   global
    
    Changed:
    dev/dsk/c0t0d0s3     /dev/rdsk/c0t0d0s3    /global/.devices/node@2   ufs   2   no   -
  6. Una vez modificado el archivo /etc/vfstab en todos los nodos del clúster, realice una actualización automática del clúster, pero deténgala antes de efectuar el reinicio desde el entorno de arranque alternativo actualizado.

  7. En el entorno actual que no se ha actualizado, restablezca el archivo /etc/vfstab original en cada uno de los nodos.


    # cp /etc/vstab.old /etc/vfstab
    
  8. En el entorno de arranque alternativo, abra el archivo /etc/vfstab para editarlo.

  9. Encuentre la línea que se corresponda con /global/.devices/node@N y sustituya el guión (-) ubicado al final de la entrada por la palabra global.


    /dev/dsk/cNtXdYsZ    /dev/rdsk/cNtXdYsZ    /global/.devices/node@N   ufs   2   no   global
    
  10. Reinicie el nodo desde el entorno de arranque alternativo actualizado.

    Los nombres de DID se sustituyen automáticamente por el archivo /etc/vfstab.

La secuencia de comandos vxlustart no puede crear un entorno de arranque alternativo durante una actualización automática. (6445430)

Resumen del problema: Este problema se detecta al actualizar VERITAS Volume Manager (VxVM) durante una actualización automática de Sun Cluster. La secuencia de comandos vxlustart se utiliza para actualizar el SO Solaris y VxVM a partir de la versión anterior. La secuencia de comandos muestra mensajes de error parecidos a los siguientes:


# ./vxlustart -u 5.10 -d c0t1d0 -s OSimage

   VERITAS Volume Manager VxVM 5.0.
   Live Upgrade is now upgrading from 5.9 to <5.10>
…
ERROR: Unable to copy file systems from boot environment &lt;sorce.8876> to BE &lt;dest.8876>.
ERROR: Unable to populate file systems on boot environment &lt;dest.8876>.
ERROR: Cannot make file systems for boot environment &lt;dest.8876>.
ERROR: vxlustart: Failed: lucreate -c sorce.8876 -C /dev/dsk/c0t0d0s2 
-m -:/dev/dsk/c0t1d0s1:swap -m /:/dev/dsk/c0t1d0s0:ufs 
-m /globaldevices:/dev/dsk/c0t1d0s3:ufs -m /mc_metadb:/dev/dsk/c0t1d0s7:ufs 
-m /space:/dev/dsk/c0t1d0s4:ufs -n dest.8876

Solución: Utilice el método de actualización estándar o de partición doble para actualizar el clúster a VxVM 5.0.

Póngase en contacto con el servicio de asistencia o el representante de Sun para conocer si la compatibilidad de la actualización automática de Sun Cluster 3.2 con VxVM 5.0 estará disponible próximamente.

Número mayores de vxio diferentes en los nodos al encapsular el disco raíz. (6445917)

Resumen del problema: En los clústers en los que se ejecuta VERITAS Volume Manager (VxVM), la actualización estándar o de partición doble de cualquiera de los siguientes componentes de software fallará si se encapsula el disco raíz:

Se muestra un aviso grave del nodo del clúster y no se puede efectuar el arranque después de la actualización. Esto se debe a los cambios en los números mayor y menor realizados por VXVM durante la actualización.

Solución: Cancele la encapsulación del disco raíz antes de iniciar la actualización.


Precaución – Precaución –

Si no se sigue correctamente el procedimiento anterior, es posible que se produzcan problemas graves inesperados en todos los nodos que se están actualizando. Además, la encapsulación y la cancelación de la encapsulación del disco raíz provocan que se produzca un reinicio adicional automático del nodo (cada vez que se realice este proceso), lo que aumentará el número de reinicios necesarios durante la actualización.


No se pueden utilizar las zonas después de realizar una actualización automática de la versión 3.1 de Sun Cluster en Solaris 9 a la versión 3.2 en Solaris 10. (6509958)

Resumen del problema: Después de realizar una actualización automática de la versión 3.1 de Sun Cluster en Solaris 9 a la versión 3.2 en Solaris 10, no se pueden correctamente las zonas con el software del clúster. El problema es que no se han creado los datos de pspool para los paquetes de Sun Cluster. Por lo tanto, no se han propagado correctamente los paquetes que deben propagarse a las zonas no globales como, por ejemplo SUNWsczu.

Solución: Una vez actualizados los paquetes de Sun Cluster mediante el comando scinstall -R y antes de que se haya reiniciado el clúster en el modo de clúster, ejecute dos veces la siguiente secuencia de comandos:

ProcedureInstrucciones de uso de la secuencia de comandos

Antes de empezar

Prepare y ejecute esta secuencia de una de las siguientes formas:

  1. Conviértase en superusuario.

  2. Cree una secuencia de comandos con el siguiente contenido.

    #!/bin/ksh
    
    typeset PLATFORM=${PLATFORM:-`uname -p`}
    typeset PATHNAME=${PATHNAME:-/cdrom/cdrom0/Solaris_${PLATFORM}/Product/sun_cluster/Solaris_10/Packages}
    typeset BASEDIR=${BASEDIR:-/}
    
    cd $PATHNAME
    for i in *
    do
    	if pkginfo -R ${BASEDIR} $i >/dev/null 2>&1
    	then
    		mkdir -p ${BASEDIR}/var/sadm/pkg/$i/save/pspool
    		pkgadd -d . -R ${BASEDIR} -s ${BASEDIR}/var/sadm/pkg/$i/save/pspool $i
    	fi
    done
  3. Defina las variables PLATFORM, PATHNAME y BASEDIR.

    Defina estas variables como variables de entorno o modifique directamente los valores en la secuencia de comandos.

    PLATFORM

    El nombre de la plataforma. Por ejemplo, puede ser sparc o x86. La variable PLATFORM se define de forma predeterminada en la salida del comando uname -p.

    PATHNAME

    Una ruta al dispositivo desde el que se pueden instalar los paquetes de la estructura o los servicios de datos de Sun Cluster. Este valor se corresponde con la opción -d del comando pkgadd.

    Por ejemplo, para los paquetes de la estructura de Sun Cluster, este valor presentaría el siguiente formato:


    /cdrom/cdrom0/Solaris_${PLATFORM}/Product/sun_cluster/Solaris_10/Packages

    Para los paquetes de servicios de datos, este valor presentaría el siguiente formato:


    /cdrom/cdrom0/Solaris_${PLATFORM}/Product/sun_cluster_agents/Solaris_10/Packages
    BASEDIR

    El nombre de ruta completo del directorio que se utilizará como ruta raíz y que se corresponde con la opción -R del comando pkgadd. Para la actualización automática, defina este valor en la ruta raíz que se utiliza con la opción -R del comando scinstall. La variable BASEDIR se define de forma predeterminada en el sistema de archivos raíz (/).

  4. Ejecute la secuencia de comandos, una vez para los paquetes de la estructura de Sun Cluster y otra para los paquetes de servicios de datos.

    Una vez ejecutada la secuencia de comandos, debería aparecer el siguiente mensaje en el indicador de comando para cada paquete:


    Transferring pkgname package instance

    Nota –

    Si ya existe el directorio pspool para un paquete o si la secuencia de comandos se ejecuta dos veces para el mismo conjunto de paquetes, se mostrará el siguiente error en el indicador de comandos:


    Transferring pkgname package instance
    pkgadd: ERROR: unable to complete package transfer
        - identical version of pkgname already exists on destination device

    Se trata de un mensaje inofensivo que puede omitirse con seguridad.


  5. Una vez ejecutada la secuencia de comandos para los paquetes de la estructura y los servicios de datos, arranque los nodos en el modo de clúster.

No se puede agregar un nodo a un clúster existente al que se le ha aplicado una revisión de Sun Cluster 3.2 sin agregar la revisión principal de Sun Cluster 3.2 al nodo. (6554107)

Resumen del problema: Si se agrega un nuevo nodo del clúster sin comprobar que el nodo presenta las mismas revisiones que los nodos del clúster existentes, es posible que los nodos del clúster muestren un aviso grave.

Solución: Antes de agregar los nodos al clúster, asegúrese de que al nuevo nodo se le aplican las revisiones necesarias para que presente el mismo nivel de revisiones que los nodos del clúster existentes. De lo contrario, los nodos del clúster podrían mostrar un aviso grave.

Revisiones y firmware requeridos

Este apartado proporciona información sobre las revisiones para las configuraciones de Sun Cluster. Si actualiza a la versión Sun Cluster 3.2 del software, consulte el Capítulo 8, Modernización del software Sun Cluster de Software Sun Cluster: Guía de instalación para el sistema operativo Solaris. La aplicación de una revisión de Sun Cluster 3.2 Core no proporciona los mismos resultados que la actualización del software a la versión Sun Cluster 3.2.


Nota –

Lea el archivo README (Léame) de la revisión antes de aplicar o eliminar cualquier revisión.


Si utiliza el método (nodo) de revisión de reinicio para instalar la revisión principal de Sun Cluster, 125510 (S9/SPARC), 125511 (S10/SPARC) o 125512 (S19/x64), debe haber instalado anteriormente la versión -02 de la revisión antes de poder instalar versiones superiores. Si no ha instalado la revisión -02 y desea instalar la versión -03 o superior (si está disponible), debe usar el método de reinicio del clúster.

Consulte la siguiente lista de ejemplos para obtener escenarios de aplicación de revisiones:


Nota –

Debe ser un usuario registrado de SunSolveTM para ver y descargar las revisiones requeridas por el producto Sun Cluster. Si no tiene una cuenta de SunSolve, póngase en contacto con su distribuidor o representante de servicios, o regístrese en línea en http://sunsolve.sun.com.


Aplicación de la revisión principal de Sun Cluster 3.2

Realice el siguiente procedimiento para aplicar la revisión principal de Sun Cluster 3.2.

ProcedureCómo aplicar la revisión principal de Sun Cluster 3.2

  1. Instale la revisión mediante el procedimiento de reinicio normal para la revisión principal.

  2. Verifique que se haya instalado correctamente la revisión en todos los nodos y que funciona adecuadamente.

  3. Registre la nueva versión de los tipos de recursos SUNW.HAStoragePlus, SUNW.ScalDeviceGroup y SUNW.ScalMountPoint que se han actualizado con esta revisión. Lleve a cabo la actualización de cualquier recurso existente de estos tipos a las nuevas versiones.

    Para obtener información sobre cómo registrar un tipo de recurso, consulte Registering a Resource Type de Sun Cluster Data Services Planning and Administration Guide for Solaris OS en Sun Cluster Data Services Planning and Administration Guide for Solaris OS .


    Precaución – Precaución –

    Si se ha eliminado la revisión principal de Sun Cluster 3.2, cualquier recurso actualizado en el paso 3 se debe restablecer a la versión anterior de los tipos de recursos. Para realizar el proceso de restablecimiento a la versión anterior, es necesario planificar el tiempo de inactividad de estos servicios. Por lo tanto, no realice el paso 3 hasta que esté preparado para confirmar la aplicación permanente de la revisión principal de Sun Cluster 3.2 en el clúster.


Eliminación de la revisión prinicipal de Sun Cluster 3.2

Realice el siguiente procedimiento para eliminar la revisión principal de Sun Cluster 3.2.

ProcedureCómo eliminar la revisión principal de Sun Cluster 3.2

  1. Muestre los tipos de recursos del clúster.


    # clrt list
    
  2. Si la lista devuelve SUNW.HAStoragePlus:5, SUNW.ScalDeviceGroup:2 o SUNW.ScalMountPoint:2, debe eliminar estos tipos de recursos. Para obtener instrucciones sobre cómo eliminar un tipo de recurso, consulte How to Remove a Resource Type de Sun Cluster Data Services Planning and Administration Guide for Solaris OS en Sun Cluster Data Services Planning and Administration Guide for Solaris OS .

  3. Reinicie todos los nodos del clúster en el modo sin clúster monousuario.

    Para obtener instrucciones sobre cómo reiniciar los nodos del clúster en el modo sin clúster monousuario, consulte How to Boot a Cluster Node in Noncluster Mode de Sun Cluster System Administration Guide for Solaris OS en Sun Cluster System Administration Guide for Solaris OS .

  4. Elimine la revisión principal de Sun Cluster 3.2 de cada nodo del clúster en el que se haya instalado.


    # patchrm patch-id
    
  5. Reinicie, en el modo de clúster, todos los nodos en los que se haya eliminado la revisión principal de Sun Cluster 3.2.

    Al reiniciar todos los nodos del clúster en los que se ha eliminado la revisión principal de Sun Cluster 3.2 antes de reiniciar los nodos no afectados, se garantiza que el clúster contenga la información correcta en el CCR. Si se ha aplicado la revisión principal en todos los nodos del clúster, puede reiniciarlos en cualquier orden en el modo de clúster.

    Para obtener instrucciones sobre cómo reiniciar los nodos del clúster en el modo de clúster, consulte How to Reboot a Cluster Node de Sun Cluster System Administration Guide for Solaris OS en Sun Cluster System Administration Guide for Solaris OS .

  6. Reinicie los nodos restantes en el modo de clúster.

Herramientas de administración de revisiones

La tecnología de administración de revisiones PatchPro está ahora disponible mediante Patch Manager 2.0 para el SO Solaris 9 y Sun Update Connection 1.0 para el SO Solaris 10.

Si algunas revisiones deben aplicarse cuando el nodo se encuentra en el modo sin clúster, puede aplicarlas por turnos, una cada vez, a menos que, en las instrucciones de una revisión, se solicite que cierre todo el clúster. Siga los procedimientos descritos en How to Apply a Rebooting Patch (Node) de Sun Cluster System Administration Guide for Solaris OS para preparar el nodo y arrancarlo en el modo sin clúster. Para facilitar la instalación, aplique a la vez todas las revisiones en un nodo que no se encuentre en el modo sin clúster.

SunSolve Online

La página web SunSolve Online proporciona acceso las 24 horas del día a la información más actualizada concerniente a las revisiones, al software y al firmware de los productos de Sun. Acceda a la página Web de SunSolve en http://sunsolve.sun.com para obtener las matrices más actuales del software, firmware y revisiones admitidas.

La información de revisiones de terceros de Sun Cluster 3.2 se proporciona mediante un documento de SunSolve. Esta página de documentos proporciona información sobre las revisiones de terceros para el hardware específico que tiene intención de usar en un entorno de Sun Cluster 3.2. Para buscar este documento de información, inicie una sesión en SunSolve. En la página de inicio de SunSolve, escriba Sun Cluster 3.x Third-Party Patches en el cuadro de criterios de búsqueda.

Antes de instalar el software Sun Cluster 3.2 y aplicar las revisiones a un componente del clúster (sistema operativo Solaris, software Sun Cluster, software del gestor de volúmenes, software de servicios de datos o el hardware del disco), revise cada archivo README que acompaña a las revisiones recuperadas. Todos los nodos del clúster deben tener el mismo nivel de revisiones para conseguir un funcionamiento adecuado del clúster.

Para conocer los procedimientos y obtener sugerencias sobre la administración de las revisiones, consulte el Capítulo 10, Patching Sun Cluster Software and Firmware de Sun Cluster System Administration Guide for Solaris OS.

Documentación de Sun Cluster 3.2

El conjunto de la documentación del usuario de Sun Cluster 3.2 consta de las siguientes colecciones:

La documentación del usuario de Sun Cluster 3.2 está disponible en formatos PDF y HTML en el siguiente sitio web:

http://htt;://docs.sun.com/app/docs/prod/sun.cluster32


Nota –

A partir de Sun Cluster 3.2, no se traducirá la documentación de los servicios de datos individuales y sólo estará disponible en inglés.


Búsqueda de documentación de productos de Sun

Además de buscar la documentación de producción de Sun en el sitio web, docs.sun.com, puede utilizar un motor de búsqueda escribiendo la siguiente sintaxis en el campo de búsqueda:


search-term site:docs.sun.com

Por ejemplo, para buscar "broker", escriba lo siguiente:


broker site:docs.sun.com

Para incluir otros sitios de Sun en la búsqueda (por ejemplo, java.sun.com, www.sun.com y developers.sun.com), utilice "sun.com" en lugar de "docs.sun.com" en el campo de búsqueda.

Manuales de software de Sun Cluster 3.2 para el SO Solaris

Tabla 1 Colección de software de Sun Cluster 3.2 para el SO Solaris: manuales de software

Número de referencia 

Título de manual 

820–0335 

Sun Cluster 3.2 Documentation Center

819-2969 

Sun Cluster Concepts Guide for Solaris OS

819-2972 

Sun Cluster Data Services Developer’s Guide for Solaris OS

819-2974 

Sun Cluster Data Services Planning and Administration Guide for Solaris OS

819-2973 

Sun Cluster Error Messages Guide for Solaris OS

819-2968 

Sun Cluster Overview for Solaris OS

819-3055 

Sun Cluster Reference Manual for Solaris OS

819-2970 

Software Sun Cluster: Guía de instalación para el sistema operativo Solaris

819–0912 

Guía de inicio rápido de Sun Cluster para el SO Solaris

819-2971 

Sun Cluster System Administration Guide for Solaris OS

Manuales de servicios de datos de Sun Cluster 3.2 para el SO Solaris (SPARC Platform Edition)

Tabla 2 Colección de software de Sun Cluster 3.2 para el SO Solaris (SPARC Platform Edition): manuales de servicios de datos individuales

Número de referencia 

Título de manual 

819-3056 

Sun Cluster Data Service for Agfa IMPAX Guide for Solaris OS

819-2975 

Sun Cluster Data Service for Apache Guide for Solaris OS

819-3057 

Sun Cluster Data Service for Apache Tomcat Guide for Solaris OS

819-3058 

Sun Cluster Data Service for DHCP Guide for Solaris OS

819-2977 

Sun Cluster Data Service for DNS Guide for Solaris OS

819–5415 

Sun Cluster Data Service for Kerberos Guide for Solaris OS

819-2982 

Sun Cluster Data Service for MaxDB Guide for Solaris OS

819-3059 

Sun Cluster Data Service for MySQL Guide for Solaris OS

819-3060 

Sun Cluster Data Service for N1 Grid Service Provisioning System for Solaris OS

819-0693 

Sun Cluster Data Service for NetBackup Guide for Solaris OS

819-2979 

Sun Cluster Data Service for NFS Guide for Solaris OS

819-3061 

Sun Cluster Data Service for Oracle Application Server Guide for Solaris OS

819-3062 

Sun Cluster Data Service for Oracle E-Business Suite Guide for Solaris OS

819-2980 

Sun Cluster Data Service for Oracle Guide for Solaris OS

819-2981 

Sun Cluster Data Service for Oracle RAC Guide for Solaris OS

819–5578 

Sun Cluster Data Service for PostgreSQL Guide for Solaris OS

819-3063 

Sun Cluster Data Service for Samba Guide for Solaris OS

819-2983 

Sun Cluster Data Service for SAP Guide for Solaris OS

819-2984 

Sun Cluster Data Service for SAP liveCache Guide for Solaris OS

819-2985 

Sun Cluster Data Service for SAP Web Application Server Guide for Solaris OS

819-2986 

Sun Cluster Data Service for Siebel Guide for Solaris OS

819-3069 

Sun Cluster Data Service for Solaris Containers Guide

819-3064 

Sun Cluster Data Service for Sun Grid Engine Guide for Solaris OS

819-2988 

Sun Cluster Data Service for Sun Java System Application Server Guide for Solaris OS

819-2987 

Sun Cluster Data Service for Sun Java System Application Server EE (HADB) Guide for Solaris OS

819-2989 

Sun Cluster Data Service for Sun Java System Message Queue Guide for Solaris OS

819-2990 

Sun Cluster Data Service for Sun Java System Web Server Guide for Solaris OS

819-3065 

Sun Cluster Data Service for SWIFTAlliance Access Guide for Solaris OS

819-3066 

Sun Cluster Data Service for SWIFTAlliance Gateway Guide for Solaris OS

819-2991 

Sun Cluster Data Service for Sybase ASE Guide for Solaris OS

819-2992 

Sun Cluster Data Service for WebLogic Server Guide for Solaris OS

819-3068 

Sun Cluster Data Service for WebSphere Message Broker Guide for Solaris OS

819-3067 

Sun Cluster Data Service for WebSphere MQ Guide for Solaris OS

Manuales de servicios de datos de Sun Cluster 3.2 para el SO Solaris (x86 Platform Edition)

Tabla 3 Colección de software de Sun Cluster 3.2 para el SO Solaris (x86 Platform Edition): manuales de servicios de datos individuales

Número de referencia 

Título de manual 

819-2975 

Sun Cluster Data Service for Apache Guide for Solaris OS

819-2975 

Sun Cluster Data Service for Apache Tomcat Guide for Solaris OS

819-3058 

Sun Cluster Data Service for DHCP Guide for Solaris OS

819-2977 

Sun Cluster Data Service for DNS Guide for Solaris OS

819–5415 

Sun Cluster Data Service for Kerberos Guide for Solaris OS

819-2982 

Sun Cluster Data Service for MaxDB Guide for Solaris OS

819-3059 

Sun Cluster Data Service for MySQL Guide for Solaris OS

819-3060 

Sun Cluster Data Service for N1 Grid Service Provisioning System for Solaris OS

819-2979 

Sun Cluster Data Service for NFS Guide for Solaris OS

819-3061 

Sun Cluster Data Service for Oracle Application Server Guide for Solaris OS

819-2980 

Sun Cluster Data Service for Oracle Guide for Solaris OS

819-2981 

Sun Cluster Data Service for Oracle RAC Guide for Solaris OS

819–5578 

Sun Cluster Data Service for PostgreSQL Guide for Solaris OS

819-3063 

Sun Cluster Data Service for Samba Guide for Solaris OS

819-2983 

Sun Cluster Data Service for SAP Guide for Solaris OS

819-2985 

Sun Cluster Data Service for SAP Web Application Server Guide for Solaris OS

819-3069 

Sun Cluster Data Service for Solaris Containers Guide

819-3064 

Sun Cluster Data Service for Sun Grid Engine Guide for Solaris OS

819-2987 

Sun Cluster Data Service for Sun Java System Application Server EE (HADB) Guide for Solaris OS

819-2988 

Sun Cluster Data Service for Sun Java System Application Server Guide for Solaris OS

819-2989 

Sun Cluster Data Service for Sun Java System Message Queue Guide for Solaris OS

819-2990 

Sun Cluster Data Service for Sun Java System Web Server Guide for Solaris OS

819-2992 

Sun Cluster Data Service for WebLogic Server Guide for Solaris OS

819-3067 

Sun Cluster Data Service for WebSphere MQ Guide for Solaris OS

819-3068 

Sun Cluster Data Service for WebSphere Message Broker Guide for Solaris OS

Colección de hardware de Sun Cluster 3.1 - 3.2 para el SO Solaris (SPARC Platform Edition)

Tabla 4 Colección de hardware de Sun Cluster 3.1 - 3.2 para el SO Solaris (SPARC Platform Edition)

Número de referencia 

Título de manual 

819-2993 

Sun Cluster 3.1 - 3.2 Hardware Administration Manual for Solaris OS

819–2995 

Sun Cluster 3.1 - 3.2 With SCSI JBOD Storage Device Manual for Solaris OS

819-3015 

Sun Cluster 3.1 - 3.2 With Sun StorEdge 3310 or 3320 SCSI RAID Array Manual for Solaris OS

819-3016 

Sun Cluster 3.1 - 3.2 With Sun StorEdge 3510 or 3511 FC RAID Array Manual for Solaris OS

819-3017 

Sun Cluster 3.1 - 3.2 With Sun StorEdge 3900 Series or Sun StorEdge 6900 Series System Manual

819-3018 

Sun Cluster 3.1 - 3.2 With Sun StorEdge 6120 Array Manual for Solaris OS

819-3020 

Sun Cluster 3.1 - 3.2 With Sun StorEdge 6320 System Manual for Solaris OS

819-3021 

Sun Cluster 3.1 - 3.2 With Sun StorEdge 9900 Series Storage Device Manual for Solaris OS

819-2996 

Sun Cluster 3.1 - 3.2 With StorEdge A1000 Array, Netra st A1000 Array, or StorEdge A3500 System Manual

819-3022 

Sun Cluster 3.1 - 3.2 With Sun StorEdge A3500FC System Manual for Solaris OS

819-2994 

Sun Cluster 3.1 - 3.2 With Fibre Channel JBOD Storage Device Manual

817–5681 

Sun Cluster 3.1 - 3.2 With SCSI JBOD Storage Device Manual for Solaris OS

819-3023 

Sun Cluster 3.1 - 3.2 With Sun StorEdge T3 or T3+ Array Manual for Solaris OS

819-3019 

Sun Cluster 3.1 - 3.2 With Sun StorEdge 6130 Array Manual

819-3024 

Sun Cluster 3.1 - 3.2 With Network-Attached Storage Devices Manual for Solaris OS

Colección de hardware de Sun Cluster 3.1 — 3.2 para el SO Solaris (x86 Platform Edition)

Tabla 5 Colección de hardware de Sun Cluster 3.1 — 3.2 para el SO Solaris (x86 Platform Edition)

Número de referencia 

Título de manual 

819-2993 

Sun Cluster 3.1 - 3.2 Hardware Administration Manual for Solaris OS

817–0180 

Sun Cluster 3.1 - 3.2 With Sun StorEdge 3310 or 3320 SCSI RAID Array Manual for Solaris OS

819-3024 

Sun Cluster 3.1 - 3.2 With Network-Attached Storage Devices Manual for Solaris OS

819-3021 

Sun Cluster 3.1 - 3.2 With Sun StorEdge 9900 Series Storage Device Manual for Solaris OS

819-3020 

Sun Cluster 3.1 - 3.2 With Sun StorEdge 6320 System Manual for Solaris OS

819-3019 

Sun Cluster 3.1 - 3.2 With Sun StorEdge 6130 Array Manual

819-3018 

Sun Cluster 3.1 - 3.2 With Sun StorEdge 6120 Array Manual for Solaris OS

819-3016 

Sun Cluster 3.1 - 3.2 With Sun StorEdge 3510 or 3511 FC RAID Array Manual for Solaris OS

819–2995 

Sun Cluster 3.1 - 3.2 With SCSI JBOD Storage Device Manual for Solaris OS

Cuestiones sobre la documentación

En esta sección, se describen los errores o las omisiones de la documentación, la ayuda en línea o las páginas de comando man de la versión Sun Cluster 3.2.

Guía de conceptos

En esta sección, se describen los errores y las omisiones de la Sun Cluster Concepts Guide for Solaris OS .

x86: Topologías de Sun Cluster para x86

En la sección Sun Cluster Topologies for x86 de Sun Cluster Concepts Guide for Solaris OS , la siguiente instrucción acerca de la versión Sun Cluster 3.2 ha caducado: "Sun Cluster, cuando se compone de sistemas basados en plataformas x86, admite dos nodos por clúster."

En su lugar, la instrucción debería indicar lo siguiente: "Una configuración de Sun Cluster compuesta por sistemas basados en x86 admite hasta 8 nodos en un clúster que ejecuta Oracle RAC o hasta 4 nodos en un clúster que no ejecuta Oracle RAC."

Guía de instalación del software

En esta sección, se describen los errores o las omisiones de la Software Sun Cluster: Guía de instalación para el sistema operativo Solaris.

Falta información sobre la preparación de la actualización de los clústeres que ejecutan el software de Sun Cluster Geographic Edition

Si actualiza un clúster que ejecute también el software de Sun Cluster Geographic Edition, hay varios pasos de preparación adicionales que debe realizar antes de comenzar la actualización del software de Sun Cluster. Entre estos pasos se incluye el cierre de la infraestructura de Sun Cluster Geographic Edition. Consulte, en su lugar, el Capítulo 4, Upgrading the Sun Cluster Geographic Edition Software de Sun Cluster Geographic Edition Installation Guide en Sun Cluster Geographic Edition Installation Guide . Estos procedimientos indican cuándo se debe consultar la Guía de instalación del software de Sun Cluster para realizar la actualización de este software.

Guía de administración y planificación de los servicios de datos de Sun Cluster

En esta sección se describen los errores y las omisiones de la Sun Cluster Data Services Planning and Administration Guide for Solaris OS .

Compatibilidad con los servicios escalables en las zonas no globales

En Resource Type Properties de Sun Cluster Data Services Planning and Administration Guide for Solaris OS, la descripción de la propiedad del recurso Failover no proporciona una instrucción relacionada con la compatibilidad con servicios escalables en las zonas no globales. Esta compatibilidad se aplica a los recursos para los que se han establecido la propiedad Failover del tipo de recurso en FALSE y la propiedad Scalable del recurso en TRUE. Esta combinación de configuración de propiedades indica que el servicio escalable utiliza el recurso SharedAddress para realizar el equilibrado de carga de red. En la versión Sun Cluster 3.2, puede configurar un servicio escalable de este tipo en un grupo de recursos que se ejecute en una zona no global. Sin embargo, no puede configurar un servicio escalable para que se ejecute en varias zonas no globales del mismo nodo.

Guía del servicio de datos de Sun Cluster para MaxDB

En esta sección, se describen los errores y las omisiones de la Sun Cluster Data Service for MaxDB Guide for Solaris OS .

Cambios en la compatibilidad con el servicio de datos de Sun Cluster para MaxDB en las zonas no globales de sistemas basados en SPARC y x86

El servicio de datos de Sun Cluster para MaxDB admite las zonas no globales en los sistemas basados en SPARC y x86. Deben realizarse los siguientes cambios en la Guía del servicio de datos de Sun Cluster para MaxDB para obtener esta compatibilidad. Los siguientes pasos pueden realizarse en un clúster que se haya configurado para ejecutarse en zonas globales. Si instala el clúster para que se ejecute en zonas no globales, es posible que no sea necesario realizar algunos de los pasos indicados a continuación.

Guía del servicio de datos de Sun Cluster para SAP

En esta sección, se describen los errores y las omisiones de la Sun Cluster Data Service for SAP Guide for Solaris OS .

Cambios en la compatibilidad de SAP con las zonas no globales en sistemas basados en SPARC y x86

El servicio de datos de Sun Cluster para SAP admite las zonas no globales en los sistemas basados en SPARC y x86. Deben realizarse los siguientes cambios en la Guía del servicio de datos de Sun Cluster para SAP para obtener esta compatibilidad. Los siguientes pasos pueden realizarse en un clúster que se haya configurado para ejecutarse en zonas globales. Si instala el software para que se ejecute en zonas no globales, es posible que no sea necesario realizar algunos de los pasos indicados a continuación.

Guía del servicio de datos de Sun Cluster para SAP liveCache

En esta sección, se describen los errores y las omisiones de la Sun Cluster Data Service for SAP liveCache Guide for Solaris OS .

Cambios en la compatibilidad de SAP liveCache con las zonas no globales en sistemas basados en SPARC y x86

El servicio de datos de Sun Cluster para SAP liveCache admite las zonas no globales en los sistemas basados en SPARC y x86. Deben realizarse los siguientes cambios en la Guía del servicio de datos de Sun Cluster para SAP liveCache para obtener esta compatibilidad. Los siguientes pasos pueden realizarse en un clúster que se haya configurado para ejecutarse en zonas globales. Si instala el software para que se ejecute en zonas no globales, es posible que no sea necesario realizar algunos de los pasos indicados a continuación.

Guía del servicio de datos de Sun Cluster para SAP Web Application Server

En esta sección, se describen los errores y las omisiones de la Sun Cluster Data Service for SAP Web Application Server Guide for Solaris OS .

Compatibilidad con SAP 7.0 de Sun Cluster HA para SAP Web Application Server (6461002)

En SAP 7.0 y NW2004SR1, al iniciar una instancia de SAP, se inicia de forma predeterminada el proceso sapstartsrv. El proceso sapstartsrv no está bajo control de Sun Cluster HA para SAP Web Application Server. Por lo tanto, cuando Sun Cluster HA para SAP Web Application Server detiene o conmuta por error una instancia, el proceso sapstartsrv no se detiene.

Para evitar que se inicie el proceso sapstartsrv cuando Sun Cluster HA para SAP Web Application inicie una instancia de SAP, debe modificar la secuencia de comandos startsap. Además, debe cambiar el nombre del archivo /etc/rc3.d/S90sapinit por /etc/rc3.d/xxS90sapinit en todos los nodos de Sun Cluster.

Cambios en la compatibilidad de SAP Web Application Server con las zonas no globales en sistemas basados en SPARC y x86

El servicio de datos de Sun Cluster para SAP Web Application Server admite las zonas no globales en los sistemas basados en SPARC y x86. Deben realizarse los siguientes cambios en la Guía del servicio de datos de Sun Cluster para SAP Web Application Server para obtener esta compatibilidad. Los siguientes pasos pueden realizarse en un clúster que se haya configurado para ejecutarse en zonas globales. Si instala el software para que se ejecute en zonas no globales, es posible que no sea necesario realizar algunos de los pasos indicados a continuación.

Configuración de SAP Web Application Server en zonas no globales para la configuración de HASP (6530281)

Realice el siguiente procedimiento para configurar un recurso HAStoragePlus para las zonas no globales.


Nota –

ProcedureCómo configurar SAP Web Application Server en zonas no globales para la configuración de HAStoragePlus

  1. En cualquier nodo del clúster, conviértase en superusuario o adopte una función que proporcione la autorización de RBAC solaris.cluster.modify.

  2. Cree el grupo de recursos escalables con las zonas no globales que contengan el recurso HAStoragePlus.


       # clresourcegroup create \
         -p Maximum_primaries=m\
         -p Desired_primaries=n\
        [-n node-zone-list] hasp-resource-group
    
    -p Maximum_primaries=m

    Especifica el número máximo de elementos principales activos para este grupo de recursos.

    -p Desired_primaries=n

    Especifica el número de elementos principales activos en los que debería intentar iniciarse el grupo de recursos.

    -n node-zone-list

    En la lista de nodos de un grupo de recursos HAStoragePlus, especifica la lista de nombres de nodos:nombres de zonas como la lista de nodos del grupo de recursos HAStoragePlus, en los que pueden establecerse en línea las instancias de SAP.

    hasp-resource-group

    Especifica el nombre del grupo de recursos escalables que se va a agregar. Este nombre debe comenzar por un carácter ASCII.

  3. Registre el tipo de recurso para el recurso HAStoragePlus.


    # clresourcetype register HAStoragePlus
  4. Cree el recurso hasp de HAStoragePlus, y defina los puntos de montaje de los sistemas de archivos SAP y las rutas a dispositivos globales.


     # clresource create -g hasp-resource-group -t SUNW.HAStoragePlus \
        -p GlobalDevicePaths=/dev/global/dsk/d5s2,dsk/d6 \
        -p affinityon=false -p 
    FilesystemMountPoints=/sapmnt/JSC,/usr/sap/trans,/usr/sap/JSC hasp-resource
    
    -g hasp-resource-group

    Especifica el nombre del grupo de recursos.

    GlobalDevicePaths

    Contiene los siguientes valores:

    • Nombres de grupos de dispositivos globales como, por ejemplo, sap-dg, dsk/d5 .

    • Rutas a dispositivos globales como, por ejemplo, /dev/global/dsk/d5s2, /dev/md/sap-dg/dsk/d6.

    FilesystemMountPoints

    Contiene los siguientes valores:

    • Puntos de montaje de sistemas de archivos locales o del clúster como, por ejemplo, /local/mirrlogA,/local/mirrlogB,/sapmnt/JSC,/usr/sap/JSC.

    El recurso HAStoragePlus se crea con el estado habilitado.

  5. Registre el tipo de recurso para la aplicación SAP.


    # clresourcetype register resource-type
    
    resource-type

    Especifica el nombre del tipo de recurso que se va a agregar. Para obtener información, consulte Productos admitidos.

  6. Cree un grupo de recursos de SAP.


      # clresourcegroup create [-n node-zone-list] -p 
    RG_affinities=++hastorageplus-rg resource-group-1
    
    resource-group-1

    Especifique el grupo de recursos de los servicios de SAP.

  7. Agregue el recuso de la aplicación SAP a resource-group-1 y establezca la dependencia en hastorageplus-1.


       # clresource create -g resource-group-1 -t SUNW.application \
         [-p "extension-property[{node-specifier}]"=value, ?] \
         -p Resource_dependencies=hastorageplus-1 resource
    
  8. Ponga en línea el grupo de recursos a prueba de fallos.


    # clresourcegroup online resource-group-1
    

Guía de administración del sistema

En esta sección, se describen los errores y las omisiones de la Sun Cluster System Administration Guide for Solaris OS .

Obtención de un metaconjunto de Solaris Volume Manager de los nodos iniciados en el modo sin clúster

ProcedureCómo obtener un metaconjunto de Solaris Volume Manager de los nodos iniciados en el modo sin clúster

Utilice este procedimiento para ejecutar una aplicación fuera del clúster con fines de prueba.

  1. Determine si se utiliza el dispositivo del quórum en el metaconjunto de Solaris Volume Manager y si este dispositivo utiliza las reservas scsi2 o scsi3.


    # clquorum show
    
    1. Si el dispositivo del quórum se encuentra en el metaconjunto de Solaris Volume Manager, agregue un nuevo dispositivo del quórum que no forme parte del metaconjunto para utilizarlo posteriormente en el modo sin clúster.


      # clquorum add did
      
    2. Elimine el antiguo dispositivo del quórum.


      # clqorum remove did
      
    3. Si el dispositivo del quórum utiliza una reserva scsi2, límpiela en el antiguo quórum y compruebe que no quede ninguna reserva scsi2.


      # /usr/cluster/lib/sc/pgre -c pgre_scrub -d /dev/did/rdsk/dids2
      # /usr/cluster/lib/sc/pgre -c pgre_inkeys -d /dev/did/rdsk/dids2
      
  2. Extraiga el nodo que desee para arrancarlo en el modo sin clúster.


    # clresourcegroup evacuate -n targetnode
    
  3. Establezca sin conexión cualquier grupo de recursos que contenga recursos HAStorage o HAStoragePlus, y dispositivos o sistemas de archivos asociados al metaconjunto que desea utilizar posteriormente en el modo sin clúster.


    # clresourcegroup offline resourcegroupname
    
  4. Deshabilite todos los recursos de los grupos de recursos que ha establecido sin conexión.


    # clresource disable resourcename
    
  5. Deje sin administrar el grupo de recursos.


    # clresourcegroup unmanage resourcegroupname
    
  6. Establezca sin conexión el grupo o los grupos de dispositivos correspondientes.


    # cldevicegroup offline devicegroupname
    
  7. Deshabilite el grupo o los grupos de dispositivos.


    # cldevicegroup disable devicegroupname
    
  8. Arranque el nodo pasivo en el modo sin clúster.


    # reboot -x
    
  9. Verifique que el proceso de arranque se haya completado en el nodo pasivo antes de continuar.

    • Solaris 9

      El indicador de inicio de sesión sólo aparecerá una vez completado el proceso de arranque, por lo que no será necesario realizar ninguna acción.

    • Solaris 10


      # svcs -x
      
  10. Determine si hay alguna reserva scsi3 en los discos del metaconjunto o los metaconjuntos. Ejecute los siguientes comandos en todos los discos de los metaconjuntos.


    # /usr/cluster/lib/sc/scsi -c inkeys -d /dev/did/rdsk/dids2
    
  11. Si hay alguna reserva scsi3 en los discos, límpielas.


    # /usr/cluster/lib/sc/scsi -c scrub -d /dev/did/rdsk/dids2
    
  12. Utilice el metaconjunto en el nodo extraído.


    # metaset -s name -C take -f
    
  13. Monte el sistema o los sistemas de archivos que contengan el dispositivo definido en el metaconjunto.


    # mount device mountpoint
    
  14. Inicie la aplicación y realice la prueba que desee. Una vez finalizada la prueba, detenga la aplicación.

  15. Reinicie el nodo y espere a que finalice el proceso de arranque.


    # reboot
    
  16. Establezca en línea el grupo o los grupos de dispositivos.


    # cldevicegroup online -e devicegroupname
    
  17. Inicie el grupo o los grupos de recursos.


    # clresourcegroup online -eM  resourcegroupname 
    

Uso de la función de filtrado IP de Solaris con Sun Cluster

Sun Cluster admite la función de filtrado IP de Solaris con las siguientes restricciones:

ProcedureCómo configurar la función de filtrado IP de Solaris

  1. En el archivo /etc/iu.ap, modifique las entradas NIC públicas para mostrar clhbsndr pfil como la lista de módulos.

    pfil debe ser el último módulo de la lista.


    Nota –

    Si tiene el mismo tipo de adaptador para las redes pública y privada, las modificaciones realizadas en el archivo /etc/iu.ap enviarán a pfil a las secuencias de red privada. Sin embargo, el módulo de transporte del clúster eliminará automáticamente todos los módulos no deseados durante la creación de las secuencias, por lo que se eliminará pfil de las secuencias de red privada.


  2. Para garantizar que el filtro IP funcione en el modo sin clúster, actualice el archivo /etc/ipf/pfil.ap.

    Las actualizaciones al archivo /etc/iu.ap presentan ligeras diferencias. Consulte la documentación del filtro IP para obtener más información.

  3. Reinicie todos los nodos afectados.

    Puede arrancar los nodos de forma secuencial.

  4. Agregue las reglas de filtrado al archivo /etc/ipf/ipf.conf en los nodos afectados. Para obtener información sobre la sintaxis de las reglas de filtrado IP, consulte ipf(4)

    Tenga en cuenta las siguientes directrices y requisitos al agregar reglas de filtrado a los nodos de Sun Cluster.

    • Sun Cluster conmuta por error las direcciones de red de un nodo a otro. No se necesita ningún procedimiento o código especial durante la conmutación por error.

    • Todas las reglas de filtrado que hagan referencia a las direcciones IP de los recursos de nombre de host lógico o dirección compartida deben ser idénticas en todos los nodos del clúster.

    • Las reglas del nodo auxiliar harán referencia a una dirección IP inexistente. No obstante, esta regla forma parte del conjunto de reglas activas del filtro IP y se aplicará cuando el nodo reciba la dirección tras una conmutación por error.

    • Todas las reglas de filtrado deben ser idénticas para todos los NIC del mismo grupo IPMP. En otras palabras, si una regla es específica de una interfaz, debe existir también esa misma regla para todas las interfaces del mismo grupo IPMP.

  5. Habilite el servicio de SMF ipfilter.


    # svcadm enable /network/ipfilter:default
    

Guía del desarrollador de servicios de datos

En esta sección, se describen los errores y las omisiones de la Sun Cluster Data Services Developer’s Guide for Solaris OS .

Compatibilidad con determinados servicios escalables en las zonas no globales

En Resource Type Properties de Sun Cluster Data Services Developer’s Guide for Solaris OS, la descripción de la propiedad del recurso Failover no proporciona una instrucción relacionada con la compatibilidad con servicios escalables en las zonas no globales. Esta compatibilidad se aplica a los recursos para los que se han establecido la propiedad Failover del tipo de recurso en FALSE y la propiedad Scalable del recurso en TRUE. Esta combinación de configuración de propiedades indica que el servicio escalable utiliza el recurso SharedAddress para realizar el equilibrado de carga de red. En la versión Sun Cluster 3.2, puede configurar un servicio escalable de este tipo en un grupo de recursos que se ejecute en una zona no global. Sin embargo, no puede configurar un servicio escalable para que se ejecute en varias zonas no globales del mismo nodo.

Se ha cambiado el comportamiento del tiempo de espera de los métodos

Falta una descripción del cambio efectuado en el comportamiento de los tiempos de espera de los métodos en la versión Sun Cluster 3.2. Si se agota el tiempo de espera de devolución de llamadas del método RGM, el proceso se finaliza mediante la señal SIGABRT en lugar de la señal SIGTERM. Esto provoca que todos los miembros del grupo de procesos generen un archivo del núcleo central.


Nota –

Evite escribir el método de servicio de datos que crea un nuevo grupo de procesos. Si el método de servicio de datos no necesita crear un nuevo grupo de procesos, escriba también un manejador de señal para las señales SIGTERM y SIGABRT. Escriba los manejadores de señales para reenviar la señal SIGTERM o SIGABRT al grupo de procesos subordinados antes de que el manejador de señal finalice el proceso superior. De esta forma, aumenta la probabilidad de que todos los procesos producidos por el método se finalicen correctamente.


CRNP se ejecuta sólo en la zona global

Capítulo 12, Cluster Reconfiguration Notification Protocol de Sun Cluster Data Services Developer’s Guide for Solaris OS, falta la instrucción que indica que el Protocolo de notificación de reconfiguración del clúster (CRNP, Cluster Reconfiguration Notification Protocol) se ejecuta sólo en la zona global en el SO Solaris 10.

La instrucción del grupo de software de Solaris necesario no es clara

En Setting Up the Development Environment for Writing a Data Service de Sun Cluster Data Services Developer’s Guide for Solaris OS, aparece una nota en la que se indica que se necesita la distribución completa o para el desarrollador del grupo de software. Esta instrucción hace referencia al equipo de desarrollo. Sin embargo, como aparece después de la instrucción sobre la realización de pruebas del servicio de datos en un clúster, es posible que se malinterprete como un requisito para el clúster en el que se está ejecutando el servicio de datos.

Guía del usuario del servidor del quórum

En esta sección, se describen los errores y las omisiones de la Sun Cluster Quorum Server User’s Guide .

Plataformas de hardware y software admitidas

Los siguientes requisitos y directrices de instalación no se encuentran presentes o son confusos:

Páginas de comando man

En esta sección, se describen los errores, las omisiones y las adiciones de las páginas de comando man de Sun Cluster.

ccp(1M)

En la siguiente sinopsis modificada y las secciones de opciones agregadas de la página de comando man ccp(1M), se describe la adición de la compatibilidad del shell seguro con las utilidades del panel de control del clúster (CCP):

SYNOPSIS


$CLUSTER_HOME/bin/ccp [-s] [-l username] [-p ssh-port] {clustername | nodename}

OPCIONES

Se admiten las siguientes opciones:

-l username

Especifica el nombre de usuario de la conexión ssh. Esta opción se transfiere a la utilidad cconsole, crlogin o cssh cuando se inicia desde el CCP. La utilidad ctelnet omite esta opción.

Si no se especifica la opción -l, se utilizará el nombre de usuario que ha iniciado el CCP.

-p ssh-port

Especifica el número de puerto del shell seguro que se se utilizará. Esta opción se transfiere a la utilidad cssh cuando se inicia desde el CCP. Las utilidades cconsole, crlogin y ctelnet omiten esta opción.

Si no se especifica la opción -p, se utilizará el número de puerto predeterminado 22 para las conexiones seguras.

-s

Especifica el uso de las conexiones del shell seguro a las consolas del nodo en lugar de las conexiones de telnet. Esta opción se transfiere a la utilidad cconsole cuando se inicia desde el CCP. Las utilidades crlogin, cssh y ctelnet omiten esta opción.

Si no se especifica la opción -s, la utilidad cconsole usa las conexiones de telnet a las consolas.

Para anular la opción -s, desactive la casilla de verificación Usar SSH del menú Opciones de la interfaz gráfica de usuario (GUI) de cconsole.

cconsole(1M), crlogin(1M), cssh(1M) y ctelnet(1M)

En la siguiente sinopsis modificada y las secciones de opciones agregadas de las páginas de comando man combinadas cconsole, crlogin, cssh y ctelnet, se describe la adición de la compatibilidad del shell seguro con las utilidades del panel de control del clúster:

SYNOPSIS


$CLUSTER_HOME/bin/cconsole [-s] [-l username] [clustername… | nodename…]
$CLUSTER_HOME/bin/crlogin [-l username] [clustername… | nodename…]
$CLUSTER_HOME/bin/cssh [-l username] [-p ssh-port] [clustername… | nodename…]
$CLUSTER_HOME/bin/ctelnet [clustername… | nodename…]

DESCRIPCIÓN

cssh

Esta utilidad establece directamente las conexiones del shell seguro con los nodos del clúster.

OPCIONES

-l username

Especifica el nombre de usuario de ssh para las conexiones remotas. Esta opción es válida con los comandos cconsole, crlogin y cssh.

El valor del argumento se recuerda para que los clústeres y los nodos que se especifiquen posteriormente utilicen el mismo nombre de usuario al establecer las conexiones.

Si no se especifica la opción -l, se utilizará el nombre de usuario que ha ejecutado el comando.

-p ssh-port

Especifica el número de puerto del shell seguro que se se utilizará. Esta opción es válida con el comando cssh.

Si no se especifica la opción -p, se utilizará el número de puerto predeterminado 22 para las conexiones seguras.

-s

Especifica el uso de las conexiones del shell seguro en lugar de las conexiones de telnet a las consolas del nodo. Esta opción es válida con el comando cconsole.

Si no se especifica la opción -s, la utilidad usa las conexiones de telnet a las consolas.

Para anular la opción -s en la interfaz gráfica de usuario (GUI) de cconsole, desactive la casilla de verificación Usar SSH en el menú Opciones.

clnode(1CL)

clresource(1CL)

clresourcegroup(1CL)

r_properties(5)

rt_properties(5)

La descripción de la propiedad Failover del tipo de recurso contiene una instrucción incorrecta relacionada con la compatibilidad con los servicios escalables en las zonas no globales en la versión Sun Cluster 3.2. Esta compatibilidad se aplica a los recursos para los que se han establecido la propiedad Failover del tipo de recurso en FALSE y la propiedad Scalable del recurso en TRUE.

serialports(4)

La siguiente información se ha agregado a la sección de descripción de la página de comando man serialport(4):

Para admitir las conexiones del shell seguro a las consolas del nodo, especifique el nombre del dispositivo de acceso a la consola y el número de puerto del shell seguro para cada nodo en el archivo /etc/serialports. Si utiliza la configuración predeterminada del shell seguro en el dispositivo de acceso a la consola, especifique el número de puerto 22.

SUNW.Event(5)

En la página de comando man SUNW.Event(5), falta la instrucción que indica que el Protocolo de notificación de reconfiguración del clúster (CRNP, Cluster Reconfiguration Notification Protocol) se ejecuta sólo en la zona global en el SO Solaris 10