Este documento proporciona la siguiente información sobre el software SunTM Cluster 3.1 8/05:
Este apartado proporciona información relacionada con las nuevas características, la funcionalidad y los productos admitidos en el sotware Sun Cluster 3.1 8/05. Asimismo, incluye información acerca de algunas restricciones introducidas en esta versión.
Este apartado describe todas las características nuevas que ofrece Sun Cluster 3.1 8/05.
Esta versión presenta algunas mejoras en el proceso de instalación y configuración del software Sun Cluster.
Se han agregado las siguientes opciones de menú a la utilidad scinstall:
Instalación típica del primer nodo de un clúster, los nodos adicionales de un clúster y la configuración de la instalación de Jumpstart
Instalación de clústeres de un único nodo
Actualización de clústeres
En la nueva versión, la utilidad scinstall puede seleccionar y configurar automáticamente un dispositivo quórum dentro del proceso de configuración. Esta característica opcional está disponible para clústeres de dos nodos que utilicen sólo dispositivos de almacenamiento compartido SCSI que puedan utilizarse como dispositivos quórum.
Dentro del nuevo proceso de configuración de Sun Cluster se han automatizado las siguientes modificaciones de archivos:
Nombre de archivo |
Cambios de entradas |
---|---|
/etc/hostname.if |
Se ha agregado una entrada para cada adaptador de red pública configurado del nodo con el fin de permitir el uso de grupos IPMP de adaptador único. |
/etc/inet/hosts |
Se ha agregado una entrada para cada nodo del clúster. |
/etc/inet/ntp.conf.cluster |
Se han eliminado las entradas de nombres de host privados que no se utilizan. |
/etc/nsswitch.conf |
Se han modificado la mayoría de las entradas para consultar la base de datos files antes de realizar búsquedas en servidores remotos. |
/etc/system |
Se ha agregado la entrada exclude:lofs. |
Esta funcionalidad se describe en los procedimientos de instalación y actualización del Capítulo 2, Instalación y configuración del software Sun Cluster de Software Sun Cluster: Guía de instalación para el sistema operativo Solaris y del Capítulo 5, Modernización del software Sun Cluster de Software Sun Cluster: Guía de instalación para el sistema operativo Solaris.
El software Sun Cluster es compatible con los dispositivos de almacenamiento conectado a red o NAS (Network-Attached Storage) de Network Appliance, aunque sólo para el almacenamiento compartido, a partir de la versión Sun Cluster 3.1 9/04. Admite dispositivos NAS como dispositivos quórum a partir de la versión Sun Cluster 3.1 8/05. En estos momentos, un dispositivo NAS de Network Appliance se puede implementar con Sun Cluster:
Como dispositivo quórum, con compatibilidad de delimitación
Con Oracle RAC y con todas las aplicaciones habilitadas para Sun Cluster, excepto HA-NFS
Con NFSv3 y NFSv4
Sin ninguna restricción acerca del tamaño de clúster
Para obtener información sobre el proceso de instalación y mantenimiento de un dispositivo NAS dentro del entorno de Sun Cluster, consulte el Sun Cluster 3.1 With Network-Attached Storage Devices Manual for Solaris OS. Si desea información sobre cómo utilizar un dispositivo NAS de Network Appliance como dispositivo quórum, consulte Cómo agregar un dispositivo del quórum de almacenamiento conectado a red (NAS) de Network Appliance de Sun Cluster: Guía de administración del sistema para el SO Solaris.
Se ha simplificado la información que se muestra en la pantalla inicial de datos de SunPlex Manager. Ahora la pantalla inicial muestra sólo las tablas Nodes (Nodos) y Resource Groups (Grupos de recursos). Para tener acceso a las demás tablas, haga clic en el elemento correspondiente de la herramienta Navigation Tree (Árbol de navegación) que aparece a la izquierda en la ventana del explorador.
Sun Cluster admite redes de área local virtuales o VLAN (Virtual Local Area Network) etiquetadas para compartir un adaptador entre la interconexión privada y la red pública. Si desea información sobre la configuración de un adaptador VLAN etiquetado para la interconexión privada, consulte Interconexión de clúster de Software Sun Cluster: Guía de instalación para el sistema operativo Solaris.
El servicio de datos de Sun Cluster HA para Solaris Containers permite la ejecución de aplicaciones en zonas no globales bajo el control de Sun Cluster.
Para permitir la ejecución de aplicaciones en zonas no globales bajo el control de Sun Cluster, Sun Cluster HA para Solaris Containers realiza las operaciones siguientes:
El inicio y cierre programados de una zona, permitiendo la ejecución de una zona no global en la configuración de conmutación por error o de varios agentes maestros
El inicio, cierre y la supervisión de errores programados de una aplicación dentro de la zona mediante comandos o secuencias de comandos
El inicio, cierre y la supervisión de errores programados de un servicio Solaris Service Management Facility (SMF) dentro de la zona
Si tiene pensado utilizar este servicio de datos, debe escribir sus propias secuencias de comandos o manifiestos SMF para las aplicaciones que deben ejecutarse en zonas no globales.
Se aplican las restricciones siguientes al servicio de datos de Sun Cluster HA para Solaris Containers:
El servicio de datos no permite la ejecución del software Sun Cluster en una zona no global.
El servicio de datos no permite la ejecución de servicios de datos existentes en una zona no global.
El servicio de datos no permite la conmutación por error entre zonas no globales del mismo nodo.
Para obtener más información sobre este servicio de datos, consulte la Sun Cluster Data Service for Solaris Containers Guide.
El software Sun Cluster permite el uso de Sun Cluster para mejorar la disponibilidad de una aplicación integrada en los servicios Service Management Facility (SMF) de Solaris. Si utiliza Sun Cluster para mejorar la disponibilidad de un servicio SMF, se aplicarán restricciones al uso de SMF de Solaris. Para obtener más información, consulte Enabling Solaris SMF Services to Run Under the Control of Sun Cluster de Sun Cluster Data Services Planning and Administration Guide for Solaris OS.
Sun Cluster puede ejecutarse en la familia de microprocesadores de 64 bits y otros microprocesadores compatibles fabricados por AMD.
Sun Cluster admite el uso de Kerberos con NFS. Para obtener más información, consulte Securing Sun Cluster HA for NFS With Kerberos V5 de Sun Cluster Data Service for NFS Guide for Solaris OS.
El software Sun Cluster es compatible con la versión 10g de Oracle y Oracle Real Application Clusters en la plataforma SPARC. No se ha probado la idoneidad de la versión 10g de Oracle y Oracle Real Application Clusters en la plataforma x86, por lo que no es compatible todavía. Para obtener más información, consulte la siguiente documentación:
Las restricciones siguientes se aplican a la versión Sun Cluster 3.1 8/05:
NFSv4 no es compatible en la versión Sun Cluster 3.1 8/05.
Para conocer otros problemas o restricciones, consulte Problemas conocidos.
Este apartado contiene información sobre problemas de compatibilidad de Sun Cluster como, por ejemplo, las características que están próximas a desaparecer.
Otros problemas de compatibilidad relacionados con el entorno de Sun Cluster aparecen documentados en el Capítulo 1, Planificación de la configuración de Sun Cluster de Software Sun Cluster: Guía de instalación para el sistema operativo Solaris.
Asimismo, problemas adicionales de compatibilidad relacionados con la actualización de Sun Cluster aparecen documentados en Visión general de la modernización de una configuración de Sun Cluster de Software Sun Cluster: Guía de instalación para el sistema operativo Solaris.
Para conocer otros problemas o restricciones, consulte Problemas conocidos.
El software Solstice DiskSuite podría dejar de ser compatible en próximas versiones de Sun Cluster. Si utiliza Solstice DiskSuite, actualice al sistema operativo Solaris 9 o Solaris 10, que instalará automáticamente la versión actualizada del software Gestor de volúmenes de Solaris. Para obtener información sobre el proceso de actualización, consulte la Solaris 9 9/04 Installation Guide or Guía de instalación de Solaris 10: Modernización automática de Solaris y planificación de la modernización.
Sun Fire Link podría dejar de ser compatible en próximas versiones de Sun Cluster. Si usa Sun Fire Link, utilice otra tecnología de interconexión compatible con Sun Cluster. Para obtener más información sobre hardware de interconexión compatible con Sun Cluster, consulte el Capítulo 3, Installing Cluster Interconnect Hardware and Configuring VLANs de Sun Cluster 3.0-3.1 Hardware Administration Manual for Solaris OS.
SunPlex Installer podría dejar de ser compatible en próximas versiones de Sun Cluster. Para establecer una nueva configuración de Sun Cluster, emplee ahora la utilidad scinstall. Mediante la interfaz de línea de comandos, la utilidad scinstall permite llevar a cabo todas las funciones proporcionadas por SunPlex Installer.
La configuración de grupos IPMP (adición o eliminación) podría no incluirse en próximas versiones. Esta función está disponible mediante el comando ifconfig(1M) de Solaris. Para obtener información sobre opciones específicas, consulte la página de comando man ifconfig(1M).
El tipo de recurso SUNW.RGOffload podría no estar disponible en próximas versiones de Sun Cluster. Todas las funciones proporcionadas por este tipo de recurso están disponibles mediante la propiedad del grupo de recursos RG_affinities y su opción de "afinidad negativa".
Si tiene configurado un recurso SUNW.RGOffload, lleve a cabo las siguientes acciones para utilizar la opción de "afinidad negativa" de la propiedad del grupo de recursos RG_affinities.
Elimine la dependencia del recurso crítico en el recurso SUNW.RGOffload.
# scrgadm -cj critical-rs -y Resource_dependencies="" |
Elimine el recurso y el tipo de recurso SUNW.RGOffload.
# scrgadm -nj rgofl # scrgadm -rj rgofl # scrgadm -rt SUNW.RGOffload |
Cambie la propiedad del grupo de recursos no críticos para que tenga una afinidad negativa con el grupo de recursos críticos (que contiene critical-rs).
# scrgadm -c -g non-critical-rg -y RG_affinities=--critical-rg |
Este ejemplo muestra sólo una afinidad negativa. Puede establecer una afinidad negativa débil y otro tipo de dependencias entre los grupos de recursos en línea. Para obtener información detallada sobre cómo configurar la característica de dependencias de grupos de recursos en línea, consulte Distributing Online Resource Groups Among Cluster Nodes de Sun Cluster Data Services Planning and Administration Guide for Solaris OS.
La herramienta de DiskSuite (Solstice DiskSuite metatool) y el módulo de almacenamiento ampliado de Solaris Management Console (Gestor de volúmenes de Solaris) no son compatibles con Sun Cluster. Utilice la interfaz de línea de comandos o las utilidades de Sun Cluster para configurar Solstice DiskSuite o Gestor de volúmenes de Solaris.
Sun Cluster 3.1 8/05 no admite zonas no globales. Todo el software de Sun Cluster y el software que se administra mediante el clúster debe instalarse sólo en la zona global del nodo. No instale el software relacionado con el clúster en una zona no global. Además, el software relacionado con el clúster debe instalarse de forma tal que se impida la propagación a una zona no global que se cree posteriormente en el nodo del clúster. Para obtener más información, consulte Adding a Package to the Global Zone Only de System Administration Guide: Solaris Containers-Resource Management and Solaris Zones.
Sin embargo, Sun Cluster 3.1 8/05 no es compatible con las aplicaciones que se ejecutan en una zona no global y que administra el servicio de datos de Sun Cluster HA para Solaris Containers. Para obtener más información, consulte Sun Cluster HA para Solaris Containers .
En algunos casos, Sun Cluster 3.1 8/05 no admite el uso de sistemas de archivos de realimentación o LOFS (Loopback File System). Si necesita activar el servicio LOFS en un nodo de clúster, por ejemplo, cuando configura zonas no globales en Sun Cluster HA para Solaris Containers, debe determinar primero si las restricciones de LOFS se aplican a su configuración. Para obtener más información sobre las restricciones y soluciones alternativas que permiten el uso de LOFS cuando existen condiciones restrictivas, consulte Sistemas de archivos de clúster de Software Sun Cluster: Guía de instalación para el sistema operativo Solaris.
Sun Cluster 3.1 8/05 no permite la actualización a la versión original del sistema operativo Solaris 10, distribuida en marzo de 2005. Para ello, debe actualizar a una versión compatible de Solaris 10. Si desea más información, póngase en contacto con su representante de servicios de Sun.
El comando scvxinstall y los procedimientos de Sun Cluster para la instalación de VxVM en una configuración de Sun Cluster han cambiado. Para obtener más información, consulte Instalación y configuración del software de VxVM de Software Sun Cluster: Guía de instalación para el sistema operativo Solaris.
Si desea conocer las características de accesibilidad presentadas desde la publicación de este medio, solicite a Sun las evaluaciones de productos de la sección 508 para determinar las versiones más apropiadas para la implementación de soluciones accesibles. Las versiones actualizadas de las aplicaciones se encuentran en: http://sun.com/software/javaenterprisesystem/get.html. Para obtener información sobre el compromiso de Sun con la accesibilidad, visite http://sun.com/access.
Este apartado describe los cambios realizados en las interfaces de comandos de Sun Cluster que pueden provocar errores en las secuencias de comandos del usuario.
La opción -q del comando scconf se ha modificado para distinguir entre dispositivos quórum locales compartidos (scsi) y otros tipos de dispositivos quórum (incluidos los dispositivos NetApp NAS). Utilice la subopción name para especificar el nombre del dispositivo de almacenamiento compartido adjunto al agregar un dispositivo quórum compartido al clúster o eliminarlo. Esta subopción puede utilizarse también con la forma change del comando para cambiar el estado de un dispositivo quórum. Aunque la subopción globaldev se puede utilizar todavía para dispositivos de almacenamiento compartido scsi, debe emplearse la subopción name para los demás tipos de dispositivos de almacenamiento compartido. Para obtener más información sobre este cambio en scconf y el uso de dispositivos quórum, consulte scconf(1M), scconf_quorum_dev_netapp_nas(1M), scconf_quorum_dev_netapp_nas(1M) y scconf_quorum_dev_scsi(1M).
Este apartado ofrece información sobre los cambios en los nombres de productos de las aplicaciones compatibles con Sun Cluster. Según la versión de Sun Cluster que utilice, es posible que la documentación de Sun Cluster no refleje los cambios en los nombres de productos que se especifican debajo.
Este apartado describe el software admitido y los requisitos de memoria del software Sun Cluster 3.1 8/05.
El software del Sistema operativo Solaris (SO) – Sun Cluster 3.1 8/05 necesita las siguientes versiones mínimas del SO Solaris:
Solaris 8 – Solaris 8 2/02
Solaris 9 – Solaris 9, versión comercial (mayo de 2002)
Solaris 10 –
Nuevas instalaciones: Solaris 10, versión comercial (marzo de 2005)
Actualizaciones: no compatibles. Si desea recibir asistencia para la actualización a próximas versiones de Solaris 10, póngase en contacto con su representante de servicios de Sun.
Gestores de volúmenes
En Solaris 8 – Solstice DiskSuiteTM 4.2.1 y (sólo SPARC) VERITAS Volume Manager 3.5, 4.0 y 4.1. Asimismo, componentes de VERITAS Volume Manager distribuidos con Veritas Storage Foundation 4.0 y 4.1.
En Solaris 9 – Gestor de volúmenes de Solaris y (sólo SPARC) VERITAS Volume Manager 3.5, 4.0 y 4.1. Asimismo, componentes de VERITAS Volume Manager distribuidos con Veritas Storage Foundation 4.0 y 4.1.
En Solaris 10 – Gestor de volúmenes de Solaris y (sólo SPARC) VERITAS Volume Manager 4.0 y 4.1. Asimismo, componentes de VERITAS Volume Manager distribuidos con Veritas Storage Foundation 4.0 y 4.1.
Sistemas de archivos
En Solaris 8 – Solaris UFS, (sólo SPARC) Sun StorEdge QFS y (sólo SPARC) VERITAS File System 3.5, 4.0 y 4.1. Asimismo, componentes de VERITAS File System distribuidos con Veritas Storage Foundation 4.0 y 4.1.
En Solaris 9 – Solaris UFS, (sólo SPARC) Sun StorEdge QFS y (sólo SPARC) VERITAS File System 3.5, 4.0 y 4.1. Asimismo, componentes de VERITAS File System distribuidos con Veritas Storage Foundation 4.0 y 4.1.
En Solaris 10 – Solaris UFS, (sólo SPARC) Sun StorEdge QFS y (sólo SPARC) VERITAS File System 4.0 y 4.1. Asimismo, componentes de VERITAS File System distribuidos con Veritas Storage Foundation 4.0 y 4.1.
Servicios de datos (agentes): póngase en contacto con su representante de ventas de Sun para obtener una lista completa de los servicios de datos admitidos y las versiones de las aplicaciones. Especifique los nombres de los tipos de recursos cuando instale los servicios de datos mediante la utilidad scinstall(1M). También debe especificar los nombres de los tipos de recursos cuando registre los tipos de recursos asociados con el servicio de datos mediante la utilidad scsetup(1M).
Los procedimientos de la versión de Sun Cluster HA para Sun JavaTM System Directory Server que utiliza Sun Java System Directory Server 5.0 y 5.1 se encuentran en Sun Cluster 3.1 Data Service para Sun ONE Directory Server. Para versiones posteriores de Sun Java System Directory Server, consulte la documentación de dicho producto.
Siempre que “Sun One” aparezca en los nombres y descripciones de los servicios de datos para las aplicaciones Sun Java Enterprise System se debe sustituir por “Sun Java System.” Ejemplo: “Sun Cluster Data Service for Sun One Application Server” debería ser “Sun Cluster Data Service for Sun Java System Application Server.”
El servicio de datos de Sun Cluster HA para Oracle 3.0 sólo puede ejecutarse en Sun Cluster 3.1 8/05 si se utiliza con las siguientes versiones del sistema operativo Solaris:
Solaris 8, versión de 32 bits
Solaris 8, versión de 64 bits
Solaris 9, versión de 32 bits
El servicio de datos de Sun Cluster HA para Oracle 3.0 no puede ejecutarse en el software Sun Cluster 3.1 8/05 si se utiliza con la versión de 64 bits del sistema operativo Solaris 9.
Servicios de datos |
Tipo de recurso de Sun Cluster |
---|---|
Sun Cluster HA para Agfa IMPAX |
SUNW.gds |
Sun Cluster HA for Apache |
SUNW.apache |
Sun Cluster HA para Apache Tomcat |
SUNW.sctomcat |
Sun Cluster HA para BroadVision One-To-One Enterprise |
SUNW.bv |
Sun Cluster HA para DHCP |
SUNW.gds |
Sun Cluster HA para DNS |
SUNW.dns |
Sun Cluster HA para MySQL |
SUNW.gds |
Sun Cluster HA para NetBackup |
SUNW.netbackup_master |
Sun Cluster HA para NFS |
SUNW.nfs |
Sun Cluster Oracle Application Server |
SUNW.gds |
Sun Cluster HA para Oracle E-Business Suite |
SUNW.gds |
Sun Cluster HA para Oracle |
SUNW.oracle_server SUNW.oracle_listener |
Sun Cluster Support para Oracle Real Application Clusters |
SUNW.rac_framework SUNW.rac_udlm SUNW.rac_svm SUNW.rac_cvm SUNW.rac_hwraid SUNW.oracle_rac_server SUNW.oracle_listener |
Sun Cluster HA para Samba |
SUNW.gds |
Sun Cluster HA para SAP |
SUNW.sap_ci SUNW.sap_ci_v2 SUNW.sap_as SUNW.sap_as_v2 |
Sun Cluster HA para SAP liveCache |
SUNW.sap_livecache SUNW.sap_xserver |
Sun Cluster HA for SAP DB |
SUNW.sapdb SUNW.sap_xserver |
Sun Cluster HA para SAP Web Application Server |
SUNW.sapenq SUNW.saprepl SUNW.sapscs SUNW.sapwebas SUNW.gds |
Sun Cluster HA para Siebel |
SUNW.sblgtwy SUNW.sblsrvr |
Sun Cluster HA para Solaris Containers |
SUNW.gds |
Sun Cluster HA para N1 Grid Engine |
SUNW.gds |
Sun Cluster HA para Sun Java System Application Server, versiones compatibles anteriores a la 8.1 |
SUNW.s1as |
Sun Cluster HA para Sun Java System Application Server, versiones compatibles a partir de la 8.1 |
SUNW.jsas SUNW.jsas-na |
Sun Cluster HA para Sun Java System Application Server EE (compatible con versiones de HADB anteriores a la 4.4) |
SUNW.hadb |
Sun Cluster HA para Sun Java System Application Server EE (compatible con versiones de HADB a partir de la 4.4) |
SUNW.hadb_ma |
Sun Cluster HA for Sun Java System Message Queue |
SUNW.s1mq |
Sun Cluster HA para Sun Java System Web Server |
SUNW.iws |
Sun Cluster HA para SWIFTAlliance Access |
SUNW.gds |
Sun Cluster HA para SWIFTAlliance Gateway |
SUNW.gds |
Sun Cluster HA para Sybase ASE |
SUNW.sybase |
Sun Cluster HA para WebLogic Server |
SUNW.wls |
Sun Cluster HA para WebSphere MQ |
SUNW.gds |
Sun Cluster HA para WebSphere MQ Integrator |
SUNW.gds |
Requisitos de memoria: el software Sun Cluster 3.1 8/05 necesita una memoria extra más allá de lo que exige un nodo en condiciones normales de trabajo. La memoria adicional debe equivaler a 128 Mbytes más un diez por ciento de la memoria configurada para un sistema sin clústeres. Por ejemplo, si un nodo autónomo necesita normalmente 1 GB de memoria, se requieren 256 MB extras para cumplir con los requisitos de la memoria.
RSMAPI: el software Sun Cluster 3.1 8/05 admite la Interfaz de programación de la aplicación de memoria remota compartida (RSMAPI) en conexiones compatibles con RSM, como PCI-SCI.
Sun Cluster Security Hardening (refuerzo de seguridad de Sun Cluster) utiliza las técnicas de refuerzo del sistema operativo Solaris recomendadas por el programa Sun BluePrintsTM para conseguir un fortalecimiento en la seguridad básica de los clústeres. Solaris Security Toolkit (conjunto de herramientas de seguridad de Solaris) automatiza la implementación de Sun Cluster Security Hardening.
La documentación de Sun Cluster Security Hardening está disponible en http://www.sun.com/blueprints/0203/817-1079.pdf. También puede acceder al artículo desde http://www.sun.com/software/security/blueprints. Desde esta URL, desplácese hacia la cabecera "Architecture" para encontrar el artículo “Securing the Sun Cluster 3.x Software.” La documentación describe cómo asegurar las implementaciones de Sun Cluster 3.1 en un entorno Solaris 8 y Solaris 9. La descripción incluye el uso de Solaris Security Toolkit y otras técnicas de seguridad de avanzada metodología recomendadas por los expertos en seguridad de Sun.
Tabla 1 Servicios de datos admitidos por Sun Cluster Security Hardening
Agente del servicio de datos |
Versión de la aplicación Conmutación por error |
Versión de la aplicación Escalable |
Versión de Solaris |
---|---|---|---|
Sun Cluster HA for Apache |
1.3.9 |
1.3.9 |
Solaris 8, Solaris 9 (versión 1.3.9) |
Sun Cluster HA para Apache Tomcat |
3.3, 4.0, 4.1 |
3.3, 4.0, 4.1 |
Solaris 8, Solaris 9 |
Sun Cluster HA para DHCP |
S8U7+ |
N/A |
Solaris 8, Solaris 9 |
Sun Cluster HA para DNS |
con SO |
N/A |
Solaris 8, Solaris 9 |
Sun Cluster HA para Sun Java System Messaging Server |
6.0 |
4.1 |
Solaris 8 |
Sun Cluster HA para MySQL |
3.23.54a - 4.0.15 |
N/A |
Solaris 8, Solaris 9 |
Sun Cluster HA para NetBackup |
3.4 |
N/A |
Solaris 8 |
Sun Cluster HA para NFS |
con SO |
N/A |
Solaris 8, Solaris 9 |
Sun Cluster HA para Oracle E-Business Suite |
11.5.8 |
N/A |
Solaris 8, Solaris 9 |
Sun Cluster HA para Oracle |
8.1.7 y 9i (32 y 64 bits) |
N/A |
Solaris 8, Solaris 9 (HA Oracle 9iR2) |
Sun Cluster Support para Oracle Real Application Clusters |
8.1.7 y 9i (32 y 64 bits) |
N/A |
Solaris 8, Solaris 9 |
Sun Cluster HA para SAP |
4.6D (32 y 64 bits) y 6.20 |
4.6D (32 y 64 bits) y 6.20 |
Solaris 8, Solaris 9 |
Sun Cluster HA para SWIFTAlliance Access |
4.1, 5.0 |
N/A |
Solaris 8 |
Sun Cluster HA para Samba |
2.2.2, 2.2.7, 2.2.7a, 2.2.8, 2.2.8a |
N/A |
Solaris 8, Solaris 9 |
Sun Cluster HA para Siebel |
7.5 |
N/A |
Solaris 8 |
Sun Cluster HA para Solaris Containers |
con SO |
N/A |
Solaris 10 |
Sun Cluster HA para Sun Java System Application Server |
7.0, 7.0 actualización 1 |
N/A |
Solaris 8,Solaris 9 |
Sun Cluster HA para Sun Java System Directory Server |
4.12 |
N/A |
Solaris 8, Solaris 9 (versión 5.1) |
Sun Cluster HA for Sun Java System Message Queue |
3.0.1 |
N/A |
Solaris 8 o Solaris 9 |
Sun Cluster HA para Sun Java System Web Server |
6.0 |
4.1 |
Solaris 8, Solaris 9 (versión 4.1) |
Sun Cluster HA para Sybase ASE |
12.0 (32 bits) |
N/A |
Solaris 8 |
Sun Cluster HA para el servidor WebLogic BEA |
7.0 |
N/A |
Solaris 8, Solaris 9 |
Sun Cluster HA para WebSphere MQ |
5.2, 5.3 |
N/A |
Solaris 8, Solaris 9 |
Sun Cluster HA para WebSphere MQ Integrator |
2.0.2, 2.1 |
N/A |
Solaris 8, Solaris 9 |
Los siguientes problemas conocidos afectan al funcionamiento de la versión Sun Cluster 3.1 8/05.
Resumen del problema: scvxinstall crea entradas /etc/vfstab incorrectas cuando el dispositivo de inicio tiene varias rutas.
Solución: ejecute scvxinstall y seleccione la opción de encapsulación. Cuando aparezca el siguiente mensaje, pulse Ctrl-C para anular el reinicio:
este nodo se reiniciará en 20 segundos. Pulse Ctrl-C para anular la operación. |
Edite la entrada vfstab para que /global/.devices utilice el nombre /dev/{r}dsk/cXtXdX, en lugar del nombre /dev/did/{r}dsk. Esta entrada modificada permite que VxVM lo reconozca como disco raíz. Vuelva a ejecutar scvxinstall y seleccione la opción de encapsulación. El archivo vfstab incluye las actualizaciones necesarias. Permita que se lleve a cabo el reinicio. La encapsulación se realiza de forma normal.
Ejecute scvxinstall y seleccione la opción de encapsulación.
El sistema muestra el siguiente mensaje:
This node will be re-booted in 20 seconds. Type Ctrl-C to abort. |
Anule el reinicio.
Ctrl-C |
Edite la entrada /etc/vfstab para que /global/.devices utilice el nombre /dev/{r}dsk/cXtXdX en lugar del nombre /dev/did/{r}dsk.
Esta entrada revisada permite que VxVM lo reconozca como disco raíz.
Vuelva a ejecutar scvxinstall y seleccione la opción de encapsulación.
El archivo /etc/vfstab incluye las actualizaciones necesarias. Permita que se lleve a cabo el reinicio. La encapsulación se realiza de forma normal.
Resumen del problema: el servicio de datos de Sun Cluster HA para SAP liveCache utiliza el comando dbmcli para iniciar y detener liveCache. Si ejecuta Solaris 9, es posible que el servicio de red no quede disponible cuando falle una red pública de un nodo del clúster.
Solución: agregue una de las siguientes entradas para la base de datos publickey a los archivos /etc/nsswitch.conf de cada nodo que pueda ser el principal para los recursos liveCache:
publickey: publickey: files publickey: files [NOTFOUND=return] nis publickey: files [NOTFOUND=return] nisplus
La adición de una de las entradas anteriores, además de las actualizaciones documentadas en Sun Cluster Data Service for SAP liveCache Guide for Solaris OS garantiza que los comandos su y dbmcli no hagan referencia a los servicios de nombres NIS/NIS+. Si se sobrepasan los servicios de nombres NIS/NIS+ se asegura que el servicio de datos se inicie y se detenga correctamente durante un fallo en la red.
Resumen del problema: el requisito del archivo nsswitch.conf en Preparing the Nodes and Disks de Sun Cluster Data Service for SAP liveCache Guide for Solaris OS no se aplica a la entrada de la base de datos passwd. Si se cumplen estos requisitos, el comando su se podría bloquear en cada nodo que pueda controlar el recurso liveCache cuando la red pública esté abierta.
Solución: en todos los nodos que puedan controlar el recurso liveCache, asegúrese de que la entrada del archivo /etc/nsswitch.conf para la base de datos passwd sea:
passwd: files nis [TRYAGAIN=0]
Resumen del problema: sccheck podría bloquearse si se inicia simultáneamente desde varios nodos.
Solución: no inicie sccheck desde ninguna consola múltiple que envíe comandos a varios nodos. Las ejecuciones de sccheck se pueden solapar, pero ésta no se debe iniciar simultáneamente.
Resumen del problema: actualmente, el servicio de datos de HADB no utiliza la variable de entorno JAVA_HOME. Por lo tanto, HADB, cuando se ejecuta desde el servicio de datos de HADB, usa los archivos binarios de Java de /usr/bin/. Para que el servicio de datos de HADB funcione correctamente, los archivos binarios de Java de /usr/bin/ deben estar enlazados a la versión apropiada de Java 1.4 o posterior.
Solución: si no le importa cambiar de versión predeterminada disponible, realice el procedimiento que se indica debajo. Por ejemplo, esta solución presupone que el directorio /usr/j2se es la ubicación en la que reside la versión más reciente de Java (como 1.4 y superior).
Si tiene un directorio llamado java/ en el directorio /usr/, muévalo a una ubicación temporal.
En el directorio /usr/, enlace /usr/bin/java y todos los demás archivos binarios relacionados con Java con la versión adecuada de Java.
# ln -s j2se java |
Si no desea cambiar la versión predeterminada disponible, asigne la variable de entorno JAVA_HOME a la versión adecuada de Java (J2SE 1.4 y superior) en la secuencia de comandos /opt/SUNWappserver7/SUNWhadb/4/bin/hadbm.
Resumen del problema: cuando se agrega un nodo al clúster que ejecuta Sun Cluster Support para Oracle Real Application Clusters y utiliza la función de clúster de VxVM, la función de clúster que se ejecuta en otros nodos no reconoce el nodo nuevo.
Solución: VERITAS tiene previsto solucionar este problema en VxVM 3.5 MP4 y VxVM 4.0 MP2. La solución para VxVM 4.1 ya está disponible.
Para corregir el problema si la solución no está disponible todavía, reinicie la base de datos de Oracle y los nodos del clúster. Este paso sincroniza la Oracle UDLM y actualiza la función de clúster VxVM para reconocer el nodo añadido.
No instale y configure Sun Cluster Support para Oracle Real Application Clusters en el nuevo nodo hasta que haya realizado este paso.
Desde un nodo de clúster distinto al nodo que se acaba de agregar, cierre la base de datos Oracle Real Application Clusters.
Reinicie el mismo nodo en el que ha cerrado la base de datos de Oracle.
# scswitch -S -h thisnode # shutdown -g0 -y -i6 |
Espere hasta que el nodo se haya reiniciado completamente antes de continuar con el siguiente paso.
Reinicie la base de datos de Oracle.
Repita los pasos del 1 al 3 con cada uno de los nodos restantes que ejecuten Sun Cluster Support para Oracle Real Application Clusters.
Si un único nodo es capaz de manejar la carga de trabajo de la base de datos de Oracle, puede realizar estos pasos en varios nodos simultáneamente.
Si se necesita más de un nodo para encargarse de la carga de trabajo de la base de datos, realice estos pasos en el nodo cada vez.
Resumen del problema: debido al error 4974875, cuando se lleva a cabo una recuperación automática, se reinicializa la base de datos sin elementos de reserva. El error mencionado anteriormente se ha solucionado e integrado en la versión 4.3 de HA-DB. Para HA-DB 4.2 y versiones inferiores, siga uno de los procedimientos descritos a continuación para cambiar los roles de los nodos de HA-DB.
Solución: realice uno de los procedimientos siguientes para cambiar los roles de los nodos de HA-DB:
Identifique los nodos de HA-DB para los que se han cambiado sus roles tras una recuperación automática con éxito.
En todos los nodos identificados en el paso 1, desactive el supervisor de errores del recurso HA-DB en cuestión, en un nodo cada vez.
# cladm noderole -db dbname -node nodeno -setrole role-before-auto_recovery |
Active el supervisor de errores del recurso HA-DB en cuestión.
o
Identifique los nodos de HA-DB para los que se han cambiado sus roles tras una recuperación automática con éxito.
En todos los nodos que albergan la base de datos, desactive el supervisor de errores para el recurso HA-DB en cuestión.
En cualquiera de los nodos, ejecute el comando para cada nodo de HA-DB que necesite modificar su rol.
# cladm noderole -db dbname -node nodeno -setrole role-before-auto_recovery |
Resumen del problema: si la actualización por turnos no se realiza en todos los nodos, aquellos que todavía no se han actualizado no podrán ver los grupos IPMP en los nodos actualizados.
Solución: termine de actualizar todos los nodos del clúster.
Resumen del problema: el campo de fecha del panel de filtro avanzado de SunPlex Manager sólo admite el formato mm/dd/aaaa. Sin embargo, en configuraciones regionales distintas del inglés, el formato de fecha no corresponde a mm/dd/aaaa, por lo que la fecha devuelta en el panel de calendario no coincidirá con dicho formato.
Solución: en el panel de filtro avanzado, utilice el formato mm/dd/aaaa para introducir el intervalo de fechas. No use el botón Set... (Establecer...) para mostrar el calendario y seleccionar la fecha.
Resumen del problema: en la configuración regional en japonés, los mensajes de error de scrgadm no se muestran correctamente. Los mensajes contienen caracteres ilegibles.
Solución: ejecute la configuración regional del sistema en inglés, de forma que sea éste el idioma en que se muestren los mensajes de error.
Resumen del problema: SunPlex Manager utiliza /usr/cluster/lib/cmass/ipmpgroupmanager.sh para eliminar grupos IPMP y adaptadores de los grupos IPMP. La secuencia de comandos actualiza el archivo /etc/hostname6.adaptername correctamente sólo para eliminar el nombre del grupo, pero ejecuta el comando ifconfig siguiente para desactivar la interfaz IPv6:
ifconfig adaptername inet6 unplumb |
Solución: reinicie el nodo para volver a activar la interfaz. O, si lo desea, ejecute en el nodo el comando ifconfig que se indica debajo. Esta solución alternativa no obliga a reiniciar el nodo.
ifconfig adaptername inet6 plumb up |
Resumen del problema: la lista de adaptadores que se muestra en las páginas de los grupos IPMP no depende de la versión de IP elegida por el usuario. Estas páginas muestran una lista de todos los adaptadores que no tienen grupos configurados. Asimismo, dicha lista debe actualizarse de acuerdo con la versión elegida en el botón de opción de la versión de IP:
Si se ha seleccionado IPV4 only, no debe mostrarse ningún adaptador que sea IPv4 e IPv6, o sólo IPv6.
Si se ha seleccionado IPV6 only, no debe mostrarse ningún adaptador que sea IPv4 e IPv6, o sólo IPv4.
Si se ha seleccionado IPV4 and IPv6, no debe mostrarse ningún adaptador que sea sólo IPv6 o sólo IPv4.
Solución: una vez seleccionada la versión de IP, asegúrese de elegir en la lista sólo el adaptador habilitado para la versión de IP seleccionada.
Resumen del problema: la lista de adaptadores que se muestra en las páginas de los grupos IPMP depende de la versión de IP elegida por el usuario. La versión actual de SunPlex Manager incluye un error que le hace mostrar siempre una lista completa de todos los adaptadores, independientemente de la versión de IP. SunPlex Manager no debería permitir al usuario mover un adaptador habilitado para IPv4 e IPv6 a sólo IPv4.
Solución: el usuario no debe intentar mover un adaptador configurado para IPv4 e IPv6 a sólo IPv4.
Resumen del problema: se produce un error al intentar configurar el servicio de datos para Sun Java System Administration Server si dicha aplicación no está instalada. El intento no tiene éxito porque el tipo de recurso SUNW.mps necesita que exista el directorio /etc/mps/admin/v5.2/cluster/SUNW.mps. Este directorio sólo existe si el paquete SUNWasvr está instalado.
Solución: para solucionar el problema, realice el procedimiento que se indica debajo.
Inicie sesión como usuario root o asuma un rol equivalente en un nodo del clúster.
Averigüe si está instalado el paquete SUNWasvr.
# pkginfo SUNWasvr |
Si el paquete SUNWasvr no está instalado, realice los pasos siguientes para instalarlo desde el CD-ROM de Sun Cluster:
Resumen del problema: como en Solaris 10, el servicio de datos de Sun Cluster HA para NFS establece la propiedad /startd/duration en transient para los servicios de Service Management Facility (SMF) /network/nfs/server, /network/nfs/status y /network/nfs/nlockmgr . El objetivo de dicha configuración de propiedad es impedir que SMF reinicie estos servicios en caso de error. Un error de SMF impide que se reinicie /network/nfs/status y /network/nfs/nlockmgr tras el primer error, a pesar de la configuración de propiedad.
Solución: para que Sun Cluster HA para NFS funcione correctamente, ejecute el comando siguiente en todos los nodos después de crear el primer recurso de Sun Cluster HA para NFS y antes de poner en línea el recurso de Sun Cluster HA para NFS:
# pkill -9 -x 'startd|lockd' |
Si es la primera vez que inicia Sun Cluster, ejecute el comando anterior en todos los nodos principales posibles después de crear el primer recurso de Sun Cluster HA para NFS y antes de poner en línea el recurso de Sun Cluster HA para NFS.
Resumen del problema: cuando se agrega un nodo a un clúster, la utilidad scinstall comprueba si hay archivos de NSS (Network Security Services) en dicho nodo. El contenedor de agente común necesita estos archivos y claves de seguridad. Si existen, la utilidad copia los archivos de seguridad del contenedor de agente común desde el nodo promotor hasta el nodo agregado. Pero si el nodo promotor no tiene instaladas las claves de seguridad de NSS, la copia no se realiza correctamente y se interrumpe el procesamiento de scinstall.
Solución: realice el procedimiento que se indica debajo para instalar el software de NSS, vuelva a crear las claves de seguridad y reinicie el contenedor de agente común en los nodos del clúster existentes.
Realice el procedimiento siguiente en todos los nodos del clúster existentes como superusuario o con cualquier rol que proporcione el nivel de acceso adecuado.
Tenga a mano el CD-ROM 1 de 2 de Sun Cluster. Los paquetes de NSS se encuentran en /cdrom/cdrom0/Solaris_arch/Product/shared_components/Packages/, donde arch es sparc o x86 y ver es 8 (de Solaris 8), 9 (de Solaris 9) o 10 (de Solaris 10).
En cada nodo, detenga el agente de Sun Web Console.
# /usr/sbin/smcwebserver stop |
En cada nodo, detenga el agente del archivo de seguridad.
# /opt/SUNWcacao/bin/cacaoadm stop |
En cada nodo, compruebe si están instalados los paquetes de NSS y, si es así, determine la versión.
# cat /var/sadm/pkg/SUNWtls/pkginfo | grep SUNW_PRODVERS SUNW_PRODVERS=3.9.4 |
Si está instalada una versión anterior a la 3.9.4, elimine los paquetes existentes de NSS.
# pkgrm packages |
En la siguiente tabla se enumeran los paquetes aplicables para cada plataforma de hardware.
Plataforma de hardware |
Nombres de los paquetes de NSS |
---|---|
SPARC |
SUNWtls SUNWtlsu SUNWtlsx |
x86 |
SUNWtls SUNWtlsu |
En cada nodo, si ha eliminado los paquetes de NSS o si no había ninguno instalado, instale los paquetes más recientes de NSS desde el CD-ROM 1 de 2 de Sun Cluster.
Cambie a un directorio que no sea del CD-ROM y sáquelo después.
# eject cdrom |
En cada nodo, cree las claves de seguridad de NSS.
# /opt/SUNWcacao/bin/cacaoadm create-keys |
En cada nodo, inicie el agente del archivo de seguridad.
# /opt/SUNWcacao/bin/cacaoadm start |
En cada nodo, inicie el agente de Sun Web Console.
# /usr/sbin/smcwebserver start |
En el nodo que está agregando al clúster, reinicie la utilidad scinstall y siga los procedimientos para instalar el nodo nuevo.
Resumen del problema: en ocasiones, durante la eliminación de un grupo de interfaces públicas que tienen habilitados adaptadores IPv4 e IPv6 se produce un error al intentar eliminar el adaptador IPv6 del grupo. Se muestra el mensaje de error siguiente:
ifparse: Operation netmask not supported for inet6 /sbin/ifparse /usr/cluster/lib/cmass/ipmpgroupmanager.sh[8]: /etc/hostname.adaptname.tmpnumber: cannot open |
Solución: edite el archivo/etc/hostname6.adaptername para que incluya las líneas siguientes:
plumb up -standby |
Ejecute el comando siguiente en el nodo del clúster:
ifconfig adaptername inet6 plumb up -standby |
Resumen del problema: Sun Cluster no responde al intentar realizar una actualización por turnos de la versión Sun Cluster 3.1 9/04 a la versión Sun Cluster 3.1 8/05 debido a un problema de memoria al reiniciar el primer nodo actualizado en módo de clúster.
Solución: si utiliza Sun Cluster 3.1 9/04 o la revisión equivalente (revisión 09 o posterior) y desea realizar un procedimiento de instalación de revisiones con reinicio para actualizar a la versión Sun Cluster 3.1 8/05 o la revisión equivalente (revisión 12), antes de actualizar el clúster o aplicar esta revisión del núcleo central debe realizar los pasos que se indican debajo.
Elija el tipo de procedimiento de instalación de revisiones apropiado para sus requisitos de disponibilidad:
Revisión con reinicio (nodo)
Revisión con reinicio (clúster y firmware)
Estos procedimientos de instalación de revisiones se describen en el Capítulo 8, Aplicación de revisiones en el software y firmware de Sun Cluster de Sun Cluster: Guía de administración del sistema para el SO Solaris.
Según el sistema operativo que utilice, aplique una de las revisiones siguientes:
117909-11 Sun Cluster 3.1 Core Patch for SunOS 5.9 X86
117950-11 Sun Cluster 3.1 Core Patch for Solaris 8
117949-11 Sun Cluster 3.1 Core Patch for Solaris 9
Debe completar todo el procedimiento de instalación de revisiones antes de actualizar a Sun Cluster 3.1 8/05 o a la revisión equivalente (revisión 12).
Resumen del problema: la instalación del software Sun Cluster agrega exclude: lofs a /etc/system. Como lofs es esencial para el funcionamiento de las zonas, zone install y zone boot no funcionan correctamente.
Solución: antes de intentar crear una zona, realice el procedimiento que se indica debajo.
Si ejecuta Sun Cluster HA para NFS, excluya de la asignación del montador automático todos los archivos que forman parte del sistema de archivos local de alta disponibilidad que exporta el servidor de NFS.
En cada nodo del clúster, edite el archivo /etc/system para eliminar todas las líneas exclude: lofs.
Reinicie el clúster.
Resumen del problema: el sistema operativo Solaris 10 requiere procedimientos de recuperación diferentes a los de versiones anteriores cuando un sistema de archivos del clúster no se monta correctamente durante el inicio. En lugar de presentar una solicitud de inicio de sesión, es posible que se produzca un error en el servicio mountgfsys que ponga el nodo en estado de mantenimiento. Los mensajes de salida pueden parecerse a los siguientes:
WARNING - Unable to globally mount all filesystems. Check logs for error messages and correct the problems. May 18 14:06:58 pkaffa1 svc.startd[8]: system/cluster/mountgfsys:default misconfigured May 18 14:06:59 pkaffa1 Cluster.CCR: /usr/cluster/bin/scgdevs: Filesystem /global/.devices/node@1 is not available in /etc/mnttab. |
Solución: después de solucionar el problema de montaje del sistema de archivos del clúster, debe volver a poner en línea el servicio mountgfsys. Ejecute los comandos siguientes para recuperar el servicio mountgfsys y sincronizar el espacio de nombres de los dispositivos globales:
# svcadm clear svc:/system/cluster/mountgfsys:default # svcadm clear svc:/system/cluster/gdevsync:default |
Entonces, el proceso de inicio continuará.
Resumen del problema: Sun Cluster 3.1 8/05 no admite la actualización a la versión de marzo de 2005 del sistema operativo Solaris 10. Cualquier intento de actualizar a dicha versión podría dañar el archivo /etc/path_to_inst. Esto impediría que se inicie correctamente el nodo. El archivo dañado podría parecerse al siguiente, con entradas duplicadas para algunos de los nombres de dispositivos repetidos, pero con el prefijo /node@nodeid en el nombre del dispositivo físico:
… "/node@nodeid/physical_device_name" instance_number "driver_binding_name" … "/physical_device_name" instance_number "driver_binding_name" |
Asimismo, algunos servicios importantes de Solaris no se iniciarían correctamente, incluida la conexión de redes y el montaje del sistema de archivos. También se podrían imprimir mensajes en la consola informando de que el servicio está mal configurado.
Solución: utilice el procedimiento que se indica debajo.
El procedimiento siguiente describe cómo recuperar el sistema cuando la actualización a Solaris 10 daña un archivo /etc/path_to_inst.
Este procedimiento no intenta corregir ningún otro problema asociado a la actualización de Sun Cluster a la versión de marzo de 2005 del sistema operativo Solaris 10.
Realice el procedimiento en todos los nodos actualizados a la versión de marzo de 2005 del sistema operativo Solaris 10.
Si resulta imposible iniciar un nodo, hágalo desde la red o desde un CD-ROM. Cuando el nodo funcione correctamente, ejecute el comando fsck y monte el sistema de archivos local en una partición del tipo /a. Durante el paso 2, utilice el nombre del montaje del sistema de archivos local en la ruta del directorio /etc.
Asuma el rol de superusuario u otro equivalente en el nodo.
Cambie al directorio /etc.
# cd /etc |
Compruebe si el archivo path_to_inst está dañado.
Cuando el archivo path_to_inst está dañado, se observan las características siguientes:
El archivo incluye un bloque de entradas que contienen /node@nodeid al principio de los nombres de dispositivos físicos.
Algunas de las entradas se muestran de nuevo, pero sin el prefijo /node@nodeid.
Si el archivo no tiene este formato, puede que haya algún otro problema. No continúe con el procedimiento. Si necesita asistencia técnica, póngase en contacto con su representante de servicios de Sun.
Si el archivo path_to_inst está dañado tal y como se describe en el paso 3, ejecute los comandos siguientes:
# cp path_to_inst path_to_inst.bak # sed -n -e "/^#/p" -e "s,node@./,,p" path_to_inst.bak > path_to_inst |
Revise el archivo path_to_inst para comprobar que se haya reparado.
Un archivo reparado mostrará los cambios siguientes:
El prefijo /node@nodeid se ha eliminado de todos los nombres de dispositivos físicos.
No hay entradas duplicadas para ninguno de los nombres de dispositivos físicos.
Compruebe que los permisos del archivo path_to_inst sean de sólo lectura.
# ls -l /etc/path_to_inst -r--r--r-- 1 root root 2946 Aug 8 2005 path_to_inst |
Lleve a cabo un reinicio de reconfiguración en modo de no clúster.
# reboot -- -rx |
Después de reparar todos los nodos del clúster afectados, vaya a Cómo actualizar el software que mantiene la relación de dependencia antes de una modernización no periódica de Software Sun Cluster: Guía de instalación para el sistema operativo Solaris para continuar con el proceso de actualización.
Resumen del problema: en clústeres de x86 con transportes ce, puede que CMM detenga un nodo sobrecargado debido a un error interno de comunicación ("split-brain").
Solución: para los clústeres de x86 que utilicen la tarjeta PCI Gigaswift Ethernet en la red privada, agregue la cadena siguiente a /etc/system:
set ce:ce_tx_ring_size=8192 |
Resumen del problema: en clústeres que tienen más de dos nodos, ejecutan Solaris 10 y utilizan almacenamiento de Hitachi, todos los nodos del clúster pueden mostrar un aviso grave cuando se integre un nodo en el clúster o lo abandone.
Solución: por el momento, no existe ninguna solución. Si tiene este problema, póngase en contacto con su proveedor de servicios de Sun para obtener la revisión apropiada.
Resumen del problema: el comando installer de Java ES 2005Q1 no puede instalar Application Server Enterprise Edition 8.1 si la opción Configure Later (Configurar más tarde) está seleccionada. Al seleccionar la opción Configure Later (Configurar más tarde), se instala la versión Platform Edition, pero no Enterprise Edition.
Solución: cuando instale Application Server Enterprise Edition 8.1 mediante el comando installer de Java ES, utilice la opción Configure Now (Configurar ahora). Al seleccionar la opción Configure Later (Configurar más tarde), se instala sólo la versión Platform Edition.
Resumen del problema: si se reinicia el servicio de enlace de SMF, puede verse afectado el funcionamiento de Solaris Volume Manager. La instalación de los paquetes de Veritas 4.1 VxVM reinicia el servicio de enlace de SMF.
Solución: reinicie Solaris Volume Manager sólo después de reiniciar el servicio de enlace de SMF o tras instalar VxVM 4.1 en un host S10.
svcadm restart svc:/network/rpc/scadmd:default |
Resumen del problema: este problema sólo se produce en sistemas que ejecutan Solaris 10. Cuando el usuario utiliza el comando installer de Java ES del CD-ROM de Sun Cluster Agents para instalar los servicios de datos de Sun Cluster una vez instalado el núcleo central de Sun Cluster, el comando installer muestra los siguientes mensajes de error:
The installer has determined that you must manually remove incompatible versions of the following components before proceeding: [Sun Cluster 3.1 8/05, Sun Cluster 3.1 8/05, Sun Cluster 3.1 8/05] After you remove these components, go back. Component Required By ... 1. Sun Cluster 3.1 8/05 HA Sun Java System Message Queue : HA Sun Java System Message Queue 2. Sun Cluster 3.1 8/05 HA Sun Java System Application Server : HA Sun Java System Application Server 3. Sun Cluster 3.1 8/05 HA/Scalable Sun Java System Web Server : HA/Scalable Sun Java System Web Server 4. Select this option to go back to the component list. This process might take a few moments while the installer rechecks your system for installed components. Select a component to see the details. Press 4 to go back the product list [4] {"<" goes back, "!" exits} |
Solución: en un sistema que utilice Solaris 10, instale manualmente el servicio de datos de Sun Cluster mediante el comando pkgadd o scinstall. Si el servicio de datos de Sun Cluster mantiene algún tipo de dependencia con componentes compartidos, instale manualmente dichos componentes mediante el comando pkgadd. El vínculo siguiente muestra los componentes compartidos de cada producto:
Resumen del problema: al iniciar Sun Web Console, puede que se muestre el mensaje siguiente:
/usr/sbin/smcwebserver:../../../../j2se/opt/javahelp/lib: does not exist |
Solución: no es necesario tener en cuenta dicho mensaje. Si lo desea, puede agregar manualmente un vínculo a /usr/j2se/opt para que señale a la dirección correcta de Java Help 2.0 introduciendo:
# ln -s /usr/jdk/packages/javax.help-2.0 /usr/j2se/opt/javahelp |
Resumen del problema: al actualizar desde el sistema operativo Solaris 9 a Solaris 10 en un clúster que ejecuta Sun Cluster 3.1 4/04 o una versión anterior, cuando se inicia el nodo en modo de no clúster, éste muestra un aviso grave.
Solución: instale una de las revisiones que se indican debajo antes de actualizar desde Solaris 9 a Solaris 10.
Sistemas basados en SPARC: 117949-09 o superior
Sistemas basados en x86: 117909-09 o superior
Resumen del problema: cuando se utiliza SunPlex Installer para configurar los servicios de datos de Sun Cluster HA for Apache y Sun Cluster HA para NFS dentro del proceso de instalación de Sun Cluster, SunPlex Installer no crea los recursos ni los grupos de dispositivos necesarios en los grupos de recursos.
Solución: no utilice SunPlex Installer para instalar y configurar los servicios de datos. En lugar de ello, siga los procedimientos que se indican en los manuales Software Sun Cluster: Guía de instalación para el sistema operativo Solaris, Sun Cluster Data Service for Apache Guide for Solaris OS o Sun Cluster Data Service for NFS Guide for Solaris OS para instalar y configurar dichos servicios de datos.
Resumen del problema: NFSv4 no es compatible con Sun Cluster 3.1 8/05.
Solución: Solaris 10 incorpora NFSv4, una versión nueva del protocolo NFS, que constituye el protocolo predeterminado para los clientes y servidores de Solaris 10. Aunque el software Sun Cluster 3.1 8/05 es compatible con Solaris 10, no admite el uso del protocolo NFSv4 con el servicio de Sun Cluster HA para NFS en el clúster para lograr una alta disponibilidad para el servidor de NFS. Con el fin de garantizar que ningún cliente de NFS pueda utilizar el protocolo NFSv4 para comunicarse con el servidor de NFS en Sun Cluster, edite el archivo /etc/default/nfs y cambie la línea NFS_SERVER_VERSMAX=4 por NFS_SERVER_VERSMAX=3. Esto garantizará que los clientes del servicio de Sun Cluster HA para NFS en el clúster utilicen únicamente el protocolo NFSv3.
NOTA: esta restricción y la solución mencionada arriba no afecta al uso de los nodos del clúster de Solaris 10 como clientes de NFSv4. Los nodos del clúster pueden actuar como clientes de NFSv4.
Resumen del problema: se produce un error del comando metaset al reiniciar el servicio rpcbind.
Solución: asegúrese de que no está realizando ninguna operación de configuración en el sistema de Sun Cluster y, a continuación, interrumpa el proceso rpc.metad mediante el comando:
# pkill -9 rpc.metad |
Resumen del problema: al cerrar el clúster, puede que se produzca un aviso grave en alguno de los nodos debido al orden en que se detienen los servicios en los mismos. Si el servicio de RPC se detiene antes que el entorno de RAC, pueden producirse errores cuando el recurso de SVM intente reconfigurarse. Esto hace que se envíe un mensaje de error al entorno de RAC, que a su vez provoca el aviso grave del nodo. Dicho problema se ha detectado cuando Sun Cluster utiliza el entorno de RAC con la opción de almacenamiento de SVM. La funcionalidad de Sun Cluster no debe verse afectada por ello.
Solución: el aviso grave es una respuesta predeterminada y no es necesario tenerla en cuenta; sin embargo, debe realizarse una limpieza del núcleo central para recuperar espacio en el sistema de archivos.
Resumen del problema: en el sistema operativo Solaris 10, se ha modificado el archivo /etc/nsswitch.conf para que incluya NIS en la entrada ipnodes.
ipnodes: files nis [NOTFOUND=return] |
Esto provocará un bloqueo en la resolución de direcciones si el servidor NIS no está accesible debido a un problema de NIS o a un error de todos los adaptadores de redes públicas. Dicho problema impedirá que los recursos de conmutación por error o de direcciones compartidas migren en caso de error.
Solución: realice los procedimientos siguientes antes de crear los recursos de host lógico o de direcciones compartidas:
Cambie la entrada ipnodes del archivo /etc/nsswitch.conf de [NOTFOUND=return] a [TRYAGAIN=0].
ipnodes: files nis [TRYAGAIN=0] |
Compruebe que se han agregado todas las direcciones IP de los host lógicos y las direcciones compartidas a los archivos /etc/inet/ipnodes y /etc/inet/hosts.
Resumen del problema: al intentar actualizar el servicio de datos de Sun Cluster para Sun Java System Application Server EE desde la versión 3.1 9/04 a la 3.1 8/05, scinstall no elimina el paquete de j2ee y muestra el mensaje siguiente:
Skipping "SUNWscswa" - already installed |
No se actualiza el servicio de datos de Sun Cluster para Sun Java System Application Server EE.
Solución: elimine y agregue manualmente el paquete sap_j2ee mediante los comandos:
# # pkgrm SUNWscswa # pkgadd [-d device] SUNWscswa |
Resumen del problema: resulta imposible comprobar la viabilidad del sistema de archivos de NFS antes de una conmutación por error o de que se utilice scswitch para buscar el servicio de datos del nodo. Si un nodo no cuenta con el sistema de archivos de NFS, el cambio o la conmutación por error a dicho nodo provocará un error en el servicio de datos que requiere intervención manual. Se necesita un mecanismo como HAStoragePlus para comprobar la viabilidad del sistema de archivos antes de intentar el cambio o la conmutación por error a dicho nodo.
Solución: los sistemas de archivos que utilizan administradores de archivos (filer) de NAS (con entradas en /etc/vfstab) se montan fuera del control de Sun Cluster, por lo que Sun Cluster no es consciente de los problemas. Si el sistema de archivos deja de estar disponible, se producirá un error en algunos servicios de datos, por ejemplo, Sun Cluster HA para Oracle, cuando se ejecutan métodos de servicios de datos como START o STOP.
Dicho error puede tener distintas consecuencias:
El recurso de los servicios de datos, por ejemplo, HA-Oracle, puede entrar en el estado STOP_FAILED, si los archivos binarios de la aplicación (Oracle) no estan disponibles.
El servicio de datos puede continuar intentado conmutar a nodos alternativos hasta que logre iniciarse correctamente o sus intentos de inicio no tengan éxito en ninguno de los nodos posibles.
Para evitar estos problemas, realice uno de los siguientes procedimientos:
Ponga los archivos binarios de aplicaciones en estado de conmutación por error o en un sistema de archivos del clúster. A continuación, configure un recurso de HAStoragePlus para que represente dicho sistema de archivos y registre una dependencia de la aplicación con este recurso El sistema no intentará iniciar la aplicación cuando el sistema de archivos no esté disponible.
Ponga los archivos binarios de aplicaciones en el sistema de archivos raíz local. Si el sistema de archivos raíz local no funciona, el nodo no podrá integrar el clúster y el sistema no intentará iniciar la aplicación en dicho nodo.
Resumen del problema: el servicio de datos de Sun Cluster no reinicia el proceso de ma cuando se interrumpe el servicio de datos o deja de funcionar inesperadamente.
Solución: se trata del comportamiento previsto y el servicio de datos no se ve afectado.
Resumen del problema: el intento de eliminar un recurso durante una actualización por turnos antes de que todos los nodos ejecuten el software nuevo puede provocar un aviso grave en uno de los nodos. No elimine ningún recurso hasta que todos los nodos tengan instalado el software nuevo.
Solución: durante una actualización por turnos, no elimine ningún recurso de RGM hasta que todos los nodos tengan instalado el software nuevo.
Resumen del problema: la base de datos HADB no se reinicia después de reiniciar los nodos del clúster. El usuario no tendrá acceso a la base de datos.
Solución: reinicie uno de los servicios de datos de administración mediante el procedimiento que se indica debajo. Si dicho procedimiento no resuelve el problema, elimine la base de datos y vuelva a crearla.
Escriba el siguiente comando en el nodo que se va a parar: La opción -h no debe incluir el nombre del nodo en el que desea que se detenga el agente de administración.
scswitch -z -g hadb resource grp -h node1, node2... |
Cambie de nuevo el grupo de recursos al nodo original.
scswitch —Z —g hadb resource grp |
Compruebe el estado de la base de datos. Espere hasta que la base de datos muestre el estado “detenido”.
hadbm status -n database |
Inicie la base de datos.
hadbm start database |
Resumen del problema: el paquete SUNWiimsc de sun_cluster_agents no es válido. Después de agregar dicho paquete, el tamaño de SUNW.iim en /opt/SUNWiim/cluster es 0.
Solución: sustituya el paquete SUNW.iim y vuelva a registrarlo mediante los pasos que se indican debajo.
Copie el paquete SUNW.iim correcto desde el CD-ROM.
# cp 2of2_CD/Solaris_arch/Product/sun_cluster_agents/Solaris_os /Packages/SUNWiimsc/reloc/SUNWiim/cluster/SUNW.iim /opt/SUNWiim/Cluster/SUNW.iim |
Elimine cualquier registro de SUNW.iim existente.
# rm /usr/cluster/lib/rgm/rtreg/SUNW.iim |
Registre el servicio de datos en Sun Cluster.
sh 2of2_CD/Solaris_arch/Product/sun_cluster_agents/ Solaris_os/Packages/SUNWiimsc/install/postinstall |
Resumen del problema: en ocasiones, al intentar agregar un grupo IPMP nuevo utilizando SunPlex Manager se produce un error y aparece el mensaje siguiente:
An error was encountered by the system. If you were performing an action when this occurred, review the current system state prior to proceeding. |
Solución: según la versión de IP que utilice, realice uno de los procedimientos que se indican debajo.
Introduzca el siguiente comando:
ifconfig interface inet plumb group groupname [addif address deprecated] netmask + broadcast + up -failover |
Si se ha proporcionado una dirección de prueba, actualice el archivo /etc/hostname .interface para agregar:
group groupname addif address netmask + broadcast + deprecated -failover up |
Si no se ha proporcionado ninguna dirección de prueba, actualice el archivo /etc/hostname.interface para agregar:
group.groupname netmask + broadcast -failover up |
Introduzca el comando siguiente:
ifconfig interface inet6 plumb up group groupname |
Actualice el archivo /etc/hostname6.interface para agregar las entradas siguientes:
group groupname plumb up |
Si todavía no existe el archivo /etc/hostname6.interface, créelo y agregue las entradas mencionadas arriba.
Resumen del problema: después de poner en línea el recurso y provocar un aviso grave en uno de los nodos del clúster (por ejemplo, shutdown o uadmin), el recurso continúa reiniciándose en los demás nodos. El usuario no podrá emitir ningún comando de administración.
Solución: para evitar este problema, inicie sesión en un solo nodo como usuario root u otro rol que tenga privilegios de acceso equivalentes y aumente el valor de probe_timeout para el recurso hasta los 600 segundos mediante el comando siguiente:
scrgadm -c -j hadb resource -x Probe_timeout=600 |
Para verificar el cambio, cierre uno de los nodos del clúster y compruebe que el recurso no entre en el estado de degradado.
Resumen del problema: la característica de equilibrio de carga de los servicios escalables de Sun Cluster no funciona en los sistemas Solaris 10 cuando las redes públicas y los transportes de Sun Cluster utilizan adaptadores controlados mediante bge. Entre las plataformas que incorporan NIC y utilizan bge se incluyen Sun Fire V210, V240 y V250.
Este problema no afecta a los servicios de datos de conmutación por error.
Solución: no configure las redes públicas ni los transportes de clústeres para que utilicen adaptadores controlados mediante bge.
Resumen del problema: cuando la configuración regional predeterminada de SunPlex Manager se ha establecido en multibyte, no se puede ver el registro del sistema.
Solución: establezca C como configuración regional predeterminada o muestre manualmente el registro del sistema (/var/adm/messages) mediante un shell de línea de comandos.
Resumen del problema: es necesario configurar las instancias y los agentes de nodos para que escuchen en la dirección IP o el nombre de host de conmutación por error. Al crear los agentes de nodos y las instancias de Sun Java System Application Server, se establece de forma predeterminada el nombre de host del nodo físico. La dirección IP HTTP y la propiedad client-hostname se cambian en domain.xml. No obstante, como no se reinicia Domain Admin Server, los cambios no se aplican. Por lo tanto, los agentes de nodos sólo aparecen en el nodo físico en el que se configuraron, aunque no en el otro nodo.
Solución: cambie la propiedad client-hostname en la sección del agente del nodo de domain.xml, de forma que escuche en la dirección IP de conmutación por error y reinice Domain Admin Server para que se apliquen los cambios.
Resumen del problema: al utilizar SunPlex Manager en Sun Cluster 3.1 8/05 con Cacao 1.1, sólo se admite JDK 1.5.0_03.
Solución: instale JDK 1.5 manualmente mediante el procedimiento que se indica debajo.
Agregue JDK 1.5 desde el directorio de componentes compartidos de JES 4 (para obtener instrucciones, consulte las notas de la versión de JES 4).
Detenga Cacao.
# /opt/SUNWcacao/bin/cacaoadm stop |
Inicie Cacao.
# /opt/SUNWcacao/bin/cacaoadm start |
Resumen del problema: este error se produce en un sistema de Sun Cluster que ejecute la versión 3.1 (9/04) con las revisiones de actualización a Sun Cluster (8/05) al aplicar la revisión 117949-14 en un sistema que ejecute Solaris 9 o la revisión 117950-14 en un sistema que ejecute Solaris 8. Cuando se inicia el equipo, aparece el mensaje de error siguiente:
# An unexpected error has been detected by HotSpot Virtual Machine: # # SIGSEGV (0xb) at pc=0xfaa90a88, pid=3102, tid=1 # # Java VM: Java HotSpot(TM) Client VM (1.5.0_01-b07 mixed mode, sharing) # Problematic frame: # C [libcmas_common.so+0xa88] newStringArray+0x70 # # An error report file with more information is saved as /tmp/hs_err_pid3102.log # # If you would like to submit a bug report, please visit: # http://java.sun.com/webapps/bugreport/crash.jsp # |
Solución: al actualizar desde Sun Cluster 3.1 (9/04) a Sun Cluster 3.1 (8/05), ademas de la revisión del núcleo central, instale la revisión de SPM introduciendo el comando que se indica debajo.
En un sistema que utilice Solaris 8, ejecute el comando siguiente después de aplicar la revisión del núcleo central 117950-14:
patchadd patchdir/118626-04 |
En un sistema que utilice Solaris 9, ejecute el comando siguiente después de aplicar la revisión 117949-14:
patchadd patchdir/118627-04 |
Resumen del problema: en ocasiones, el proceso de registro de los recursos de Directory Server y Administration Server no funciona correctamente. El sistema mostrará el siguiente mensaje:
Registration file not found for "SUNW.mps" in /usr/cluster/lib/rgm/rtreg |
Solución: registre directamente el archivo que falta desde la ubicación pkg introduciendo uno de los siguientes comandos:
Para Directory Server, introduzca el comando siguiente desde la ubicación pkg:
- scrgadm -a -t SUNW.dsldap -f /etc/ds/v5.2/cluster/SUNW.dsldap |
Para Administration Server, introduzca el comando siguiente desde la ubicación pkg:
- scrgadm -a -t SUNW.mps -f /etc/mps/admin/v5.2/cluster/SUNW.mps |
Resumen del problema: si un nodo de Sun Cluster que ejecute Solaris 10 no tiene interfaces IPv6 configuradas para redes públicas (por ejemplo, no para interconexiones de clústeres), no se podrá acceder a equipos que tengan asignaciones de direcciones tanto IPv4 como IPv6 en un servicio de nombres, como NIS. Los paquetes de las aplicaciones como telnet y traceroot que seleccionan la dirección IPv6 a través de IPv4 se enviarán a los adaptadores de transportes de clústeres y se eliminarán.
Solución: utilice una de las soluciones siguientes, de acuerdo con la configuración del clúster.
Si no es necesario ejecutar IPv6 en el clúster, elimine la entrada nis de la línea ipnodes de /etc/nsswitch.conf. Por ejemplo, cambie la línea ipnodes por:
ipnodes files # Work Around for CR 6306113 |
Cuando se necesite IPv6, pero no se esté ejecutando ningún servicio escalable en el clúster, agregue la línea siguiente a /etc/system y reinicie todos los nodos.
set clcomm:ifk_disable_v6=1 |
Si se está ejecutando un servicio escalable de IPv6, asegúrese de que todos los nodos de clústeres tienen configurada una interfaz de red IPv6 para redes públicas (no para uso de clúster). Para obtener información sobre cómo implementar IPv6 con Solaris, consulte ifconfig(1M)) y System Administration Guide: IP Services.
Este apartado proporciona información sobre las revisiones para las configuraciones de Sun Cluster. Si desea actualizar a Sun Cluster 3.1 8/05, consulte Cómo preparar una actualización a Sun Cluster 3.1 8/05.
Debe ser un usuario registrado de SunSolveTM para ver y descargar las revisiones requeridas por el producto Sun Cluster. Si no tiene una cuenta de SunSolve, póngase en contacto con su distribuidor o representante de servicios, o regístrese en línea en http://sunsolve.sun.com.
PatchPro es una herramienta de gestión de revisiones diseñada para facilitar la selección y la descarga de revisiones necesarias para la instalación o mantenimiento de Sun Cluster. PatchPro proporciona una herramienta Modalidad interactiva específica de Sun Cluster para hacer que la instalación de revisiones sea más fácil y una herramienta Modalidad Experto para mantener la configuración con el último conjunto de revisiones. que es especialmente útil cuando se desee obtener las últimas revisiones, no sólo las de mayor disponibilidad ni las revisiones de seguridad.
Para acceder a la herramienta PatchPro del software Sun Cluster, vaya a http://www.sun.com/PatchPro/, haga clic en “Sun Cluster,” y elija la "Modalidad interactiva" o la "Modalidad experto". Siga las instrucciones de la herramienta PatchPro para describir la configuración del clúster y descargar las revisiones.
La página web SunSolveTM Online proporciona acceso las 24 horas del día a la información más actualizada concerniente a las revisiones, al software y al firmware de los productos de Sun. Acceda a la página Web de SunSolve en http://sunsolve.sun.com para obtener las matrices más actuales del software, firmware y revisiones admitidas.
Puede encontrar información sobre las revisiones de Sun Cluster 3.1 8/05 de terceros en los documentos de SunSolve. Estos documentos proporcionan información sobre revisiones de terceros para el hardware específico que tiene intención de utilizar con el entorno Sun Cluster 3.1. Para encontrar este documento de información, inicie sesión en SunSolve y acceda a la opción de búsqueda sencilla en la parte superior de la página principal. En la página de búsqueda sencilla, haga clic en la casilla de documentos de información y escriba Sun Cluster Revisiones de 3.x de terceros en el cuadro de criterios de búsqueda.
Antes de instalar el software Sun Cluster 3.1 8/05 y aplicar las revisiones a un componente del clúster (sistema operativo Solaris, software Sun Cluster, software del gestor de volúmenes, software de servicios de datos o el hardware del disco), revise cada archivo README que acompaña a las revisiones recuperadas. Todos los nodos del clúster deben tener el mismo nivel de revisiones para conseguir un funcionamiento adecuado del clúster.
Para conocer procedimientos específicos de instalación de revisiones y sugerencias sobre su administración, consulte el Capítulo 8, Aplicación de revisiones en el software y firmware de Sun Cluster de Sun Cluster: Guía de administración del sistema para el SO Solaris.
El conjunto de la documentación del usuario de Sun Cluster 3.1 8/05 consta de las siguientes colecciones:
Sun Cluster 3.1 8/05 Release Notes Collection for Solaris OS
Sun Cluster 3.1 8/05 Software Collection for Solaris OS (SPARC Platform Edition)
Sun Cluster 3.1 8/05 Software Collection for Solaris OS (x86 Platform Edition)
Sun Cluster 3.0–3.1 Hardware Collection for Solaris OS (SPARC Platform Edition)
Sun Cluster 3.0–3.1 Hardware Collection for Solaris OS (x86 Platform Edition)
Recopilación de referencia de Sun Cluster 3.1 8/05 Reference Collection for Solaris OS
La documentación del usuario de Sun Cluster 3.1 8/05 está disponible en formato PDF y HTML en las versiones para SPARC y x86 del CD-ROM de Sun Cluster 3.1 8/05. Para obtener más información, consulte el archivo Solaris_arch/Product/sun_cluster/index.html de las versiones SPARC o x86 del Sun Cluster 3.1 8/05 CD-ROM, donde arch es sparc o x86. Este archivo index.html permite leer los manuales en PDF y HTML directamente a partir del CD-ROM y acceder a las instrucciones para instalar los paquetes de documentación.
El paquete SUNWsdocs debe instalarse antes que los paquetes de documentación de Sun Cluster. Puede utilizar pkgadd para instalar el paquete SUNWsdocs. Éste se encuentra en el directorio Solaris_arch/Product/sun_cluster/Solaris_ver/Packages/ del Sun Cluster 3.1 8/05 CD-ROM, donde arch es sparc o x86 y ver es 8 (de Solaris 8), 9 (de Solaris 9) o 10 (de Solaris 10). El paquete SUNWsdocs también se instala automáticamente si ejecuta el programa installer en el CD-ROM de documentación de Solaris 10.
Además, la página web docs.sun.comSM permite acceder a la documentación en línea de Sun Cluster. Puede explorar docs.sun.com o buscar el tema o el título específico de un manual en la sede web siguiente:
Manuales de software
Manuales de servicios de datos individuales
Número de referencia |
Título de manual |
---|---|
819-0421 | |
819-0579 |
Sun Cluster para el sistema operativo Solaris: Visión general |
819-0420 |
Software Sun Cluster: Guía de instalación para el sistema operativo Solaris |
819-0580 |
Sun Cluster: Guía de administración del sistema para el SO Solaris |
819-0581 |
Sun Cluster: Guía del desarrollador de los servicios de datos del sistema operativo Solaris |
819-0427 | |
819-0582 | |
819-0703 |
Sun Cluster Data Services Planning and Administration Guide for Solaris OS |
Tabla 3 Sun Cluster 3.1 8/05 Software Collection for Solaris OS (SPARC Platform Edition): Manuales de servicios de datos individuales
Manuales de software
Manuales de servicios de datos individuales
Número de referencia |
Título de manual |
---|---|
819-0421 | |
819-0579 |
Sun Cluster para el sistema operativo Solaris: Visión general |
819-0420 |
Software Sun Cluster: Guía de instalación para el sistema operativo Solaris |
819-0580 |
Sun Cluster: Guía de administración del sistema para el SO Solaris |
819-0581 |
Sun Cluster: Guía del desarrollador de los servicios de datos del sistema operativo Solaris |
819-0427 | |
817819-0582 | |
819-0703 |
Sun Cluster Data Services Planning and Administration Guide for Solaris OS |
Tabla 5 Sun Cluster 3.1 8/05 Software Collection for Solaris OS (x86 Platform Edition): Manuales de servicios de datos individuales
Número de referencia |
Título de manual |
---|---|
817-6998 |
Sun Cluster Data Service for Apache Tomcat Guide for Solaris OS |
819-1082 | |
819-0692 | |
819-1088 | |
817-6999 | |
819-1081 | |
819-2664 | |
817-7000 |
Sun Cluster: Guía del servicio de datos para Sun Java System Application Server para el SO Solaris |
817-7002 |
Sun Cluster: Guía del servicio de datos para Sun Java System Message Queue para el SO Solaris |
817-7003 |
Sun Cluster: Guía del servicio de datos para Sun Java System Web Server para el SO Solaris |
Número de referencia |
Título de manual |
---|---|
817–0168 |
Sun Cluster 3.0-3.1 Hardware Administration Manual for Solaris OS |
817–0180 |
Sun Cluster 3.0-3.1 With Sun StorEdge 3310 SCSI RAID Array Manual for Solaris OS |
817-7957 |
Sun Cluster 3.1 With Network-Attached Storage Devices Manual for Solaris OS |
cdrom.sc_agents_sparc/installer incluye siete opciones de idioma para todos los agentes de servicios de datos, aunque los agentes que no son de Java Enterprise System sólo admiten japonés y chino simplificado. cdrom.sc_agents_sparc/components/data-service/installer no proporciona la opción de idioma correcta.
Restricciones para la selección de idioma en SunPlex Manager:
Si desea seleccionar chino simplificado en SunPlex Manager, elija zh-cn en lugar de zh en el explorador. De lo contrario, SunPlex Manager se mostrará en inglés.
Si desea seleccionar chino tradicional en SunPlex Manager, elija zh-tw en el explorador. Si elige zh-hk, SunPlex Manager se mostrará en inglés.
Resumen del problema: En la distribución independiente del software Sun Cluster 3.1 8/05, los paquetes Sun Java Web Console del CD-ROMM 2 de 2 de Sun Cluster no incluyen los paquetes de localización. La ausencia de estos paquetes impide que SunPlex Manager se muestre en la versión localizada correcta después de actualizar el software de Sun Cluster a la versión Sun Cluster 3.1 8/05.
Solución:Durante la actualización a la versión Sun Cluster 3.1 8/05, actualice los paquetes de Sun Java Web Console desde la distribución de Sun Java Enterprise System (Java ES) en lugar de hacerlo desde la distribución de Sun Cluster. Cuando siga los procedimientos de Sun Cluster para actualizar el software de dependencia, siga las siguientes instrucciones para instalar o actualizar Sun Java Web Console.
Elimine los paquetes de localización de Sun Java Web Console que estén instalados en el nodo.
# pkgrm SUNWcmctg SUNWdmctg SUNWemctg SUNWfmctg SUNWhmctg SUNWkmctg SUNWjmctg # pkgrm SUNWcmcon SUNWdmcon SUNWemcon SUNWfmcon SUNWhmcon SUNWkmcon SUNWjmcon |
Inserte el CD-ROM 2 de 2 de Java ES en la unidad pertinente del nodo.
Instale el paquete base de Sun Java Web Console mediante la utilidad setup.
# Product/sunwebconsole/setup |
Acceda a un directorio que no resida en el CD-ROM y extraiga el CD-ROM.
# cd / # eject cdrom |
Inserte el CD-ROM 1 de 2 de Java ES en la unidad pertinente del nodo.
Acceda al directorio que contenga los paquetes de localización de Sun Java Web Console para el idioma que desee.
# cd Product/shared_components/Packages/locale/lang/ |
Los paquetes de idiomas están ubicados en el directorio Product/shared_components/Packages/locale/lang/, donde lang hace referencia al nombre de la configuración regional de un idioma concreto. Por ejemplo, el nombre de la configuración regional del japonés es ja.
Instale los paquetes manualmente desde el directorio lang/.
# pkgadd -d . localization-packages |
Acceda a un directorio que no resida en el CD-ROM y extraiga el CD-ROM.
Continúe con los procedimientos de actualización del software de Sun Cluster 3.1 8/05.
Consulte Upgrading Sun Cluster Software en la Sun Cluster Software Installation Guide.
Este apartado trata sobre los errores conocidos u omisiones en la documentación, la ayuda en línea o las páginas de comando man, y proporciona pasos para corregir estos problemas.
El prefacio de todos los manuales de Sun Cluster 3.1 8/05 incluye la dirección de un sitio Web de asistencia técnica y formación. Dicha dirección Web ha cambiado a:
Asistencia: http://www.sun.com/support/
Formación: http://www.sun.com/training/
Este apartado describe los errores y las omisiones de Software Sun Cluster: Guía de instalación para el sistema operativo Solaris.
Cómo instalar paquetes de software de los servicios de datos (pkgadd) de Software Sun Cluster: Guía de instalación para el sistema operativo Solaris describe cómo instalar los servicios de datos de Sun Java System en un clúster que ejecuta el sistema operativo Solaris 10. El procedimiento utiliza el comando pkgadd -G para instalar estos servicios de datos sólo en la zona global. La opción -G garantiza que los paquetes no se propaguen a una zona no global existente o a una zona no global creada posteriormente.
Si el sistema contiene una zona no global, algunas aplicaciones de Sun Java Enterprise System (Java ES) y otros componentes de Java ES podrían no ser compatibles. Esta restricción es aplicable si la zona no global existe en el momento de la instalación o si se configura posteriormente. El uso del comando pkgadd -G para instalar servicios de datos para dichas aplicaciones no anula esta restricción. Si la aplicación de Java ES no puede coexistir con zonas no globales, será imposible utilizar un servicio de datos para dicha aplicación en un clúster que tenga zonas no globales.
Para obtener información sobre la compatibilidad de Java ES con las zonas de Solaris, consulte Solaris 10 Zones de Sun Java Enterprise System 2005Q5 Installation Guide.
Al realizar el procedimiento Cómo actualizar las reservas SCSI después de agregar un nodo de Software Sun Cluster: Guía de instalación para el sistema operativo Solaris como se documenta en este manual, puede producirse un aviso grave en el nodo. Para evitarlo, ejecute el comando scgdevs después de quitar todos los dispositivos quórum y antes de configurar otros nuevos.
En el Capítulo 5, Modernización del software Sun Cluster de Software Sun Cluster: Guía de instalación para el sistema operativo Solaris, las pautas y procedimientos de actualización hacen referencia a la primera versión actualizada del sistema operativo Solaris 10 como Solaris 10 10/05. La fecha de dicha versión es incorrecta. En el momento de la publicación de este documento, no se conoce todavía la fecha de versión prevista para la primera actualización del sistema operativo Solaris 10. Asimismo, está por determinar la asistencia de actualización para esta próxima versión. Si desea recibir asistencia para la actualización a próximas versiones de Solaris 10, póngase en contacto con su representante de servicios de Sun.
En lugar de en cada nodo de clúster, los binarios de aplicaciones de Java ES se pueden instalar en un sistema de archivos del clúster. En las configuraciones de clústeres de Solaris 10, al instalar el servicio de datos (agente) mediante pkgadd, debe utilizar también pkgadd para instalar manualmente los componentes compartidos de Java ES que necesita la aplicación.
Para consultar una lista de los componentes compartidos que requiere cada aplicación de Java ES junto con la lista de paquetes de cada uno de ellos, consulte la Sun Java Enterprise System 2005Q5 Installation Guide.
En Cómo actualizar el software que mantiene la relación de dependencia antes de una modernización no periódica de Software Sun Cluster: Guía de instalación para el sistema operativo Solaris y en la Cómo actualizar el software que mantiene la relación de dependencia antes de una modernización periódica de Software Sun Cluster: Guía de instalación para el sistema operativo Solaris, las instrucciones para comprobar el nivel de versión de dos de los componentes compartidos incluyen un error.
Incorrecto:
# patchadd -p | grep 114016 |
Correcto:
# showrev -p | grep 114016 |
Incorrecto:
# pkginfo -l SUNWexplo | grep SUNW_PRODVERS |
Correcto:
# pkginfo -l SUNWexplo | grep VERSION |
La actualización por turnos podría dejar de ser compatible en próximas versiones de Sun Cluster. En ese caso, se ofrecerán otros procedimientos diseñados para limitar las interrupciones de Sun Cluster durante la actualización del software.
Este apartado trata errores y omisiones de la ayuda en línea de SunPlex Manager.
En el archivo de ayuda en línea “Sun Cluster HA for Oracle,”, en el apartado “Before Starting,” existe una nota incorrecta.
Incorrecto:
Si no hay ninguna entrada para shmsys y semsys en /etc/system, se utilizarán automáticamente los valores predeterminados de dichas variables en /etc/system. A continuación se debe rearrancar el sistema. Consulte la documentación de instalación de Oracle para comprobar que estos valores sean correctos en la base de datos.
Correcto:
Si no hay ninguna entrada para las variables shmsys y semsys del archivo /etc/system cuando se instalen los servicos de datos Oracle, se puede abrir /etc/system e insertar los valores predeterminados de dichas variables. A continuación se debe rearrancar el sistema. Consulte la documentación de instalación de Oracle para comprobar que estos valores sean correctos en la base de datos.
En el archivo de ayuda en línea “Iconos y convenciones de SPM”, dos de las descripciones incluidas en el apartado “Otras etiquetas” son incorrectas.
Incorrecto:
Tabla 8 Otras etiquetas
Etiqueta |
Significado |
---|---|
![]() |
Grupo principal de recursos del tipo de conmutación por error |
![]() |
Grupo secundario de recursos del tipo de conmutación por error |
Correcto:
Tabla 9 Otras etiquetas
Etiqueta |
Significado |
---|---|
![]() |
Nodo principal del recurso |
![]() |
Nodo secundario del recurso |
Este apartado describe los errores y las omisiones de Sun Cluster: Guía de conceptos para el SO Solaris.
En el capítulo 3, el apartado “Using the Cluster Interconnect for Data Service Traffic“ debería mostrar lo siguiente:
Un clúster debe tener varias conexiones de red entre los nodos que formen la interconexión del clúster. El software de agrupación en clúster usa varias interconexiones para la alta disponibilidad y para mejorar el rendimiento. Se filtran los mensajes en todas las interconexiones disponibles para el tráfico interno y externo (por ejemplo, datos del sistema de archivos o datos de servicios escalables).
La interconexión del clúster también está disponible para aplicaciones, para comunicaciones de alta disponibilidad entre nodos. Por ejemplo, una aplicación distribuida podría tener componentes que se ejecutaran en distintos nodos y que necesitasen comunicarse. Al usar la interconexión del clúster en lugar del transporte público, éstas conexiones pueden soportar el fallo de un enlace individual.
Para usar la interconexión del clúster para la comunicación entre nodos, una aplicación necesita los nombres de host privados configurados cuando se instaló el clúster. Por ejemplo, si el nombre de host privado para el nodo 1 es clusternode1-priv, use ese nombre para comunicarse a través de la interconexión del clúster con el nodo 1. Los zócalos TCP abiertos mediante este nombre se dirigen por la interconexión del clúster y pueden redirigirse de forma transparente en caso de un fallo de la red. La comunicación de la aplicación entre dos nodos se filtra en todas las interconexiones. El tráfico de una determinada conexión TCP se dirige por una interconexión en cualquier momento. Las diferentes conexiones TCP se filtran en todas las interconexiones. Además, el tráfico UDP siempre se filtra en todas las interconexiones.
Tenga en cuenta que, debido a que los nombres de host privados pueden configurarse durante la instalación, la interconexión del clúster podría usar cualquiera de los nombres elegidos en ese momento. El nombre real se puede obtener de scha_cluster_get(3HA) mediante el argumento scha_privatelink_hostname_node.
Este apartado describe errores y omisiones de la Sun Cluster: Guía de administración del sistema para el SO Solaris.
El procedimiento de aplicación de una revisión con reinicio (nodo) Cómo aplicar una revisión con rearranque (nodo) de Sun Cluster: Guía de administración del sistema para el SO Solaris no es reversible como procedimiento nodo a nodo. De igual modo, no se admite la degradación por turnos de versiones de Sun Cluster. Para eliminar una revisión o actualización de Sun Cluster, deberá volver a aplicar la versión anterior según el procedimiento indicado en el apartado Cómo aplicar una revisión con rearranque (clúster y firmware) de Sun Cluster: Guía de administración del sistema para el SO Solaris.
Sun Cluster Data Service for NFS Guide for Solaris OS no incluye algunas restricciones que se aplican al uso de Sun Cluster HA para NFS con NFS v3.
Si utiliza Sun Cluster HA para NFS, no use los nodos del clúster como clientes NFS v3 de servidores NFS externos. Esta restricción es aplicable incluso cuando el servidor NFS externo es un dispositivo NAS (Network-Attached Storage). Si configura de este modo los nodos del clúster, se perderán los bloqueos que éstos puedan haber establecido para los servidores NFS externos.
Esta restricción no se aplica a los clientes NFS v4. Puede utilizar NFS v4 para montar servidores NFS externos.
Este apartado describe las omisiones de la Sun Cluster Data Service for SAP Web Application Server Guide for Solaris OS.
Para cambiar alguna referencia al nombre de host del sistema, consulte las notas de SAP correspondientes. Las notas de SAP contienen la información más reciente acerca de la modificación de nombres de host. Sun Cluster Data Service for SAP Web Application Server Guide for Solaris OS omite referencias específicas a estas notas de SAP.
Los siguientes apartados explican cómo cambiar el nombre de host:
El apartado How to Install and Configure the SAP Web Application Server and the SAP J2EE Engine de Sun Cluster Data Service for SAP Web Application Server Guide for Solaris OS omite instrucciones para la instalación de SAP J2EE Engine cuando tiene pensado configurarlo como recurso escalable. Los pasos 2 y 7 de dicho procedimiento están incompletos.
Paso 2 correcto:
Si utiliza SAP J2EE Engine, instale el software de dicho motor de SAP.
Consulte la documentación de instalación de SAP.
Si tiene pensado configurar SAP J2EE Engine como recurso de conmutación por error, instale el software de dicho motor de SAP en el mismo nodo en el que ha instalado SAP Web Application Server en el paso 1.
Si tiene pensado configurar SAP J2EE Engine como recurso escalable, instale el software de dicho motor de SAP en todos los nodos que puedan controlar el recurso escalable. Instale la instancia de diálogo de SAP J2EE con el mismo número del sistema SAP en cada nodo. Dicho número es el valor de SAPSYSTEM en el perfil de SAP.
Paso 7 correcto:
Si utiliza SAP J2EE Engine, modifique la secuencia de comandos loghost para que devuelva los nombres de host del motor de SAP.
Modifique la secuencia de comandos loghost, que se creó en el paso 6, para que devuelva los nombres lógicos o físicos del host de cada instancia de SAP J2EE Engine.
Si tiene pensado configurar SAP J2EE Engine como recurso de conmutación por error, modifique la secuencia de comandos para que devuelva los nombres lógicos del host. Los comandos siguientes muestran un ejemplo de la modificación de dicha secuencia.
if [ "$1" = "JC00" ]; then echo loghost-4; fi if [ "$1" = "SCS02" ]; then echo loghost-5; fi if [ "$1" = "J02" ]; then echo loghost-6; fi |
Si tiene pensado configurar SAP J2EE Engine como recurso escalable, modifique la secuencia de comandos para que devuelva los nombres físicos del host. Los ejemplos siguientes muestran un ejemplo de la modificación de dicha secuencia de comandos.
if [ "$1" = "J03" ]; then echo `hostname`; fi |
Este apartado describe errores y omisiones de la Sun Cluster Data Service for Solaris Containers Guide.
Configuration Restrictions de Sun Cluster Data Service for Solaris Containers Guide no incluye la restricción aplicable a la propiedad autoboot de una zona de conmutación por error o con varios agentes maestros.
Al crear una zona de alguno de estos dos tipos, asegúrese de que la propiedad autoboot de la zona tiene establecido el valor false. Esto evitará que, cuando se reinicie la zona global, también lo haga la zona de conmutación por error o con varios agentes maestros. El servicio de datos de Sun Cluster HA para Solaris Containers sólo puede administrar una zona si ésta se inicia bajo el control del servicio de datos.
Configuration Requirements de Sun Cluster Data Service for Solaris Containers Guide no incluye los requisitos aplicables al sistema de archivos de realimentación (LOFS).
Asegúrese de que dicho sistema está activado.
Las herramientas de instalación de Sun Cluster desactivan el sistema LOFS. Si utiliza Sun Cluster HA para Solaris Containers para administrar una zona, active el sistema LOFS después de instalar y configurar el entorno de Sun Cluster. Para activar el sistema LOFS, elimine la siguiente línea del archivo /etc/system:
exclude: lofs
El procedimiento How to Install and Configure a Zone de Sun Cluster Data Service for Solaris Containers Guide contiene los siguientes errores:
El paso 6 no menciona que el mismo debe realizarse en todos los nodos del clúster, salvo en el nodo donde se ha instalado y configurado la zona durante los pasos anteriores.
El paso 6d especifica un directorio de destino incorrecto para el archivo zone.xml. Asimismo, en el comando de este paso falta el punto del nombre del archivo zone.xml. El paso y el comando deberían ser los siguientes:
Copie el archivo zone.xml en el directorio /etc/zones del nodo.
# rcp zone-install-node:/etc/zones/zone.xml .
El código de ejemplo de los apartados siguientes es incorrecto:
Writing a Zone Script de Sun Cluster Data Service for Solaris Containers Guide
Writing an SMF Service Probe de Sun Cluster Data Service for Solaris Containers Guide
El código correcto para ambas secciones es:
# cat /var/tmp/probe-apache2 #!/usr/bin/ksh if echo "GET; exit" | mconnect -p 80 > /dev/null 2>&1 then exit 0 else exit 100 fi
Este apartado aborda errores y omisiones del Sun Cluster 3.1 With Network-Attached Storage Devices Manual for Solaris OS
La unidad NAS de NetApp debe estar conectada directamente a una red con conexiones directas a todos los nodos del clúster.
Cuando configure un administrador de archivos (filer) de un dispositivo NAS de NetApp, además de los procedimientos que se incluyen en el apartado Installing a Network Appliance NAS Device in a Sun Cluster Environment de Sun Cluster 3.1 With Network-Attached Storage Devices Manual for Solaris OS, debe realizar los pasos siguientes:
Agregue el nombre del administrador de archivos (filer) del dispositivo NAS de NetApp a /etc/inet/hosts.
Agregue una asignación nombre de host-dirección para el filer del archivo /etc/inet/hosts en todos los nodos del clúster. Por ejemplo:
netapp-123 192.168.11.123 |
Agregue las máscaras de red (subconjunto de NAS) del filer a /etc/inet/netmasks.
Agregue una entrada al archivo /etc/inet/netmasks en todos los nodos del clúster para el subconjunto donde esté presente el filer. Por ejemplo:
192.168.11.0 255.255.255.0 |
Compruebe que las entradas hosts y netmasks del archivo /etc/nsswitch.conf de todos los nodos del clúster incluyan files delante de nis y dns. De lo contrario, edite la línea correspondiente de /etc/nsswitch.conf, agregando files delante de nis y dns.
Este apartado describe los errores y las omisiones de las páginas de comando man de Sun Cluster.
Si desea ver las páginas de comando man de los servicios de datos de Sun Cluster 3.0, instale las últimas revisiones de los servicios de datos de Sun Cluster 3.0 que instaló en el software Sun Cluster 3.1 8/05. Para obtener más información, consulte Revisiones y niveles de firmware requeridos.
Tras aplicar la revisión, acceda a las páginas de comando man del servicio de datos de Sun Cluster 3.0 mediante la ejecución del comando man -M con la ruta completa de la página de comando man como argumento. El ejemplo siguiente abre la página de comando man de Apache.
% man -M /opt/SUNWscapc/man SUNW.apache |
Considere la opción de modificar MANPATH para activar el acceso a las páginas de comando man del servicio de datos de Sun Cluster 3.0 sin especificar la ruta completa. El ejemplo siguiente describe la entrada del comando para la adición de la ruta de la página de comando man de Apache en MANPATH y la visualización de la página de comando man de Apache.
% MANPATH=/opt/SUNWscapc/man:$MANPATH; export MANPATH % man SUNW.apache |