Este documento proporciona la información siguiente del software de SunTM Cluster 3.1 Data Services 10/03.
Cuestiones y problemas del tiempo de ejecución de la administración
Adaptación de Sun Cluster 3.1 Data Services 10/03 a los entornos nacionales
Este apartado describe nuevas características y funciones. Póngase en contacto con su representante de ventas de Sun para obtener una lista completa del hardware y el software admitidos.
El supervisor de fallos del servidor de Sun Cluster HA for Oracle se ha mejorado para permitir la personalización del comportamiento del supervisor de fallos del servidor del modo siguiente:
Anulando la acción preseleccionada para un error
Especificando una acción para un error para el que no hay acción preseleccionada
Si desea obtener más información, consulte Sun Cluster 3.1 Data Service for Oracle Guide.
El servicio de datos de Admisión de Sun Cluster para Parallel Server/Real Application Clusters de Oracle se ha mejorado para habilitarlo de modo que se pueda gestionar mediante los comandos Sun Cluster.
Si desea obtener más información, consulte Sun Cluster 3.1 Data Service for Oracle Parallel Server/Real Application Clusters Guide.
Los tipos de recursos siguientes se han mejorado en Sun Cluster 3.1 Data Services 10/03:
SUNW.oracle_server (consulte Sun Cluster 3.1 Data Service for Oracle Guide)
SUNW.apache (consulte Sun Cluster 3.1 Data Service for Apache Guide)
SUNW.iws (consulte Sun Cluster 3.1: Guía del servicio de datos para Sun ONE Web Server)
Si desea información general sobre la modernización de un tipo de recursos, consulte “Upgrading a Resource Type” in Sun Cluster 3.1 Data Service Planning and Administration Guide
Sun Cluster 3.1 Data Services 10/03 admite los servicios de datos siguientes:
Sun Cluster HA para Apache Tomcat: este servicio de datos permite el inicio y el cierre ordenados, así como la supervisión de fallos y la recuperación automática de errores del servicio Apache Tomcat. Apache Tomcat actúa como un motor de miniservidores detrás de un servidor web Apache o se puede configurar como un servidor web autónomo incluyendo el motor de miniservidores.
Sun Cluster HA para MySQL: este servicio de datos permite el inicio y el cierre ordenados, así como la supervisión de fallos y la recuperación automática de errores del servicio MySQL. El software MySQL proporciona un servidor de base de datos de lenguaje de consulta estructurado (SQL) muy rápido, multiproceso, multiusuario y robusto. El servidor MySQL se utiliza para tareas esenciales y en sistemas de producción de gran volumen, así como para la inclusión del software de incorporación masiva.
Sun Cluster HA para Oracle E-Business Suite: este servicio de datos permite el inicio y el cierre ordenados, así como la supervisión de fallos y la recuperación automática de fallos del servicio Oracle E-Business Suite. Éste es un conjunto de aplicaciones comerciales completo que permite a los clientes gestionar eficazmente los procesos comerciales gracias a una arquitectura abierta unificada. Esta arquitectura es una estructura para la informática distribuida de varios niveles que admite los productos Oracle.
Sun Cluster HA para SWIFTAlliance Access: este servicio de datos permite el inicio y el cierre ordenados, así como la supervisión de fallos y la recuperación automática de fallos del servicio SWIFTAlliance Access.
Este apartado describe el software admitido y los requisitos de memoria del software Sun Cluster 3.1.
Sistema operativo y modificaciones: las versiones de Solaris admitidas y las modificaciones están disponibles en el URL siguiente:
Para obtener más información, consulte Modificaciones y niveles de firmware requeridos.
Gestores de volúmenes
En Solaris 8: Solstice DiskSuiteTM 4.2.1 y VERITAS Volume Manager 3.2 y 3.5.
En Solaris 9: Gestor de volúmenes de Solaris y VERITAS Volume Manager 3.5.
Si va a modernizar VERITAS Volume Manager (VxVM) de 3.2 a 3.5, la función Cluster Volume Manger (CVM) no estará disponible hasta que instale la clave de la licencia de CVM para la versión 3.5. En VxVM 3.5, la clave de la licencia de CVM para la versión 3.2 no activa CVM y se debe modernizar a la clave de licencia de CVM para la versión 3.5.
Sistemas de archivos
En Solaris 8: Solaris UFS y VERITAS File System 3.4 y 3.5.
En Solaris 9: Solaris UFS y VERITAS File System 3.5.
Servicios de datos (agentes): póngase en contacto con su representante de ventas de Sun para obtener una lista completa de los servicios de datos admitidos y las versiones de las aplicaciones. Especifique los nombres de los tipos de recursos cuando instale los servicios de datos mediante la utilidad scinstall(1M). También debe especificar los nombres de los tipos de recursos cuando registre los tipos de recursos asociados con el servicio de datos mediante la utilidad scsetup(1M).
Los procedimientos de la versión de Sun Cluster HA para Sun ONE Directory Server que utiliza iPlanet Directory Server 5.0 y 5.1 (además de Netscape HTTP, versiones 4.11, 4.12, 4.13 y 4.16) se pueden consultar en Sun Cluster 3.1 Data Service for Sun ONE Directory Server. Si desea conocer las últimas versiones de iPlanet Directory Server (conocido ahora como Sun ONE Directory Server), consulte la documentación del producto Sun ONE Directory Server.
Servicios de datos |
Tipo de recurso de Sun Cluster |
---|---|
Sun Cluster HA para Apache |
SUNW.apache |
Sun Cluster HA para Apache Tomcat |
SUNW.sctomcat |
Sun Cluster HA para BroadVision One-To-One Enterprise |
SUNW.bv |
Sun Cluster HA para DHCP |
SUNW.gds |
Sun Cluster HA para DNS |
SUNW.dns |
Sun Cluster HA para MySQL |
SUNW.scmys |
Sun Cluster HA para NetBackup |
SUNW.netbackup_master |
Sun Cluster HA para NFS |
SUNW.nfs |
Sun Cluster HA para Oracle E-Business Suite |
SUNW.scebs |
Sun Cluster HA para Oracle |
SUNW.oracle_server SUNW.oracle_listener |
Admisión de Sun Cluster para Parallel Server/Real Application Clusters de Oracle |
SUNW.rac_framework SUNW.rac_udlm SUNW.rac_cvm SUNW.rac_hwraid |
Sun Cluster HA para SAP |
SUNW.sap_ci SUNW.sap_ci_v2 SUNW.sap_as SUNW.sap_as_v2 |
Sun Cluster HA para SAP liveCache |
SUNW.sap_livecache SUNW.sap_xserver |
Sun Cluster HA para SWIFTAlliance Access |
SUNW.scsaa |
Sun Cluster HA para Samba |
SUNW.gds |
Sun Cluster HA para Siebel |
SUNW.sblgtwy SUNW.sblsrvr |
Sun Cluster HA para Sun ONE Application Server |
SUNW.s1as |
Sun Cluster HA para Sun ONE Directory Server (Este servicio de datos tenía antes el nombre de Sun Cluster HA para iPlanet Directory Server) |
SUNW.nsldap |
Sun Cluster HA para Sun ONE Message Queue |
SUNW.s1mq |
Sun Cluster HA para Sun ONE Web Server (Este servicio de datos era antes conocido como Sun Cluster HA para iPlanet Web Server) |
SUNW.iws |
Sun Cluster HA para Sybase ASE |
SUNW.sybase |
Sun Cluster HA para WebLogic Server |
SUNW.wls |
Sun Cluster HA para WebSphere MQ |
SUNW.gds |
Sun Cluster HA para WebSphere MQ Integrator |
SUNW.gds |
Requisitos de la memoria: Sun Cluster 3.1 necesita más memoria de la configurada normalmente en un nodo, con un volumen normal de trabajo. La memoria extra equivale a 128 MB más un 10%. Por ejemplo, si un nodo autónomo requiere normalmente 1 GB de memoria, se precisarán 256 MB extras para cumplir con los requisitos de memoria.
RSMAPI: Sun Cluster 3.1 admite la Interfaz de programación de la aplicación de memoria remota compartida (RSMAPI) en interconexiones compatibles con RSM, como PCI-SCI.
Sun Cluster Security Hardening (refuerzo de seguridad de Sun Cluster) utiliza las técnicas de refuerzo del sistema operativo Solaris recomendadas por el programa Sun BluePrintsTM para conseguir un fortalecimiento en la seguridad básica de los clústers. Solaris Security Toolkit (conjunto de herramientas de seguridad de Solaris) automatiza la implementación de Sun Cluster Security Hardening.
La documentación para Sun Cluster Security Hardening está disponible en http://www.sun.com/blueprints/0203/817–1079.pdf. También puede acceder al artículo en http://wwws.sun.com/software/security/blueprints. En este URL, desplácese hasta el encabezado Architecture para encontrar el artículo “Securing the Sun Cluster 3.x Software”. La documentación describe cómo asegurar el desarrollo de Sun Cluster 3.1 en un entorno Solaris 8 y Solaris 9. La descripción incluye el uso de Solaris Security Toolkit y otras técnicas de seguridad de avanzada metodología recomendadas por los expertos en seguridad de Sun.
Tabla 1–2 Servicios de datos admitidos por Sun Cluster Security Hardening
Agente del servicio de datos |
Versión de la aplicación a prueba de fallos |
Versión de la aplicación escalable |
Versión de Solaris |
---|---|---|---|
Sun Cluster HA para Apache |
1.3.9 |
1.3.9 |
Solaris 8, Solaris 9 (versión 1.3.9) |
Sun Cluster HA para Apache Tomcat |
3.3, 4.0, 4.1 |
3.3, 4.0, 4.1 |
Solaris 8, Solaris 9 |
Sun Cluster HA para DHCP |
S8U7+ |
n/d |
Solaris 8, Solaris 9 |
Sun Cluster HA para DNS |
con SO |
n/d |
Solaris 8, Solaris 9 |
Servidor de mensajes de Sun Cluster HA para iPlanet |
6.0 |
4.1 |
Solaris 8 |
Sun Cluster HA para MySQL |
3.23.54a - 4.0.15 |
n/d |
Solaris 8, Solaris 9 |
Sun Cluster HA para NetBackup |
3.4 |
n/d |
Solaris 8 |
Sun Cluster HA para NFS |
con SO |
n/d |
Solaris 8, Solaris 9 |
Sun Cluster HA para Oracle E-Business Suite |
11.5.8 |
n/d |
Solaris 8, Solaris 9 |
Sun Cluster HA para Oracle |
8.1.7 y 9i (32 y 64 bits) |
n/d |
Solaris 8, Solaris 9 (HA Oracle 9iR2) |
Admisión de Sun Cluster para Parallel Server/Real Application Clusters de Oracle |
8.1.7 y 9i (32 y 64 bits) |
n/d |
Solaris 8, Solaris 9 |
Sun Cluster HA para SAP |
4.6D (32 y 64 bits) y 6.20 |
4.6D (32 y 64 bits) y 6.20 |
Solaris 8, Solaris 9 |
Sun Cluster HA para SWIFTAlliance Access |
4.1, 5.0 |
n/d |
Solaris 8 |
Sun Cluster HA para Samba |
2.2.2, 2.2.7, 2.2.7a, 2.2.8, 2.2.8a |
n/d |
Solaris 8, Solaris 9 |
Sun Cluster HA para Siebel |
7.5 |
n/d |
Solaris 8 |
Sun Cluster HA para Sun ONE Application Server |
7.0, 7.0 actualización 1 |
n/d |
Solaris 8,Solaris 9 |
Sun Cluster HA para Sun ONE Directory Server |
4.12 |
n/d |
Solaris 8, Solaris 9 (versión 5.1) |
Sun Cluster HA para Sun ONE Message Queue |
3.0.1 |
n/d |
Solaris 8 o Solaris 9 |
Sun Cluster HA para Sun ONE Web Server |
6.0 |
4.1 |
Solaris 8, Solaris 9 (versión 4.1) |
Sun Cluster HA para Sybase ASE |
12.0 (32 bits) |
n/d |
Solaris 8 |
Sun Cluster HA para el servidor WebLogic BEA |
7.0 |
n/d |
Solaris 8, Solaris 9 |
Sun Cluster HA para WebSphere MQ |
5.2, 5.3 |
n/d |
Solaris 8, Solaris 9 |
Sun Cluster HA para WebSphere MQ Integrator |
2.0.2, 2.1 |
n/d |
Solaris 8, Solaris 9 |
El servicio de datos de Sun Cluster HA para Oracle 3.0 se puede ejecutar en Sun Cluster 3.1 sólo si se utiliza con las versiones siguientes del sistema operativo Solaris:
Solaris 8, versión de 32 bits
Solaris 8, versión de 64 bits
Solaris 9, versión de 32 bits
El servicio de datos de Sun Cluster HA para Oracle 3.0 no puede ejecutarse en Sun Cluster 3.1 si se utiliza con la versión de 64 bits de Solaris 9.
Siga la documentación de la opción Parallel Fail Safe/Real Application Clusters Guard de Oracle de los clústers de Oracle Parallel Server/Real Application porque no puede cambiar los nombres de los sistemas después de instalar Sun Cluster.
Si desea obtener más información sobre esta restricción en los nombres de los sistemas y en los nombres de los nodos, consulte la documentación de Parallel Fail Safe/Real Application Clusters Guard de Oracle.
Si el cliente de VERITAS NetBackup es un clúster, únicamente se puede configurar un sistema lógico como cliente porque sólo hay un archivo bp.conf.
Si el cliente de NetBackup es un clúster y si uno de los sistemas lógicos de éste está configurado como el cliente de NetBackup, éste no podrá efectuar una copia de seguridad de los sistemas físicos.
En el clúster que ejecuta el servidor maestro, éste es el único sistema lógico del que se puede hacer una copia de seguridad.
No se puede adjuntar el soporte de la copia de seguridad al servidor maestro, de modo que se requieren uno o más servidores de soporte.
En un entorno de Sun Cluster, el control robótico sólo se admite en los servidores de soportes y no en el servidor maestro de NetBackup que se ejecute en Sun Cluster.
Ningún nodo de Sun Cluster puede ser un cliente NFS de un sistema de archivos exportado por Sun Cluster HA para NFS que se esté controlando en un nodo del mismo clúster. No se permite este montaje cruzado de Sun Cluster HA para NFS. Utilice el sistema de archivos del clúster para compartir los archivos entre los nodos del clúster.
Las aplicaciones que se ejecuten de manera local en el clúster no deben bloquear los archivos en un sistema de archivos exportado a través de NFS. De lo contrario, el bloqueo local (por ejemplo, flock(3UCB) o fcntl(2)) podría interferir en la posibilidad de reiniciar el gestor de bloqueos (lockd). Durante el reinicio se puede garantizar, al proceso de bloqueo local, un bloqueo que puede estar pensado para que un cliente remoto lo solicite. Esto provocaría un comportamiento impredecible.
Sun Cluster HA para NFS requiere que todos los montajes de clientes de NFS sean montajes “de forma fija”.
En el caso de Sun Cluster HA para NFS, no utilice alias en los nombres de sistemas de los recursos de la red. Los clientes de NFS que monten sistemas de archivos del clúster que utilicen alias de nombres de sistemas pueden experimentar problemas de recuperación del bloqueo de statd.
Sun Cluster 3.1 no admite Secure NFS ni el uso de Kerberos con NFS; en concreto, las opciones secure y kerberos en el subsistema share_nfs(1M). No obstante, Sun Cluster 3.1 admite el uso de puertos seguros para NFS añadiendo la entrada set nfssrv:nfs_portmon=1 al archivo /etc/system en los nodos de los clústers.
No utilice NIS para los servicios de asignación de nombres en un clúster que ejecute Sun Cluster HA para SAP liveCache porque la entrada NIS sólo se utiliza si los archivos no están disponibles.
Si desea obtener más información sobre los procedimientos de los requisitos de la contraseña de nssswitch.conf relacionados con esta restricción, consulte “Preparing the Nodes and Disks”in Sun Cluster 3.1 Data Service for SAP liveCache Guide.
Identifique los requisitos de todos los servicios de datos antes de comenzar con la instalación de Solaris y Sun Cluster. Si no especifica estos requisitos es posible que efectúe una instalación incorrecta y, en consecuencia, se vea obligado a reinstalar completamente Solaris y Sun Cluster.
Por ejemplo, la opción Parallel Fail Safe/Real Application Clusters Guard de Oracle de Parallel Server/Real Application Clusters de Oracle tiene requisitos especiales para los nombres de los nodos o de los sistemas que se utilizan en un clúster. Debe tener en cuenta estos requisitos antes de instalar el software Sun Cluster porque no puede cambiar los nombres de los sistemas después de instalar el software Sun Cluster. Si desea obtener más información sobre los requisitos especiales de los nombres de los nodos o de los sistemas, consulte la documentación de Parallel Fail Safe/Real Application Clusters Guard de Oracle.
No se puede utilizar NIS en un clúster que ejecute liveCache porque la entrada de NIS sólo se utiliza si los archivos no están disponibles. Si desea obtener más información, consulte Sun Cluster HA para SAP liveCache.
Las instancias de Oracle no se inician si se desactiva la interconexión SCI de un clúster en el nodo de un clúster mediante el comando scconf -c -A.
Si ejecuta Solaris 9, incluya las entradas siguientes en los archivos de configuración de /etc/nsswitch.conf de cada nodo que pueda ser el principal para los recursos oracle_server o oracle_listener de modo que el servicio de datos comience y se detenga correctamente durante un fallo en la red:
passwd: files groups: files publickey: files project: files
El servicio de datos de Sun Cluster HA para Oracle utiliza el comando del superusuario, su(1M), para iniciar y detener la base de datos. El servicio de la red puede que deje de estar disponible si una red pública del nodo del clúster falla. La adición de las entradas anteriores asegura que el comando su no se refiera a los servicios de nombres de NIS/NIS+.
Si va a ejecutar Solaris 9, incluya una de las entradas siguientes para la base de datos publickey en los archivos de configuración de /etc/nsswitch.conf en cada nodo que puede ser el principal para los recursos de liveCache de manera que el servicio de datos se inicie y se detenga correctamente durante un fallo en la red:
publickey: publickey: files publickey: files [NOTFOUND=return] nis publickey: files [NOTFOUND=return] nisplus
El servicio de datos de Sun Cluster HA para SAP liveCache utiliza el comando dbmcli para iniciar y detener liveCache. El servicio de la red puede que deje de estar disponible si una red pública del nodo del clúster falla. La adicion de una de las entradas anteriores, además de las actualizaciones documentadas en Sun Cluster 3.1 Data Service for SAP liveCache Guide asegura que los comandos su y dbmcli no se refieran a los servicios de los nombres NIS/NIS+.
En un sistema de gran volumen, la sonda del receptor de Oracle puede sobrepasar su tiempo de espera. Para evitar esto, aumente el valor de la propiedad de extensión Thorough_probe_interval del cual depende el tiempo de espera de la sonda del receptor. Este valor no se puede establecer de manera independiente.
El agente Sun Cluster HA-Siebel no supervisa los componentes individuales de Siebel. Si se detecta un error en alguno de ellos, sólo se registra un mensaje de aviso en syslog (registro del sistema).
Con el fin de solventar este problema, reinicie el grupo de recursos del servidor de Siebel donde los componentes estén fuera de línea mediante el comando scswitch -R -h nodo -g grupo_recursos.
El mensaje “SAP xserver is not available” se imprime durante el inicio del xserver de SAP debido a que el xserver no se considera disponible hasta que está totalmente cargado y en ejecución.
Haga caso omiso de este mensaje durante el inicio del xserver de SAP.
No configure el recurso del xserver como recurso de recuperación de fallos, ya que en esta situación el servicio de datos de Sun Cluster HA para SAP liveCache no se recupera adecuadamente.
Si desea utilizar la propiedad de extensión Monitor_Uri_List de Sun Cluster HA for Apache y Sun Cluster HA for Sun ONE Web Server, debe definir la propiedad Type_version como 4.
La propiedad Type_version de un recurso se puede modernizar a 4 en cualquier momento. Si desea obtener información sobre cómo modernizar un tipo de recurso, consulte “Upgrading a Resource Type”in Sun Cluster 3.1 Data Service Planning and Administration Guide.
Algunos servicios de datos ejecutan el comando su para asignar el identificador del usuario (ID) a un usuario concreto. En el entorno operativo Solaris 9, el comando su reinicia el identificador de proyectos como default. Este comportamiento anula la configuración del identificador de proyectos mediante las propiedades del sistema RG_project_name o Resource_project_name.
Con el fin de asegurarse de que siempre se utilice el nombre adecuado del proyecto, defínalo en el archivo del entorno del usuario. Un modo de definir el nombre del proyecto en el archivo del entorno del usuario es añadir la línea siguiente al archivo .cshrc del usuario:
/usr/bin/newtask -p nombre_proyecto -c $$
nombre_proyecto es el nombre del proyecto que se va a utilizar.
Esta sección proporciona información sobre las modificaciones para la configuración de Sun Cluster.
Debe ser un usuario registrado de SunSolveTM para ver y descargar las modificaciones requeridas por el producto Sun Cluster. Si no tiene una cuenta de SunSolve, póngase en contacto con su distribuidor o representante de servicios de Sun o regístrese en línea en http://sunsolve.sun.com.
PatchPro es una herramienta de gestión de modificaciones diseñada para facilitar la selección y la descarga de modificaciones necesarias para la instalación o mantenimiento del software Sun Cluster. PatchPro proporciona una herramienta de Modo interactivo específica de Sun Cluster para facilitar la instalación de las modificaciones y una herramienta de Modo experto para mantener la configuración con el último conjunto de modificaciones. El Modo experto es especialmente útil para quienes deseen obtener las últimas modificaciones, no sólo las de mayor disponibilidad ni las de seguridad.
Para acceder a la herramienta PatchPro del software Sun Cluster, vaya a http://www.sun.com/PatchPro/, haga clic en Sun Cluster y elija el Modo interactivo o Modo experto. Siga las instrucciones de la herramienta PatchPro para describir la configuración del clúster y descargar las modificaciones.
La página web SunSolveTM Online proporciona acceso las 24 horas del día a la información más actualizada concerniente a las modificaciones, al software y al firmware de los productos de Sun. Acceda a la página web de SunSolve en http://sunsolve.sun.com para obtener las matrices más actuales del software, firmware y revisiones de modificaciones admitidas.
Puede encontrar información sobre las modificaciones de Sun Cluster 3.1 a través de Info Docs. Si desea ver Info Docs, inicie la sesión en SunSolve y acceda a la selección de Simple Search en la parte superior de la página principal. En la página Simple Search (Búsqueda simple) haga clic en el cuadro Info Docs y escriba Sun Cluster 3.1 en el cuadro de criterios de búsqueda. De este modo se abre la página Info Docs del software Sun Cluster 3.1.
Antes de instalar el software Sun Cluster 3.1 y aplicar las modificaciones en un componente del clúster (sistema operativo Solaris, software Sun Cluster, gestor de volúmenes, software de servicio de datos o hardware del disco), revise Info Docs y los archivos README que acompañen a las modificaciones. Todos los nodos del clúster deben tener el mismo nivel de modificaciones para conseguir un funcionamiento adecuado del cúster.
Si desea conocer los procedimientos específicos de las modificaciones y los consejos sobre su administración, consulte “Patching Sun Cluster Software and Firmware” in Sun Cluster 3.1 10/03: Guía de administración del sistema.
Es posible que HAStorage no se admita en versiones futuras de Sun Cluster. HAStoragePlus admite funciones casi equivalentes. Si desea modernizar HAStorage a HAStoragePlus al utilizar sistemas de archivos del clúster o grupos de dispositivos, consulte “Upgrading from HAStorage to HAStoragePlus” in Sun Cluster 3.1 Data Service Planning and Administration Guide.
Los siguientes paquetes de adaptación a entornos nacionales están disponibles en el Data Services CD-ROM. Cuando instale Sun Cluster o modernice la versión a Sun Cluster 3.1, los paquetes de adaptación a entornos nacionales se instalarán automáticamente en los servicios de datos que haya seleccionado.
Idioma |
Nombre de los paquetes |
Descripción de los paquetes |
---|---|---|
Francés
|
SUNWfscapc |
Componente en francés de Sun Cluster Apache Web Server |
SUNWfscbv |
Componente en francés de Sun Cluster BV Server |
|
SUNWfscdns |
Componente en francés de Sun Cluster Domain Name Server |
|
SUNWfschtt |
Componente en francés de Sun Cluster Sun ONE Web Server |
|
SUNWfsclc |
Tipo de recurso en francés de Sun Cluster para SAP liveCache |
|
SUNWfscnb |
Tipo de recurso en francés de Sun Cluster para el servidor netbackup_master |
|
SUNWfscnfs |
Componente en francés de Sun Cluster NFS Server |
|
SUNWfscnsl |
Componente en francés de Sun Cluster Sun ONE Directory Server |
|
SUNWfscor |
Servicio de datos en francés para Sun Cluster HA Oracle |
|
SUNWfscs1as |
Servicio de datos en francés para Sun Cluster HA Sun ONE Application Server |
|
SUNWfscs1mq |
Servicio de datos en francés de Sun Cluster HA Sun ONE Message Queue |
|
SUNWfscsap |
Componente en francés de Sun Cluster SAP R/3 |
|
SUNWfscsbl |
Tipos de recursos de Sun Cluster en francés para el portal y el servidor de Siebel |
|
SUNWfscsyb |
Servicio de datos en francés para Sun Cluster HA Sybase |
|
SUNWfscwls |
Componente en francés de Sun Cluster BEA WebLogic Server |
|
Japonés
|
SUNWjscapc |
Componente en japonés de Sun Cluster Apache Web Server |
SUNWjscbv |
Componente en japonés de Sun Cluster BV Server |
|
SUNWjscdns |
Componente en japonés de Sun Cluster Domain Name Server |
|
SUNWjschtt |
Componente en japonés de Sun Cluster Sun ONE Web Server |
|
SUNWjsclc |
Tipo de recurso en japonés de Sun Cluster para SAP liveCache |
|
SUNWjscnb |
Tipo de recurso en japonés de Sun Cluster para el servidor netbackup_master |
|
SUNWjscnfs |
Componente en japonés de Sun Cluster NFS Server |
|
SUNWjscnsl |
Componente en japonés de Sun Cluster Sun ONE Directory Server |
|
SUNWjscor |
Servicio de datos en japonés para Sun Cluster HA Oracle |
|
SUNWjscs1as |
Servicio de datos en japonés para Sun Cluster HA Sun ONE Application Server |
|
SUNWjscs1mq |
Servicio de datos en japonés de Sun Cluster HA Sun ONE Message Queue |
|
SUNWjscsap |
Componente en japonés de Sun Cluster SAP R/3 |
|
SUNWjscsbl |
Tipos de recursos de Sun Cluster en japonés para el portal y el servidor de Siebel |
|
SUNWjscsyb |
Servicio de datos en japonés para Sun Cluster HA Sybase |
|
SUNWjscwls |
Componente en japonés de Sun Cluster BEA WebLogic Server |
El conjunto completo de documentación del usuario de Sun Cluster 3.1 Data Services 10/03 está disponible en los formatos PDF y HTML en Sun Cluster Agents CD-ROM. El software del servidor AnswerBook2TM no es necesario para leer la documentación de Sun Cluster 3.1. Consulte el archivo index.html en el nivel superior del CD-ROM si desea obtener más información. Este archivo index.html permite leer los manuales en PDF y HTML directamente a partir del disco y acceder a las instrucciones para instalar los paquetes de documentación.
El paquete SUNWsdocs debe instalarse antes de los paquetes de documentación de Sun Cluster. Puede utilizar pkgadd para instalar el paquete de SUNWsdocs desde el directorio SunCluster_3.1/Sol_N/Packages/ del Sun Cluster CD-ROM o desde el directorio components/SunCluster_Docs_3.1/Sol_N/Packages/ del Sun Cluster Agents CD-ROM, donde N es 8 (por Solaris 8) o 9 (por Solaris 9). El paquete SUNWsdocs también se instala automáticamente si ejecuta el programa instalador desde el Solaris 9 Documentation CD.
El conjunto de documentación de Sun Cluster 3.1 consta de las colecciones siguientes:
La colección de software de Sun Cluster 3.1 que contiene los manuales siguientes:
Sun Cluster 3.1: Guía de conceptos
Sun Cluster 3.1 11/03: Guía del desarrollador de los servicios de datos
Sun Cluster 3.1 10/03 Error Messages Guide
Sun Cluster 3.1 10/03: Guía de instalación del software
La colección Sun Cluster 3.x Hardware Administration Collection, que contiene los manuales siguientes:
Sun Cluster 3.x Hardware Administration Manual
Sun Cluster 3.x With Sun StorEdge 3310 Array Manual
Sun Cluster 3.x With Sun StorEdge 3510 FC Array Manual
Sun Cluster 3.x With Sun StorEdge 3900 or 6900 Series System Manual
Sun Cluster 3.x With Sun StorEdge 6120 Array Manual
Sun Cluster 3.x With Sun StorEdge 6320 System Manual
Sun Cluster 3.x With Sun StorEdge 9900 Series Storage Device Manual
Sun Cluster 3.x With Sun StorEdge A1000 or Netra st A1000 Array Manual
Sun Cluster 3.x With Sun StorEdge A3500/A3500FC System Manual
Sun Cluster 3.x With Sun StorEdge A5x00 Array Manual
Sun Cluster 3.x With Sun StorEdge D1000 or Netra st D1000 Disk Array Manual
Sun Cluster 3.x With Sun StorEdge D2 Array Manual
Sun Cluster 3.x With Sun StorEdge MultiPack Enclosure Manual
Sun Cluster 3.x With Sun StorEdge Netra D130 or StorEdge S1 Enclosure Manual
Sun Cluster 3.x With Sun StorEdge T3 or T3+ Array Partner-Group Configuration Manual
Sun Cluster 3.x With Sun StorEdge T3 or T3+ Array Single-Controller Configuration Manual
La colección de Sun Cluster 3.1 Data Services que contiene los manuales siguientes:
Sun Cluster 3.1 Data Service Planning and Administration Guide
Sun Cluster 3.1 Data Service for Apache Guide
Sun Cluster 3.1 Data Service for Apache Tomcat Guide
Sun Cluster 3.1 Data Service for BroadVision One-To-One Enterprise Guide
Sun Cluster 3.1 Data Service for DHCP Guide
Sun Cluster 3.1 Data Service for Domain Name Service (DNS) Guide
Sun Cluster 3.1 Data Service for MySQL Guide
Sun Cluster 3.1 Data Service for Netbackup Guide
Sun Cluster 3.1 Data Service for Network File System (NFS) Guide
Sun Cluster 3.1 Data Service for Oracle E-Business Suite Guide
Sun Cluster 3.1 Data Service for Oracle Guide
Sun Cluster 3.1 Data Service for Oracle Parallel Server/Real Application Clusters Guide
Sun Cluster 3.1 Data Service for SAP Guide
Sun Cluster 3.1 Data Service for SAP liveCache Guide
Sun Cluster 3.1 Data Service for SWIFTAlliance Access Guide
Sun Cluster 3.1 Data Service for Samba Guide
Sun Cluster 3.1 Data Service for Siebel Guide
Sun Cluster 3.1: Guía del servicio de datos para Sun ONE Application Server
Sun Cluster 3.1 Data Service for Sun ONE Directory Server Guide
Sun Cluster 3.1 Data Service for Sun ONE Message Queue Guide
Sun Cluster 3.1: Guía del servicio de datos para Sun ONE Web Server
Sun Cluster 3.1 Data Service for Sybase ASE Guide
Sun Cluster 3.1 Data Service for WebLogic Server Guide
Sun Cluster 3.1: Guía del servicio de datos para Sun ONE Message Queue
Sun Cluster 3.1 Data Service for WebSphere MQ Integrator Guide
Además, la sede web docs.sun.comSM permite acceder a la documentación en línea de Sun Cluster. Puede explorar docs.sun.com o buscar el tema o el título específico de un manual en la sede web siguiente:
Esta sección trata errores conocidos u omisiones en la documentación, la ayuda en línea o las páginas de comando man y corrige estos problemas.
Esta sección trata los errores y las omisiones de Sun Cluster 3.1 Data Service for Oracle Parallel Server/Real Application Clusters Guide.
La sección “Requisitos para el uso del sistema de archivos del clúster” afirma de manera equivocada que puede almacenar archivos de datos en el sistema de archivos del clúster. No debe almacenar archivos de datos en el sistema de archivos del clúster. Por este motivo, haga caso omiso de todas las referencias a los archivos de datos en esta sección.
Cuando Oracle está instalado en el sistema de archivos del clúster, todos los nodos de éste pueden acceder a los archivos del directorio que la variable de entorno ORACLE_HOME
especifica.
Es posible que una instalación solicite que algunos directorios o archivos de Oracle mantengan la información específica del nodo. Puede cumplir este requisito mediante un enlace simbólico cuyo destino sea un archivo o un directorio en un sistema de archivos que sea local en un nodo. Dicho sistema de archivos no es parte del sistema de archivos del clúster.
Si desea utilizar un enlace simbólico para este fin, debe asignar una zona en un sistema local de archivos. Si desea activar las aplicaciones de Oracle para crear enlaces simbólicos con los archivos de esta zona, las aplicaciones deben ser capaces de acceder a los archivos de esta zona. Puesto que el enlace simbólico reside en el sistema de archivos del clúster, todas las referencias a los enlaces desde todos los nodos son iguales. Por este motivo, todos los nodos deben tener el mismo espacio para el nombre en la zona del sistema local de archivos.
Siga este procedimiento en cada directorio que vaya a mantener la información específica del nodo. Los directorios siguientes se solicitan normalmente para mantener la información específica del nodo:
$ORACLE_HOME
/network/agent
$ORACLE_HOME
/network/log
$ORACLE_HOME
/network/trace
$ORACLE_HOME
/srvm/log
$ORACLE_HOME
/apache
Si desea información sobre otros directorios que se puedan necesitar para mantener información específica sobre el nodo, consulte la documentación de Oracle.
En cada nodo del clúster, cree el directorio local que vaya a mantener información específica del nodo.
# mkdir -p directorio_local |
Especifica que todos los directorios superiores que no existan se creen en primer lugar
Especifica la ruta completa del directorio que va a crear
En cada nodo del clúster, haga una copia local del directorio global que vaya a mantener la información específica del nodo.
# cp -pr directorio_global directorio_local_superior |
Especifica que se conserven las listas de propietario, grupo, modos de permisos, hora de la modificación, hora de acceso y listas de control de acceso.
Especifica que el directorio y todos sus archivos se copien, incluidos los subdirectorios y sus archivos.
Especifica la ruta completa del directorio global que está copiando. Este directorio reside en el sistema de archivos del clúster en el directorio que especifique la variable de entorno ORACLE_HOME
.
Especifica el directorio del nodo local que vaya a contener la copia local. Este directorio es el superior del directorio que ha creado en el Paso 1.
Sustituya el directorio global que ha copiado en el Paso 2 por un enlace simbólico a la copia local del directorio global.
En un nodo del clúster, borre el directorio global que haya copiado en el Paso 2.
# rm -r directorio_global |
Especifica que el directorio y todos sus archivos se borren, incluidos los subdirectorios y sus archivos.
Especifica el nombre del archivo y la ruta completa del directorio global que se vayan a borrar. Este directorio es el global que copió en el Paso 2.
En un nodo del clúster, cree un enlace simbólico de la copia local del directorio en el directorio global que ha borrado en el Paso a.
# ln -s directorio_local directorio_global |
Este ejemplo muestra la secuencia de operaciones necesarias para crear directorios específicos del nodo en un clúster de dos nodos. Este clúster se configura del modo siguiente:
La variable de entorno ORACLE_HOME
especifica el directorio de /global/oracle.
El sistema local de archivos de cada nodo se encuentra en el directorio /local.
Las operaciones siguientes se ejecutan en cada nodo:
Si desea crear los directorios solicitados en el sistema de archivos local debe ejecutar los comandos siguientes:
# mkdir -p /local/oracle/network/agent |
# mkdir -p /local/oracle/network/log |
# mkdir -p /local/oracle/network/trace |
# mkdir -p /local/oracle/srvm/log |
# mkdir -p /local/oracle/apache |
Si desea hacer copias locales de los directorios globales que vayan a mantener información específica del nodo, se deben ejecutar los comandos siguientes:
# cp -pr $ORACLE_HOME/network/agent /local/oracle/network/. |
# cp -pr $ORACLE_HOME/network/log /local/oracle/network/. |
# cp -pr $ORACLE_HOME/network/trace /local/oracle/network/. |
# cp -pr $ORACLE_HOME/srvm/log /local/oracle/srvm/. |
# cp -pr $ORACLE_HOME/apache /local/oracle/. |
Las operaciones siguientes se ejecutan en un único nodo:
Si desea borrar los directorios globales se deben ejecutar los comandos siguientes:
# rm -r $ORACLE_HOME/network/agent |
# rm -r $ORACLE_HOME/network/log |
# rm -r $ORACLE_HOME/network/trace |
# rm -r $ORACLE_HOME/srvm/log |
# rm -r $ORACLE_HOME/apache |
Si desea crear enlaces simbólicos de los directorios locales a los directorios globales correspondientes se deben ejecutar los comandos siguientes:
# ln -s /local/oracle/network/agent $ORACLE_HOME/network/agent |
# ln -s /local/oracle/network/log $ORACLE_HOME/network/log |
# ln -s /local/oracle/network/trace $ORACLE_HOME/network/trace |
# ln -s /local/oracle/srvm/log $ORACLE_HOME/srvm/log |
# ln -s /local/oracle/apache $ORACLE_HOME/apache |
Siga este procedimiento en cada archivo que vaya a mantener la información específica del nodo. Los archivos siguientes se solicitan normalmente para mantener la información específica del nodo:
$ORACLE_HOME
/network/admin/snmp_ro.ora
$ORACLE_HOME
/network/admin/snmp_rw.ora
Si desea información sobre otros archivos que se puedan necesitar para mantener información específica sobre el nodo, consulte la documentación de Oracle.
En cada nodo del clúster, cree el directorio local que contendrá el archivo que vaya a mantener la información específica del nodo.
# mkdir -p directorio_local |
Especifica que todos los directorios superiores que no existan se creen en primer lugar
Especifica la ruta completa del directorio que va a crear
En cada nodo del clúster, haga una copia local del archivo global que vaya a mantener la información específica del nodo.
# cp -p archivo_global directorio_local |
Especifica que se conserven las listas de propietario, grupo, modos de permisos, hora de la modificación, hora de acceso y listas de control de acceso.
Especifica el nombre del archivo y la ruta completa del archivo global que se vayan a copiar. Este archivo se ha instalado en el sistema de archivos del clúster en el directorio que especifique la variable del entorno ORACLE_HOME
.
Especifica el directorio que vaya a contener la copia local del archivo. Este directorio es el que creó en el Paso 1.
Sustituya el archivo global que copió en el Paso 2 con un enlace simbólico a la copia local del archivo.
Desde un nodo del clúster, borre el archivo global que copió en el Paso 2.
# rm archivo_global |
Especifica el nombre del archivo y la ruta completa del archivo global que se vayan a borrar. Este archivo es el global que copió en el Paso 2.
Desde un nodo del clúster, cree un enlace simbólico de la copia local del archivo al directorio del que borró el archivo global en el Paso a.
# ln -s archivo_local directorio_global |
Este ejemplo muestra la secuencia de operaciones necesarias para crear archivos específicos del nodo en un clúster de dos nodos. Este clúster se configura del modo siguiente:
La variable de entorno ORACLE_HOME
especifica el directorio de /global/oracle.
El sistema local de archivos de cada nodo se encuentra en el directorio /local.
Las operaciones siguientes se ejecutan en cada nodo:
Si desea crear el directorio local que contendrá los archivos que vayan a mantener la información específica del nodo, se ejecuta el comando siguiente:
# mkdir -p /local/oracle/network/admin |
Si desea hacer una copia local de los archivos globales que vayan a mantener información específica del nodo, se deben ejecutar los comandos siguientes:
# cp -p $ORACLE_HOME/network/admin/snmp_ro.ora \ /local/oracle/network/admin/. |
# cp -p $ORACLE_HOME/network/admin/snmp_rw.ora \ /local/oracle/network/admin/. |
Las operaciones siguientes se ejecutan en un único nodo:
Si desea borrar los archivos globales, se deben ejecutar los comandos siguientes:
# rm $ORACLE_HOME/network/admin/snmp_ro.ora |
# rm $ORACLE_HOME/network/admin/snmp_rw.ora |
Si desea crear enlaces simbólicos de las copias locales de los archivos a los archivos globales correspondientes, se deben ejecutar los comandos siguientes:
# ln -s /local/oracle/network/admin/snmp_ro.ora \ $ORACLE_HOME/network/admin/snmp_rw.ora |
# ln -s /local/oracle/network/admin/snmp_rw.ora \ $ORACLE_HOME/network/admin/snmp_rw.ora |
Esta sección trata errores y omisiones de Sun Cluster 3.1 Data Service for Oracle E-Business Suite Guide.
El paso 13 del procedimiento “How to Register and Configure Sun Cluster HA for Oracle E-Business Suite as a Failover Service” es incorrecto. El texto correcto es como sigue:
13. Crear un recurso para Concurrent Manager Server de Oracle E-Business Suite.
# grep PROD.CON_COMNTOP /var/tmp/config.txt PROD.CON_COMNTOP=/global/mnt10/d01/oracle/prodcomn <- CON_COMNTOP # # grep PROD.DBS_ORA806= /var/tmp/config.txt PROD.DBS_ORA806=/global/mnt10/d01/oracle/prodora/8.0.6 <- ORACLE_HOME |
El ejemplo que sigue a este paso es también incorrecto. El ejemplo correcto es como sigue:
RS=ebs-cmg-res RG=ebs-rg HAS_RS=ebs-has-res LSR_RS=ebs-cmglsr-res CON_HOST=lhost1 CON_COMNTOP=/global/mnt10/d01/oracle/prodcomn CON_APPSUSER=ebs APP_SID=PROD APPS_PASSWD=apps ORACLE_HOME=/global/mnt10/d01/oracle/prodora/8.0.6 CON_LIMIT=70 MODE=32/Y
Esta sección trata los errores y omisiones en Sun Cluster 3.1 Data Service for Sun ONE Directory Server Guide y Sun Cluster 3.1: Guía del servicio de datos para Sun ONE Web Server.
Se han cambiado los nombres de iPlanet Web Server e iPlanet Directory Server. Los nuevos nombres son Sun ONE Web Server y Sun ONE Directory Server. Los nombres del servicio de datos son ahora Sun Cluster HA para Sun ONE Web Server y Sun Cluster HA para Sun ONE Directory Server.
Es posible que el nombre de la aplicación en el Sun Cluster Agents CD-ROM sea aún iPlanet Web Server e iPlanet Directory Server.
Esta sección trata sobre los errores y las omisiones desde Sun Cluster 3.1 Data Service for SAP liveCache.
La sección “Registering and Configuring Sun Cluster HA for SAP liveCache” debe informar de que el xserver de SAP sólo se puede configurar como un recurso escalable. La configuración del xserver SAP como recurso para la recuperación de fallos provocará que el recurso SAP liveCache no se recupere del fallo. Haga caso omiso de todas las referencias para configurar el recurso del xserver SAP como recurso de recuperación de fallos en Sun Cluster 3.1 Data Service for SAP liveCache.
La sección “Registering and Configuring Sun Cluster HA for SAP liveCache” debe contener también un paso extra. Después del paso 10, “Enable the scalable resource group that now includes the xserver SAP resource,” debe registrar el recurso liveCache escribiendo para ello el texto siguiente.
# scrgadm -a -j recurso_livecache -g grupo_recursos_livecache \ -t SUNW.sap_livecache -x livecache_name=LC-NAME \ -y resource_dependencies=recurso_almacenamiento_livecache |
Después de registrar el recurso liveCache, continúe con el paso siguiente, “Set up a resource group dependency between xserver SAP and liveCache.”
Esta sección trata los errores y omisiones de Sun Cluster 3.1 Data Service for WebLogic Server.
La tabla “Protection of BEA WebLogic Server Component” debe indicar que la base de datos de BEA WebLogic Server está protegida por todas las bases de datos admitidas por BEA WebLogic Server y en Sun Cluster. Esta tabla también debe informar de que los servidores HTTP están protegidos por todos los servidores HTTP admitidos por BEA WebLogic Server y en Sun Cluster.
Esta sección trata los errores y las omisiones desde Sun Cluster 3.1 Data Service for Apache Guide.
La sección “Planning the Installation and Configuration” no debe mostrar una nota sobre el uso de un proxy escalable al servicio de un recurso web escalable. No se admite el uso de un proxy escalable.
Si utiliza la propiedad de extensión Monitor_Uri_List en el servicio de datos de Sun Cluster HA para Apache, el valor solicitado de la propiedad Type_version es 4. Puede modernizar el tipo de recurso a Type_version 4.
Si utiliza la propiedad de extensión Monitor_Uri_List en el servicio de datos de Sun Cluster HA para Sun ONE Web Server, el valor solicitado de la propiedad Type_version es 4. Puede modernizar el tipo de recurso a Type_version 4.
Hay un error en la sección de consulta de esta página de comando man. En lugar de consultar Sun Cluster 3.1 Data Services Installation and Configuration Guide, debe tomar como referencia Sun Cluster 3.1 Data Service for WebLogic Server Guide.