Notas de la versión de Sun Cluster 3.2 para el SO Solaris

Cuestiones sobre la documentación

En esta sección, se describen los errores o las omisiones de la documentación, la ayuda en línea o las páginas de comando man de la versión Sun Cluster 3.2.

Guía de conceptos

En esta sección, se describen los errores y las omisiones de la Sun Cluster Concepts Guide for Solaris OS .

x86: Topologías de Sun Cluster para x86

En la sección Sun Cluster Topologies for x86 de Sun Cluster Concepts Guide for Solaris OS , la siguiente instrucción acerca de la versión Sun Cluster 3.2 ha caducado: "Sun Cluster, cuando se compone de sistemas basados en plataformas x86, admite dos nodos por clúster."

En su lugar, la instrucción debería indicar lo siguiente: "Una configuración de Sun Cluster compuesta por sistemas basados en x86 admite hasta 8 nodos en un clúster que ejecuta Oracle RAC o hasta 4 nodos en un clúster que no ejecuta Oracle RAC."

Guía de instalación del software

En esta sección, se describen los errores o las omisiones de la Software Sun Cluster: Guía de instalación para el sistema operativo Solaris.

Falta información sobre la preparación de la actualización de los clústeres que ejecutan el software de Sun Cluster Geographic Edition

Si actualiza un clúster que ejecute también el software de Sun Cluster Geographic Edition, hay varios pasos de preparación adicionales que debe realizar antes de comenzar la actualización del software de Sun Cluster. Entre estos pasos se incluye el cierre de la infraestructura de Sun Cluster Geographic Edition. Consulte, en su lugar, el Capítulo 4, Upgrading the Sun Cluster Geographic Edition Software de Sun Cluster Geographic Edition Installation Guide en Sun Cluster Geographic Edition Installation Guide . Estos procedimientos indican cuándo se debe consultar la Guía de instalación del software de Sun Cluster para realizar la actualización de este software.

Guía de administración y planificación de los servicios de datos de Sun Cluster

En esta sección se describen los errores y las omisiones de la Sun Cluster Data Services Planning and Administration Guide for Solaris OS .

Compatibilidad con los servicios escalables en las zonas no globales

En Resource Type Properties de Sun Cluster Data Services Planning and Administration Guide for Solaris OS, la descripción de la propiedad del recurso Failover no proporciona una instrucción relacionada con la compatibilidad con servicios escalables en las zonas no globales. Esta compatibilidad se aplica a los recursos para los que se han establecido la propiedad Failover del tipo de recurso en FALSE y la propiedad Scalable del recurso en TRUE. Esta combinación de configuración de propiedades indica que el servicio escalable utiliza el recurso SharedAddress para realizar el equilibrado de carga de red. En la versión Sun Cluster 3.2, puede configurar un servicio escalable de este tipo en un grupo de recursos que se ejecute en una zona no global. Sin embargo, no puede configurar un servicio escalable para que se ejecute en varias zonas no globales del mismo nodo.

Guía del servicio de datos de Sun Cluster para MaxDB

En esta sección, se describen los errores y las omisiones de la Sun Cluster Data Service for MaxDB Guide for Solaris OS .

Cambios en la compatibilidad con el servicio de datos de Sun Cluster para MaxDB en las zonas no globales de sistemas basados en SPARC y x86

El servicio de datos de Sun Cluster para MaxDB admite las zonas no globales en los sistemas basados en SPARC y x86. Deben realizarse los siguientes cambios en la Guía del servicio de datos de Sun Cluster para MaxDB para obtener esta compatibilidad. Los siguientes pasos pueden realizarse en un clúster que se haya configurado para ejecutarse en zonas globales. Si instala el clúster para que se ejecute en zonas no globales, es posible que no sea necesario realizar algunos de los pasos indicados a continuación.

Guía del servicio de datos de Sun Cluster para SAP

En esta sección, se describen los errores y las omisiones de la Sun Cluster Data Service for SAP Guide for Solaris OS .

Cambios en la compatibilidad de SAP con las zonas no globales en sistemas basados en SPARC y x86

El servicio de datos de Sun Cluster para SAP admite las zonas no globales en los sistemas basados en SPARC y x86. Deben realizarse los siguientes cambios en la Guía del servicio de datos de Sun Cluster para SAP para obtener esta compatibilidad. Los siguientes pasos pueden realizarse en un clúster que se haya configurado para ejecutarse en zonas globales. Si instala el software para que se ejecute en zonas no globales, es posible que no sea necesario realizar algunos de los pasos indicados a continuación.

Guía del servicio de datos de Sun Cluster para SAP liveCache

En esta sección, se describen los errores y las omisiones de la Sun Cluster Data Service for SAP liveCache Guide for Solaris OS .

Cambios en la compatibilidad de SAP liveCache con las zonas no globales en sistemas basados en SPARC y x86

El servicio de datos de Sun Cluster para SAP liveCache admite las zonas no globales en los sistemas basados en SPARC y x86. Deben realizarse los siguientes cambios en la Guía del servicio de datos de Sun Cluster para SAP liveCache para obtener esta compatibilidad. Los siguientes pasos pueden realizarse en un clúster que se haya configurado para ejecutarse en zonas globales. Si instala el software para que se ejecute en zonas no globales, es posible que no sea necesario realizar algunos de los pasos indicados a continuación.

Guía del servicio de datos de Sun Cluster para SAP Web Application Server

En esta sección, se describen los errores y las omisiones de la Sun Cluster Data Service for SAP Web Application Server Guide for Solaris OS .

Compatibilidad con SAP 7.0 de Sun Cluster HA para SAP Web Application Server (6461002)

En SAP 7.0 y NW2004SR1, al iniciar una instancia de SAP, se inicia de forma predeterminada el proceso sapstartsrv. El proceso sapstartsrv no está bajo control de Sun Cluster HA para SAP Web Application Server. Por lo tanto, cuando Sun Cluster HA para SAP Web Application Server detiene o conmuta por error una instancia, el proceso sapstartsrv no se detiene.

Para evitar que se inicie el proceso sapstartsrv cuando Sun Cluster HA para SAP Web Application inicie una instancia de SAP, debe modificar la secuencia de comandos startsap. Además, debe cambiar el nombre del archivo /etc/rc3.d/S90sapinit por /etc/rc3.d/xxS90sapinit en todos los nodos de Sun Cluster.

Cambios en la compatibilidad de SAP Web Application Server con las zonas no globales en sistemas basados en SPARC y x86

El servicio de datos de Sun Cluster para SAP Web Application Server admite las zonas no globales en los sistemas basados en SPARC y x86. Deben realizarse los siguientes cambios en la Guía del servicio de datos de Sun Cluster para SAP Web Application Server para obtener esta compatibilidad. Los siguientes pasos pueden realizarse en un clúster que se haya configurado para ejecutarse en zonas globales. Si instala el software para que se ejecute en zonas no globales, es posible que no sea necesario realizar algunos de los pasos indicados a continuación.

Configuración de SAP Web Application Server en zonas no globales para la configuración de HASP (6530281)

Realice el siguiente procedimiento para configurar un recurso HAStoragePlus para las zonas no globales.


Nota –

ProcedureCómo configurar SAP Web Application Server en zonas no globales para la configuración de HAStoragePlus

  1. En cualquier nodo del clúster, conviértase en superusuario o adopte una función que proporcione la autorización de RBAC solaris.cluster.modify.

  2. Cree el grupo de recursos escalables con las zonas no globales que contengan el recurso HAStoragePlus.


       # clresourcegroup create \
         -p Maximum_primaries=m\
         -p Desired_primaries=n\
        [-n node-zone-list] hasp-resource-group
    
    -p Maximum_primaries=m

    Especifica el número máximo de elementos principales activos para este grupo de recursos.

    -p Desired_primaries=n

    Especifica el número de elementos principales activos en los que debería intentar iniciarse el grupo de recursos.

    -n node-zone-list

    En la lista de nodos de un grupo de recursos HAStoragePlus, especifica la lista de nombres de nodos:nombres de zonas como la lista de nodos del grupo de recursos HAStoragePlus, en los que pueden establecerse en línea las instancias de SAP.

    hasp-resource-group

    Especifica el nombre del grupo de recursos escalables que se va a agregar. Este nombre debe comenzar por un carácter ASCII.

  3. Registre el tipo de recurso para el recurso HAStoragePlus.


    # clresourcetype register HAStoragePlus
  4. Cree el recurso hasp de HAStoragePlus, y defina los puntos de montaje de los sistemas de archivos SAP y las rutas a dispositivos globales.


     # clresource create -g hasp-resource-group -t SUNW.HAStoragePlus \
        -p GlobalDevicePaths=/dev/global/dsk/d5s2,dsk/d6 \
        -p affinityon=false -p 
    FilesystemMountPoints=/sapmnt/JSC,/usr/sap/trans,/usr/sap/JSC hasp-resource
    
    -g hasp-resource-group

    Especifica el nombre del grupo de recursos.

    GlobalDevicePaths

    Contiene los siguientes valores:

    • Nombres de grupos de dispositivos globales como, por ejemplo, sap-dg, dsk/d5 .

    • Rutas a dispositivos globales como, por ejemplo, /dev/global/dsk/d5s2, /dev/md/sap-dg/dsk/d6.

    FilesystemMountPoints

    Contiene los siguientes valores:

    • Puntos de montaje de sistemas de archivos locales o del clúster como, por ejemplo, /local/mirrlogA,/local/mirrlogB,/sapmnt/JSC,/usr/sap/JSC.

    El recurso HAStoragePlus se crea con el estado habilitado.

  5. Registre el tipo de recurso para la aplicación SAP.


    # clresourcetype register resource-type
    
    resource-type

    Especifica el nombre del tipo de recurso que se va a agregar. Para obtener información, consulte Productos admitidos.

  6. Cree un grupo de recursos de SAP.


      # clresourcegroup create [-n node-zone-list] -p 
    RG_affinities=++hastorageplus-rg resource-group-1
    
    resource-group-1

    Especifique el grupo de recursos de los servicios de SAP.

  7. Agregue el recuso de la aplicación SAP a resource-group-1 y establezca la dependencia en hastorageplus-1.


       # clresource create -g resource-group-1 -t SUNW.application \
         [-p "extension-property[{node-specifier}]"=value, ?] \
         -p Resource_dependencies=hastorageplus-1 resource
    
  8. Ponga en línea el grupo de recursos a prueba de fallos.


    # clresourcegroup online resource-group-1
    

Guía de administración del sistema

En esta sección, se describen los errores y las omisiones de la Sun Cluster System Administration Guide for Solaris OS .

Obtención de un metaconjunto de Solaris Volume Manager de los nodos iniciados en el modo sin clúster

ProcedureCómo obtener un metaconjunto de Solaris Volume Manager de los nodos iniciados en el modo sin clúster

Utilice este procedimiento para ejecutar una aplicación fuera del clúster con fines de prueba.

  1. Determine si se utiliza el dispositivo del quórum en el metaconjunto de Solaris Volume Manager y si este dispositivo utiliza las reservas scsi2 o scsi3.


    # clquorum show
    
    1. Si el dispositivo del quórum se encuentra en el metaconjunto de Solaris Volume Manager, agregue un nuevo dispositivo del quórum que no forme parte del metaconjunto para utilizarlo posteriormente en el modo sin clúster.


      # clquorum add did
      
    2. Elimine el antiguo dispositivo del quórum.


      # clqorum remove did
      
    3. Si el dispositivo del quórum utiliza una reserva scsi2, límpiela en el antiguo quórum y compruebe que no quede ninguna reserva scsi2.


      # /usr/cluster/lib/sc/pgre -c pgre_scrub -d /dev/did/rdsk/dids2
      # /usr/cluster/lib/sc/pgre -c pgre_inkeys -d /dev/did/rdsk/dids2
      
  2. Extraiga el nodo que desee para arrancarlo en el modo sin clúster.


    # clresourcegroup evacuate -n targetnode
    
  3. Establezca sin conexión cualquier grupo de recursos que contenga recursos HAStorage o HAStoragePlus, y dispositivos o sistemas de archivos asociados al metaconjunto que desea utilizar posteriormente en el modo sin clúster.


    # clresourcegroup offline resourcegroupname
    
  4. Deshabilite todos los recursos de los grupos de recursos que ha establecido sin conexión.


    # clresource disable resourcename
    
  5. Deje sin administrar el grupo de recursos.


    # clresourcegroup unmanage resourcegroupname
    
  6. Establezca sin conexión el grupo o los grupos de dispositivos correspondientes.


    # cldevicegroup offline devicegroupname
    
  7. Deshabilite el grupo o los grupos de dispositivos.


    # cldevicegroup disable devicegroupname
    
  8. Arranque el nodo pasivo en el modo sin clúster.


    # reboot -x
    
  9. Verifique que el proceso de arranque se haya completado en el nodo pasivo antes de continuar.

    • Solaris 9

      El indicador de inicio de sesión sólo aparecerá una vez completado el proceso de arranque, por lo que no será necesario realizar ninguna acción.

    • Solaris 10


      # svcs -x
      
  10. Determine si hay alguna reserva scsi3 en los discos del metaconjunto o los metaconjuntos. Ejecute los siguientes comandos en todos los discos de los metaconjuntos.


    # /usr/cluster/lib/sc/scsi -c inkeys -d /dev/did/rdsk/dids2
    
  11. Si hay alguna reserva scsi3 en los discos, límpielas.


    # /usr/cluster/lib/sc/scsi -c scrub -d /dev/did/rdsk/dids2
    
  12. Utilice el metaconjunto en el nodo extraído.


    # metaset -s name -C take -f
    
  13. Monte el sistema o los sistemas de archivos que contengan el dispositivo definido en el metaconjunto.


    # mount device mountpoint
    
  14. Inicie la aplicación y realice la prueba que desee. Una vez finalizada la prueba, detenga la aplicación.

  15. Reinicie el nodo y espere a que finalice el proceso de arranque.


    # reboot
    
  16. Establezca en línea el grupo o los grupos de dispositivos.


    # cldevicegroup online -e devicegroupname
    
  17. Inicie el grupo o los grupos de recursos.


    # clresourcegroup online -eM  resourcegroupname 
    

Uso de la función de filtrado IP de Solaris con Sun Cluster

Sun Cluster admite la función de filtrado IP de Solaris con las siguientes restricciones:

ProcedureCómo configurar la función de filtrado IP de Solaris

  1. En el archivo /etc/iu.ap, modifique las entradas NIC públicas para mostrar clhbsndr pfil como la lista de módulos.

    pfil debe ser el último módulo de la lista.


    Nota –

    Si tiene el mismo tipo de adaptador para las redes pública y privada, las modificaciones realizadas en el archivo /etc/iu.ap enviarán a pfil a las secuencias de red privada. Sin embargo, el módulo de transporte del clúster eliminará automáticamente todos los módulos no deseados durante la creación de las secuencias, por lo que se eliminará pfil de las secuencias de red privada.


  2. Para garantizar que el filtro IP funcione en el modo sin clúster, actualice el archivo /etc/ipf/pfil.ap.

    Las actualizaciones al archivo /etc/iu.ap presentan ligeras diferencias. Consulte la documentación del filtro IP para obtener más información.

  3. Reinicie todos los nodos afectados.

    Puede arrancar los nodos de forma secuencial.

  4. Agregue las reglas de filtrado al archivo /etc/ipf/ipf.conf en los nodos afectados. Para obtener información sobre la sintaxis de las reglas de filtrado IP, consulte ipf(4)

    Tenga en cuenta las siguientes directrices y requisitos al agregar reglas de filtrado a los nodos de Sun Cluster.

    • Sun Cluster conmuta por error las direcciones de red de un nodo a otro. No se necesita ningún procedimiento o código especial durante la conmutación por error.

    • Todas las reglas de filtrado que hagan referencia a las direcciones IP de los recursos de nombre de host lógico o dirección compartida deben ser idénticas en todos los nodos del clúster.

    • Las reglas del nodo auxiliar harán referencia a una dirección IP inexistente. No obstante, esta regla forma parte del conjunto de reglas activas del filtro IP y se aplicará cuando el nodo reciba la dirección tras una conmutación por error.

    • Todas las reglas de filtrado deben ser idénticas para todos los NIC del mismo grupo IPMP. En otras palabras, si una regla es específica de una interfaz, debe existir también esa misma regla para todas las interfaces del mismo grupo IPMP.

  5. Habilite el servicio de SMF ipfilter.


    # svcadm enable /network/ipfilter:default
    

Guía del desarrollador de servicios de datos

En esta sección, se describen los errores y las omisiones de la Sun Cluster Data Services Developer’s Guide for Solaris OS .

Compatibilidad con determinados servicios escalables en las zonas no globales

En Resource Type Properties de Sun Cluster Data Services Developer’s Guide for Solaris OS, la descripción de la propiedad del recurso Failover no proporciona una instrucción relacionada con la compatibilidad con servicios escalables en las zonas no globales. Esta compatibilidad se aplica a los recursos para los que se han establecido la propiedad Failover del tipo de recurso en FALSE y la propiedad Scalable del recurso en TRUE. Esta combinación de configuración de propiedades indica que el servicio escalable utiliza el recurso SharedAddress para realizar el equilibrado de carga de red. En la versión Sun Cluster 3.2, puede configurar un servicio escalable de este tipo en un grupo de recursos que se ejecute en una zona no global. Sin embargo, no puede configurar un servicio escalable para que se ejecute en varias zonas no globales del mismo nodo.

Se ha cambiado el comportamiento del tiempo de espera de los métodos

Falta una descripción del cambio efectuado en el comportamiento de los tiempos de espera de los métodos en la versión Sun Cluster 3.2. Si se agota el tiempo de espera de devolución de llamadas del método RGM, el proceso se finaliza mediante la señal SIGABRT en lugar de la señal SIGTERM. Esto provoca que todos los miembros del grupo de procesos generen un archivo del núcleo central.


Nota –

Evite escribir el método de servicio de datos que crea un nuevo grupo de procesos. Si el método de servicio de datos no necesita crear un nuevo grupo de procesos, escriba también un manejador de señal para las señales SIGTERM y SIGABRT. Escriba los manejadores de señales para reenviar la señal SIGTERM o SIGABRT al grupo de procesos subordinados antes de que el manejador de señal finalice el proceso superior. De esta forma, aumenta la probabilidad de que todos los procesos producidos por el método se finalicen correctamente.


CRNP se ejecuta sólo en la zona global

Capítulo 12, Cluster Reconfiguration Notification Protocol de Sun Cluster Data Services Developer’s Guide for Solaris OS, falta la instrucción que indica que el Protocolo de notificación de reconfiguración del clúster (CRNP, Cluster Reconfiguration Notification Protocol) se ejecuta sólo en la zona global en el SO Solaris 10.

La instrucción del grupo de software de Solaris necesario no es clara

En Setting Up the Development Environment for Writing a Data Service de Sun Cluster Data Services Developer’s Guide for Solaris OS, aparece una nota en la que se indica que se necesita la distribución completa o para el desarrollador del grupo de software. Esta instrucción hace referencia al equipo de desarrollo. Sin embargo, como aparece después de la instrucción sobre la realización de pruebas del servicio de datos en un clúster, es posible que se malinterprete como un requisito para el clúster en el que se está ejecutando el servicio de datos.

Guía del usuario del servidor del quórum

En esta sección, se describen los errores y las omisiones de la Sun Cluster Quorum Server User’s Guide .

Plataformas de hardware y software admitidas

Los siguientes requisitos y directrices de instalación no se encuentran presentes o son confusos:

Páginas de comando man

En esta sección, se describen los errores, las omisiones y las adiciones de las páginas de comando man de Sun Cluster.

ccp(1M)

En la siguiente sinopsis modificada y las secciones de opciones agregadas de la página de comando man ccp(1M), se describe la adición de la compatibilidad del shell seguro con las utilidades del panel de control del clúster (CCP):

SYNOPSIS


$CLUSTER_HOME/bin/ccp [-s] [-l username] [-p ssh-port] {clustername | nodename}

OPCIONES

Se admiten las siguientes opciones:

-l username

Especifica el nombre de usuario de la conexión ssh. Esta opción se transfiere a la utilidad cconsole, crlogin o cssh cuando se inicia desde el CCP. La utilidad ctelnet omite esta opción.

Si no se especifica la opción -l, se utilizará el nombre de usuario que ha iniciado el CCP.

-p ssh-port

Especifica el número de puerto del shell seguro que se se utilizará. Esta opción se transfiere a la utilidad cssh cuando se inicia desde el CCP. Las utilidades cconsole, crlogin y ctelnet omiten esta opción.

Si no se especifica la opción -p, se utilizará el número de puerto predeterminado 22 para las conexiones seguras.

-s

Especifica el uso de las conexiones del shell seguro a las consolas del nodo en lugar de las conexiones de telnet. Esta opción se transfiere a la utilidad cconsole cuando se inicia desde el CCP. Las utilidades crlogin, cssh y ctelnet omiten esta opción.

Si no se especifica la opción -s, la utilidad cconsole usa las conexiones de telnet a las consolas.

Para anular la opción -s, desactive la casilla de verificación Usar SSH del menú Opciones de la interfaz gráfica de usuario (GUI) de cconsole.

cconsole(1M), crlogin(1M), cssh(1M) y ctelnet(1M)

En la siguiente sinopsis modificada y las secciones de opciones agregadas de las páginas de comando man combinadas cconsole, crlogin, cssh y ctelnet, se describe la adición de la compatibilidad del shell seguro con las utilidades del panel de control del clúster:

SYNOPSIS


$CLUSTER_HOME/bin/cconsole [-s] [-l username] [clustername… | nodename…]
$CLUSTER_HOME/bin/crlogin [-l username] [clustername… | nodename…]
$CLUSTER_HOME/bin/cssh [-l username] [-p ssh-port] [clustername… | nodename…]
$CLUSTER_HOME/bin/ctelnet [clustername… | nodename…]

DESCRIPCIÓN

cssh

Esta utilidad establece directamente las conexiones del shell seguro con los nodos del clúster.

OPCIONES

-l username

Especifica el nombre de usuario de ssh para las conexiones remotas. Esta opción es válida con los comandos cconsole, crlogin y cssh.

El valor del argumento se recuerda para que los clústeres y los nodos que se especifiquen posteriormente utilicen el mismo nombre de usuario al establecer las conexiones.

Si no se especifica la opción -l, se utilizará el nombre de usuario que ha ejecutado el comando.

-p ssh-port

Especifica el número de puerto del shell seguro que se se utilizará. Esta opción es válida con el comando cssh.

Si no se especifica la opción -p, se utilizará el número de puerto predeterminado 22 para las conexiones seguras.

-s

Especifica el uso de las conexiones del shell seguro en lugar de las conexiones de telnet a las consolas del nodo. Esta opción es válida con el comando cconsole.

Si no se especifica la opción -s, la utilidad usa las conexiones de telnet a las consolas.

Para anular la opción -s en la interfaz gráfica de usuario (GUI) de cconsole, desactive la casilla de verificación Usar SSH en el menú Opciones.

clnode(1CL)

clresource(1CL)

clresourcegroup(1CL)

r_properties(5)

rt_properties(5)

La descripción de la propiedad Failover del tipo de recurso contiene una instrucción incorrecta relacionada con la compatibilidad con los servicios escalables en las zonas no globales en la versión Sun Cluster 3.2. Esta compatibilidad se aplica a los recursos para los que se han establecido la propiedad Failover del tipo de recurso en FALSE y la propiedad Scalable del recurso en TRUE.

serialports(4)

La siguiente información se ha agregado a la sección de descripción de la página de comando man serialport(4):

Para admitir las conexiones del shell seguro a las consolas del nodo, especifique el nombre del dispositivo de acceso a la consola y el número de puerto del shell seguro para cada nodo en el archivo /etc/serialports. Si utiliza la configuración predeterminada del shell seguro en el dispositivo de acceso a la consola, especifique el número de puerto 22.

SUNW.Event(5)

En la página de comando man SUNW.Event(5), falta la instrucción que indica que el Protocolo de notificación de reconfiguración del clúster (CRNP, Cluster Reconfiguration Notification Protocol) se ejecuta sólo en la zona global en el SO Solaris 10