Este capítulo proporciona información sobre la planificación y las directrices para instalar una configuración de Sun Cluster.
Este capítulo incluye la información general siguiente:
La tabla siguiente muestra dónde encontrar instrucciones para varias tareas de instalación de Sun Cluster y el orden en que se deben ejecutar estas tareas.
Tabla 1–1 Información sobre las tareas de instalación de Sun Cluster
Tarea |
Instrucciones |
---|---|
Configurar el hardware del clúster. |
Sun Cluster 3.0-3.1 Hardware Administration Manual for Solaris OS Documentación suministrada con el servidor y los dispositivos de almacenamiento |
Planificar la instalación del software del clúster. |
Capítulo 1, Planificación de la configuración de Sun Cluster |
Instale los paquetes de software. Opcionalmente, instale y configure el software de Sun StorEdge QFS. |
Sun StorEdge QFS and Sun StorEdge SAM-FS Software Installation and Configuration Guide |
Establezca un clúster nuevo o un nodo del clúster nuevo. | |
Instalar y configurar el software Solstice DiskSuiteTM o Gestor de volúmenes de Solaris. |
Instalación y configuración del software de Solstice DiskSuite o Solaris Volume Manager Documentación de Solstice DiskSuite o Solaris Volume Manager |
SPARC: Instalar y configurar el software VERITAS Volume Manager (VxVM). |
SPARC: Instalación y configuración del software de VxVM Documentación de VxVM |
Configure los sistemas de archivos y los demás componentes del clúster. | |
(Opcional) SPARC: Instale y configure el módulo de Sun Cluster para Sun Management Center. |
SPARC: Instalación del módulo de Sun Cluster en Sun Management Center Documentación de Sun Management Center |
Planificar, instalar y configurar grupos de recursos y servicios de datos. |
Sun Cluster Data Services Planning and Administration Guide for Solaris OS |
Desarrollar los servicios de datos personalizados. |
Sun Cluster: Guía del desarrollador de los servicios de datos del sistema operativo Solaris |
Modernizar el software a Sun Cluster 3.1 8/05. |
Capítulo 5, Modernización del software Sun Cluster Instalación y configuración del software de Solstice DiskSuite o Solaris Volume Manager o SPARC: Instalación y configuración del software de VxVM Documentación del gestor de volúmenes |
Este apartado proporciona pautas para planificar la instalación del software Solaris en una configuración del clúster. Si desea obtener más información sobre el software Solaris, consulte la documentación para la instalación de Solaris.
Puede instalar el software Solaris desde un CD-ROM local o desde un servidor de instalación en red mediante el método de instalación JumpStartTM. Además, el software Sun Cluster proporciona un método personalizado para instalar el sistema operativo Solaris y el software Sun Cluster mediante el método de instalación JumpStart. Si va a instalar varios nodos del clúster, considere la opción de efectuar una instalación en red.
Consulte Cómo instalar Solaris y Sun Cluster (JumpStart) para obtener más detalles sobre el método de instalación JumpStart con scinstall. Consulte la documentación de instalación de Solaris para obtener más información sobre los métodos de instalación habituales de Solaris.
Las siguientes funciones del sistema operativo Solaris no se admiten en una configuración de Sun Cluster:
El software de Sun Cluster 3.1 8/05 no admite las zonas no globales. Todo el software de Sun Cluster y el software que se gestiona mediante el clúster debe instalarse sólo en la zona global del nodo. No instale el software relacionado con el clúster en una zona no global. Además, el software relacionado con el clúster debe instalarse de forma tal que se impida la propagación a una zona no global que se cree posteriormente en el nodo del clúster. Para obtener más información, consulte Adding a Package to the Global Zone Only de System Administration Guide: Solaris Containers-Resource Management and Solaris Zones.
Los grupos de interfaces de Solaris no se admiten en una configuración de Sun Cluster. La función de grupos de interfaces de Solaris se inhabilita de manera predeterminada durante la instalación del software Solaris. No vuelva a habilitar los grupos de interfaces de Solaris. Consulte la página de comando man de ifconfig(1M) para obtener más información acerca de los grupos de interfaces de Solaris.
El cierre automático por ahorro de energía no se admite en las configuraciones de Sun Cluster y no se debe habilitar. Consulte las páginas de comando man de pmconfig(1M) y de power.conf(4) para obtener más información.
El software de Sun Cluster no es compatible con las etiquetas de discos Interfaz de firmware ampliable (EFI).
El software de Sun Cluster no admite el uso del filtro IP de Solaris. El uso del mecanismo STREAMS autopush(1M) por parte del filtro IP de Solaris entra en conflicto con el uso del software de Sun Cluster que hace el mecanismo.
El software Sun Cluster 3.1 8/05 necesita al menos el Grupo de software de Solaris de usuario final. No obstante, puede que otros componentes de la configuración del clúster tengan también sus propios requisitos del software Solaris. Tenga en cuenta la información siguiente cuando decida qué grupo de software de Solaris va a instalar.
Busque en la documentación del servidor los requisitos del software Solaris. Por ejemplo, 10000 servidores de Sun EnterpriseTM requieren el Grupo de software de Solaris completo más la compatibilidad con OEM.
Si desea utilizar adaptadores SCI-PCI, que están disponibles para usarlos sólo en clústeres basados en SPARC, o la Interfaz de programación de la aplicación de memoria remota compartida (RSMAPI), asegúrese de instalar los paquetes de software de RSMAPI (SUNWrsm y SUNWrsmo, así como SUNWrsmx y SUNWrsmox para los sistemas operativos Solaris 8 o Solaris 9). Los paquetes de software de RSMAPI se incluyen sólo en algunos grupos de software de Solaris. Por ejemplo, el Grupo de software de desarrolladores de Solaris contiene los paquetes de RSMAPI pero el Grupo de software de usuario final de Solaris no.
Si el grupo de software que instala no contiene los paquetes de RSMAPI, instálelos manualmente antes de instalar Sun Cluster. Utilice el comando pkgadd(1M) para instalar manualmente los paquetes de software. Consulte las páginas de comando man Solaris 8 Section (3RSM) para conseguir información sobre el uso de RSMAPI.
Puede que necesite instalar otros paquetes de Solaris que no forman parte del Grupo de software de usuario final de Solaris. Los paquetes del servidor HTTP Apache son un ejemplo. Es posible que el software de otras empresas, como ORACLE®, requiera también paquetes de software adicionales de Solaris. Consulte la documentación que lo acompaña para obtener información sobre cualquier requisito de Solaris.
Para no tener que instalar manualmente los paquetes de Solaris, instale el grupo de distribución completa del software de Solaris más OEM.
Agregue esta información a la Plantilla para la disposición del sistema local de archivos que proceda.
Cuando instale el sistema operativo Solaris, cree las particiones requeridas por Sun Cluster y compruebe que todas ellas cumplan con los requisitos de espacio mínimo.
swap: la cantidad combinada de espacio de intercambio (sawp) que se asigne para Solaris y para el software de Sun Cluster no debe ser inferior a 750 MB. Si desea obtener mejores resultados, añada al menos 512 MB a Sun Cluster a la cantidad que necesita el sistema operativo Solaris. Además, asigne la cantidad de espacio de intercambio adicional que necesiten las aplicaciones que se deban ejecutar en el nodo del clúster.
Si desea crear un archivo swap adicional, no cree el archivo swap en un dispositivo global. Use solamente un disco local como dispositivo swap para el nodo.
/globaldevices: cree un sistema de archivos de 512 MB para que lo use la utilidad scinstall(1M) para los dispositivos globales.
Gestor de volúmenes: cree una partición de 20 MB en un segmento al final del disco (segmento 7) de manera que el gestor de volúmenes lo pueda utilizar. Si el clúster utiliza VERITAS Volume Manager (VxVM) y desea encapsular el disco raíz, debe contar con dos segmentos libres a disposición de VxVM.
Con el fin de cumplir con estos requisitos debe personalizar la partición si va a efectuar una instalación interactiva del sistema operativo Solaris.
Consulte las directrices siguientes para obtener información adicional sobre la planificación de la partición:
Al igual que ocurre con otro sistema que ejecute el sistema operativo Solaris, puede configurar la raíz (/) y los directorios /var, /usr y /opt como sistemas de archivos separados. También es posible incluir todos los directorios en el sistema de archivos raíz (/). A continuación se describe el contenido del software de la raíz (/) y de los directorios /var, /usr y /opt en una configuración de Sun Cluster. Tenga en cuenta esta información cuando planifique el esquema de la partición.
raíz (/): el software de Sun Cluster ocupa menos de 40 MB en el sistema de archivos raíz (/). Solstice DiskSuite o Solaris Volume Manager requiere menos de 5 MB y VxVM necesita de 15 MB. Si desea configurar un amplio espacio adicional y la capacidad del nodo, añada al menos 100 MB al espacio que normalmente asignaría en el sistema de archivos raíz (/). Este espacio se utiliza para crear los dispositivos especiales de bloques y de caracteres utilizados por el software Volume Management. Concretamente necesita asignar este espacio extra si un gran número de discos compartidos está en el clúster.
/var: Sun Cluster ocupa un espacio insignificante en el sistema de archivos /var en el momento de la instalación. No obstante, se necesita separar un amplio espacio para los archivos de registro. Además, es posible que en un nodo de los clústers se registren más mensajes de los que se encontrarían en un servidor autónomo normal. Por este motivo, permita al menos 100 MB en el sistema de archivos /var.
/usr: el software de Sun Cluster ocupa menos de 25 MB en el sistema de archivos /usr. Solstice DiskSuite o Solaris Volume Manager y VxVM requieren cada uno menos de 15 MB.
/opt: el software de la estructura de Sun Cluster utiliza menos de 2 MB en el sistema de archivos /opt. No obstante, es posible que cada servicio de datos de Sun Cluster utilice entre 1 y 5 MB. El software de Solstice DiskSuite o Solaris Volume Manager no utiliza ningún espacio en el sistema de archivos /opt. VxVM puede utilizar 40 MB si todos sus paquetes y herramientas se instalan.
Además, la mayoría del software de bases de datos y aplicaciones se instala en el sistema de archivos /opt.
SPARC: Si utiliza Sun Management Center para supervisar el clúster, necesita un espacio adicional de 25 MB en cada nodo para que se admita el agente Sun Management Center y los paquetes de módulos de Sun Cluster.
Sun Cluster requiere que se separe un sistema de archivos especial en uno de los discos locales para usarlo en la gestión de dispositivos generales. Este sistema de archivos se monta posteriormente como un sistema de archivos del clúster. Asigne a este archivo el nombre /globaldevices ya que así es reconocido de manera predeterminada por el comando scinstall(1M).
La orden scinstall vuelve a nominar posteriormente al sistema de archivos /global/.devices/node@id_nodo, donde id_nodo representa el número que se asigna a un nodo cuando se convierte en un miembro del clúster. Se elimina el punto de montaje original /globaldevices.
El sistema de archivos /globaldevices debe tener una amplia capacidad de espacio y de inodes para la creación de dispositivos especiales de bloques y de caracteres. Esta pauta es especialmente importante si hay un gran número de discos en el clúster. Un sistema de archivos de 512 MB debe ser suficiente para la mayoría de configuraciones de los clústers.
Si utiliza el software Solstice DiskSuite o Solaris Volume Manager, debe separar un segmento del disco raíz para usarlo en la creación de la réplica de la base de datos del estado. Concretamente, separe un segmento para este fin en cada disco local. Pero, si sólo dispone de un disco local en un nodo, puede que necesite crear tres réplicas de bases de datos del estado en el mismo segmento para que Solstice DiskSuite o Solaris Volume Manager funcione adecuadamente. Consulte la documentación de Solstice DiskSuite o Solaris Volume Manager si desea obtener más información.
SPARC: Si utiliza VERITAS Volume Manager (VxVM) y desea encapsular el disco raíz, necesita tener dos segmentos libres a disposición de VxVM. Por otro lado, necesita espacio libre sin asignar extra al comienzo o al final del disco. Consulte la documentación de VxVM si desea obtener más información sobre la encapsulación del disco raíz.
La Tabla 1–2 muestra un esquema de partición para un nodo de clúster que tenga menos de 750 Mbytes de memoria física. Este esquema se debe instalar con el Grupo de software de usuario final de Solaris, Sun Cluster y el servicio de datos Sun Cluster HA para NFS. El último segmento del disco, el 7, se asigna con una pequeña cantidad de espacio para uso del gestor de volúmenes.
Esta distribución permite el uso del software Solstice DiskSuite o Solaris Volume Manager o VxVM. Si utiliza el software Solstice DiskSuite o Solaris Volume Manager, utilice el segmento 7 para la réplica de base de datos del estado. Si utiliza VxVM, libere posteriormente el segmento 7 asignando al segmento una longitud cero. Este diseño proporciona los dos segmentos libres necesarios, 4 y 7, así como espacio sin utilizar al final del disco.
Tabla 1–2 Ejemplo de asignación del sistema de archivos
Segmento |
Contenido |
Asignación de tamaño |
Descripción |
---|---|---|---|
0 |
/ |
6,75 GB |
Espacio libre que queda en el disco después de asignar espacio a los segmentos que van del 1 al 7. Utilizado para el sistema operativo Solaris, Sun Cluster, software de servicios de datos, software del gestor de volúmenes, paquetes del agente Sun Management Center y del agente del módulo de Sun Cluster, sistemas de archivos raíz, así como bases de datos y software de aplicaciones. |
1 |
swap |
1 GB |
512 MB para el sistema operativo Solaris. 512 MB para el software Sun Cluster. |
2 |
solapamiento |
8,43 GB |
Todo el disco. |
3 |
/globaldevices |
512 MB |
El software Sun Cluster asigna posteriormente a este segmento un punto de montaje diferente y lo monta como un sistema de archivos del clúster. |
4 |
sin utilizar |
- |
Disponible como segmento libre para encapsular el disco raíz en VxVM. |
5 |
sin utilizar |
- |
- |
6 |
sin utilizar |
- |
- |
7 |
gestor de volúmenes |
20 MB |
Utilizado por el software Solstice DiskSuite o Solaris Volume Manager para la réplica de la base de datos del estado o por VxVM para la instalación después de liberar el segmento. |
Este apartado proporciona directrices para planificar y preparar los componentes siguientes para la instalación y configuración de Sun Cluster:
Para obtener una información detallada sobre los componentes de Sun Cluster, consulte la Sun Cluster para el sistema operativo Solaris: Visión general y la Sun Cluster: Guía de conceptos para el SO Solaris.
Compruebe que disponga de todos los certificados de licencias necesarios antes de comenzar con la instalación del software. Sun Cluster no requiere un certificado de licencia, pero cada nodo instalado con Sun Cluster debe estar cubierto por el acuerdo de licencia del software Sun Cluster.
Para conocer los requisitos de licencia del software del gestor de volúmenes y de las aplicaciones consulte la documentación para la instalación de estos productos.
Tras instalar cada producto de software también debe instalar los parches necesarios.
Para obtener información acerca de los parches necesarios, consulte Modificaciones y niveles de firmware requeridos de Notas de la versión de Sun Cluster 3.1 8/05 para SO Solaris o póngase en contacto con su proveedor de servicios.
Para conocer las directrices generales y los procedimientos para aplicar los parches, consulte el Capítulo 8, Aplicación de revisiones en el software y firmware de Sun Cluster de Sun Cluster: Guía de administración del sistema para el SO Solaris.
Debe configurar varias direcciones de IP para los diferentes componentes de Sun Cluster, según la configuración del clúster, ya que cada nodo de ésta debe tener al menos una conexión de red pública con el mismo conjunto de subredes públicas.
En la siguiente tabla se incluyen los componentes que necesitan tener una dirección IP asignada. Agregue la dirección IP a las siguientes ubicaciones:
Cualquier servicio de designación que se utilice
El archivo /etc/inet/hosts local en cada nodo del clúster después de instalar el software de Solaris
Para Solaris 10, el archivo /etc/inet/hosts local en cada nodo del clúster después de instalar el software de Solaris
Para obtener más información acerca de la planificación de las direcciones IP, consulte la System Administration Guide, Volume 3 (Solaris 8) o la System Administration Guide: IP Services (Solaris 9 o Solaris 10).
Si desea obtener más información sobre las direcciones IP de prueba para que admitan Ruta múltiple de red IP, consulte IP Network Multipathing Administration Guide.
Es necesario que disponga de acceso a la consola para todos los nodos del clúster. Si instala el software Cluster Control Panel en la consola de administración debe proporcionar el nombre del sistema del dispositivo de acceso a la consola que se utiliza para comunicarse con los nodos del clúster.
Se utiliza un concentrador del terminal para que se puedan comunicar la consola de administración y las consolas de los nodos del clúster.
Un servidor Sun Enterprise 10000 utiliza un procesador de servicios del sistema (SSP, System Service Processor) en lugar de un concentrador del terminal.
Un servidor Sun FireTM utiliza un controlador del sistema en lugar de un concentrador del terminal.
Si desea más información sobre el acceso a las consolas, consulte Sun Cluster: Guía de conceptos para el SO Solaris.
Tenga en cuenta los siguientes aspectos cuando planifique las direcciones lógicas:
Cada grupo de recursos de servicios de datos que utilice una dirección lógica debe tener un nombre del sistema especificado para cada red pública desde la que se puede acceder a la dirección lógica.
La dirección IP debe estar en la misma subred que la dirección IP de prueba que usa el grupo Ruta múltiple de red IP que sirve de host para la dirección lógica.
Para obtener más información, consulte la Sun Cluster Data Services Planning and Administration Guide for Solaris OS. Para obtener información adicional acerca de los servicios de datos y los recursos, consulte también Sun Cluster para el sistema operativo Solaris: Visión general y Sun Cluster: Guía de conceptos para el SO Solaris.
Las redes públicas se comunican fuera del clúster. Considere los puntos siguientes cuando planifique la configuración de una red pública.
Las redes públicas y las privadas (interconexión del clúster) deben usar adaptadores separados o bien se debe configurar una VLAN, con etiquetas, en adaptadores compatibles con VLAN con etiquetas y conmutadores compatibles con VLAN para que utilicen el mismo adaptador, tanto para las interconexiones privadas como para la red pública.
Debe tener al menos una red pública conectada con todos los nodos del clúster.
Puede disponer de tantas conexiones de red públicas como permita su configuración de hardware.
El software de Sun Cluster es compatible con las direcciones IPv4 de la red pública.
El software de Sun Cluster es compatible con las direcciones IPv6 en la red pública si se dan las siguientes condiciones o restricciones:
El software de Sun Cluster no es compatible con las direcciones IPv6 de la red pública si la interconexión privada utiliza adaptadores SCI.
En los sistemas operativos Solaris 9 y Solaris 10, el software de Sun Cluster es compatible con las direcciones IPv6 para los servicios de datos de recuperación de fallos y los escalables.
En el sistema operativo Solaris 8, el software de Sun Cluster es compatible con las direcciones IPv6 sólo para los servicios de datos de recuperación de fallos.
Los adaptadores de red pública deben pertenecer a un grupo Ruta múltiple de red de protocolo de Internet (IP) (Ruta múltiple de red IP). Consulte Grupos de Ruta múltiple de red IP para obtener más instrucciones.
Todos los adaptadores de red pública deben usar tarjetas de interfaz de red (NIC) que admitan la asignación de direcciones MAC locales. La asignación de direcciones MAC locales es un requisito de Ruta múltiple de red IP.
La variable local-mac-address? debe utilizar el valor predeterminado true para los adaptadores Ethernet. Sun Cluster no es compatible con el valor false de local-mac-address? en los adaptadores Ethernet. Este requisito es un cambio con respecto a Sun Cluster 3.0 que necesitaba el valor false en local-mac-address?.
Durante la instalación de Sun Cluster en el sistema operativo Solaris 9 o Solaris 10, la utilidad scinstall configura automáticamente un grupo de Ruta múltiple de red IP con un único adaptador para cada adaptador de red pública. Para modificar estos grupos de copia de seguridad después de la instalación, siga los procedimientos que se indican en Administering IPMP (Tasks) en la System Administration Guide: IP Services (Solaris 9 o Solaris 10).
Las configuraciones de Sun Cluster no admiten el filtrado con el filtro IP de Solaris.
Consulte Grupos de Ruta múltiple de red IP para obtener directrices sobre la planficación de los grupos de copia de seguridad de los adaptadores de red pública. Si desea más información sobre las interfaces de red pública, consulte Sun Cluster: Guía de conceptos para el SO Solaris.
Agregue esta información de planificación a la Plantilla para las redes públicas.
Los grupos de Ruta múltiple de red de protocolo de Internet (IP), que sustituyen a los grupos de Recuperación de fallos de adaptador de red (NAFO, Network Adapter Failover), proporcionan al adaptador de red pública la supervisión y la recuperación de fallos, además de ser la base de un recurso de dirección de red. Un grupo de rutas múltiples proporciona una gran disponibilidad cuando se configura con dos adaptadores o más. Si un adaptador falla, todas las direcciones de éste recurren a otro adaptador en el grupo de rutas múltiples. De este modo, los adaptadores de grupos de ruta múltiple mantienen la conectividad de la red pública con la subred a la que los adaptadores del grupo de ruta múltiple se conectan.
A continuación, se describen las circunstancias en las que se deben configurar manualmente los grupos de Ruta múltiple de red IP durante una instalación del software de Sun Cluster:
Para las instalaciones de Sun Cluster en el sistema operativo Solaris 8, debe configurar manualmente todos los adaptadores de red pública de los grupos Ruta múltiple de red IP al probar las direcciones IP.
Si utiliza SunPlex Installer para instalar el software de Sun Cluster en los sistemas operativos Solaris 9 o Solaris 10, puede que sea necesario configurar manualmente algunos (pero no todos) los adaptadores de red pública en grupos Ruta múltiple de red IP.
Para las instalaciones del software de Sun Cluster en los sistemas operativos Solaris 9 o Solaris 10, excepto cuando se use SunPlex Installer, la utilidad scinstall configurará automáticamente todos los adaptadores de red pública como grupos Ruta múltiple de red IP de un único adaptador.
Tenga en cuenta los siguientes aspectos cuando planifique los grupos de múltiples rutas:
Todos los adaptadores de red pública deben pertenecer a un grupo de ruta múltiple.
En los siguientes tipos de grupos de ruta múltiple, debe configurar una dirección IP de prueba para cada adaptador del grupo:
En el sistema operativo Solaris 8, todos los grupos de ruta múltiple requieren una dirección IP de prueba para cada adaptador.
En el sistema operativo Solaris 9 o Solaris 10, los grupos de ruta múltiple que contienen dos o más adaptadores requieren direcciones IP de prueba. Si un grupo de ruta múltiple no contiene más que un adaptador no es necesario configurar una dirección IP de prueba.
Las direcciones IP de prueba para todos los adaptadores del mismo grupo de rutas múltiples deben pertenecer a una única subred IP.
Las aplicaciones habituales no deben usar las direcciones IP de prueba porque éstas no suelen estar disponibles.
En el archivo /etc/default/mpathd, el valor de TRACK_INTERFACES_ONLY_WITH_GROUPS debe ser yes.
El nombre de un grupo de ruta múltiple no tiene requisitos ni restricciones.
La mayoría de los procedimientos, directrices y restricciones identificados en la documentación de Solaris para la Ruta múltiple de red IP son los mismos tanto para entornos de clúster como para entornos sin clústers. Por tanto, consulte el documento de Solaris adecuado para obtener información adicional acerca de Ruta múltiple de red IP:
Para el sistema operativo Solaris 8, consulte el apartado acerca de la implementación de redes con múltiples rutas en IP Network Multipathing Administration Guide.
Para el sistema operativo Solaris 9, consulte el Capítulo 28, Administering Network Multipathing (Task) de System Administration Guide: IP Services.
En el sistema operativo Solaris 10, consulte el Capítulo 31, Administering IPMP (Tasks) de System Administration Guide: IP Services.
Consulte también Grupos de multirruta de red IP de Sun Cluster para el sistema operativo Solaris: Visión general y Sun Cluster: Guía de conceptos para el SO Solaris.
Tenga en cuenta los siguientes puntos cuando planifique utilizar el sistema de archivos de red (NFS) en una configuración Sun Cluster.
Ningún nodo de Sun Cluster puede ser un cliente de un sistema de archivos exportados mediante Sun Cluster HA para NFS que se esté supervisando en un nodo del mismo clúster. Un montaje cruzado de Sun Cluster HA para NFS de este tipo no se puede llevar a cabo. Utilice el sistema de archivos del clúster para compartir los archivos entre los nodos del clúster.
Las aplicaciones que se ejecuten de manera local en el clúster no deben bloquear los archivos en un sistema de archivos exportados a través de NFS. De lo contrario, un bloqueo local (por ejemplo, flock(3UCB) o fcntl(2)) podría interferir en la capacidad para reiniciar el bloqueo del administrador ( lockd(1M)). Durante el reinicio se puede garantizar, al proceso de bloqueo local, un bloqueo que puede estar pensado para que un cliente remoto lo solicite. Esto provocaría un comportamiento impredecible.
El software de Sun Cluster no admite las siguientes opciones del comando share_nfs(1M):
secure
sec=dh
Sin embargo, el software de Sun Cluster sí admite las siguientes funciones de seguridad para NFS:
El uso de puertos seguros para NFS. Los puertos seguros para NFS se habilitan agregando el conjunto de entradas nfssrv:nfs_portmon=1 al archivo /etc/system en los nodos del clúster.
El uso de Kerberos con NFS. Para obtener más información, consulte Securing Sun Cluster HA for NFS With Kerberos V5 de Sun Cluster Data Service for NFS Guide for Solaris OS.
Tenga en cuenta las siguientes restricciones de servicio de las configuraciones de Sun Cluster:
No configure los nodos de clúster como encaminadores (puertas de enlace) ya que si el sistema se apaga, como los clientes no pueden buscar un encaminamiento alternativo no se pueden recuperar.
No configure los nodos de clúster como servidores NIS o NIS+. No hay servicio de datos disponible para NIS o NIS+. No obstante los nodos del clúster pueden ser clientes de NIS o NIS+.
No utilice una configuración de Sun Cluster para proporcionar un arranque altamente disponible o un servicio de instalación en los sistemas cliente.
No utilice una configuración de Sun Cluster para prestar un servicio rarpd.
Si instala un servicio RPC en el clúster, el servicio no debe utilizar ninguno de los siguientes números de programa:
100141
100142
100248
ya que están reservados para los daemons de Sun Cluster rgmd_receptionist, fed y pmfd, respectivamente.
Si el servicio RPC que instale también utiliza uno de estos números de programas, deberá cambiar el servicio para que utilice un número de programa diferente.
El software de Sun Cluster no admite la ejecución de procesos de alta prioridad de programación de clases en los nodos del clúster. No ejecute ninguno de los siguientes tipos de procesos en los nodos de clúster:
Los procesos que se ejecutan en la clase de programación de tiempo compartido con alta prioridad
Procesos que se ejecutan en la clase de programación en tiempo real
Sun Cluster se basa en los subprocesos del núcleo que no se ejecutan en la clase de programación en tiempo real. Otros procesos de compartición del tiempo que se ejecutan con una prioridad más alta de la normal o procesos en tiempo real pueden evitar que los subprocesos del núcleo de Sun Cluster adquieran los ciclos necesarios para la CPU.
Este apartado proporciona directrices para la configuración de los componentes siguientes de Sun Cluster:
Agregue esta información a la plantilla de planificación de configuración adecuada.
Especifique un nombre para el clúster durante la configuración de Sun Cluster; el nombre debe ser exclusivo en toda la empresa.
Éste es el nombre que se asigna a una máquina cuando se instala el sistema operativo Solaris. Durante la configuración de Sun Cluster, especifique los nombres de todos los nodos que va a instalar como clúster. En las instalaciones de clústeres de un único nodo, el nombre del clúster predeterminado es el nombre del nodo.
No necesita configurar una red privada para un clúster de un único nodo.
Sun Cluster utiliza la red privada para la comunicación interna entre los nodos. Una configuración de Sun Cluster necesita al menos dos conexiones con la interconexión del clúster en la red privada. Especifique la dirección de red privada y la máscara de red cuando configure Sun Cluster en el primer nodo del clúster. Puede aceptar la dirección de red privada predeterminada (172.16.0.0) y la máscara de red (255.255.0.0) o bien, escribir opciones distintas.
Después de que la utilidad de instalación (scinstall, SunPlex Installer o JumpStart) hayan acabado el procesamiento y el clúster quede establecido, no podrá cambiar la dirección de red privada ni la máscara de red. Debe desinstalar y volver a instalar el software del clúster para utilizar una dirección de red privada diferente o una máscara de red.
Si especifica una dirección de red privada diferente de la predeterminada, la dirección debe cumplir con los siguientes requisitos:
La dirección debe utilizar ceros en los dos últimos números de la dirección, como en la dirección predeterminada 172.16.0.0. Sun Cluster requiere los últimos 16 bits del espacio de la dirección para su propio uso.
La dirección se debe incluir en el bloque de direcciones que RFC 1918 reserva para utilizarlo en redes privadas. Puede ponerse en contacto con InterNIC para obtener copias de RFC o ver RFC en línea en http://www.rfcs.org.
Puede utilizar la misma dirección de red privada en más de un clúster. Las direcciones IP de red privada no son accesibles desde fuera del clúster.
El software de Sun Cluster no admite direcciones IPv6 para las interconexiones privadas. El sistema configura direcciones IPv6 en los adaptadores de red privada para que se admitan servicios escalables que usen direcciones IPv6. Pero la comunicación entre los nodos en la red privada no usa estas direcciones IPv6.
A pesar de que la utilidad scinstall le permite especificar una máscara de red alternativa, la mejor práctica consiste en aceptar la máscara predeterminada, que es 255.255.0.0. No hay ninguna ventaja en especificar una máscara de red que representa una red mayor. Además, la utilidad scinstall no acepta una máscara de red que represente a una red más pequeña.
Consulte Planning Your TCP/IP Network en System Administration Guide, Volume 3 (Solaris 8) o Planning Your TCP/IP Network (Tasks), en System Administration Guide: IP Services (Solaris 9 o Solaris 10) para obtener más información acerca de las redes privadas.
El nombre del sistema privado es el que se utiliza para la comunicación entre los nodos en la interfaz de red privada. Los nombres del sistema privado se crean automáticamente durante la configuración de Sun Cluster; siguen la convención de nombres clusternodeid_nodo -priv, donde id_nodo es el numeral del ID del nodo interno, el cual, durante la configuración de Sun Cluster, se asigna automáticamente a cada nodo cuando éste se convierte en miembro del clúster. Después de configurar el clúster, puede cambiar los nombres de los hosts privados mediante la utilidad scsetup(1M).
No necesita configurar una interconexión del clúster en un clúster de un único nodo. No obstante, si anticipa eventualmente la adición de nodos a la configuración del clúster de un único nodo, puede que desee configurar la interconexión del clúster para usos posteriores.
Las interconexiones del clúster proporcionan rutas del hardware para la comunicación de redes privadas entre los nodos del clúster. Cada interconexión consta de un cable que se conecta de uno de los siguientes modos:
Entre dos adaptadores de transporte
Entre un adaptador de transporte y una unión de transporte
Entre dos uniones de transporte
Durante la configuración de Sun Cluster, especifique la información de la configuración de las dos interconexiones del clúster: Puede configurar más conexiones de redes privadas tras establecer el clúster mediante la utilidad scsetup(1M).
Para obtener instrucciones acerca del hardware de interconexión del clúster, consulte Interconnect Requirements and Restrictions de Sun Cluster 3.0-3.1 Hardware Administration Manual for Solaris OS. Para obtener información general sobre la interconexión del clúster, consulte Interconexión de clúster de Sun Cluster para el sistema operativo Solaris: Visión general y Sun Cluster: Guía de conceptos para el SO Solaris.
En los adaptadores de transporte, como, por ejemplo, los puertos en las interfaces de red, especifique los nombres de los adaptadores de transporte y el tipo de transporte. Si la configuración es un clúster de dos nodos, especifique también si su interconexión es directa (de adaptador a adaptador) o si usa una unión de transporte.
Considere las siguientes directrices y restricciones:
IPv6: el software de Sun Cluster no admite comunicaciones IPv6 a través de las interconexiones privadas.
Asignación de direcciones MAC: todos los adaptadores de red privada deben usar tarjetas de interfaz de red (NIC) que admitan las asignaciones de direcciones MAC locales. Las direcciones IPv6 de vínculo local (que se requieren en los adaptadores de red privados para que admitan direcciones de red públicas IPv6), se obtienen a partir de las direcciones MAC locales.
Adaptadores VLAN con etiquetas: el software de Sun Cluster admite redes de área local virtuales (VLAN) con etiquetas para compartir un adaptador entre la interconexión privada y la red pública. Para configurar un adaptador VLAN con etiquetas para la interconexión privada, especifique el nombre del adaptador y el ID de VLAN (VID) de una de las siguientes formas:
Especifique el nombre habitual del adaptador, que es el nombre del dispositivo más el número de instancia o el punto físico de anexión (PPA). Por ejemplo, el nombre de la instancia 2 de un adaptador Cassini Gigabit Ethernet sería ce2. Si la utilidad scinstall pregunta si el adaptador forma parte de una red LAN virtual, responda afirmativamente (yes) e indique el número VID del adaptador.
Especifique el adaptador usando su nombre de dispositivo virtual VLAN. Este nombre consta del nombre del adaptador más el número de instancia VLAN. El número de instancia VLAN se obtiene de la fórmula (1000*V)+N, donde V es el número VID y N es el PPA.
Por ejemplo, para un VID 73 en el adaptador ce2, el número de instancia VLAN se calcularía con la fórmula (1000*73)+2. En consecuencia, debería especificar el nombre del adaptador de esta forma: ce73002, para indicar que forma parte de una LAN virtual compartida.
Para obtener más información acerca de las VLAN, consulte Configuring VLANs en Solaris 9 9/04 Sun Hardware Platform Guide.
adaptadores SCI SBus: la interfaz coherente escalable (SCI) SBus no se admite como interconexión del clúster. Sin embargo, sí se admite la interfaz PCI SCI.
Interfaces de red lógicas: las interfaces de red lógicas están reservadas para que las use el software de Sun Cluster.
Consulte la familia scconf_trans_adap_*(1M) de páginas de comando man para obtener información sobre un adaptador de transporte específico.
Si utiliza uniones de transporte, como un interruptor de red, especifique el nombre de una unión de transporte para cada interconexión. Puede utilizar el nombre predeterminado switchN, donde N es un número que se asigna automáticamente durante la configuración o crear otro nombre. La excepción es el adaptador Sun Fire Link, que requiere el nombre de unión sw-rsm N. La utilidad scinstall usa automáticamente este nombre de unión cuando se especifica un adaptador Sun Fire Link (wrsmN).
Especifique también el nombre del puerto de la unión o acepte el nombre predeterminado que es el mismo que el número identificador del nodo interno del nodo que aloja el extremo adaptador del cable. No obstante, ciertos tipos de adaptador, como SCI-PCI, no permiten utilizar el nombre de puerto predeterminado.
Los clústers con tres nodos o más deben utilizar uniones de transporte. La conexión directa entre los nodos de los clústers sólo se admite en clústers de dos nodos.
En el primer caso, aún puede especificar una unión de transporte para la interconexión.
Si especifica una unión de transporte, puede añadir más fácilmente otro nodo al clúster, posteriormente.
Las configuraciones de Sun Cluster usan dispositivos del quórum para mantener la integridad de los datos y de los recursos. Si el clúster pierde temporalmente la conexión con un nodo el dispositivo del quórum evita los problemas de amnesia o de esquizofrenia cuando el nodo intenta unirse de nuevo al clúster. Durante la instalación de un clúster de dos nodos de Sun Cluster, la utilidad scinstall configura automáticamente un dispositivo del quórum. El dispositivo del quórum se elige de entre los discos de almacenamiento compartido. La utilidad scinstall da por hecho que los discos de almacenamiento compartido disponibles son aptos para convertirse en dispositivos del quórum. Después de la instalación, también puede configurar dispositivos del quórum adicionales usando la utilidad scsetup(1M).
No es necesario configurar los dispositivos del quórum en un clúster de un sólo nodo.
Si la configuración del clúster incluye dispositivos de almacenamiento de terceros que no se puedan utilizar como dispositivos del quórum, deberá emplear la utilidad scsetup para configurar el quórum manualmente.
Tenga en cuenta los puntos siguientes cuando planifique los dispositivos del quórum.
Mínimo: un clúster de dos nodos debe tener como mínimo un dispositivo del quórum, que puede ser un disco compartido o un dispositivo de red NAS. En otras topologías los dispositivos del quórum son opcionales.
Regla del número impar: si se configura más de un dispositivo del quórum en un clúster de dos nodos o en un par de nodos conectados directamente con el dispositivo del quórum, configure un número impar de dispositivos del quórum. Así se asegura de que los dispositivos del quórum tengan rutas de error completamente independientes.
Conexión: debe conectar un dispositivo del quórum al menos con dos nodos.
Para obtener más información acerca de los dispositivos del quórum, consulte Quórum y dispositivos del quórum de Sun Cluster: Guía de conceptos para el SO Solaris y Dispositivos del quórum de Sun Cluster para el sistema operativo Solaris: Visión general.
Este apartado proporciona las pautas siguientes para planificar los dispositivos generales y para planificar los sistemas de archivos del clúster:
Para obtener más información acerca de los dispositivos globales y los sistemas de archivos del clúster, consulte la Sun Cluster para el sistema operativo Solaris: Visión general y la Sun Cluster: Guía de conceptos para el SO Solaris.
Sun Cluster no necesita ningún diseño del disco ni ningún tamaño del sistema de archivos específicos. Tenga en cuenta los puntos siguientes cuando planifique el diseño de los dispositivos generales y de los sistemas de archivos del clúster.
Duplicación: debe duplicar todos los dispositivos globales para que el dispositivo en cuestión pueda considerarse de alta disponibilidad. No necesita utilizar la duplicación del software si el dispositivo de almacenamiento proporciona RAID del hardware así como rutas redundantes a los discos.
Discos: cuando efectúe una duplicación, distribuya los sistemas de archivos de manera que se dupliquen mediante las matrices de los discos.
Disponibilidad: debe conectar físicamente un dispositivo global a más de un nodo del clúster para que se considere de alta disponibilidad. Un dispositivo general con varias conexiones físicas pueden tolerar un fallo de un único nodo. Se admite un dispositivo general con una sola conexión física pero el dispositivo general se vuelve inaccesible desde otros nodos si el nodo que tiene la conexión se apaga.
Dispositivos de intercambio: – no cree un archivo de intercambio en un dispositivo global.
Tenga en cuenta los aspectos siguientes cuando planifique los sistemas de archivos del clúster.
Cuotas - Las cuotas no se admiten en los sistemas de archivos de clúster.
Sistema de archivos de bucle inverso (LOFS): no use un sistema de archivos de bucle inverso (LOFS) si se cumplen las condiciones que aparecen a continuación:
Sun Cluster HA para NFS está configurado en un sistema de archivos local de alta disponibilidad.
Se está ejecutando el daemon automountd.
Si se cumplen estas dos condiciones, hay que deshabilitar el LOFS para evitar problemas de conmutación y otros fallos. Si sólo se cumple una de estas condiciones, es seguro habilitar el LOFS.
Si es necesario habilitar tanto un LOFS como el daemon automountd, excluya de la asignación de montaje automático todos los archivos que formen parte del sistema de archivos local de alta disponibilidad exportado por Sun Cluster HA para NFS.
Archivos de registro de contabilidad del proceso: no coloque archivos de registro de contabilidad del proceso en un sistema de archivos del clúster ni en un sistema de archivos local de alta disponibilidad. Puede que haya conmutadores que estén bloqueados para escribir en el archivo de registro, lo que causaría el bloqueo del nodo. Utilice sólo un sistema de archivos local para que contenga los archivos de registro de contabilidad del proceso.
Puntos finales de comunicación: los sistemas de archivos del clúster no admiten ninguna de las funciones del software Solaris mediante las cuales se puede poner un punto final de comunicación en el espacio de nombre del sistema de archivos.
Por este motivo, aunque cree un zócalo para el dominio de UNIX cuyo nombre sea una ruta del sistema de archivos del clúster, el zócalo no sobrevivirá a una anomalía de un nodo.
No se podrá acceder globalmente a ningún FIFO o tubos con nombres que cree en un sistema de archivos de clúster.
Por tanto, no intente utilizar el comando fattach desde ningún nodo distinto al nodo local.
Agregar esta información de planificación a Plantilla para la configuración de los grupos de dispositivos de discos.
Debe configurar todos los grupos de discos del gestor de volúmenes como grupos de dispositivos de discos de Sun Cluster. De esta manera se habilita un nodo secundario para alojar los discos multisistema si el nodo primario falla. Tenga en cuenta estos puntos cuando planifique los grupos de dispositivos de discos.
A prueba fallos: puede configurar los discos con varios hosts y dispositivos gestores de volúmenes configurados correctamente como dispositivos a prueba de fallos. La configuración adecuada de un dispositivo del gestor de volúmenes contiene discos de host múltiple y la configuración correcta del propio gestor de volúmenes, lo que asegura que varios nodos puedan alojar el dispositivo exportado. No puede configurar las unidades de cinta, los CD-ROM ni los discos con un sólo puerto como dispositivos a prueba de fallos.
Duplicación: debe duplicar los discos para proteger los datos ante posibles fallos en el disco. Consulte Directrices para la duplicación para obtener directrices adicionales. Consulte Instalación y configuración del software de Solstice DiskSuite o Solaris Volume Manager o SPARC: Instalación y configuración del software de VxVM y la documentación del gestor de volúmenes para obtener información sobre la duplicación.
Para obtener más información acerca de los grupos de dispositivos de discos, consulte Dispositivos de Sun Cluster para el sistema operativo Solaris: Visión general y Sun Cluster: Guía de conceptos para el SO Solaris.
Tenga en cuenta los aspectos siguientes cuando planifique los puntos de montaje de los sistemas de archivos del clúster.
Ubicación del punto de montaje: cree puntos de montaje para los sistemas de archivos del clúster en el directorio /global, a menos que no lo permitan otros productos de software. Gracias este directorio, puede distinguir más fácilmente los sistemas de archivos del clúster, completamente disponibles, de los sistemas de archivos locales.
Requisitos de montaje de SPARC: VxFS: si utiliza VERITAS File System (VxFS), monte y desmonte globalmente un sistema de archivos VxFS desde el nodo principal. Éste es el nodo que controla el disco en el que se encuentra el sistema de archivos de VxFS. Este método asegura que la operación de montaje o desmontaje se efectúe satisfactoriamente. Es posible que se produzcan errores en una operación de montaje o desmontaje del sistema de archivos de VxFS que se ejecute desde un nodo secundario.
Las siguientes características de VxFS no se admiten en una configuración de sistema de archivos de clúster de Sun Cluster 3.1. Sin embargo, se admiten en un sistema de archivos local.
E/S rápida
Capturas
Puntos de comprobación de almacenamiento
Opciones de montaje específicas de VxFS:
convosync (Convertir O_SYNC)
mincache
qlog, delaylog, tmplog
Sistema de archivos de clúster VERITAS (requiere la función de clúster VxVM & VERITAS Cluster Server)
Es posible utilizar asesorías de caché, pero el efecto se observa únicamente en el nodo especificado.
El resto de opciones y características de VxFS admitidas en un sistema de archivos de clúster las admite también el software de Sun Cluster 3.1. Consulte la documentación de VxFS para obtener detalles sobre las opciones de VxFS que se admiten en una configuración de clúster.
Anidación de puntos de montaje: normalmente, no debe anidar los puntos de montaje en los sistemas de archivos del clúster. Por ejemplo, no configure un sistema de archivos que esté montado en /global/a y otro sistema de archivos que esté montado en /global/a/b. Si hace caso omiso de esta regla puede provocar problemas en la disponibilidad y en el orden de arranque del nodo que se producirían si el punto de montaje superior no estuviera presente cuando el sistema intentara montar un sucesor de ese sistema de archivos. La única excepción a esta regla es que los dispositivos de los dos sistemas de archivos tengan la misma conectividad física con el nodo. Un ejemplo puede ser los diferentes segmentos en el mismo disco.
forcedirectio - Sun Cluster no admite la ejecución de archivos binarios que no pertenecen a los sistemas de archivos montados mediante la opción forcedirectio.
Agregar esta información de planificación a Plantilla para la configuración de los grupos de dispositivos de discos y Plantilla para la configuración del Gestor de volúmenes. Para Solstice DiskSuite o Solaris Volume Manager, agregar también esta información de planificación a Plantilla de metadispositivos (Solstice DiskSuite o Solaris Volume Manager).
Esta apartado proporciona las directrices siguientes para planificar la gestión de volúmenes en la configuración del clúster:
Sun Cluster utiliza el software de gestión de volúmenes para reunir los discos en grupos de dispositivos de discos que se pueden administrar como una unidad. Sun Cluster admite el software Solstice DiskSuite o Solaris Volume Manager y VERITAS Volume Manager (VxVM) que instale o utilice por cualquiera de los siguientes procedimientos.
Tabla 1–4 Uso admitido de administradores de volúmenes con el software de Sun Cluster
Software del gestor de volúmenes |
Requisitos |
---|---|
Solstice DiskSuite o Solaris Volume Manager |
Debe instalar el software Solstice DiskSuite o Solaris Volume Manager en todos los nodos del clúster, sin tener en cuenta si utiliza VxVM en algunos nodos para gestionar discos. |
Debe instalar y aceptar la licencia de VxVM con la función de clúster en todos los nodos del clúster. |
|
SPARC: VxVM sin la función de clúster |
Simplemente se le solicita que instale y acepte la licencia de VxVM en los nodos que se adjuntan para almacenar los dispositivos que VxVM gestione. |
SPARC: Tanto Solstice DiskSuite o Solaris Volume Manager como VxVM |
Si instala los dos gestores de volúmenes en el mismo nodo, debe utilizar el software Solstice DiskSuite o Solaris Volume Manager para gestionar los discos que son locales en cada nodo. Los discos locales incluyen el disco raíz. Utilice VxVM para gestionar todos los discos compartidos. |
Consulte la documentación del administrador de volúmenes y Instalación y configuración del software de Solstice DiskSuite o Solaris Volume Manager o SPARC: Instalación y configuración del software de VxVM para obtener instrucciones acerca de cómo instalar y configurar el software del administrador de volúmenes. Para obtener más información acerca de la administración de volúmenes, consulte Sun Cluster: Guía de conceptos para el SO Solaris.
Tenga en cuenta las siguientes directrices generales cuando configure los discos con el software de la gestión de volúmenes:
Discos multihosts duplicados: debe duplicar todos los discos multihost en las unidades de expansión de los discos. Consulte Directrices para la duplicación de discos multisistema para obtener instrucciones sobre la duplicación de los discos multihost. No necesita utilizar la duplicación del software si el dispositivo de almacenamiento proporciona RAID del hardware así como rutas redundantes a los dispositivos.
Raíz duplicada: la duplicación del disco raíz asegura una alta disponibilidad, pero dicha duplicación no es necesaria. Consulte Directrices para la duplicación para obtener directrices sobre cómo duplicar el disco raíz.
Designación unica: puede disponer de metadispositivos Solstice DiskSuite locales, volúmenes Gestor de volúmenes de Solaris locales o volúmenes VxVM que se utilizan como dispositivos en los que están montados los sistemas de archivos /global/.devices/node@ID_nodo. En este caso, el nombre de cada metadispositivo local o del volumen local en el que se debe montar el sistema de archivos /global/.devices/node@ID_nodo debe ser un nombre único en todo el clúster.
Listas de nodos: con el fin de asegurar una gran disponibilidad en un grupo de dispositivos de discos, haga que sus listas de nodos de controladores potenciales y que su normativa sobre rectificaciones sean idénticas a cualquier grupo de recursos asociados. O bien, si un grupo escalable de recursos utiliza más nodos que su grupo asociado de dispositivos de discos, convierta la lista de nodos del grupo de recursos escalables en un superconjunto de la lista de nodos del grupo de dispositivos del disco. Consulte la información de planificación de grupos en Sun Cluster Data Services Planning and Administration Guide for Solaris OS para obtener información acerca de las listas de nodos.
Discos multihost: debe conectar (o conectar a los puertos) todos los dispositivos que se utilizan para construir un grupo de dispositivos para todos los nodos configurados en la lista de nodos para dicho grupo de dispositivos. Solstice DiskSuite o Solaris Volume Manager puede comprobar automáticamente esta conexión en el momento en que los dispositivos se añadan a un conjunto de discos. No obstante, los grupos de discos VxVM configurados no están asociados con ningún conjunto de nodos en concreto.
Discos de repuesto en marcha: puede utilizar discos de repuesto en marcha para aumentar la disponibilidad, pero no son necesarios.
Consulte la documentación del gestor de volúmenes para conocer las recomendaciones de distribución del disco y cualquier otra restricción.
Tenga en cuenta los puntos siguientes cuando planifique las configuraciones de Solstice DiskSuite o Solaris Volume Manager:
Nombres de metadispositivos locales o nombres de volúmenes: el nombre de cada metadispositivo Solstice DiskSuite local y el nombre de volumen Gestor de volúmenes de Solaris en el que se monta el sistema de archivos de dispositivos /global/.devices/node@ID_nodo deben ser únicos en todo el clúster. Asimismo, el nombre no puede ser igual al del identificador de un dispositivo.
Mediadores de dos cadenas: cada conjunto de discos configurado con dos cadenas de discos y controlado por dos nodos exactamente debe tener mediadores Solstice DiskSuite o Solaris Volume Manager configurados para cada conjunto de discos. Una cadena de discos consta de un contenedor de discos, sus discos físicos, los cables del contenedor a los nodos y las tarjetas adaptadoras de la interfaz. Tenga en cuenta las reglas siguientes para configurar los mediadores de dos cadenas:
Debe configurar cada conjunto de discos exactamente con dos nodos que actúen como sistemas mediadores.
Debe utilizar los mismos dos nodos en todos los conjuntos de discos que necesiten mediadores. Esos dos nodos deben controlar los conjuntos de discos.
Los mediadores no se pueden configurar en los conjuntos de discos que no cumplan con los requisitos de dos cadenas y dos sistemas.
Consulte la página de comando man de mediator(7D) para obtener más detalles.
Configuración de /kernel/drv/md.conf : los metadispositivos Solstice DiskSuite o los volúmenes de Solaris 9 utilizados por cada conjunto de discos se crean por anticipado en el momento del arranque de la reconfiguración. Ésta se basa en los parámetros de configuración que existen en el archivo /kernel/drv/md.conf.
Con la versión Solaris 10, Gestor de volúmenes de Solaris se ha mejorado y ahora puede configurar volúmenes dinámicamente. Ya no necesita editar los parámetros nmd y md_nsets del archivo /kernel/drv/md.conf. Los volúmenes nuevos se crean dinámicamente, si es necesario.
Debe modificar los campos nmd md_nsets de la forma siguiente para que se admita una configuración de Sun Cluster en los sistemas operativos Solaris 8 o Solaris 9:
Todos los nodos del clúster deben tener archivos /kernel/drv/md.conf idénticos, sin tener en cuenta el número de conjuntos de discos que se mantienen en cada nodo. Si no se siguen estas directrices se pueden producir graves errores en Solstice DiskSuite o Solaris Volume Manager, así como una posible pérdida de datos.
md_nsets – El campo md_nsets establece el número total de conjuntos de discos que se puede crear para un sistema con objeto de satisfacer las necesidades de todo el clúster. Configure el valor de md_nsets con el número esperado de conjuntos de discos en el clúster más un conjunto de discos adicionales El software Solstice DiskSuite o Solaris Volume Manager utiliza el conjunto de discos adicionales para gestionar los discos privados en el sistema local.
El número máximo de conjuntos de discos que se permite por clúster es de 32. Este número permite 31 para uso general, además de un conjunto de discos para la gestión privada de discos. El valor predeterminado de md_nsets es 4.
nmd – El campo nmd establece el valor más alto previsto de cualquier metadispositivo o el nombre de volumen que exista en el clúster. Por ejemplo, si el valor más alto de los nombres de volúmenes o del metadispositivo que se usa en los primeros 15 conjuntos de discos de un clúster es 10, pero el valor más alto del metadispositivo o del volumen del conjunto de discos número 16 es 1000, defina el valor de nmd en 1000 como mínimo. También, el valor de nmd debe ser lo suficientemente grande como para asegurarse de que existan suficientes números para cada dispositivo (nombre de ID). El número debe ser lo suficientemente superior como para asegurar que cada nombre de metadispositivo local o nombre de volumen local pueda ser exclusivo en todo el clúster.
El valor de metadispositivos o volúmenes más alto que se permite por conjunto de discos es 8192. El valor predeterminado de nmd es 128.
Configure estos campos en el momento de la instalación para permitir la expansión futura prevista del clúster, ya que, una vez éste esté funcionando, aumentar el valor de estos campos le ocupará demasiado tiempo. El cambio de valor requiere un rearranque de la reconfiguración para cada nodo. El aumento posterior de estos valores también incrementa la posibilidad de una asignación de espacio inadecuada en el sistema de archivos raíz (/) al crear todos los dispositivos solicitados.
Al mismo tiempo, mantenga el valor de los campos nmd y md_nsets. Todos los dispositivos posibles cuentan con estructuras de memoria, como las especifican nmd y md_nsets, incluso si no ha creado estos dispositivos. Para conseguir un rendimiento óptimo, mantenga el valor de nmd y md_nsets ligeramente superior al número de metadispositivos o volúmenes que planee usar.
Consulte System and Startup Files en la Solstice DiskSuite 4.2.1 Reference Guide (Solaris 8) o System Files and Startup Files en la Solaris Volume Manager Administration Guide (Solaris 9 o Solaris 10) para obtener más información acerca del archivo md.conf.
Tenga en cuenta los puntos siguientes cuando planifique la configuración de VERITAS Volume Manager (VxVM).
Denominación basada en cierres: si utiliza la Denominación basada en cierres para los dispositivos, asegúrese de que utiliza nombres de dispositivos coherentes en todos los nodos del clúster que compartan el mismo almacenamiento. VxVM no coordina estos nombres, de modo que el administrador debe comprobar que VxVM asigne los mismos nombres a los mismos dispositivos desde diferentes nodos. Un error en la asignación de nombres coherentes no interfiere en el correcto comportamiento del clúster, pero complica enormemente la administración del clúster y aumenta la posibilidad de errores en la configuración, lo cual puede llevar a una pérdida de datos.
Grupos de discos raíz: a partir de VxVM 4.0, la creación de grupos de discos raíz es optativa.
Un grupo de disco raíz se puede crear en los siguientes discos:
El disco raíz que se debe encapsular
Uno o más discos locales que no sean raíz, los cuales se pueden encapsular o inicializar
Una combinación de discos raíz y otros locales que no lo son
El grupo de discos raíz debe ser local en el nodo.
Grupos de discos raíz sencillos: los grupos de discos raíz sencillos (rootdg creados en un único segmento del disco raíz) no se admiten como tipos de discos con VxVM en el software de Sun Cluster. Esta es una restricción general de VxVM.
Encapsulación: los discos que se vayan a encapsular deben tener dos entradas de la tabla de segmentos del disco libres.
Número de volúmenes: calcule el número máximo de volúmenes que puede utilizar cualquier grupo de dispositivos de discos en el momento de la creación del grupo de dispositivos del disco.
Si el número de volúmenes es menor de 1000, se puede utilizar la numeración menor predeterminada.
Si el número de volúmenes es 1000 o más, se debe planificar cuidadosamente el modo de asignar los números menores en los volúmenes del grupo de dispositivos del disco. No puede haber dos grupos de dispositivos de discos que solapen las asignaciones de números menores.
Registro de áreas modificadas: el uso del Registro de áreas modificadas (DRL) reduce el tiempo de recuperación del volumen después de un fallo en el nodo. Es posible que el uso de DRL reduzca el caudal de E/S.
Rutas múltiples dinámicas (DMP): no se admite el uso de DMP sólo para gestionar varias rutas de E/S por nodo al admacenamiento compartido. Sólo es compatible el uso de DMP en las configuraciones siguientes:
Una única ruta de E/S por nodo en el almacenamiento compartido del clúster.
Una solución admitida de rutas múltiples, como Sun Traffic Manager, EMC PowerPath o Hiatchi HDLM, que gestiona las rutas de E/S múltiples por nodo con el almacenamiento compartido del clúster.
Consulte la documentación de la instalación de VxVM si desea obtener más información.
El registro es necesario para UFS y los sistemas de archivos de clúster de VxFS. Este requisito no se aplica a los sistemas de archivos compartidos QFS. Sun Cluster admite las opciones siguientes en el registro del sistema de archivos:
Registro UFS de Solaris – Consulte la página de comando man de mount_ufs(1M) para obtener más información.
Solstice DiskSuite registro de transmetadispositivos o Gestor de volúmenes de Solaris registro de volúmenes transaccional – Consulte el Capítulo 2, Creating DiskSuite Objects de Solstice DiskSuite 4.2.1 User’s Guide o Transactional Volumes (Overview) en la Solaris Volume Manager Administration Guide para obtener más información. Los volúmenes transaccionales ya no son válidos a partir de la versión Solaris 10 de Gestor de volúmenes de Solaris.
SPARC: VERITAS File System (VxFS) registro – Consulte la página de comando man de mount_vxfs que se proporciona con el software de VxFS para obtener más información.
La tabla siguiente muestra el registro del sistema de archivos admitido por cada gestor de volúmenes.
Tabla 1–5 Matriz admitida del registro del sistema de archivos
Tenga en cuenta los puntos siguientes cuando elija entre Registro UFS de Solaris y Solstice DiskSuite registro de transmetadispositivos o Gestor de volúmenes de Solaris registro de volúmenes transaccional para los sistemas de archivos del clúster UFS:
Gestor de volúmenes de Solaris registro de volúmenes transaccional (anteriormente Solstice DiskSuite registro de transmetadispositivos) está previsto eliminarlo del sistema operativo Solaris en versiones futuras. Registro UFS de Solaris proporciona las mismas posibilidades pero un rendimiento superior, así como unos requisitos de administración del sistema y de sobrecarga inferiores.
Tamaño del registro del UFS de Solaris: Registro UFS de Solaris siempre asigna el registro en el espacio libre del sistema de archivos UFS y según el tamaño de éste.
En los sistemas de archivos con menos de 1 GB, el registro ocupa 1 MB.
En los sistemas de archivos con 1 GB o más, el registro ocupa 1 MB por GB en el sistema de archivos, hasta un máximo de 64 MB.
Metadispositivo de registro o volumen transaccional: un transmetadispositivo de Solstice DiskSuite o un volumen transaccional de Gestor de volúmenes de Solaris gestiona el registro del UFS. El componente de dispositivos de registro de un transmetadispositivo o el volumen transaccional son un metadispositivo o volumen que se puede duplicar y repartir en bandas. Se puede crear un registro con un tamaño máximo de 1 GB, aunque 64 MB son suficientes para la mayoría de los sistemas de archivos. El tamaño mínimo del registro es de 1 MB.
Este apartado proporciona las directrices siguientes para planificar la duplicación en la configuración del clúster:
La duplicación de todos los discos multisistema en una configuración de Sun Cluster permite que dicha configuración admita fallos de un único dispositivo. Sun Cluster requiere la duplicación de todos los discos multisistema en todas las unidades de expansión. No necesita utilizar la duplicación del software si el dispositivo de almacenamiento proporciona RAID del hardware así como rutas redundantes a los dispositivos.
Tenga en cuenta los siguientes aspectos a la hora de duplicar discos multihost:
Separación de las unidades de expansión de los discos: cada subduplicación de una duplicación o plex concretos debe situarse en una unidad diferente de expansión de discos multihost.
Espacio del disco: la duplicación dobla la cantidad necesaria de espacio en el disco.
Duplicación de tres vías: los software Solstice DiskSuite o Solaris Volume Manager y VERITAS Volume Manager (VxVM) admiten la duplicación de tres vías. No obstante, el software Sun Cluster necesita solamente la duplicación de dos vías.
Diferenciación de los tamaños de los discos: si efectúa la duplicación en un dispositivo de un tamaño diferente, la capacidad de duplicación se limitará al tamaño de la duplicación o plex menor.
Para obtener más información acerca de los discos multihost, consulte Almacenamiento en discos multisistema de Sun Cluster para el sistema operativo Solaris: Visión general y en la Sun Cluster: Guía de conceptos para el SO Solaris.
Agregue esta información de planificación a la Plantilla para la disposición del sistema local de archivos.
Para conseguir una máxima disponibilidad duplique la raíz (/), /usr, /var, /opt y swap en los discos locales. En VxVM, puede encapsular el disco raíz y duplicar los subdiscos generados. No obstante, el software Sun Cluster no requiere la duplicación del disco raíz.
Antes de decidir si duplicar el disco raíz, tenga en cuenta los riesgos, la complejidad, el coste y el período entre revisiones con respecto a las diversas alternativas que conciernen al disco raíz. No existe una única estrategia de duplicación que funcione en todas las configuraciones. Puede que desee considerar la solución preferida por el representante local de servicios de Sun cuando decida si duplicar la raíz.
Consulte la documentación del administrador de volúmenes y Instalación y configuración del software de Solstice DiskSuite o Solaris Volume Manager o SPARC: Instalación y configuración del software de VxVM para obtener instrucciones acerca de cómo duplicar el disco raíz.
Tenga en cuenta los puntos siguientes cuando decida si duplicar el disco raíz.
Disco de arranque: puede configurar la duplicación para que sea un disco raíz de arranque. Después puede efectuar un arranque desde la duplicación si el disco de arranque primario falla.
Complejidad: la duplicación del disco raíz añade complejidad a la administración del sistema, también complica el arranque en la modalidad monousuario.
Copias de seguridad: independientemente de si duplica el disco raíz, también debe efectuar copias de seguridad de la raíz de manera regular. La duplicación no basta para protegerle de los errores de administración. Sólo un plan de copia de seguridad le permitirá restaurar los archivos que accidentalmente se hayan modificado o borrado.
Dispositivos del quórum: no utilice un disco configurado como dispositivo del quórum para duplicar un disco raíz.
Quórum: en el software Solstice DiskSuite o Solaris Volume Manager, en situaciones de error donde se pierde el quórum de la base de datos del estado, no es posible rearrancar el sistema hasta que se efectúe el mantenimiento. Consulte la documentación de Solstice DiskSuite o Solaris Volume Manager para obtener información sobre la base de datos del estado y sus réplicas.
Controladores separados: la mayor disponibilidad incluye la duplicación del disco raíz en un controlador separado.
Disco raíz secundario: con un disco raíz duplicado, es posible que el disco raíz primario falle pero puede continuar el trabajo en el disco raíz secundario (duplicación). Posteriormente, el disco raíz primario puede devolver el servicio, por ejemplo después de apagar y encender el sistema o errores temporales de E/S. Los arranques posteriores se llevan a cabo usando el disco raíz principal que se especifique para el parámetro eeprom(1M) boot-device. En esta situación no se llevan a cabo tareas de reparación manuales, sino que la unidad comienza a trabajar con suficiente fiabilidad para arrancar. Con Solstice DiskSuite o Solaris Volume Manager se produce una resincronización. Ésta necesitará un paso manual cuando la unidad se devuelva al servicio.
Si se efectuaran cambios en los archivos del disco raíz secundario (duplicación), éstos no se reflejarían en el disco raíz primario durante el arranque. Esta condición provocaría una subduplicación caducada. Por ejemplo, se perderían los cambios en el archivo /etc/system. Con el software de Solstice DiskSuite o Solaris Volume Manager, algunos comandos de administración pueden haber cambiado el archivo /etc/system mientras el disco raíz principal estaba fuera de servicio.
El programa de arranque no comprueba si el sistema arranca desde una duplicación o desde un dispositivo físico subyacente. La duplicación se vuelve activa en parte a través del proceso de arranque, después de cargar los metadispositivos o los volúmenes. Por este motivo, antes de este punto, el sistema es vulnerable a los problemas provocados por subduplicaciones caducadas.