Este capítulo proporciona información sobre la planificación y las directrices para instalar una configuración de Sun Cluster.
Este capítulo incluye la información general siguiente:
La tabla siguiente muestra dónde encontrar instrucciones para varias tareas de instalación de Sun Cluster y el orden en que se deben ejecutar estas tareas.
Tabla 1–1 Información sobre las tareas de instalación de Sun Cluster
Tarea |
Instrucciones |
---|---|
Configurar el hardware del clúster. |
Sun Cluster 3.1 - 3.2 Hardware Administration Manual for Solaris OS Documentación suministrada con el servidor y los dispositivos de almacenamiento |
Planificar la instalación del software del clúster. |
Capítulo 1, Planificación de la configuración de Sun Cluster |
Instale los paquetes de software. Si lo desea, instale y configure Sun StorEdgeTM QFS. | |
Establezca un clúster nuevo o un nodo del clúster nuevo. | |
Configure Solaris Volume Manager. |
configuración de Solaris Volume Manager Documentación de Solaris Volume Manager |
Instalar y configurar el software VERITAS Volume Manager (VxVM). |
Instalación y configuración del software de VxVM Documentación de VxVM |
Si los utiliza, configure los sistemas de archivos del clúster. | |
(opcional) Cree en el SO Solaris 10 zonas no globales. | |
(Opcional) SPARC: Instale y configure el módulo de Sun Cluster para Sun Management Center. |
SPARC: Instalación del módulo de Sun Cluster en Sun Management Center Documentación de Sun Management Center |
Planificar, instalar y configurar grupos de recursos y servicios de datos. Si los utiliza, cree sistemas de archivos locales con alta disponibilidad. |
Sun Cluster Data Services Planning and Administration Guide for Solaris OS |
Desarrollar los servicios de datos personalizados. | |
Modernizar el software a Sun Cluster 3.2. |
Capítulo 8, Modernización del software Sun Cluster configuración de Solaris Volume Manager o Instalación y configuración del software de VxVM Documentación del gestor de volúmenes SPARC: Cómo modernizar el software del módulo Sun Cluster en Sun Management Center |
Este apartado proporciona las siguientes directrices para planificar la instalación del software Solaris en una configuración del clúster.
Si desea obtener más información sobre el software Solaris, consulte la documentación para la instalación de Solaris.
Puede instalar Solaris desde un DVD-ROM local o desde un servidor de instalación en red mediante el método de instalación JumpStartTM. Además, el software Sun Cluster proporciona un método personalizado para instalar el sistema operativo Solaris y el software Sun Cluster mediante el método de instalación JumpStart. Si va a instalar varios nodos del clúster, considere la opción de efectuar una instalación en red.
Consulte Cómo instalar Solaris y Sun Cluster (JumpStart) para obtener más detalles sobre el método de instalación JumpStart con scinstall. Consulte la documentación de instalación de Solaris para obtener más información sobre los métodos de instalación habituales de Solaris.
Tenga en cuenta los siguientes puntos cuando planifique el uso del SO Solaris en una configuración de Sun Cluster:
1334 ZonesZonas de Solaris 10: instale el software de marco de trabajo de Sun Cluster 3.2 sólo en la zona global.
Para determinar si puede instalar un servicio de datos de Sun Cluster directamente en una zona no global, consulte la documentación de dicho servicio de datos.
Si configura zonas no globales en un nodo del clúster, debe habilitarse el sistema de archivos loopback (LOFS). Consulte la información de consideraciones adicionales del LOFS.
Sistema de archivos loopback (LOFS): durante la creación del clúster con la versión Solaris 9 de Sun Cluster, la función LOFS estará deshabilitada de forma predeterminada. Durante la creación del clúster con la versión Solaris 10 de Sun Cluster, la función LOFS no estará deshabilitada de forma predeterminada.
Si el clúster satisface las dos condiciones anteriores, debe deshabilitar LOFS para evitar problemas de conmutación u otro tipo de fallos:
Sun Cluster HA para NFS está configurado en un sistema de archivos local de alta disponibilidad.
Se está ejecutando el daemon automountd.
Si el clúster cumple sólo con una de estas condiciones, podrá habilitar de forma segura LOFS.
Si es necesario habilitar tanto un LOFS como el daemon automountd, excluya de la asignación de montaje automático todos los archivos que formen parte del sistema de archivos local de alta disponibilidad exportado por Sun Cluster HA para NFS.
Grupos de interfaz: los grupos de interfaz Solaris no se admiten en una configuración de Sun Cluster. La función de grupos de interfaces de Solaris se inhabilita de manera predeterminada durante la instalación del software Solaris. No vuelva a habilitar los grupos de interfaces de Solaris. Consulte la página de comando man de ifconfig(1M) para obtener más información acerca de los grupos de interfaces de Solaris.
Apagado para ahorro de energía: las configuraciones de Sun Cluster no admiten el apagado automático para ahorro de energía y, por lo tanto, no debería habilitarse. Consulte las páginas de comando man pmconfig(1M) y power.conf(4) para obtener más información.
filtro IP: Sun Cluster sólo admite el filtrado con el filtro IP de Solaris para los servicios de recuperación tras error. No utilice el filtro IP con servicios escalables.
El software Sun Cluster 3.2 necesita al menos el Grupo de software de Solaris de usuario final. No obstante, puede que otros componentes de la configuración del clúster tengan también sus propios requisitos del software Solaris. Tenga en cuenta la información siguiente cuando decida qué grupo de software de Solaris va a instalar.
Servidores: consulte la documentación de su servidor para conocer los requisitos de Solaris. Por ejemplo, 10000 servidores de Sun EnterpriseTM requieren el Grupo de software de Solaris completo más la compatibilidad con OEM.
adaptadores SCI-PCI - Para utilizar los adaptadores SCI-PCI, que están disponibles para su uso exclusivamente en clústeres basados en SPARC, o Interfaz de programación de la aplicación de memoria remota compartida (RSMAPI), asegúrese de que instala los paquetes de RSMAPI, es decir, SUNWrsm y SUNWrsmo, y para el SO Solaris 9 en plataformas basadas en SPARC también SUNWrsmx y SUNWrsmox. Los paquetes de software de RSMAPI se incluyen sólo en algunos grupos de software de Solaris. Por ejemplo, el Grupo de software de desarrolladores de Solaris contiene los paquetes de RSMAPI pero el Grupo de software de usuario final de Solaris no.
Si el grupo de software que instala no contiene los paquetes de RSMAPI, instálelos manualmente antes de instalar Sun Cluster. Utilice el comando pkgadd(1M) para instalar manualmente los paquetes de software. Consulte la Sección (3RSM) páginas de comando man para obtener información acerca de la utilización de RSMAPI.
Paquetes Solaris adicionales: cabe la posibilidad de que tenga que instalar otros paquetes de Solaris que no formen parte del Grupo de software Solaris para el usuario final. Los paquetes del servidor HTTP Apache son un ejemplo. Es posible que el software de otras empresas, como ORACLE®, requiera también paquetes de software adicionales de Solaris. Consulte la documentación que lo acompaña para obtener información sobre cualquier requisito de Solaris.
Para no tener que instalar manualmente los paquetes de Solaris, instale el grupo de distribución completa del software de Solaris más OEM.
Agregue esta información a la Plantilla para la disposición del sistema local de archivos que proceda.
Cuando instale el sistema operativo Solaris, cree las particiones requeridas por Sun Cluster y compruebe que todas ellas cumplan con los requisitos de espacio mínimo.
swap – La cantidad combinada de espacio de intercambio (swap) que se asigna para Solaris y Sun Cluster no debe ser inferior a 750 Mbytes. Si desea obtener mejores resultados, añada al menos 512 MB a Sun Cluster a la cantidad que necesita el sistema operativo Solaris. Además, asigne la cantidad de espacio de intercambio adicional que necesiten las aplicaciones que se deban ejecutar en el nodo del clúster.
Si crea un archivo swap adicional, no cree el archivo swap en un dispositivo global. Use solamente un disco local como dispositivo swap para el nodo.
/globaldevices – Cree un sistema de archivos de al menos 512 Mbytes que vaya a utilizar la utilidad scinstall(1M) para los dispositivos generales.
Gestor de volúmenes – cree una partición de 20 Mbytes en el segmento 7 para que la pueda utilizar el gestor de volúmenes. Si el clúster utiliza VERITAS Volume Manager (VxVM) y desea encapsular el disco raíz, debe contar con dos segmentos libres a disposición de VxVM.
Con el fin de cumplir con estos requisitos debe personalizar la partición si va a efectuar una instalación interactiva del sistema operativo Solaris.
Consulte las directrices siguientes para obtener información adicional sobre la planificación de la partición:
Al igual que ocurre con otro sistema que ejecute el sistema operativo Solaris, puede configurar la raíz (/) y los directorios /var, /usr y /opt como sistemas de archivos separados. También es posible incluir todos los directorios en el sistema de archivos raíz (/). A continuación se describe el contenido del software de la raíz (/) y de los directorios /var, /usr y /opt en una configuración de Sun Cluster. Tenga en cuenta esta información cuando planifique el esquema de la partición.
raíz (/): el software de Sun Cluster ocupa menos de 40 MB en el sistema de archivos raíz (/). Solaris Volume Manager requiere menos de 5 MB y VxVM necesita de 15 MB. Si desea configurar un amplio espacio adicional y la capacidad del nodo, añada al menos 100 MB al espacio que normalmente asignaría en el sistema de archivos raíz (/). Este espacio se utiliza para crear los dispositivos especiales de bloques y de caracteres utilizados por el software Volume Management. Concretamente necesita asignar este espacio extra si un gran número de discos compartidos está en el clúster.
/var: Sun Cluster ocupa un espacio insignificante en el sistema de archivos /var en el momento de la instalación. No obstante, se necesita separar un amplio espacio para los archivos de registro. Además, es posible que en un nodo de los clústeres se registren más mensajes de los que se encontrarían en un servidor autónomo normal. Por este motivo, permita al menos 100 MB en el sistema de archivos /var.
/usr: el software de Sun Cluster ocupa menos de 25 MB en el sistema de archivos /usr. Solaris Volume Manager y VxVM requieren cada uno menos de 15 MB.
/opt: el software de la estructura de Sun Cluster utiliza menos de 2 MB en el sistema de archivos /opt. No obstante, es posible que cada servicio de datos de Sun Cluster utilice entre 1 y 5 MB. El software de Solaris Volume Manager no utiliza ningún espacio en el sistema de archivos /opt. VxVM puede utilizar 40 MB si todos sus paquetes y herramientas se instalan.
Además, la mayoría del software de bases de datos y aplicaciones se instala en el sistema de archivos /opt.
SPARC: Si utiliza Sun Management Center para supervisar el clúster, necesita un espacio adicional de 25 MB en cada nodo para que se admita el agente Sun Management Center y los paquetes de módulos de Sun Cluster.
Sun Cluster requiere que se separe un sistema de archivos especial en uno de los discos locales para usarlo en la gestión de dispositivos generales. Este sistema de archivos se monta posteriormente como un sistema de archivos del clúster. Asigne a este archivo el nombre /globaldevices ya que así es reconocido de manera predeterminada por el comando scinstall(1M).
La orden scinstall vuelve a nominar posteriormente al sistema de archivos /global/.devices/node@id_nodo, donde id_nodo representa el número que se asigna a un nodo cuando se convierte en un miembro del clúster. Se elimina el punto de montaje original /globaldevices.
El sistema de archivos /globaldevices debe tener una amplia capacidad de espacio y de inodes para la creación de dispositivos especiales de bloques y de caracteres. Esta pauta es especialmente importante si hay un gran número de discos en el clúster. Un sistema de archivos de 512 MB debe ser suficiente para la mayoría de configuraciones de los clústeres.
Si utiliza el software Solaris Volume Manager, debe separar un segmento del disco raíz para usarlo en la creación de la réplica de la base de datos del estado. Concretamente, separe un segmento para este fin en cada disco local. Pero, si sólo dispone de un disco local en un nodo, puede que necesite crear tres réplicas de bases de datos del estado en el mismo segmento para que Solaris Volume Manager funcione adecuadamente. Consulte la documentación de Solaris Volume Manager si desea obtener más información.
Si utiliza VERITAS Volume Manager (VxVM) y desea encapsular el disco raíz, necesita tener dos segmentos libres a disposición de VxVM. Por otro lado, necesita espacio libre sin asignar extra al comienzo o al final del disco. Consulte la documentación de VxVM si desea obtener más información sobre la encapsulación del disco raíz.
La Tabla 1–2 muestra un esquema de partición para un nodo de clúster que tenga menos de 750 Mbytes de memoria física. Este esquema se debe instalar con el Grupo de software de usuario final de Solaris, Sun Cluster y el servicio de datos Sun Cluster HA para NFS. El último segmento del disco, el 7, se asigna con una pequeña cantidad de espacio para uso del gestor de volúmenes.
Esta distribución permite el uso del software Solaris Volume Manager o VxVM. Si utiliza el software Solaris Volume Manager, utilice el segmento 7 para la réplica de base de datos del estado. Si utiliza VxVM, libere posteriormente el segmento 7 asignando al segmento una longitud cero. Este diseño proporciona los dos segmentos libres necesarios, 4 y 7, así como espacio sin utilizar al final del disco.
Tabla 1–2 Ejemplo de asignación del sistema de archivos
Segmento |
Contenido |
Asignación de tamaño |
Descripción |
---|---|---|---|
0 |
/ |
6,75 GB |
Espacio libre que queda en el disco después de asignar espacio a los segmentos que van del 1 al 7. Utilizado para el sistema operativo Solaris, Sun Cluster, software de servicios de datos, software del gestor de volúmenes, paquetes del agente Sun Management Center y del agente del módulo de Sun Cluster, sistemas de archivos raíz, así como bases de datos y software de aplicaciones. |
1 |
swap |
1 GB |
512 MB para el sistema operativo Solaris. 512 MB para el software Sun Cluster. |
2 |
solapamiento |
8,43 GB |
Todo el disco. |
3 |
/globaldevices |
512 MB |
El software Sun Cluster asigna posteriormente a este segmento un punto de montaje diferente y lo monta como un sistema de archivos del clúster. |
4 |
sin utilizar |
- |
Disponible como segmento libre para encapsular el disco raíz en VxVM. |
5 |
sin utilizar |
- |
- |
6 |
sin utilizar |
- |
- |
7 |
gestor de volúmenes |
20 MB |
Utilizado por el software Solaris Volume Manager para la réplica de la base de datos del estado o por VxVM para la instalación después de liberar el segmento. |
Si desea obtener más información acerca de la finalidad y la función de zonas Solaris 10 en un clúster, consulte Support for Solaris Zones on Sun Cluster Nodes de Sun Cluster Concepts Guide for Solaris OS.
Tenga en cuenta los puntos siguientes a la hora de crear una zona no global de Solaris 10, conocida simplemente cono una zona, en un nodo del clúster.
Nombre de zona exclusivo: el nombre de zona debe ser exclusivo en el nodo. No especifique el mismo nombre en más de una zona del mismo nodo.
Reutilización de un nombre de zona en varios nodos: para simplificar la administración del clúster, puede utilizar el mismo nombre para una zona en cada nodo en el que se vayan a establecer en línea los grupos de recursos en esa zona.
Direcciones IP privadas: no intente utilizar más direcciones IP privadas de las que hay disponibles en el clúster.
Montajes: no incluya los montajes globales en las definiciones de zonas. Incluya sólo los montajes de realimentación.
Servicios de conmutación por error: en clústeres con varios nodos, el software de Sun Cluster le permite especificar diferentes zonas del mismo nodo en una lista de nodos del grupo de recursos de conmutación por error. Esto puede resultar de utilidad durante las pruebas. Si un sólo nodo aloja todos los nodos de la lista de nodos, éste se convierte en el único punto de fallo del grupo de recursos. Para obtener una mayor disponibilidad, las zonas de la lista de nodos del grupo de recursos de conmutación por error deben encontrarse en diferentes nodos.
En los clústeres con un sólo nodo, especificar varias zonas en una lista de nodos del grupo de recursos de conmutación por error no supone ningún riesgo operativo.
Servicios escalables: no cree zonas no globales para utilizarlas en un mismo servicio escalable ubicado en el mismo nodo. Cada instancia del servicio escalable debe ejecutarse en un nodo diferente del clúster.
LOFS : es necesario que se habilite el sistema de archivos de realimentación (LOFS) para las zonas de Solaris. Sin embargo, el servicio de datos Sun Cluster HA para NFS necesita que LOFS esté deshabilitado para evitar problemas de conmutación u otros fallos. Si configura las dos zonas no globales y Sun Cluster HA para NFS en el clúster, realice una de las siguientes acciones para evitar posibles problemas en el servicio de datos:
Deshabilite el daemon automountd.
Excluya de la asignación automounter todos los archivos que formen parte del sistema de archivos local de alta disponibilidad exportado por Sun Cluster HA para NFS.
Este apartado proporciona directrices para planificar y preparar los componentes siguientes para la instalación y configuración de Sun Cluster:
Para obtener una información detallada sobre los componentes de Sun Cluster, consulte la Sun Cluster Overview for Solaris OS y la Sun Cluster Concepts Guide for Solaris OS.
Compruebe que disponga de todos los certificados de licencias necesarios antes de comenzar con la instalación del software. Sun Cluster no requiere un certificado de licencia, pero cada nodo instalado con Sun Cluster debe estar cubierto por el acuerdo de licencia del software Sun Cluster.
Para conocer los requisitos de licencia del software del gestor de volúmenes y de las aplicaciones consulte la documentación para la instalación de estos productos.
Tras instalar cada producto de software también debe instalar los parches necesarios.
Para obtener información acerca de los parches actualmente necesarios, consulte Revisiones y firmware requeridos de Notas de la versión de Sun Cluster 3.2 para el SO Solaris o consulte con su proveedor de servicios Sun.
Para conocer las directrices generales y los procedimientos para aplicar los parches, consulte el Capítulo 10, Patching Sun Cluster Software and Firmware de Sun Cluster System Administration Guide for Solaris OS.
Para obtener información acerca del uso de redes públicas por parte del clúster, consulte Public Network Adapters and Internet Protocol (IP) Network Multipathing de Sun Cluster Concepts Guide for Solaris OS.
Debe configurar varias direcciones IP de red pública para los diferentes componentes de Sun Cluster, en función de la configuración del clúster. ya que cada nodo de ésta debe tener al menos una conexión de red pública con el mismo conjunto de subredes públicas.
La siguiente tabla enumera los componentes que necesitan recibir la asignación de direcciones IP de red públicas. Agregue la dirección IP a las siguientes ubicaciones:
Cualquier servicio de designación que se utilice
El archivo /etc/inet/hosts local en cada nodo del clúster después de instalar el software de Solaris
Para Solaris 10, el archivo /etc/inet/ipnodes local en cada nodo del clúster, tras instalar el software Solaris
Componente |
Número de direcciones IP necesarias |
---|---|
1 dirección IP por subred. |
|
Nodos del clúster |
1 dirección IP por nodo, por subred. |
1 dirección IP por dominio. |
|
(opcional) Zonas no globales |
1 dirección IP por subred. |
1 dirección IP. |
|
Direcciones lógicas |
1 dirección IP por recurso de host lógico, por subred. |
Servidor de quórum |
1 dirección IP. |
Para obtener más información acerca de la planificación de las direcciones IP, consulte System Administration Guide: IP Services (Solaris 9 o Solaris 10).
Es necesario que disponga de acceso a la consola para todos los nodos del clúster. Si instala el software Cluster Control Panel en la consola de administración debe proporcionar el nombre del sistema y el número de puerto del dispositivo de acceso a la consola que se utiliza para comunicarse con los nodos del clúster.
Se utiliza un concentrador del terminal para que se puedan comunicar la consola de administración y las consolas de los nodos del clúster.
Un servidor Sun Enterprise 10000 utiliza un procesador de servicios del sistema (SSP, System Service Processor) en lugar de un concentrador del terminal.
Un servidor Sun Fire utiliza un controlador del sistema en lugar de un concentrador del terminal.
Si desea más información sobre el acceso a las consolas, consulte Sun Cluster Concepts Guide for Solaris OS.
Alternativamente, si conecta una consola administrativa directamente a nodos del clúster o a través de una red de gestión, proporcione el nombre de host de cada uno de los nodos del clúster y el número de puerto serie que se utiliza para conectar a la consola administrativa o a la red de gestión.
Cada grupo de recursos de servicios de datos que utilice una dirección lógica debe tener un nombre del sistema especificado para cada red pública desde la que se puede acceder a la dirección lógica.
Para obtener más información, consulte la Sun Cluster Data Services Planning and Administration Guide for Solaris OS. Para obtener información adicional acerca de los servicios de datos y los recursos, consulte también Sun Cluster Overview for Solaris OS y Sun Cluster Concepts Guide for Solaris OS.
Las redes públicas se comunican fuera del clúster. Considere los puntos siguientes cuando planifique la configuración de una red pública.
Separación de red pública y red privada - Las redes públicas y la red privada (interconexión del clúster) deben utilizar adaptadores independientes, o debe configurar VLAN etiquetadas en adaptadores y conmutadores con capacidades VLAN para utilizar el mismo adaptador con la interconexión privada y con la red pública.
Mínimo - Todos los nodos del clúster deben estar conectados al menos a una red pública. Las conexiones a redes públicas pueden utilizar diferentes subredes para nodos diferentes.
Máximo - Puede tener todas las conexiones a redes públicas adicionales que permita su configuración de hardware.
Servicios escalables: todos los nodos que ejecuten un servicio escalable deben utilizar la misma subred o conjunto de subredes o utilizar diferentes subredes que puedan enrutarse entre sí.
IPv4: Sun Cluster admite direcciones IPv4 en la red pública.
IPv6: Sun Cluster es compatible con direcciones IPv6 en la red pública si se dan las siguientes condiciones o restricciones:
El software de Sun Cluster no es compatible con las direcciones IPv6 de la red pública si la interconexión privada utiliza adaptadores SCI.
Sun Cluster admite las direcciones IPv6 tanto para los servicios de datos escalables como de recuperación tras error.
grupos IPMP: los adaptadores de red pública utilizados para el tráfico del servicio de datos deben pertenecer a un grupo de Ruta múltiple de red IP (IPMP). Si no se utiliza un adaptador de red público para el tráfico del servicio de datos, no es necesario que lo configure en un grupo de IPMP.
En la versión 3.2 de Sun Cluster, la utilidad scinstall ya no configura automáticamente un grupo de IPMP con un único adaptador en cada adaptador de red pública desconfigurado durante la creación de Sun Cluster. En su lugar, la utilidad scinstall configura automáticamente un grupo de IPMP de varios adaptadores para cada conjunto de adaptadores de la red pública en el clúster que utiliza la misma subred. En el SO Solaris 10, estos grupos están basados en sondeos. Sin embargo, la utilidad scinstall ignora los adaptadores que ya se encuentran configurados en un grupo de IPMP. Si alguno de los adaptadores de un grupo de IPMP que la utilidad scinstall configura no va a utilizarse para tráfico de servicio de datos, puede quitar dicho adaptador del grupo.
Si desea obtener instrucciones y directrices para configurar grupos de IPMP, siga los procedimientos descritos en Parte VI, IPMP de System Administration Guide: IP Services. Para modificar los grupos de IPMP tras la instalación del clúster, siga las directrices de How to Administer IP Network Multipathing Groups in a Cluster de Sun Cluster System Administration Guide for Solaris OS y los procedimientos de Administering IPMP (Tasks) en System Administration Guide: IP Services (Solaris 9 o Solaris 10).
Compatibilidad con direcciones MAC locales - Todos los adaptadores de red pública deben utilizar tarjetas de interfaz de red (NIC) que permitan la asignación de direcciones MAC locales. La asignación de direcciones MAC locales es un requisito de IPMP.
ajuste local-mac-address : la variable local-mac-address? debe utilizar el valor predeterminado true para los adaptadores Ethernet. Sun Cluster no es compatible con el valor false de local-mac-address? en los adaptadores Ethernet. Este requisito es un cambio con respecto a Sun Cluster 3.0 que necesitaba el valor false en local-mac-address?.
Si desea obtener más información sobre las interfaces de red pública, consulte Sun Cluster Concepts Guide for Solaris OS.
Tenga en cuenta los siguientes puntos cuando planifique utilizar el sistema de archivos de red (NFS) en una configuración Sun Cluster.
Cliente NFS: ningún nodo de Sun Cluster puede ser un cliente NFS de un sistema de archivos exportado de Sun Cluster HA para NFS que se esté supervisando en un nodo del mismo clúster. Un montaje cruzado de Sun Cluster HA para NFS de este tipo no se puede llevar a cabo. Utilice el sistema de archivos del clúster para compartir los archivos entre los nodos del clúster.
Protocolo NFSv3: si está montando sistemas de archivos en los nodos del clúster desde servidores NFS externos, como por ejemplo archivadores NAS, y está utilizando el protocolo NFSv3, no podrá ejecutar montajes de cliente NFS ni los servicios de datos de Sun Cluster HA para NFS del mismo nodo del clúster. Si lo hace, determinadas actividades del servicio de datos de Sun Cluster HA para NFS podrían provocar que los daemons NFS se detengan y reinicien, interrumpiendo los servicios NFS. Sin embargo, puede ejecutar de forma segura el servicio de datos de Sun Cluster HA para NFS si utiliza el protocolo NFSv4 para montar sistemas de archivos NFS externos en los nodos del clúster.
Bloqueo: las aplicaciones que se ejecuten de manera local en el clúster no deben bloquear los archivos en un sistema de archivos exportados a través de NFS. De lo contrario, un bloqueo local (por ejemplo, flock(3UCB) o fcntl(2)) podría interferir en la capacidad para reiniciar el bloqueo del administrador (lockd(1M)). Durante el reinicio se puede garantizar, al proceso de bloqueo local, un bloqueo que puede estar pensado para que un cliente remoto lo solicite. Esto provocaría un comportamiento impredecible.
Funciones de seguridad de NFS: Sun Cluster no admite las siguientes opciones del comando share_nfs(1M):
secure
sec=dh
Sin embargo, el software de Sun Cluster sí admite las siguientes funciones de seguridad para NFS:
El uso de puertos seguros para NFS. Los puertos seguros para NFS se habilitan agregando el conjunto de entradas nfssrv:nfs_portmon=1 al archivo /etc/system en los nodos del clúster.
El uso de Kerberos con NFS. Para obtener más información, consulte Securing Sun Cluster HA for NFS With Kerberos V5 de Sun Cluster Data Service for NFS Guide for Solaris OS.
Tenga en cuenta las siguientes restricciones de servicio de las configuraciones de Sun Cluster:
Enrutadores: No configure los nodos del clúster como enrutadores (puertas de enlace). ya que si el sistema se apaga, como los clientes no pueden buscar un encaminamiento alternativo no se pueden recuperar.
servidores NIS+: no configure los nodos del clúster como servidores NIS o NIS+. No hay servicio de datos disponible para NIS o NIS+. No obstante los nodos del clúster pueden ser clientes de NIS o NIS+.
Servidores de arranque e instalación: no utilice una configuración de Sun Cluster para proporcionar un servicio de arranque o instalación de alta disponibilidad en los sistemas cliente.
RARP - No utilice una configuración de Sun Cluster para proporcionar un servicio rarpd.
números de programa RPC - Si instala un servicio RPC en el clúster, el servicio no debe utilizar ninguno de los siguientes números de programa:
100141
100142
100248
ya que están reservados para los daemons de Sun Cluster rgmd_receptionist, fed y pmfd, respectivamente.
Si el servicio RPC que instale también utiliza uno de estos números de programas, deberá cambiar el servicio para que utilice un número de programa diferente.
Clases de programación - Sun Cluster no admite la ejecución de clases de programación de procesos de alta prioridad en los nodos del clúster. No ejecute ninguno de los siguientes tipos de procesos en los nodos de clúster:
Los procesos que se ejecutan en la clase de programación de tiempo compartido con alta prioridad
Procesos que se ejecutan en la clase de programación en tiempo real
Sun Cluster se basa en los subprocesos del núcleo que no se ejecutan en la clase de programación en tiempo real. Otros procesos de compartición del tiempo que se ejecutan con una prioridad más alta de la normal o procesos en tiempo real pueden evitar que los subprocesos del núcleo de Sun Cluster adquieran los ciclos necesarios para la CPU.
Este apartado proporciona directrices para la configuración de los componentes siguientes de Sun Cluster:
Agregue esta información a la plantilla de planificación de configuración adecuada.
Especifique un nombre para el clúster durante la configuración de Sun Cluster; el nombre debe ser exclusivo en toda la empresa.
El nombre del nodo del clúster es el mismo nombre que se asigna al equipo al instalarlo con el SO Solaris. Consulte la página de comando hosts(4) para obtener información acerca de los requisitos de asignación de nombres.
En las instalaciones de clústeres de un único nodo, el nombre del clúster predeterminado es el nombre del nodo.
Durante la configuración de Sun Cluster, especifique los nombres de todos los nodos que va a instalar en el clúster.
En el SO Solaris 10, utilice la siguiente convención de asignación de nombres nodename:zonename para especificar una zona no global a un comando de Sun Cluster.
El nodename es el nombre del nodo del clúster.
zonename es el nombre que asigna a la zona no global al crear la zona en el nodo. El nombre de la zona debe ser exclusivo en el nodo. Sin embargo, puede utilizar el mismo nombre de zona en nodos diferentes, debido a que el nombre de nodo diferente de nodename:zonename hace que el nombre de zona no global completa sea exclusivo en todo el clúster.
Para especificar la zona global sólo es necesario que especifique el nombre del nodo.
No necesita configurar una red privada para un clúster de un único nodo. La utilidad scinstall asigna automáticamente la dirección de red privada y la máscara de red predeterminadas, incluso a pesar de que el clúster no utilice una red privada.
Sun Cluster utiliza la red privada para la comunicación interna entre nodos y entre zonas no globales gestionadas por Sun Cluster. Una configuración de Sun Cluster necesita al menos dos conexiones con la interconexión del clúster en la red privada. A la hora de configurar Sun Cluster en el primer nodo del clúster, debe especificar la dirección y la máscara de red de la red privada de una de las siguientes formas:
Aceptar la dirección de red privada predeterminada (172.16.0.0) y la máscara de red (255.255.248.0). Este intervalo de direcciones IP permite un máximo combinado de 64 nodos y zonas no globales, y un máximo de 10 redes privadas.
El número máximo de nodos que puede admitir un intervalo de direcciones IP no refleja el número máximo de nodos que puede admitir la configuración de hardware.
Especificar una dirección de red privada permisible diferente y aceptar la máscara de red predeterminada.
Aceptar la dirección de red privada predeterminada y especificar una máscara de red diferente.
Especificar tanto una dirección de red privada diferente como una máscara de red diferente.
Si elige especificar una máscara de red diferente, la utilidad scinstall le pedirá el número de nodos y el número de redes privadas que desea que admita el intervalo de direcciones IP. El número de nodos que especifique debe incluir también el número de zonas no globales que tiene pensado que utilizará la red privada.
La utilidad calcula la máscara de red del intervalo de direcciones IP mínima que admitirá el número de nodos y redes privadas que especificó. La máscara de red calculada podría admitir un número superior al número de nodos suministrados, incluyendo zonas no globales y redes privadas. La utilidad scinstall calcula también una segunda máscara de red que sería la mínima para admitir el doble del número de nodos y redes privadas. Esta segunda máscara de red habilitaría el clúster para que pudiera dar cabida a un futuro crecimiento sin la necesidad de volver a configurar el intervalo de direcciones IP.
A continuación, la utilidad le preguntará qué máscara de red desea seleccionar. Puede especificar una de las máscaras de red calculadas o proporcionar una diferente. La máscara de red que especifique debe admitir como mínimo el número de nodos y redes privadas que especificó a la utilidad.
Para cambiar la dirección de la red privada y la máscara de red una vez establecido el clúster, consulte How to Change the Private Network Address or Address Range of an Existing Cluster de Sun Cluster System Administration Guide for Solaris OS. Para realizar estos cambios debe desactivar el clúster.
Para admitir el cambio del intervalo de direcciones IP privadas del clúster podría ser necesario admitir la adición de nodos, zonas no globales, o redes privadas.
Si especifica una dirección de red privada diferente de la predeterminada, la dirección debe cumplir con los siguientes requisitos:
Tamaños de la dirección y la máscara de red: la dirección de la red privada no puede ser menor que la máscara de red. Por ejemplo, puede utilizar la dirección de red privada 172.16.10.0 con una máscara de red 255.255.255.0. Pero no puede utilizar una dirección de red privada 172.16.10.0 con la máscara de red 255.255.0.0.
Direcciones aceptables: la dirección debe estar dentro del bloque de direcciones que RFC 1918 reserva para utilizarla en redes privadas. Puede ponerse en contacto con InterNIC para obtener copias de RFC o ver RFC en línea en http://www.rfcs.org.
Uso en múltiples clústeres: puede utilizar la misma dirección de red privada en más de un clúster. Las direcciones IP de red privada no son accesibles desde fuera del clúster.
IPv6: Sun Cluster no admite direcciones IPv6 para la interconexión privada. El sistema configura direcciones IPv6 en los adaptadores de red privada para que se admitan servicios escalables que usen direcciones IPv6. Pero la comunicación entre los nodos en la red privada no usa estas direcciones IPv6.
Consulte Planning Your TCP/IP Network (Tasks), en System Administration Guide: IP Services (Solaris 9 o Solaris 10) para obtener más información acerca de las redes privadas.
El nombre del sistema privado es el que se utiliza para la comunicación entre los nodos en la interfaz de red privada. Los nombres del sistema privado se crean automáticamente durante la configuración de Sun Cluster; siguen la convención de nombres clusternodeid_nodo -priv, donde id_nodo es el numeral del ID del nodo interno, el cual, durante la configuración de Sun Cluster, se asigna automáticamente a cada nodo cuando éste se convierte en miembro del clúster. Una vez configurado el clúster, puede cambiar el nombre de los nombres de host privados mediante la utilidad clsetup(1CL).
Para el SO Solaris 10, la creación de un nombre de host privado para una zona no global es opcional. No hay ninguna convención de asignación de nombres obligatoria para el nombre de host privado de una zona no global.
Las interconexiones del clúster proporcionan rutas del hardware para la comunicación de redes privadas entre los nodos del clúster. Cada interconexión consta de un cable que se conecta de uno de los siguientes modos:
Entre dos adaptadores de transporte
Entre un adaptador de transporte y un conmutador de transporte
Si desea obtener más información acerca de la finalidad y la función de la interconexión del clúster, consulte Cluster Interconnect de Sun Cluster Concepts Guide for Solaris OS.
No necesita configurar una interconexión del clúster en un clúster de un único nodo. No obstante, si anticipa eventualmente la adición de nodos a la configuración del clúster de un único nodo, puede que desee configurar la interconexión del clúster para usos posteriores.
Durante la configuración de Sun Cluster, especifique la información de configuración para una o dos interconexiones de clúster.
El uso de dos interconexiones de clúster proporciona una mayor disponibilidad que una interconexión. Si el número de puertos de adaptador disponibles es limitado, puede utilizar VLAN etiquetadas para compartir el mismo adaptador con la red pública y privada. Para obtener más información, consulte las directrices para adaptadores de VLAN etiquetadas en Adaptadores de transporte.
La utilización de una interconexión de clúster reduce el número de puertos de adaptador que se utilizan para la interconexión privada pero proporciona una menor disponibilidad. Además, el clúster empleará más tiempo en la recuperación automática si se produce un error en la interconexión privada.
Es posible configurar interconexiones de red privada adicionales una vez establecido el clúster mediante la utilidad clsetup(1CL).
Para obtener directrices acerca del hardware de interconexión del clúster, consulte Interconnect Requirements and Restrictions de Sun Cluster 3.1 - 3.2 Hardware Administration Manual for Solaris OS. Para obtener información general acerca de la interconexión del clúster, consulte Cluster-Interconnect Components de Sun Cluster Overview for Solaris OS y Sun Cluster Concepts Guide for Solaris OS.
En los adaptadores de transporte, como, por ejemplo, los puertos en las interfaces de red, especifique los nombres de los adaptadores de transporte y el tipo de transporte. Si la configuración es un clúster de dos nodos, especifique también si su interconexión es directa (de adaptador a adaptador) o si usa un conmutador de transporte.
Considere las siguientes directrices y restricciones:
IPv6: Sun Cluster no admite comunicaciones IPv6 a través de las interconexiones privadas.
Asignación de direcciones MAC: todos los adaptadores de red privada deben usar tarjetas de interfaz de red (NIC) que admitan las asignaciones de direcciones MAC locales. Las direcciones IPv6 de vínculo local (que se requieren en los adaptadores de red privados para que admitan direcciones de red públicas IPv6), se obtienen a partir de las direcciones MAC locales.
Adaptadores VLAN etiquetados – Sun Cluster admite Redes de área local virtuales (VLAN) etiquetadas para compartir un adaptador entre la interconexión del clúster privada y la red pública. Para configurar un adaptador VLAN con etiquetas para la interconexión del clúster, especifique el nombre del adaptador y el ID de VLAN (VID) de una de las siguientes formas:
Especifique el nombre habitual del adaptador, que es el nombre del dispositivo más el número de instancia o el punto físico de anexión (PPA). Por ejemplo, el nombre de la instancia 2 de un adaptador Cassini Gigabit Ethernet sería ce2. Si la utilidad scinstall pregunta si el adaptador forma parte de una red LAN virtual, responda afirmativamente (yes) e indique el número VID del adaptador.
Especifique el adaptador usando su nombre de dispositivo virtual VLAN. Este nombre consta del nombre del adaptador más el número de instancia VLAN. El número de instancia VLAN se obtiene de la fórmula (1000*V)+N, donde V es el número VID y N es el PPA.
Como ejemplo, para VID 73 en el adaptador ce2, el número de instancia VLAN podría calcularse como (1000*73)+2. Por lo tanto especificará el nombre del adaptador como ce73002 para indicar que es parte de una LAN virtual compartida.
Para obtener información acerca de la configuración de la VLAN en un clúster, consulte Configuring VLANs as Private Interconnect Networks de Sun Cluster 3.1 - 3.2 Hardware Administration Manual for Solaris OS. Para obtener información general acerca de VLAN, consulte Solaris 9 9/05 Sun Hardware Platform Guide.
Adaptadores SBus SCI – La interfaz coherente escalable (SCI, Scalable Coherent Interface) SBus no es compatible como interconexión de clúster. Sin embargo, se admite la interfaz SCI-PCI.
Interfaces lógicas de red: las interfaces lógicas de red están reservadas para utilizarse con Sun Cluster.
Consulte la familia scconf_trans_adap_*(1M) de páginas de comando man para obtener información sobre un adaptador de transporte específico.
Si utiliza conmutadores de transporte, como por ejemplo un conmutador de red, especifique un nombre de conmutador de transporte para cada interconexión. Puede utilizar el nombre predeterminado switchN, donde N es un número que se asigna automáticamente durante la configuración, o crear otro nombre.
Especifique también el nombre del puerto del conmutador o acepte el nombre predeterminado. que es el mismo que el número identificador del nodo interno del nodo que aloja el extremo adaptador del cable. No obstante, ciertos tipos de adaptador, como SCI-PCI, no permiten utilizar el nombre de puerto predeterminado.
Los clústeres con tres nodos o más deben utilizar conmutadores de transporte. La conexión directa entre los nodos de los clústers sólo se admite en clústers de dos nodos.
En el primer caso, aún puede especificar un conmutador de transporte para la interconexión.
Si especifica un conmutador de transporte, puede añadir más fácilmente otro nodo al clúster, posteriormente.
Las configuraciones de Sun Cluster usan dispositivos del quórum para mantener la integridad de los datos y de los recursos. Si el clúster pierde temporalmente la conexión con un nodo el dispositivo del quórum evita los problemas de amnesia o de esquizofrenia cuando el nodo intenta unirse de nuevo al clúster. Para obtener más información acerca de la finalidad y la función de los dispositivos del quórum, consulte Quorum and Quorum Devices de Sun Cluster Concepts Guide for Solaris OS.
Durante la instalación de Sun Cluster de un nodo de dos clústeres, puede elegir permitir a la utilidad scinstall que configure automáticamente un dispositivo de quórum SCSI. El dispositivo del quórum se elige de entre los discos SCSI de almacenamiento compartido. La utilidad scinstall da por hecho que todos los discos de almacenamiento SCSI compartido disponibles son aptos para convertirse en dispositivos del quórum.
Si desea utilizar un servidor del quórum o un dispositivo de red NAS como dispositivo del quórum, configúrelo una vez haya finalizado el procesamiento de scinstall.
Tras la instalación puede también configurar dispositivos del quórum adicionales empleando la utilidad clsetup(1CL).
No es necesario configurar los dispositivos del quórum en un clúster de un sólo nodo.
Si la configuración del clúster incluye dispositivos de almacenamiento de terceros que no se puedan utilizar como dispositivos del quórum, deberá emplear la utilidad clsetup para configurar el quórum manualmente.
Tenga en cuenta los puntos siguientes cuando planifique los dispositivos del quórum.
Mínimo –: un clúster de dos nodos debe tener como mínimo un dispositivo del quórum, que puede ser un disco SCSI compartido, un servidor del quórum o un dispositivo de red NAS. En otras topologías los dispositivos del quórum son opcionales.
Regla del número impar: si se configura más de un dispositivo del quórum en un clúster de dos nodos o en un par de nodos conectados directamente con el dispositivo del quórum, configure un número impar de dispositivos del quórum. Así se asegura de que los dispositivos del quórum tengan rutas de error completamente independientes.
Distribución de los votos del quórum: para ofrecer la mayor disponibilidad del quórum posible, asegúrese de que el número total de votos con los que contribuyen los dispositivos del quórum es menor que el número de votos con el que contribuyen los nodos. En caso contrario, los nodos no pueden formar un clúster si todos los discos no están disponibles, incluso si todos los nodos están funcionando.
Conexión – Debe conectar un dispositivo del quórum al menos a dos nodos.
protocolo fencing SCSI – al configurar un dispositivo SCSI del quórum, su protocolo SCSI se configura automáticamente en SCSI-2 en un clúster de dos nodos o como SCSI-3 en clústeres con tres o más nodos. Tras configurar un dispositivo como dispositivo del quórum no podrá cambiar el protocolo SCSI del mismo.
Dispositivos replicados – Sun Cluster no admite dispositivos replicados como dispositivos del quórum.
Conjuntos de almacenamiento ZFS: no agregue un dispositivo del quórum configurado a un conjunto de almacenamiento Zettabyte File System (ZFS). Cuando se agrega un dispositivo del quórum configurado a un conjunto de almacenamiento ZFS se cambia la etiqueta del disco para etiquetarlo como disco EFI y se pierde la información de configuración del quórum. A partir de entonces el disco no podrá proporcionar un voto del quórum al clúster.
Una vez se encuentre un disco en un conjunto de almacenamiento, podrá configurarlo como dispositivo del quórum. O puede desconfigurar el dispositivo del quórum, añadirlo al conjunto de almacenamiento y, a continuación, reconfigurar el disco como dispositivo del quórum.
Para obtener más información acerca de los dispositivos del quórum, consulte Quorum and Quorum Devices de Sun Cluster Concepts Guide for Solaris OS y Quorum Devices de Sun Cluster Overview for Solaris OS.
Este apartado proporciona las pautas siguientes para planificar los dispositivos generales y para planificar los sistemas de archivos del clúster:
Elección de opciones de montaje para sistemas de archivos del clúster
Información de montaje para los sistemas de archivos del clúster
Para obtener información acerca de la finalidad y la función de los dispositivos globales, consulte Devices de Sun Cluster Overview for Solaris OS y Global Devices de Sun Cluster Concepts Guide for Solaris OS.
Sun Cluster no necesita ningún diseño del disco ni ningún tamaño del sistema de archivos específicos. Tenga en cuenta los siguientes puntos a la hora de planificar el diseño de los dispositivos globales.
Duplicación: debe duplicar todos los dispositivos globales para que el dispositivo en cuestión pueda considerarse de alta disponibilidad. No necesita utilizar la duplicación del software si el dispositivo de almacenamiento proporciona RAID del hardware así como rutas redundantes a los discos.
Discos: cuando efectúe una duplicación, distribuya los sistemas de archivos de manera que se dupliquen mediante las matrices de los discos.
Disponibilidad: debe conectar físicamente un dispositivo global a más de un nodo del clúster para que se considere de alta disponibilidad. Un dispositivo general con varias conexiones físicas pueden tolerar un fallo de un único nodo. Se admite un dispositivo general con una sola conexión física pero el dispositivo general se vuelve inaccesible desde otros nodos si el nodo que tiene la conexión se apaga.
Dispositivos de intercambio: no cree un archivo de intercambio en un dispositivo global.
Zonas no globales: no es posible acceder directamente a los dispositivos globales desde una zona no global. Desde una zona no global sólo es posible acceder a los datos del sistema de archivos del clúster.
Para obtener información acerca de la finalidad y la función de los grupos de dispositivos, consulte Devices de Sun Cluster Overview for Solaris OS y Device Groups de Sun Cluster Concepts Guide for Solaris OS.
Agregar esta información de planificación a Plantilla para las configuraciones de los grupos de dispositivos.
Tenga en cuenta estos puntos cuando planifique los grupos de dispositivos.
A prueba fallos: puede configurar los discos con varios hosts y dispositivos gestores de volúmenes configurados correctamente como dispositivos a prueba de fallos. La configuración adecuada de un dispositivo del gestor de volúmenes contiene discos de host múltiple y la configuración correcta del propio gestor de volúmenes, lo que asegura que varios nodos puedan alojar el dispositivo exportado. No puede configurar las unidades de cinta, los CD-ROM, DVD-ROM ni los dispositivos con un solo puerto como dispositivos a prueba de fallos.
Duplicación: debe duplicar los discos para proteger los datos ante posibles fallos en el disco. Consulte Directrices para la duplicación para obtener directrices adicionales. Consulte configuración de Solaris Volume Manager o Instalación y configuración del software de VxVM y la documentación de su gestor de volúmenes para obtener instrucciones acerca de la duplicación.
Replicación basada en almacenamiento: los discos de un grupo de dispositivos deben estar todos replicados o ninguno replicado. Un grupo de dispositivos no puede utilizar una mezcla de discos replicados y discos no replicados.
Para obtener más información acerca de la finalidad y la función de los sistemas de archivos del clúster, consulte Cluster File Systems de Sun Cluster Overview for Solaris OS y Cluster File Systems de Sun Cluster Concepts Guide for Solaris OS.
Opcionalmente puede configurar sistemas de archivos locales de alta disponibilidad. De esta forma se puede ofrecer mejor rendimiento para dar soporte a un servicio de datos con altos niveles de E/S, o permitir el uso de determinadas características del sistema de archivos que no se permiten en un sistema de archivos del clúster. Para obtener más información, consulte Enabling Highly Available Local File Systems de Sun Cluster Data Services Planning and Administration Guide for Solaris OS.
Tenga en cuenta los aspectos siguientes cuando planifique los sistemas de archivos del clúster.
Cuotas: en los sistemas de archivos del clúster no se permiten las cuotas. Sin embargo, las cuotas se admiten en los sistemas de archivos locales con alta disponibilidad.
Zonas no globales: si va a accederse a un sistema de archivos de clúster desde una zona no global, debe montarse en primer lugar en la zona global. Posteriormente el sistema de archivos de clúster se montará en la zona no global utilizando un montaje en bucle. Por lo tanto, debe habilitarse el sistema de archivos loopback (LOFS) en un clúster que contenga zonas no globales.
1334 ZonesSistema de archivos loopback (LOFS): durante la creación del clúster con la versión Solaris 9 de Sun Cluster, el LOFS está deshabilitado de forma predeterminada. Durante la creación del clúster con la versión Solaris 10 de Sun Cluster, LOFS está habilitado de forma predeterminada.
Deberá deshabilitar manualmente LOFS en cada uno de los nodos del clúster si el clúster cumple las dos condiciones siguientes:
Sun Cluster HA para NFS está configurado en un sistema de archivos local de alta disponibilidad.
Se está ejecutando el daemon automountd.
Si el clúster satisface las dos condiciones, debe deshabilitar LOFS para evitar problemas de conmutación u otro tipo de fallos: Si el clúster cumple sólo con una de estas condiciones, podrá habilitar de forma segura LOFS.
Si es necesario habilitar tanto un LOFS como el daemon automountd, excluya de la asignación de montaje automático todos los archivos que formen parte del sistema de archivos local de alta disponibilidad exportado por Sun Cluster HA para NFS.
Archivos de registro de contabilidad del proceso: no coloque archivos de registro de contabilidad del proceso en un sistema de archivos del clúster ni en un sistema de archivos local de alta disponibilidad. Puede que haya conmutadores que estén bloqueados para escribir en el archivo de registro, lo que causaría el bloqueo del nodo. Utilice sólo un sistema de archivos local para que contenga los archivos de registro de contabilidad del proceso.
Puntos finales de comunicación: el sistema de archivos del clúster no admite ninguna de las características de sistemas de archivos de Solaris por las cuales se colocaría un punto final de comunicación en el espacio de nombres del sistema de archivos.
Por este motivo, aunque cree un zócalo para el dominio de UNIX cuyo nombre sea una ruta del sistema de archivos del clúster, el zócalo no sobrevivirá a una anomalía de un nodo.
No se podrá acceder globalmente a ningún FIFO o tubos con nombres que cree en un sistema de archivos de clúster.
Por tanto, no intente utilizar el comando fattach desde ningún nodo distinto al nodo local.
Archivos especiales del dispositivo: en un sistema de archivos de clúster no se admiten archivos especiales de bloque ni archivos especiales de carácter. Para especificar un nombre de ruta a un nodo del dispositivo de un sistema de archivos de clúster, cree un enlace simbólico al nombre de dispositivo en el directorio /dev. No utilice el comando mknod con esta finalidad.
atime: los sistemas de archivos de clúster no mantienen atime.
ctime: al acceder a un archivo del sistema de archivos del clúster, la actualización del ctime del archivo podría retrasarse.
Instalación de aplicaciones: si desea que los binarios de una aplicación con alta disponibilidad residan en un sistema de archivos de clúster, espere a instalar la aplicación hasta después de que el sistema de archivos de clúster esté configurado. Asimismo, si la aplicación se instala mediante el programa installer de Sun Java System y la aplicación depende de cualquier componente compartido, instale estos componentes compartidos en todos los nodos del clúster que no se instalen con la aplicación.
Esta sección describe los requisitos y restricciones de los siguientes tipos de sistemas de archivos de clúster:
Opcionalmente, puede configurar estos y otros tipos de sistemas de archivos como sistemas de archivos locales de alta disponibilidad. Para obtener más información, consulte Enabling Highly Available Local File Systems de Sun Cluster Data Services Planning and Administration Guide for Solaris OS.
Siga estas directrices para determinar qué opciones de montaje debe utilizar al crear sus sistemas de archivos de clúster.
Consulte la página de comando manmount_ufs(1M) para obtener más información sobre las opciones de montaje UFS.
Opción de montaje |
Sintaxis |
Descripción |
---|---|---|
global |
Necesario |
Esta opción hace que el sistema de archivos sea visible para todos los nodos del clúster. |
log |
Necesario |
Esta opción habilita el registro. |
Consulte la página de comando man VxFS mount_vxfs y Overview of the Administering Cluster File Systems de Sun Cluster System Administration Guide for Solaris OS para obtener más información acerca de las opciones de montaje de VxFS.
Tenga en cuenta los aspectos siguientes cuando planifique los puntos de montaje de los sistemas de archivos del clúster.
Ubicación del punto de montaje: cree puntos de montaje para los sistemas de archivos del clúster en el directorio /global, a menos que no lo permitan otros productos de software. Gracias a este directorio, puede distinguir más fácilmente los sistemas de archivos del clúster, completamente disponibles, de los sistemas de archivos locales.
SPARC: requisitos de montaje de VxFS – si utiliza VERITAS File System (VxFS), monte y desmonte globalmente un sistema de archivos VxFS desde el nodo principal. Éste es el nodo que controla el disco en el que se encuentra el sistema de archivos de VxFS. Este método asegura que la operación de montaje o desmontaje se efectúe satisfactoriamente. Es posible que se produzcan errores en una operación de montaje o desmontaje del sistema de archivos de VxFS que se ejecute desde un nodo secundario.
Las siguientes funciones VxFS no se admiten en un sistema de archivos del clúster de Sun Cluster 3.2. Sin embargo, se admiten en un sistema de archivos local.
E/S rápida
Capturas
Puntos de comprobación de almacenamiento
Opciones de montaje específicas de VxFS:
convosync (Convertir O_SYNC)
mincache
qlog, delaylog, tmplog
Sistema de archivos de clúster VERITAS (requiere la función de clúster VxVM & VERITAS Cluster Server)
Es posible utilizar asesorías de caché, pero el efecto se observa únicamente en el nodo especificado.
Todas las demás opciones y funciones de VxFS admitidas en un sistema de archivos del clúster son compatibles con el software de Sun Cluster 3.2. Consulte la documentación de VxFS para obtener información sobre las opciones de VxFS que se admiten en la configuración del clúster.
Anidación de puntos de montaje – Normalmente, no debe anidar los puntos de montaje en los sistemas de archivos del clúster. Por ejemplo, no configure un sistema de archivos que esté montado en /global/a y otro sistema de archivos que esté montado en /global/a/b. Si hace caso omiso de esta regla puede provocar problemas en la disponibilidad y en el orden de arranque del nodo que se producirían si el punto de montaje superior no estuviera presente cuando el sistema intentara montar un sucesor de ese sistema de archivos. La única excepción a esta regla es que los dispositivos de los dos sistemas de archivos tengan la misma conectividad física con el nodo. Un ejemplo puede ser los diferentes segmentos en el mismo disco.
forcedirectio: Sun Cluster no permite la ejecución de archivos binarios que no pertenecen a los sistemas de archivos montados mediante la opción forcedirectio.
Agregar esta información de planificación a Plantilla para las configuraciones de los grupos de dispositivos y Plantilla para la configuración del Gestor de volúmenes. Para Solaris Volume Manager, agregue también esta información de planificación a la Plantilla de volúmenes(Solaris Volume Manager).
Esta apartado proporciona las directrices siguientes para planificar la gestión de volúmenes en la configuración del clúster:
Sun Cluster utiliza el software de gestión de volúmenes para reunir los discos en grupos de dispositivos que se pueden administrar como una unidad. Sun Cluster admite el software Solaris Volume Manager y VERITAS Volume Manager (VxVM) que instale o utilice por cualquiera de los siguientes procedimientos.
Tabla 1–4 Uso admitido de administradores de volúmenes con el software de Sun Cluster
Software del gestor de volúmenes |
Requisitos |
---|---|
Solaris Volume Manager |
Debe instalar el software Solaris Volume Manager en todos los nodos del clúster, sin tener en cuenta si utiliza VxVM en algunos nodos para gestionar discos. |
Debe instalar y aceptar la licencia de VxVM con la función de clúster en todos los nodos del clúster. |
|
VxVM sin la función del clúster |
Simplemente se le solicita que instale y acepte la licencia de VxVM en los nodos que se adjuntan para almacenar los dispositivos que VxVM gestione. |
Si instala los dos gestores de volúmenes en el mismo nodo, debe utilizar el software Solaris Volume Manager para gestionar los discos que son locales en cada nodo. Los discos locales incluyen el disco raíz. Utilice VxVM para gestionar todos los discos compartidos. |
Consulte la documentación del administrador de volúmenes y configuración de Solaris Volume Manager o Instalación y configuración del software de VxVM para obtener instrucciones acerca de cómo instalar y configurar el software del administrador de volúmenes. Para obtener más información acerca del uso de la administración de volúmenes en una configuración de clúster, consulte Multihost Devices de Sun Cluster Concepts Guide for Solaris OS y Device Groups de Sun Cluster Concepts Guide for Solaris OS.
Tenga en cuenta las siguientes directrices generales cuando configure los discos con el software de la gestión de volúmenes:
RAID mediante software – Sun Cluster no admite RAID mediante software.
Discos multihosts duplicados: debe duplicar todos los discos multihost en las unidades de expansión de los discos. Consulte Directrices para la duplicación de discos multisistema para obtener instrucciones sobre la duplicación de los discos multihost. No necesita utilizar la duplicación del software si el dispositivo de almacenamiento proporciona RAID del hardware así como rutas redundantes a los dispositivos.
Raíz duplicada: la duplicación del disco raíz asegura una alta disponibilidad, pero dicha duplicación no es necesaria. Consulte Directrices para la duplicación para obtener directrices sobre cómo duplicar el disco raíz.
Asignación de nombre único – puede que los metadispositivos o los volúmenes locales de Solaris Volume Manager o los volúmenes de VxVM se utilicen como dispositivos en los que se montan los sistemas de archivos /global/.devices/node@nodeid. En este caso, el nombre de cada metadispositivo local en el que se debe montar el sistema de archivos /global/devices/node@nodeid debe ser un nombre exclusivo en todo el clúster.
Listas de nodos – Para garantizar la alta disponibilidad de un grupo de dispositivos, haga su listas de nodos de principales potenciales y su directiva de prevención de fallos idéntica a la de cualquiera de los grupos de recursos asociados. O bien, si un grupo escalable de recursos utiliza más nodos o zonas que su grupo asociado de dispositivos, convierta la lista de nodos del grupo de recursos escalables en un superconjunto de la lista de nodos del grupo de dispositivos. Consulte la información de planificación de grupos en Sun Cluster Data Services Planning and Administration Guide for Solaris OS para obtener información acerca de las listas de nodos.
Discos multisistema – Debe conectar, a los puertos, todos los dispositivos que se utilizan para crear un grupo de dispositivos en el clúster a todos los nodos que están configurados en la lista de nodos de dicho grupo de dispositivos. Solaris Volume Manager puede comprobar automáticamente esta conexión en el momento en que los dispositivos se añadan a un conjunto de discos. No obstante, los grupos de discos VxVM configurados no están asociados con ningún conjunto de nodos en concreto.
Discos de repuesto en marcha – puede utilizar discos de repuesto en marcha para aumentar la disponibilidad, pero no son necesarios.
Consulte la documentación del gestor de volúmenes para conocer las recomendaciones de distribución del disco y cualquier otra restricción.
Tenga en cuenta los puntos siguientes cuando planifique las configuraciones de Solaris Volume Manager:
Nombres de metadispositivo nombres de volúmenes locales – el nombre de cada metadispositivo de Solaris Volume Manager local en el que ese monte un sistema de archivos de dispositivos generales, /global/.devices/node@nodeid, debe ser exclusivo en todo el clúster. Asimismo, el nombre no puede ser igual al del identificador de un dispositivo.
Mediadores de dos cadenas – cada conjunto de discos configurado con exactamente dos cadenas de discos y controlado exactamente por dos nodos debe tener mediadores Solaris Volume Manager configurados en cada conjunto de discos. Una cadena de discos consta de un contenedor de discos, sus discos físicos, los cables del contenedor a los nodos y las tarjetas adaptadoras de la interfaz. Tenga en cuenta las reglas siguientes para configurar los mediadores de dos cadenas:
Debe configurar cada conjunto de discos exactamente con dos nodos que actúen como sistemas mediadores.
Debe utilizar los mismos dos nodos en todos los conjuntos de discos que necesiten mediadores. Esos dos nodos deben controlar los conjuntos de discos.
Los mediadores no se pueden configurar en los conjuntos de discos que no cumplan con los requisitos de dos cadenas y dos sistemas.
Consulte la página de comando man de mediator(7D) para obtener más detalles.
Configuración de /kernel/drv/md.conf – SPARC: En los metadispositivos de Solaris 9, Solaris Volume Manager utilizados por cada conjunto de discos se crean por adelantado, en el momento del arranque de la reconfiguración. Ésta se basa en los parámetros de configuración que existen en el archivo /kernel/drv/md.conf.
Con la versión Solaris 10, Solaris Volume Manager se ha mejorado y ahora puede configurar volúmenes dinámicamente. Ya no necesita editar los parámetros nmd y md_nsets del archivo /kernel/drv/md.conf. Los volúmenes nuevos se crean dinámicamente, si es necesario.
Debe modificar los campos nmd y md_nsets de la siguiente manera para admitir la configuración de Sun Cluster en el SO Solaris 9:
Todos los nodos del clúster deben tener archivos /kernel/drv/md.conf idénticos, sin tener en cuenta el número de conjuntos de discos que se mantienen en cada nodo. Si no se siguen estas directrices se pueden producir graves errores en Solaris Volume Manager, así como una posible pérdida de datos.
md_nsets – El campo md_nsets establece el número total de conjuntos de discos que se puede crear para un sistema con objeto de satisfacer las necesidades de todo el clúster. Configure el valor de md_nsets con el número esperado de conjuntos de discos en el clúster más un conjunto de discos adicionales El software Solaris Volume Manager utiliza el conjunto de discos adicionales para gestionar los discos privados en el sistema local.
El número máximo de conjuntos de discos que se permite por clúster es de 32. Este número permite 31 para uso general, además de un conjunto de discos para la gestión privada de discos. El valor predeterminado de md_nsets es 4.
nmd – El campo nmd establece el valor más alto previsto de cualquier nombre de metadispositivo o volumen que exista en el clúster. Por ejemplo, si el valor más alto de los nombres de volúmenes o metadispositivos que se usa en los primeros 15 conjuntos de discos de un clúster es 10, pero el valor más alto del metadispositivo o volumen del conjunto de discos número 16 es 1000, defina el valor de nmd en 1000 como mínimo. También, el valor de nmd debe ser lo suficientemente grande como para asegurarse de que existan suficientes números para cada dispositivo–nombre de Id. El número debe ser lo suficientemente superior como para asegurar que el nombre del metadispositivo o volumen local pueda ser exclusivo en todo el clúster.
El valor más alto permitido de nombre de un metadispositivo o volumen por conjunto de disco es 8192. El valor predeterminado de nmd es 128.
Configure estos campos en el momento de la instalación para permitir la expansión futura prevista del clúster, ya que, una vez éste esté funcionando, aumentar el valor de estos campos le ocupará demasiado tiempo. El cambio de valor requiere un rearranque de la reconfiguración para cada nodo. El aumento posterior de estos valores también incrementa la posibilidad de una asignación de espacio inadecuada en el sistema de archivos raíz (/) al crear todos los dispositivos solicitados.
Al mismo tiempo, mantenga el valor de los campos nmd y md_nsets tan bajo como sea posible. Todos los dispositivos posibles cuentan con estructuras de memoria, como las especifican nmd y md_nsets, incluso si no ha creado estos dispositivos. Para conseguir un rendimiento óptimo, mantenga el valor de nmd y md_nsets ligeramente superior al número de volúmenes que tenga intención de utilizar.
Consulte System Files and Startup Files en Solaris Volume Manager Administration Guide (Solaris 9 o Solaris 10) para obtener más información acerca del archivo md.conf.
Tenga en cuenta los puntos siguientes cuando planifique la configuración de VERITAS Volume Manager (VxVM).
Accesibilidad a nodos: debe configurar todos los grupos de discos gestores de volúmenes como grupos de dispositivos de Sun Cluster o como grupos de discos sólo locales. Si no configura el grupo de discos en una de estas formas, los dispositivos del grupo de discos no podrán acceder a ninguno de los nodos del clúster.
Un grupo de dispositivos habilita un nodo secundario para alojar los discos multisistema si el nodo primario falla.
Los grupos de discos sólo local funcionan fuera del control de Sun Cluster, y sólo puede accederse a él desde un nodo simultáneamente.
Nombres basados en chasis – si utiliza la asignación de nombres basada en chasis para los dispositivos, asegúrese de que utiliza nombres de dispositivos coherentes en todos los nodos del clúster que comparten el mismo almacenamiento. VxVM no coordina estos nombres, de modo que el administrador debe comprobar que VxVM asigne los mismos nombres a los mismos dispositivos desde diferentes nodos. Un error en la asignación de nombres coherentes no interfiere en el correcto comportamiento del clúster, pero complica enormemente la administración del clúster y aumenta la posibilidad de errores en la configuración, lo cual puede llevar a una pérdida de datos.
Grupos de discos raíz – la creación de un grupo de discos raíz es opcional.
Un grupo de disco raíz se puede crear en los siguientes discos:
El disco raíz que se debe encapsular
Uno o más discos locales que no sean raíz, los cuales se pueden encapsular o inicializar
Una combinación de discos raíz y otros locales que no lo son
El grupo de discos raíz debe ser local en el nodo.
Grupos de un único disco raíz – los grupos de un único disco raíz (rootdg creados en un único segmento del disco raíz) no están admitidos como tipos de disco con VxVM en Sun Cluster. Esta es una restricción general de VxVM.
Encapsulación – los discos que se vayan a encapsular deben tener dos entradas de la tabla de segmentos del disco libres.
Número de volúmenes: calcule el número máximo de volúmenes que puede utilizar cualquier grupo de dispositivos en el momento de la creación del grupo de dispositivos.
Si el número de volúmenes es menor de 1000, se puede utilizar la numeración menor predeterminada.
Si el número de volúmenes es 1000 o más, se debe planificar cuidadosamente el modo de asignar los números menores en los volúmenes del grupo de dispositivos. No puede haber dos grupos de dispositivos que solapen las asignaciones de números menores.
Registro de áreas modificadas: el uso del Registro de áreas modificadas (DRL) reduce el tiempo de recuperación del volumen después de un fallo en el nodo. Es posible que el uso de DRL reduzca el caudal de E/S.
Rutas múltiples dinámicas (DMP) – no se admite el uso de DMP sólo para gestionar varias rutas de E/S por nodo al almacenamiento compartido. Sólo es compatible el uso de DMP en las configuraciones siguientes:
Una única ruta de E/S por nodo en el almacenamiento compartido del clúster.
Una solución admitida de rutas múltiples, como Sun Traffic Manager, EMC PowerPath o Hiatchi HDLM, que gestiona las rutas de E/S múltiples por nodo con el almacenamiento compartido del clúster.
Consulte la documentación de la instalación de VxVM si desea obtener más información.
El registro es necesario para UFS y los sistemas de archivos de clúster de VxFS. Este requisito no se aplica a los sistemas de archivos compartidos QFS. Sun Cluster admite las opciones siguientes en el registro del sistema de archivos:
Registro UFS de Solaris – Consulte la página de comando man de mount_ufs(1M) para obtener más información.
(sólo Solaris 9) SPARC: Solaris Volume Manager registro de volúmenes transaccional – Consulte Transactional Volumes (Overview) en Solaris Volume Manager Administration Guide para obtener más información.
Solaris Volume Manager registro de volúmenes transaccional se ha eliminado del SO Solaris 10. Registro UFS de Solaris proporciona las mismas funciones con un rendimiento superior, así como unos requisitos de administración del sistema y de sobrecarga inferiores.
SPARC: registro de VERITAS File System (VxFS) – Consulte la página de comando man mount_vxfs que se proporciona con VxFS para obtener más información.
La tabla siguiente muestra el registro del sistema de archivos admitido por cada gestor de volúmenes.
Tabla 1–5 Matriz admitida del registro del sistema de archivos
SPARC: En el SO Solaris 9, considere los siguientes puntos cuando seleccione entre Registro UFS de Solaris y Solaris Volume Manager registro de volúmenes transaccional para los sistemas de archivos de clúster UFS:
Registro UFS de Solaris siempre asigna el registro utilizando el espacio libre en el sistema de archivos UFS, y en función del tamaño del mismo.
En los sistemas de archivos con menos de 1 GB, el registro ocupa 1 MB.
En los sistemas de archivos con 1 GB o más, el registro ocupa 1 MB por GB en el sistema de archivos, hasta un máximo de 64 MB.
Un metadispositivo de gestiona el registro UFS. El componente de dispositivo de registro de un metadispositivo transaccional volumen transaccional es un metadispositivo o volumen que puede duplicar y configurar en bandas. Se puede crear un registro con un tamaño máximo de 1 GB, aunque 64 MB son suficientes para la mayoría de los sistemas de archivos. El tamaño mínimo del registro es de 1 MB.
Este apartado proporciona las directrices siguientes para planificar la duplicación en la configuración del clúster:
La duplicación de todos los discos multisistema en una configuración de Sun Cluster permite que dicha configuración admita fallos de un único dispositivo. Sun Cluster requiere la duplicación de todos los discos multisistema en todas las unidades de expansión. No necesita utilizar la duplicación del software si el dispositivo de almacenamiento proporciona RAID del hardware así como rutas redundantes a los dispositivos.
Tenga en cuenta los siguientes aspectos a la hora de duplicar discos multihost:
Separación de las unidades de expansión de los discos: cada subduplicación de una duplicación o plex concretos debe situarse en una unidad diferente de expansión de discos multihost.
Espacio del disco –: la duplicación duplica la cantidad de espacio en disco necesaria.
Duplicación de tres vías: Solaris Volume Manager y VERITAS Volume Manager (VxVM) admiten la duplicación de tres vías. No obstante, el software Sun Cluster necesita solamente la duplicación de dos vías.
Diferenciación de los tamaños de los dispositivos: si efectúa la duplicación en un dispositivo de un tamaño diferente, la capacidad de duplicación se limita al tamaño de la duplicación o plex menor.
Para obtener más información acerca de los discos multisistema, consulte Multihost Disk Storage de Sun Cluster Overview for Solaris OS y en la Sun Cluster Concepts Guide for Solaris OS.
Agregue esta información de planificación a la Plantilla para la disposición del sistema local de archivos.
Para conseguir una máxima disponibilidad duplique la raíz (/), /usr, /var, /opt y swap en los discos locales. En VxVM, puede encapsular el disco raíz y duplicar los subdiscos generados. No obstante, el software Sun Cluster no requiere la duplicación del disco raíz.
Antes de decidir si duplicar el disco raíz, tenga en cuenta los riesgos, la complejidad, el coste y el período entre revisiones con respecto a las diversas alternativas que conciernen al disco raíz. No existe una única estrategia de duplicación que funcione en todas las configuraciones. Puede que desee considerar la solución preferida por el representante local de servicios de Sun cuando decida si duplicar la raíz.
Consulte la documentación de su administrador de volúmenes y configuración de Solaris Volume Manager o Instalación y configuración del software de VxVM para obtener instrucciones acerca de cómo duplicar el disco raíz.
Tenga en cuenta los puntos siguientes cuando decida si duplicar el disco raíz.
Disco de arranque: – puede configurar la duplicación para que sea un disco raíz de arranque. Después puede efectuar un arranque desde la duplicación si el disco de arranque primario falla.
Complejidad: – la duplicación del disco raíz añade complejidad a la administración del sistema. también complica el arranque en la modalidad monousuario.
Copias de seguridad: – independientemente de si se duplica el disco raíz, también debe efectuar copias de seguridad de la raíz de manera regular. La duplicación no basta para protegerle de los errores de administración. Sólo un plan de copia de seguridad le permitirá restaurar los archivos que accidentalmente se hayan modificado o borrado.
Dispositivos del quórum: no utilice un disco configurado como dispositivo del quórum para duplicar un disco raíz.
Quórum: en el software Solaris Volume Manager, en situaciones de error donde se pierde el quórum de la base de datos del estado, no es posible rearrancar el sistema hasta que se efectúe el mantenimiento. Consulte la documentación de Solaris Volume Manager para obtener información sobre la base de datos del estado y sus réplicas.
Controladores separados: la mayor disponibilidad incluye la duplicación del disco raíz en un controlador separado.
Disco raíz secundario: con un disco raíz duplicado, es posible que el disco raíz primario falle pero puede continuar el trabajo en el disco raíz secundario (duplicación). Posteriormente, el disco raíz primario puede devolver el servicio, por ejemplo después de apagar y encender el sistema o errores temporales de E/S. Los arranques posteriores se llevan a cabo usando el disco raíz principal que se especifique para el parámetro eeprom(1M) boot-device. En esta situación no se llevan a cabo tareas de reparación manuales, sino que la unidad comienza a trabajar con suficiente fiabilidad para arrancar. Con Solaris Volume Manager se produce una resincronización. Ésta necesitará un paso manual cuando la unidad se devuelva al servicio.
Si se efectuaran cambios en los archivos del disco raíz secundario (duplicación), éstos no se reflejarían en el disco raíz primario durante el arranque. Esta condición provocaría una subduplicación caducada. Por ejemplo, se perderían los cambios en el archivo /etc/system. Con el software de Solaris Volume Manager, algunos comandos de administración pueden haber cambiado el archivo /etc/system mientras el disco raíz principal estaba fuera de servicio.
El programa de arranque no comprueba si el sistema arranca desde una duplicación o desde un dispositivo físico subyacente. La duplicación se vuelve activa en parte a través del proceso de arranque, tras cargar los metadispositivos o . Por este motivo, antes de este punto, el sistema es vulnerable a los problemas provocados por subduplicaciones caducadas.