Este capítulo proporciona información sobre la planificación y las directrices para instalar una configuración de Sun Cluster.
Este capítulo incluye la información general siguiente:
La tabla siguiente muestra dónde encontrar instrucciones para varias tareas de instalación de Sun Cluster y el orden en que se deben ejecutar estas tareas.
Tabla 1–1 Información sobre las tareas de instalación de Sun Cluster
Tarea |
Instrucciones |
---|---|
Configurar el hardware del clúster. |
Sun Cluster 3.1 - 3.2 Hardware Administration Manual for Solaris OS Documentación suministrada con el servidor y los dispositivos de almacenamiento |
Planificar la instalación del software del clúster. |
Capítulo 1, Planificación de la configuración de Sun Cluster |
Instale los paquetes de software. Si lo desea, instale y configure Sun StorEdgeTM QFS. | |
Establezca un clúster nuevo o un nodo del clúster nuevo. | |
Configurar el software de Solaris Volume Manager . |
Configuración del software de Solaris Volume Manager Documentación de Solaris Volume Manager |
Instalar y configurar el software VERITAS Volume Manager (VxVM). |
Instalación y configuración del software de VxVM Documentación de VxVM |
Si los utiliza, configure los sistemas de archivos del clúster. | |
(opcional) Cree en el SO Solaris 10 zonas no globales. | |
(Opcional) SPARC: Instale y configure el módulo de Sun Cluster para Sun Management Center. |
SPARC: Instalación del módulo de Sun Cluster en Sun Management Center Documentación de Sun Management Center |
Planificar, instalar y configurar grupos de recursos y servicios de datos. Si los utiliza, cree sistemas de archivos locales con alta disponibilidad. |
Sun Cluster Data Services Planning and Administration Guide for Solaris OS |
Desarrollar los servicios de datos personalizados. |
Este apartado proporciona las siguientes directrices para planificar la instalación del software Solaris en una configuración del clúster.
Si desea obtener más información sobre el software Solaris, consulte la documentación para la instalación de Solaris.
Puede instalar Solaris desde un DVD-ROM local o desde un servidor de instalación en red mediante el método de instalación JumpStartTM. Además, el software Sun Cluster proporciona un método personalizado para instalar el sistema operativo Solaris y el software Sun Cluster mediante el método de instalación JumpStart. Si va a instalar varios nodos del clúster, considere la opción de efectuar una instalación en red.
Consulte Cómo instalar Solaris y Sun Cluster (JumpStart) para obtener más detalles sobre el método de instalación JumpStart con scinstall. Consulte la documentación de instalación de Solaris para obtener más información sobre los métodos de instalación habituales de Solaris.
Tenga en cuenta los siguientes puntos cuando planifique el uso del SO Solaris en una configuración de Sun Cluster:
Zonas de Solaris 10 - Instale el software de estructura de Sun Cluster sólo en la zona global.
Para determinar si puede instalar un servicio de datos de Sun Cluster directamente en una zona no global, consulte la documentación de dicho servicio de datos.
Si configura zonas no globales en un nodo del clúster, debe habilitarse el sistema de archivos loopback (LOFS). Consulte la información de consideraciones adicionales del LOFS.
Sistema de archivos de realimentación (LOFS): durante la creación del clúster con la versión Solaris 9 del software de Sun Cluster, la función LOFS está deshabilitada de forma predeterminada. Durante la creación del clúster con la versión Solaris 10 del software de Sun Cluster, la función LOFS no estará deshabilitada de forma predeterminada.
Si el clúster cumple las dos condiciones que aparecen a continuación, debe deshabilitar LOFS para evitar problemas de conmutación u otro tipo de fallos:
Sun Cluster HA para NFS está configurado en un sistema de archivos local de alta disponibilidad.
Se está ejecutando el daemon automountd.
Si el clúster cumple sólo con una de estas condiciones, podrá habilitar de forma segura LOFS.
Si es necesario habilitar tanto un LOFS como el daemon automountd, excluya de la asignación de montaje automático todos los archivos que formen parte del sistema de archivos local de alta disponibilidad exportado por Sun Cluster HA para NFS.
Grupos de interfaz: los grupos de interfaz de Solaris no se admiten en una configuración de Sun Cluster. La función de grupos de interfaces de Solaris se deshabilita de manera predeterminada durante la instalación del software de Solaris. No vuelva a habilitar los grupos de interfaces de Solaris. Consulte la página de comando man ifconfig(1M) para obtener más información acerca de los grupos de interfaces de Solaris.
Apagado para ahorro de energía: las configuraciones de Sun Cluster no admiten el apagado para ahorro de energía y, por tanto, no debería habilitarse. Consulte las páginas de comando man pmconfig(1M) y power.conf(4) para obtener más información.
Filtro IP: el software de Sun Cluster no admite la función Solaris IP Filter para servicios escalables, pero sí la admite para los servicios de conmutación por error.
fssnap: el software de Sun Cluster no admite el comando fssnap, que es una función de UFS. Sin embargo, puede utilizar el comando fssnap en sistemas locales que no estén controlados por el software de Sun Cluster. Las restricciones que aparecen a continuación, se aplican a la compatibilidad con fssnap:
El comando fssnap se admite en sistemas de archivos locales que no estén administrados por el software de Sun Cluster.
El comando fssnap no se admite en sistemas de archivos de clúster.
El comando fssnap no se admite en sistemas de archivos locales bajo el control de HAStoragePlus.
El software Sun Cluster 3.2 2/08 necesita al menos el Grupo de software de Solaris de usuario final. No obstante, puede que otros componentes de la configuración del clúster tengan también sus propios requisitos del software Solaris. Tenga en cuenta la información siguiente cuando decida qué grupo de software de Solaris va a instalar.
Servidores: consulte la documentación de su servidor para conocer los requisitos de Solaris. Por ejemplo, 10000 servidores de Sun EnterpriseTM requieren el Grupo de software de Solaris completo más la compatibilidad con OEM.
adaptadores SCI-PCI - Para utilizar los adaptadores SCI-PCI, que están disponibles para su uso exclusivamente en clústeres basados en SPARC, o Interfaz de programación de la aplicación de memoria remota compartida (RSMAPI), asegúrese de que instala los paquetes de RSMAPI, es decir, SUNWrsm y SUNWrsmo, y para el SO Solaris 9 en plataformas basadas en SPARC, también SUNWrsmx y SUNWrsmox. Los paquetes de software de RSMAPI se incluyen sólo en algunos grupos de software de Solaris. Por ejemplo, el Grupo de software de desarrolladores de Solaris contiene los paquetes de RSMAPI, pero el Grupo de software de usuario final de Solaris no.
Si el grupo de software que instala no contiene los paquetes de RSMAPI, instálelos manualmente antes de instalar Sun Cluster. Utilice el comando pkgadd(1M) para instalar manualmente los paquetes de software. Consulte la Sección (3RSM) páginas de comando man para obtener información acerca de la utilización de RSMAPI.
Paquetes Solaris adicionales: cabe la posibilidad de que tenga que instalar otros paquetes de Solaris que no formen parte del Grupo de software Solaris para el usuario final. Los paquetes del servidor HTTP Apache son un ejemplo. Es posible que el software de otras empresas, como ORACLE®, requiera también paquetes de software adicionales de Solaris. Consulte la documentación que lo acompaña para obtener información sobre cualquier requisito de Solaris.
Para no tener que instalar manualmente los paquetes de Solaris, instale el grupo de distribución completa del software de Solaris más OEM.
Agregue esta información a la Plantilla para la disposición del sistema local de archivos que proceda.
Cuando instale el sistema operativo Solaris, cree las particiones requeridas por Sun Cluster y compruebe que todas ellas cumplan con los requisitos de espacio mínimo.
Intercambio: la cantidad combinada de espacio de intercambio (swap) que se asigne para Solaris y para el software Sun Cluster no debe ser inferior a 750 Mbytes. Si desea obtener mejores resultados, añada al menos 512 MB a Sun Cluster a la cantidad que necesita el sistema operativo Solaris. Además, asigne la cantidad de espacio de intercambio swap adicional que necesiten las aplicaciones que se deban ejecutar en el nodo del clúster.
Si crea un archivo swap adicional, no cree el archivo swap en un dispositivo global. Use solamente un disco local como dispositivo swap para el nodo.
/globaldevices: cree un sistema de archivos de, al menos, 512 MB que la scinstall(1M) usará para los dispositivos globales.
Gestor de volúmenes: cree una partición de 20 MB en un segmento al final del disco (segmento 7) de manera que el gestor de volúmenes lo pueda utilizar. Si el clúster utiliza VERITAS Volume Manager (VxVM) y desea encapsular el disco raíz, debe contar con dos segmentos libres a disposición de VxVM.
Con el fin de cumplir con estos requisitos debe personalizar la partición si va a efectuar una instalación interactiva del sistema operativo Solaris.
Consulte las directrices siguientes para obtener información adicional sobre la planificación de la partición:
Al igual que ocurre con otro sistema que ejecute el sistema operativo Solaris, puede configurar la raíz (/) y los directorios /var, /usr y /opt como sistemas de archivos separados. También es posible incluir todos los directorios en el sistema de archivos raíz (/). A continuación se describe el contenido del software de la raíz (/) y de los directorios /var, /usr y /opt en una configuración de Sun Cluster. Tenga en cuenta esta información cuando planifique el esquema de la partición.
raíz (/): el software de Sun Cluster ocupa menos de 40 MB en el sistema de archivos raíz (/). Solaris Volume Manager requiere menos de 5 MB y VxVM necesita de 15 MB. Si desea configurar un amplio espacio adicional y la capacidad del nodo, añada al menos 100 MB al espacio que normalmente asignaría en el sistema de archivos raíz (/). Este espacio se utiliza para crear los dispositivos especiales de bloques y de caracteres utilizados por el software Volume Management. Concretamente necesita asignar este espacio extra si un gran número de discos compartidos está en el clúster.
/var: Sun Cluster ocupa un espacio insignificante en el sistema de archivos /var en el momento de la instalación. No obstante, se necesita separar un amplio espacio para los archivos de registro. Además, es posible que en un nodo de los clústeres se registren más mensajes de los que se encontrarían en un servidor autónomo normal. Por este motivo, permita al menos 100 MB en el sistema de archivos /var.
/usr: el software de Sun Cluster ocupa menos de 25 MB en el sistema de archivos /usr. Solaris Volume Manager y VxVM requieren cada uno menos de 15 MB.
/opt: el software de la estructura de Sun Cluster utiliza menos de 2 MB en el sistema de archivos /opt. No obstante, es posible que cada servicio de datos de Sun Cluster utilice entre 1 y 5 MB. El software de Solaris Volume Manager no utiliza ningún espacio en el sistema de archivos /opt. VxVM puede utilizar 40 MB si todos sus paquetes y herramientas se instalan.
Además, la mayoría del software de bases de datos y aplicaciones se instala en el sistema de archivos /opt.
SPARC: Si utiliza Sun Management Center para supervisar el clúster, necesita un espacio adicional de 25 MB en cada nodo para que se admita el agente Sun Management Center y los paquetes de módulos de Sun Cluster.
Sun Cluster requiere que se separe un sistema de archivos especial en uno de los discos locales para usarlo en la gestión de dispositivos generales. Este sistema de archivos normalmente está ubicado en el disco raíz. Sin embargo, si utiliza un almacenamiento distinto para ubicar el sistema de archivos de dispositivos globales, como un volumen del gestor de volumen lógico, éste no puede formar parte del conjunto de discos compartido de Solaris Volume Manager o del grupo de discos de VxVM distinto al grupo de discos raíz. Este sistema de archivos se monta posteriormente como un sistema de archivos del clúster. Asigne a este archivo el nombre /globaldevices, ya que así es reconocido de manera predeterminada por el comando scinstall(1M) .
El comando scinstall vuelve a nominar posteriormente al sistema de archivos /global/.devices/node@id_nodo, donde id_nodo representa el número que se asigna a un nodo cuando se convierte en un miembro del clúster. Se elimina el punto de montaje original /globaldevices.
El sistema de archivos /globaldevices debe tener una amplia capacidad de espacio y de inodes para la creación de dispositivos especiales de bloques y de caracteres. Esta pauta es especialmente importante si hay un gran número de discos en el clúster. Un sistema de archivos de 512 MB debe ser suficiente para la mayoría de configuraciones de los clústeres.
Si utiliza el software Solaris Volume Manager, debe separar un segmento del disco raíz para usarlo en la creación de la réplica de la base de datos del estado. Concretamente, separe un segmento para este fin en cada disco local. Pero, si sólo dispone de un disco local en un nodo, puede que necesite crear tres réplicas de bases de datos del estado en el mismo segmento para que Solaris Volume Manager funcione adecuadamente. Consulte la documentación de Solaris Volume Manager si desea obtener más información.
Si utiliza VERITAS Volume Manager (VxVM) y desea encapsular el disco raíz, necesita tener dos segmentos libres a disposición de VxVM. Por otro lado, necesita espacio libre sin asignar extra al comienzo o al final del disco. Consulte la documentación de VxVM si desea obtener más información sobre la encapsulación del disco raíz.
La Tabla 1–2 muestra un esquema de partición para un nodo de cluster que tenga menos de 750 Mbytes de memoria física. Este esquema se debe instalar con el Grupo de software de usuario final de Solaris, Sun Cluster y el servicio de datos Sun Cluster HA para NFS. El último segmento del disco, el 7, se asigna con una pequeña cantidad de espacio para uso del gestor de volúmenes.
Esta distribución permite el uso del software Solaris Volume Manager o VxVM. Si utiliza el software Solaris Volume Manager, utilice el segmento 7 para la réplica de base de datos del estado. Si utiliza VxVM, libere posteriormente el segmento 7 asignando al segmento una longitud cero. Este diseño proporciona los dos segmentos libres necesarios, 4 y 7, así como espacio sin utilizar al final del disco.
Tabla 1–2 Ejemplo de asignación del sistema de archivos
Segmento |
Contenido |
Asignación de tamaño |
Descripción |
---|---|---|---|
0 |
/ |
6,75 GB |
Espacio libre que queda en el disco después de asignar espacio a los segmentos que van del 1 al 7. Utilizado para el sistema operativo Solaris, Sun Cluster, software de servicios de datos, software del gestor de volúmenes, paquetes del agente Sun Management Center y del agente del módulo de Sun Cluster, sistemas de archivos raíz, así como bases de datos y software de aplicaciones. |
1 |
swap |
1 GB |
512 MB para el sistema operativo Solaris. 512 MB para el software Sun Cluster. |
2 |
solapamiento |
8,43 GB |
Todo el disco. |
3 |
/globaldevices |
512 MB |
El software Sun Cluster asigna posteriormente a este segmento un punto de montaje diferente y lo monta como un sistema de archivos del clúster. |
4 |
sin utilizar |
- |
Disponible como segmento libre para encapsular el disco raíz en VxVM. |
5 |
sin utilizar |
- |
- |
6 |
sin utilizar |
- |
- |
7 |
gestor de volúmenes |
20 MB |
Utilizado por el software Solaris Volume Manager para la réplica de la base de datos del estado o por VxVM para la instalación después de liberar el segmento. |
Para obtener más información acerca de la finalidad y la función de las zonas de Solaris 10 en un clúster, consulte Support for Solaris Zones on Sun Cluster Nodes de Sun Cluster Concepts Guide for Solaris OS.
Tenga en cuenta los puntos siguientes a la hora de crear una zona no global de Solaris 10, conocida simplemente cono una zona, en un nodo del clúster.
Nombre de zona exclusivo: el nombre de zona debe ser exclusivo en el nodo. No especifique el mismo nombre en más de una zona del mismo nodo.
Reutilización de un nombre de zona en varios nodos: para simplificar la administración del clúster, puede utilizar el mismo nombre para una zona en cada nodo en el que se vayan a establecer en línea los grupos de recursos en esa zona.
Direcciones IP privadas: no intente utilizar más direcciones IP privadas de las que hay disponibles en el clúster.
Montajes: no incluya los montajes globales en las definiciones de zonas. Incluya sólo los montajes de realimentación.
Servicios de conmutación por error: en clústeres con varios nodos, el software de Sun Cluster le permite especificar diferentes zonas del mismo nodo en una lista de nodos del grupo de recursos de conmutación por error. Esto puede resultar de utilidad durante las pruebas. Si un solo nodo aloja todos los nodos de la lista de nodos, éste se convierte en el único punto de fallo del grupo de recursos. Para obtener una mayor disponibilidad, las zonas de la lista de nodos del grupo de recursos de conmutación por error deben encontrarse en diferentes nodos.
En los clústeres con un solo nodo, especificar varias zonas en una lista de nodos del grupo de recursos de conmutación por error no supone ningún riesgo operativo.
Servicios escalables: no cree zonas no globales para utilizarlas en un mismo servicio escalable ubicado en el mismo nodo. Cada instancia del servicio escalable debe ejecutarse en un nodo diferente del clúster.
LOFS : es necesario que se habilite el sistema de archivos de realimentación (LOFS) para las zonas de Solaris. Sin embargo, el servicio de datos Sun Cluster HA para NFS necesita que LOFS esté deshabilitado para evitar problemas de conmutación u otros fallos. Si configura las dos zonas no globales y Sun Cluster HA para NFS en el clúster, realice una de las siguientes acciones para evitar posibles problemas en el servicio de datos:
Deshabilite el daemon automountd.
Excluya de la asignación automounter todos los archivos que formen parte del sistema de archivos local de alta disponibilidad exportado por Sun Cluster HA para NFS.
Este apartado proporciona directrices para planificar y preparar los componentes siguientes para la instalación y configuración de Sun Cluster:
Para obtener información detallada sobre los componentes de Sun Cluster, consulte la Sun Cluster Overview for Solaris OS y la Sun Cluster Concepts Guide for Solaris OS.
Compruebe que disponga de todos los certificados de licencias necesarios antes de comenzar con la instalación del software. Sun Cluster no requiere un certificado de licencia, pero cada nodo instalado con Sun Cluster debe estar cubierto por el acuerdo de licencia del software Sun Cluster.
Para conocer los requisitos de licencia del software del gestor de volúmenes y de las aplicaciones consulte la documentación para la instalación de estos productos.
Tras instalar cada producto de software también debe instalar los parches necesarios.
Para obtener información acerca de las revisiones necesarias, consulte Revisiones y niveles de firmware requeridos en la Sun Cluster 3.2 2/08 Release Notes for Solaris OS o póngase en contacto con su proveedor de servicios de Sun.
Para conocer las directrices generales y los procedimientos para aplicar las revisiones, consulte el Capítulo 10, Patching Sun Cluster Software and Firmware de Sun Cluster System Administration Guide for Solaris OS.
Para obtener información acerca del uso de redes públicas por parte del clúster, consulte Public Network Adapters and IP network multipathing de Sun Cluster Concepts Guide for Solaris OS.
Debe configurar varias direcciones IP de red pública para los diferentes componentes de Sun Cluster, en función de la configuración del clúster. ya que cada nodo de ésta debe tener al menos una conexión de red pública con el mismo conjunto de subredes públicas.
En la siguiente tabla, se enumeran los componentes que necesitan recibir la asignación de direcciones IP de red pública. Agregue la dirección IP a las siguientes ubicaciones:
Cualquier servicio de designación que se utilice
El archivo /etc/inet/hosts local en cada nodo del clúster después de instalar el software de Solaris
Para Solaris 10, el archivo /etc/inet/ipnodes local en cada nodo del clúster, tras instalar el software Solaris
Componente |
Número de direcciones IP necesarias |
---|---|
1 dirección IP por subred. |
|
Nodos del clúster |
1 dirección IP por nodo, por subred. |
1 dirección IP por dominio. |
|
(Opcional) Zonas no globales |
1 dirección IP por subred. |
1 dirección IP. |
|
Direcciones lógicas |
1 dirección IP por recurso de host lógico, por subred. |
Servidor de quórum |
1 dirección IP. |
Para obtener más información acerca de la planificación de direcciones IP, consulte el Capítulo 3, Planning Your TCP/IP Network (Task) de System Administration Guide: IP Services (Solaris 9) o el Capítulo 2, Planning Your TCP/IP Network (Tasks) de System Administration Guide: IP Services (Solaris 10).
Es necesario que disponga de acceso a la consola para todos los nodos del clúster. Si instala el software Cluster Control Panel en la consola de administración debe proporcionar el nombre del sistema y el número de puerto del dispositivo de acceso a la consola que se utiliza para comunicarse con los nodos del clúster.
Se utiliza un concentrador del terminal para que se puedan comunicar la consola de administración y las consolas de los nodos del clúster.
Un servidor Sun Enterprise 10000 utiliza un procesador de servicios del sistema (SSP, System Service Processor) en lugar de un concentrador del terminal.
Un servidor Sun Fire utiliza un controlador del sistema en lugar de un concentrador del terminal.
Para obtener más información sobre el acceso a la consola, consulte Sun Cluster Concepts Guide for Solaris OS.
Alternativamente, si conecta una consola administrativa directamente a nodos del clúster o a través de una red de gestión, proporcione el nombre de host de cada uno de los nodos del clúster y el número de puerto serie que se utiliza para conectar a la consola administrativa o a la red de gestión.
Cada grupo de recursos de servicios de datos que utilice una dirección lógica debe tener un nombre del sistema especificado para cada red pública desde la que se puede acceder a la dirección lógica.
Para obtener más información, consulte la Sun Cluster Data Services Planning and Administration Guide for Solaris OS. Para obtener más información sobre los servicios de datos y los recursos, consulte también la Sun Cluster Overview for Solaris OS y la Sun Cluster Concepts Guide for Solaris OS.
Las redes públicas se comunican fuera del clúster. Considere los puntos siguientes cuando planifique la configuración de una red pública.
Separación de red pública y red privada - Las redes públicas y la red privada (interconexión del clúster) deben utilizar adaptadores independientes, o deben configurar VLAN etiquetadas en adaptadores y conmutadores con capacidades VLAN para utilizar el mismo adaptador con la interconexión privada y con la red pública.
Mínimo: Todos los nodos del clúster deben estar conectados al menos a una red pública. Las conexiones a redes públicas pueden utilizar diferentes subredes para nodos diferentes.
Máximo - Puede tener todas las conexiones a redes públicas adicionales que permita su configuración de hardware.
Servicios escalables: todos los nodos que ejecuten un servicio escalable deben utilizar la misma subred o conjunto de subredes o utilizar diferentes subredes que puedan enrutarse entre sí.
IPv4: Sun Cluster admite direcciones IPv4 en la red pública.
IPv6: Sun Cluster es compatible con direcciones IPv6 en la red pública si se dan las siguientes condiciones o restricciones:
El software de Sun Cluster no es compatible con las direcciones IPv6 de la red pública si la interconexión privada utiliza adaptadores SCI.
Sun Cluster admite direcciones IPv6 para servicios de datos de conmutación por error y escalables.
Grupos de IPMP: los adaptadores de red pública utilizados para el tráfico del servicio de datos deben pertenecer a un grupo de Ruta múltiple de red IP (IPMP). Si no se utiliza un adaptador de red público para el tráfico del servicio de datos, no es necesario que lo configure en un grupo de IPMP.
En la versión Sun Cluster 3.2 2/08, la utilidad scinstall ya no configura automáticamente un grupo de IPMP con un único adaptador en cada adaptador de red pública desconfigurado durante la creación de Sun Cluster. En su lugar, la scinstall configura automáticamente un grupo de IPMP de varios adaptadores para cada conjunto de adaptadores de la red pública en el clúster que utiliza la misma subred. En el SO Solaris 10, estos grupos están basados en sondeos. Sin embargo, la utilidad scinstall omite los adaptadores que ya se encuentran configurados en un grupo de IPMP. Si alguno de los adaptadores de un grupo de IPMP que la utilidad scinstall configura no va a utilizarse para tráfico de servicio de datos, puede eliminar dicho adaptador del grupo.
Para obtener directrices e instrucciones de configuración de grupos de IPMP, siga los procedimientos descritos en Parte II, Administering Interface Groups de System Administration Guide: Network Interfaces and Network Virtualization. Para modificar grupos de IPMP después de haber instalado el clúster, siga las directrices de How to Administer IP Network Multipathing Groups in a Cluster de Sun Cluster System Administration Guide for Solaris OS y los procedimientos descritos en el Capítulo 28, Administering Network Multipathing (Task) de System Administration Guide: IP Services (Solaris 9) o en el Capítulo 8, Administering IPMP de System Administration Guide: Network Interfaces and Network Virtualization(Solaris 10).
Compatibilidad con direcciones MAC locales - Todos los adaptadores de red pública deben utilizar tarjetas de interfaz de red (NIC) que permitan la asignación de direcciones MAC locales. La asignación de direcciones MAC locales es un requisito de IPMP.
dirección MAC local ajuste: la variable local-mac-address? debe utilizar el valor predeterminado true (verdadero) para los adaptadores Ethernet. Sun Cluster no es compatible con el valor false de local-mac-address? en los adaptadores Ethernet. Este requisito supone un cambio con respecto a Sun Cluster 3.0, que necesitaba el valor false (falso) en local-mac-address?.
Para obtener más información sobre las interfaces de red pública, consulte Sun Cluster Concepts Guide for Solaris OS.
Puede utilizar un servidor de quórum de Sun Cluster para configurar un equipo como un servidor de quórum y, a continuación, configurar el servidor de quórum como el dispositivo de quórum del clúster. Puede utilizar un servidor de quórum, además de los discos SCSI y filtros NAS o en lugar de ellos.
Tenga en cuenta los siguientes puntos cuando planifique el uso de un servidor de quórum en una configuración de Sun Cluster.
Conexión a la red: el equipo con el servidor de quórum está conectado al clúster mediante la red pública.
Hardware admitido: las plataformas de hardware compatibles con un servidor de quórum son las mismas que con un nodo de clúster.
Sistema operativo: los requisitos del software de Solaris para Sun Cluster se aplican también al software del servidor de quórum.
Servicio para varios clústeres: puede configurar un servidor de quórum como dispositivo de quórum para más de un clúster.
Hardware y software mezclados: no tiene que configurar un servidor de quórum en la misma plataforma de hardware y software que el clúster o los clústeres al que proporciona el quórum. Por ejemplo, un equipo basado en x86 que se ejecuta en el SO Solaris 9 se puede configurar como servidor de quórum para un clúster basado en SPARC que se ejecuta en el SO Solaris 10.
Uso de un nodo de clúster como un servidor de quórum: puede configurar un servidor de quórum en un nodo del clúster para proporcionar quórum a otros clústeres distintos al clúster al que pertenece el nodo. Sin embargo, un servidor de quórum configurado en un nodo del clúster no proporcionará alta disponibilidad.
Tenga en cuenta los siguientes puntos cuando planifique utilizar el sistema de archivos de red (NFS) en una configuración Sun Cluster.
Cliente NFS: ningún nodo de Sun Cluster puede ser un cliente NFS de un sistema de archivos exportado de Sun Cluster HA para NFS que se esté supervisando en un nodo del mismo clúster. Un montaje cruzado de Sun Cluster HA para NFS de este tipo no se puede llevar a cabo. Utilice el sistema de archivos del clúster para compartir los archivos entre los nodos del clúster.
Protocolo NFSv3: si está montando sistemas de archivos en los nodos del clúster desde servidores NFS externos, como por ejemplo archivadores NAS, y está utilizando el protocolo NFSv3, no podrá ejecutar montajes de cliente NFS ni los servicios de datos de Sun Cluster HA para NFS del mismo nodo del clúster. Si lo hace, determinadas actividades del servicio de datos de Sun Cluster HA para NFS podrían provocar que los daemons NFS se detengan y reinicien, interrumpiendo los servicios NFS. Sin embargo, puede ejecutar de forma segura el servicio de datos de Sun Cluster HA para NFS si utiliza el protocolo NFSv4 para montar sistemas de archivos NFS externos en los nodos del clúster.
Bloqueo: las aplicaciones que se ejecuten de manera local en el clúster no deben bloquear los archivos en un sistema de archivos exportados a través de NFS. De lo contrario, un bloqueo local (por ejemplo, flock(3UCB) o fcntl(2)) podría interferir en la capacidad para reiniciar el bloqueo del administrador ( lockd(1M)). Durante el reinicio se puede garantizar, al proceso de bloqueo local, un bloqueo que puede estar pensado para que un cliente remoto lo solicite. Esto provocaría un comportamiento impredecible.
Funciones de seguridad de NFS: Sun Cluster no admite las siguientes opciones del comando share_nfs(1M):
secure
sec=dh
Sin embargo, el software de Sun Cluster sí admite las siguientes funciones de seguridad para NFS:
El uso de puertos seguros para NFS. Los puertos seguros para NFS se habilitan agregando el conjunto de entradas nfssrv:nfs_portmon=1 al archivo /etc/system en los nodos del clúster.
El uso de Kerberos con NFS. Para obtener más información, consulte Securing Sun Cluster HA for NFS With Kerberos V5 de Sun Cluster Data Service for NFS Guide for Solaris OS.
Tenga en cuenta las siguientes restricciones de servicio de las configuraciones de Sun Cluster:
Enrutadores - No configure los nodos del clúster como enrutadores (puertas de enlace). Si el sistema se apaga, los clientes no pueden buscar un enrutamiento alternativo y no se pueden recuperar.
servidores NIS+: no configure los nodos del clúster como servidores NIS o NIS+. No hay servicio de datos disponible para NIS o NIS+. No obstante, los nodos del clúster pueden ser clientes de NIS o NIS+.
Servidores de arranque e instalación: no utilice una configuración de Sun Cluster para proporcionar un servicio de arranque o instalación de alta disponibilidad en los sistemas cliente.
RARP - No utilice una configuración de Sun Cluster para proporcionar un servicio rarpd.
números de programa RPC - Si instala un servicio RPC en el clúster, el servicio no debe utilizar ninguno de los siguientes números de programa:
100141
100142
100248
ya que están reservados para los daemons de Sun Cluster rgmd_receptionist, fed y pmfd, respectivamente.
Si el servicio RPC que instale también utiliza uno de estos números de programas, deberá cambiar el servicio para que utilice un número de programa diferente.
Clases de programación: Sun Cluster no admite la ejecución de clases de programación de procesos de alta prioridad en los nodos del clúster. No ejecute ninguno de los siguientes tipos de procesos en los nodos de clúster:
Los procesos que se ejecutan en la clase de programación de tiempo compartido con alta prioridad
Procesos que se ejecutan en la clase de programación en tiempo real
Sun Cluster se basa en los subprocesos del núcleo que no se ejecutan en la clase de programación en tiempo real. Otros procesos de compartición del tiempo que se ejecutan con una prioridad más alta de la normal o procesos en tiempo real pueden evitar que los subprocesos del núcleo de Sun Cluster adquieran los ciclos necesarios para la CPU.
Este apartado proporciona directrices para la configuración de los componentes siguientes de Sun Cluster:
Agregue esta información a la plantilla de planificación de configuración adecuada.
Especifique un nombre para el clúster durante la configuración de Sun Cluster; el nombre debe ser exclusivo en toda la empresa.
El nombre del nodo del clúster es el mismo nombre que se asigna al equipo al instalarlo con el SO Solaris. Consulte la página de comando hosts(4) para obtener información acerca de los requisitos de asignación de nombres.
En las instalaciones de clústeres de un único nodo, el nombre del clúster predeterminado es el nombre del nodo.
Durante la configuración de Sun Cluster, especifique los nombres de todos los nodos que va a instalar en el clúster.
En el SO Solaris 10, utilice la siguiente convención de nombrado nodename:zonename para especificar una zona no global a un comando de Sun Cluster.
El nodename es el nombre del nodo del clúster.
zonename es el nombre que asigna a la zona no global al crear la zona en el nodo. El nombre de la zona debe ser exclusivo en el nodo. Sin embargo, puede utilizar el mismo nombre de zona en nodos diferentes, debido a que el nombre de nodo diferente de nodename:zonename hace que el nombre de zona no global completa sea exclusivo en todo el clúster.
Para especificar la zona global sólo es necesario que especifique el nombre del nodo.
No necesita configurar una red privada para un clúster de un único nodo. La utilidad scinstall asigna automáticamente la dirección de red privada y la máscara de red predeterminadas, incluso a pesar de que el clúster no utilice una red privada.
Sun Cluster utiliza la red privada para la comunicación interna entre nodos y entre zonas no globales gestionadas por Sun Cluster. Una configuración de Sun Cluster necesita al menos dos conexiones con la interconexión del clúster en la red privada. A la hora de configurar Sun Cluster en el primer nodo del clúster, debe especificar la dirección y la máscara de red de la red privada de una de las siguientes formas:
Aceptar la dirección de red privada predeterminada (172.16.0.0) y la máscara de red (255.255.248.0). Este intervalo de direcciones IP permite un máximo combinado de 64 nodos y zonas no globales, y un máximo de 10 redes privadas.
El número máximo de nodos que puede admitir un intervalo de direcciones IP no refleja el número máximo de nodos que puede admitir la configuración de hardware.
Especificar una dirección de red privada permisible diferente y aceptar la máscara de red predeterminada.
Aceptar la dirección de red privada predeterminada y especificar una máscara de red diferente.
Especificar tanto una dirección de red privada diferente como una máscara de red diferente.
Si elige especificar una máscara de red diferente, la utilidad scinstall le pedirá el número de nodos y el número de redes privadas que desea que admita el intervalo de direcciones IP. El número de nodos que especifique debe incluir también el número de zonas no globales que tiene pensado que utilizará la red privada.
La utilidad calcula la máscara de red del intervalo de direcciones IP mínima que admitirá el número de nodos y redes privadas que especificó. La máscara de red calculada podría admitir un número superior al número de nodos suministrados, incluyendo zonas no globales y redes privadas. La utilidad scinstall calcula también una segunda máscara de red que sería la mínima para admitir el doble del número de nodos y redes privadas. Esta segunda máscara de red habilitaría el clúster para que pudiera dar cabida a un futuro crecimiento sin la necesidad de volver a configurar el intervalo de direcciones IP.
A continuación, la utilidad le preguntará qué máscara de red desea seleccionar. Puede especificar una de las máscaras de red calculadas o proporcionar una diferente. La máscara de red que especifique debe admitir como mínimo el número de nodos y redes privadas que especificó a la utilidad.
Para cambiar la dirección de la red privada y la máscara de red una vez establecido el clúster, consulte How to Change the Private Network Address or Address Range of an Existing Cluster de Sun Cluster System Administration Guide for Solaris OS. Para realizar estos cambios debe desactivar el clúster.
Para admitir el cambio del intervalo de direcciones IP privadas del clúster podría ser necesario admitir la adición de nodos, zonas no globales, o redes privadas.
Si especifica una dirección de red privada diferente de la predeterminada, la dirección debe cumplir con los siguientes requisitos:
Tamaños de la dirección y la máscara de red: la dirección de la red privada no puede ser menor que la máscara de red. Por ejemplo, puede utilizar la dirección de red privada 172.16.10.0 con una máscara de red 255.255.255.0. Pero no puede utilizar una dirección de red privada 172.16.10.0 con la máscara de red 255.255.0.0.
Direcciones aceptables: la dirección debe estar dentro del bloque de direcciones que RFC 1918 reserva para utilizarla en redes privadas. Puede ponerse en contacto con InterNIC para obtener copias de RFC o ver RFC en línea en http://www.rfcs.org.
Uso en múltiples clústeres: puede utilizar la misma dirección de red privada en más de un clúster. Las direcciones IP de red privada no son accesibles desde fuera del clúster.
IPv6: El software de Sun Cluster no admite las direcciones IPv6 para las interconexiones privadas El sistema configura direcciones IPv6 en los adaptadores de red privada para que se admitan servicios escalables que usen direcciones IPv6. Pero la comunicación entre los nodos en la red privada no usa estas direcciones IPv6.
Consulte Planificación de la red TCP/IP (Tareas), en la Guía de administración del sistema: servicios IP (Solaris 9 o Solaris 10) para obtener más información acerca de las redes privadas.
El nombre del sistema privado es el que se utiliza para la comunicación entre los nodos en la interfaz de red privada. Los nombres del sistema privado se crean automáticamente durante la configuración de Sun Cluster; siguen la convención de nombres clusternodeid_nodo -priv, donde id_nodo es el numeral del ID del nodo interno, el cual, durante la configuración de Sun Cluster, se asigna automáticamente a cada nodo cuando éste se convierte en miembro del clúster. Una vez configurado el clúster, puede cambiar el nombre de los nombres de host privados mediante la utilidad clsetup(1CL).
Para el SO Solaris 10, la creación de un nombre de host privado para una zona no global es opcional. No hay ninguna convención de asignación de nombres obligatoria para el nombre de host privado de una zona no global.
Las interconexiones del clúster proporcionan rutas del hardware para la comunicación de redes privadas entre los nodos del clúster. Cada interconexión consta de un cable que se conecta de uno de los siguientes modos:
Entre dos adaptadores de transporte
Entre un adaptador de transporte y un conmutador de transporte
Para obtener más información acerca de la finalidad y la función de la interconexión del clúster, consulte Cluster Interconnect de Sun Cluster Concepts Guide for Solaris OS.
No necesita configurar una interconexión del clúster en un clúster de un único nodo. No obstante, si anticipa eventualmente la adición de nodos a la configuración del clúster de un único nodo, puede que desee configurar la interconexión del clúster para usos posteriores.
Durante la configuración de Sun Cluster, puede especificar la información de configuración para una o dos interconexiones del clúster.
El uso de dos interconexiones del clúster proporciona mayor disponibilidad que una sola. Si el número disponible de puertos del adaptador es limitado, puede utilizar VLAN etiquetadas para compartir el mismo adaptador con la red privada y la pública. Para obtener más información, consulte las directrices para adaptadores VLAN etiquetados en Adaptadores de transporte.
El uso de una interconexión del clúster reduce el número de puertos de adaptadores utilizados para la interconexión privada, pero proporciona menor disponibilidad. Además, el clúster tardaría más tiempo en la recuperación automática si fallara la única interconexión privada.
Puede configurar interconexiones de red privada adicionales una vez establecido el clúster mediante la utilidad clsetup(1CL) .
Para obtener directrices acerca del hardware de interconexión del clúster, consulte Interconnect Requirements and Restrictions de Sun Cluster 3.1 - 3.2 Hardware Administration Manual for Solaris OS. Para obtener información general acerca de la interconexión del clúster, consulte Cluster-Interconnect Components de Sun Cluster Overview for Solaris OS y en Sun Cluster Concepts Guide for Solaris OS.
En los adaptadores de transporte, como, por ejemplo, los puertos en las interfaces de red, especifique los nombres de los adaptadores de transporte y el tipo de transporte. Si la configuración es un clúster de dos nodos, especifique también si su interconexión es una conexión completa (de adaptador a adaptador) o si usa un conmutador de transporte.
Considere las siguientes directrices y restricciones:
IPv6: el software de Sun Clusterno admite comunicaciones IPv6 a través de las interconexiones privadas.
Asignación de direcciones MAC: todos los adaptadores de red privada deben usar tarjetas de interfaz de red (NIC) que admitan las asignaciones de direcciones MAC locales. Las direcciones IPv6 de vínculo local (que se requieren en los adaptadores de red privados para que admitan direcciones de red públicas IPv6), se obtienen a partir de las direcciones MAC locales.
Adaptadores VLAN etiquetados: Sun Cluster admite Redes de área local virtuales (VLAN) etiquetadas para compartir un adaptador entre la interconexión privada y la red pública. Para configurar un adaptador VLAN etiquetado para la interconexión del clúster, especifique el nombre del adaptador y el Id. de VLAN (VID) de una de las siguientes formas:
Especifique el nombre habitual del adaptador, que es el nombre del dispositivo más el número de instancia o el punto físico de anexión (PPA). Por ejemplo, el nombre de la instancia 2 de un adaptador Cassini Gigabit Ethernet sería ce2. Si la utilidad scinstall pregunta si el adaptador forma parte de una red LAN virtual, responda afirmativamente (yes) e indique el número VID del adaptador.
Especifique el adaptador usando su nombre de dispositivo virtual VLAN. Este nombre consta del nombre del adaptador más el número de instancia VLAN. El número de instancia VLAN se obtiene de la fórmula (1000*V)+N, donde V es el número VID y N es el PPA.
Como ejemplo, para VID 73 en el adaptador ce2, el número de instancia VLAN podría calcularse como (1000*73)+2. Por lo tanto especificará el nombre del adaptador como ce73002 para indicar que es parte de una LAN virtual compartida.
Para obtener información acerca de la comunicación de la VLAN en un clúster, consulte Configuring VLANs as Private Interconnect Networks de Sun Cluster 3.1 - 3.2 Hardware Administration Manual for Solaris OS. Para obtener información general sobre VLAN, consulte Administering Virtual Local Area Networks de System Administration Guide: IP Services.
adaptadores SBus SCI: la interfaz coherente escalable (SCI) SBus no se admite como interconexión del clúster. Sin embargo, se admite la interfaz SCI-PCI.
Interfaces de red lógicas: las interfaces de red lógicas están reservadas para que las use el software de Sun Cluster.
Consulte la familia scconf_trans_adap_*(1M) de páginas de comando man para obtener información sobre un adaptador de transporte específico.
Si utiliza conmutadores de transporte como, por ejemplo, un conmutador de red, especifique un nombre de conmutador de transporte para cada interconexión. Puede utilizar el nombre predeterminado switchN, donde N es un número que se asigna automáticamente durante la configuración o crear otro nombre.
Especifique también el nombre del puerto del conmutador o acepte el nombre predeterminado, que es el mismo que el número identificador del nodo interno del nodo que aloja el extremo adaptador del cable. No obstante, ciertos tipos de adaptador, como SCI-PCI, no permiten utilizar el nombre de puerto predeterminado.
Los clústers con tres nodos o más deben utilizar conmutadores de transporte. La conexión directa entre los nodos de los clústers sólo se admite en clústers de dos nodos.
En el primer caso, aún puede especificar un conmutador de transporte para la interconexión.
Si especifica un conmutador de transporte, puede añadir más fácilmente otro nodo al clúster, posteriormente.
Las configuraciones de Sun Cluster usan dispositivos del quórum para mantener la integridad de los datos y de los recursos. Si el clúster pierde temporalmente la conexión con un nodo el dispositivo del quórum evita los problemas de amnesia o de esquizofrenia cuando el nodo intenta unirse de nuevo al clúster. Para obtener más información acerca de la finalidad y la función de los dispositivos de quórum, consulte Quorum and Quorum Devices de Sun Cluster Concepts Guide for Solaris OS.
Durante la instalación de Sun Cluster de un nodo de dos clústeres, puede optar por permitir a la utilidad scinstall que configure automáticamente un dispositivo de quórum SCSI o un dispositivo Sun NAS. Este dispositivo de quórum se elige entre los discos de almacenamiento SCSI compartidos y los dispositivos Sun NAS disponibles. La utilidad scinstall da por hecho que todos los discos de almacenamiento SCSI compartido disponibles son aptos para convertirse en dispositivos de quórum.
Si desea utilizar un servidor de quórum o un dispositivo de red NAS como dispositivo de quórum, configúrelo una vez haya finalizado el procesamiento de scinstall.
Tras la instalación puede también configurar dispositivos del quórum adicionales empleando la utilidad clsetup(1CL).
No es necesario configurar los dispositivos del quórum en un clúster de un sólo nodo.
Si la configuración del clúster incluye dispositivos de almacenamiento de terceros que no se puedan utilizar como dispositivos del quórum, deberá emplear la utilidad clsetup para configurar el quórum manualmente.
Tenga en cuenta los puntos siguientes cuando planifique los dispositivos del quórum.
Mínimo: un clúster de dos nodos debe tener como mínimo un dispositivo de quórum, que puede ser un disco SCSI compartido, un servidor de quórum o un dispositivo de red NAS. En otras topologías los dispositivos del quórum son opcionales.
Regla del número impar: si se configura más de un dispositivo del quórum en un clúster de dos nodos o en un par de nodos conectados directamente con el dispositivo del quórum, configure un número impar de dispositivos del quórum. Así se asegura de que los dispositivos del quórum tengan rutas de error completamente independientes.
Distribución de los votos del quórum: para ofrecer la mayor disponibilidad del quórum posible, asegúrese de que el número total de votos con los que contribuyen los dispositivos del quórum es menor que el número de votos con el que contribuyen los nodos. En caso contrario, los nodos no pueden formar un clúster si todos los discos no están disponibles, incluso si todos los nodos están funcionando.
Conexión – Debe conectar un dispositivo del quórum al menos a dos nodos.
Protocolo fencing SCSI: al configurar un dispositivo de quórum, su protocolo SCSI se configura automáticamente en SCSI-2 en un clúster de dos nodos o como SCSI-3 en clústeres con tres o más nodos. Tras configurar un dispositivo como dispositivo de quórum, no podrá cambiar el protocolo SCSI del mismo.
Dispositivos replicados: Sun Cluster no admite dispositivos replicados como dispositivos de quórum.
Conjunto de almacenamiento ZFS : no añada un dispositivo de quórum configurado para el conjunto de almacenamiento ZFS. Cuando se agrega un dispositivo de quórum configurado a un conjunto de almacenamiento ZFS, se cambia la etiqueta del disco para etiquetarlo como disco EFI y se pierde la información de configuración de quórum. A partir de entonces el disco no podrá proporcionar un voto del quórum al clúster.
Una vez se encuentre un disco en un conjunto de almacenamiento, podrá configurarlo como dispositivo del quórum. O puede desconfigurar el dispositivo de quórum, añadirlo al conjunto de almacenamiento y, a continuación, volver a configurar el disco como dispositivo de quórum.
Para obtener más información acerca de los dispositivos de quórum, consulte Quorum and Quorum Devices de Sun Cluster Concepts Guide for Solaris OS y Quorum Devices de Sun Cluster Overview for Solaris OS.
Este apartado proporciona las pautas siguientes para planificar los dispositivos generales y para planificar los sistemas de archivos del clúster:
Elección de opciones de montaje para sistemas de archivos del clúster
Información de montaje para los sistemas de archivos del clúster
Para obtener más información acerca de la finalidad y la función de los dispositivos globales, consulte Global Devices, Local Devices, and Device Groups de Sun Cluster Overview for Solaris OS y Global Devices de Sun Cluster Concepts Guide for Solaris OS.
Sun Cluster no necesita ningún diseño del disco ni ningún tamaño del sistema de archivos específicos. Tenga en cuenta los siguientes puntos a la hora de planificar el diseño de los dispositivos globales.
Duplicación: debe duplicar todos los dispositivos globales para que el dispositivo en cuestión pueda considerarse de alta disponibilidad. No necesita utilizar la duplicación del software si el dispositivo de almacenamiento proporciona RAID del hardware así como rutas redundantes a los discos.
Discos: cuando efectúe una duplicación, distribuya los sistemas de archivos de manera que se dupliquen mediante las matrices de los discos.
Disponibilidad: debe conectar físicamente un dispositivo global a más de un nodo del clúster para que se considere de alta disponibilidad. Un dispositivo general con varias conexiones físicas pueden tolerar un fallo de un único nodo. Se admite un dispositivo general con una sola conexión física pero el dispositivo general se vuelve inaccesible desde otros nodos si el nodo que tiene la conexión se apaga.
Dispositivos de intercambio: no cree un archivo de intercambio en un dispositivo global.
Zonas no globales: no se puede acceder directamente a los dispositivos globales desde una zona no global. Desde una zona no global sólo es posible acceder a los datos del sistema de archivos del clúster.
Para obtener más información acerca de la finalidad y la función de los grupos de dispositivos, consulte Global Devices, Local Devices, and Device Groups de Sun Cluster Overview for Solaris OS y Device Groups de Sun Cluster Concepts Guide for Solaris OS.
Agregar esta información de planificación a Plantilla para las configuraciones de los grupos de dispositivos.
Tenga en cuenta estos puntos cuando planifique los grupos de dispositivos.
A prueba fallos: puede configurar los discos con varios hosts y dispositivos gestores de volúmenes configurados correctamente como dispositivos a prueba de fallos. La configuración adecuada de un dispositivo del gestor de volúmenes contiene discos de host múltiple y la configuración correcta del propio gestor de volúmenes, lo que asegura que varios nodos puedan alojar el dispositivo exportado. No puede configurar las unidades de cinta, los CD-ROM, DVD-ROM ni los dispositivos con un solo puerto como dispositivos a prueba de fallos.
Duplicación: debe duplicar los discos para proteger los datos ante posibles fallos en el disco. Consulte Directrices para la duplicación para obtener directrices adicionales. Consulte Configuración del software de Solaris Volume Manager o Instalación y configuración del software de VxVM y la documentación de su gestor de volúmenes para obtener instrucciones acerca de la duplicación.
Repetición basada en almacenamiento: los discos de un grupo de dispositivos deben estar todos replicados o ninguno replicado. Un grupo de dispositivos no puede utilizar una mezcla de discos replicados y discos no replicados.
Para obtener más información acerca de la finalidad y la función de los sistemas de archivos del clúster, consulte Cluster File Systems de Sun Cluster Overview for Solaris OS y Cluster File Systems de Sun Cluster Concepts Guide for Solaris OS.
Opcionalmente puede configurar sistemas de archivos locales de alta disponibilidad. De esta forma se puede ofrecer mejor rendimiento para dar soporte a un servicio de datos con altos niveles de E/S, o permitir el uso de determinadas características del sistema de archivos que no se permiten en un sistema de archivos del clúster. Para obtener más información, consulte Enabling Highly Available Local File Systems de Sun Cluster Data Services Planning and Administration Guide for Solaris OS.
Tenga en cuenta los aspectos siguientes cuando planifique los sistemas de archivos del clúster.
Cuotas: las cuotas no se admiten en los sistemas de archivos del clúster. Sin embargo, las cuotas se admiten en los sistemas de archivos locales con alta disponibilidad.
Zonas no globales: si va a accederse a un sistema de archivos de clúster desde una zona no global, debe montarse en primer lugar en la zona global. Posteriormente el sistema de archivos de clúster se montará en la zona no global utilizando un montaje de realimentación. Por lo tanto, debe habilitarse el sistema de archivos de realimentación (LOFS) en un clúster que contenga zonas no globales.
Sistema de archivos de realimentación (LOFS) : durante la creación del clúster con la versión Solaris 9 de Sun Cluster, LOFS está deshabilitado de forma predeterminada. Durante la creación del clúster con la versión Solaris 10 de Sun Cluster, LOFS está habilitado de forma predeterminada.
Deberá deshabilitar manualmente LOFS en cada uno de los nodos del clúster si el clúster cumple las dos condiciones siguientes:
Sun Cluster HA para NFS está configurado en un sistema de archivos local de alta disponibilidad.
Se está ejecutando el daemon automountd.
Si el clúster satisface las dos condiciones, debe deshabilitar LOFS para evitar problemas de conmutación u otro tipo de fallos: Si el clúster cumple sólo con una de estas condiciones, podrá habilitar de forma segura LOFS.
Si es necesario habilitar tanto un LOFS como el daemon automountd, excluya de la asignación de montaje automático todos los archivos que formen parte del sistema de archivos local de alta disponibilidad exportado por Sun Cluster HA para NFS.
Archivos de registro de contabilidad del proceso: no coloque archivos de registro de contabilidad del proceso en un sistema de archivos del clúster ni en un sistema de archivos local de alta disponibilidad. Puede que haya conmutadores que estén bloqueados para escribir en el archivo de registro, lo que causaría el bloqueo del nodo. Utilice sólo un sistema de archivos local para que contenga los archivos de registro de contabilidad del proceso.
Puntos finales de comunicación: el sistema de archivos del clúster no admite ninguna de las características de sistemas de archivos de Solaris por las cuales se colocaría un punto final de comunicación en el espacio de nombre del sistema de archivos.
Por este motivo, aunque cree un zócalo para el dominio de UNIX cuyo nombre sea una ruta del sistema de archivos del clúster, el zócalo no sobrevivirá a una anomalía de un nodo.
No se podrá acceder globalmente a ningún FIFO o tubos con nombres que cree en un sistema de archivos de clúster.
Por tanto, no intente utilizar el comando fattach desde ningún nodo distinto al nodo local.
Archivos especiales del dispositivo: en un sistema de archivos de clúster no se admiten archivos especiales de bloque ni archivos especiales de caracter. Para especificar un nombre de ruta a un nodo del dispositivo de un sistema de archivos de clúster, cree un enlace simbólico al nombre de dispositivo en el directorio /dev. No utilice el comando mknod con esta finalidad.
atime: los sistemas de archivos de clúster no mantienen atime.
ctime: al acceder a un archivo del sistema de archivos del clúster, la actualización del ctime del archivo podría retrasarse.
Instalación de aplicaciones: si desea que los binarios de una aplicación con alta disponibilidad residan en un sistema de archivos de clúster, espere a instalar la aplicación hasta después de que el sistema de archivos de clúster esté configurado. Asimismo, si la aplicación se instala mediante el programa installer de Sun Java System y la aplicación depende de cualquier componente compartido, instale estos componentes compartidos en todos los nodos del clúster que no se instalen con la aplicación.
Esta sección describe los requisitos y restricciones de los siguientes tipos de sistemas de archivos de clúster:
Opcionalmente, puede configurar estos y otros tipos de sistemas de archivos como sistemas de archivos locales de alta disponibilidad. Para obtener más información, consulte Enabling Highly Available Local File Systems de Sun Cluster Data Services Planning and Administration Guide for Solaris OS.
Siga estas directrices para determinar qué opciones de montaje debe utilizar al crear sus sistemas de archivos de clúster.
Consulte la página de comando manmount_ufs(1M) para obtener más información sobre las opciones de montaje UFS.
Opción de montaje |
Utilización |
Descripción |
---|---|---|
global |
Necesario |
Esta opción hace que el sistema de archivos sea visible para todos los nodos del clúster. |
log |
Necesario |
Esta opción habilita el registro. |
Consulte la página de comando man VxFS mount_vxfs y Overview of Administering Cluster File Systems de Sun Cluster System Administration Guide for Solaris OS para obtener más información acerca de las opciones de montaje de VxFS.
Tenga en cuenta los aspectos siguientes cuando planifique los puntos de montaje de los sistemas de archivos del clúster.
Ubicación del punto de montaje: cree puntos de montaje para los sistemas de archivos del clúster en el directorio /global, a menos que no lo permitan otros productos de software. Gracias este directorio, puede distinguir más fácilmente los sistemas de archivos del clúster, completamente disponibles, de los sistemas de archivos locales.
SPARC: VxFS requisitos de montaje: si utiliza VERITAS File System (VxFS), monte y desmonte globalmente un sistema de archivos VxFS desde el nodo principal. Éste es el nodo que controla el disco en el que se encuentra el sistema de archivos de VxFS. Este método asegura que la operación de montaje o desmontaje se efectúe satisfactoriamente. Es posible que se produzcan errores en una operación de montaje o desmontaje del sistema de archivos de VxFS que se ejecute desde un nodo secundario.
Restricciones de la función SPARC: VxFS -
Las siguientes funciones VxFS no se admiten en un sistema de archivos del clúster de Sun Cluster 3.2. Sin embargo, se admiten en un sistema de archivos local.
E/S rápida
Instantáneas
Puntos de comprobación de almacenamiento
Opciones de montaje específicas de VxFS:
convosync (Convertir O_SYNC)
mincache
qlog, delaylog, tmplog
Sistema de archivos de clúster VERITAS (requiere la función de clúster VxVM & VERITAS Cluster Server)
Es posible utilizar asesorías de caché, pero el efecto se observa únicamente en el nodo especificado.
Todas las demás opciones y funciones de VxFS admitidas en un sistema de archivos del clúster son compatibles con el software de Sun Cluster 3.2. Consulte la documentación de VxFS para obtener información sobre las opciones de VxFS que se admiten en la configuración del clúster.
Anidación de puntos de montaje: normalmente, no debe anidar los puntos de montaje en los sistemas de archivos del clúster. Por ejemplo, no configure un sistema de archivos que esté montado en /global/a y otro sistema de archivos que esté montado en /global/a/b. Si hace caso omiso de esta regla puede provocar problemas en la disponibilidad y en el orden de arranque del nodo. Estos problemas se producirían si el punto de montaje superior no estuviera presente cuando el sistema intentara montar un sucesor de ese sistema de archivos. La única excepción a esta regla es que los dispositivos de los dos sistemas de archivos tengan la misma conectividad física con el nodo. Un ejemplo puede ser los diferentes segmentos en el mismo disco.
forcedirectio: Sun Cluster no permite la ejecución de archivos binarios que no pertenezcan a los sistemas de archivos montados mediante la opción forcedirectio.
Agregar esta información de planificación a Plantilla para las configuraciones de los grupos de dispositivos y Plantilla para la configuración del Gestor de volúmenes. Para Solaris Volume Manager, agregue también esta información de planificación a la plantilla de volúmenes (Solaris Volume Manager).
Este apartado proporciona las directrices siguientes para planificar la gestión de volúmenes en la configuración del clúster:
Sun Cluster utiliza el software de gestión de volúmenes para reunir los discos en grupos de dispositivos que se pueden administrar como una unidad. Sun Cluster admite el software Solaris Volume Manager y VERITAS Volume Manager (VxVM) que instale o utilice por cualquiera de los siguientes procedimientos.
Tabla 1–4 Uso admitido de administradores de volúmenes con el software de Sun Cluster
Software del gestor de volúmenes |
Requisitos |
---|---|
Solaris Volume Manager |
Debe instalar el software Solaris Volume Manager en todos los nodos del clúster, sin tener en cuenta si utiliza VxVM en algunos nodos para gestionar discos. |
Debe instalar y aceptar la licencia de VxVM con la función de clúster en todos los nodos del clúster. |
|
VxVM sin la función del clúster |
Simplemente se le solicita que instale y acepte la licencia de VxVM en los nodos que se adjuntan para almacenar los dispositivos que VxVM gestione. |
Si instala los dos gestores de volúmenes en el mismo nodo, debe utilizar el software Solaris Volume Manager para gestionar los discos que son locales en cada nodo. Los discos locales incluyen el disco raíz. Utilice VxVM para gestionar todos los discos compartidos. |
Consulte la documentación del administrador de volúmenes y Configuración del software de Solaris Volume Manager o Instalación y configuración del software de VxVM para obtener instrucciones acerca de cómo instalar y configurar el software del administrador de volúmenes. Para obtener más información acerca del uso de la gestión de volúmenes en una configuración del clúster, consulte Multihost Devices de Sun Cluster Concepts Guide for Solaris OS y Device Groups de Sun Cluster Concepts Guide for Solaris OS.
Tenga en cuenta las siguientes directrices generales cuando configure los discos con el software de la gestión de volúmenes:
Discos multihosts duplicados: debe duplicar todos los discos multihost en las unidades de expansión de los discos. Consulte Directrices para la duplicación de discos multisistema para obtener instrucciones sobre la duplicación de los discos multihost. No necesita utilizar la duplicación del software si el dispositivo de almacenamiento proporciona RAID del hardware así como rutas redundantes a los dispositivos.
Raíz duplicada: la duplicación del disco raíz asegura una alta disponibilidad, pero dicha duplicación no es necesaria. Consulte Directrices para la duplicación para obtener directrices sobre cómo duplicar el disco raíz.
Nombrado único: puede que tenga Solaris Volume Manager local o VxVM volúmenes que se usan como dispositivos en los que se montan los sistemas de archivos /global/.devices/node@Id. del nodo. En ese caso, el nombre de cada volumen local en el que se debe montar el sistema de archivos /global/.devices/node@Id. del nodo debe ser un nombre único en todo el clúster.
Listas de nodos: con el fin de asegurar una gran disponibilidad en un grupo de dispositivos, haga que sus listas de nodos de controladores potenciales y que su normativa sobre rectificaciones sean idénticas a cualquier grupo de recursos asociados. O bien, si un grupo escalable de recursos utiliza más nodos o zonas que su grupo asociado de dispositivos, convierta la lista de nodos del grupo de recursos escalables en un superconjunto de la lista de nodos del grupo de dispositivos. Consulte la información de planificación de grupos en Sun Cluster Data Services Planning and Administration Guide for Solaris OS para obtener información sobre las listas de nodos.
Discos multihost: debe conectar (o conectar a los puertos) todos los dispositivos que se utilizan para construir un grupo de dispositivos para todos los nodos configurados en la lista de nodos para dicho grupo de dispositivos. Solaris Volume Manager puede comprobar automáticamente esta conexión en el momento en que los dispositivos se añadan a un conjunto de discos. No obstante, los grupos de discos VxVM configurados no están asociados a ningún conjunto de nodos en concreto.
Discos de repuesto en marcha: puede utilizar discos de repuesto en marcha para aumentar la disponibilidad, pero no son necesarios.
Consulte la documentación del gestor de volúmenes para conocer las recomendaciones de distribución del disco y cualquier otra restricción.
Tenga en cuenta los puntos siguientes cuando planifique las configuraciones de Solaris Volume Manager:
Nombres de volúmenes locales – El nombre de cada Solaris Volume Manager de volumen local en el que se monta el sistema de archivos de los dispositivos globales, /global/.devices/node@Id. del nodo, debe ser único en todo el clúster. Asimismo, el nombre no puede ser igual al del identificador de un dispositivo.
Mediadores de dos cadenas: cada conjunto de discos configurado con dos cadenas de discos y controlado por dos nodos exactamente debe tener mediadores Solaris Volume Manager configurados para cada conjunto de discos. Una cadena de discos consta de un contenedor de discos, sus discos físicos, los cables del contenedor a los nodos y las tarjetas adaptadoras de la interfaz. Tenga en cuenta las reglas siguientes para configurar los mediadores de dos cadenas:
Debe configurar cada conjunto de discos exactamente con dos nodos que actúen como sistemas mediadores.
Debe utilizar los mismos dos nodos en todos los conjuntos de discos que necesiten mediadores. Esos dos nodos deben controlar los conjuntos de discos.
Los mediadores no se pueden configurar en los conjuntos de discos que no cumplan con los requisitos de dos cadenas y dos sistemas.
Consulte la página de comando man de mediator(7D) para obtener más detalles.
Configuración de /kernel/drv/md.conf : SPARC: en los los volúmenes del SO Solaris 9 y Solaris Volume Manager utilizados por cada conjunto de discos se crean por anticipado en el momento del arranque de la reconfiguración. Ésta se basa en los parámetros de configuración que existen en el archivo /kernel/drv/md.conf.
Con la versión Solaris 10, Solaris Volume Manager se ha mejorado y ahora puede configurar volúmenes dinámicamente. Ya no necesita editar los parámetros nmd y md_nsets del archivo /kernel/drv/md.conf. Los volúmenes nuevos se crean dinámicamente, si es necesario.
Debe modificar los campos nmd y md_nsets como se indica a continuación para admitir una configuración de Sun Cluster en el SO Solaris 9:
Todos los nodos del clúster deben tener archivos /kernel/drv/md.conf idénticos, sin tener en cuenta el número de conjuntos de discos que se mantienen en cada nodo. Si no se siguen estas directrices se pueden producir graves errores en Solaris Volume Manager, así como una posible pérdida de datos.
md_nsets – El campo md_nsets establece el número total de conjuntos de discos que se puede crear para un sistema con objeto de satisfacer las necesidades de todo el clúster. Configure el valor de md_nsets con el número esperado de conjuntos de discos en el clúster más un conjunto de discos adicionales. El software Solaris Volume Manager utiliza el conjunto de discos adicionales para gestionar los discos privados en el sistema local.
El número máximo de conjuntos de discos que se permite por clúster es de 32. Este número permite 31 para uso general, además de un conjunto de discos para la gestión privada de discos. El valor predeterminado de md_nsets es 4.
nmd – El campo nmd establece el valor más alto previsto de cualquier nombre de volumen que exista en el clúster. Por ejemplo, si el valor más alto de los nombres de volúmenes que se usa en los primeros 15 conjuntos de discos de un clúster es 10, pero el valor más alto del volumen del conjunto de discos número 16 es 1000, defina el valor de nmd en 1000 como mínimo. También, el valor de nmd debe ser lo suficientemente grande como para asegurarse de que existan suficientes números para cada dispositivo (nombre de Id.). El número debe ser lo suficientemente superior como para asegurar que cada nombre de volumen total pueda ser exclusivo en todo el clúster.
El valor de volúmenes más alto que se permite por conjunto de discos es de 8192. El valor predeterminado de nmd es 128.
Configure estos campos en el momento de la instalación para permitir la expansión futura prevista del clúster, ya que, una vez éste esté funcionando, aumentar el valor de estos campos le ocupará demasiado tiempo. El cambio de valor requiere un rearranque de la reconfiguración para cada nodo. El aumento posterior de estos valores también incrementa la posibilidad de una asignación de espacio inadecuada en el sistema de archivos raíz (/) al crear todos los dispositivos solicitados.
Al mismo tiempo, mantenga el valor de los campos nmd y md_nsets tan bajo como sea posible. Todos los dispositivos posibles cuentan con estructuras de memoria, como las especifican nmd y md_nsets, incluso si no ha creado estos dispositivos. Para conseguir un rendimiento óptimo, mantenga el valor de nmd y md_nsets ligeramente superior al número de volúmenes que tenga intención de utilizar.
Consulte Archivos del sistema e inicio en la Guía de administración de Solaris Volume Manager (Solaris 9 o Solaris 10) para obtener más información acerca del archivo md.conf.
Tenga en cuenta los puntos siguientes cuando planifique la configuración de VERITAS Volume Manager (VxVM).
Accesibilidad a nodos: debe configurar todos los grupos de discos gestores de volúmenes como grupos de dispositivos de Sun Cluster o como grupos de discos sólo locales. Si no configura el grupo de discos en una de estas formas, los dispositivos del grupo de discos no podrán acceder a ninguno de los nodos del clúster.
Un grupo de dispositivos habilita un nodo secundario para alojar los discos multisistema si el nodo primario falla.
Los grupos de discos sólo local funcionan fuera del control de Sun Cluster, y sólo puede accederse a él desde un nodo simultáneamente.
Denominación basada en cierres: si utiliza la Denominación basada en cierres para los dispositivos, asegúrese de que utiliza nombres de dispositivos coherentes en todos los nodos del clúster que compartan el mismo almacenamiento. VxVM no coordina estos nombres, de modo que el administrador debe comprobar que VxVM asigne los mismos nombres a los mismos dispositivos desde diferentes nodos. Un error en la asignación de nombres coherentes no interfiere en el correcto comportamiento del clúster, pero complica enormemente la administración del clúster y aumenta la posibilidad de errores en la configuración, lo cual puede llevar a una pérdida de datos.
Grupos de discos raíz: la creación de grupos de discos raíz es opcional.
Un grupo de disco raíz se puede crear en los siguientes discos:
El disco raíz que se debe encapsular
Uno o más discos locales que no sean raíz, los cuales se pueden encapsular o inicializar
Una combinación de discos raíz y otros locales que no lo son
El grupo de discos raíz debe ser local en el nodo.
Grupos de disco raíz sencillos: los grupos de raíz sencillos, creados en único segmento del disco raíz, no se admiten como tipos de discos con VxVM en el software de Sun Cluster. Esta es una restricción general de VxVM.
Encapsulación: los discos que se vayan a encapsular deben tener dos entradas de la tabla de segmentos del disco libres.
Número de volúmenes: calcule el número máximo de volúmenes que puede utilizar cualquier grupo de dispositivos en el momento de la creación del grupo de dispositivos.
Si el número de volúmenes es menor de 1000, se puede utilizar la numeración menor predeterminada.
Si el número de volúmenes es 1000 o más, se debe planificar cuidadosamente el modo de asignar los números menores en los volúmenes del grupo de dispositivos. No puede haber dos grupos de dispositivos que solapen las asignaciones de números menores.
Registro de áreas modificadas: el uso de Registro de áreas modificadas (DRL) reduce el tiempo de recuperación del volumen después de un fallo en el nodo. Es posible que el uso de DRL reduzca el caudal de E/S.
Rutas múltiples dinámicas (DMP): no se admite el uso de DMP sólo para gestionar varias rutas de E/S por nodo al admacenamiento compartido. Sólo es compatible el uso de DMP en las configuraciones siguientes:
Una única ruta de E/S por nodo en el almacenamiento compartido del clúster.
Una solución admitida de rutas múltiples, como Sun Traffic Manager, EMC PowerPath o Hiatchi HDLM, que gestiona las rutas de E/S múltiples por nodo con el almacenamiento compartido del clúster.
Consulte la documentación de la instalación de VxVM si desea obtener más información.
El registro es necesario para UFS y los sistemas de archivos de clúster de VxFS. Sun Cluster admite las opciones siguientes en el registro del sistema de archivos:
Registro UFS de Solaris – Consulte la página de comando man mount_ufs(1M) para obtener más información.
SPARC: VERITAS File System (VxFS) registro – Consulte la página de comando man de mount_vxfs que se proporciona con el software de VxFS para obtener más información.
Tanto Solaris Volume Manager como VERITAS Volume Manager admiten los dos tipos de registro del sistema de archivos.
Este apartado proporciona las directrices siguientes para planificar la duplicación en la configuración del clúster:
La duplicación de todos los discos multisistema en una configuración de Sun Cluster permite que dicha configuración admita fallos de un único dispositivo. Sun Cluster requiere la duplicación de todos los discos multisistema en todas las unidades de expansión. No necesita utilizar la duplicación del software si el dispositivo de almacenamiento proporciona RAID del hardware así como rutas redundantes a los dispositivos.
Tenga en cuenta los siguientes aspectos a la hora de duplicar discos multihost:
Separación de las unidades de expansión de los discos: cada subduplicación de una duplicación o plex concretos debe situarse en una unidad diferente de expansión de discos multihost.
Espacio del disco –: la duplicación duplica la cantidad de espacio en disco necesaria.
Duplicación de tres vías: los software Solaris Volume Manager y VERITAS Volume Manager (VxVM) admiten la duplicación de tres vías. No obstante, el software Sun Cluster necesita solamente la duplicación de dos vías.
Diferenciación de los tamaños de los discos: si efectúa la duplicación en un dispositivo de un tamaño diferente, la capacidad de duplicación se limitará al tamaño de la duplicación o plex menor.
Para obtener más información acerca de los discos multihost, consulte Multihost Disk Storage de Sun Cluster Overview for Solaris OS y en la Sun Cluster Concepts Guide for Solaris OS.
Agregue esta información de planificación a la Plantilla para la disposición del sistema local de archivos.
Para conseguir una máxima disponibilidad duplique la raíz (/), /usr, /var, /opt y swap en los discos locales. En VxVM, puede encapsular el disco raíz y duplicar los subdiscos generados. No obstante, el software Sun Cluster no requiere la duplicación del disco raíz.
Antes de decidir si duplicar el disco raíz, tenga en cuenta los riesgos, la complejidad, el coste y el período entre revisiones con respecto a las diversas alternativas que conciernen al disco raíz. No existe una única estrategia de duplicación que funcione en todas las configuraciones. Puede que desee considerar la solución preferida por el representante local de servicios de Sun cuando decida si duplicar la raíz.
Consulte la documentación de su administrador de volúmenes y Configuración del software de Solaris Volume Manager o Instalación y configuración del software de VxVM para obtener instrucciones acerca de cómo duplicar el disco raíz.
Tenga en cuenta los puntos siguientes cuando decida si duplicar el disco raíz.
Disco de arranque: – puede configurar la duplicación para que sea un disco raíz de arranque. Después puede efectuar un arranque desde la duplicación si el disco de arranque primario falla.
Complejidad: – la duplicación del disco raíz añade complejidad a la administración del sistema. también complica el arranque en la modalidad monousuario.
Copias de seguridad: – independientemente de si se duplica el disco raíz, también debe efectuar copias de seguridad de la raíz de manera regular. La duplicación no basta para protegerle de los errores de administración. Sólo un plan de copia de seguridad le permitirá restaurar los archivos que accidentalmente se hayan modificado o borrado.
Dispositivos de quórum: no utilice un disco configurado como dispositivo de quórum para duplicar un disco raíz.
Quórum: en el software Solaris Volume Manager, en situaciones de error donde se pierde el quórum de la base de datos del estado, no es posible rearrancar el sistema hasta que se efectúe el mantenimiento. Consulte la documentación de Solaris Volume Manager para obtener información sobre la base de datos del estado y sus réplicas.
Controladores separados: la mayor disponibilidad incluye la duplicación del disco raíz en un controlador separado.
Disco raíz secundario: con un disco raíz duplicado, es posible que el disco raíz primario falle pero puede continuar el trabajo en el disco raíz secundario (duplicación). Posteriormente, el disco raíz primario puede devolver el servicio, por ejemplo, después de apagar y encender el sistema o errores temporales de E/S. Los arranques siguientes se ejecutan después mediante el disco raíz principal que se especifica en el parámetro eeprom(1M) boot-device. En esta situación no se llevan a cabo tareas de reparación manuales, sino que la unidad comienza a trabajar con suficiente fiabilidad para arrancar. Con Solaris Volume Manager se produce una resincronización. Ésta necesitará un paso manual cuando la unidad se devuelva al servicio.
Si se efectuaran cambios en los archivos del disco raíz secundario (duplicación), éstos no se reflejarían en el disco raíz primario durante el arranque. Esta condición provocaría una subduplicación caducada. Por ejemplo, se perderían los cambios en el archivo /etc/system. Con Solaris Volume Manager, algunos comandos de administración pueden haber cambiado el archivo /etc/system mientras el disco raíz primario estaba fuera de servicio.
El programa de arranque no comprueba si el sistema arranca desde una duplicación o desde un dispositivo físico subyacente. La duplicación se vuelve activa en parte a través del proceso, después de cargar los volúmenes. Por este motivo, antes de este punto, el sistema es vulnerable a los problemas provocados por subduplicaciones caducadas.