Este capítulo describe los conceptos clave relacionados con los componentes de hardware de una configuración del sistema Sun Cluster. Los temas que se tratan son los siguientes:
Esta información está dirigida principalmente a los proveedores de servicio de hardware a quienes ayuda a entender la relación entre los componentes de hardware para mejor instalar, configurar o reparar el hardware del clúster. Asimismo, a los administradores del sistema del clúster esta información les puede resultar útil para instalar, configurar y administrar el software del clúster.
Un clúster consta de varios componentes de hardware, entre los que se incluyen:
Nodos de clúster con discos locales (no compartidos)
Almacenamiento multisistema (discos compartidos entre nodos)
Medios extraíbles (cintas y CD-ROM)
Interconexión del clúster
Interfaces de red públicas
Sistemas cliente
Consola de administración
Dispositivos de acceso a la consola
El sistema Sun Cluster le permite combinar estos componentes en una serie de configuraciones. Las siguientes secciones describen estas configuraciones.
Para ver una ilustración de una configuración de ejemplo de un clúster con dos nodos, consulte Entorno de hardware de Sun Cluster de Sun Cluster para el sistema operativo Solaris: Visión general.
Un nodo de clúster es un equipo en el que se ejecuta el sistema operativo Solaris y el software Sun Cluster. Un nodo de clúster puede ser un miembro actual del clúster (un miembro del clúster) o bien un miembro potencial.
SPARC: el software Sun Cluster admite hasta 16 nodos en un clúster. Consulte SPARC: Topologías de Sun Cluster para SPARC para conocer las configuraciones de nodos admitidas.
x86: el software Sun Cluster admite dos nodos en un clúster. Consulte x86: Topologías de Sun Cluster para x86 para conocer las configuraciones de nodos admitidas.
Los nodos del clúster normalmente están conectados a uno o más dispositivos multisistema, aquéllos que no lo están usan el sistema de archivos del clúster para acceder a los dispositivos multisistema. Por ejemplo, una configuración de servicios escalables permite que los nodos atiendan peticiones sin estar directamente conectados a los dispositivos multisistema.
Además, los nodos en configuraciones de bases de datos paralelas comparten acceso simultáneo a todos los discos.
Consulte Dispositivos multisistema para obtener información acerca del acceso simultáneo a discos.
Consulte SPARC: Topología de par en clúster para SPARC y x86: Topología de par en clúster para x86 para obtener información acerca de las configuraciones de bases de datos paralelas.
Todos los nodos del clúster están agrupados bajo un nombre común (el nombre del clúster) que se utiliza para acceder a éste y gestionarlo.
Los adaptadores de redes públicas conectan los nodos a éstas para ofrecer acceso de cliente al clúster.
Los miembros del clúster se comunican con otros nodos del clúster a través de una o varias redes independientes. Este conjunto de redes independientes físicamente se conoce como interconexión del clúster.
Todos los nodos del clúster reciben información de cuándo un nodo se une o deja el clúster, conocen también los recursos que se están ejecutando localmente así como los que se están ejecutando en los otros nodos del clúster.
Los nodos del mismo clúster deben tener capacidades de procesamiento, memoria y E/S similares para permitir que la recuperación de fallos se produzca sin que haya una degradación importante en el rendimiento. Debido a la función de recuperación de fallos, cada nodo debe tener una capacidad de exceso suficiente para asimilar la carga de trabajo de todos los nodos para los que esté configurado como nodo secundario o de copia de respaldo.
Cada nodo ejecuta su propio sistema de archivos raíz individual (/).
Si desea trabajar como miembro de un clúster, un nodo debe tener el siguiente software instalado:
Sistema operativo Solaris
Software Sun Cluster
Aplicación de servicio de datos
Gestión de volúmenes (Gestor de volúmenes de SolarisTM o VERITAS Volume Manager)
Una excepción es la configuración que usa una matriz redundante de hardware de discos independientes (RAID). Esta configuración puede que no requiera un gestor de volúmenes de software como Gestor de volúmenes de Solaris o VERITAS Volume Manager.
Consulte Software Sun Cluster: Guía de instalación para el sistema operativo Solaris para obtener información acerca de cómo instalar el sistema operativo Solaris, Sun Cluster y el software de gestión de volúmenes.
Consulte Sun Cluster Data Services Planning and Administration Guide for Solaris OS para obtener información acerca de cómo instalar y configurar los servicios de datos.
Consulte el Capítulo 3, Conceptos clave para los administradores de sistemas y los desarrolladores de aplicaciones para obtener información conceptual acerca de los componentes de software previos.
La siguiente figura proporciona una descripción general de los componentes de software que funcionan juntos para crear el entorno de software de Sun Cluster.
Consulte el Capítulo 4, Preguntas más frecuentes para ver las preguntas y respuestas acerca de los miembros del clúster.
Los discos que pueden conectarse a más de un nodo simultáneamente se denominan multisistema. En el entorno de Sun Cluster, el almacenamiento multisistema hace que los discos tengan una gran disponibilidad. El software Sun Cluster requiere almacenamiento multisistema para que los clústeres de dos nodos establezcan el quórum. Los clústeres que tengan más de dos nodos no requieren dispositivos del quórum. Para obtener más información acerca del quórum, consulte Quórum y dispositivos del quórum .
Los dispositivos multisistema poseen las características siguientes.
Tolerancia a los fallos de un único nodo.
Capacidad para almacenar los datos de las aplicaciones, los archivos binarios de las aplicaciones y los archivos de configuración.
Protección frente a los fallos en los nodos. Si los clientes solicitan los datos a través de un nodo que falla, las solicitudes se desvían para usar otro nodo que tenga una conexión directa con los mismos discos.
Acceso global a través de un nodo principal que “controle” los discos o acceso directo simultáneo a través de las rutas locales. La única aplicación que usa el acceso simultáneo directo actualmente es Oracle Real Application Clusters Guard.
Un gestor de volúmenes proporciona configuraciones duplicadas o RAID-5 para la redundancia de los dispositivos multisistema. Actualmente, Sun Cluster es compatible con Gestor de volúmenes de Solaris y con VERITAS Volume Manager, que está disponible para usarlo sólo en clústeres basados en SPARC, como gestores de volúmenes, y el controlador de hardware RDAC RAID-5 en varias plataformas RAID de hardware.
Al combinar los dispositivos multisistema con los discos de duplicación y la separación de datos, se consigue protección contra el fallo de los nodos y el de los discos individuales.
Consulte el Capítulo 4, Preguntas más frecuentes para ver las preguntas y respuestas acerca del almacenamiento multisistema.
Este apartado se aplica sólo a dispositivos de almacenamiento SCSI y no a los de fibra óptica que usan los dispositivos multisistema.
En un servidor autónomo, el nodo servidor controla las actividades del bus SCSI porque el circuito adaptador del sistema SCSI se conecta a ese servidor en un bus SCSI determinado. Este circuito adaptador del sistema SCSI se conoce con el nombre de iniciador SCSI. Este circuito inicia todas las actividades de este bus SCSI. La dirección SCSI predeterminada de los adaptadores en el sistema Sun es 7.
Las configuraciones del clúster comparten el almacenamiento entre varios nodos del servidor, usando los dispositivos multisistema. Cuando el almacenamiento del clúster consta de dispositivos SCSI diferenciales o de dispositivos con un único extremo, la configuración se denomina iniciador múltiple SCSI. Tal como implica esta terminología, existe más de un iniciador SCSI en el bus.
La especificación SCSI requiere que cada dispositivo de un bus SCSI tenga una única dirección SCSI. (El adaptador del sistema también es un dispositivo del bus SCSI.) La configuración predeterminada del hardware en un entorno de iniciador múltiple provoca un conflicto debido a que de forma predeterminada todos los adaptadores del sistema SCSI tienen el valor 7.
Para resolver este conflicto, se debe dejar uno de los adaptadores de cada bus SCSI con la dirección SCSI 7 y se debe configurar los otros adaptadores como direcciones SCSI no utilizadas. La planificación correcta dictamina que estas direcciones SCSI “no utilizadas” incluyan tanto direcciones usadas actualmente como no utilizadas. Un ejemplo de direcciones no utilizadas en el futuro es la incorporación del almacenamiento instalando unidades nuevas en ranuras de unidad vacías.
En la mayoría de configuraciones, la dirección SCSI disponible para un segundo adaptador de sistema es 6.
Se pueden cambiar las direcciones SCSI seleccionadas de esos adaptadores del sistema mediante una de las siguientes herramientas de configuración de la propiedad scsi-initiator-id:
PROM de OpenBoot en un sistema basado en la plataforma SPARC
La utilidad SCSI que se puede ejecutar opcionalmete después de que arranque la BIOS en un sistema basado en la plataforma x86
Se puede configurar esta propiedad tanto globalmente para un nodo como individualmente para cada adaptador. Las instrucciones para configurar un único scsi-initiator-id para cada adaptador de sistema SCSI se incluyen en Sun Cluster 3.0-3.1 With SCSI JBOD Storage Device Manual for Solaris OS.
Los discos locales son aquellos que sólo estan conectados a un nodo individual. Los discos locales no están, en consecuencia, protegidos ante posibles fallos de los nodos (no están configurados para una alta disponibilidad). Sin embargo, todos los discos (también los locales), están incluidos en el espacio de nombre global y están configurados como dispositivos globales. Por lo tanto, los discos en sí son visibles desde todos los nodos del clúster.
Puede hacer que los sistemas de archivos de los discos locales estén disponibles para otros nodos. Para ello, debe colocarlos en un punto de montaje global. Si el nodo que tiene montado actualmente uno de estos sistemas de archivos globales falla, el resto de nodos pierde acceso a ese sistema de archivos. Usar un gestor de volúmenes permite duplicar estos discos de forma que un fallo no pueda provocar que los sistemas de archivos dejen de estar accesibles, aunque los gestores de volúmenes no protejan contra los fallos de los nodos.
Consulte la sección Dispositivos globales para obtener más información sobre los dispositivos globales.
El clúster admite soportes extraíbles, como unidades de cinta y de CD-ROM, En general, estos dispositivos se instalan, configuran y se atienden del mismo modo que se haría en un entorno que no estuviera configurado en clúster. Estos servicios están configurados como dispositivos globales en Sun Cluster, por lo que a cada dispositivo se puede acceder desde cualquier nodo del clúster. Consulte Sun Cluster 3.0-3.1 Hardware Administration Manual for Solaris OS para obtener información acerca de la instalación y la configuración de los medios extraíbles.
Consulte la sección Dispositivos globales para obtener más información sobre los dispositivos globales.
La interconexión del clúster es la configuración física de dispositivos que se utiliza para transferir comunicaciones privadas del clúster y de servicios de datos entre los nodos del clúster. Debido a que la interconexión se utiliza ampliamente para comunicaciones privadas del clúster, puede limitar el rendimiento.
La interconexión del clúster sólo puede conectar los distintos nodos del clúster. El modelo de seguridad de Sun Cluster asume que sólo los nodos del clúster tienen acceso físico a la interconexión del clúster.
Todos los nodos deben estar conectados por la interconexión del clúster a través de, al menos, dos redes independientes físicamente redundantes o rutas de acceso, para evitar que exista un único punto de fallo. Entre dos nodos cualesquiera puede tener varias redes independientes físicamente (de dos a seis).
La interconexión del clúster se compone de tres componentes del hardware: adaptadores, uniones y cables. La lista siguiente describe cada uno de estos componentes del hardware.
Adaptadores: las tarjetas de interfaz de red que residen en cada nodo del clúster. Sus nombres se construyen a partir de un nombre de dispositivo seguido inmediatamente por un número de unidad física, por ejemplo: qfe2. Algunos adaptadores sólo tienen una conexión de red física, aunque otros como la tarjeta qfe tienen varias conexiones físicas. algunos también contienen interfaces de red y de almacenamiento.
Un adaptador de red con varias interfaces podría convertirse en un único punto de fallo si falla todo el adaptador. Para una máxima disponibilidad, se debe planificar el clúster de manera que la única ruta entre dos nodos no dependa de un único adaptador de red individual.
Uniones: los conmutadores que residen fuera de los nodos del clúster. Las uniones llevan a cabo funciones de transporte y conmutación para permitir conectar más de dos nodos simultáneamente. En un clúster de dos nodos no hacen falta uniones porque los nodos pueden conectarse directamente entre sí con cables físicos redundantes conectados a adaptadores redundantes de cada nodo. Las configuraciones superiores a dos nodos en general requieren uniones.
Cables: la conexión física que se instala entre dos adaptadores de red o entre un adaptador y una unión.
Consulte el Capítulo 4, Preguntas más frecuentes para ver las preguntas y respuestas acerca de las interconexiones del clúster.
Los clientes se conectan al clúster a través de interfaces de red pública. Todas las tarjetas adaptadoras de red pueden conectarse a una o más redes públicas, de acuerdo con las interfaces de hardware que la tarjeta tenga. Los nodos pueden configurarse para que incluyan múltiples tarjetas interfaz de red pública a fin de que varias estén activas y se utilicen en caso de recuperación de fallos como respaldo entre ellas. Si uno de los adaptadores falla, el software Ruta múltiple de red de protocolo de Internet (IP) se ejecuta para efectuar la recuperación ante fallos de la interfaz defectuosa en otro adaptador del grupo.
No hay consideraciones de hardware especiales relacionadas con la agrupación en clúster para las interfaces de red públicas.
Consulte el Capítulo 4, Preguntas más frecuentes para ver las preguntas y respuestas acerca de las redes públicas.
Los sistemas cliente son las estaciones de trabajo u otros servidores que acceden al clúster a través de la red pública. Los programas cliente usan los datos u otros servicios proporcionados por las aplicaciones servidor que se ejecutan en el clúster.
Los sistemas cliente no son de alta disponibilidad. Los datos y aplicaciones del clúster son de alta disponiblidad.
Consulte el Capítulo 4, Preguntas más frecuentes para ver las preguntas y respuestas acerca de los sistemas cliente.
Es necesario que disponga de acceso a la consola para todos los nodos del clúster. Para obtener acceso a la consola, utilice uno de los siguientes dispositivos:
El concentrador de terminal que adquirió junto con el hardware del clúster
El procesador de servicio del sistema (SSP) en los servidores Sun Enterprise E10000 (para clústeres basados en SPARC )
El controlador del sistema en los servidores Sun FireTM (también para clústeres basados en SPARC)
Otro dispositivo que pueda acceder a ttya en cada nodo
Sun sólo dispone de un concentrador de terminal admitido y su uso es opcional. El concentrador de terminal permite el acceso a /dev/console en todos los nodos a través de una red TCP/IP. El resultado es el acceso a nivel de consola para todos los nodos desde una estación de trabajo remota desde cualquier lugar de la red.
El procesador de servicio del sistema (SSP) proporciona acceso a la consola para los servidores Sun Enterprise E1000. El SSP es un equipo de una red Ethernet que está configurado para admitir el servidor Sun Enterprise E1000. El SSP es la consola administrativa del servidor Sun Enterprise E1000. Gracias a la función Sun Enterprise E10000 Network Console, cualquier estación de trabajo de la red puede abrir una sesión de consola de sistema.
Otros metodos de acceso a la consola incluyen otros concentradores de terminal, acceso al puerto serie tip(1) desde otro nodo y terminales mudos. Puede usar teclados y monitores de SunTM u otros dispositivos de puerto serie si el proveedor de servicio de hardware los admite.
Puede usar una estación de trabajo UltraSPARC® dedicada o un servidor Sun Fire V65x, conocida como consola administrativa, para administrar el clúster activo. Normalmente, se instala y ejecuta un software de herramienta administrativa, como el panel de control del clúster (CCP) y el módulo de Sun Cluster para el producto Sun Management Center (para utilizarlo sólo con clústeres basados en SPARC), en la consola administrativa. Si utiliza cconsole en CCP se le permitirá conectar a más de un nodo simultáneamiente. Para obtener más información acerca del uso de CCP, consulte el Capítulo 1, Introducción a la administración de Sun Cluster de Sun Cluster: Guía de administración del sistema para el SO Solaris.
La consola de administración normalmente no es un nodo del clúster; se acostumbra a usar para obtener acceso remoto a los nodos del clúster, bien a través una red pública bien, opcionalmente, a través de un concentrador de terminales situado en una red. Si el clúster cuenta con una plataforma Sun Enterprise E10000, deberá iniciar sesión en SSP desde la consola administrativa y conectarse usando el comando netcon(1M).
Normalmente los nodos se configuran sin monitor. Entonces se accede a la consola del nodo desde una sesión telnet desde la consola administrativa. La consola de administración está conectada a un concentrador de terminal y éste a su vez al puerto serie del nodo. En el caso de un servidor Sun Enterprise E1000, la conexión se realiza desde un procesador de servicio del sistema. Consulte Dispositivos de acceso a la consola para obtener más información.
Sun Cluster no requiere una consola administrativa dedicada, pero si usa una, obtendrá los siguientes beneficios:
Permite la gestión centralizada del clúster ya que agrupa herramientas de consola y gestión en la misma máquina
Ofrece al proveedor de servicio de hardware una resolución de problemas potencialmente mas rápida
Consulte el Capítulo 4, Preguntas más frecuentes para ver las preguntas y respuestas acerca de la consola administrativa.
Una topología es el esquema de conexión que une los nodos del clúster con las plataformas de almacenamiento que se usan en un entorno de Sun Cluster. El software Sun Cluster es compatible con cualquier topología que cumpla las siguientes directrices.
Un entorno de Sun Cluster que esté compuesto por sistemas basados en SPARC admite como máximo 16 nodos en un clúster, con independencia de la configuración de almacenamiento que se implemente.
Un dispositivo de almacenamiento compartido puede conectarse a tantos nodos como se admitan.
Los dispositivos de almacenamiento compartido no necesitan conectarse con todos los nodos del clúster. Sin embargo, estos dispostivos de almacenamiento deben conectarse a un mínimo de dos nodos.
El software Sun Cluster no requiere que se configure un clúster usando topologías específicas. Las topologias que se describen a continuación se incluyen para proporcionar el vocabulario que permita discutir un esquema de conexión del clúster. Estas topologías son esquemas de conexión típicos.
Par en clúster
Par+N
N+1 (estrella)
N*N (escalable)
Los apartados siguientes incluyen diagramas de ejemplo para cada topología.
Una topología de par en clúster consiste en dos o más nodos que funcionan en una misma estructura administrativa de clúster. En esta configuración sólo se produce recuperación de fallos entre pares. Sin embargo, todos los nodos están conectados mediante la interconexión del clúster y funcionan bajo el control del software de Sun Cluster. Esta topología se podría usar para ejecutar una aplicación de base de datos paralela en un par y una aplicación de recuperación de fallos o de escalabilidad en otro par.
Usando el sistema de archivos en clúster, podrá tener también una configuración de dos pares. Más de dos nodos pueden ejecutar un servicio escalable o una base de datos paralela, incluso aunque los nodos no estén directamente conectados a los discos que almacenan los datos de la aplicación.
La figura siguiente ilustra una configuración de par en clúster.
La topología par+n incluye un par de nodos conectados directamente al almacenamiento compartido y un conjunto adicional de nodos que usa la interconexión del clúster para acceder al almacenamiento compartido; éstos no tienen conexión directa.
La figura siguiente muestra una topología par+n en que dos de los cuatro nodos (nodo 3 y 4) usan la interconexión del clúster para acceder al almacenamiento. Esta configuración puede ampliarse para que incluya nodos adicionales que no tengan acceso directo al almacenamiento compartido.
Las topologías n+1 incluyen varios nodos primarios y uno secundario que no se deben configurar de forma idéntica. Los nodos primarios proporcionan de forma activa servicios de aplicación. El nodo secundario no debe estar desocupado mientras se espera que uno principal falle.
El nodo secundario es el único de la configuración que está conectado físicamente a todos las unidades de almacenamientos multisistema .
Si se produce un fallo en el nodo primario, Sun Cluster se recupera utilizando los recursos del nodo secundario, donde seguirán funcionando los recursos hasta que se vuelvan a pasar al nodo primario (ya sea de forma manual o automática).
El secundario siempre debe tener suficiente capacidad sobrante de CPU para manejar la carga si uno de los primarios falla.
La figura siguiente ilustra la configuración n+1.
Una topología N*N activa todos los dispositivos de almacenamiento compartidos del clúster para conectar cada nodo del clúster. Esta topología activa aplicaciones de alta disponibilidad para que un nodo sustituya a otro en caso de fallo sin que el servicio se vea afectado. Cuando se produce un fallo, el nodo nuevo puede acceder al dispositivo de almacenamiento usando una ruta local en lugar de la interconexión privada.
La siguiente figura muestra una configuración n*n.
Una topología es el esquema de conexión que une los nodos del clúster con las plataformas de almacenamiento que se usan en el clúster. Sun Cluster admite cualquier topología que cumpla las siguientes directrices.
Sun Cluster, cuando se compone de sistemas basados en plataformas x86, admite dos nodos por clúster.
Los dispositivos de almacenamiento compartido se deben conectar con ambos nodos.
Sun Cluster no obliga a configurar el clúster mediante topologías específicas. La siguiente topología de par en clúster, la única que admiten los clústers compuestos de nodos basados en plataformas x86, se describe con el único propósito de proporcionar una terminología que explique el esquema de conexiones del clúster. Esta topología es un esquema de conexión típico.
El apartado siguiente incluye una diagrama de ejemplo de la topología.
Una topología de par en clúster consiste en dos nodos que funcionan en una misma estructura administrativa de clúster. En esta configuración sólo se produce recuperación de fallos entre pares. Sin embargo, todos los nodos están conectados mediante la interconexión del clúster y funcionan bajo el control del software de Sun Cluster. Esta topología se podría usar para ejecutar una aplicación de base de datos paralela en un par y una aplicación de recuperación de fallos o de escalabilidad en otro par.
La figura siguiente ilustra una configuración de par en clúster.