Sun Cluster: Guía de conceptos para el SO Solaris

Componentes de software y hardware del sistema Sun Cluster

Esta información está dirigida principalmente a los proveedores de servicio de hardware a quienes ayuda a entender la relación entre los componentes de hardware para mejor instalar, configurar o reparar el hardware del clúster. Asimismo, a los administradores del sistema del clúster esta información les puede resultar útil para instalar, configurar y administrar el software del clúster.

Un clúster consta de varios componentes de hardware, entre los que se incluyen:

El sistema Sun Cluster le permite combinar estos componentes en una serie de configuraciones. Las siguientes secciones describen estas configuraciones.

Para ver una ilustración de una configuración de ejemplo de un clúster con dos nodos, consulte Entorno de hardware de Sun Cluster de Sun Cluster para el sistema operativo Solaris: Visión general.

Nodos del clúster

Un nodo de clúster es un equipo en el que se ejecuta el sistema operativo Solaris y el software Sun Cluster. Un nodo de clúster puede ser un miembro actual del clúster (un miembro del clúster) o bien un miembro potencial.

Los nodos del clúster normalmente están conectados a uno o más dispositivos multisistema, aquéllos que no lo están usan el sistema de archivos del clúster para acceder a los dispositivos multisistema. Por ejemplo, una configuración de servicios escalables permite que los nodos atiendan peticiones sin estar directamente conectados a los dispositivos multisistema.

Además, los nodos en configuraciones de bases de datos paralelas comparten acceso simultáneo a todos los discos.

Todos los nodos del clúster están agrupados bajo un nombre común (el nombre del clúster) que se utiliza para acceder a éste y gestionarlo.

Los adaptadores de redes públicas conectan los nodos a éstas para ofrecer acceso de cliente al clúster.

Los miembros del clúster se comunican con otros nodos del clúster a través de una o varias redes independientes. Este conjunto de redes independientes físicamente se conoce como interconexión del clúster.

Todos los nodos del clúster reciben información de cuándo un nodo se une o deja el clúster, conocen también los recursos que se están ejecutando localmente así como los que se están ejecutando en los otros nodos del clúster.

Los nodos del mismo clúster deben tener capacidades de procesamiento, memoria y E/S similares para permitir que la recuperación de fallos se produzca sin que haya una degradación importante en el rendimiento. Debido a la función de recuperación de fallos, cada nodo debe tener una capacidad de exceso suficiente para asimilar la carga de trabajo de todos los nodos para los que esté configurado como nodo secundario o de copia de respaldo.

Cada nodo ejecuta su propio sistema de archivos raíz individual (/).

Componentes de software para los miembros de hardware del clúster

Si desea trabajar como miembro de un clúster, un nodo debe tener el siguiente software instalado:

La siguiente figura proporciona una descripción general de los componentes de software que funcionan juntos para crear el entorno de software de Sun Cluster.

Figura 2–1 Relaciones generales entre los componentes del software Sun Cluster

Ilustración: El contexto describe el gráfico.

Consulte el Capítulo 4, Preguntas más frecuentes para ver las preguntas y respuestas acerca de los miembros del clúster.

Dispositivos multisistema

Los discos que pueden conectarse a más de un nodo simultáneamente se denominan multisistema. En el entorno de Sun Cluster, el almacenamiento multisistema hace que los discos tengan una gran disponibilidad. El software Sun Cluster requiere almacenamiento multisistema para que los clústeres de dos nodos establezcan el quórum. Los clústeres que tengan más de dos nodos no requieren dispositivos del quórum. Para obtener más información acerca del quórum, consulte Quórum y dispositivos del quórum .

Los dispositivos multisistema poseen las características siguientes.

Un gestor de volúmenes proporciona configuraciones duplicadas o RAID-5 para la redundancia de los dispositivos multisistema. Actualmente, Sun Cluster es compatible con Gestor de volúmenes de Solaris y con VERITAS Volume Manager, que está disponible para usarlo sólo en clústeres basados en SPARC, como gestores de volúmenes, y el controlador de hardware RDAC RAID-5 en varias plataformas RAID de hardware.

Al combinar los dispositivos multisistema con los discos de duplicación y la separación de datos, se consigue protección contra el fallo de los nodos y el de los discos individuales.

Consulte el Capítulo 4, Preguntas más frecuentes para ver las preguntas y respuestas acerca del almacenamiento multisistema.

Iniciador múltiple SCSI

Este apartado se aplica sólo a dispositivos de almacenamiento SCSI y no a los de fibra óptica que usan los dispositivos multisistema.

En un servidor autónomo, el nodo servidor controla las actividades del bus SCSI porque el circuito adaptador del sistema SCSI se conecta a ese servidor en un bus SCSI determinado. Este circuito adaptador del sistema SCSI se conoce con el nombre de iniciador SCSI. Este circuito inicia todas las actividades de este bus SCSI. La dirección SCSI predeterminada de los adaptadores en el sistema Sun es 7.

Las configuraciones del clúster comparten el almacenamiento entre varios nodos del servidor, usando los dispositivos multisistema. Cuando el almacenamiento del clúster consta de dispositivos SCSI diferenciales o de dispositivos con un único extremo, la configuración se denomina iniciador múltiple SCSI. Tal como implica esta terminología, existe más de un iniciador SCSI en el bus.

La especificación SCSI requiere que cada dispositivo de un bus SCSI tenga una única dirección SCSI. (El adaptador del sistema también es un dispositivo del bus SCSI.) La configuración predeterminada del hardware en un entorno de iniciador múltiple provoca un conflicto debido a que de forma predeterminada todos los adaptadores del sistema SCSI tienen el valor 7.

Para resolver este conflicto, se debe dejar uno de los adaptadores de cada bus SCSI con la dirección SCSI 7 y se debe configurar los otros adaptadores como direcciones SCSI no utilizadas. La planificación correcta dictamina que estas direcciones SCSI “no utilizadas” incluyan tanto direcciones usadas actualmente como no utilizadas. Un ejemplo de direcciones no utilizadas en el futuro es la incorporación del almacenamiento instalando unidades nuevas en ranuras de unidad vacías.

En la mayoría de configuraciones, la dirección SCSI disponible para un segundo adaptador de sistema es 6.

Se pueden cambiar las direcciones SCSI seleccionadas de esos adaptadores del sistema mediante una de las siguientes herramientas de configuración de la propiedad scsi-initiator-id:

Se puede configurar esta propiedad tanto globalmente para un nodo como individualmente para cada adaptador. Las instrucciones para configurar un único scsi-initiator-id para cada adaptador de sistema SCSI se incluyen en Sun Cluster 3.0-3.1 With SCSI JBOD Storage Device Manual for Solaris OS.

Discos locales

Los discos locales son aquellos que sólo estan conectados a un nodo individual. Los discos locales no están, en consecuencia, protegidos ante posibles fallos de los nodos (no están configurados para una alta disponibilidad). Sin embargo, todos los discos (también los locales), están incluidos en el espacio de nombre global y están configurados como dispositivos globales. Por lo tanto, los discos en sí son visibles desde todos los nodos del clúster.

Puede hacer que los sistemas de archivos de los discos locales estén disponibles para otros nodos. Para ello, debe colocarlos en un punto de montaje global. Si el nodo que tiene montado actualmente uno de estos sistemas de archivos globales falla, el resto de nodos pierde acceso a ese sistema de archivos. Usar un gestor de volúmenes permite duplicar estos discos de forma que un fallo no pueda provocar que los sistemas de archivos dejen de estar accesibles, aunque los gestores de volúmenes no protejan contra los fallos de los nodos.

Consulte la sección Dispositivos globales para obtener más información sobre los dispositivos globales.

Medios extraíbles

El clúster admite soportes extraíbles, como unidades de cinta y de CD-ROM, En general, estos dispositivos se instalan, configuran y se atienden del mismo modo que se haría en un entorno que no estuviera configurado en clúster. Estos servicios están configurados como dispositivos globales en Sun Cluster, por lo que a cada dispositivo se puede acceder desde cualquier nodo del clúster. Consulte Sun Cluster 3.0-3.1 Hardware Administration Manual for Solaris OS para obtener información acerca de la instalación y la configuración de los medios extraíbles.

Consulte la sección Dispositivos globales para obtener más información sobre los dispositivos globales.

Interconexión de clúster

La interconexión del clúster es la configuración física de dispositivos que se utiliza para transferir comunicaciones privadas del clúster y de servicios de datos entre los nodos del clúster. Debido a que la interconexión se utiliza ampliamente para comunicaciones privadas del clúster, puede limitar el rendimiento.

La interconexión del clúster sólo puede conectar los distintos nodos del clúster. El modelo de seguridad de Sun Cluster asume que sólo los nodos del clúster tienen acceso físico a la interconexión del clúster.

Todos los nodos deben estar conectados por la interconexión del clúster a través de, al menos, dos redes independientes físicamente redundantes o rutas de acceso, para evitar que exista un único punto de fallo. Entre dos nodos cualesquiera puede tener varias redes independientes físicamente (de dos a seis).

La interconexión del clúster se compone de tres componentes del hardware: adaptadores, uniones y cables. La lista siguiente describe cada uno de estos componentes del hardware.

Consulte el Capítulo 4, Preguntas más frecuentes para ver las preguntas y respuestas acerca de las interconexiones del clúster.

Interfaces de red pública

Los clientes se conectan al clúster a través de interfaces de red pública. Todas las tarjetas adaptadoras de red pueden conectarse a una o más redes públicas, de acuerdo con las interfaces de hardware que la tarjeta tenga. Los nodos pueden configurarse para que incluyan múltiples tarjetas interfaz de red pública a fin de que varias estén activas y se utilicen en caso de recuperación de fallos como respaldo entre ellas. Si uno de los adaptadores falla, el software Ruta múltiple de red de protocolo de Internet (IP) se ejecuta para efectuar la recuperación ante fallos de la interfaz defectuosa en otro adaptador del grupo.

No hay consideraciones de hardware especiales relacionadas con la agrupación en clúster para las interfaces de red públicas.

Consulte el Capítulo 4, Preguntas más frecuentes para ver las preguntas y respuestas acerca de las redes públicas.

Sistemas cliente

Los sistemas cliente son las estaciones de trabajo u otros servidores que acceden al clúster a través de la red pública. Los programas cliente usan los datos u otros servicios proporcionados por las aplicaciones servidor que se ejecutan en el clúster.

Los sistemas cliente no son de alta disponibilidad. Los datos y aplicaciones del clúster son de alta disponiblidad.

Consulte el Capítulo 4, Preguntas más frecuentes para ver las preguntas y respuestas acerca de los sistemas cliente.

Dispositivos de acceso a la consola

Es necesario que disponga de acceso a la consola para todos los nodos del clúster. Para obtener acceso a la consola, utilice uno de los siguientes dispositivos:

Sun sólo dispone de un concentrador de terminal admitido y su uso es opcional. El concentrador de terminal permite el acceso a /dev/console en todos los nodos a través de una red TCP/IP. El resultado es el acceso a nivel de consola para todos los nodos desde una estación de trabajo remota desde cualquier lugar de la red.

El procesador de servicio del sistema (SSP) proporciona acceso a la consola para los servidores Sun Enterprise E1000. El SSP es un equipo de una red Ethernet que está configurado para admitir el servidor Sun Enterprise E1000. El SSP es la consola administrativa del servidor Sun Enterprise E1000. Gracias a la función Sun Enterprise E10000 Network Console, cualquier estación de trabajo de la red puede abrir una sesión de consola de sistema.

Otros metodos de acceso a la consola incluyen otros concentradores de terminal, acceso al puerto serie tip(1) desde otro nodo y terminales mudos. Puede usar teclados y monitores de SunTM u otros dispositivos de puerto serie si el proveedor de servicio de hardware los admite.

Consola administrativa

Puede usar una estación de trabajo UltraSPARC® dedicada o un servidor Sun Fire V65x, conocida como consola administrativa, para administrar el clúster activo. Normalmente, se instala y ejecuta un software de herramienta administrativa, como el panel de control del clúster (CCP) y el módulo de Sun Cluster para el producto Sun Management Center (para utilizarlo sólo con clústeres basados en SPARC), en la consola administrativa. Si utiliza cconsole en CCP se le permitirá conectar a más de un nodo simultáneamiente. Para obtener más información acerca del uso de CCP, consulte el Capítulo 1, Introducción a la administración de Sun Cluster de Sun Cluster: Guía de administración del sistema para el SO Solaris.

La consola de administración normalmente no es un nodo del clúster; se acostumbra a usar para obtener acceso remoto a los nodos del clúster, bien a través una red pública bien, opcionalmente, a través de un concentrador de terminales situado en una red. Si el clúster cuenta con una plataforma Sun Enterprise E10000, deberá iniciar sesión en SSP desde la consola administrativa y conectarse usando el comando netcon(1M).

Normalmente los nodos se configuran sin monitor. Entonces se accede a la consola del nodo desde una sesión telnet desde la consola administrativa. La consola de administración está conectada a un concentrador de terminal y éste a su vez al puerto serie del nodo. En el caso de un servidor Sun Enterprise E1000, la conexión se realiza desde un procesador de servicio del sistema. Consulte Dispositivos de acceso a la consola para obtener más información.

Sun Cluster no requiere una consola administrativa dedicada, pero si usa una, obtendrá los siguientes beneficios:

Consulte el Capítulo 4, Preguntas más frecuentes para ver las preguntas y respuestas acerca de la consola administrativa.