Sun Cluster: Guía de conceptos para SO Solaris

Capítulo 2 Conceptos clave de los proveedores de servicio de hardware

Este capítulo describe los conceptos clave relacionados con los componentes de hardware de una configuración de sistema de SunPlex. Se tratan los siguientes temas:

Los componentes del hardware y el software de SunPlex

Esta información está dirigida principalmente a los proveedores de servicio de hardware a quienes ayuda a entender la relación entre los componentes de hardware para mejor instalar, configurar o reparar el hardware del clúster. Asimismo, a los administradores del sistema del clúster esta información les puede resultar útil para instalar, configurar y administrar el software del clúster.

Un clúster consta de varios componentes de hardware, entre los que se incluyen:

El sistema SunPlex permite combinar estos componentes en diversas configuraciones, que se describen en SPARC: Ejemplos de topología de Sun Cluster .

Para ver una ilustración de un ejemplo de configuración de un clúster de dos nodos, consulte “Sun Cluster Hardware Environment” in Sun Cluster Overview for Solaris OS.

Nodos del clúster

Un nodo del clúster es una máquina que ejecuta el sistema operativo Solaris y el sofware de Sun Cluster y es un componente actual del clúster (un miembro del clúster) o un miembro potencial.

SPARC: El software de Sun Cluster permite tener de dos a ocho nodos por clúster. Consulte en SPARC: Ejemplos de topología de Sun Cluster las configuraciones de nodos admitidas.

x86: El software Sun Cluster permite tener dos nodos en un clúster. Consulte en x86: Ejemplos de topología de Sun Cluster las configuraciones de nodos admitidas.

Los nodos del clúster normalmente están conectados a uno o más discos multisistema, aquéllos que no lo están usan el sistema de archivos del clúster para acceder a los discos multisistema. Por ejemplo, una configuración de servicio escalable permite que los nodos atiendan peticiones sin estar directamente conectados a los discos multisistema.

Además, los nodos en configuraciones de bases de datos paralelas comparten acceso simultáneo a todos los discos. Consulte Discos multisistema y el Capítulo 3 para obtener más información sobre las configuraciones de bases de datos paralelas.

Todos los nodos del clúster están agrupados bajo un nombre común (el nombre del clúster) que se utiliza para acceder a éste y gestionarlo.

Los adaptadores de redes públicas conectan los nodos a éstas para ofrecer acceso de cliente al clúster.

Los miembros del clúster se comunican entre sí a través de una o más redes físicamente independientes que reciben el nombre de interconexión del clúster.

Todos los nodos del clúster reciben información de cuándo un nodo se une o deja el clúster, conocen también los recursos que se están ejecutando localmente así como los que se están ejecutando en los otros nodos del clúster.

Los nodos del mismo clúster deben tener capacidades de procesamiento, memoria y E/S similares para permitir que la recuperación de fallos se produzca sin que haya una degradación importante en el rendimiento. Debido a la posibilidad de recuperación de fallos, todos los nodos deben tener suficiente capacidad sobrante para que los que sean de respaldo o secundarios puedan aprovechar la carga de trabajo.

Cada nodo ejecuta su propio sistema de archivos raíz individual (/).

Componentes del software para los miembros del hardware del clúster

Para poder actuar como miembro del clúster, es necesario tener instalado el software siguiente:

Consulte Sun Cluster Software Installation Guide para obtener información sobre cómo instalar el software del sistema operativo Solaris, Sun Cluster y el gestor de volúmenes.

Consulte Sun Cluster Data Services Planning and Administration Guide para obtener información sobre cómo instalar y configurar los servicios de datos.

Consulte el Capítulo 3 para obtener información básica sobre los componentes del software mencionados anteriormente.

La figura siguiente incluye una vista detallada de los componentes del software que funcionan juntos para crear el entorno Sun Cluster.

Figura 2–1 Relaciones entre los componentes del software de Sun Cluster

Ilustración: El contexto describe el gráfico.

Consulte el Capítulo 4 para obtener preguntas y respuestas sobre los miembros de clúster.

Discos multisistema

Los discos que pueden conectarse a más de un nodo simultáneamente se denominan multisistema. En el entorno Sun Cluster, el almacenamiento multisistema hace que los discos estén muy disponibles. Sun Cluster requiere que haya almacenamiento multisistema en dos clústers del nodo para establecer el quórum. Los clústers de más de tres nodos no requieren almacenamiento multisistema.

Los discos multisistema poseen las características siguientes.

Un gestor de volúmenes proporciona configuraciones duplicadas o RAID-5 para la redundancia de los discos multisistema. Actualmente, Sun Cluster admite Solaris Volume ManagerTM y VERITAS Volume Manager, disponibles sólo para su uso en clústers basados en plataformas SPARC, como gestores de volúmenes, y el controlador de hardware RDAC RAID-5 en algunas plataformas de hardware RAID.

Al combinar los discos multisistema con los discos duplicados y la separación de datos se consigue proteger contra el fallo de los nodos y el de los discos individuales.

Consulte el Capítulo 4 para obtener preguntas y respuestas sobre el almacenamiento multisistema.

Iniciador múltiple SCSI

Este apartado se aplica sólo a dispositivos de almacenamiento SCSI y no a los de fibra óptica que usan los discos multisistema.

En un servidor autónomo, el nodo servidor controla las actividades del bus SCSI porque el circuito adaptador del sistema SCSI se conecta a ese servidor en un bus SCSI determinado. Al circuito adaptador del sistema SCSI se le conoce como iniciador SCSI. Este circuito inicia todas las actividades de este bus SCSI. La dirección SCSI predeterminada de los adaptadores en el sistema Sun es 7.

Las configuraciones del clúster comparten el almacenamiento entre varios nodos del servidor, usando los discos multisistema. Cuando el almacenamiento del clúster se compone de dispositivos SCSI de terminación simple o diferencial a la configuración se la denomina iniciador múltiple SCSI . Tal como implica esta terminología, existe más de un iniciador SCSI en el bus.

La especificación SCSI requiere que cada dispositivo de un bus SCSI tenga una dirección exclusiva. (El adaptador del sistema también es un dispositivo del bus SCSI.) La configuración predeterminada del hardware en un entorno de iniciador múltiple provoca un conflicto debido a que de forma predeterminada todos los adaptadores del sistema SCSI tienen el valor 7.

Para resolver este conflicto, se debe dejar uno de los adaptadores de cada bus SCSI con la dirección SCSI 7 y se debe configurar los otros adaptadores como direcciones SCSI no utilizadas. La planificación correcta dictamina que estas direcciones SCSI “no utilizadas” incluyan tanto direcciones usadas actualmente como no utilizadas. Un ejemplo de direcciones no utilizadas en el futuro es la incorporación del almacenamiento instalando unidades nuevas en ranuras de unidad vacías.

En la mayoría de configuraciones, la dirección SCSI disponible para un segundo adaptador de sistema es 6.

Se pueden cambiar las direcciones SCSI seleccionadas de esos adaptadores del sistema mediante una de las siguientes herramientas de configuración de la propiedad scsi-initiator-id:

Se puede configurar esta propiedad tanto globalmente para un nodo como individualmente para cada adaptador. En el capítulo para cada alojamiento de disco de Sun Cluster Hardware Collection hay instrucciones para configurar un scsi-initiator-id exclusivo para cada adaptador SCSI.

Discos locales

Los discos locales son aquellos que sólo estan conectados a un nodo individual. Por tanto, no están protegidos contra ningún fallo del nodo (no son de alta disponibilidad). A pesar de ello, todos los discos, incluso los locales se incluyen en el espacio de nombres global y se configuran como dispositivos globales. Por lo tanto, los discos en sí son visibles desde todos los nodos del clúster.

Puede poner los sistemas de archivos de discos locales a disposición de otros nodos situándolos bajo un punto de montaje global. Si el nodo que tiene montado actualmente uno de estos sistemas de archivos globales falla, el resto de nodos pierde acceso a ese sistema de archivos. Usar un gestor de volúmenes permite duplicar estos discos de forma que un fallo no pueda provocar que los sistemas de archivos dejen de estar accesibles, aunque los gestores de volúmenes no protejan contra los fallos de los nodos.

Consulte el apartado Dispositivos globales para obtener más información sobre dispositivos globales.

Soportes extraíbles

El clúster admite soportes extraíbles, como unidades de cinta y de CD-ROM, que se instalan, configuran y reparan de la misma forma que en un entorno que no está configurado en clúster. Estos dispositivos están configurados como globales en Sun Cluster, de manera que son accesibles desde cualquier nodo del clúster. Consulte Sun Cluster Hardware Collection para obtener información sobre cómo instalar y configurar soportes extraíbles.

Consulte el apartado Dispositivos globales para obtener más información sobre dispositivos globales.

Interconexión del clúster

La interconexión del clúster es la configuración física de dispositivos que se utiliza para transferir comunicaciones privadas del clúster y de servicios de datos entre los nodos del clúster. Debido a que la interconexión se utiliza ampliamente para comunicaciones privadas del clúster, puede limitar el rendimiento.

La interconexión del clúster sólo puede conectar los distintos nodos del clúster. El modelo de seguridad Sun Cluster asume que sólo los nodos del clúster tienen acceso físico a la interconexión del clúster.

Todos los nodos deben estar conectados por la interconexión del clúster a través de al menos dos redes independientes físicamente o rutas de acceso, para evitar que exista un único punto de fallo. Entre dos nodos cualesquiera puede tener varias redes independientes físicamente (de dos a seis). La interconexión del clúster se compone de tres componentes del hardware: adaptadores, uniones y cables.

La lista siguiente describe cada uno de estos componentes del hardware.

Consulte el Capítulo 4 para obtener preguntas y respuestas sobre la interconexión del clúster.

Interfaces de red pública

Los clientes se conectan al clúster a través de interfaces de red pública. Todas las tarjetas adaptadoras de red pueden conectarse a una o más redes públicas, de acuerdo con las interfaces de hardware que la tarjeta tenga. Los nodos pueden configurarse para que incluyan múltiples tarjetas interfaz de red pública a fin de que varias estén activas y se utilicen en caso de recuperación de fallos como respaldo entre ellas. Si uno de los adaptadores falla, se llama al software Ruta múltiple de red IP para la recuperación de la intefaz defectuosa pasando a otro adaptador del grupo.

No hay consideraciones de hardware especiales relacionadas con la agrupación en clúster para las interfaces de red públicas.

Consulte el Capítulo 4 para obtener preguntas y respuestas sobre las redes públicas.

Sistemas cliente

Los sistemas cliente son las estaciones de trabajo u otros servidores que acceden al clúster a través de la red pública. Los programas del lado del cliente usan datos u otros servicios proporcionados por aplicaciones del lado del servidor que se ejecutan en el clúster.

Los sistemas cliente no son de alta disponibilidad. Los datos y aplicaciones del clúster son de alta disponiblidad.

Consulte el Capítulo 4 para obtener preguntas y respuestas sobre los slstemas cliente.

Dispositivos de acceso a la consola

Es necesario que disponga de acceso a la consola para todos los nodos del clúster. Para ello, use el concentrador de terminal que ha adquirido con el hardware del clúster, el procesador de servicio del sistema (SSP) de los servidores Sun Enterprise E10000TM, el controlador del sistema en servidores Sun FireTM u otro dispositivo que pueda acceder a ttya en todos los nodos.

Sun sólo dispone de un concentrador de terminal admitido y su uso es opcional. El concentrador de terminal permite el acceso a /dev/console en todos los nodos a través de una red TCP/IP. El resultado es el acceso a nivel de consola para todos los nodos desde una estación de trabajo remota desde cualquier lugar de la red.

El procesador de servicio del sistema (SSP) proporciona acceso a la consola para el servidor Sun Enterprise E10000. SSP es una máquina de una red Ethernet que está configurada para admitir el servidor Sun Enterprise E10000. SSP es la consola de administración para el servidor Sun Enterprise E10000. Gracias a la función Sun Enterprise E10000 Network Console, cualquier estación de trabajo de la red puede abrir una sesión de consola de sistema.

Otros métodos de acceso a la consola son concentradores de otras terminales, acceso de puerto serie por tip(1) desde otro nodo y terminales no inteligentes. Puede usar teclados y monitores de SunTM u otros dispositivos de puerto serie si el proveedor de servicio de hardware los admite.

Consola de administración

Para administrar el clúster activo se puede emplear una estación de trabajo UltraSPARC® exclusiva o un servidor Sun FireTM V65x, conocidos como consola de administración. Normalmente en la consola de administración se instala y se ejecuta el software de herramientas de administración, como el panel de control del clúster (CCP) y el módulo de Sun Cluster para el producto Sun Management CenterTM (para su uso en clústers basados en la plataforma SPARC solamente). Si utiliza cconsole en CCP se le permitirá conectar a más de un nodo simultáneamiente. Para obtener mas información sobre el uso de CCP, consulte Sun Cluster System Administration Guide.

La consola de administración normalmente no es un nodo del clúster; se acostumbra a usar para obtener acceso remoto a los nodos del clúster, bien a través una red pública bien, opcionalmente, a través de un concentrador de terminales situado en una red. Si el clúster se compone de la plataforma Sun Enterprise E10000, es necesario que se pueda iniciar la sesión desde la consola de administración con el procesador de servicio del sistema (SSP) y que se pueda conectar mediante la orden netcon(1M).

Normalmente los nodos se configuran sin monitor. A continuación se accede a la consola del nodo empleando una sesión telnet desde la consola de administración, que está conectada a un concentrador de terminal y desde éste al puerto serie del nodo. (En el caso del servidor Sun Enterprise E10000, se conecta desde el procesador de servicio del sistema.) Para obtener más información, véase Dispositivos de acceso a la consola.

Sun Cluster no requiere una consola de administración exclusiva, aunque si se usa una se obtendrán las siguientes ventajas:

Consulte el Capítulo 4 para obtener preguntas y respuestas sobre la consola de administración.

SPARC: Ejemplos de topología de Sun Cluster

Una topología es el esquema de conexión que une los nodos del clúster con las plataformas de almacenamiento que se usan en éste. Sun Cluster admite cualquier topología que cumpla las siguientes directrices.

Sun Cluster no obliga a configurar el clúster mediante topologías específicas. Las topologias que se describen a continuación se incluyen para proporcionar el vocabulario que permita discutir un esquema de conexión del clúster. Estas topologías son esquemas de conexión típicos.

Los apartados siguientes incluyen diagramas de ejemplo para cada topología.

SPARC: Topología de pares en clúster

Una topología de pares en clúster son dos o más pares de nodos que funcionan bajo un único marco administrativo de clúster. En esta configuración sólo se produce recuperación de fallos entre pares. Sin embargo, todos los nodos están conectados por la interconexión del clúster y funcionan bajo el control del software Sun Cluster. Esta topología se podría usar para ejecutar una aplicación de base de datos paralela en un par y una aplicación de recuperación de fallos o de escalabilidad en otro par.

Con el sistema de archivos del clúster, también podría tener una configuración de dos pares en que más de dos ejecuten un servicio escalable o base de datos paralela aunque ningún nodo esté conectado directamente a los discos que almacenan los datos de la aplicación.

La figura siguiente ilustra una configuración de par en clúster.

Figura 2–2 SPARC: Topología de pares en clúster

Ilustración: El contexto describe el gráfico.

SPARC: Topología par+n

La topología par+n incluye un par de nodos conectados directamente al almacenamiento compartido y un conjunto adicional de nodos que usa la interconexión del clúster para acceder al almacenamiento compartido; éstos no tienen conexión directa.

La figura siguiente muestra una topología par+n en que dos de los cuatro nodos (nodo 3 y 4) usan la interconexión del clúster para acceder al almacenamiento. Esta configuración puede ampliarse para que incluya nodos adicionales que no tengan acceso directo al almacenamiento compartido.

Figura 2–3 SPARC: Topología de par+n

Ilustración: El contexto describe el gráfico.

SPARC: Topología n+1 (estrella)

Las topologías n+1 incluyen varios nodos primarios y uno secundario que no se deben configurar de forma idéntica. Los nodos primarios proporcionan de forma activa servicios de aplicación. El nodo secundario no debe estar desocupado mientras se espera que uno principal falle.

El nodo secundario es el único de la configuración que está conectado físicamente a todos las unidades de almacenamientos multisistema .

Si se produce un fallo en un nodo primario, Sun Cluster resuelve el fallo transfiriendo los recursos al secundario, dónde éstos funcionan hasta que se conmutan de nuevo (de forma automática o manual) al nodo primario.

El secundario siempre debe tener suficiente capacidad sobrante de CPU para manejar la carga si uno de los primarios falla.

La figura siguiente ilustra la configuración n+1.

Figura 2–4 SPARC: Topología n+1

Ilustración: El contexto describe el gráfico.

SPARC: Topología n*n (escalable)

Las topologías n*n permiten a todos los dispositivos de almacenaminto compartido del clúster conectarse con todos los nodos del clúster. Esta topología permite que las aplicaciones de alta disponibilidad se recuperen de fallos de un nodo a otro sin que se produzca una degradadación en el servicio. Cuando se produce una recuperación de fallos, el nodo nuevo puede acceder al dispositivo de almacenamiento usando una ruta local en lugar de la interconexión privada.

La siguiente figura muestra una configuración n*n.

Figura 2–5 SPARC: Topología n*n

Ilustración: El contexto describe el gráfico.

x86: Ejemplos de topología de Sun Cluster

Una topología es el esquema de conexión que une los nodos del clúster con las plataformas de almacenamiento que se usan en éste. Sun Cluster admite cualquier topología que cumpla las siguientes directrices.

Sun Cluster no obliga a configurar el clúster mediante topologías específicas. La siguiente topología de par en clúster, la única que admiten los clústers compuestos de nodos basados en plataformas x86, se describe con el único propósito de proporcionar una terminología que explique el esquema de conexiones del clúster. Esta topología es un esquema de conexión típico.

El apartado siguiente incluye una diagrama de ejemplo de la topología.

x86: Topología de par en clúster

Una topología de par en clúster son dos o más pares de nodos que funcionan bajo un único marco administrativo de clúster. En esta configuración sólo se produce recuperación de fallos entre pares. Sin embargo, todos los nodos están conectados por la interconexión del clúster y funcionan bajo el control del software Sun Cluster. Esta topología se podría usar para ejecutar una aplicación de base de datos paralela en un par y una aplicación de recuperación de fallos o de escalabilidad en otro par.

La figura siguiente ilustra una configuración de par en clúster.

Figura 2–6 x86: Topología de par en clúster

Ilustración: El contexto describe el gráfico.