Esta información está dirigida principalmente a los proveedores de servicio de hardware a quienes ayuda a entender la relación entre los componentes de hardware para mejor instalar, configurar o reparar el hardware del clúster. Asimismo, a los administradores del sistema del clúster esta información les puede resultar útil para instalar, configurar y administrar el software del clúster.
Un clúster consta de varios componentes de hardware, entre los que se incluyen:
Nodos de clúster con discos locales (no compartidos)
Almacenamiento multisistema (discos compartidos entre nodos)
Soporte extraíble (cintas y CD-ROM)
Interconexión del clúster
Interfaces de red públicas
Sistemas cliente
Consola de administración
Dispositivos de acceso a la consola
El sistema SunPlex permite combinar estos componentes en diversas configuraciones, que se describen en SPARC: Ejemplos de topología de Sun Cluster .
Para ver una ilustración de un ejemplo de configuración de un clúster de dos nodos, consulte “Sun Cluster Hardware Environment” in Sun Cluster Overview for Solaris OS.
Un nodo del clúster es una máquina que ejecuta el sistema operativo Solaris y el sofware de Sun Cluster y es un componente actual del clúster (un miembro del clúster) o un miembro potencial.
SPARC: El software de Sun Cluster permite tener de dos a ocho nodos por clúster. Consulte en SPARC: Ejemplos de topología de Sun Cluster las configuraciones de nodos admitidas.
x86: El software Sun Cluster permite tener dos nodos en un clúster. Consulte en x86: Ejemplos de topología de Sun Cluster las configuraciones de nodos admitidas.
Los nodos del clúster normalmente están conectados a uno o más discos multisistema, aquéllos que no lo están usan el sistema de archivos del clúster para acceder a los discos multisistema. Por ejemplo, una configuración de servicio escalable permite que los nodos atiendan peticiones sin estar directamente conectados a los discos multisistema.
Además, los nodos en configuraciones de bases de datos paralelas comparten acceso simultáneo a todos los discos. Consulte Discos multisistema y el Capítulo 3 para obtener más información sobre las configuraciones de bases de datos paralelas.
Todos los nodos del clúster están agrupados bajo un nombre común (el nombre del clúster) que se utiliza para acceder a éste y gestionarlo.
Los adaptadores de redes públicas conectan los nodos a éstas para ofrecer acceso de cliente al clúster.
Los miembros del clúster se comunican entre sí a través de una o más redes físicamente independientes que reciben el nombre de interconexión del clúster.
Todos los nodos del clúster reciben información de cuándo un nodo se une o deja el clúster, conocen también los recursos que se están ejecutando localmente así como los que se están ejecutando en los otros nodos del clúster.
Los nodos del mismo clúster deben tener capacidades de procesamiento, memoria y E/S similares para permitir que la recuperación de fallos se produzca sin que haya una degradación importante en el rendimiento. Debido a la posibilidad de recuperación de fallos, todos los nodos deben tener suficiente capacidad sobrante para que los que sean de respaldo o secundarios puedan aprovechar la carga de trabajo.
Cada nodo ejecuta su propio sistema de archivos raíz individual (/).
Para poder actuar como miembro del clúster, es necesario tener instalado el software siguiente:
Sistema operativo Solaris
Software Sun Cluster
Aplicación de servicio de datos
Gestión de volúmenes (Solaris Volume ManagerTM o VERITAS Volume Manager)
Una excepción es la configuración que usa una matriz redundante de hardware de discos independientes (RAID). Esta configuración puede no requerir un software de gestión de volúmenes del tipo Solaris Volume Manager o VERITAS Volume Manager.
Consulte Sun Cluster Software Installation Guide para obtener información sobre cómo instalar el software del sistema operativo Solaris, Sun Cluster y el gestor de volúmenes.
Consulte Sun Cluster Data Services Planning and Administration Guide para obtener información sobre cómo instalar y configurar los servicios de datos.
Consulte el Capítulo 3 para obtener información básica sobre los componentes del software mencionados anteriormente.
La figura siguiente incluye una vista detallada de los componentes del software que funcionan juntos para crear el entorno Sun Cluster.
Consulte el Capítulo 4 para obtener preguntas y respuestas sobre los miembros de clúster.
Los discos que pueden conectarse a más de un nodo simultáneamente se denominan multisistema. En el entorno Sun Cluster, el almacenamiento multisistema hace que los discos estén muy disponibles. Sun Cluster requiere que haya almacenamiento multisistema en dos clústers del nodo para establecer el quórum. Los clústers de más de tres nodos no requieren almacenamiento multisistema.
Los discos multisistema poseen las características siguientes.
Pueden resistir los fallos de nodos individuales.
Almacenan datos de las aplicaciones y también pueden almacenar los archivos binarios y de configuración de éstas.
Protegen contra los fallos del nodo. Si las peticiones de los clientes están accediendo a datos a través de un nodo y éste falla, las peticiones se desvían para usar otro nodo que tenga una conexión directa con los mismos discos.
A ellos se accede tanto globalmente a través de un nodo primario que “coordina” los discos, como por acceso directo simultáneo a través de las rutas de acceso locales. Actualmente la única aplicación que usa acceso directo simultáneo es Oracle Parallel Server.
Un gestor de volúmenes proporciona configuraciones duplicadas o RAID-5 para la redundancia de los discos multisistema. Actualmente, Sun Cluster admite Solaris Volume ManagerTM y VERITAS Volume Manager, disponibles sólo para su uso en clústers basados en plataformas SPARC, como gestores de volúmenes, y el controlador de hardware RDAC RAID-5 en algunas plataformas de hardware RAID.
Al combinar los discos multisistema con los discos duplicados y la separación de datos se consigue proteger contra el fallo de los nodos y el de los discos individuales.
Consulte el Capítulo 4 para obtener preguntas y respuestas sobre el almacenamiento multisistema.
Este apartado se aplica sólo a dispositivos de almacenamiento SCSI y no a los de fibra óptica que usan los discos multisistema.
En un servidor autónomo, el nodo servidor controla las actividades del bus SCSI porque el circuito adaptador del sistema SCSI se conecta a ese servidor en un bus SCSI determinado. Al circuito adaptador del sistema SCSI se le conoce como iniciador SCSI. Este circuito inicia todas las actividades de este bus SCSI. La dirección SCSI predeterminada de los adaptadores en el sistema Sun es 7.
Las configuraciones del clúster comparten el almacenamiento entre varios nodos del servidor, usando los discos multisistema. Cuando el almacenamiento del clúster se compone de dispositivos SCSI de terminación simple o diferencial a la configuración se la denomina iniciador múltiple SCSI . Tal como implica esta terminología, existe más de un iniciador SCSI en el bus.
La especificación SCSI requiere que cada dispositivo de un bus SCSI tenga una dirección exclusiva. (El adaptador del sistema también es un dispositivo del bus SCSI.) La configuración predeterminada del hardware en un entorno de iniciador múltiple provoca un conflicto debido a que de forma predeterminada todos los adaptadores del sistema SCSI tienen el valor 7.
Para resolver este conflicto, se debe dejar uno de los adaptadores de cada bus SCSI con la dirección SCSI 7 y se debe configurar los otros adaptadores como direcciones SCSI no utilizadas. La planificación correcta dictamina que estas direcciones SCSI “no utilizadas” incluyan tanto direcciones usadas actualmente como no utilizadas. Un ejemplo de direcciones no utilizadas en el futuro es la incorporación del almacenamiento instalando unidades nuevas en ranuras de unidad vacías.
En la mayoría de configuraciones, la dirección SCSI disponible para un segundo adaptador de sistema es 6.
Se pueden cambiar las direcciones SCSI seleccionadas de esos adaptadores del sistema mediante una de las siguientes herramientas de configuración de la propiedad scsi-initiator-id:
PROM de OpenBoot en un sistema basado en la plataforma SPARC
La utilidad SCSI que se puede ejecutar opcionalmete después de que arranque la BIOS en un sistema basado en la plataforma x86
Se puede configurar esta propiedad tanto globalmente para un nodo como individualmente para cada adaptador. En el capítulo para cada alojamiento de disco de Sun Cluster Hardware Collection hay instrucciones para configurar un scsi-initiator-id exclusivo para cada adaptador SCSI.
Los discos locales son aquellos que sólo estan conectados a un nodo individual. Por tanto, no están protegidos contra ningún fallo del nodo (no son de alta disponibilidad). A pesar de ello, todos los discos, incluso los locales se incluyen en el espacio de nombres global y se configuran como dispositivos globales. Por lo tanto, los discos en sí son visibles desde todos los nodos del clúster.
Puede poner los sistemas de archivos de discos locales a disposición de otros nodos situándolos bajo un punto de montaje global. Si el nodo que tiene montado actualmente uno de estos sistemas de archivos globales falla, el resto de nodos pierde acceso a ese sistema de archivos. Usar un gestor de volúmenes permite duplicar estos discos de forma que un fallo no pueda provocar que los sistemas de archivos dejen de estar accesibles, aunque los gestores de volúmenes no protejan contra los fallos de los nodos.
Consulte el apartado Dispositivos globales para obtener más información sobre dispositivos globales.
El clúster admite soportes extraíbles, como unidades de cinta y de CD-ROM, que se instalan, configuran y reparan de la misma forma que en un entorno que no está configurado en clúster. Estos dispositivos están configurados como globales en Sun Cluster, de manera que son accesibles desde cualquier nodo del clúster. Consulte Sun Cluster Hardware Collection para obtener información sobre cómo instalar y configurar soportes extraíbles.
Consulte el apartado Dispositivos globales para obtener más información sobre dispositivos globales.
La interconexión del clúster es la configuración física de dispositivos que se utiliza para transferir comunicaciones privadas del clúster y de servicios de datos entre los nodos del clúster. Debido a que la interconexión se utiliza ampliamente para comunicaciones privadas del clúster, puede limitar el rendimiento.
La interconexión del clúster sólo puede conectar los distintos nodos del clúster. El modelo de seguridad Sun Cluster asume que sólo los nodos del clúster tienen acceso físico a la interconexión del clúster.
Todos los nodos deben estar conectados por la interconexión del clúster a través de al menos dos redes independientes físicamente o rutas de acceso, para evitar que exista un único punto de fallo. Entre dos nodos cualesquiera puede tener varias redes independientes físicamente (de dos a seis). La interconexión del clúster se compone de tres componentes del hardware: adaptadores, uniones y cables.
La lista siguiente describe cada uno de estos componentes del hardware.
Adaptadores: las tarjetas de interfaz de red que residen en cada nodo del clúster. Sus nombres se construyen a partir de un nombre de dispositivo seguido inmediatamente por un número de unidad física, por ejemplo: qfe2. Algunos adaptadores sólo tienen una conexión de red física, aunque otros como la tarjeta qfe tienen varias conexiones físicas. Algunos también contienen interfaces de red y de almacenamiento.
Un adaptador de red con varias interfaces podría convertirse en un único punto de fallo si falla todo el adaptador. Para una máxima disponibilidad, se debe planificar el clúster de manera que la única ruta entre dos nodos no dependa de un único adaptador de red individual.
Uniones: los conmutadores que residen fuera de los nodos del clúster. Llevan a cabo funciones de transporte y conmutación para permitir conectar más de dos nodos simultáneamente. En un clúster de dos nodos no hacen falta uniones porque los nodos pueden conectarse directamente entre sí con cables físicos redundantes conectados a adaptadores redundantes de cada nodo. Las configuraciones superiores a dos nodos en general requieren uniones.
Cables: las conexiones físicas que van entre dos adaptadores de red o entre un adaptador y una unión.
Consulte el Capítulo 4 para obtener preguntas y respuestas sobre la interconexión del clúster.
Los clientes se conectan al clúster a través de interfaces de red pública. Todas las tarjetas adaptadoras de red pueden conectarse a una o más redes públicas, de acuerdo con las interfaces de hardware que la tarjeta tenga. Los nodos pueden configurarse para que incluyan múltiples tarjetas interfaz de red pública a fin de que varias estén activas y se utilicen en caso de recuperación de fallos como respaldo entre ellas. Si uno de los adaptadores falla, se llama al software Ruta múltiple de red IP para la recuperación de la intefaz defectuosa pasando a otro adaptador del grupo.
No hay consideraciones de hardware especiales relacionadas con la agrupación en clúster para las interfaces de red públicas.
Consulte el Capítulo 4 para obtener preguntas y respuestas sobre las redes públicas.
Los sistemas cliente son las estaciones de trabajo u otros servidores que acceden al clúster a través de la red pública. Los programas del lado del cliente usan datos u otros servicios proporcionados por aplicaciones del lado del servidor que se ejecutan en el clúster.
Los sistemas cliente no son de alta disponibilidad. Los datos y aplicaciones del clúster son de alta disponiblidad.
Consulte el Capítulo 4 para obtener preguntas y respuestas sobre los slstemas cliente.
Es necesario que disponga de acceso a la consola para todos los nodos del clúster. Para ello, use el concentrador de terminal que ha adquirido con el hardware del clúster, el procesador de servicio del sistema (SSP) de los servidores Sun Enterprise E10000TM, el controlador del sistema en servidores Sun FireTM u otro dispositivo que pueda acceder a ttya en todos los nodos.
Sun sólo dispone de un concentrador de terminal admitido y su uso es opcional. El concentrador de terminal permite el acceso a /dev/console en todos los nodos a través de una red TCP/IP. El resultado es el acceso a nivel de consola para todos los nodos desde una estación de trabajo remota desde cualquier lugar de la red.
El procesador de servicio del sistema (SSP) proporciona acceso a la consola para el servidor Sun Enterprise E10000. SSP es una máquina de una red Ethernet que está configurada para admitir el servidor Sun Enterprise E10000. SSP es la consola de administración para el servidor Sun Enterprise E10000. Gracias a la función Sun Enterprise E10000 Network Console, cualquier estación de trabajo de la red puede abrir una sesión de consola de sistema.
Otros métodos de acceso a la consola son concentradores de otras terminales, acceso de puerto serie por tip(1) desde otro nodo y terminales no inteligentes. Puede usar teclados y monitores de SunTM u otros dispositivos de puerto serie si el proveedor de servicio de hardware los admite.
Para administrar el clúster activo se puede emplear una estación de trabajo UltraSPARC® exclusiva o un servidor Sun FireTM V65x, conocidos como consola de administración. Normalmente en la consola de administración se instala y se ejecuta el software de herramientas de administración, como el panel de control del clúster (CCP) y el módulo de Sun Cluster para el producto Sun Management CenterTM (para su uso en clústers basados en la plataforma SPARC solamente). Si utiliza cconsole en CCP se le permitirá conectar a más de un nodo simultáneamiente. Para obtener mas información sobre el uso de CCP, consulte Sun Cluster System Administration Guide.
La consola de administración normalmente no es un nodo del clúster; se acostumbra a usar para obtener acceso remoto a los nodos del clúster, bien a través una red pública bien, opcionalmente, a través de un concentrador de terminales situado en una red. Si el clúster se compone de la plataforma Sun Enterprise E10000, es necesario que se pueda iniciar la sesión desde la consola de administración con el procesador de servicio del sistema (SSP) y que se pueda conectar mediante la orden netcon(1M).
Normalmente los nodos se configuran sin monitor. A continuación se accede a la consola del nodo empleando una sesión telnet desde la consola de administración, que está conectada a un concentrador de terminal y desde éste al puerto serie del nodo. (En el caso del servidor Sun Enterprise E10000, se conecta desde el procesador de servicio del sistema.) Para obtener más información, véase Dispositivos de acceso a la consola.
Sun Cluster no requiere una consola de administración exclusiva, aunque si se usa una se obtendrán las siguientes ventajas:
Permite la gestión centralizada del clúster ya que agrupa herramientas de consola y gestión en la misma máquina
Ofrece al proveedor de servicio de hardware una resolución de problemas potencialmente mas rápida
Consulte el Capítulo 4 para obtener preguntas y respuestas sobre la consola de administración.