Omitir V�nculos de navegaci�n | |
Salir de la Vista de impresi�n | |
Guía de instalación del software de Oracle Solaris Cluster Oracle Solaris Cluster 4.0 (Español) |
1. Planificación de la configuración de Oracle Solaris Cluster
Búsqueda de tareas de instalación de Oracle Solaris Cluster
Planificación del sistema operativo Oracle Solaris
Directrices para seleccionar el método de instalación de Solaris
Restricciones de las funciones del sistema operativo Oracle Solaris
Particiones de disco del sistema
SPARC: Directrices para Oracle VM Server para SPARC en un clúster
Planificación del entorno de Oracle Solaris Cluster
Dispositivos de acceso a la consola
Configuración del servidor de quórum
Protocolo de tiempo de red (NTP)
Componentes configurables de Oracle Solaris Cluster
Nombres de los nodos de votación de clúster global e identificadores de nodos
Planificación de los dispositivos globales
Grupos de dispositivos de planificación
Planificación de sistemas de archivos del clúster
Elección de opciones de montaje para sistemas de archivos del clúster UFS
Información de montaje para los sistemas de archivos del clúster
Planificación de la administración de volúmenes
Directrices del software de administrador de volúmenes
Directrices para el software de Solaris Volume Manager
Registro del sistema de archivos del clúster UFS
Directrices de creación de reflejos
Directrices para la creación de reflejos de discos multihost
Directrices para la creación de reflejos de agrupación raíz ZFS
2. Instalación del software en los nodos del clúster global
3. Establecimiento del clúster global
4. Configuración del software de Solaris Volume Manager
5. Creación de un sistema de archivos del clúster
6. Creación de clústeres de zona
En esta sección se proporcionan directrices de planificación y preparación para la instalación y la configuración de los siguientes componentes del software Oracle Solaris Cluster.
Para obtener información detallada sobre los componentes de Oracle Solaris Cluster, consulte la Oracle Solaris Cluster Concepts Guide.
Asegúrese de que dispone de todos los certificados de licencia necesarios antes de iniciar la instalación del software. El software de Oracle Solaris Cluster no requiere un certificado de licencia, pero cada nodo instalado con él debe estar cubierto por el acuerdo de licencia de software Oracle Solaris Cluster.
Para conocer los requisitos de licencia del software del administrador de volúmenes y de las aplicaciones, consulte la documentación de instalación de estos productos
Después de instalar cada producto de software, también debe instalar todas las actualizaciones de software requeridas. Para garantizar el correcto funcionamiento del clúster, asegúrese de que todos los nodos del clúster mantengan el mismo nivel de actualización.
Para conocer las directrices y los procedimientos generales para efectuar actualizaciones de software, consulte el Capítulo 11, Actualización de software de Guía de administración del sistema de Oracle Solaris Cluster.
Para obtener información sobre el uso de redes públicas por el clúster, consulte Public Network Adapters and IP Network Multipathing de Oracle Solaris Cluster Concepts Guide.
Debe definir un número de direcciones IP de red pública para varios componentes de Oracle Solaris Cluster. El número de direcciones necesarias dependerá de los componentes que incluya en la configuración del clúster. Cada host de Oracle Solaris de la configuración del clúster debe tener, al menos, una conexión de red pública con el mismo conjunto de subredes públicas.
En la siguiente tabla, se enumeran los componentes que necesitan recibir la asignación de direcciones IP de red pública. Agregue estas direcciones IP a las siguientes ubicaciones:
Cualquier servicio de nombres utilizado.
El archivo local /etc/inet/hosts en cada nodo del clúster global después de instalar el software de Oracle Solaris.
El archivo /etc/inet/hosts local en cualquier zona no global con una IP exclusiva.
Tabla 1-2 Componentes de Oracle Solaris Cluster que utilizan direcciones IP de red pública
|
Para obtener más información acerca de la planificación de direcciones IP, consulte el Capítulo 1, Planificación de la implementación de red de Administración de Oracle Solaris: servicios IP.
Debe disponer de acceso a la consola en todos los nodos del clúster. Se usa un procesador de servicios (SP, Service Processor) para establecer la comunicación entre la consola de administración y las consolas de los nodos del clúster global.
Para obtener más información sobre el acceso a la consola, consulte la Oracle Solaris Cluster Concepts Guide.
Puede usar la utilidad pconsole de Oracle Solaris para conectarse con los nodos del clúster. Además, la utilidad proporciona una ventana de consola maestra desde la cuál puede propagar la entrada a todas las conexiones que haya abierto. Para obtener más información, consulte la página del comando man pconsole(1) que se encuentra disponible cuando instala el paquete terminal/pconsole de Oracle Solaris 11.
Las redes públicas se comunican fuera del clúster. Tenga en cuenta los siguientes aspectos cuando planifique la configuración de red pública:
Separación de red pública y red privada: las redes públicas y la red privada (interconexión del clúster) deben utilizar adaptadores independientes, o se deben configurar VLAN etiquetadas en adaptadores compatibles con VLAN etiquetadas y conmutadores compatibles con VLAN para que utilicen el mismo adaptador con la interconexión privada y con la red pública.
De manera alternativa, cree NIC virtuales en la misma interfaz física y asigne diferentes NIC virtuales a las redes públicas y privadas.
Mínimo: todos los nodos del clúster deben conectarse, al menos, a una red pública. Las conexiones de red pública pueden utilizar diferentes subredes para los distintos nodos.
Máximo: puede tener todas las conexiones de red pública adicionales que permita su configuración de hardware.
Servicios escalables: todos los nodos que ejecuten un servicio escalable deben utilizar la misma subred o conjunto de subredes, o utilizar diferentes subredes que puedan enrutarse entre sí.
Direcciones lógicas: cada grupo de recursos de servicios de datos que usa una dirección lógica debe tener un nombre de host especificado para cada red pública desde la que se puede acceder a la dirección lógica. Para obtener más información sobre los recursos y los servicios de datos, también consulte la Oracle Solaris Cluster Concepts Guide.
IPv4: el software Oracle Solaris Cluster admite direcciones IPv4 en la red pública.
IPv6: el software Oracle Solaris Cluster admite direcciones IPv6 en la red pública para servicios de datos escalables y de migración tras error.
Grupos de IPMP: cada adaptador de red pública utilizado para el tráfico de servicios de datos debe pertenecer a un grupo Varias rutas de red IP (IPMP). Si no se utiliza un adaptador de red pública para el tráfico de servicios de datos, no es necesario que lo configure en un grupo IPMP.
A menos que existan una o más interfaces de red pública IPv6 que no sean de enlace local en la configuración de red pública, la utilidad scinstall configura automáticamente un grupo de IPMP de varios adaptadores para cada conjunto de adaptadores del clúster que utilice la misma subred. Estos grupos se basan en enlaces con sondeos transitivos.
Si la configuración contiene alguna interfaz de red pública IPv6 que no sea de enlace local, debe configurar manualmente en los grupos IPMP todas las interfaces que se usarán para el tráfico de servicios de datos. Puede configurar los grupos IPMP antes o después de que se establezca el clúster.
La utilidad scinstall omite los adaptadores que ya se han configurado en un grupo IPMP. Puede utilizar grupos IPMP basados en sondeos o vínculos en un clúster. Los grupos IPMP basados en sondeos, que prueban la dirección IP de destino, proporcionan la mayor protección mediante el reconocimiento de más condiciones que pueden poner en peligro la disponibilidad.
Si un adaptador de un grupo IPMP que la utilidad scinstall configura no va a utilizarse para el tráfico de servicios de datos, puede eliminar dicho adaptador del grupo.
Para obtener directrices sobre los grupos de IPMP, consulte el Capítulo 14, Introducción a IPMP de Administración de Oracle Solaris: interfaces y virtualización de redes. Para modificar los grupos de IPMP después de la instalación del clúster, siga las directrices de Administración de grupos de varias rutas de red IP en un clúster de Guía de administración del sistema de Oracle Solaris Cluster y los procedimientos del Capítulo 15, Administración de IPMP de Administración de Oracle Solaris: interfaces y virtualización de redes.
Compatibilidad con direcciones MAC locales: todos los adaptadores de red pública deben utilizar tarjetas de interfaz de red (NIC) que sean compatibles con la asignación de direcciones MAC locales. La asignación de direcciones MAC locales supone un requisito de IPMP.
Configuración de local-mac-address: la variable local-mac-address? debe utilizar el valor predeterminado true para los adaptadores Ethernet. El software de Oracle Solaris Cluster no admite el valor local-mac-address? de false para los adaptadores Ethernet.
Para obtener más información sobre las interfaces de red pública, consulte la Oracle Solaris Cluster Concepts Guide.
Puede utilizar el software de servidor de quórum de Oracle Solaris Cluster para configurar un equipo como servidor de quórum y, a continuación, configurar éste como dispositivo del quórum del clúster. Puede utilizar un servidor de quórum además de los discos compartidos y los archivos NAS, o en lugar de ellos.
Tenga en cuenta los siguientes aspectos al planificar el uso del servidor de quórum en una configuración de Oracle Solaris Cluster.
Conexión de red: el equipo del servidor de quórum se conecta al clúster mediante la red pública.
Hardware admitido: las plataformas de hardware compatibles con un servidor de quórum son las mismas que las de un nodo del clúster global.
Sistema operativo: los requisitos del software de Oracle Solaris para el software de Oracle Solaris Cluster se aplican también al software de Quorum Server.
Restricción para zonas no globales: en la versión Oracle Solaris Cluster 4.0, no se puede instalar ni configurar un servidor de quórum en una zona no global.
Servicio para varios clústeres: puede configurar un servidor de quórum como dispositivo del quórum para más de un clúster.
Combinación de hardware y software: no es necesario que configure un servidor de quórum en la misma plataforma de hardware y software que los clústeres para los que se proporciona el quórum. Por ejemplo, un equipo basado en SPARC que se ejecute en el SO Oracle Solaris 10 se puede configurar como servidor de quórum para un clúster basado en x86 que se ejecute en el SO Oracle Solaris 11.
Algoritmo de árbol de expansión: debe inhabilitar el algoritmo de árbol en los conmutadores Ethernet para los puertos conectados a la red pública del clúster en la que se ejecutará el servidor de quórum.
Uso de un nodo del clúster como servidor de quórum: puede configurar un servidor de quórum en un nodo del clúster para proporcionar quórum a otros clústeres distintos al clúster al que pertenece el nodo. Sin embargo, un servidor de quórum configurado en un nodo del clúster no proporcionará alta disponibilidad.
Tenga en cuenta los siguientes aspectos al planificar el uso del sistema de archivos de red (NFS, Network File System) en una configuración de Oracle Solaris Cluster:
Cliente NFS: ningún nodo de Oracle Solaris Cluster puede ser un cliente NFS de un sistema de archivos exportado de HA para NFS que se esté supervisando en un nodo del mismo clúster. Esta clase de montaje cruzado de HA para NFS no está permitido. Utilice el sistema de archivos del clúster para compartir los archivos entre los nodos del clúster.
Protocolo NFSv3: si está montando sistemas de archivos en los nodos del clúster desde servidores NFS externos, como archivos NAS, y está utilizando el protocolo NFSv3, no podrá ejecutar montajes de cliente NFS y los servicios de datos de HA para NFS en el mismo nodo del clúster. Si lo hace, determinadas actividades del servicio de datos de HA para NFS podrían provocar que los daemons NFS se detengan y se reinicien, con lo cual se interrumpirían los servicios NFS. Sin embargo, puede ejecutar de forma segura el servicio de datos de HA para NFS si utiliza el protocolo NFSv4 para montar sistemas de archivos NFS externos en los nodos del clúster.
Bloqueo: las aplicaciones que se ejecuten de forma local en el clúster no deben bloquear los archivos en un sistema de archivos exportado mediante NFS. De lo contrario, el bloqueo local (por ejemplo, flock(3UCB) o fcntl(2)) podría interferir en la capacidad para reiniciar el administrador de bloqueos (lockd(1M)). Durante el reinicio, se puede conceder a un proceso local bloqueado un bloqueo destinado a que un cliente remoto lo solicite. Esta situación podría provocar un comportamiento inesperado.
Funciones de seguridad de NFS: el software Oracle Solaris Cluster no admite las siguientes opciones del comando share_nfs(1M):
secure
sec=dh
Sin embargo, el software de Oracle Solaris Cluster sí admite la siguiente función de seguridad de NFS:
El uso de puertos seguros para NFS. Para habilitar los puertos seguros de NFS, agregue el conjunto de entradas nfssrv:nfs_portmon=1 al archivo /etc/system en los nodos del clúster.
Aislamiento: los clústeres de zona permite el aislamiento de todos los discos compartidos, matrices de almacenamiento y dispositivos NAS compatibles.
Tenga en cuenta las siguientes restricciones de servicio de las configuraciones de Oracle Solaris Cluster:
Enrutadores: no configure los nodos del clúster como enrutadores (portales) por los siguientes motivos:
Es posible que los protocolos de enrutamiento difundan la interconexión del clúster como una red de acceso público a otros enrutadores a pesar de la configuración de IFF_PRIVATE en las interfaces de interconexión.
Los protocolos de enrutamiento pueden interferir en la migración tras error de las direcciones IP en los nodos del clúster, lo que podría afectar a la accesibilidad del cliente.
Los protocolos de enrutamiento pueden poner en peligro el correcto funcionamiento de los servicios escalables al aceptar paquetes de red de cliente y soltarlos en lugar de reenviarlos a otros nodos del clúster.
Servidores NIS+: no configure los nodos del clúster como servidores NIS o NIS+. No hay ningún servicio de datos disponible para NIS o NIS+. Sin embargo, los nodos del clúster pueden ser clientes NIS o NIS+.
Servidores de instalación: no utilice una configuración de Oracle Solaris Cluster para proporcionar un servicio de instalación de alta disponibilidad en los sistemas cliente.
RARP: no utilice una configuración de Oracle Solaris Cluster para proporcionar un servicio rarpd.
Números de programa de llamadas de procedimiento remoto (RPC, Remote Procedure Call): si instala un servicio RPC en el clúster, éste no debe utilizar ninguno de los siguientes números de programa:
100141
100142
100248
Estos números se reservan para los daemons rgmd_receptionist, fed y pmfd de Oracle Solaris Cluster, respectivamente.
Si el servicio RPC que instale utiliza también uno de estos números de programas, deberá cambiarlo para que utilice un número de programa diferente.
Clases de programación: el software Oracle Solaris Cluster no admite la ejecución de clases de programación de procesos de alta prioridad en los nodos del clúster. No ejecute ninguno de los siguientes tipos de procesos en los nodos del clúster:
Los procesos que se ejecutan en la clase de programación de tiempo compartido con alta prioridad
Los procesos que se ejecutan en la clase de programación en tiempo real
El software Oracle Solaris Cluster utiliza los subprocesos del núcleo que no se ejecutan en la clase de programación en tiempo real. Otros procesos de tiempo compartido que se ejecutan con una prioridad superior a la normal o los procesos en tiempo real pueden evitar que los subprocesos del núcleo de Oracle Solaris Cluster adquieran los ciclos de CPU necesarios.
Tenga en cuenta las directrices siguientes de NTP:
Sincronización: al configurar NTP o cualquier utilidad de sincronización de tiempo en el clúster, el primer requisito consiste en que todos los nodos del clúster deben sincronizarse al mismo tiempo.
Precisión: la precisión del tiempo en los nodos es el segundo aspecto importante que debe tener en cuenta durante la sincronización del tiempo en los nodos. Puede configurar NTP como mejor desee siempre que se cumpla este requisito básico de sincronización.
Consulte la Oracle Solaris Cluster Concepts Guide para obtener más información sobre la hora del clúster. Para obtener más información sobre NTP, consulte la página del comando man ntpd(1M) que se proporciona en el paquete service/network/ntp de Oracle Solaris 11.
En esta sección se proporcionan directrices para los siguientes componentes de Oracle Solaris Cluster que se van a configurar:
Especifique un nombre para el clúster global durante la configuración de Oracle Solaris Cluster. El nombre del clúster global debe ser exclusivo en toda la empresa.
Para obtener información sobre cómo asignar un nombre a un clúster de zona, consulte la sección Clústeres de zona.
El nombre de un nodo de votación de un clúster global es el mismo que se asigna al host físico o virtual durante su instalación con el SO Oracle Solaris. Consulte la página del comando man hosts(4) para obtener información sobre los requisitos de asignación de nombre.
En las instalaciones de clústeres con un único nodo, se utiliza de forma predeterminada el nombre del nodo de votación.
Durante la configuración de Oracle Solaris Cluster, debe especificar los nombres de todos los nodos de votación que va a instalar en el clúster global. Los nombres de nodos deben ser únicos en todo el clúster.
Se asigna un ID de nodo a cada nodo de clúster para el uso intraclúster, empezando por el número 1. Se asignan números de ID de nodo a cada nodo de clúster en el orden en que el nodo se convierte en un miembro del clúster. Si todos los nodos de clúster se configuran en una sola operación, el nodo desde el que se ejecuta la utilidad scinstall es el último al que se asigna un número de ID de nodo. Un número de ID de nodo no se puede cambiar después de haberse asignado a un nodo de clúster.
Un nodo convertido en miembro del clúster recibe el número de ID de nodo más bajo posible. Si un nodo se elimina del clúster, su ID de nodo queda disponible asignarlo a un nodo nuevo. Por ejemplo, si se elimina un clúster de cuatro nodos al que se asigna el ID de nodo 3 y se agrega un nodo nuevo, a ese nodo nuevo se le asigna el ID de nodo 3, no el ID de nodo 5.
Si desea que los números de ID de nodo se correspondan con determinados nodos de clúster, configure los nodos de clúster uno a uno en el orden en que quiere asignar los números de ID de nodo. Por ejemplo, para que el software del clúster asigne el ID de nodo 1 a phys-schost-1, configure dicho nodo como nodo patrocinador del clúster. Si después agrega phys-schost-2 al clúster establecido por phys-schost-1, se asigna el ID de nodo 2 a phys-schost-2.
Para obtener información sobre los nombres de nodos de un clúster de zona, consulte la sección Clústeres de zona.
Nota - No es necesario configurar una red privada para un clúster global con un único host. La utilidad scinstall asigna automáticamente la dirección de red privada y la máscara de red predeterminadas, incluso aunque el clúster no utilice la red privada.
El software Oracle Solaris Cluster utiliza la red privada para la comunicación interna entre los nodos y entre las zonas no globales administradas por Oracle Solaris Cluster. Una configuración de Oracle Solaris Cluster necesita, al menos, dos conexiones con la interconexión del clúster en la red privada. Al configurar el software Oracle Solaris Cluster en el primer nodo del clúster, debe especificar la dirección de red privada y la máscara de red de una de las siguientes formas:
Acepte la dirección de red privada (172.16.0.0) y la máscara de red (255.255.240.0) predeterminadas. Este rango de direcciones IP admite un máximo combinado de 64 nodos de votación y zonas no globales, un máximo de 12 clústeres de zona y un máximo de 10 redes privadas.
Nota - El número máximo de nodos de votación que puede admitir un intervalo de direcciones IP no refleja el número máximo de nodos de votación que puede admitir actualmente la configuración de hardware o software.
Especifique una dirección de red privada válida diferente y acepte la máscara de red predeterminada.
Acepte la dirección de red privada predeterminada y especifique una máscara de red diferente.
Especifique una dirección de red privada y una máscara de red diferentes.
Si decide especificar una máscara de red diferente, la utilidad scinstall le solicitará el número de nodos y de redes privadas que desea que admita el intervalo de direcciones IP. La utilidad también solicita que se especifique el número de clústeres de zona que desea permitir. El número de nodos del clúster global que especifique debe incluir también el número previsto de zonas globales no agrupadas en un clúster que utilizará la red privada.
La utilidad calcula la máscara de red para el intervalo mínimo de direcciones IP que admitirá el número de nodos, clústeres de zona y redes privadas que se haya especificado. La máscara de red calculada podría admitir un mayor número de nodos de los que se han especificado, incluidas las zonas no globales, los clústeres de zona y las redes privadas. La utilidad scinstall calcula también una segunda máscara de red que supondría la mínima para admitir el doble del número de nodos, clústeres de zona y redes privadas. Esta segunda máscara de red permitiría que el clúster pudiera dar cabida a un futuro crecimiento sin necesidad de volver a configurar el intervalo de direcciones IP.
A continuación, la utilidad le pide que seleccione la máscara de red. Puede especificar una de las máscaras de red calculadas o proporcionar una diferente. La máscara de red que especifique debe admitir como mínimo el número de nodos y redes privadas que ha indicado en la utilidad.
Nota - Es posible que se deba cambiar el rango de direcciones IP privadas del clúster para permitir la adición de nodos de votación, zonas no globales, clústeres de zona o redes privadas.
Para cambiar la dirección de red privada y la máscara de red una vez establecido el clúster, consulte Modificación de la dirección de red privada o del intervalo de direcciones de un clúster de Guía de administración del sistema de Oracle Solaris Cluster. Debe desactivar el clúster para realizar estos cambios.
Sin embargo, el clúster puede permanecer en el modo de clúster si se utiliza el comando cluster set-netprops para cambiar únicamente la máscara de red. Para cualquier clúster de zona que se haya configurado en el clúster, deben actualizarse también las subredes IP privadas y las direcciones IP privadas correspondientes que se hayan asignado a ese clúster de zona.
Si especifica una dirección de red privada diferente a la predeterminada, ésta debe cumplir los siguientes requisitos:
Tamaño de la dirección y la máscara de red: la dirección de red privada debe ser inferior a la máscara de red. Por ejemplo, puede utilizar la dirección de red privada 172.16.10.0 con la máscara de red 255.255.255.0. Sin embargo, no puede utilizar la dirección de red privada 172.16.10.0 con la máscara de red 255.255.0.0.
Direcciones: la dirección debe estar incluida en el bloque de direcciones que RFC 1918 reserva para su uso en redes privadas. Puede ponerse en contacto con InterNIC para obtener copias de RFC o ver RFC en línea en http://www.rfcs.org.
Uso en varios clústeres: puede utilizar la misma dirección de red privada en más de un clúster, siempre que los clústeres se encuentren en redes privadas diferentes. No se puede acceder a las direcciones IP de red privada fuera del clúster.
Oracle VM Server para SPARC: cuando se crean los dominios invitados en una misma máquina física y se conectan al mismo conmutador virtual, los dominios comparten la red privada, que está visible para todos estos dominios. Tenga cuidado al especificar un intervalo de direcciones IP de red privada en la utilidad scinstall para su uso por parte de los dominios invitados. Asegúrese de que el intervalo de direcciones no esté siendo utilizado por otro dominio que resida en el mismo equipo físico y que comparta el conmutador virtual.
VLAN compartidas por varios clústeres: las configuraciones de Oracle Solaris Cluster permiten compartir la misma VLAN de interconexión privada entre varios clústeres. No es necesario configurar una VLAN independiente para cada clúster. Sin embargo, para el nivel más elevado de aislamiento de errores y resiliencia de interconexión, limite el uso de una VLAN a un solo clúster.
IPv6: el software Oracle Solaris Cluster no admite las direcciones IPv6 para la interconexión privada. A pesar de ello, el sistema sí configura direcciones IPv6 en los adaptadores de red privada para que se admitan servicios escalables que usen direcciones IPv6. Sin embargo, no se utilizan estas direcciones IPv6 en la comunicación entre los nodos en la red privada.
Consulte el Capítulo 1, Planificación de la implementación de red de Administración de Oracle Solaris: servicios IP para obtener más información sobre las redes privadas.
El nombre de host privado es aquel que se utiliza para la comunicación entre los nodos a través de una interfaz de red privada. Los nombres de host privados se crean automáticamente durante la configuración de un clúster global o de zona en Oracle Solaris Cluster. Estos nombres de host privados siguen la siguiente convención de denominación: clusternodeID_nodo -priv, donde ID_nodo es el valor numérico del ID de nodo interno. Durante la configuración de Oracle Solaris Cluster, el número de ID de nodo se asigna a cada nodo de votación cuando éste se convierte en miembro del clúster. Un nodo de votación de clúster global y un nodo de un clúster de zona pueden tener el mismo nombre de host privado, pero cada nombre de host se resuelve en una dirección IP de red privada diferente.
Una vez configurado el clúster global, puede cambiar los nombres de host privados mediante la utilidad clsetup(1CL). Actualmente no se puede cambiar el nombre de host de un nodo de clúster de zona.
La creación de un nombre de host privado para una zona no global es opcional. No hay ninguna convención de nomenclatura para el nombre de host privado de una zona no global.
Las interconexiones del clúster proporcionan rutas de hardware para la comunicación de redes privadas entre los nodos del clúster. Cada interconexión consta de un cable que se conecta de uno de los siguientes modos:
Entre dos adaptadores de transporte
Entre un adaptador y un conmutador de transporte
Para obtener más información sobre el objetivo y la función de la interconexión del clúster, consulte Cluster Interconnect de Oracle Solaris Cluster Concepts Guide.
Nota - No es necesario configurar una interconexión del clúster para un clúster con un único host. No obstante, si cree que es posible que necesite agregar nodos a la configuración del clúster con un único nodo en el futuro, es recomendable que configure la interconexión del clúster para usos posteriores.
Durante la configuración de Oracle Solaris Cluster, debe especificar la información de configuración para una o dos interconexiones del clúster.
Si el número de puertos disponibles del adaptador es limitado, puede utilizar VLAN etiquetadas para compartir el mismo adaptador en las redes pública y privada. Para obtener más información, consulte las directrices relacionadas con los adaptadores VLAN etiquetadas en Adaptadores de transporte.
Puede configurar de una a seis interconexiones en un clúster. Aunque una única interconexión del clúster reduce el número de adaptadores utilizados para la interconexión privada, ésta no proporciona ninguna redundancia y ofrece una menor disponibilidad. Si la interconexión única presenta errores, existe un alto riesgo de que el clúster tenga que realizar una recuperación automática. Siempre que sea posible, instale dos o más interconexiones del clúster para proporcionar redundancia y escalabilidad y, por lo tanto, una mayor disponibilidad, lo que permite evitar la presencia de un punto de error único.
Puede configurar interconexiones de clúster adicionales, hasta seis en total, una vez que el clúster se establece mediante la utilidad clsetup.
Para obtener directrices sobre el hardware de interconexión del clúster, consulte Interconnect Requirements and Restrictions de Oracle Solaris Cluster Hardware Administration Manual. Para obtener información general sobre la interconexión del clúster, consulte Cluster Interconnect de Oracle Solaris Cluster Concepts Guide.
Para los adaptadores de transporte como, por ejemplo, los puertos en las interfaces de red, especifique los nombres de los adaptadores y el tipo de transporte. Si utiliza una configuración de clúster con dos hosts, indique si la interconexión es una conexión de punto a punto (de adaptador a adaptador) o si emplea un conmutador de transporte.
Tenga en cuenta las siguientes directrices y restricciones:
IPv6: el software Oracle Solaris Cluster no admite las comunicaciones IPv6 a través de interconexiones privadas.
Asignación de direcciones MAC locales: todos los adaptadores de red privada deben usar tarjetas de interfaz de red (NIC) que admitan asignaciones de direcciones MAC locales. Las direcciones IPv6 de enlace local, necesarias para que los adaptadores de red privada admitan direcciones de red pública IPv6 para servicios de datos escalables, se obtienen a partir de las direcciones MAC locales.
Adaptadores de VLAN etiquetadas: el software Oracle Solaris Cluster admite redes de área local virtuales (VLAN) etiquetadas para compartir un adaptador entre la interconexión del clúster privada y la red pública. Debe usar el comando dladm create-vlan para configurar el adaptador como adaptador VLAN con etiquetas antes de configurarlo con el clúster.
Para configurar el adaptador VLAN con etiquetas para la interconexión del clúster, especifique el adaptador por su nombre de dispositivo virtual VLAN. Este nombre está compuesto por el nombre del adaptador más el número de instancia de VLAN. El número de instancia de VLAN se obtiene mediante la fórmula (1000*V)+N, siendo V el número de VID y N el PPA.
Por ejemplo, para VID 73 en el adaptador net2, el número de instancia de VLAN se calcula de la siguiente manera: (1000*73)+2. Por lo tanto, especificará net73002 como nombre del adaptador para indicar que forma parte de una LAN virtual compartida.
Para obtener información sobre cómo configurar una VLAN en un clúster, consulte Configuring VLANs as Private Interconnect Networks de Oracle Solaris Cluster Hardware Administration Manual. Para obtener información sobre la creación y administración de VLAN, consulte la página del comando man dladm(1M) y el Capítulo 13, Administración de VLAN de Administración de Oracle Solaris: interfaces y virtualización de redes.
Dominios invitados de SPARC: Oracle VM Server para SPARC: especifique los nombres de adaptadores por sus nombres virtuales, vnet N, como vnet0 y vnet1. Los nombres de adaptadores virtuales se registran en el archivo /etc/path_to_inst.
Interfaces de red lógicas: las interfaces de red lógicas se reservan para que las utilice el software Oracle Solaris Cluster.
Si utiliza conmutadores de transporte como, por ejemplo, un conmutador de red, especifique uno para cada interconexión. Puede utilizar el nombre predeterminado switchN, donde N hace referencia al número asignado automáticamente durante la configuración o, si lo prefiere, cree otro nombre.
Especifique también el nombre del puerto de conmutación o acepte el nombre predeterminado. El nombre de puerto predeterminado es idéntico al nombre de ID de nodo interno del host de Oracle Solaris que aloja el extremo del cable del adaptador. Sin embargo, para ciertos tipos de adaptadores el nombre de puerto predeterminado no es válido.
Los clústeres con tres o más nodos de votación deben utilizar conmutadores de transporte. Sólo se admite la conexión directa entre los nodos de votación para los clústeres con dos hosts. Si se realiza una conexión directa en un clúster con dos hosts, aún puede especificar un conmutador de transporte para la interconexión.
Consejo - Si especifica un conmutador de transporte, podrá agregar más fácilmente otro nodo de votación al clúster en el futuro.
El aislamiento es un mecanismo utilizado por el clúster para proteger la integridad de los datos de un disco compartido durante las situaciones en las que una partición del clúster cree que la otra partición está inactiva ("cerebro dividido"). En el modo típico, scinstall deja habilitada de manera predeterminada el aislamiento global, y cada disco compartido de la configuración utiliza la opción predeterminada de aislamiento global prefer3. Con la configuración prefer3, se usa el protocolo SCSI-3.
Si algún dispositivo no puede usar el protocolo SCSI-3, se debe usar la configuración pathcount, en la que el protocolo de aislamiento para los discos compartidos se eligen en función del número de rutas DID que se conectan con el disco. Los dispositivos que no pueden usar SCSI-3 sólo pueden tener dos rutas de dispositivo DID en el clúster. El aislamiento se puede desactivar para los dispositivos que no admiten el aislamiento SCSI-3 o SCSI-2. Sin embargo, la integridad de los datos para estos dispositivos no se puede garantizar en situaciones de "cerebro dividido".
En el modo personalizado, la utilidad scinstall le pregunta si desea habilitar el aislamiento global. En la mayoría de los casos, debe responder No para mantener habilitado el aislamiento global. Sin embargo, puede deshabilitar el aislamiento global en determinadas situaciones.
Precaución - Si deshabilita el aislamiento en situaciones distintas a las descritas, es posible que los datos puedan dañarse durante la conmutación por error de la aplicación. Estudie atentamente la posibilidad de que se dañen los datos si decide desactivar el aislamiento. |
Las situaciones en las que puede deshabilitar el aislamiento global son las siguientes:
El almacenamiento compartido no admite las reservas SCSI.
Si desactiva el aislamiento para un disco compartido que configura a continuación como dispositivo del quórum, este dispositivo utilizará el protocolo de quórum del software. Esta acción se lleva a cabo independientemente de si el disco admite el protocolo SCSI-2 o SCSI-3. El quórum del software es un protocolo de Oracle Solaris Cluster que emula un formato de Reservas de grupo persistente (PGR) SCSI.
Desea habilitar sistemas que se encuentran fuera del clúster para obtener acceso al almacenamiento conectado al clúster.
Si inhabilita el aislamiento global durante la configuración del clúster, esta función se desactivará para todos los discos compartidos del clúster. Una vez configurado el clúster, puede cambiar el protocolo de aislamiento global o anular el protocolo de aislamiento de discos compartidos individuales. Sin embargo, para cambiar el protocolo de aislamiento de un dispositivo del quórum, debe configurar primero este dispositivo. A continuación, establezca el nuevo protocolo de aislamiento del disco y vuelva a configurarlo en un dispositivo del quórum.
Para obtener más información sobre el comportamiento de aislamiento, consulte Failfast Mechanism de Oracle Solaris Cluster Concepts Guide. Para obtener más información sobre cómo establecer el protocolo de aislamiento de discos compartidos individuales, consulte la página del comando man cldevice(1CL). Para obtener más información sobre la configuración del aislamiento global, consulte la página del comando man cluster(1CL).
Las configuraciones de Oracle Solaris Cluster usan dispositivos del quórum para mantener la integridad de los datos y de los recursos. Si el clúster pierde temporalmente la conexión con un nodo de votación, el dispositivo del quórum evita los problemas de "amnesia" o "cerebro divido" cuando el nodo intente unirse de nuevo al clúster. Para obtener más información sobre el objetivo y la función de los dispositivos de quórum, consulte Quorum and Quorum Devices de Oracle Solaris Cluster Concepts Guide.
Durante la instalación de Oracle Solaris Cluster de un clúster con dos hosts, puede optar por permitir que la utilidad scinstall configure automáticamente como dispositivo de quórum un disco compartido disponible en la configuración. La utilidad scinstall presupone que todos los discos de almacenamiento compartido disponibles son aptos para convertirse en dispositivos de quórum.
Si desea usar un servidor de quórum o un dispositivo NAS de Sun ZFS Storage Appliance, de Oracle, como dispositivo de quórum, configúrelo una vez que se haya completado el procesamiento de scinstall.
Después de la instalación, también puede configurar dispositivos de quórum adicionales con la utilidad clsetup.
Nota - No es necesario que configure dispositivos del quórum para un clúster con un único host.
Si la configuración del clúster incluye dispositivos de almacenamiento compartido de terceros que no se pueden utilizar como dispositivos del quórum, debe usar la utilidad clsetup para configurar el quórum manualmente.
Tenga en cuenta los siguientes puntos al planificar los dispositivos de quórum:
Mínimo: un clúster con dos nodos debe tener como mínimo un dispositivo del quórum, que puede ser un disco compartido, un servidor de quórum o un dispositivo NAS. Para las demás topologías, los dispositivos del quórum son opcionales.
Regla del número impar: si se configura más de un dispositivo de quórum en un clúster con dos hosts o en un par de hosts conectados directamente al dispositivo de quórum, configure un número impar de dispositivos del quórum. Esta configuración garantiza que los dispositivos del quórum presenten rutas de error completamente independientes.
Distribución de los votos del quórum: para obtener la mayor disponibilidad del clúster, asegúrese de que el número total de votos proporcionados por los dispositivos del quórum sea inferior al número de votos proporcionados por los nodos. De lo contrario, los nodos no pueden formar un clúster si todos los dispositivos de quórum no están disponibles, aunque todos los nodos estén funcionando.
Conexión: debe conectar un dispositivo del quórum a, como mínimo, dos nodos de votación.
Protocolo de aislamiento SCSI: al configurar un dispositivo del quórum de discos compartidos SCSI, su protocolo de aislamiento se establece automáticamente en SCSI-2 en un clúster con dos hosts o en SCSI-3 en un clúster con tres o más nodos de votación.
Cambio del protocolo de aislamiento de los dispositivos del quórum: para los discos SCSI configurados como dispositivos del quórum, debe anular la configuración de estos dispositivos antes de habilitar o inhabilitar su protocolo de aislamiento SCSI.
Protocolo del quórum del software: puede configurar como dispositivos del quórum discos compartidos compatibles que no admitan el protocolo SCSI como, por ejemplo, discos SATA. Debe habilitar el aislamiento para estos discos. En ese caso, los discos utilizan el protocolo de quórum del software, que emula las PGR SCSI.
Los discos compartidos SCSI utilizan también el protocolo de quórum del software si se ha inhabilitado el aislamiento para estos discos.
Dispositivos repetidos: el software Oracle Solaris Cluster no admite dispositivos repetidos como dispositivos del quórum.
Grupos de almacenamiento ZFS: no agregue un dispositivo del quórum configurado a un grupo de almacenamiento ZFS. Si se agrega un dispositivo del quórum a un grupo de almacenamiento ZFS, el disco se reetiqueta como disco EFI y se pierde la información de configuración del quórum. El disco ya no podrá proporcionar un voto del quórum al clúster.
Una vez que haya un disco en el grupo de almacenamiento, puede configurarlo como dispositivo del quórum. También puede anular la configuración del dispositivo del quórum, agregar el disco al grupo de almacenamiento y, a continuación, volver a configurarlo como dispositivo del quórum.
Para obtener más información sobre los dispositivos de quórum, consulte Quorum and Quorum Devices de Oracle Solaris Cluster Concepts Guide.
Un clúster de zona es un clúster de una zona no global de Oracle Solaris. Todos los nodos de un clúster de zona se configuran como zonas no globales de la marca solaris que se establecen con el atributo cluster. No se permite ningún otro tipo de marca en un clúster de zona. El aislamiento que proporciona la función Oracle Solaris Zones permite ejecutar los servicios admitidos en el clúster de la zona de manera similar a como se ejecutan los servicios en un clúster global.
Tenga en cuenta los siguientes puntos cuando planifique la creación de un clúster de zona:
Clúster global: el clúster de zona debe establecerse en una configuración de Oracle Solaris Cluster global. Un clúster de zona puede configurarse sin un clúster global subyacente.
Modo de clúster: el nodo de votación de clúster global desde el que se crea o modifica un clúster de zona debe encontrarse en el modo de clúster. Si, al administrar un clúster de zona, los demás nodos de votación se encuentran en el modo sin clúster, los cambios realizados se propagarán a esos nodos al volver al modo de clúster.
Direcciones IP privadas adecuadas: el rango de direcciones IP privadas del clúster global debe disponer de suficientes subredes de direcciones IP libres para el nuevo clúster de zona. Si el número de subredes disponibles es insuficiente, la creación del clúster de zona presentará errores.
Cambios en el intervalo de direcciones IP privadas: las subredes IP privadas y sus correspondientes direcciones IP privadas disponibles para los clústeres de zona se actualizan automáticamente si se modifica el intervalo de direcciones IP privadas del clúster global. Si se elimina un clúster de zona, la infraestructura de clúster libera las direcciones IP privadas utilizadas por éste, lo que permite que las direcciones estén disponibles para su uso en el clúster global y por parte de los demás clústeres de zona que dependan del clúster global.
Dispositivos admitidos: los dispositivos compatibles con las zonas de Oracle Solaris pueden exportarse a un clúster de zona. Entre estos dispositivos, se incluyen los siguientes:
Dispositivos de disco de Oracle Solaris (cN tXdY sZ)
Dispositivos DID (/dev/did/*dsk/dN)
Conjuntos de discos de Solaris Volume Manager y Solaris Volume Manager para Sun Cluster para varios propietarios (/dev/md/setname/*dsk/dN)
Distribución de los nodos: no se pueden alojar varios nodos del mismo clúster de zona en el mismo equipo del nodo. Un host puede admitir varios nodos de clúster de zona siempre y cuando cada clúster de zona de ese host sea miembro de un clúster de zona diferente.
Creación de nodos: debe crear, al menos, un nodo durante la creación del clúster de zona. El nombre del nodo de clúster de zona debe ser exclusivo en el clúster de zona. La infraestructura crea automáticamente una zona no global subyacente en cada host que admite el clúster de zona. Cada zona no global recibe el mismo nombre, que se obtiene del nombre asignado al clúster de zona durante la creación del clúster, por lo que es idéntico a éste. Por ejemplo, si crea un clúster de zona con el nombre zc1, el nombre de la zona no global correspondiente en cada host que admite el clúster de zona también es zc1.
Nombre del clúster: cada nombre de clúster de zona debe ser exclusivo en todo el clúster de máquinas que alojan el clúster global. Este nombre de clúster de zona no puede utilizarse para ninguna zona global en ninguna parte del clúster de equipos. Tampoco puede ser idéntico al de un nodo del clúster global. No se pueden utilizar "all" (todos) o "global" como nombres del clúster de zona ya que están reservados.
Direcciones IP de red pública: puede asignar una dirección IP de red pública específica a cada nodo del clúster de zona.
Nota - Si no configura una dirección IP para cada nodo de clúster de zona, ocurrirán dos cosas:
Ese clúster de zona específico no podrá configurar dispositivos NAS para utilizar en el clúster de zona. El clúster utiliza la dirección IP del nodo de clúster de zona para comunicarse con el dispositivo NAS, por lo que no tener una dirección IP impide la admisión de clústeres para el aislamiento de dispositivos NAS.
El software del clúster activará cualquier dirección IP de host lógico en cualquier NIC.
Nombres de host privados: durante la creación del clúster de zona, se crea automáticamente un nombre de host privado para cada nodo de este clúster del mismo modo que para los clústeres globales. Actualmente no se puede cambiar el nombre de host de un nodo de clúster de zona. Para obtener más información sobre los nombres de host privados, consulte la sección Nombres de host privados.
Marca solaris: todos los nodos de un clúster de zona se configuran como zonas no globales de la marca solaris que se establece con el atributo cluster . No se permite ningún otro tipo de marca en un clúster de zona.
Tipo de IP: los clústeres de zona se crean con el tipo de IP shared. El tipo de IP exclusive no se admite para los clústeres de zona.
Propiedad de tipo de recurso Global_zone=TRUE: para registrar un tipo de recurso que utiliza la propiedad de tipo de recurso Global_zone=TRUE, el archivo de tipo de recurso debe ubicarse en el directorio /usr/cluster/global/rgm/rtreg/ del clúster de zona. Si ese archivo de tipo de recurso se encuentra en otra ubicación, se rechaza el comando para registrar el tipo de recurso.
Conversión a un nodo de clúster de zona: no se puede agregar a un clúster de zona una zona no global que se encuentre fuera de ese clúster de zona. Debe usarse solamente el comando clzonecluster para agregar nodos nuevos a un clúster de zona.
Sistemas de archivos: puede usar el comando clzonecluster para agregar los siguientes tipos de sistemas de archivos para que los use un clúster de zona. Un sistema de archivos se exporta a un clúster de zona mediante un montaje directo o un montaje en bucle invertido.
Por montaje directo:
Sistema local de archivos UFS
Oracle Solaris ZFS (exportado como conjunto de datos)
NFS desde dispositivos NAS admitidos
Por montaje en bucle de retorno:
Sistema local de archivos UFS
UFS del clúster de Oracle RAC
Puede configurar un recurso de HAStoragePlus o ScalMountPoint para gestionar el montaje del sistema de archivos.
Aislamiento: los clústeres de zona permite el aislamiento de todos los discos compartidos, matrices de almacenamiento y dispositivos NAS compatibles.