Omitir Vínculos de navegación | |
Salir de la Vista de impresión | |
Guía de instalación del software Oracle Solaris Cluster |
1. Planificación de la configuración de Oracle Solaris Cluster
Búsqueda de tareas de instalación de Oracle Solaris Cluster
Planificación del sistema operativo Oracle Solaris
Directrices para seleccionar el método de instalación de Solaris
Restricciones de las funciones del sistema operativo Oracle Solaris
Consideraciones sobre los grupos de software de Solaris
Particiones de disco del sistema
Directrices para el sistema de archivos raíz (/)
Directrices para el sistema de archivos /globaldevices
Requisitos del administrador de volúmenes
Ejemplo: asignaciones del sistema de archivos de muestra
Directrices para zonas no globales en un clúster global
SPARC: Directrices para Sun Logical Domains en un clúster
Planificación del entorno de Oracle Solaris Cluster
Dispositivos de acceso a la consola
Protocolo de tiempo de red (NTP)
Componentes configurables de Oracle Solaris Cluster
Nombres de los nodos de votación de clúster global e identificadores de nodos
Requisitos y directrices del clúster global
Sistemas de archivos del clúster
Selección de las opciones de montaje para los sistemas de archivos del clúster
Sistemas de archivos UFS del clúster
Sistemas de archivos VxFS del clúster
Información de montaje para los sistemas de archivos del clúster
Planificación de la administración de volúmenes
Directrices para el software del administrador de volúmenes
Directrices para el software Solaris Volume Manager
Directrices para el software Veritas Volume Manager
Registro de los sistemas de archivos
Directrices de creación de reflejos
Directrices para la creación de reflejos de discos multihost
Directrices para la creación de reflejos del disco raíz
2. Instalación del software en los nodos del clúster global
3. Establecimiento del clúster global
4. Configuración del software Solaris Volume Manager
5. Instalación y configuración de Veritas Volume Manager
6. Creación de un sistema de archivos del clúster
7. Creación de zonas no globales y clústeres de zona
8. Instalación del módulo de Oracle Solaris Cluster en Sun Management Center
9. Desinstalación del software del clúster
A. Hojas de trabajo de instalación y configuración de Oracle Solaris Cluster
En esta sección se proporcionan directrices de planificación y preparación para la instalación y la configuración de los siguientes componentes del software Oracle Solaris Cluster.
Para obtener información detallada sobre los componentes de Oracle Solaris Cluster, consulte Oracle Solaris Cluster Overview y Oracle Solaris Cluster Concepts Guide.
Asegúrese de que dispone de todas los certificados de licencia necesarios antes de iniciar la instalación del software. El software Oracle Solaris Cluster no requiere un certificado de licencia, pero cada nodo instalado con él debe estar cubierto por el acuerdo de licencia de software Oracle Solaris Cluster.
Para conocer los requisitos de licencia del software del administrador de volúmenes y de las aplicaciones, consulte la documentación de instalación de estos productos
Después de instalar los productos de software, debe instalar también los parches necesarios. Para garantizar el correcto funcionamiento del clúster, asegúrese de que todos los nodos del clúster mantengan el mismo nivel de parche.
Para obtener información acerca de los parches necesarios, consulte Parches y niveles de firmware necesarios en las Notas de la versión de Sun Cluster o póngase en contacto con su proveedor de servicios de Oracle.
Para obtener directrices y procedimientos para aplicar los parches, consulte el Capítulo 11, Aplicación de parches en el software y el firmware de Oracle Solaris Cluster de Guía de administración del sistema de Oracle Solaris Cluster.
Para obtener información acerca del uso de redes públicas por parte del clúster, consulte Public Network Adapters and IP Network Multipathing de Oracle Solaris Cluster Concepts Guide.
Debe configurar varias direcciones IP de red pública para los diferentes componentes de Oracle Solaris Cluster en función de la configuración del clúster. Cada host de Solaris de la configuración del clúster debe tener, al menos, una conexión de red pública con el mismo conjunto de subredes públicas.
En la siguiente tabla, se enumeran los componentes que necesitan recibir la asignación de direcciones IP de red pública. Agregue estas direcciones IP a las siguientes ubicaciones:
Cualquier servicio de nombres utilizado.
El archivo /etc/inet/hosts local en cada nodo del clúster global después de instalar el software de Solaris.
El archivo /etc/inet/hosts local en cualquier zona no global con una IP exclusiva.
Tabla 1-3 Componentes de Oracle Solaris Cluster que utilizan direcciones IP de red pública
|
Para obtener más información acerca de la planificación de direcciones IP, consulte el Capítulo 2, Planificación de la red TCP/IP (tareas) de Guía de administración del sistema: servicios IP.
Debe disponer de acceso a la consola en todos los nodos del clúster. Si instala el software Cluster Control Panel en la consola de administración, debe proporcionar el nombre de host y el número de puerto del dispositivo de acceso a la consola utilizado para establecer comunicación con los nodos del clúster.
Se utiliza un concentrador de terminales para establecer comunicación entre la consola de administración y las consolas de los nodos del clúster global.
El servidor Sun Enterprise 10000 utiliza un procesador de servicios del sistema (SSP) en lugar de un concentrador de terminales.
El servidor Sun Fire utiliza un controlador del sistema en lugar de un concentrador de terminales.
Para obtener más información sobre el acceso a la consola, consulte Oracle Solaris Cluster Concepts Guide.
De forma alternativa, si conecta una consola de administración directamente a los nodos del clúster o a través de una red de administración, proporcione el nombre de host de cada uno de los nodos del clúster y el número de puerto serie que se utiliza para establecer conexión con la consola o la red de administración.
En cada grupo de recursos de servicios de datos que utilice una dirección lógica, se debe especificar un nombre del sistema para cada red pública desde la que se puede acceder a la dirección lógica.
Para obtener más información, consulte Oracle Solaris Cluster Data Services Planning and Administration Guide. Para obtener más información sobre recursos y servicios de datos, consulte Oracle Solaris Cluster Overview y Oracle Solaris Cluster Concepts Guide.
Las redes públicas se comunican fuera del clúster. Tenga en cuenta los siguientes aspectos al planificar la configuración de red pública:
Separación de red pública y red privada: las redes públicas y la red privada (interconexión del clúster) deben utilizar adaptadores independientes, o se deben configurar VLAN etiquetadas en adaptadores compatibles con VLAN etiquetadas y conmutadores compatibles con VLAN para que utilicen el mismo adaptador con la interconexión privada y con la red pública.
Mínimo: todos los nodos del clúster deben conectarse, al menos, a una red pública. Las conexiones de red pública pueden utilizar diferentes subredes para los distintos nodos.
Máxima: puede tener todas las conexiones de red pública adicionales que permita su configuración de hardware.
Servicios escalables: todos los nodos que ejecuten un servicio escalable deben utilizar la misma subred o conjunto de subredes, o utilizar diferentes subredes que puedan enrutarse entre sí.
IPv4: el software Oracle Solaris Cluster admite direcciones IPv4 en la red pública.
IPv6: el software Oracle Solaris Cluster admite direcciones IPv6 en la red pública si se dan las siguientes condiciones o restricciones:
El software Oracle Solaris Cluster no admite las direcciones IPv6 de la red pública si la interconexión privada utiliza adaptadores SCI.
El software Oracle Solaris Cluster admite las direcciones IPv6 para los servicios de datos escalables y de migración tras error.
Grupos IPMP: cada adaptador de red pública utilizado para el tráfico de servicios de datos debe pertenecer a un grupo Multirruta de red IP (IPMP). Si no se utiliza un adaptador de red pública para el tráfico de servicios de datos, no es necesario que lo configure en un grupo IPMP.
La utilidad scinstall configura automáticamente un grupo IPMP de varios adaptadores para cada conjunto de adaptadores de la red pública en el clúster que utiliza la misma subred. Estos grupos se basan en sondeos.
La utilidadscinstall omite los adaptadores que ya se han configurado en un grupo IPMP. Puede utilizar grupos IPMP basados en sondeos o vínculos en un clúster. No obstante, los grupos IPMP basados en sondeos, que prueban la dirección IP de destino, proporcionan la mayor protección mediante el reconocimiento de más condiciones que pueden poner en peligro la disponibilidad.
Si un adaptador de un grupo IPMP que la utilidad scinstall configura no va a utilizarse para el tráfico de servicios de datos, puede eliminar dicho adaptador del grupo.
Para obtener instrucciones y directrices de configuración de grupos IPMP, siga los procedimientos descritos en Parte VI, IPMP de Guía de administración del sistema: servicios IP. Para modificar los grupos IPMP después de instalar el clúster, siga las directrices que aparecen en la sección Administración de grupos de varias rutas de red IP en un clúster de Guía de administración del sistema de Oracle Solaris Cluster y los procedimientos del Capítulo 31, Administración de IPMP (tareas) de Guía de administración del sistema: servicios IP.
Compatibilidad con direcciones MAC locales: Todos los adaptadores de red pública deben utilizar tarjetas de interfaz de red (NIC) que sean compatibles con la asignación de direcciones MAC locales. La asignación de direcciones MAC locales supone un requisito de IPMP.
Valor de local-mac-address : la variable local-mac-address? debe utilizar el valor predeterminado true (verdadero) para los adaptadores Ethernet. El software Oracle Solaris Cluster no admite el valor false (falso) de local-mac-address? para los adaptadores Ethernet.
Para obtener más información sobre las interfaces de red pública, consulte Oracle Solaris Cluster Concepts Guide .
Puede utilizar el software de servidor de quórum de Oracle Solaris Cluster para configurar un equipo como servidor de quórum y, a continuación, configurar éste como dispositivo del quórum del clúster. Puede utilizar un servidor de quórum además de los discos compartidos y los archivos NAS, o en lugar de ellos.
Tenga en cuenta los siguientes aspectos al planificar el uso del servidor de quórum en una configuración de Oracle Solaris Cluster.
Conexión de red: el equipo del servidor de quórum se conecta al clúster mediante la red pública.
Hardware admitido: las plataformas de hardware compatibles con un servidor de quórum son las mismas que las de un nodo del clúster global.
Sistema operativo: los requisitos del software Oracle Solaris Cluster se aplican también al software del servidor de quórum.
Servicio para varios clústeres: puede configurar un servidor de quórum como dispositivo del quórum para más de un clúster.
Combinación de hardware y software: no es necesario que configure un servidor de quórum en la misma plataforma de hardware y software que el clúster o los clústeres para los que se proporciona el quórum. Por ejemplo, un equipo basado en SPARC que se ejecute en el SO Solaris 10 se puede configurar como servidor de quórum para un clúster basado en x86 que se ejecute en el SO Solaris 10.
Algoritmo de árbol de expansión: debe inhabilitar el algoritmo de árbol en los conmutadores Ethernet para los puertos conectados a la red pública del clúster en la que se ejecutará el servidor de quórum.
Uso de un nodo del clúster como servidor de quórum: puede configurar un servidor de quórum en un nodo del clúster para proporcionar quórum a otros clústeres distintos al clúster al que pertenece el nodo. Sin embargo, un servidor de quórum configurado en un nodo del clúster no proporcionará alta disponibilidad.
Tenga en cuenta los siguientes aspectos al planificar el uso del sistema de archivos de red (NFS) en una configuración de Oracle Solaris Cluster.
Cliente NFS: ningún nodo de Oracle Solaris Cluster puede ser un cliente NFS de un sistema de archivos exportado de Oracle Solaris Cluster HA para NFS (HA para NFS) que se esté supervisando en un nodo del mismo clúster. Esta clase de montaje cruzado de HA para NFS no está permitido. Utilice el sistema de archivos del clúster para compartir los archivos entre los nodos del clúster.
Protocolo NFSv3: si está montando sistemas de archivos en los nodos del clúster desde servidores NFS externos, como archivos NAS, y está utilizando el protocolo NFSv3, no podrá ejecutar montajes de cliente NFS y los servicios de datos de HA para NFS en el mismo nodo del clúster. Si lo hace, determinadas actividades del servicio de datos de HA para NFS podrían provocar que los daemons NFS se detengan y se reinicien, con lo cual se interrumpirían los servicios NFS. Sin embargo, puede ejecutar de forma segura el servicio de datos de HA para NFS si utiliza el protocolo NFSv4 para montar sistemas de archivos NFS externos en los nodos del clúster.
Bloqueo: las aplicaciones que se ejecuten de forma local en el clúster no deben bloquear los archivos en un sistema de archivos exportado mediante NFS. De lo contrario, el bloqueo local (por ejemplo, flock(3UCB) o fcntl(2)) podría interferir en la capacidad para reiniciar el administrador de bloqueos (lockd(1M)). Durante el reinicio, se puede conceder a un proceso local bloqueado un bloqueo destinado a que un cliente remoto lo solicite. Esto podría provocar un comportamiento inesperado.
Funciones de seguridad de NFS: el software Oracle Solaris Cluster no admite las siguientes opciones del comando share_nfs(1M):
secure
sec=dh
Sin embargo, el software Oracle Solaris Cluster sí admite las siguientes funciones de seguridad de NFS:
El uso de puertos seguros para NFS. Para habilitar los puertos seguros de NFS, agregue el conjunto de entradas nfssrv:nfs_portmon=1 al archivo /etc/system en los nodos del clúster.
El uso de Kerberos con NFS. Para obtener más información, consulte Securing HA for NFS With Kerberos V5 de Oracle Solaris Cluster Data Service for Network File System (NFS) Guide.
Aislamiento: los clústeres de zona permite el aislamiento de todos los discos compartidos, matrices de almacenamiento y dispositivos NAS compatibles.
Tenga en cuenta las siguientes restricciones de servicio de las configuraciones de Oracle Solaris Cluster:
Enrutadores: no configure los nodos del clúster como enrutadores (portales) por los siguientes motivos:
Es posible que los protocolos de enrutamiento difundan la interconexión del clúster como una red de acceso público a otros enrutadores a pesar de la configuración de IFF_PRIVATE en las interfaces de interconexión.
Los protocolos de enrutamiento pueden interferir en la migración tras error de las direcciones IP en los nodos del clúster, lo que podría afectar a la accesibilidad del cliente.
Los protocolos de enrutamiento pueden poner en peligro el correcto funcionamiento de los servicios escalables al aceptar paquetes de red de cliente y soltarlos en lugar de reenviarlos a otros nodos del clúster.
Servidores NIS+: no configure los nodos del clúster como servidores NIS o NIS+. No hay ningún servicio de datos disponible para NIS o NIS+. Sin embargo, los nodos del clúster pueden ser clientes NIS o NIS+.
Servidores de inicio e instalación: no utilice una configuración de Oracle Solaris Cluster para proporcionar un servicio de inicio o instalación de alta disponibilidad en los sistemas cliente.
RARP: No utilice una configuración de Oracle Solaris Cluster para proporcionar un servicio rarpd.
Números de programa RPC: si instala un servicio RPC en el clúster, éste no debe utilizar ninguno de los siguientes números de programa:
100141
100142
100248
Estos números se reservan para los daemons rgmd_receptionist, fed y pmfd de Oracle Solaris Cluster, respectivamente.
Si el servicio RPC que instale utiliza también uno de estos números de programas, deberá cambiarlo para que utilice un número de programa diferente.
Clases de programación: el software Oracle Solaris Cluster no admite la ejecución de clases de programación de procesos de alta prioridad en los nodos del clúster. No ejecute ninguno de los siguientes tipos de procesos en los nodos del clúster:
Los procesos que se ejecutan en la clase de programación de tiempo compartido con alta prioridad
Los procesos que se ejecutan en la clase de programación en tiempo real
El software Oracle Solaris Cluster utiliza los subprocesos del núcleo que no se ejecutan en la clase de programación en tiempo real. Otros procesos de tiempo compartido que se ejecutan con una prioridad superior a la normal o los procesos en tiempo real pueden evitar que los subprocesos del núcleo de Oracle Solaris Cluster adquieran los ciclos de CPU necesarios.
Tenga en cuenta las directrices siguientes de NTP:
Sincronización: al configurar NTP o cualquier utilidad de sincronización de tiempo en el clúster, el primer requisito consiste en que todos los nodos del clúster deben sincronizarse al mismo tiempo.
Precisión: la precisión del tiempo en los nodos es el segundo aspecto importante que debe tener en cuenta durante la sincronización del tiempo en los nodos. Puede configurar NTP como mejor desee siempre que se cumpla este requisito básico de sincronización.
Mensajes de error acerca de nodos inexistentes: a menos que haya instalado su propio archivo /etc/inet/ntp.conf, el comando scinstall instala automáticamente un archivo ntp.conf predeterminado. Este archivo predeterminado incluye referencias al número máximo de nodos. Por lo tanto, es posible que el daemon xntpd(1M) emita mensajes de error en relación con algunas de estas referencias durante el inicio. Puede omitir con seguridad estos mensajes. Consulte la sección Cómo configurar Network Time Protocol (NTP) para obtener información acerca de cómo suprimir estos mensajes cuando se den las condiciones normales en el clúster.
Consulte Oracle Solaris Cluster Concepts Guide para obtener más información sobre el tiempo del clúster. Consulte el archivo de plantilla /etc/inet/ntp.cluster para obtener directrices adicionales acerca de cómo establecer NTP para una configuración de Oracle Solaris Cluster.
En esta sección se proporcionan directrices para los siguientes componentes de Oracle Solaris Cluster que se van a configurar:
Agregue esta información a la plantilla de planificación de la configuración correspondiente.
Especifique un nombre para el clúster global durante la configuración de Oracle Solaris Cluster. El nombre del clúster global debe ser exclusivo en toda la empresa.
Para obtener información sobre cómo asignar un nombre a un clúster de zona, consulte la sección clústeres de zona.
El nombre de un nodo de votación de un clúster global es el mismo que se asigna al host físico o virtual durante su instalación con el SO Solaris. Consulte la página de comando man hosts(4) para obtener información sobre los requisitos de asignación de nombre.
En las instalaciones de clústeres con un único nodo, se utiliza de forma predeterminada el nombre del nodo de votación.
Durante la configuración de Oracle Solaris Cluster, debe especificar los nombres de todos los nodos de votación que va a instalar en el clúster global.
Se asigna un ID de nodo a cada nodo de clúster para el uso intraclúster, empezando por el número 1. Se asignan números de ID de nodo a cada nodo de clúster en el orden en que el nodo se convierte en un miembro del clúster. Si todos los nodos de clúster se configuran en una sola operación, el nodo desde el que se ejecuta la utilidad scinstall es el último al que se asigna un número de ID de nodo. Un número de ID de nodo no se puede cambiar después de haberse asignado a un nodo de clúster.
Un nodo convertido en miembro del clúster recibe el número de ID de nodo más bajo posible. Si un nodo se elimina del clúster, su ID de nodo queda disponible asignarlo a un nodo nuevo. Por ejemplo, si se elimina un clúster de cuatro nodos al que se asigna el ID de nodo 3 y se agrega un nodo nuevo, a ese nodo nuevo se le asigna el ID de nodo 3, no el ID de nodo 5.
Si desea que los números de ID de nodo se correspondan con determinados nodos de clúster, configure los nodos de clúster uno a uno en el orden en que quiere asignar los números de ID de nodo. Por ejemplo, para que el software del clúster asigne el ID de nodo 1 a phys-schost-1, configure dicho nodo como nodo patrocinador del clúster. Si después agrega phys-schost-2 al clúster establecido por phys-schost-1, se asigna el ID de nodo 2 a phys-schost-2.
Para obtener información sobre los nombres de nodos de un clúster de zona, consulte la sección clústeres de zona.
Una zona no global con la marca native puede ser un posible nodo válido de una lista de nodos de grupo de recursos. Utilice la convención de nomenclatura nombre_nodo:nombre_zona para especificar una zona no global en un comando de Oracle Solaris Cluster.
nombre_nodo hace referencia al nombre de host de Solaris.
nombre_zona hace referencia al nombre asignado a la zona no global al crearla en el nodo de votación. El nombre de la zona debe ser exclusivo en el nodo. No obstante, puede utilizar el mismo nombre de zona en diferentes nodos de votación. El nombre de nodo diferente en nombre_nodo:nombre_zona permite que el nombre de la zona no global completa sea exclusivo en el clúster.
Para especificar la zona global, sólo debe indicar el nombre del nodo de votación.
Para obtener información sobre un clúster de zonas no globales, consulte la sección clústeres de zona.
Puede desactivar funciones de clúster de una zona no global seleccionada. Un usuario root registrado en alguna de estas zonas no es capaz de descubrir ni interrumpir el funcionamiento del clúster. Para obtener instrucciones, consulte
Nota - No es necesario configurar una red privada para un clúster global con un único host. La utilidad scinstall asigna automáticamente la dirección de red privada y la máscara de red predeterminadas, incluso aunque el clúster no utilice la red privada.
El software Oracle Solaris Cluster utiliza la red privada para la comunicación interna entre los nodos y entre las zonas no globales administradas por Oracle Solaris Cluster. Una configuración de Oracle Solaris Cluster necesita, al menos, dos conexiones con la interconexión del clúster en la red privada. Al configurar el software Oracle Solaris Cluster en el primer nodo del clúster, debe especificar la dirección de red privada y la máscara de red de una de las siguientes formas:
Acepte la dirección de red privada (172.16.0.0) y la máscara de red (255.255.240.0) predeterminadas. Este intervalo de direcciones IP admite un máximo combinado de 64 nodos de votación y zonas no globales, un máximo de 12 clústeres de zona y un máximo de 10 redes privadas..
Nota - El número máximo de nodos de votación que puede admitir un intervalo de direcciones IP no refleja el número máximo de nodos de votación que puede admitir actualmente la configuración de hardware o software.
Especifique una dirección de red privada válida diferente y acepte la máscara de red predeterminada.
Acepte la dirección de red privada predeterminada y especifique una máscara de red diferente.
Especifique una dirección de red privada y una máscara de red diferentes.
Si decide especificar una máscara de red diferente, la utilidad scinstall le solicitará el número de nodos y de redes privadas que desea que admita el intervalo de direcciones IP. La utilidad también solicita que se especifique el número de clústeres de zona que desea permitir. El número de nodos del clúster global que especifique debe incluir también el número previsto de zonas globales no agrupadas en un clúster que utilizará la red privada.
La utilidad calcula la máscara de red para el intervalo mínimo de direcciones IP que admitirá el número de nodos, clústeres de zona y redes privadas que se haya especificado. La máscara de red calculada podría admitir un mayor número de nodos de los que se han especificado, incluidas las zonas no globales, los clústeres de zona y las redes privadas. La utilidad scinstall calcula también una segunda máscara de red que supondría la mínima para admitir el doble del número de nodos, clústeres de zona y redes privadas. Esta segunda máscara de red permitiría que el clúster pudiera dar cabida a un futuro crecimiento sin necesidad de volver a configurar el intervalo de direcciones IP.
A continuación, la utilidad le pide que seleccione la máscara de red. Puede especificar una de las máscaras de red calculadas o proporcionar una diferente. La máscara de red que especifique debe admitir como mínimo el número de nodos y redes privadas que ha indicado en la utilidad.
Nota - Es posible que se deba cambiar el rango de direcciones IP privadas del clúster para permitir la adición de nodos de votación, zonas no globales, clústeres de zona o redes privadas.
Para cambiar la dirección de red privada y la máscara de red una vez establecido el clúster, consulte Modificación de la dirección de red privada o del intervalo de direcciones de un clúster de Guía de administración del sistema de Oracle Solaris Cluster. Debe desactivar el clúster para realizar estos cambios.
Sin embargo, el clúster puede permanecer en el modo de clúster si se utiliza el comando cluster set-netprops para cambiar únicamente la máscara de red. Para cualquier clúster de zona que se haya configurado en el clúster, deben actualizarse también las subredes IP privadas y las direcciones IP privadas correspondientes que se hayan asignado a ese clúster de zona.
Si especifica una dirección de red privada diferente a la predeterminada, ésta debe cumplir los siguientes requisitos:
Tamaño de la dirección y la máscara de red: la dirección de red privada debe ser inferior a la máscara de red. Por ejemplo, puede utilizar la dirección de red privada 172.16.10.0 con la máscara de red 255.255.255.0. Sin embargo, no puede utilizar la dirección de red privada 172.16.10.0 con la máscara de red 255.255.0.0.
Direcciones: la dirección debe estar incluida en el bloque de direcciones que RFC 1918 reserva para su uso en redes privadas. Puede ponerse en contacto con InterNIC para obtener copias de RFC o ver RFC en línea en http://www.rfcs.org.
Uso en varios clústeres: puede utilizar la misma dirección de red privada en más de un clúster, siempre que los clústeres se encuentren en redes privadas diferentes. No se puede acceder a las direcciones IP de red privada fuera del clúster.
Los dominios invitados de Sun Sun Logical Domains (LDoms) que se han creado en el mismo equipo físico y que se encuentran conectados al mismo conmutador virtual comparten la misma dirección de red, que está visible para todos ellos. Tenga cuidado al especificar un intervalo de direcciones IP de red privada en la utilidad scinstall para su uso por parte de los dominios invitados. Asegúrese de que el intervalo de direcciones no esté siendo utilizado por otro dominio que resida en el mismo equipo físico y que comparta el conmutador virtual.
VLAN compartidas por varios clústeres: las configuraciones de Oracle Solaris Cluster permiten compartir la misma VLAN de interconexión privada entre varios clústeres. No es necesario configurar una VLAN independiente para cada clúster. No obstante, limitar el uso de una VLAN a un solo clúster ofrece mejor capacidad de aislamiento de errores y una interconexión más resistente.
IPv6: el software Oracle Solaris Cluster no admite las direcciones IPv6 para la interconexión privada. A pesar de ello, el sistema sí configura direcciones IPv6 en los adaptadores de red privada para que se admitan servicios escalables que usen direcciones IPv6. Sin embargo, no se utilizan estas direcciones IPv6 en la comunicación entre los nodos en la red privada.
Consulte el Capítulo 2, Planificación de la red TCP/IP (tareas) de Guía de administración del sistema: servicios IP para obtener más información sobre las redes privadas.
El nombre de host privado es aquel que se utiliza para la comunicación entre los nodos a través de una interfaz de red privada. Los nombres de host privados se crean automáticamente durante la configuración de un clúster global o de zona en Oracle Solaris Cluster. Estos nombres de host siguen la siguiente convención de nomenclatura: clusternode id_nodo -priv, donde id_nodo hace referencia al valor numérico del ID de nodo interno. Durante la configuración de Oracle Solaris Cluster, el número de ID de nodo se asigna a cada nodo de votación cuando éste se convierte en miembro del clúster. Un nodo de votación de clúster global y un nodo de un clúster de zona pueden tener el mismo nombre de host privado, pero cada nombre de host se resuelve en una dirección IP de red privada diferente.
Una vez configurado el clúster global, puede cambiar los nombres de host privados mediante la utilidad clsetup(1CL). Actualmente no se puede cambiar el nombre de host de un nodo de clúster de zona.
La creación de un nombre de host privado para una zona no global es opcional. No hay ninguna convención de nomenclatura para el nombre de host privado de una zona no global.
Las interconexiones del clúster proporcionan rutas de hardware para la comunicación de redes privadas entre los nodos del clúster. Cada interconexión consta de un cable que se conecta de uno de los siguientes modos:
Entre dos adaptadores de transporte
Entre un adaptador y un conmutador de transporte
Para obtener más información acerca de la finalidad y la función de la interconexión del clúster, consulte Cluster Interconnect de Oracle Solaris Cluster Concepts Guide.
Nota - No es necesario configurar una interconexión del clúster para un clúster con un único host. No obstante, si cree que es posible que necesite agregar nodos a la configuración del clúster con un único nodo en el futuro, es recomendable que configure la interconexión del clúster para usos posteriores.
Durante la configuración de Oracle Solaris Cluster, debe especificar la información de configuración para una o varias interconexiones del clúster.
Si el número de puertos disponibles del adaptador es limitado, puede utilizar VLAN etiquetadas para compartir el mismo adaptador en las redes pública y privada. Para obtener más información, consulte las directrices relacionadas con los adaptadores VLAN etiquetadas en Adaptadores de transporte.
Puede configurar de una a seis interconexiones en un clúster. Aunque una única interconexión del clúster reduce el número de adaptadores utilizados para la interconexión privada, ésta no proporciona ninguna redundancia y ofrece una menor disponibilidad. Si la interconexión única presenta errores, existe un alto riesgo de que el clúster tenga que realizar una recuperación automática. Siempre que sea posible, instale dos o más interconexiones del clúster para proporcionar redundancia y escalabilidad y, por lo tanto, una mayor disponibilidad, lo que permite evitar la presencia de un punto de error único.
Puede configurar interconexiones del clúster adicionales (hasta seis en total), una vez establecido el clúster mediante la utilidad clsetup(1CL).
Para obtener directrices sobre el hardware de interconexión del clúster, consulte Interconnect Requirements and Restrictions de Oracle Solaris Cluster 3.3 Hardware Administration Manual. Para obtener información general acerca de la interconexión del clúster, consulte Cluster-Interconnect Components de Oracle Solaris Cluster Overview y Oracle Solaris Cluster Concepts Guide.
Para los adaptadores de transporte como, por ejemplo, los puertos en las interfaces de red, especifique los nombres de los adaptadores y el tipo de transporte. Si utiliza una configuración de clúster con dos hosts, indique si la interconexión es una conexión de punto a punto (de adaptador a adaptador) o si emplea un conmutador de transporte.
Tenga en cuenta las siguientes directrices y restricciones:
IPv6: el software Oracle Solaris Cluster no admite las comunicaciones IPv6 a través de interconexiones privadas.
Asignación de direcciones MAC locales: todos los adaptadores de red privada deben usar tarjetas de interfaz de red (NIC) que admitan asignaciones de direcciones MAC locales. Las direcciones IPv6 de vínculo local, necesarias para que los adaptadores de red privada admitan direcciones de red pública IPv6, se obtienen a partir de las direcciones MAC locales.
Adaptadores de VLAN etiquetadas: el software Oracle Solaris Cluster admite redes de área local virtuales (VLAN) etiquetadas para compartir un adaptador entre la interconexión del clúster privada y la red pública. Para configurar un adaptador de VLAN etiquetada para la interconexión del clúster, especifique el nombre del adaptador y el ID de VLAN (VID) de una de las siguientes formas:
Especifique el nombre habitual del adaptador, que es el nombre del dispositivo más el número de instancia o el punto físico de conexión (PPA). Por ejemplo, el nombre de la instancia 2 de un adaptador Cassini Gigabit Ethernet sería ce2. Si la utilidad scinstall le pregunta si el adaptador forma parte de una LAN virtual compartida, responda yes (sí) y especifique el número de VID del adaptador.
Identifique el adaptador por su nombre de dispositivo virtual VLAN. Este nombre está compuesto por el nombre del adaptador más el número de instancia de VLAN. El número de instancia de VLAN se obtiene mediante la fórmula (1000*V)+N, siendo V el número de VID y N el PPA.
Por ejemplo, para VID 73 en el adaptador ce2, el número de instancia de VLAN se calcula de la siguiente forma: (1000*73)+2. Por lo tanto, especificará ce73002 como nombre del adaptador para indicar que forma parte de una LAN virtual compartida.
Para obtener información sobre cómo configurar una VLAN en un clúster, consulte Configuring VLANs as Private Interconnect Networks de Oracle Solaris Cluster 3.3 Hardware Administration Manual. Para obtener información general sobre VLAN, consulte Administración de redes de área local virtuales de Guía de administración del sistema: servicios IP.
Dominios invitados de SPARC: Sun Logical Domains: especifique los adaptadores mediante su nombre virtual, vnetN, por ejemplo vnet0 y vnet1. Los nombres de adaptadores virtuales se registran en el archivo /etc/path_to_inst.
Interfaces de red lógicas: las interfaces de red lógicas se reservan para que las utilice el software Oracle Solaris Cluster.
Consulte el conjunto scconf_trans_adap_*(1M) de páginas de comando man para obtener información acerca de un adaptador de transporte específico.
Si utiliza conmutadores de transporte como, por ejemplo, un conmutador de red, especifique uno para cada interconexión. Puede utilizar el nombre predeterminado switchN, donde N hace referencia al número asignado automáticamente durante la configuración o, si lo prefiere, cree otro nombre.
Especifique también el nombre del puerto de conmutación o acepte el nombre predeterminado. El nombre de puerto predeterminado es idéntico al nombre de ID de nodo interno del host de Solaris que aloja el extremo del cable asociado al adaptador. Sin embargo, para ciertos tipos de adaptadores el nombre de puerto predeterminado no es válido.
Nota - Los clústeres con tres o más nodos de votación deben utilizar conmutadores de transporte. Sólo se admite la conexión directa entre los nodos de votación para los clústeres con dos hosts.
Si se realiza una conexión directa en un clúster con dos hosts, aún puede especificar un conmutador de transporte para la interconexión.
Consejo - Si especifica un conmutador de transporte, podrá agregar más fácilmente otro nodo de votación al clúster en el futuro.
El aislamiento es un mecanismo utilizado por el clúster para proteger la integridad de los datos de un disco compartido durante las situaciones en las que una partición del clúster cree que la otra partición está inactiva ("cerebro dividido"). En el modo típico, scinstall deja habilitada de forma predeterminada el aislamiento global y cada disco compartido de la configuración utiliza la opción predeterminada de aislamiento global pathcount. Con la opción pathcount, se selecciona el protocolo de aislamiento para cada disco compartido en función del número de rutas de DID asociadas al disco.
En el modo personalizado, la utilidad scinstall le pregunta si desea habilitar el aislamiento global. En la mayoría de los casos, debe responder No para mantener habilitado el aislamiento global. Sin embargo, puede inhabilitar el aislamiento global en las siguientes situaciones:
Precaución - Si inhabilita el aislamiento en situaciones distintas a las descritas a continuación, es posible que los datos puedan dañarse durante la migración tras error de la aplicación. Estudie atentamente la posibilidad de que se dañen los datos si decide desactivar el aislamiento. |
El almacenamiento compartido no admite las reservas SCSI.
Si desactiva el aislamiento para un disco compartido que configura a continuación como dispositivo del quórum, este dispositivo utilizará el protocolo de quórum del software. Esta acción se lleva a cabo independientemente de si el disco admite el protocolo SCSI-2 o SCSI-3. El quórum del software es un protocolo de Oracle Solaris Cluster que emula un formato de Reservas de grupo persistente (PGR) SCSI.
Desea habilitar sistemas que se encuentran fuera del clúster para obtener acceso al almacenamiento conectado al clúster.
Si inhabilita el aislamiento global durante la configuración del clúster, esta función se desactivará para todos los discos compartidos del clúster. Una vez configurado el clúster, puede cambiar el protocolo de aislamiento global o anular el protocolo de aislamiento de discos compartidos individuales. Sin embargo, para cambiar el protocolo de aislamiento de un dispositivo del quórum, debe configurar primero este dispositivo. A continuación, establezca el nuevo protocolo de aislamiento del disco y vuelva a configurarlo en un dispositivo del quórum.
Para obtener más información sobre el comportamiento de la función de aislamiento, consulte Failfast Mechanism de Oracle Solaris Cluster Concepts Guide. Para obtener más información sobre cómo establecer el protocolo de aislamiento de discos compartidos individuales, consulte la página de comando man cldevice(1CL). Para obtener más información sobre la configuración del aislamiento global, consulte la página de comando man cluster(1CL).
Las configuraciones de Oracle Solaris Cluster usan dispositivos del quórum para mantener la integridad de los datos y de los recursos. Si el clúster pierde temporalmente la conexión con un nodo de votación, el dispositivo del quórum evita los problemas de "amnesia" o "cerebro divido" cuando el nodo intente unirse de nuevo al clúster. Para obtener más información sobre la finalidad y la función de los dispositivos del quórum, consulte Quorum and Quorum Devices de Oracle Solaris Cluster Concepts Guide.
Durante la instalación de Oracle Solaris Cluster de un clúster con dos hosts, puede optar por permitir que la utilidad scinstall configure automáticamente como dispositivo del quórum un disco compartido disponible en la configuración. Entre los discos compartidos, se incluye cualquier dispositivo Sun NAS configurado para su uso como disco compartido. La utilidad scinstall presupone que todos los discos de almacenamiento compartido disponibles son aptos para convertirse en dispositivos del quórum.
Si desea utilizar un servidor de quórum, un dispositivo Oracle Sun Storage 7000 Unified Storage System NAS o un dispositivo Network Appliance NAS como dispositivo del quórum, debe configurarlo una vez finalizado el procesamiento de scinstall.
Después de la instalación, puede configurar también dispositivos del quórum adicionales mediante la utilidad clsetup(1CL).
Nota - No es necesario que configure dispositivos del quórum para un clúster con un único host.
Si la configuración del clúster incluye dispositivos de almacenamiento compartido de terceros que no se pueden utilizar como dispositivos del quórum, debe usar la utilidad clsetup para configurar el quórum manualmente.
Tenga en cuenta los siguientes puntos al planificar los dispositivos del quórum.
Mínimo: un clúster con dos nodos debe tener como mínimo un dispositivo del quórum, que puede ser un disco compartido, un servidor de quórum o un dispositivo NAS. Para las demás topologías, los dispositivos del quórum son opcionales.
Regla del número impar: si se configuran varios dispositivos del quórum en un clúster con dos hosts o en un par de hosts conectados directamente al dispositivo del quórum, configure un número impar de dispositivos del quórum. Esta configuración garantiza que los dispositivos del quórum presenten rutas de error completamente independientes.
Distribución de los votos del quórum: para obtener la mayor disponibilidad del clúster, asegúrese de que el número total de votos proporcionados por los dispositivos del quórum sea inferior al número de votos proporcionados por los nodos. De lo contrario, los nodos no podrán formar un clúster si ninguno de los dispositivos del quórum está disponible, incluso aunque todos los nodos estén en funcionamiento.
Conexión: debe conectar un dispositivo del quórum a, como mínimo, dos nodos de votación.
Protocolo de aislamiento SCSI: al configurar un dispositivo del quórum de discos compartidos SCSI, su protocolo de aislamiento se establece automáticamente en SCSI-2 en un clúster con dos hosts o en SCSI-3 en un clúster con tres o más nodos de votación.
Cambio del protocolo de aislamiento de los dispositivos del quórum: para los discos SCSI configurados como dispositivos del quórum, debe anular la configuración de estos dispositivos antes de habilitar o inhabilitar su protocolo de aislamiento SCSI.
Protocolo del quórum del software: puede configurar como dispositivos del quórum discos compartidos compatibles que no admitan el protocolo SCSI como, por ejemplo, discos SATA. Debe habilitar el aislamiento para estos discos. A continuación, los discos utilizarán el protocolo del quórum del software, que emula las reservas PGR SCSI.
Los discos compartidos SCSI utilizarán también el protocolo del quórum del software si se ha inhabilitado el aislamiento para estos discos.
Dispositivos repetidos: el software Oracle Solaris Cluster no admite dispositivos repetidos como dispositivos del quórum.
Grupos de almacenamiento ZFS: no agregue un dispositivo del quórum configurado a un grupo de almacenamiento ZFS. Si se agrega un dispositivo del quórum a un grupo de almacenamiento ZFS, el disco se reetiqueta como disco EFI y se pierde la información de configuración del quórum. El disco ya no podrá proporcionar un voto del quórum al clúster.
Una vez que haya un disco en el grupo de almacenamiento, puede configurarlo como dispositivo del quórum. También puede anular la configuración del dispositivo del quórum, agregar el disco al grupo de almacenamiento y, a continuación, volver a configurarlo como dispositivo del quórum.
Para obtener más información sobre los dispositivos del quórum, consulte Quorum and Quorum Devices de Oracle Solaris Cluster Concepts Guide y Quorum Devices de Oracle Solaris Cluster Overview.
Un clúster de zona consiste en un clúster de zonas de contenedores Solaris no globales. Todos los nodos de un clúster de zona se configuran como zonas no globales de la marca cluster. No se permite ningún otro tipo de marca en un clúster de zona. Puede ejecutar servicios compatibles en el clúster de zona del mismo modo que en un clúster global, con el aislamiento proporcionado por las zonas de Solaris.
Tenga en cuenta los siguientes puntos al planificar la creación de un clúster de zona.
Clúster global: el clúster de zona debe establecerse en una configuración de Oracle Solaris Cluster global. Un clúster de zona puede configurarse sin un clúster global subyacente.
Modo de clúster: el nodo de votación de clúster global desde el que se crea o modifica un clúster de zona debe encontrarse en el modo de clúster. Si, al administrar un clúster de zona, los demás nodos de votación se encuentran en el modo sin clúster, los cambios realizados se propagarán a esos nodos al volver al modo de clúster.
Direcciones IP privadas adecuadas: el intervalo de direcciones IP privadas del clúster global debe disponer de suficientes subredes de direcciones IP libres para el nuevo clúster de zona. Si el número de subredes disponibles es insuficiente, la creación del clúster de zona presentará errores.
Cambios en el intervalo de direcciones IP privadas: las subredes IP privadas y sus correspondientes direcciones IP privadas disponibles para los clústeres de zona se actualizan automáticamente si se modifica el intervalo de direcciones IP privadas del clúster global. Si se elimina un clúster de zona, la infraestructura de clúster libera las direcciones IP privadas utilizadas por éste, lo que permite que las direcciones estén disponibles para su uso en el clúster global y por parte de los demás clústeres de zona que dependan del clúster global.
Dispositivos admitidos: los dispositivos compatibles con las zonas de Solaris pueden exportarse a un clúster de zona. Entre estos dispositivos, se incluyen los siguientes:
Dispositivos de disco de Solaris (cNtXdYsZ)
Dispositivos DID (/dev/did/*dsk/dN)
Conjuntos de discos de Solaris Volume Manager y Solaris Volume Manager for Sun Cluster para varios propietarios (/dev/md/setname/*dsk/dN)
Distribución de los nodos: no se pueden alojar varios nodos del mismo clúster de zona en el mismo equipo del nodo. Un host puede admitir varios nodos de clúster de zona siempre y cuando cada clúster de zona de ese host sea miembro de un clúster de zona diferente.
Creación de nodos: debe crear, al menos, un nodo durante la creación del clúster de zona. El nombre del nodo de clúster de zona debe ser exclusivo en el clúster de zona. La infraestructura crea automáticamente una zona no global subyacente en cada host que admite el clúster de zona. Cada zona no global recibe el mismo nombre, que se obtiene del nombre asignado al clúster de zona durante la creación del clúster, por lo que es idéntico a éste. Por ejemplo, si crea un clúster de zona con el nombre zc1, el nombre de la zona no global correspondiente en cada host que admite el clúster de zona también es zc1.
Nombre del clúster: cada nombre de clúster de zona debe ser exclusivo en todo el clúster de máquinas que alojan el clúster global. Este nombre de clúster de zona no puede utilizarse para ninguna zona global en ninguna parte del clúster de equipos. Tampoco puede ser idéntico al de un nodo del clúster global. No se pueden utilizar "all" (todos) o "global" como nombres del clúster de zona ya que están reservados.
Direcciones IP de red pública: asigne una dirección IP de red pública específica a cada nodo del clúster de zona.
Nombres de host privados: durante la creación del clúster de zona, se crea automáticamente un nombre de host privado para cada nodo de este clúster del mismo modo que para los clústeres globales. Actualmente no se puede cambiar el nombre de host de un nodo de clúster de zona. Para obtener más información sobre los nombres de host privados, consulte la sección Nombres de host privados.
Marca de zonas de Solaris: todos los nodos de un clúster de zona se configuran como zonas no globales de la marca cluster. No se permite ningún otro tipo de marca en un clúster de zona.
Propiedad de tipo de recurso Global_zone=TRUE: para registrar un tipo de recurso que utiliza la propiedad de tipo de recurso Global_zone=TRUE, el archivo de tipo de recurso debe ubicarse en el directorio /usr/cluster/global/rgm/rtreg/ del clúster de zona. Si ese archivo de tipo de recurso se encuentra en otra ubicación, se rechaza el comando para registrar el tipo de recurso.
Conversión a un nodo de clúster de zona: no se puede agregar a un clúster de zona una zona no global que se encuentre fuera de ese clúster de zona. Debe usarse solamente el comando clzonecluster para agregar nodos nuevos a un clúster de zona.
Sistemas de archivos: puede utilizar el comando clzonecluster para agregar los siguientes tipos de sistemas de archivos para su uso por parte de un clúster de zona. Un sistema de archivos se exporta a un clúster de zona mediante un montaje directo o un montaje en bucle invertido.
Por montaje directo:
Sistema local de archivos UFS
Sistema local de archivos VxFS
Sistema de archivos independientes QFS
Sistema de archivos compartidos QFS, sólo cuando se utiliza para admitir el uso de Oracle Real Application Clusters
ZFS (exportado como conjunto de datos)
NFS desde dispositivos NAS admitidos
Por montaje en bucle invertido:
Sistema local de archivos UFS
Sistema local de archivos VxFS
Sistema de archivos independientes QFS
Sistema de archivos compartidos QFS, sólo cuando se utiliza para admitir sistema de archivos
UFS del clúster de Oracle Real Application Clusters
Sistema local de archivos del clúster VxFS
Puede configurar un recurso de HAStoragePlus o ScalMountPoint para administrar el montaje del sistema de archivos.
Para agregar a un clúster de zona un sistema de archivos local no administrado por un recurso del clúster, lo que se hace en este caso es ejecutar el comando zonecfg del mismo modo que en un sistema independiente. Si lo desea, también puede configurar un dispositivo de almacenamiento en un clúster de zona y, a continuación, montar manualmente el sistema de archivos local en ese dispositivo de almacenamiento.
Aislamiento: los clústeres de zona permite el aislamiento de todos los discos compartidos, matrices de almacenamiento y dispositivos NAS compatibles.
Tenga en cuenta los puntos siguientes al utilizar la función Trusted Extensions de Oracle Solaris en un clúster de zona:
Admisión sólo de clúster de zona: en una configuración de Oracle Solaris Cluster con la función Trusted Extensions habilitada, las aplicaciones deben ejecutarse únicamente en un clúster de zona. En el clúster no pueden utilizarse otras zonas no globales. Para crear un clúster de zona debe utilizarse solamente el comando clzonecluster. No utilice el comando txzonemgr para crear una zona no global en un clúster que tenga habilitada la función Trusted Extensions.
Ámbito de Trusted Extensions: la función Trusted Extensions puede habilitarse o inhabilitarse para toda la configuración del clúster. Si Trusted Extensions está habilitada, todas las zonas no globales en la configuración del clúster deben pertenecer a un clúster de zona. No se puede configurar cualquier otro tipo de zona no global sin poner en riesgo la seguridad.
Direcciones IP: cada clúster de zona que emplee Trusted Extensions debe utilizar sus propias direcciones IP. La función de red especial de Trusted Extensions que permite compartir una dirección IP entre varias zonas no globales no es compatible con el software Oracle Solaris Cluster.
Montajes en bucle invertido: no se pueden utilizar montajes en bucle invertido que dispongan de permiso de escritura en un clúster de zona que emplea la función Trusted Extensions. Utilice únicamente montajes directos de sistemas de archivos que permitan el acceso de escritura, o bien montajes en bucle invertido que cuenten con permisos de sólo lectura.
Sistemas de archivos: no configure en el clúster de zona el dispositivo global que subyazga en un sistema de archivos. Configure únicamente el sistema de archivos en el clúster de zona.
Nombre del dispositivo de almacenamiento: no agregue un segmento individual de un dispositivo de almacenamiento a un clúster de zona. Debe agregarse todo el dispositivo a un solo clúster de zona. El uso de segmentos del mismo dispositivo de almacenamiento en diferentes clústeres de zona pone en riesgo la seguridad de esos clústeres.
Instalación de aplicaciones: instale aplicaciones sólo en el clúster de zona o en el clúster global; a continuación, exporte al clúster de zona mediante montajes en bucle invertido de sólo lectura.
Aislamiento de clústeres de zona: al utilizarse Trusted Extensions, el nombre de un clúster de zona es una etiqueta de seguridad. En algunos casos, la propia etiqueta de seguridad puede ser información confidencial que no debe mostrarse, como también lo pueden ser el nombre de un recurso o de un grupo de recursos. Al configurar una dependencia o una afinidad de recursos entre clústeres, el nombre del otro clúster y el de cualquier recurso o grupo de recursos afectado llegan a hacerse visibles. Por lo tanto, antes de establecer una relación entre clústeres, considere si esta información puede mostrarse teniendo en cuenta sus requisitos.