Este capítulo indica los procedimientos que le muestran cómo establecer un clúster o un nuevo nodo del clúster. Este capítulo estudia los procedimientos siguientes.
Cómo cambiar la configuración de red privada al agregar nodos o redes privadas
Cómo configurar Sun Cluster en nodos adicionales del clúster (scinstall)
Cómo configurar Sun Cluster en nodos del clúster adicionales (XML)
Cómo actualizar los dispositivos de quórum tras agregar un nodo a un clúster
Cómo verificar la configuración del quórum y el modo instalación
Cómo configurar el Protocolo de tiempo de red (NTP, Network Time Protocol)
Esta sección ofrece la información y procedimientos para establecer un nuevo clúster o agregar un nodo a un clúster existente. Antes de realizar estas tareas, compruebe que ha instalado los paquetes de software del SO Solaris, el marco de trabajo de Sun Cluster y otros productos como se describe en Instalación del software.
El siguiente mapa de tareas muestra las tareas que se deben realizar. Complete estos procedimientos en el orden que se indica.
Tabla 3–1 Mapa de tareas: establecer el clúster
Método |
Instrucciones |
---|---|
1. Use uno de los siguientes métodos para establecer un nuevo clúster o agregar un nodo a uno existente: |
|
| |
| |
| |
|
Cómo preparar el clúster para nodos del clúster adicionales Cómo cambiar la configuración de red privada al agregar nodos o redes privadas Cómo configurar Sun Cluster en nodos adicionales del clúster (scinstall) Cómo configurar Sun Cluster en nodos del clúster adicionales (XML) |
2. Si ha agregado un nodo a un clúster, actualice la información de configuración del quórum. |
Cómo actualizar los dispositivos de quórum tras agregar un nodo a un clúster |
3. Asigne los votos de quórum y quite el clúster del modo de instalación, si no se ha realizado esta operación. | |
4. Valide la configuración del quórum. |
Cómo verificar la configuración del quórum y el modo instalación |
5. (opcional) Cambie el nombre de host privado del nodo. | |
6. Cree o modifique el archivo de configuración NTP, si aún no lo ha configurado. |
Cómo configurar el Protocolo de tiempo de red (NTP, Network Time Protocol) |
Realice este procedimiento desde un nodo del clúster para configurar Sun Cluster en todos los nodos del clúster.
Este procedimiento utiliza el formato interactivo del comando scinstall. Para utilizar los formatos no interactivos del comando scinstall, por ejemplo, al desarrollar secuencias de instalación, consulte la página de comando man scinstall(1M).
Asegúrese de que los paquetes de software de Sun Cluster se hayan instalado en el nodo, ya sea de forma manual o mediante el modo silencioso del programa installer de Java ES antes de ejecutar el comando scinstall. Para obtener información sobre cómo ejecutar el programa installer de Java ES desde una secuencia de comandos de instalación, consulte el Capítulo 5, Installing in Silent Mode de Sun Java Enterprise System 5 Installation Guide for UNIX.
Lleve a cabo las siguientes tareas:
Compruebe que el sistema operativo Solaris esté instalado para admitir Sun Cluster.
Si Solaris ya está instalado en el nodo, debe comprobar que la instalación de Solaris cumpla con los requisitos de Sun Cluster y cualquier otro software que desee instalar en el clúster. Consulte Cómo instalar el software Solaris para obtener más información acerca de la instalación del software Solaris para satisfacer los requisitos de software de Sun Cluster.
Compruebe que los paquetes y revisiones del software Sun Cluster estén instalados en el nodo. Consulte Cómo instalar el marco de trabajo y los paquetes de software de servicio de datos de Sun Cluster .
Determine el modo de la utilidad scinstall que utilizará, Típica o Personalizada. En la instalación Típica de Sun Cluster, scinstall especifica automáticamente la configuración predeterminada siguiente.
Componente |
Valor predeterminado |
---|---|
Dirección de la red privada |
172.16.0.0 |
Máscara de la red privada |
255.255.248.0 |
Adaptadores de transporte de clúster |
Exactamente dos adaptadores |
Conmutadores de transporte del clúster |
switch1 y switch2 |
Nombre del sistema de archivos de los dispositivos generales |
/globaldevices |
Seguridad de la instalación (DES) |
Limitada |
Complete una de las siguientes hojas de cálculo de configuración del clúster, en función de si utiliza la utilidad scinstall en el modo Típica o Personalizada.
Hoja de datos del modo típico: si desea utilizar este modo y aceptar todos los valores predeterminados, complete la siguiente hoja de datos.
Hoja de datos del modo personalizado: si desea utilizar este modo y personalizar los datos de configuración, complete la siguiente hoja de datos.
Si está instalando un clúster de un solo nodo, la utilidad scinstall asigna automáticamente la dirección de red privada y la máscara de red predeterminada, incluso a pesar de que el clúster no utiliza una red privada.
Siga estas instrucciones para usar la utilidad interactiva scinstall en este procedimiento:
Esta utilidad permite seguir escribiendo. Por este motivo, no pulse Retorno más de una vez si la próxima pantalla de menú no aparece inmediatamente.
A menos que se indique lo contrario, debe pulsar Control-D para volver al inicio de una serie de preguntas relacionadas o al menú Principal.
Las respuestas predeterminadas o las respuestas a sesiones anteriores se muestran entre paréntesis ([ ]) al final de una pregunta. Pulse Retorno para introducir la respuesta que está entre paréntesis sin escribirla.
Si ha deshabilitado la configuración remota durante la instalación del software Sun Cluster, vuelva a habilitar la configuración remota.
Habilite el acceso al shell remoto (rsh(1M)) o al shell seguro (ssh(1)) para el superusuario en todos los nodos del clúster.
Conviértase en superusuario en el nodo del clúster desde el que pretende configurar el clúster.
Inicie la utilidad scinstall.
phys-schost# /usr/cluster/bin/scinstall |
Escriba el número que corresponde a la opción Crear un nuevo clúster o agregue un nuevo nodo de clúster y pulse la tecla de retorno.
*** Main Menu *** Please select from one of the following (*) options: * 1) Create a new cluster or add a cluster node 2) Configure a cluster to be JumpStarted from this install server 3) Manage a dual-partition upgrade 4) Upgrade this cluster node * 5) Print release information for this cluster node * ?) Help with menu options * q) Quit Option: 1 |
Aparecerá el menú Nuevo clúster y nodo de clúster.
Escriba el número que corresponda a la opción Crear un nuevo clúster y pulse la tecla de retorno.
Se mostrará el menú Modo típico o Personalizado.
Escriba el número que corresponde a la opción Típico o Personalizado y pulse la tecla de retorno.
Aparecerá la pantalla Crear un nuevo clúster. Lea los requisitos y, a continuación, pulse Control-D para continuar.
Siga las indicaciones de los menús para proporcionar sus respuestas desde la hoja de cálculo de planificación de la configuración.
La utilidad scinstall instala y configura todos los nodos del clúster y rearranca el clúster. El clúster se establece cuando todos los nodos se hayan arrancado satisfactoriamente en él. La salida de la instalación de Sun Cluster se registra en un archivo /var/cluster/logs/install/scinstall.log.N.
Para el SO Solaris 10, compruebe en cada nodo que los servicios multiusuario de la Utilidad de administración de servicios (SMF) estén en línea.
Si los servicios no están todavía en línea para un nodo, espere a que estén en línea antes de continuar con el paso siguiente.
phys-schost# svcs multi-user-server STATE STIME FMRI online 17:52:55 svc:/milestone/multi-user-server:default |
Conviértase en superusuario en un nodo.
Compruebe que todos los nodos se hayan unido al clúster.
phys-schost# clnode status |
La salida de datos tiene un aspecto similar al siguiente.
=== Cluster Nodes === --- Node Status --- Node Name Status --------- ------ phys-schost-1 Online phys-schost-2 Online phys-schost-3 Online |
Para obtener más información, consulte la página de comando man clnode(1CL).
(Opcional) Habilitar reinicio del nodo automático si fallan todas las rutas de acceso de disco supervisadas.
Habilite la función de reinicio automático.
phys-schost# clnode set -p reboot_on_path_failure=enabled |
Especifica la propiedad que se va a establecer.
Indica que se debe reiniciar el nodo en caso de que fallen las rutas de disco supervisadas, siempre que, al menos, uno de los discos esté accesible desde un nodo diferente del clúster.
Compruebe que se haya habilitado la función de reinicio automático en caso de fallo de las rutas de disco.
phys-schost# clnode show === Cluster Nodes === Node Name: node … reboot_on_path_failure: enabled … |
Si tiene intención de utilizar Sun Cluster HA para NFS en un sistema de archivos local de alta disponibilidad, asegúrese de que se haya habilitado el sistema de archivos de realimentación (LOFS).
Para deshabilitar LOFS, agregue la siguiente entrada al archivo /etc/system en cada nodo del clúster.
exclude:lofs |
El cambio efectuado en el archivo /etc/system se aplicará al reiniciar el sistema.
No se puede rehabilitar un LOFS si se utiliza Sun Cluster HA para NFS en un sistema de archivos local de alta disponibilidad y, además, se ejecuta automountd. LOFS puede provocar problemas de conmutación en Sun Cluster HA para NFS. Si decide agregar Sun Cluster HA para NFS en un sistema de archivos local de alta disponibilidad, debe realizar uno de los siguientes cambios de configuración.
Sin embargo, si configura zonas no globales en el clúster, debe habilitar LOFS en todos los nodos del clúster. Si Sun Cluster HA para NFS, ubicado en un sistema de archivos local de alta disponibilidad, debe coexistir con LOFS, utilice una de las otras soluciones en lugar de deshabilitar LOFS.
Deshabilite LOFS.
Deshabilite el daemon automountd.
Excluya de la asignación automounter todos los archivos que formen parte del sistema de archivos local de alta disponibilidad exportado por Sun Cluster HA para NFS. Esta opción le permite tener habilitado a la vez un LOFS y el daemon automountd.
Consulte The Loopback File System en System Administration Guide: Devices and File Systems (Solaris 9 o Solaris 10) para obtener más información sobre los sistemas de archivos de realimentación.
El ejemplo siguiente muestra los mensajes de progreso de scinstall que se registran cuando scinstall termina las tareas de configuración en un clúster de dos nodos, schost. El clúster se instala desde phys-schost-1 utilizando el modo Típica de scinstall. El otro nodo del clúster es phys-schost-2. Los nombres de los adaptadores son qfe2 y qfe3. Se habilita la selección automática de un dispositivo de quórum.
Installation and Configuration Log file - /var/cluster/logs/install/scinstall.log.24747 Testing for "/globaldevices" on "phys-schost-1" … done Testing for "/globaldevices" on "phys-schost-2" … done Checking installation status … done The Sun Cluster software is already installed on "phys-schost-1". The Sun Cluster software is already installed on "phys-schost-2". Starting discovery of the cluster transport configuration. The following connections were discovered: phys-schost-1:qfe2 switch1 phys-schost-2:qfe2 phys-schost-1:qfe3 switch2 phys-schost-2:qfe3 Completed discovery of the cluster transport configuration. Started sccheck on "phys-schost-1". Started sccheck on "phys-schost-2". sccheck completed with no errors or warnings for "phys-schost-1". sccheck completed with no errors or warnings for "phys-schost-2". Removing the downloaded files … done Configuring "phys-schost-2" … done Rebooting "phys-schost-2" … done Configuring "phys-schost-1" … done Rebooting "phys-schost-1" … Log file - /var/cluster/logs/install/scinstall.log.24747 Rebooting … |
Configuración no satisfactoria: si uno o varios nodos no pueden unirse al clúster, o si se ha especificado información de configuración incorrecta, intente realizar de nuevo este procedimiento. Si sigue sin solucionarse el problema, lleve a cabo el procedimiento Cómo desconfigurar Sun Cluster para corregir problemas de la instalación en cada nodo configurado incorrectamente para eliminarlo de la configuración del clúster. No es necesario desinstalar los paquetes de software de Sun Cluster. A continuación, vuelva a realizar este procedimiento.
Si ha instalado un clúster con un único nodo, la estructura del clúster está ya completa. Acceda a Creación de sistemas de archivos del clúster para instalar el software de administración de volúmenes y configurar el clúster.
Si ha instalado un clúster de varios nodos y ha elegido la configuración automática de quórum, la configuración posterior a la instalación habrá finalizado. Vaya a Cómo verificar la configuración del quórum y el modo instalación.
Si ha instalado un clúster de varios nodos y ha rechazado la configuración automática de quórum, realice la configuración posterior a la instalación. Vaya a Cómo configurar dispositivos de quórum.
Lleve a cabo este procedimiento para configurar un nuevo clúster utilizando un archivo de configuración de clúster XML. El nuevo clúster puede ser una duplicación de un clúster existente que está ejecutando Sun Cluster 3.2.
Este procedimiento configura los siguientes componentes del clúster:
Nombre de clúster
Pertenencia a nodo del clúster
Interconexión del clúster
Dispositivos globales
Realice las siguientes tareas:
Compruebe que el sistema operativo Solaris esté instalado para admitir Sun Cluster.
Si Solaris ya está instalado en el nodo, debe comprobar que la instalación de Solaris cumpla con los requisitos de Sun Cluster y cualquier otro software que desee instalar en el clúster. Consulte Cómo instalar el software Solaris para obtener más información acerca de la instalación del software Solaris para satisfacer los requisitos de software de Sun Cluster.
Compruebe que el sistema operativo Solaris esté instalado para admitir Sun Cluster.
Si Solaris ya está instalado en el nodo, debe comprobar que la instalación de Solaris cumpla con los requisitos de Sun Cluster y cualquier otro software que desee instalar en el clúster. Consulte Cómo instalar el software Solaris para obtener más información acerca de la instalación del software Solaris para satisfacer los requisitos de software de Sun Cluster.
Compruebe que tanto Sun Cluster 3.2 como las revisiones se encuentran instaladas en los nodos que configure. Consulte Cómo instalar el marco de trabajo y los paquetes de software de servicio de datos de Sun Cluster .
Compruebe que Sun Cluster 3.2 aún no está instalado en cada nodo de clúster potencial.
Conviértase en superusuario en un nodo potencial que desee configurar en el nuevo clúster.
Determine si Sun Cluster 3.2 ya se encuentra configurado en el nodo potencial.
phys-schost# /usr/sbin/clinfo -n |
Si el comando devuelve el siguiente mensaje, avance hasta el paso c.
clinfo: node is not configured as part of acluster: Operation not applicable |
Este mensaje indica que Sun Cluster aún no está configurado en el nodo potencial.
Si el comando devuelve el número de Id. del nodo, no lleve a cabo este procedimiento.
La devolución de un Id. de nodo indica que Sun Cluster ya se encuentra instalado en el nodo.
Si el clúster está ejecutando una versión más antigua de Sun Cluster y desea instalar Sun Cluster 3.2, realice los procedimientos de modernización que se indican en el Capítulo 8, Modernización del software Sun Cluster.
Repita los pasos a y b en el resto de nodos potenciales que desee configurar en el nuevo clúster.
Si Sun Cluster 3.2 aún no está configurado en ninguno de los nodos de clúster potenciales, avance hasta el paso 2.
Si está duplicando un clúster existente que está ejecutando Sun Cluster 3.2 utilice un nodo en dicho clúster para crear un archivo XML de configuración.
Conviértase en superusuario en un miembro activo del clúster que desea duplicar.
Exporte la información de la configuración existente del clúster a un archivo.
phys-schost# cluster export -o clconfigfile |
Especifica el destino de salida.
Nombre del archivo XML de configuración del clúster. El nombre del archivo especificado puede ser un archivo existente o un nuevo archivo que creará el comando.
Si desea obtener más información, consulte la página de comando man cluster(1CL).
Copie el archivo de configuración al nodo potencial desde el que configurará el nuevo clúster.
Es posible guardar el archivo en cualquier directorio al que puedan acceder el resto de hosts que configurará como nodos del clúster.
Conviértase en superusuario en el nodo potencial desde el que configurará el nuevo clúster.
Modifique el archivo XML de configuración del clúster según necesite.
Abra su archivo XML de configuración del clúster para editarlo.
Si está duplicando un clúster existente, abra el archivo que creó con el comando cluster export.
Si no está duplicando un clúster existente, cree un nuevo archivo.
Base el archivo en la jerarquía de elementos que se indica en la página de comando man clconfiguration(5CL). Es posible guardar el archivo en cualquier directorio al que puedan acceder el resto de hosts que configurará como nodos del clúster.
Modifique los valores de los elementos XML para reflejar la configuración de clúster que desea crear.
Para establecer un clúster, los siguientes componentes deben tener valores válidos en el archivo XML de configuración del clúster:
Nombre de clúster
Nodos del clúster
Transporte del clúster
El clúster se crea asumiendo que la partición /globaldevices existe en cada uno de los nodos que configura como nodo del clúster. Se crea en esta partición el espacio de nombres global-devices. Si necesita utilizar un nombre de sistema de archivos diferente en el que crear los dispositivos globales, agregue la siguiente propiedad al elemento <propertyList> por cada nodo que no tenga una partición denominada /globaldevices.
… <nodeList> <node name="node" id="N"> <propertyList> … <property name="globaldevfs" value="/filesystem-name"/> … </propertyList> </node> … |
Si está modificando información de configuración exportada desde un clúster existente, se utilizan en las definiciones de más de un objeto de clúster algunos valores que debe modificar para reflejar el nuevo clúster, como por ejemplo el nombre de los nodos.
Consulte la página de comando man clconfiguration(5CL) para obtener detalles acerca de la estructura y contenido del archivo XML de configuración.
Valide el archivo XML de configuración.
phys-schost# /usr/share/src/xmllint --valid --noout clconfigfile |
Consulte la página de comando man xmllint(1) para obtener más información.
Cree el clúster desde el nodo potencial que contiene el archivo XML de configuración.
phys-schost# cluster create -i clconfigfile |
Especifica el nombre del archivo XML de configuración del clúster que debe utilizarse como la fuente de entrada.
Para el SO Solaris 10, compruebe en cada nodo que los servicios multiusuario de la Utilidad de administración de servicios (SMF) estén en línea.
Si los servicios no están todavía en línea para un nodo, espere a que estén en línea antes de continuar con el paso siguiente.
phys-schost# svcs multi-user-server STATE STIME FMRI online 17:52:55 svc:/milestone/multi-user-server:default |
Conviértase en superusuario en un nodo.
Compruebe que todos los nodos se hayan unido al clúster.
phys-schost# clnode status |
La salida de datos tiene un aspecto similar al siguiente.
=== Cluster Nodes === --- Node Status --- Node Name Status --------- ------ phys-schost-1 Online phys-schost-2 Online phys-schost-3 Online |
Para obtener más información, consulte la página de comando man clnode(1CL).
Instale todos los parches necesarios para admitir Sun Cluster, si no ha realizado esta acción antes.
Consulte Revisiones y firmware requeridos de Notas de la versión de Sun Cluster 3.2 para el SO Solaris para obtener información sobre la ubicación de las revisiones e instrucciones de instalación.
Si tiene intención de utilizar Sun Cluster HA para NFS en un sistema de archivos local de alta disponibilidad, asegúrese de que se haya habilitado el sistema de archivos de realimentación (LOFS).
Para deshabilitar LOFS, agregue la siguiente entrada al archivo /etc/system en cada nodo del clúster.
exclude:lofs |
El cambio efectuado en el archivo /etc/system se aplicará al reiniciar el sistema.
No se puede rehabilitar un LOFS si se utiliza Sun Cluster HA para NFS en un sistema de archivos local de alta disponibilidad y, además, se ejecuta automountd. LOFS puede provocar problemas de conmutación en Sun Cluster HA para NFS. Si decide agregar Sun Cluster HA para NFS en un sistema de archivos local de alta disponibilidad, debe realizar uno de los siguientes cambios de configuración.
Sin embargo, si configura zonas no globales en el clúster, debe habilitar LOFS en todos los nodos del clúster. Si Sun Cluster HA para NFS, ubicado en un sistema de archivos local de alta disponibilidad, debe coexistir con LOFS, utilice una de las otras soluciones en lugar de deshabilitar LOFS.
Deshabilite LOFS.
Deshabilite el daemon automountd.
Excluya de la asignación automounter todos los archivos que formen parte del sistema de archivos local de alta disponibilidad exportado por Sun Cluster HA para NFS. Esta opción le permite tener habilitado a la vez un LOFS y el daemon automountd.
Consulte The Loopback File System en System Administration Guide: Devices and File Systems (Solaris 9 o Solaris 10) para obtener más información sobre los sistemas de archivos de realimentación.
Para duplicar la información de quórum desde un clúster existente, configure el dispositivo de quórum utilizando el archivo XML de configuración del clúster.
Si creó un clúster de dos nodos debe configurar un dispositivo de quórum. Si eligió no utilizar el archivo XML de configuración del clúster para crear un dispositivo de quórum necesario, diríjase a Cómo configurar dispositivos de quórum.
Si está utilizando un servidor de quórum para el dispositivo de quórum, asegúrese de que el servidor está configurado y en funcionamiento.
Siga las instrucciones de Sun Cluster Quorum Server User’s Guide .
Si está utilizando un dispositivo NAS de red para el dispositivo de quórum, asegúrese de que está configurado y operativo.
Compruebe que la información de configuración de quórum del archivo XML de configuración del clúster refleja valores válidos para el clúster que ha creado.
Si realizó cambios en el archivo XML de configuración, valide el archivo.
phys-schost# xmllint --valid --noout clconfigfile |
Configure el dispositivo de quórum.
phys-schost# clquorum add -i clconfigfile devicename |
Especifica el nombre del dispositivo que se configurará como dispositivo de quórum.
Quite el clúster desde el modo de instalación.
phys-schost# clquorum reset |
(Opcional) Habilite el reinicio automático del nodo si fallan todas las rutas de disco supervisadas.
Habilite la función de reinicio automático.
phys-schost# clnode set -p reboot_on_path_failure=enabled |
Especifica la propiedad que se va a establecer.
Indica que se debe reiniciar el nodo en caso de que fallen las rutas de disco supervisadas, siempre que, al menos, uno de los discos esté accesible desde un nodo diferente del clúster.
Compruebe que se haya habilitado la función de reinicio automático en caso de fallo de las rutas de disco.
phys-schost# clnode show === Cluster Nodes === Node Name: node … reboot_on_path_failure: enabled … |
El siguiente ejemplo duplica la configuración del clúster y el quórum de un clúster de dos nodos existente a un nuevo clúster de dos nodos. El nuevo clúster está instalado con el SO Solaris 10 y no está configurado con zonas no globales. La configuración del clúster se exporta desde el nodo del clúster existente, phys-oldhost-1, al archivo XML de configuración del clúster clusterconf.xml. Los nombres de nodo del nuevo clúster son phys-newhost-1 y phys-newhost-2. El dispositivo que está configurado como dispositivo de quórum en el nuevo clúster es d3.
El nombre del símbolo del sistema phys-newhost-N de este ejemplo indica que el comando se realiza en ambos nodos del clúster.
phys-newhost-N# /usr/sbin/clinfo -n clinfo: node is not configured as part of acluster: Operation not applicable phys-oldhost-1# cluster export -o clusterconf.xml Copy clusterconf.xml to phys-newhost-1 and modify the file with valid values phys-newhost-1# xmllint --valid --noout clusterconf.xml No errors are reported phys-newhost-1# cluster create -i clusterconf.xml phys-newhost-N# svcs multi-user-server STATE STIME FMRI online 17:52:55 svc:/milestone/multi-user-server:default phys-newhost-1# clnode status Output shows that both nodes are online phys-newhost-1# clquorum add -i clusterconf.xml d3 phys-newhost-1# clquorum reset |
Configuración no satisfactoria: si uno o varios nodos no pueden unirse al clúster, o si se ha especificado información de configuración incorrecta, intente realizar de nuevo este procedimiento. Si sigue sin solucionarse el problema, lleve a cabo el procedimiento Cómo desconfigurar Sun Cluster para corregir problemas de la instalación en cada nodo configurado incorrectamente para eliminarlo de la configuración del clúster. No es necesario desinstalar los paquetes de software de Sun Cluster. A continuación, vuelva a realizar este procedimiento.
Vaya a Cómo verificar la configuración del quórum y el modo instalación.
Una vez establecido por completo el clúster, puede duplicar la configuración del resto de componentes del clúster desde el clúster existente. Si aún no lo ha hecho, modifique los valores de los elementos XML que desea duplicar para reflejar la configuración del clúster a la que está agregando el componente. Por ejemplo, si está duplicando grupos de recursos, asegúrese de que la entrada <resourcegroupNodeList> contiene los nombres de nodo válidos para el nuevo clúster, y no los nombres de nodo del clúster que duplicó, a menos que los nombres de nodo sean idénticos.
Para duplicar un componente del clúster, ejecute el subcomando export del comando destinado a objeto para el componente de clúster que desea duplicar. Si desea obtener más información acerca de la sintaxis y opciones del comando, consulte la página de comando man para el objeto de clúster que desea duplicar. La tabla siguiente enumera los componentes de clúster que puede crear un archivo XML de configuración del clúster después de establecer el clúster, además de la página de comando man del comando que utiliza para duplicar el componente.
Esta tabla muestra las formas largas de los comandos de Sun Cluster. La mayoría de comandos tienen también formas cortas. A excepción de las formas de los nombres de comando, los comandos son idénticos. Para obtener una lista de los comandos y sus formas cortas, consulte Apéndice A, Sun Cluster Object-Oriented Commands de Sun Cluster System Administration Guide for Solaris OS.
Componente del clúster |
Página de comando man |
Instrucciones especiales |
---|---|---|
Grupos de dispositivos: Solaris Volume Manager y VERITAS Volume Manager |
Para Solaris Volume Manager, cree en primer lugar los conjuntos de discos que especifique en el archivo XML de configuración del clúster. Para VxVM, instale y configure primero VxVM y cree los grupos de disco que especifique en el archivo XML de configuración del clúster. |
|
Recursos |
Puede utilizar la opción -a del comando clresource, clressharedaddress o clreslogicalhostname para duplicar también el tipo de recurso y el grupo de recursos asociados al recurso que va a duplicar. De lo contrario, primero deberá agregar el tipo de recurso y el grupo de recursos al clúster, antes de agregar el recurso. |
|
Recursos de dirección compartidos | ||
Recursos de nombre de host lógico | ||
Tipos de recursos | ||
Grupos de recursos | ||
Dispositivos NAS |
En primer lugar debe configurar el dispositivo NAS según lo descrito en la documentación del dispositivo. |
|
Hosts SNMP |
El comando clsnmphost create -i requiere que especifique un archivo de contraseña de usuario con la opción -f. |
|
Usuarios SNMP | ||
Umbrales para supervisión de los recursos del sistema en objetos del clúster |
Este procedimiento describe cómo configurar y utilizar el método de instalación personalizada Jumpstart scinstall(1M). Este método instala tanto el SO Solaris como Sun Cluster en todos los nodos del clúster y establece el clúster. También puede utilizar este procedimiento para añadir nuevos nodos a un clúster.
Lleve a cabo las siguientes tareas:
Asegúrese de que se completa la configuración de hardware y que se comprueban las conexiones antes de instalar el software de Solaris. Consulte Sun Cluster Hardware Administration Collection y la documentación de su servidor y del dispositivo de almacenamiento para obtener información sobre cómo configurar el hardware.
Determine la dirección Ethernet de cada nodo del clúster.
Si utiliza un servicio de asignación de nombres, asegúrese de que se añade la siguiente información a todos los servicios de asignación de nombres que se utilicen para acceder a los servicios de clúster. Consulte Direcciones IP de red públicas para conocer las directrices de diseño. Consulte la documentación del administrador del sistema Solaris para obtener información sobre el uso de los servicios de nombres de Solaris.
Asignaciones de dirección a nombre en todos los nombres de sistemas públicos y las direcciones lógicas
La dirección IP y el nombre del sistema del servidor de instalación JumpStart
Compruebe que la planificación de la configuración del clúster sea completa. Consulte Cómo preparar la instalación del software del clúster para conocer los requisitos y las directrices.
En el servidor en el que creará el contenedor flash, compruebe que se ha instalado todo el software, parches y firmware del SO Solaris necesarios para admitir Sun Cluster.
Si ya se ha instalado el software de Solaris en el servidor, deberá asegurar que la instalación de Solaris cumple los requisitos de Sun Cluster y cualquier otro software que vaya a instalar en el clúster. Consulte Cómo instalar el software Solaris para obtener más información acerca de la instalación del software Solaris para satisfacer los requisitos de software de Sun Cluster.
Asegúrese de que los paquetes de software y los parches de Sun Cluster se han instalado en el servidor en el que creará el contenedor flash. Consulte Cómo instalar el marco de trabajo y los paquetes de software de servicio de datos de Sun Cluster .
Determine el modo de la utilidad scinstall que utilizará, Típica o Personalizada. En la instalación Típica de Sun Cluster, scinstall especifica automáticamente la configuración predeterminada siguiente.
Componente |
Valor predeterminado |
---|---|
Dirección de la red privada |
172.16.0.0 |
Máscara de la red privada |
255.255.248.0 |
Adaptadores de transporte de clúster |
Exactamente dos adaptadores |
Conmutadores de transporte del clúster |
switch1 y switch2 |
Nombre del sistema de archivos de los dispositivos generales |
/globaldevices |
Seguridad de la instalación (DES) |
Limitada |
Complete una de las siguientes hojas de cálculo de configuración del clúster, en función de si utiliza la utilidad scinstall en el modo Típica o Personalizada. Consulte Planificación del entorno de Sun Cluster para ver unas directrices de planificación.
Hoja de datos del modo típico: si desea utilizar este modo y aceptar todos los valores predeterminados, complete la siguiente hoja de datos.
Hoja de datos del modo personalizado: si desea utilizar este modo y personalizar los datos de configuración, complete la siguiente hoja de datos.
Si está instalando un clúster de un solo nodo, la utilidad scinstall utiliza automáticamente la dirección de red privada y la máscara de red, incluso a pesar de que el clúster no utiliza una red privada.
Siga estas instrucciones para usar la utilidad interactiva scinstall en este procedimiento:
Esta utilidad permite seguir escribiendo. Por este motivo, no pulse Retorno más de una vez si la próxima pantalla de menú no aparece inmediatamente.
A menos que se indique lo contrario, debe pulsar Control-D para volver al inicio de una serie de preguntas relacionadas o al menú Principal.
Las respuestas predeterminadas o las respuestas a sesiones anteriores se muestran entre paréntesis ([ ]) al final de una pregunta. Pulse Retorno para introducir la respuesta que está entre paréntesis sin escribirla.
Configure su servidor de instalación JumpStart.
Asegúrese de que el servidor de instalación JumpStart cumple con los siguientes requisitos.
El servidor de instalación se encuentra en la misma subred que los nodos del clúster, o en el servidor de arranque de Solaris de la subred que utilizan los nodos del clúster.
El servidor de instalación no es en sí un nodo del clúster.
El servidor de instalación instala una versión del sistema operativo Solaris compatible con Sun Cluster.
Ya existe un directorio personalizado de JumpStart para la instalación JumpStart de Sun Cluster. Este directorio jumpstart-dir debe cumplir los requisitos siguientes:
Contener una copia de la utilidad check.
Estar exportado a NFS para su lectura por el servidor de instalación JumpStart.
Cada nuevo nodo del clúster se configura como un cliente de instalación JumpStart personalizado que utiliza el directorio Jumpstart personalizado configurado para la instalación de Sun Cluster.
Siga las instrucciones adecuadas para su plataforma de software y versión del SO para configurar el servidor de instalación JumpStart. Consulte Creating a Profile Server for Networked Systems de Solaris 9 9/04 Installation Guide o Creación de un servidor de perfiles para sistemas conectados en red de Guía de instalación de Solaris 10: instalaciones avanzadas y JumpStart personalizadas.
Consulte también las páginas de comando man setup_install_server(1M) y add_install_client(1M).
Si está instalando un nuevo nodo en un clúster existente, agregue el nodo a la lista de nodos de clúster autorizados.
Cambie a otro nodo del clúster que esté activo y ejecute la utilidad clsetup.
Use clsetup para añadir el nombre del nuevo nodo a la lista de nodos autorizados del clúster.
Para obtener más información, consulte How to Add a Node to the Authorized Node List de Sun Cluster System Administration Guide for Solaris OS.
En un nodo del clúster o en otra máquina de la misma plataforma de servidores, instale el SO Solaris y cualquier revisión necesaria, en caso de que aún no lo haya hecho.
Si ya se ha instalado el software de Solaris en el servidor, deberá asegurar que la instalación de Solaris cumple los requisitos de Sun Cluster y cualquier otro software que vaya a instalar en el clúster. Consulte Cómo instalar el software Solaris para obtener más información acerca de la instalación del software Solaris para satisfacer los requisitos de software de Sun Cluster.
Siga los procedimientos indicados en Cómo instalar el software Solaris.
En el sistema instalado, instale el Sun Cluster y cualquier revisión necesaria, en caso de que aún no lo haya hecho.
Siga los procedimientos indicados en Cómo instalar el marco de trabajo y los paquetes de software de servicio de datos de Sun Cluster .
Consulte Revisiones y firmware requeridos de Notas de la versión de Sun Cluster 3.2 para el SO Solaris para obtener información sobre la ubicación de las revisiones e instrucciones de instalación.
Habilite el daemon contenedor de agente común para iniciarlo automáticamente durante los arranques del sistema.
machine# cacaoadm enable |
En el sistema instalado, actualice el archivo /etc/inet/ipnodes con todas las direcciones IP públicas utilizadas en el clúster.
Realice este paso, sin tener en cuenta si va a usar un servicio de nombres. Consulte Direcciones IP de red públicas para obtener un listado de los componentes de Sun Cluster cuyas direcciones IP debe agregar.
Cree un contenedor flash del sistema instalado.
machine# flarcreate -n name archive |
Nombre que se asignará al contenedor flash.
Nombre de archivo que se asignará al contenedor flash con la ruta completa. Por convención, el nombre del archivo termina en .flar.
Siga los procedimientos de uno de los siguientes manuales:
Compruebe que el contenedor flash se exporta como NFS para que el servidor de la instalación JumpStart lo pueda leer.
Consulte Managing Network File Systems (Overview), en System Administration Guide: Network Services (Solaris 9 o Solaris 10) para obtener más información acerca del uso compartido automático de archivos.
Consulte también las páginas de comando man share(1M) y dfstab(4).
En el servidor de instalación JumpStart, conviértase en superusuario.
Desde el servidor de instalación JumpStart, ejecute la utilidad scinstall(1M).
La ruta /export/suncluster/sc31/ se utiliza aquí como un ejemplo del directorio de instalación JumpStart que ha creado. En la ruta del medio, sustituya arch por sparc o x86 (sólo Solaris 10) y sustituya ver por 9 para Solaris 9 o 10 para Solaris 10.
installserver# cd /export/suncluster/sc31/Solaris_arch/Product/sun_cluster/ \ Solaris_ver/Tools/ installserver# ./scinstall |
Aparece el Menú principal de scinstall.
Escriba el número que corresponda a la opción Configurar un clúster para JumpStart desde este servidor de instalación y pulse la tecla de retorno.
Esta opción se utiliza para configurar las secuencias personalizadas de finalización JumpStart. JumpStart utiliza estas secuencias de finalización para instalar Sun Cluster.
*** Main Menu *** Please select from one of the following (*) options: * 1) Create a new cluster or add a cluster node * 2) Configure a cluster to be JumpStarted from this install server 3) Manage a dual-partition upgrade 4) Upgrade this cluster node * 5) Print release information for this cluster node * ?) Help with menu options * q) Quit Option: 2 |
Siga las indicaciones de los menús para proporcionar sus respuestas desde la hoja de cálculo de planificación de la configuración.
El comando scinstall guarda su información de configuración y copia el archivo class autoscinstall.class predeterminado en el directorio /jumpstart-dir/autoscinstall.d/3.2/. Este archivos es parecido al siguiente ejemplo.
install_type initial_install system_type standalone partitioning explicit filesys rootdisk.s0 free / filesys rootdisk.s1 750 swap filesys rootdisk.s3 512 /globaldevices filesys rootdisk.s7 20 cluster SUNWCuser add package SUNWman add |
Si es necesario, realice ajustes en el archivo autoscinstall.class para configurar JumpStart para que instale el archivo flash.
Modifique las entradas según sea necesario para que las opciones de configuración coincidan con las realizadas al instalar el SO Solaris en la máquina de archivos flash o cuando ejecutó la utilidad scinstall.
Por ejemplo, si asignó un segmento 4 para el sistema de archivo de dispositivos globales y especificó para scinstall que el nombre del sistema de archivos sea /gdevs, debería cambiar la entrada /globaldevices del archivo autoscinstall.class al siguiente valor:
filesys rootdisk.s4 512 /gdevs |
Cambie las siguientes entradas en el archivo autoscinstall.class.
Entrada que se debe cambiar |
Nueva entrada que se debe agregar |
||
---|---|---|---|
install_type |
initial_install |
install_type |
flash_install |
system_type |
standalone |
archive_location |
retrieval_type location |
Consulte la palabra clavearchive_location en Solaris 9 9/04 Installation Guide o Solaris 10 Installation Guide: Custom JumpStart and Advanced Installations para obtener información acerca de los valores válidos para retrieval_type y location al utilizarlos con la palabra clave archive_location.
Elimine todas las entradas que instalarían un paquete específico, como las siguientes.
cluster SUNWCuser add package SUNWman add |
Si la configuración tiene requisitos de software de Solaris adicionales, modifique el archivo autoscinstall.class en consonancia.
El archivo autoscinstall.class instala el grupo de software Solaris para usuario final (SUNWCuser).
Si instala el grupo de software Solaris para usuario final (SUNWCuser ), agregue al archivo autoscinstall.class todos los paquetes de software de Solaris adicionales que pudiera necesitar.
La tabla siguiente muestra los paquetes de Solaris que son necesarios para admitir algunas de las funciones de Sun Cluster. Estos paquetes no se incluyen en el grupo de software Solaris para usuario final. Consulte Consideraciones sobre el grupo de software de Solaris para obtener más información.
Funciones |
Paquetes de software desolarais obligatorios |
---|---|
RSMAPI, controladores RSMRDT o adaptadores SCI-PCI (sólo para clústeres basados en SPARC) |
SPARC: Solaris 9: SUNWrsm SUNWrsmx SUNWrsmo SUNWrsmox Solaris 10: SUNWrsm SUNWrsmo |
SUNWapchr SUNWapchu |
Puede cambiar el archivo predeterminado class de una de las maneras siguientes:
Edite directamente el archivo autoscinstall.class. Los cambios se aplicarán a todos los nodos de los claustras que usen este directorio JumpStart personalizado.
Actualice el archivo rules para que señale a otros perfiles y ejecute después la utilidad check para validar el archivo rules.
Siempre que el perfil de instalación del sistema operativo Solaris cumpla con los requisitos mínimos de asignación del sistema de archivos de Sun Cluster, Sun Cluster no impondrá restricciones en otros cambios al perfil de instalación. Consulte Particiones de los discos del sistema para obtener directrices acerca de la creación de particiones y los requisitos para admitir Sun Cluster.
Para obtener más información acerca de los perfiles de JumpStart, consulte Capítulo 26, Preparing Custom JumpStart Installations (Tasks) de Solaris 9 9/04 Installation Guide o Capítulo 6, Preparación de instalaciones JumpStart personalizadas (tareas) de Guía de instalación de Solaris 10: instalaciones avanzadas y JumpStart personalizadas.
Para instalar los paquetes necesarios para cualquiera de las siguientes funciones o para realizar cualquier otra tarea posterior a la instalación, configure su propia secuencia de comandos de finalización.
Interfaz de programación de la aplicación de memoria remota compartida (RSMAPI)
Adaptadores SCI-PCI para el transporte de interconexión
Controladores RSMRDT
El uso del controlador RSMRDT está restringido a los clústeres que se ejecutan en una configuración SCI de Oracle9i 2 versión 2 con RSM habilitado. Consulte la documentación del usuario de Oracle9i versión 2 para obtener más información sobre la instalación y las instrucciones de configuración.
La secuencia de comandos finish se ejecuta después de la secuencia finish estándar que el comando scinstall instala. Consulte Preparación de instalaciones JumpStart personalizadas en Capítulo 26, Preparing Custom JumpStart Installations (Tasks) de Solaris 9 9/04 Installation Guide o Capítulo 6, Preparación de instalaciones JumpStart personalizadas (tareas) de Guía de instalación de Solaris 10: instalaciones avanzadas y JumpStart personalizadas para obtener información acerca de la creación de una secuencia de comandos de finalización de JumpStart.
Compruebe que el archivo class predeterminado instalará todos los paquetes de Solaris de dependencia.
Consulte Paso 13.
Proporcione un nombre a su secuencia de finalización finish.
Modifique la secuencia de comandos finish para instalar los paquetes de software que se indican en la siguiente tabla y que admiten las funciones que desea utilizar.
Instale los paquetes en el orden que se utiliza en la tabla.
Instale los paquetes desde el directorio Directorio Solaris_arquitectura/Product/sun_cluster/Solaris_versión/Packages/ , donde arch es sparc o x86 (sólo Solaris 10), y donde ver es 9 para Solaris 9 o 10 para Solaris 10 .
Realice todas las modificaciones adicionales necesarias para el resto de tareas posteriores a la instalación que desea que la secuencia de comandos finish realice.
Copie su secuencia de comandos finish en cada uno de los directorios jumpstart-dir/autoscinstall.d/nodes/node.
Cree un directorio node para cada nodo del clúster. También puede utilizar esta convención de nombres para crear enlaces simbólicos con una secuencia de comandos finish compartida.
Salga del servidor de instalación JumpStart.
Si utiliza una consola administrativa del clúster, abra una pantalla de la consola para cada nodo del clúster.
Si el software de Cluster Control Panel (CCP) está instalado y configurado en la consola administrativa, use la utilidad cconsole(1M) para mostrar las pantallas de la consola individuales.
Como superusuario, utilice el siguiente comando para iniciar la utilidad cconsole:
adminconsole# /opt/SUNWcluster/bin/cconsole clustername & |
La utilidad cconsole también abre una ventana maestra desde la que puede enviar sus entradas a todas las ventanas de consola individuales al mismo tiempo.
Si no usa cconsole, conéctese con las consolas de cada nodo de manera individual.
Detenga cada nodo.
phys-schost# shutdown -g0 -y -i0 |
Arranque cada nodo para iniciar la instalación JumpStart.
En los sistemas basados en SPARC, siga estos pasos:
ok boot net - install |
Incluya un espacio a cada lado del guión (-) del comando.
En los sistemas basados en x86, siga estos pasos:
Pulse cualquier tecla para iniciar la secuencia de arranque.
Press any key to reboot. keystroke |
Cuando aparezca la pantalla de información de la BIOS, pulse inmediatamente Esc+2 o la tecla F2.
Una vez finalizada la secuencia de inicialización, aparecerá la pantalla de la utilidad de configuración de la BIOS.
Desplácese con la barra de menú de la utilidad de configuración de la BIOS hasta el elemento del menú de arranque.
Se mostrará la lista de dispositivos de arranque.
Desplácese hasta el IBA indicado que se encuentra conectado a la misma red que el servidor de instalación JumpStart PXE y muévalo a la parte superior de la secuencia de arranque.
El número más bajo que se encuentra a la derecha de las opciones de arranque IBA se corresponde con el número inferior del puerto Ethernet. El número más alto que se encuentra a la derecha de las opciones de arranque IBA se corresponde con el número más alto del puerto Ethernet.
Guarde los cambios y salga de la BIOS.
Comenzará de nuevo la secuencia de arranque. Una vez realizado todo el proceso, se mostrará el menú de GRUB.
Seleccione inmediatamente la opción Solaris JumpStart y pulse Intro.
Si la entrada Solaris JumpStart es la única que aparece, puede también esperar a que la pantalla de selección agote el tiempo de espera. Si no responde en 30 segundos, el sistema continuará automáticamente la secuencia de arranque.
GNU GRUB version 0.95 (631K lower / 2095488K upper memory) +-------------------------------------------------------------------------+ | Solaris_10 Jumpstart | | | | | +-------------------------------------------------------------------------+ Use the ^ and v keys to select which entry is highlighted. Press enter to boot the selected OS, 'e' to edit the commands before booting, or 'c' for a command-line. |
Tras realizar todo el procesamiento aparecerá el menú del tipo de instalación.
Escriba inmediatamente en él el número de menú correspondiente a JumpStart personalizado.
Si no escribe el número correspondiente a JumpStart personalizado antes de que finalice el periodo de tiempo de espera de 30–segundos, el sistema comenzará automáticamente la instalación interactiva de Solaris.
Select the type of installation you want to perform: 1 Solaris Interactive 2 Custom JumpStart 3 Solaris Interactive Text (Desktop session) 4 Solaris Interactive Text (Console session) 5 Apply driver updates 6 Single user shell Enter the number of your choice. 2 |
JumpStart instala el SO Solaris y el software Sun Cluster en cada nodo. Una vez completada la instalación de manera satisfactoria, cada nodo se instalará completamente como un nuevo nodo del clúster. La salida de la instalación de Sun Cluster se registra en un archivo /var/cluster/logs/install/scinstall.logN.
Cuando aparezca la pantalla de la BIOS de nuevo, pulse inmediatamente Esc+2 o pulse la tecla F2.
Si no interrumpe en este punto la BIOS, volverá automáticamente al menú del tipo de instalación. En este punto, si no realiza ninguna elección en 30 segundos, el sistema comenzará automáticamente una instalación por interacción.
Tras el procesamiento aparecerá la utilidad de configuración de la BIOS.
Desplácese hasta el menú Arranque.
Se mostrará la lista de dispositivos de arranque.
Desplácese hasta la entrada Disco duro y colóquela al principio de la secuencia de arranque.
Guarde los cambios y salga de la BIOS.
Comenzará de nuevo la secuencia de arranque. Para finalizar el arranque en el modo de clúster no es necesaria más interacción con el menú de GRUB.
Para el SO Solaris 10, compruebe en cada nodo que los servicios multiusuario de la Utilidad de administración de servicios (SMF) estén en línea.
Si los servicios no están todavía en línea para un nodo, espere a que estén en línea antes de continuar con el paso siguiente.
phys-schost# svcs multi-user-server STATE STIME FMRI online 17:52:55 svc:/milestone/multi-user-server:default |
Si está instalando un nuevo nodo en un clúster existente, cree los puntos de montaje en un nuevo nodo para todos los sistemas de archivos existentes del clúster.
En otro nodo activo del clúster, visualice los nombres de todos los sistemas de archivos del clúster.
phys-schost# mount | grep global | egrep -v node@ | awk '{print $1}' |
En el nodo que añadió al clúster, cree un punto de montaje para cada sistema de archivos de los claustras.
phys-schost-new# mkdir -p mountpoint |
Por ejemplo, si un sistema de archivos devuelto por la orden de montaje es /global/dg-schost-1, ejecute mkdir -p /global/dg-schost-1 en el nodo que se está añadiendo al clúster.
Los puntos de montaje se activan tras reiniciar el clúster en Paso 24.
Si VERITAS Volume Manager (VxVM) se ha instalado en algún nodo que esté instalado en el clúster, visualice el número vxio en cada nodo con VxVM– instalado.
phys-schost# grep vxio /etc/name_to_major vxio NNN |
Compruebe que el mismo número de vxio se utiliza en los nodos con VxVM instalado.
Compruebe que el número vxio está disponible para utilizarlo en cada uno de los nodos que no tienen VxVM instalado.
Si el número vxio ya está en uso en un nodo que no tenga VxVM instalado, libere el número de ese nodo. Cambie la entrada de /etc/name_to_major para utilizar un número diferente.
(Opcional) Para utilizar la reconfiguración dinámica en los servidores Sun Enterprise 10000, agregue la siguiente entrada al archivo /etc/system en cada nodo del clúster.
set kernel_cage_enable=1 |
Esta entrada surte efecto tras el siguiente rearranque del sistema. Consulte Sun Cluster System Administration Guide for Solaris OS para obtener información sobre las tareas de reconfiguración dinámica en una configuración de Sun Cluster. Consulte el servidor de documentación para obtener más información sobre la reconfiguración dinámica.
Si tiene intención de utilizar Sun Cluster HA para NFS en un sistema de archivos local de alta disponibilidad, asegúrese de que se haya habilitado el sistema de archivos de realimentación (LOFS).
Para deshabilitar LOFS, agregue la siguiente entrada al archivo /etc/system en cada nodo del clúster.
exclude:lofs |
El cambio efectuado en el archivo /etc/system se aplicará al reiniciar el sistema.
No se puede rehabilitar un LOFS si se utiliza Sun Cluster HA para NFS en un sistema de archivos local de alta disponibilidad y, además, se ejecuta automountd. LOFS puede provocar problemas de conmutación en Sun Cluster HA para NFS. Si decide agregar Sun Cluster HA para NFS en un sistema de archivos local de alta disponibilidad, debe realizar uno de los siguientes cambios de configuración.
Sin embargo, si configura zonas no globales en el clúster, debe habilitar LOFS en todos los nodos del clúster. Si Sun Cluster HA para NFS, ubicado en un sistema de archivos local de alta disponibilidad, debe coexistir con LOFS, utilice una de las otras soluciones en lugar de deshabilitar LOFS.
Deshabilite LOFS.
Deshabilite el daemon automountd.
Excluya de la asignación automounter todos los archivos que formen parte del sistema de archivos local de alta disponibilidad exportado por Sun Cluster HA para NFS. Esta opción le permite tener habilitado a la vez un LOFS y el daemon automountd.
Consulte The Loopback File System en System Administration Guide: Devices and File Systems (Solaris 9 o Solaris 10) para obtener más información sobre los sistemas de archivos de realimentación.
x86: Defina el archivo de arranque predeterminado.
La configuración de este valor permite el rearranque del nodo si no puede acceder a un indicador de inicio de sesión.
Si realiza una tarea que requiere que se reinicie el clúster, siga estos pasos para reiniciarlo.
A continuación se muestran algunas de las tareas que requieren que se reinicie el clúster:
Adición de un nuevo nodo al clúster
Instalación de parches que requieren un reinicio del nodo o del clúster
Realización de cambios de configuración que requieren que se reinicie el clúster para activarse
Conviértase en superusuario en un nodo.
Pare el clúster.
phys-schost-1# cluster shutdown -y -g0 clustername |
No rearranque el primer nodo instalado del clúster hasta después de parar el clúster. Hasta que se inhabilite el modo de instalación, sólo el primer nodo instalado que estableció el clúster tendrá un voto del quórum. En un clúster establecido que aún se encuentre en el modo de instalación, si el clúster no se cierra antes de rearrancar el primer nodo instalado, los nodos restantes del clúster no podrán obtener el quórum. Todo el clúster se cierra después.
Los nodos del clúster permanecerán en el modo de instalación hasta que ejecute el comando clsetup. Este comando se ejecuta durante el procedimiento Cómo configurar dispositivos de quórum.
Rearranque cada uno de los nodos del clúster.
En los sistemas basados en SPARC, siga estos pasos:
ok boot |
En los sistemas basados en x86, siga estos pasos:
Cuando aparezca el menú de GRUB, seleccione la entrada de Solaris adecuada y pulse Intro. El menú de GRUB presenta un aspecto similar al siguiente:
GNU GRUB version 0.95 (631K lower / 2095488K upper memory) +-------------------------------------------------------------------------+ | Solaris 10 /sol_10_x86 | | Solaris failsafe | | | +-------------------------------------------------------------------------+ Use the ^ and v keys to select which entry is highlighted. Press enter to boot the selected OS, 'e' to edit the commands before booting, or 'c' for a command-line. |
Para obtener más información sobre el arranque basado en GRUB, consulte el Capítulo 11, GRUB Based Booting (Tasks) de System Administration Guide: Basic Administration.
La utilidad scinstall instala y configura todos los nodos del clúster y rearranca el clúster. El clúster se establece cuando todos los nodos se hayan arrancado satisfactoriamente en él. La salida de la instalación de Sun Cluster se registra en un archivo /var/cluster/logs/install/scinstall.log.N.
(Opcional) Si no realizó el Paso 24 para reiniciar los nodos, ejecute el servidor Web de Sun Java Web Console manualmente en cada uno de los nodos.
phys-schost# smcwebserver start |
Para obtener más información, consulte la página de comando man smcwebserver(1M).
Conviértase en superusuario en un nodo.
Compruebe que todos los nodos se hayan unido al clúster.
phys-schost# clnode status |
La salida de datos tiene un aspecto similar al siguiente.
=== Cluster Nodes === --- Node Status --- Node Name Status --------- ------ phys-schost-1 Online phys-schost-2 Online phys-schost-3 Online |
Para obtener más información, consulte la página de comando man clnode(1CL).
(Opcional) Habilite en cada uno de los nodos el reinicio del nodo automático si fallan todas las rutas de disco supervisadas.
Habilite la función de reinicio automático.
phys-schost# clnode set -p reboot_on_path_failure=enabled |
Especifica la propiedad que se va a establecer.
Indica que se debe reiniciar el nodo en caso de que fallen las rutas de disco supervisadas, siempre que, al menos, uno de los discos esté accesible desde un nodo diferente del clúster.
Compruebe que se haya habilitado la función de reinicio automático en caso de fallo de las rutas de disco.
phys-schost# clnode show === Cluster Nodes === Node Name: node … reboot_on_path_failure: enabled … |
Si agregó un nodo a un clúster de dos nodos, diríjase a Cómo actualizar los dispositivos de quórum tras agregar un nodo a un clúster.
En caso contrario, vaya al siguiente procedimiento:
Si ha instalado un clúster de varios nodos y ha elegido la configuración automática de quórum, la configuración posterior a la instalación habrá finalizado. Vaya a Cómo verificar la configuración del quórum y el modo instalación.
Si ha instalado un clúster de varios nodos y ha rechazado la configuración automática de quórum, realice la configuración posterior a la instalación. Vaya a Cómo configurar dispositivos de quórum.
Si agregó un nuevo nodo a un clúster existente que utilice un dispositivo de quórum, desplácese hasta Cómo actualizar los dispositivos de quórum tras agregar un nodo a un clúster.
Si agregó un nuevo nodo a un clúster existente que no utiliza un dispositivo de quórum, compruebe el estado del clúster. Vaya a Cómo verificar la configuración del quórum y el modo instalación.
Si ha instalado un clúster con un único nodo, la estructura del clúster está ya completa. Acceda a Creación de sistemas de archivos del clúster para instalar el software de administración de volúmenes y configurar el clúster.
Opción scinstall deshabilitada: si la opción JumpStart del comando scinstall no tiene un asterisco delante, la opción estará deshabilitada. Esta condición indica que la configuración JumpStart no está completa o que la configuración tiene un error. Para corregir esta condición, primero salga de la utilidad scinstall. Repita los pasos Paso 1 hasta Paso 14 para corregir la configuración JumpStart y, a continuación, reinicie la utilidad scinstall.
Mensajes de error acerca de nodos no existentes: a menos que haya instalado su propio archivo /etc/inet/ntp.conf, el comando scinstall instala un archivo ntp.conf predeterminado para usted, que se suministra con referencias al número máximo de nodos. Por este motivo el daemon xntpd(1M) puede producir mensajes de error con respecto a algunas de estas referencias a la hora del arranque. Puede obviar estos mensajes. Consulte Cómo configurar el Protocolo de tiempo de red (NTP, Network Time Protocol) para obtener información acerca de cómo suprimir estos mensajes bajo otras condiciones normales del clúster.
Lleve a cabo este procedimiento en nodos del clúster existentes para preparar el clúster para la adición de nuevos nodos del clúster.
Lleve a cabo las siguientes tareas:
Compruebe que todo el hardware necesario está instalado.
Compruebe que el adaptador de host está instalado en el nuevo nodo. Consulte Sun Cluster 3.1 - 3.2 Hardware Administration Manual for Solaris OS.
Compruebe que todas las interconexiones del clúster sean compatibles con el nuevo nodo. Consulte Sun Cluster 3.1 - 3.2 Hardware Administration Manual for Solaris OS.
Compruebe que todo el almacenamiento adicional está instalado. Consulte el manual adecuado de la Colección de administración de hardware Sun Cluster 3.1 - 3.2.
Si utiliza el Panel de control del clúster (CCP), actualice los archivos de configuración en la consola administrativa.
Agregue el nombre del nuevo nodo a la lista de nodos autorizados del clúster.
Conviértase en superusuario en cualquier nodo.
Inicie la utilidad clsetup.
phys-schost# clsetup |
Se mostrará el Menú principal.
Seleccione el elemento de menú, Nuevos nodos.
Seleccione el elemento de menú Specify the name of a machine which may add itself (Especificar el nombre de un equipo que puede añadirse por sí mismo).
Siga las indicaciones para añadir el nombre del nodo a la lista de máquinas reconocidas.
La utilidad clsetup muestra el mensaje Command completed successfully (El comando se ha completado correctamente) en caso de que la tarea finalice sin errores.
Salga de la utilidad clsetup.
Si está agregando este nodo a un clúster de un único nodo, compruebe que las dos interconexiones del clúster existen mostrando la configuración de interconexión.
phys-schost# clinterconnect show |
Debe contar al menos con dos cables o dos adaptadores configurados antes de poder agregar un nodo.
Si el resultado muestra información de configuración de dos cables o dos adaptadores, avance hasta el Paso 4.
Si el resultado no muestra información de configuración de cables ni adaptadores, o si muestra información de configuración de sólo un cable o adaptador, configure nuevas interconexiones del clúster.
Ejecute en un nodo la utilidad clsetup.
phys-schost# clsetup |
Seleccione el elemento del menú, Interconexión de clúster (Cluster interconnect).
Seleccione el elemento del menú, Agregar un cable de transporte (Add a transport cable).
Siga las instrucciones para especificar el nombre del nodo que añadir al clúster, el nombre de un adaptador de transporte y si se debe usar un conmutador de transporte.
Si es necesario, repita el Paso c para configurar una segunda interconexión de clúster.
Cuando termine, salga de la utilidad clsetup.
Compruebe que el clúster tenga ahora configuradas dos interconexiones del clúster.
phys-schost# clinterconnect show |
La salida de la orden debe mostrar la información de configuración de al menos dos interconexiones de claustras.
Compruebe que la configuración de la red privada puede soportar los nodos y redes privadas que está agregando.
Visualice el número máximo de nodos y redes privadas que admite la configuración de la red privada actual.
phys-schost# cluster show-netprops |
El resultado tendrá una apariencia similar a la siguiente, que muestra los valores predeterminados:
=== Private Network === private_netaddr: 172.16.0.0 private_netmask: 255.255.248.0 max_nodes: 64 max_privatenets: 10 |
Compruebe si la configuración de la red privada actual puede admitir el aumento del número de nodos, incluyendo zonas no globales y redes privadas.
Si el intervalo de direcciones IP actual es suficiente, estará listo para instalar el nuevo nodo.
Diríjase a Cómo configurar Sun Cluster en nodos adicionales del clúster (scinstall).
Si el intervalo de direcciones IP actual no es suficiente, vuelva a configurar el intervalo de direcciones IP.
Diríjase a Cómo cambiar la configuración de red privada al agregar nodos o redes privadas. Para cambiar el intervalo de direcciones IP debe detener el clúster. Esto implica colocar sin conexión cada uno de los grupos de recursos, deshabilitar todos los recursos del clúster, y reiniciar en modo no clúster antes de volver a configurar el intervalo de direcciones IP.
Configure Sun Cluster en los nuevos nodos del clúster. Diríjase a Cómo configurar Sun Cluster en nodos adicionales del clúster (scinstall) o Cómo configurar Sun Cluster en nodos del clúster adicionales (XML).
Lleve a cabo esta tarea para cambiar el intervalo de direcciones IP privadas del clúster para que pueda acoger el aumento en el número de nodos o zonas no globales, o del número de redes privadas, o una combinación de ambas. Puede utilizar este procedimiento para reducir el intervalo de direcciones IP privadas.
Este procedimiento requiere que detenga todo el clúster.
Conviértase en superusuario en un nodo del clúster.
Inicie la utilidad clsetup en un nodo.
# clsetup |
Aparece el Menú principal de clsetup.
Desconecte cada grupo de recursos.
Si el nodo contiene zonas no globales, todos los grupos de recursos de las zonas se establecerán también sin conexión.
Escriba el número que corresponde a la opción Grupos de recursos y pulse la tecla de retorno.
Se abre el menú Grupos de recursos.
Escriba el número que corresponde a la opción Establecer en línea/fuera de línea o Conmutar un grupo de recursos y pulse la tecla de retorno.
Siga las indicaciones para poner fuera de línea a todos los grupos de recursos y póngalos en estado sin gestionar.
Cuando todos los grupos de recursos estén fuera de línea, escriba q para volver al menú Grupos de recursos.
Inhabilite todos los recursos del clúster.
Escriba el número que corresponda a la opción Habilitar/deshabilitar un recurso y pulse la tecla de retorno.
Seleccione un recurso que inhabilitar y siga las indicaciones.
Repita cada paso anterior para cada recurso que desea deshabilitar.
Cuando todos los recursos estén inhabilitados, escriba q para volver al menú Grupos de recursos.
Salga de la utilidad clsetup.
Compruebe que los recursos de todos los nodos estén Sin conexión y que todos los grupos de recursos estén en el estado No administrado.
# cluster status -t resource,resourcegroup |
Limita la salida al objeto del clúster especificado.
Especifica los recursos.
Especifica los grupos de recursos.
Pare el clúster desde uno de los nodos.
# cluster shutdown -g0 -y |
Especifica el tiempo de espera en segundos.
Impide que se emita el indicador que solicita la confirmación del cierre.
Arranque cada nodo en el modo sin clúster.
En los sistemas basados en SPARC, ejecute el siguiente comando:
ok boot -x |
En los sistemas basados en x86, ejecute el siguiente comando:
En el menú de GRUB, utilice las teclas de dirección para seleccionar la entrada de Solaris adecuada y escriba e para editar sus comandos.
El menú de GRUB presenta un aspecto similar al siguiente:
GNU GRUB version 0.95 (631K lower / 2095488K upper memory) +-------------------------------------------------------------------------+ | Solaris 10 /sol_10_x86 | | Solaris failsafe | | | +-------------------------------------------------------------------------+ Use the ^ and v keys to select which entry is highlighted. Press enter to boot the selected OS, 'e' to edit the commands before booting, or 'c' for a command-line. |
Para obtener más información sobre el arranque basado en GRUB, consulte el Capítulo 11, GRUB Based Booting (Tasks) de System Administration Guide: Basic Administration.
En la pantalla de parámetros de arranque, utilice las flechas de dirección para seleccionar la entrada del núcleo y escriba e para editar la entrada.
La pantalla de parámetros de arranque de GRUB presenta un aspecto similar al siguiente:
GNU GRUB version 0.95 (615K lower / 2095552K upper memory) +----------------------------------------------------------------------+ | root (hd0,0,a) | | kernel /platform/i86pc/multiboot | | module /platform/i86pc/boot_archive | +----------------------------------------------------------------------+ Use the ^ and v keys to select which entry is highlighted. Press 'b' to boot, 'e' to edit the selected command in the boot sequence, 'c' for a command-line, 'o' to open a new line after ('O' for before) the selected line, 'd' to remove the selected line, or escape to go back to the main menu. |
Agregue -x al comando para especificar que el sistema se arrancará en el modo no de clúster.
[ Minimal BASH-like line editing is supported. For the first word, TAB lists possible command completions. Anywhere else TAB lists the possible completions of a device/filename. ESC at any time exits. ] grub edit> kernel /platform/i86pc/multiboot -x |
Pulse Intro para aceptar el cambio y volver a la pantalla de parámetros de arranque.
La pantalla muestra el comando editado.
GNU GRUB version 0.95 (615K lower / 2095552K upper memory) +----------------------------------------------------------------------+ | root (hd0,0,a) | | kernel /platform/i86pc/multiboot -x | | module /platform/i86pc/boot_archive | +----------------------------------------------------------------------+ Use the ^ and v keys to select which entry is highlighted. Press 'b' to boot, 'e' to edit the selected command in the boot sequence, 'c' for a command-line, 'o' to open a new line after ('O' for before) the selected line, 'd' to remove the selected line, or escape to go back to the main menu.- |
Escriba b para arrancar el nodo en el modo no de clúster.
Este cambio efectuado en el comando de parámetros de arranque del núcleo no se conservará al arrancar el sistema. La próxima vez que reinicie el nodo, se arrancará en el modo de clúster. Para arrancarlo en el modo sin clúster, realice estos pasos de nuevo para agregar la opción -x al comando del parámetro de arranque del núcleo.
Inicie la utilidad clsetup en un nodo.
Si se ejecuta en el modo sin clúster, la utilidad clsetup muestra el Menú principal del las operaciones en este modo.
Escriba el número correspondiente a la opción para cambiar el intervalo de direcciones IP y pulse Intro.
La utilidadclsetup muestra la configuración de red privada actual y, a continuación, le pregunta si desea cambiar esta configuración.
Para cambiar la dirección IP de red privada o el intervalo de direcciones IP, escriba sí y pulse Intro.
La utilidad clsetup muestra la dirección IP de red privada predeterminada, 172.16.0.0, y le pregunta si desea aceptarla.
Cambie o acepte la dirección IP de red privada.
Para aceptar la dirección IP de red privada predeterminada y continuar con el cambio del intervalo de direcciones IP, escriba sí y pulse Intro.
La utilidad clsetup le preguntará si desea aceptar la máscara de red predeterminada. Acceda al siguiente paso para introducir su respuesta.
Para cambiar la dirección IP de red privada predeterminada, realice los siguientes pasos secundarios:
Escriba no en respuesta a la pregunta de la utilidad clsetup acerca de si desea aceptar la dirección predeterminada y pulse Intro.
La utilidad clsetup le solicitará la nueva dirección IP de red privada.
Escriba la nueva dirección IP y pulse Intro.
La utilidad clsetup muestra la máscara de red predeterminada y le pregunta si desea aceptarla.
Cambie o acepte el intervalo de direcciones IP de red privada predeterminado.
La máscara de red predeterminada es 255.255.248.0. Este intervalo de direcciones IP predeterminado admite hasta 64 nodos y 10 redes privadas en el clúster.
Para aceptar el intervalo de direcciones IP predeterminado, escriba sí y pulse Intro.
A continuación, vaya al paso siguiente.
Para cambiar el intervalo de direcciones IP, realice los siguientes pasos secundarios.
Escriba no en respuesta a la pregunta de la utilidad clsetup acerca de si desea aceptar el intervalo de direcciones predeterminado y pulse Intro.
Al rechazar la máscara de red predeterminada, la utilidad clsetup le solicita el número de nodos y redes privadas que tiene intención de configurar en el clúster.
Introduzca el número de nodos y redes privadas que prevé configurar en el clúster.
La utilidad clsetup calcula las dos máscaras de red propuestas a partir de estos números:
La primera máscara de red es la máscara de red mínima necesaria para admitir el número de nodos y redes privadas que ha especificado.
La segunda máscara de red admite el doble del número de nodos y redes privadas que ha especificado para adaptarla ante un posible crecimiento en el futuro.
Especifique cualquiera de las máscaras de red calculadas o una máscara de red diferente que admita el número previsto de nodos y redes privadas.
Escriba sí en respuesta a la pregunta de la utilidad clsetup acerca de si desea continuar con la actualización.
Cuando termine, salga de la utilidad clsetup.
Reinicie cada nodo del clúster.
Detenga cada nodo.
# shutdown -g0 -y |
Arranque cada nodo en modo clúster.
En los sistemas basados en SPARC, siga estos pasos:
ok boot |
En los sistemas basados en x86, siga estos pasos:
Cuando aparezca el menú de GRUB, seleccione la entrada de Solaris adecuada y pulse Intro. El menú de GRUB presenta un aspecto similar al siguiente:
GNU GRUB version 0.95 (631K lower / 2095488K upper memory) +-------------------------------------------------------------------------+ | Solaris 10 /sol_10_x86 | | Solaris failsafe | | | +-------------------------------------------------------------------------+ Use the ^ and v keys to select which entry is highlighted. Press enter to boot the selected OS, 'e' to edit the commands before booting, or 'c' for a command-line. |
Para obtener más información sobre el arranque basado en GRUB, consulte el Capítulo 11, GRUB Based Booting (Tasks) de System Administration Guide: Basic Administration.
Inicie la utilidad clsetup en un nodo.
# clsetup |
Aparece el Menú principal de clsetup.
Vuelva a habilitar todos los recursos inhabilitados.
Escriba el número que corresponde a la opción Grupos de recursos y pulse la tecla de retorno.
Se abre el menú Grupos de recursos.
Escriba el número que corresponda a la opción Habilitar/deshabilitar un recurso y pulse la tecla de retorno.
Seleccione un recurso que habilitar y siga las indicaciones.
Repita este procedimiento para cada recurso deshabilitado.
Cuando todos los recursos se vuelvan a habilitar, escriba q para volver al menú Grupos de recursos.
Vuelva a dejar en línea cada grupo de recursos.
Si el nodo contiene zonas no globales, establezca también en línea todos los grupos de recursos que se encuentran en esas zonas.
Cuando todos los grupos de recursos estén de nuevo en línea, salga de la utilidad clsetup.
Escriba q para anular cada submenú o pulse Ctrl-C.
Para agregar un nodo a un clúster existente, realice uno de los siguientes procedimientos:
Cómo configurar Sun Cluster en nodos adicionales del clúster (scinstall)
Cómo configurar Sun Cluster en nodos del clúster adicionales (XML)
Para crear una zona no global en un nodo del clúster, diríjase a Configuración de una zona no global en un nodo del clúster.
Siga este procedimiento para añadir nuevos nodos a un clúster. Para utilizar JumpStart para agregar un nuevo nodo, siga los procedimientos descritos en Cómo instalar Solaris y Sun Cluster (JumpStart).
Este procedimiento utiliza el formato interactivo del comando scinstall. Para utilizar los formatos no interactivos del comando scinstall, por ejemplo, al desarrollar secuencias de instalación, consulte la página de comando man scinstall(1M).
Asegúrese de que los paquetes de software de Sun Cluster se hayan instalado en el nodo, ya sea de forma manual o mediante el modo silencioso del programa installer de Java ES antes de ejecutar el comando scinstall. Para obtener información sobre cómo ejecutar el programa installer de Java ES desde una secuencia de comandos de instalación, consulte el Capítulo 5, Installing in Silent Mode de Sun Java Enterprise System 5 Installation Guide for UNIX.
Lleve a cabo las siguientes tareas:
Compruebe que el sistema operativo Solaris esté instalado para admitir Sun Cluster.
Si Solaris ya está instalado en el nodo, debe comprobar que la instalación de Solaris cumpla con los requisitos de Sun Cluster y cualquier otro software que desee instalar en el clúster. Consulte Cómo instalar el software Solaris para obtener más información acerca de la instalación del software Solaris para satisfacer los requisitos de software de Sun Cluster.
Compruebe que los paquetes y revisiones del software Sun Cluster estén instalados en el nodo. Consulte Cómo instalar el marco de trabajo y los paquetes de software de servicio de datos de Sun Cluster .
Compruebe que el clúster está preparado para la adición del nuevo nodo. Consulte Cómo preparar el clúster para nodos del clúster adicionales.
Determine el modo de la utilidad scinstall que utilizará, Típica o Personalizada. En la instalación Típica de Sun Cluster, scinstall especifica automáticamente la configuración predeterminada siguiente.
Componente |
Valor predeterminado |
---|---|
Conmutadores de transporte del clúster |
switch1 y switch2 |
Nombre del sistema de archivos de los dispositivos generales |
/globaldevices |
Complete una de las siguientes hojas de cálculo de planificación de la configuración. Consulte Planificación del sistema operativo Solaris y Planificación del entorno de Sun Cluster para conocer las directrices de planificación.
Hoja de datos del modo típico: si desea utilizar este modo y aceptar todos los valores predeterminados, complete la siguiente hoja de datos.
Hoja de datos del modo personalizado: si desea utilizar este modo y personalizar los datos de configuración, complete la siguiente hoja de datos.
Siga estas instrucciones para usar la utilidad interactiva scinstall en este procedimiento:
Esta utilidad permite seguir escribiendo. Por este motivo, no pulse Retorno más de una vez si la próxima pantalla de menú no aparece inmediatamente.
A menos que se indique lo contrario, debe pulsar Control-D para volver al inicio de una serie de preguntas relacionadas o al menú Principal.
Las respuestas predeterminadas o las respuestas a sesiones anteriores se muestran entre paréntesis ([ ]) al final de una pregunta. Pulse Retorno para introducir la respuesta que está entre paréntesis sin escribirla.
Conviértase en superusuario en el nodo del clúster que desee configurar.
Inicie la utilidad scinstall.
phys-schost-new# /usr/cluster/bin/scinstall |
Aparece el Menú principal de scinstall.
Escriba el número que corresponde a la opción Crear un nuevo clúster o agregue un nuevo nodo de clúster y pulse la tecla de retorno.
*** Main Menu *** Please select from one of the following (*) options: * 1) Create a new cluster or add a cluster node 2) Configure a cluster to be JumpStarted from this install server 3) Manage a dual-partition upgrade 4) Upgrade this cluster node * 5) Print release information for this cluster node * ?) Help with menu options * q) Quit Option: 1 |
Aparecerá el menú Nuevo clúster y nodo de clúster.
Escriba el número que corresponda a la opción Agregar esta máquina como nodo en un clúster existente y pulse la tecla de retorno.
Siga las indicaciones de los menús para proporcionar sus respuestas desde la hoja de cálculo de planificación de la configuración.
La utilidad scinstall configura el nodo y arranca el nodo en el clúster.
Descargue el archivo DVD-ROM de Sun Java Availability Suite desde la unidad DVD-ROM.
Repita estos procedimientos en cualquier otro nodo para añadirlo al clúster hasta que los nodos adicionales estén completamente configurados.
Para el SO Solaris 10, compruebe en cada nodo que los servicios multiusuario de la Utilidad de administración de servicios (SMF) estén en línea.
Si los servicios no están todavía en línea para un nodo, espere a que estén en línea antes de continuar con el paso siguiente.
phys-schost# svcs multi-user-server STATE STIME FMRI online 17:52:55 svc:/milestone/multi-user-server:default |
Evite desde un miembro activo del clúster que otros nodos se unan al clúster.
phys-schost# claccess deny-all |
También puede utilizar la utilidad clsetup. Consulte How to Add a Node to the Authorized Node List de Sun Cluster System Administration Guide for Solaris OS para obtener los procedimientos.
Conviértase en superusuario en un nodo.
Compruebe que todos los nodos se hayan unido al clúster.
phys-schost# clnode status |
La salida de datos tiene un aspecto similar al siguiente.
=== Cluster Nodes === --- Node Status --- Node Name Status --------- ------ phys-schost-1 Online phys-schost-2 Online phys-schost-3 Online |
Para obtener más información, consulte la página de comando man clnode(1CL).
Compruebe que están instaladas todas las revisiones necesarias.
phys-schost# showrev -p |
(Opcional) Habilite el reinicio automático del nodo si fallan todas las rutas de disco supervisadas.
Habilite la función de reinicio automático.
phys-schost# clnode set -p reboot_on_path_failure=enabled |
Especifica la propiedad que se va a establecer.
Indica que se debe reiniciar el nodo en caso de que fallen las rutas de disco supervisadas, siempre que, al menos, uno de los discos esté accesible desde un nodo diferente del clúster.
Compruebe que se haya habilitado la función de reinicio automático en caso de fallo de las rutas de disco.
phys-schost# clnode show === Cluster Nodes === Node Name: node … reboot_on_path_failure: enabled … |
Si tiene intención de utilizar Sun Cluster HA para NFS en un sistema de archivos local de alta disponibilidad, asegúrese de que se haya habilitado el sistema de archivos de realimentación (LOFS).
Para deshabilitar LOFS, agregue la siguiente entrada al archivo /etc/system en cada nodo del clúster.
exclude:lofs |
El cambio efectuado en el archivo /etc/system se aplicará al reiniciar el sistema.
No se puede rehabilitar un LOFS si se utiliza Sun Cluster HA para NFS en un sistema de archivos local de alta disponibilidad y, además, se ejecuta automountd. LOFS puede provocar problemas de conmutación en Sun Cluster HA para NFS. Si decide agregar Sun Cluster HA para NFS en un sistema de archivos local de alta disponibilidad, debe realizar uno de los siguientes cambios de configuración.
Sin embargo, si configura zonas no globales en el clúster, debe habilitar LOFS en todos los nodos del clúster. Si Sun Cluster HA para NFS, ubicado en un sistema de archivos local de alta disponibilidad, debe coexistir con LOFS, utilice una de las otras soluciones en lugar de deshabilitar LOFS.
Deshabilite LOFS.
Deshabilite el daemon automountd.
Excluya de la asignación automounter todos los archivos que formen parte del sistema de archivos local de alta disponibilidad exportado por Sun Cluster HA para NFS. Esta opción le permite tener habilitado a la vez un LOFS y el daemon automountd.
Consulte The Loopback File System en System Administration Guide: Devices and File Systems (Solaris 9 o Solaris 10) para obtener más información sobre los sistemas de archivos de realimentación.
El siguiente ejemplo muestra el nodo phys-schost-3 agregado al clúster schost. El nodo patrocinador es phys-schost-1.
*** Adding a Node to an Existing Cluster *** Fri Feb 4 10:17:53 PST 2005 scinstall -ik -C schost -N phys-schost-1 -A trtype=dlpi,name=qfe2 -A trtype=dlpi,name=qfe3 -m endpoint=:qfe2,endpoint=switch1 -m endpoint=:qfe3,endpoint=switch2 Checking device to use for global devices file system ... done Adding node "phys-schost-3" to the cluster configuration ... done Adding adapter "qfe2" to the cluster configuration ... done Adding adapter "qfe3" to the cluster configuration ... done Adding cable to the cluster configuration ... done Adding cable to the cluster configuration ... done Copying the config from "phys-schost-1" ... done Copying the postconfig file from "phys-schost-1" if it exists ... done Copying the Common Agent Container keys from "phys-schost-1" ... done Setting the node ID for "phys-schost-3" ... done (id=1) Setting the major number for the "did" driver ... Obtaining the major number for the "did" driver from "phys-schost-1" ... done "did" driver major number set to 300 Checking for global devices global file system ... done Updating vfstab ... done Verifying that NTP is configured ... done Initializing NTP configuration ... done Updating nsswitch.conf ... done Adding clusternode entries to /etc/inet/hosts ... done Configuring IP Multipathing groups in "/etc/hostname.<adapter>" files Updating "/etc/hostname.hme0". Verifying that power management is NOT configured ... done Ensure that the EEPROM parameter "local-mac-address?" is set to "true" ... done The "local-mac-address?" parameter setting has been changed to "true". Ensure network routing is disabled ... done Updating file ("ntp.conf.cluster") on node phys-schost-1 ... done Updating file ("hosts") on node phys-schost-1 ... done Rebooting ... |
Configuración no satisfactoria: si uno o varios nodos no pueden unirse al clúster, o si se ha especificado información de configuración incorrecta, intente realizar de nuevo este procedimiento. Si sigue sin solucionarse el problema, lleve a cabo el procedimiento Cómo desconfigurar Sun Cluster para corregir problemas de la instalación en cada nodo configurado incorrectamente para eliminarlo de la configuración del clúster. No es necesario desinstalar los paquetes de software de Sun Cluster. A continuación, vuelva a realizar este procedimiento.
Si agregó un nodo a un clúster existente que utiliza un dispositivo de quórum, diríjase a Cómo actualizar los dispositivos de quórum tras agregar un nodo a un clúster.
En caso contrario, vaya al Cómo verificar la configuración del quórum y el modo instalación.
Lleve a cabo este procedimiento para configurar un nuevo nodo del clúster utilizando un archivo de configuración de clúster XML. El nuevo nodo puede ser una duplicación de un clúster existente que ejecute Sun Cluster 3.2.
Este procedimiento configura los siguientes componentes del clúster en el nuevo nodo:
Pertenencia a nodo del clúster
Interconexión del clúster
Dispositivos globales
Realice las siguientes tareas:
Compruebe que el sistema operativo Solaris esté instalado para admitir Sun Cluster.
Si Solaris ya está instalado en el nodo, debe comprobar que la instalación de Solaris cumpla con los requisitos de Sun Cluster y cualquier otro software que desee instalar en el clúster. Consulte Cómo instalar el software Solaris para obtener más información acerca de la instalación del software Solaris para satisfacer los requisitos de software de Sun Cluster.
Compruebe que los paquetes y cualquier revisión de Sun Cluster necesaria esté instalada en el nodo. Consulte Cómo instalar el marco de trabajo y los paquetes de software de servicio de datos de Sun Cluster .
Compruebe que el clúster está preparado para la adición del nuevo nodo. Consulte Cómo preparar el clúster para nodos del clúster adicionales.
Compruebe que Sun Cluster 3.2 aún no está configurado en el nodo potencial al que desea agregar un clúster.
Conviértase en superusuario en el nodo potencial.
Compruebe si Sun Cluster 3.2 se encuentra configurado en el nodo potencial.
phys-schost-new# /usr/sbin/clinfo -n |
Si el comando no se realiza correctamente, diríjase al Paso 2.
Sun Cluster 3.2 aún no está configurado en el nodo. Puede agregar el nodo potencial al clúster.
Si el comando devuelve un número de Id. de nodo, avance hasta el Paso c.
Sun Cluster ya está configurado en el nodo. Antes de que pueda agregar el nodo a un clúster diferente, debe suprimir la información de configuración del clúster existente.
Arranque el nodo potencial en modo de no clúster.
En los sistemas basados en SPARC, ejecute el siguiente comando:
ok boot -x |
En los sistemas basados en x86, ejecute el siguiente comando:
En el menú de GRUB, utilice las teclas de dirección para seleccionar la entrada de Solaris adecuada y escriba e para editar sus comandos.
El menú de GRUB presenta un aspecto similar al siguiente:
GNU GRUB version 0.95 (631K lower / 2095488K upper memory) +-------------------------------------------------------------------------+ | Solaris 10 /sol_10_x86 | | Solaris failsafe | | | +-------------------------------------------------------------------------+ Use the ^ and v keys to select which entry is highlighted. Press enter to boot the selected OS, 'e' to edit the commands before booting, or 'c' for a command-line. |
Para obtener más información sobre el arranque basado en GRUB, consulte el Capítulo 11, GRUB Based Booting (Tasks) de System Administration Guide: Basic Administration.
En la pantalla de parámetros de arranque, utilice las flechas de dirección para seleccionar la entrada del núcleo y escriba e para editar la entrada.
La pantalla de parámetros de arranque de GRUB presenta un aspecto similar al siguiente:
GNU GRUB version 0.95 (615K lower / 2095552K upper memory) +----------------------------------------------------------------------+ | root (hd0,0,a) | | kernel /platform/i86pc/multiboot | | module /platform/i86pc/boot_archive | +----------------------------------------------------------------------+ Use the ^ and v keys to select which entry is highlighted. Press 'b' to boot, 'e' to edit the selected command in the boot sequence, 'c' for a command-line, 'o' to open a new line after ('O' for before) the selected line, 'd' to remove the selected line, or escape to go back to the main menu. |
Agregue -x al comando para especificar que el sistema se arrancará en el modo no de clúster.
[ Minimal BASH-like line editing is supported. For the first word, TAB lists possible command completions. Anywhere else TAB lists the possible completions of a device/filename. ESC at any time exits. ] grub edit> kernel /platform/i86pc/multiboot -x |
Pulse Intro para aceptar el cambio y volver a la pantalla de parámetros de arranque.
La pantalla muestra el comando editado.
GNU GRUB version 0.95 (615K lower / 2095552K upper memory) +----------------------------------------------------------------------+ | root (hd0,0,a) | | kernel /platform/i86pc/multiboot -x | | module /platform/i86pc/boot_archive | +----------------------------------------------------------------------+ Use the ^ and v keys to select which entry is highlighted. Press 'b' to boot, 'e' to edit the selected command in the boot sequence, 'c' for a command-line, 'o' to open a new line after ('O' for before) the selected line, 'd' to remove the selected line, or escape to go back to the main menu.- |
Escriba b para arrancar el nodo en el modo no de clúster.
Este cambio efectuado en el comando de parámetros de arranque del núcleo no se conservará al arrancar el sistema. La próxima vez que reinicie el nodo, se arrancará en el modo de clúster. Para arrancarlo en el modo sin clúster, realice estos pasos de nuevo para agregar la opción -x al comando del parámetro de arranque del núcleo.
Desconfigure Sun Cluster desde el nodo potencial.
phys-schost-new# /usr/cluster/bin/clnode remove |
Si está duplicando un nodo que está ejecutando Sun Cluster 3.2, cree un archivo XML de configuración del clúster.
Conviértase en superusuario en el nodo del clúster que desea duplicar.
Exporte la información de la configuración existente del nodo a un archivo.
phys-schost# clnode export -o clconfigfile |
Especifica el destino de salida.
Nombre del archivo XML de configuración del clúster. El nombre del archivo especificado puede ser un archivo existente o un nuevo archivo que creará el comando.
Para obtener más información, consulte la página de comando man clnode(1CL).
Copie el archivo XML de configuración del clúster al nodo potencial que configurará como un nuevo nodo del clúster.
Conviértase en superusuario en el nodo potencial.
Modifique el archivo XML de configuración del clúster según necesite.
Abra su archivo XML de configuración del clúster para editarlo.
Si está duplicando un nodo del clúster existente, abra el archivo que creó con el comando clnode export.
Si no está duplicando un nodo del clúster existente, cree un nuevo archivo.
Base el archivo en la jerarquía de elementos que se indica en la página de comando man clconfiguration(5CL). Puede guardar el archivo en cualquier directorio.
Modifique los valores de los elementos XML para reflejar la configuración de nodo que desea crear.
Consulte la página de comando man clconfiguration(5CL) para obtener detalles acerca de la estructura y contenido del archivo XML de configuración.
Valide el archivo XML de configuración.
phys-schost-new# xmllint --valid --noout clconfigfile |
Configure el nuevo nodo del clúster.
phys-schost-new# clnode add -n sponsornode -i clconfigfile |
Especifica el nombre de un miembro del clúster existente para que realice las funciones de espónsor del nuevo nodo.
Especifica el nombre del archivo XML de configuración del clúster que debe utilizarse como la fuente de entrada.
(Opcional) Habilite el reinicio automático del nodo si fallan todas las rutas de disco supervisadas.
Habilite la función de reinicio automático.
phys-schost# clnode set -p reboot_on_path_failure=enabled |
Especifica la propiedad que se va a establecer.
Indica que se debe reiniciar el nodo en caso de que fallen las rutas de disco supervisadas, siempre que, al menos, uno de los discos esté accesible desde un nodo diferente del clúster.
Compruebe que se haya habilitado la función de reinicio automático en caso de fallo de las rutas de disco.
phys-schost# clnode show === Cluster Nodes === Node Name: node … reboot_on_path_failure: enabled … |
Configuración no satisfactoria: si uno o varios nodos no pueden unirse al clúster, o si se ha especificado información de configuración incorrecta, intente realizar de nuevo este procedimiento. Si sigue sin solucionarse el problema, lleve a cabo el procedimiento Cómo desconfigurar Sun Cluster para corregir problemas de la instalación en cada nodo configurado incorrectamente para eliminarlo de la configuración del clúster. No es necesario desinstalar los paquetes de software de Sun Cluster. A continuación, vuelva a realizar este procedimiento.
Si agregó un nodo a un clúster que utiliza un dispositivo de quórum, diríjase a Cómo actualizar los dispositivos de quórum tras agregar un nodo a un clúster.
En caso contrario, vaya al Cómo verificar la configuración del quórum y el modo instalación.
Si agregó un nodo a un clúster, debe actualizar la información de configuración de los dispositivos de quórum, independientemente de si utiliza dispositivos SCSI, dispositivos NAS, un servidor de quórum o una combinación. Para hacerlo, debe suprimir todos los dispositivos de quórum y actualizar el espacio de nombres global-devices. También puede volver a configurar los dispositivos de quórum que desea seguir utilizando. De esta forma se registrará el nuevo nodo con cada dispositivo de quórum, lo que permite posteriormente volver a calcular su recuento de votos en base al nuevo número de nodos del clúster.
Los dispositivos de quórum SCSI que haya configurado recientemente se configurarán en reservas SCSI-3.
Asegúrese de que ha completado la instalación de Sun Cluster en el nodo agregado.
Conviértase en superusuario en cualquier nodo del clúster.
Vea la configuración actual de quórum.
El resultado del comando muestra cada uno de los dispositivos de quórum y nodos. El resultado del siguiente ejemplo muestra el dispositivo de quórum SCSI actual, d3.
phys-schost# clquorum list d3 … |
Apunte el nombre de cada dispositivo de quórum que se muestra.
Retire el dispositivo de quórum original.
Realice este paso para cada dispositivo de quórum configurado.
phys-schost# clquorum remove devicename |
Especifica el nombre del dispositivo de quórum.
Compruebe que se eliminan todos los dispositivos originales de quórum.
Si se realiza correctamente la supresión de los dispositivos de quórum, no se mostrará ningún dispositivo de quórum.
phys-schost# clquorum status |
Actualice el espacio de nombres global-devices.
phys-schost# cldevice populate |
Este paso es necesario para evitar posibles situaciones conflictivas dentro del nodo.
Compruebe que el comando cldevice populate haya finalizado el procesamiento antes de agregar un dispositivo de quórum.
El comando cldevice populate se ejecuta de forma remota en todos los nodos, aunque se haya emitido desde un solo nodo. Para comprobar si el comando cldevice populate ha completado su procesamiento, ejecute el siguiente comando en cada uno de los nodos del clúster.
phys-schost# ps -ef | grep scgdevs |
(Opcional) Agregue un dispositivo de quórum.
Puede configurar el mismo dispositivo que se configuró originalmente como dispositivo de quórum o seleccionar un nuevo dispositivo compartido para configurarlo.
(Opcional) Si desea seleccionar un nuevo dispositivo compartido para configurarlo como dispositivo de quórum, visualice todos los dispositivos que comprueba el sistema.
En caso contrario, vaya al Paso c.
phys-schost# cldevice list -v |
La salida de datos tiene un aspecto similar al siguiente.
DID Device Full Device Path ---------- ---------------- d1 phys-schost-1:/dev/rdsk/c0t0d0 d2 phys-schost-1:/dev/rdsk/c0t6d0 d3 phys-schost-2:/dev/rdsk/c1t1d0 d3 phys-schost-1:/dev/rdsk/c1t1d0 … |
A partir del resultado, seleccione un dispositivo compartido para configurarlo como dispositivo de quórum.
Configure el dispositivo compartido como dispositivo de quórum.
phys-schost# clquorum add -t type devicename |
Especifica el tipo de dispositivo de quórum. Si no se especifica esta opción se utilizará el tipo predeterminado scsi.
Repita este procedimiento para cada dispositivo de quórum que desee configurar.
Compruebe la nueva configuración del quórum.
phys-schost# clquorum list |
El resultado debería mostrar cada dispositivo del quórum y cada nodo.
El siguiente ejemplo identifica el dispositivo de quórum SCSI original d2, suprime dicho dispositivo de quórum, muestra los dispositivos compartidos disponibles, actualiza el espacio de nombres global-device, configura d3 como un nuevo dispositivo de quórum SCSI y comprueba el nuevo dispositivo.
phys-schost# clquorum list d2 phys-schost-1 phys-schost-2 phys-schost# clquorum remove d2 phys-schost# clquorum status … --- Quorum Votes by Device --- Device Name Present Possible Status ----------- ------- -------- ------ phys-schost# cldevice list -v DID Device Full Device Path ---------- ---------------- … d3 phys-schost-2:/dev/rdsk/c1t1d0 d3 phys-schost-1:/dev/rdsk/c1t1d0 … phys-schost# cldevice populate phys-schost# ps -ef - grep scgdevs phys-schost# clquorum add d3 phys-schost# clquorum list d3 phys-schost-1 phys-schost-2 |
Vaya a Cómo verificar la configuración del quórum y el modo instalación.
No necesita configurar los dispositivos del quórum en estos casos:
Si ha elegido la configuración automática del quórum durante la configuración de Sun Cluster.
Si ha instalado un clúster de un único nodo.
Si ha añadido un nodo a un clúster y ya dispone de suficientes votos del quórum asignados.
En su lugar, vaya a Cómo verificar la configuración del quórum y el modo instalación.
Siga este procedimiento una sola vez, después de formar el clúster. Use este procedimiento para asignar votos del quórum y después suprima el clúster del modo de instalación.
Realice los preparativos siguientes para configurar un servidor de quórum o un dispositivo NAS como un dispositivo de quórum.
Para configurar un servidor de quórum como dispositivo de quórum, lleve a cabo las acciones siguientes:
Instale Sun Cluster Quorum Server en la máquina host del servidor de quórum e inicie el servidor de quórum. Para obtener más información acerca de la instalación y el arranque del servidor de quórum, consulte Sun Cluster Quorum Server User’s Guide.
Asegúrese de que los conmutadores de red que se encuentran conectados directamente a los nodos del clúster cumplan con alguno de los siguientes criterios:
El conmutador admite el protocolo de árbol de expansión rápida (RSTP).
El modo de puerto rápido está habilitado en el conmutador.
Una de estas funciones es necesaria para asegurar la comunicación inmediata entre los nodos del clúster y el servidor de quórum. Si el conmutador retrasa de forma significativa esta comunicación, el clúster interpreta la no posibilidad de comunicación como una pérdida del dispositivo de quórum.
Tenga a mano la información siguiente:
El nombre que asignará al dispositivo de quórum configurado
La dirección IP de la máquina host del servidor de quórum
El número de puerto del servidor de quórum
Para configurar un dispositivo de almacenamiento conectado a red (NAS) como dispositivo de quórum, realice las acciones siguientes:
Instale el hardware y el software del dispositivo NAS. Consulte Capítulo 1, Installing and Maintaining Network Appliance Network-Attached Storage Devices in a Sun Cluster Environment de Sun Cluster 3.1 - 3.2 With Network-Attached Storage Devices Manual for Solaris OS y la documentación de su dispositivo para conocer los procedimientos relacionados con requisitos y la instalación de hardware y software NAS.
Tenga a mano la información siguiente:
El nombre del dispositivo NAS
El ID de LUN del dispositivo NAS
Consulte la siguiente documentación de NAS de Network Appliance para obtener información sobre la creación y configuración de un dispositivo NAS de Network Appliance y LUN. Puede acceder a los siguientes documentos en http://now.netapp.com.
Tarea |
Documentación de Network Appliance |
---|---|
Configuración de un dispositivo NAS |
System Administration File Access Management Guide |
Configuración de LUN |
Host Cluster Tool for Unix Installation Guide |
Instalación del software ONTAP |
Software Setup Guide, Upgrade Guide |
Exportación de volúmenes del clúster |
Data ONTAP Storage Management Guide |
Instalación de paquetes de compatibilidad con NAS en los nodos del clúster |
Inicie sesión en http://now.netapp.com. En la página de descarga de software, descargue el documento Host Cluster Tool for Unix Installation Guide. |
Para utilizar un servidor de quórum como un dispositivo de quórum, prepare el clúster para comunicarse con el servidor de quórum.
Si la red pública utiliza una subred de longitud variable, también conocida como enrutamiento entre dominios sin clase (CIDR), modifique los siguientes archivos en cada nodo.
Si utiliza subredes con clase completa, como se define en RFC 791, no es necesario realizar estos pasos.
Agregue al archivo /etc/inet/netmasks una entrada para cada subred pública que utilice el clúster.
A continuación se muestra una entrada de ejemplo que contiene una dirección IP y máscara de red de una red pública:
10.11.30.0 255.255.255.0 |
Añada netmask + broadcast + a la entrada del nombre de host en cada archivo /etc/hostname.adapter.
nodename netmask + broadcast + |
Asegúrese de que la dirección IP del servidor de quórum se incluye en el archivo /etc/inet/hosts o /etc/inet/ipnodes de todos los nodos del clúster.
Si utiliza un servicio de asignación de nombres, asegúrese de que el servidor de quórum se incluye en las asignaciones de nombre a dirección.
Conviértase en superusuario en un nodo.
Para utilizar un disco SCSI compartido como dispositivo de quórum, compruebe la conectividad del dispositivo a los nodos del clúster y seleccione el dispositivo que desea configurar.
Desde un nodo del clúster, aparecerá una lista de todos los dispositivos que comprueba el sistema.
No necesita haber iniciado la sesión como superusuario para ejecutar esta orden.
phys-schost-1# cldevice list -v |
La salida de datos tiene un aspecto similar al siguiente.
DID Device Full Device Path ---------- ---------------- d1 pcircinus1:/dev/rdsk/c0t0d0 d2 pcircinus1:/dev/rdsk/c0t6d0 d3 pcircinus2:/dev/rdsk/c1t1d0 d3 pcircinus1:/dev/rdsk/c1t1d0 … |
Asegúrese de que la salida muestra todas las conexiones entre los nodos del clúster y los dispositivos de almacenamiento.
Especifique el nombre id general del dispositivo de cada disco compartido que vaya a configurar como un dispositivo del quórum.
Todos los discos compartidos que se elijan deben estar cualificados como dispositivos de quórum. Consulte Dispositivos del quórum para obtener más información acerca de los dispositivos de quórum.
Use el resultado de scdidadm de Paso a para identificar el nombre ID del dispositivo de cada disco compartido que esté configurando como dispositivo de quórum. Por ejemplo, el resultado del Paso a muestra que el dispositivo global d2 está compartido por phys-schost-1 y phys-schost-2.
phys-schost# clsetup |
Aparece la pantalla de la configuración inicial del clúster.
Si el menú Principal aparece en su lugar significa que la configuración inicial del clúster se ha efectuado con éxito. Vaya al Paso 9.
Responda a la indicación ¿Desea agregar discos del quórum? (Do you want to add any quorum disks?)
Especifique el tipo de dispositivo que desea configurar como dispositivo de quórum.
Especifique el nombre del dispositivo que se configurará como dispositivo de quórum.
Para los servidores de quórum, indique también la información siguiente:
La dirección IP del host del servidor de quórum
El número de puerto que utiliza el servidor de quórum para comunicarse con los nodos del clúster
Para un dispositivo NAS de dispositivo de red, especifique también la siguiente información:
El nombre del dispositivo NAS
El ID de LUN del dispositivo NAS
Cuando aparezca en el símbolo de sistema Is it okay to reset "installmode"?, escriba Yes.
Una vez que la utilidad clsetup defina las configuraciones de quórum y los recuentos de votos del clúster, aparecerá el mensaje Cluster initialization is complete. La utilidad le vuelve a llevar al menú Principal.
Salga de la utilidad clsetup.
Compruebe la configuración del quórum y que el modo de instalación esté inhabilitado. Vaya a Cómo verificar la configuración del quórum y el modo instalación.
procesamiento de clsetup interrumpido: si se interrumpe el proceso de configuración del quórum o no se realiza con éxito, vuelva a ejecutar clsetup.
Cambios al recuento de los votos del quórum: si aumenta o disminuye posteriormente el número de adjuntos de nodo a un dispositivo de quórum, el recuento de votos del quórum no se volverá a calcular automáticamente. Puede volver a establecer el voto correcto de quórum eliminando los dispositivos de quórum y volviéndolos a agregar a la configuración uno a uno. En el caso de un clúster con dos nodos, agregue temporalmente un dispositivo del quórum nuevo antes de eliminar y agregar de nuevo el dispositivo del quórum original. Entonces, elimine temporalmente el dispositivo del quórum. Consulte el procedimiento âCómo modificar una lista de nodos del dispositivo de quórumâ en Capítulo 6, Administering Quorum de Sun Cluster System Administration Guide for Solaris OS.
Realice este procedimiento para comprobar que la configuración de quórum se ha realizado de forma correcta y que el modo de instalación del clúster está deshabilitado.
Para ejecutar estos comandos no es necesario ser superusuario.
En cualquier nodo, verifique las configuraciones del dispositivo y del quórum del nodo.
phys-schost% clquorum list |
El resultado muestra cada dispositivo del quórum y cada nodo.
Compruebe desde cualquier nodo que el modo de instalación del clúster está deshabilitado.
phys-schost% cluster show -t global | grep installmode installmode: disabled |
La instalación del clúster ha terminado.
Determine de la siguiente lista la siguiente tarea que debe realizar que se aplique a su configuración de clúster. Si necesita realizar más de una tarea desde esta lista, diríjase a la primera de estas tareas de la lista.
Si desea cambiar alguno de los nombres de host privados, vaya a Cómo cambiar los nombres de los sistemas privados.
Si no ha instalado el archivo /etc/inet/ntp.conf propio antes de instalar Sun Cluster, instale o cree el archivo de configuración NTP. Vaya a Cómo configurar el Protocolo de tiempo de red (NTP, Network Time Protocol).
Para instalar un gestor de volúmenes, vaya a Capítulo 4, configuración de Solaris Volume Manager y Capítulo 5, Instalación y configuración de VERITAS Volume Manager para instalar software de gestión de volúmenes.
Si ha agregado un nuevo nodo a un clúster que utiliza VxVM, debe realizar una de las siguientes tareas:
Instalar VxVM en dicho nodo.
Modificar el archivo /etc/name_to_major del nodo para que pueda coexistir con VxVM.
Siga los procedimientos que se indican en Cómo instalar el software de VERITAS Volume Manager para realizar una de estas tareas obligatorias.
Para crear sistemas de archivos del clúster, diríjase a Cómo crear sistemas de archivos del clúster.
Para crear zonas no globales en un nodo, diríjase a Cómo crear una zona no global en un nodo del clúster.
SPARC: Si desea configurar Sun Management Center para que supervise el clúster, vaya a SPARC: Instalación del módulo de Sun Cluster en Sun Management Center.
Instale las aplicaciones de otras empresas, registre los tipos de recursos, configure los grupos de recursos y los servicios de datos. Consulte la documentación que se suministra con el software de la aplicación y Sun Cluster Data Services Planning and Administration Guide for Solaris OS.
Realice una copia de seguridad de la configuración del clúster.
Si se conserva una copia de seguridad de la configuración del clúster, se puede recuperar esta configuración de forma más sencilla.
Para obtener más información, consulte How to Back Up the Cluster Configuration de Sun Cluster System Administration Guide for Solaris OS.
Efectúe esta tarea si no desea utilizar los nombres de los sistemas privados, clusternodenodeid-priv, que se asignan durante la instalación del software Sun Cluster.
No efectúe este procedimiento después de que las aplicaciones y los servicios de datos se hayan configurado e iniciado. De lo contrario, una aplicación o un servicio de datos podría continuar usando el nombre del sistema privado anterior tras cambiar el nombre al sistema, lo cual provocaría conflictos en el nombre del sistema. Si hay aplicaciones o servicios de datos en ejecución, deténgalas antes de llevar a cabo este procedimiento.
Realice este procedimiento en un nodo activo del clúster.
Conviértase en usuario root en un nodo del clúster.
phys-schost# clsetup |
Aparece el Menú principal de clsetup.
Escriba el número que corresponde a la opción Nombres de host privados y pulse la tecla de retorno.
Aparece el menú Nombre de host privado.
Escriba el número que corresponde a la opción Cambiar un nombre de host privado y pulse la tecla de retorno.
Siga las indicaciones para cambiar el nombre del sistema privado.
Repita el proceso con cada nombre del sistema privado que desee cambiar.
Comprobación de los nuevos nombres de host privados.
phys-schost# clnode show -t node | grep privatehostname privatehostname: clusternode1-priv privatehostname: clusternode2-priv privatehostname: clusternode3-priv |
Determine de la siguiente lista la siguiente tarea que debe realizar que se aplique a su configuración de clúster. Si necesita realizar más de una tarea desde esta lista, diríjase a la primera de estas tareas de la lista.
Si no ha instalado el archivo /etc/inet/ntp.conf propio antes de instalar Sun Cluster, instale o cree el archivo de configuración NTP. Vaya a Cómo configurar el Protocolo de tiempo de red (NTP, Network Time Protocol).
Para instalar un gestor de volúmenes, vaya a Capítulo 4, configuración de Solaris Volume Manager y Capítulo 5, Instalación y configuración de VERITAS Volume Manager para instalar software de gestión de volúmenes.
Si ha agregado un nuevo nodo a un clúster que utiliza VxVM, debe realizar una de las siguientes tareas:
Instalar VxVM en dicho nodo.
Modificar el archivo /etc/name_to_major del nodo para que pueda coexistir con VxVM.
Siga los procedimientos que se indican en Cómo instalar el software de VERITAS Volume Manager para realizar una de estas tareas obligatorias.
Para crear sistemas de archivos del clúster, diríjase a Cómo crear sistemas de archivos del clúster.
Para crear zonas no globales en un nodo, diríjase a Cómo crear una zona no global en un nodo del clúster.
SPARC: Si desea configurar Sun Management Center para que supervise el clúster, vaya a SPARC: Instalación del módulo de Sun Cluster en Sun Management Center.
Instale las aplicaciones de otras empresas, registre los tipos de recursos, configure los grupos de recursos y los servicios de datos. Consulte la documentación que se suministra con el software de la aplicación y Sun Cluster Data Services Planning and Administration Guide for Solaris OS.
Si ha instalado su propio archivo /etc/inet/ntp.conf antes de instalar Sun Cluster, no es necesario realizar este procedimiento. Determine el siguiente paso:
Realice esta tarea para crear o modificar el archivo de configuración NTP después de realizar cualquiera de las siguientes tareas:
Instalar Sun Cluster
Agregar un nuevo nodo al clúster
Cambiar el nombre de host privado de un nodo del clúster
Si ha agregado un nodo a un clúster de un único nodo, deberá asegurar que el archivo de configuración NTP que utilice se copia al nodo del clúster original así como al nuevo nodo.
El requisito principal cuando configure NTP o cualquier recurso de sincronización temporal dentro del clúster, es que todos los nodos del clúster se deben sincronizar al mismo tiempo. La exactitud temporal de los nodos individuales es de una importancia secundaria, con respecto a la sincronización temporal entre los nodos. Es libre de configurar el NTP como mejor le convenga, mientras se cumpla este requisito básico para la sincronización.
Consulte Sun Cluster Concepts Guide for Solaris OS si desea más información sobre el tiempo del clúster. Consulte el archivo de plantilla /etc/inet/ntp.cluster para conocer más directrices sobre cómo configurar el NTP en una configuración de Sun Cluster.
Conviértase en usuario root en un nodo del clúster.
Si tiene su propio archivo /etc/inet/ntp.conf, copie su archivo a cada uno de los nodos del clúster.
Si no tiene su propio archivo /etc/inet/ntp.conf para instalarlo, utilice el archivo /etc/inet/ntp.conf.cluster como el archivo de configuración NTP.
No cambie el nombre del archivo ntp.conf.cluster a ntp.conf.
Si el archivo /etc/inet/ntp.conf.cluster no existe en el nodo, puede que tenga un archivo /etc/inet/ntp.conf de alguna instalación anterior de Sun Cluster. Sun Cluster crea el archivo /etc/inet/ntp.conf.cluster como archivo de configuración de NTP si un archivo /etc/inet/ntp.conf no está ya presente en el nodo. Si es así, siga estos procedimientos de edición para ese archivo ntp.conf.
Utilice su editor de texto favorito para abrir el archivo de configuración NTP en un nodo del clúster para su edición.
Compruebe que exista una entrada para el nombre de sistema privado en cada nodo del clúster.
Si ha cambiado nombres de sistemas privados del nodo, compruebe que el archivo de configuración del NTP contenga el nuevo nombre del sistema privado.
Si fuera necesario, efectúe otras modificaciones que cumplan con sus requisitos para el NTP.
Copie el archivo de configuración del NTP en todos los nodos del clúster.
El contenido del archivo de configuración del NTP debe ser idéntico en todos los nodos del clúster.
Detenga el daemon NTP en cada nodo.
Espere a que el comando finalice correctamente en cada nodo antes de avanzar hasta el Paso 5.
SPARC: En el SO Solaris 9, utilice el siguiente comando:
phys-schost# /etc/init.d/xntpd stop |
Para el sistema operativo Solaris 10, use el siguiente comando:
phys-schost# svcadm disable ntp |
Reinicie el daemon del NTP en cada nodo.
Si utiliza el archivo ntp.conf.cluster, ejecute el siguiente comando:
phys-schost# /etc/init.d/xntpd.cluster start |
La secuencia de inicio xntpd.cluster busca en primer lugar el archivo /etc/inet/ntp.conf.
Si el archivo ntp.conf existe, la secuencia de comandos existe inmediatamente sin iniciar el daemon NTP.
Si el archivo ntp.conf no existe pero sí el archivo ntp.conf.cluster, la secuencia de órdenes inicia el daemon NTP. En este caso, la secuencia de órdenes utiliza el archivo ntp.conf.cluster como archivo de configuración NTP.
Si utiliza el archivo ntp.conf, ejecute uno de los siguientes comandos:
SPARC: En el SO Solaris 9, utilice el siguiente comando:
phys-schost# /etc/init.d/xntpd start |
Para el sistema operativo Solaris 10, use el siguiente comando:
phys-schost# svcadm enable ntp |
Determine de la siguiente lista la siguiente tarea que debe realizar que se aplique a su configuración de clúster. Si necesita realizar más de una tarea desde esta lista, diríjase a la primera de estas tareas de la lista.
Para instalar un gestor de volúmenes, vaya a Capítulo 4, configuración de Solaris Volume Manager y Capítulo 5, Instalación y configuración de VERITAS Volume Manager para instalar software de gestión de volúmenes.
Si ha agregado un nuevo nodo a un clúster que utiliza VxVM, debe realizar una de las siguientes tareas:
Instalar VxVM en dicho nodo.
Modificar el archivo /etc/name_to_major del nodo para que pueda coexistir con VxVM.
Siga los procedimientos que se indican en Cómo instalar el software de VERITAS Volume Manager para realizar una de estas tareas obligatorias.
Para crear sistemas de archivos del clúster, diríjase a Cómo crear sistemas de archivos del clúster.
Para crear zonas no globales en un nodo, diríjase a Cómo crear una zona no global en un nodo del clúster.
SPARC: Si desea configurar Sun Management Center para que supervise el clúster, vaya a SPARC: Instalación del módulo de Sun Cluster en Sun Management Center.
Instale las aplicaciones de otras empresas, registre los tipos de recursos, configure los grupos de recursos y los servicios de datos. Consulte la documentación que se suministra con el software de la aplicación y Sun Cluster Data Services Planning and Administration Guide for Solaris OS.