Omitir Vínculos de navegación | |
Salir de la Vista de impresión | |
![]() |
Guía de instalación del software Oracle Solaris Cluster Oracle Solaris Cluster (Español) |
1. Planificación de la configuración de Oracle Solaris Cluster
2. Instalación del software en los nodos del clúster global
3. Establecimiento del clúster global
Establecimiento de un nuevo clúster global o de un nuevo nodo de clúster global
Cómo configurar el software Oracle Solaris Cluster en todos los nodos (scinstall)
Cómo configurar el software Oracle Solaris Cluster en todos los nodos (XML)
Cómo instalar el software de Solaris y Oracle Solaris Cluster (JumpStart)
Cómo preparar el clúster para nodos de clúster global adicionales
Cómo cambiar la configuración de red privada al agregar nodos o redes privadas
Cómo configurar el software Oracle Solaris Cluster en nodos de clúster global adicionales (XML)
Cómo actualizar los dispositivos del quórum tras agregar un nodo a un clúster global
Cómo configurar dispositivos del quórum
Cómo verificar los modos de configuración e instalación del quórum
Cómo cambiar nombres de host privados
Configuración de la distribución de la carga de grupos entre nodos
Cómo configurar límites de carga de un nodo
Cómo establecer la prioridad de un grupo de recursos
Cómo establecer factores de carga de un grupo de recursos
Cómo establecer el modo preferente de un grupo de recursos
Cómo concentrar carga en menos nodos del clúster
Cómo configurar Network Time Protocol (NTP)
Cómo configurar la arquitectura de seguridad IP (IPsec) en la interconexión privada del clúster
Cómo registrar los datos de diagnóstico de la configuración del clúster
4. Configuración del software Solaris Volume Manager
5. Instalación y configuración de Veritas Volume Manager
6. Creación de un sistema de archivos del clúster
7. Creación de zonas no globales y clústeres de zona
8. Instalación del módulo de Oracle Solaris Cluster en Sun Management Center
9. Desinstalación del software del clúster
A. Hojas de trabajo de instalación y configuración de Oracle Solaris Cluster
Esta sección ofrece información y procedimientos para establecer un clúster global nuevo y para agregar un nodo a un clúster existente. Los nodos de clúster global pueden ser máquinas físicas, (sólo SPARC) dominios de E/S de Sun Logical Domains (LDoms) o dominios invitados de LDoms. Un clúster puede estar formado por cualquier combinación de estos tipos de nodo. Antes de comenzar a realizar estas tareas, asegúrese de haber instalado los paquetes de software del sistema operativo Oracle Solaris, la estructura de Oracle Solaris Cluster, y otros productos, tal como se describe en Instalación del software.
Los mapas de tareas siguientes enumeran las tareas que deben efectuarse en el caso de un clúster global nuevo o en el de un nodo que se ha agregado a un clúster global ya existente. Realice los procedimientos en el orden indicado.
Tabla 3-1 Mapa de tareas: establecer un nuevo clúster global
|
Tabla 3-2 Mapa de tareas: agregar un nodo a un clúster global
|
Lleve a cabo este procedimiento en uno de los nodos del clúster global para configurar el software Oracle Solaris Cluster en todos los nodos del mismo.
Nota - En este procedimiento, se utiliza el formato interactivo del programa scinstall. Para utilizar los formatos no interactivos del comando scinstall como, por ejemplo, al crear secuencias de comandos de instalación, consulte la página de comando man scinstall(1M).
Asegúrese de que los paquetes de software Oracle Solaris Cluster se hayan instalado en el nodo de forma manual o mediante el modo silencioso del programa installer de antes de ejecutar el comando scinstall. Para obtener información sobre cómo ejecutar el programa installer de desde una secuencia de comandos de instalación, consulte Capítulo 5, Installing in Silent Mode de Sun Java Enterprise System 5 Update 1 Installation Guide for UNIX.
Antes de empezar
Realice las siguientes tareas:
Asegúrese de que se haya instalado el SO Solaris para admitir el uso del software Oracle Solaris Cluster.
Si el software de Solaris ya se encuentra instalado en el nodo, debe asegurarse de que la instalación de Solaris cumpla con los requisitos de software Oracle Solaris Cluster y de cualquier otra aplicación que vaya a instalar en el clúster. Consulte la sección Cómo instalar el software de Solaris para obtener información sobre cómo instalar el software de Solaris para que cumpla los requisitos de software Oracle Solaris Cluster.
SPARC: Si va a configurar dominios invitados o de E/S de Sun Logical Domains (LDoms) como nodos del clúster, asegúrese de que el software LDoms se haya instalado en cada equipo y de que los dominios cumplan los requisitos de Oracle Solaris Cluster. Consulte SPARC: Instalación del software Sun Logical Domains y creación de dominios.
Asegúrese de que los paquetes de software y los parches de Oracle Solaris Cluster estén instalados en todos los nodos. Consulte Cómo instalar los paquetes de software de los servicios de datos y la estructura de Oracle Solaris Cluster.
Decida cuál de los modos, típico o personalizado, de la utilidad scinstall va a emplear.
En el modo de instalación típica del software Oracle Solaris Cluster, scinstall utiliza automáticamente los siguientes valores predeterminados de configuración.
|
Rellene una de las hojas de trabajo para la configuración del clúster de las que se muestran a continuación en función de si ejecuta la utilidad scinstall en el modo típico o personalizado.
Plantilla de modo típico: si va utilizar el modo típico y aceptar todos los valores predeterminados, rellene la siguiente plantilla.
|
Plantilla del modo personalizado: si va a utilizar el modo personalizado y a personalizar los datos de configuración, rellene la siguiente plantilla.
Nota - Al instalar un clúster de un solo nodo, la utilidad scinstall asigna automáticamente la dirección de red privada y la máscara de red predeterminadas, aunque el clúster no utilice una red privada.
|
Siga estas directrices para usar la utilidad scinstall interactiva en este procedimiento:
La utilidad scinstall interactiva completa automáticamente el texto que está escribiendo. Por lo tanto, no pulse la tecla Intro más de una vez si la siguiente pantalla de menú no aparece inmediatamente.
A menos que se indique lo contrario, puede pulsar Control+D para volver al inicio de una serie de preguntas relacionadas o al menú principal.
Las respuestas predeterminadas o aquellas proporcionadas en sesiones anteriores se muestran entre corchetes ([ ]) al final de una pregunta. Pulse la tecla de Intro para introducir la respuesta entre corchetes sin escribirla.
Habilite acceso de shell remoto (rsh(1M)) o shell seguro (ssh(1)) para el superusuario en todos los nodos del clúster.
Siga los procedimientos incluidos en la documentación de los conmutadores para determinar si NDP está habilitado o si debe inhabilitar este protocolo.
Durante la configuración del clúster, el software comprueba que no haya tráfico en la interconexión privada. Si NDP envía paquetes a un adaptador privado cuando se está comprobando si hay tráfico en la interconexión privada, el software presupondrá que la interconexión no es privada y se interrumpirá la configuración del clúster. Por lo tanto, NDP debe inhabilitarse durante la creación del clúster.
Una vez establecido el clúster, puede volver a habilitar NDP en los conmutadores de interconexión privada si desea utilizar esta función.
phys-schost# /usr/cluster/bin/scinstall
*** Main Menu *** Please select from one of the following (*) options: * 1) Create a new cluster or add a cluster node * 2) Configure a cluster to be JumpStarted from this install server 3) Manage a dual-partition upgrade 4) Upgrade this cluster node * 5) Print release information for this cluster node * ?) Help with menu options * q) Quit Option: 1
Aparece el menú Nuevo clúster o nodo del clúster.
Aparece el menú Typical or Custom Mode (Modo típico o personalizado).
Aparece la pantalla Create a New Cluster (Crear un clúster). Lea los requisitos y, a continuación, pulse Control+D para continuar.
La utilidad scinstall instala y configura todos los nodos del clúster y reinicia el clúster. El clúster se establecerá cuando todos los nodos se hayan iniciado satisfactoriamente en él. La salida de la instalación de Oracle Solaris Cluster se registra en un archivo /var/cluster/logs/install/scinstall.log. N.
Si los servicios todavía no están en línea para un nodo, espere hasta que cambie el estado y aparezca como en línea antes de continuar con el siguiente paso.
phys-schost# svcs multi-user-server node STATE STIME FMRI online 17:52:55 svc:/milestone/multi-user-server:default
phys-schost# clnode status
La salida presenta un aspecto similar al siguiente.
=== Cluster Nodes === --- Node Status --- Node Name Status --------- ------ phys-schost-1 Online phys-schost-2 Online phys-schost-3 Online
Para obtener más información, consulte la página de comando man clnode(1CL).
Esta función reinicia automáticamente un nodo cuando todas las rutas de disco compartido supervisadas presentan errores y siempre que al menos uno de los discos sea accesible desde otro nodo del clúster.
phys-schost# clnode set -p reboot_on_path_failure=enabled
Especifica la propiedad que se va a establecer.
Habilita el reinicio automático del nodo en caso de producirse un error en las rutas de discos compartidos supervisados.
phys-schost# clnode show === Cluster Nodes === Node Name: node … reboot_on_path_failure: enabled …
Para inhabilitarlo, agregue la siguiente entrada al archivo /etc/system en cada uno de los nodos del clúster.
exclude:lofs
El cambio realizado en el archivo /etc/system se aplicará en el siguiente reinicio del sistema.
Nota - No puede tener habilitado LOFS si utiliza HA para NFS en un sistema de archivos de alta disponibilidad y automountd se está ejecutando. LOFS puede provocar problemas de conmutación en HA para NFS. Si decide agregar HA para NFS en un sistema de archivos local de alta disponibilidad, realice uno de los siguientes cambios de configuración.
Sin embargo, si configura zonas no globales en el clúster, debe habilitar LOFS en todos los nodos del clúster. Si HA para NFS se encuentra en un sistema de archivos local de alta disponibilidad y debe coexistir con LOFS, utilice una de las demás soluciones en lugar de inhabilitar LOFS.
Inhabilite LOFS.
Inhabilite el daemon automountd.
Excluya de la asignación de montaje automático todos los archivos que formen parte del sistema de archivos local de alta disponibilidad exportado por HA para NFS. Esta opción permite mantener habilitados tanto LOFS como el daemon automountd.
Consulte The Loopback File System de System Administration Guide: Devices and File Systems para obtener información sobre los sistemas de archivos de bucle invertido.
Ejemplo 3-1 Configuración del software Oracle Solaris Cluster en todos los nodos
En el siguiente ejemplo, se muestran los mensajes de progreso de scinstall que se van registrando a medida que scinstall completa tareas de configuración en el clúster de dos nodos, schost. El clúster se instala desde phys-schost-1 mediante la utilidad scinstall en el modo típico. El otro nodo del clúster es phys-schost-2. Los nombres de los adaptadores son qfe2 y qfe3. La selección automática del dispositivo del quórum está habilitada. Los dos nodos utilizan la partición /globaldevices para el espacio de nombres de dispositivos globales.
Installation and Configuration Log file - /var/cluster/logs/install/scinstall.log.24747 Testing for "/globaldevices" on "phys-schost-1" … done Testing for "/globaldevices" on "phys-schost-2" … done Checking installation status … done The Sun Cluster software is already installed on "phys-schost-1". The Sun Cluster software is already installed on "phys-schost-2". Starting discovery of the cluster transport configuration. The following connections were discovered: phys-schost-1:qfe2 switch1 phys-schost-2:qfe2 phys-schost-1:qfe3 switch2 phys-schost-2:qfe3 Completed discovery of the cluster transport configuration. Started cluster check on "phys-schost-1". Started cluster check on "phys-schost-2". cluster check completed with no errors or warnings for "phys-schost-1". cluster check completed with no errors or warnings for "phys-schost-2". Removing the downloaded files … done Configuring "phys-schost-2" … done Rebooting "phys-schost-2" … done Configuring "phys-schost-1" … done Rebooting "phys-schost-1" … Log file - /var/cluster/logs/install/scinstall.log.24747 Rebooting …
Errores más frecuentes
Configuración incorrecta: si uno o varios nodos no se pueden incorporar al clúster, o si se ha especificado información de configuración incorrecta, primero intente ejecutar de nuevo este procedimiento. Si no se soluciona el problema, realice el procedimiento Cómo anular la configuración del software Oracle Solaris Cluster para solucionar problemas de instalación en cada nodo que se haya configurado incorrectamente para suprimirlo de la configuración del clúster. No es necesario que desinstale los paquetes de software Oracle Solaris Cluster. A continuación, vuelva a realizar este procedimiento.
Pasos siguientes
Si ha instalado un clúster con un único nodo, ya se ha completado el establecimiento del clúster. Vaya a Creación de sistemas de archivos del clúster para instalar el software de administración de volúmenes y configurar el clúster.
Si ha instalado un nodo de varios clústeres y ha decidido configurar el quórum automáticamente, la configuración posterior a la instalación finaliza aquí. Vaya a Cómo verificar los modos de configuración e instalación del quórum.
Si ha instalado un clúster de varios nodos y ha rechazado la configuración automática del quórum, lleve a cabo la configuración posterior a la instalación. Vaya a Cómo configurar dispositivos del quórum.
Si pretende configurar algún dispositivo del quórum en el clúster, vaya a Cómo configurar dispositivos del quórum.
De lo contrario, vaya a Cómo verificar los modos de configuración e instalación del quórum.
Lleve a cabo este procedimiento para configurar un clúster global nuevo mediante un archivo XML de configuración del clúster. El clúster nuevo puede ser un reflejo de un clúster existente que ejecute el software Oracle Solaris Cluster 3.3 5/11.
Mediante este procedimiento, se configuran los siguientes componentes del clúster:
Nombre del clúster
Pertenencia de nodos del clúster
Interconexión del clúster
Dispositivos globales
Antes de empezar
Realice las siguientes tareas:
Asegúrese de que se haya instalado el SO Solaris para admitir el uso del software Oracle Solaris Cluster.
Si el software de Solaris ya se encuentra instalado en el nodo, debe asegurarse de que la instalación de Solaris cumpla con los requisitos de software Oracle Solaris Cluster y de cualquier otra aplicación que vaya a instalar en el clúster. Consulte la sección Cómo instalar el software de Solaris para obtener información sobre cómo instalar el software de Solaris para que cumpla los requisitos de software Oracle Solaris Cluster.
Asegúrese de que se haya instalado el SO Solaris para admitir el uso del software Oracle Solaris Cluster.
Si el software de Solaris ya se encuentra instalado en el nodo, debe asegurarse de que la instalación de Solaris cumpla con los requisitos de software Oracle Solaris Cluster y de cualquier otra aplicación que vaya a instalar en el clúster. Consulte la sección Cómo instalar el software de Solaris para obtener información sobre cómo instalar el software de Solaris para que cumpla los requisitos de software Oracle Solaris Cluster.
SPARC: Si va a configurar dominios invitados o de E/S de Sun Logical Domains (LDoms) como nodos del clúster, asegúrese de que el software LDoms se haya instalado en cada equipo y de que los dominios cumplan los requisitos de Oracle Solaris Cluster. Consulte SPARC: Instalación del software Sun Logical Domains y creación de dominios.
Asegúrese de que el software y los parches de Oracle Solaris Cluster 3.3 5/11 estén instalados en todos los nodos que vaya a configurar. Consulte Cómo instalar los paquetes de software de los servicios de datos y la estructura de Oracle Solaris Cluster.
phys-schost# /usr/sbin/clinfo -n
clinfo: node is not configured as part of acluster: Operation not applicable
Este mensaje indica que el software Oracle Solaris Cluster todavía no se ha configurado en el nodo potencial.
La devolución de un ID de nodo indica que el software Oracle Solaris Cluster ya está configurado en el nodo.
Si el clúster ejecuta una versión anterior del software Oracle Solaris Cluster y desea instalar el software Oracle Solaris Cluster 3.3 5/11, realice los procedimientos de actualización recogidos en Oracle Solaris Cluster Upgrade Guide.
Si el software Oracle Solaris Cluster aún no se ha configurado en ningún nodo potencial del clúster, vaya al paso 2.
Siga los procedimientos incluidos en la documentación de los conmutadores para determinar si NDP está habilitado o si debe inhabilitar este protocolo.
Durante la configuración del clúster, el software comprueba que no haya tráfico en la interconexión privada. Si NDP envía paquetes a un adaptador privado cuando se está comprobando si hay tráfico en la interconexión privada, el software presupondrá que la interconexión no es privada y se interrumpirá la configuración del clúster. Por lo tanto, NDP debe inhabilitarse durante la creación del clúster.
Una vez establecido el clúster, puede volver a habilitar NDP en los conmutadores de interconexión privada si desea utilizar esta función.
phys-schost# cluster export -o clconfigfile
Especifica el destino de salida.
Nombre del archivo XML de configuración del clúster. El nombre de archivo especificado puede ser un archivo existente o un archivo nuevo que el comando creará.
Para obtener más información, consulte la página de comando man cluster(1CL).
Puede almacenar el archivo en cualquier directorio accesible para el resto de los hosts que configurará como nodos del clúster.
Base el archivo en la jerarquía de elementos que se muestra en la página de comando man clconfiguration(5CL). Puede almacenar el archivo en cualquier directorio accesible para el resto de los hosts que configurará como nodos del clúster.
Para poder establecer un clúster, los siguientes componentes deben poseer valores válidos en el archivo XML de configuración del clúster:
Nombre del clúster
Nodos del clúster
Transporte del clúster
Al crear el clúster, se asume que la partición /globaldevices existe en todos los nodos que configure como nodos del clúster. El espacio de nombres de los dispositivos globales se crea en esa partición. Si necesita utilizar un nombre de sistema de archivos distinto para crear los dispositivos globales, agregue la propiedad que aparece a continuación al elemento <propertyList> de los nodos que no tengan una partición denominada /globaldevices.
… <nodeList> <node name="node" id="N"> <propertyList> … <property name="globaldevfs" value="/filesystem-name"> … </propertyList> </node> …
Si prefiere utilizar un dispositivo lofi para el espacio de nombres de los dispositivos globales, establezca el valor de la propiedad globaldevfs en lofi.
<property name="globaldevfs" value="lofi">
Cuando modifique información de configuración exportada desde un clúster existente, tenga en cuenta que se utilizan algunos valores que deben cambiar para reflejar el nuevo clúster, como los nombres de nodo, en las definiciones de varios objetos del clúster.
Consulte la página de comando man clconfiguration(5CL) para obtener información detallada sobre la estructura y el contenido del archivo XML de configuración del clúster.
phys-schost# /usr/share/src/xmllint --valid --noout clconfigfile
Consulte la página de comando man xmllint(1) para obtener más información.
phys-schost# cluster create -i clconfigfile
Especifica el nombre del archivo XML de configuración del clúster que se va a utilizar como fuente de entrada.
Si los servicios todavía no están en línea para un nodo, espere hasta que cambie el estado y aparezca como en línea antes de continuar con el siguiente paso.
phys-schost# svcs multi-user-server node STATE STIME FMRI online 17:52:55 svc:/milestone/multi-user-server:default
phys-schost# clnode status
La salida presenta un aspecto similar al siguiente.
=== Cluster Nodes === --- Node Status --- Node Name Status --------- ------ phys-schost-1 Online phys-schost-2 Online phys-schost-3 Online
Para obtener más información, consulte la página de comando man clnode(1CL).
Consulte Niveles de firmware y parches necesarios de Notas de la versión de Oracle Solaris Cluster 3.3 5/11 para conocer la ubicación de los parches y las instrucciones de instalación.
Para inhabilitarlo, agregue la siguiente entrada al archivo /etc/system en cada uno de los nodos del clúster.
exclude:lofs
El cambio realizado en el archivo /etc/system se aplicará en el siguiente reinicio del sistema.
Nota - No puede tener habilitado LOFS si utiliza HA para NFS en un sistema de archivos de alta disponibilidad y automountd se está ejecutando. LOFS puede provocar problemas de conmutación en HA para NFS. Si decide agregar HA para NFS en un sistema de archivos local de alta disponibilidad, realice uno de los siguientes cambios de configuración.
Sin embargo, si configura zonas no globales en el clúster, debe habilitar LOFS en todos los nodos del clúster. Si HA para NFS se encuentra en un sistema de archivos local de alta disponibilidad y debe coexistir con LOFS, utilice una de las demás soluciones en lugar de inhabilitar LOFS.
Inhabilite LOFS.
Inhabilite el daemon automountd.
Excluya de la asignación de montaje automático todos los archivos que formen parte del sistema de archivos local de alta disponibilidad exportado por HA para NFS. Esta opción permite mantener habilitados tanto LOFS como el daemon automountd.
Consulte The Loopback File System de System Administration Guide: Devices and File Systems para obtener información sobre los sistemas de archivos de bucle invertido.
Debe configurar un dispositivo del quórum si ha creado un clúster de dos nodos. Si decide no utilizar el archivo XML de configuración del clúster para crear un dispositivo del quórum requerido, vaya a Cómo configurar dispositivos del quórum.
Siga las instrucciones incluidas en Instalación y configuración del software Servidor de quórum.
Consulte Oracle Solaris Cluster 3.3 With Network-Attached Storage Device Manual .
phys-schost# xmllint --valid --noout clconfigfile
phys-schost# clquorum add -i clconfigfile devicename
Especifica el nombre del dispositivo que se va a configurar como dispositivo del quórum.
phys-schost# clquorum reset
phys-schost# claccess deny-all
phys-schost# clnode set -p reboot_on_path_failure=enabled
Especifica la propiedad que se va a establecer.
Habilita el reinicio automático del nodo en caso de producirse un error en las rutas de discos compartidos supervisados.
phys-schost# clnode show === Cluster Nodes === Node Name: node … reboot_on_path_failure: enabled …
Ejemplo 3-2 Configuración del software Oracle Solaris Cluster en todos los nodos utilizando un archivo XML
En el siguiente ejemplo, se crea el reflejo de la configuración del clúster y del quórum de un clúster de dos nodos existente en un clúster de dos nodos nuevo. El clúster nuevo se instala con el SO Solaris 10 y se configura sin zonas no globales. La configuración del clúster se exporta desde el nodo del clúster existente, phys-oldhost-1, al archivo XML de configuración del clúster clusterconf.xml. Los nombres de los nodos del clúster nuevo son phys-newhost-1 y phys-newhost-2. El dispositivo que se configura como dispositivo del quórum en el nuevo clúster es d3.
El nombre de indicador phys-newhost-N de este ejemplo señala que el comando se ejecuta en los dos nodos del clúster.
phys-newhost-N# /usr/sbin/clinfo -n clinfo: node is not configured as part of acluster: Operation not applicable phys-oldhost-1# cluster export -o clusterconf.xml Copy clusterconf.xml to phys-newhost-1 and modify the file with valid values phys-newhost-1# xmllint --valid --noout clusterconf.xml No errors are reported phys-newhost-1# cluster create -i clusterconf.xml phys-newhost-N# svcs multi-user-server STATE STIME FMRI online 17:52:55 svc:/milestone/multi-user-server:default phys-newhost-1# clnode status Output shows that both nodes are online phys-newhost-1# clquorum add -i clusterconf.xml d3 phys-newhost-1# clquorum reset
Errores más frecuentes
Configuración incorrecta: si uno o varios nodos no se pueden incorporar al clúster, o si se ha especificado información de configuración incorrecta, primero intente ejecutar de nuevo este procedimiento. Si no se soluciona el problema, realice el procedimiento Cómo anular la configuración del software Oracle Solaris Cluster para solucionar problemas de instalación en cada nodo que se haya configurado incorrectamente para suprimirlo de la configuración del clúster. No es necesario que desinstale los paquetes de software Oracle Solaris Cluster. A continuación, vuelva a realizar este procedimiento.
Pasos siguientes
Vaya a Cómo verificar los modos de configuración e instalación del quórum.
Véase también
Una vez que se haya establecido completamente el clúster, puede crear reflejos de la configuración del resto de los componentes del clúster existente. Si aún no lo ha hecho, modifique los valores de los elementos XML que desee para reflejar la configuración del clúster a la que va a agregar el componente. Por ejemplo, si va a crear reflejos de grupos de recursos, asegúrese de que la entrada <resourcegroupNodeList> contenga nombres de nodo válidos para el clúster nuevo y no los nombres de nodo del clúster que ha reflejado, a no ser que ambos coincidan.
Para crear reflejos de un componente del clúster, ejecute el subcomando export del comando orientado a objetos en el componente del clúster que desee reflejar. Para obtener más información acerca de la sintaxis y las opciones del comando, consulte la página de comando man del objeto del clúster que desee reflejar. En la tabla que aparece a continuación, se muestran los componentes del clúster que se pueden crear desde un archivo XML de configuración del clúster una vez que éste se haya establecido, así como la página de comando man correspondiente al comando que se utiliza para crear reflejos del componente.
|
En este procedimiento, se describe cómo configurar y utilizar el método de instalación personalizada scinstall(1M) de JumpStart. Mediante este método se instalan tanto el SO Solaris como el software Oracle Solaris Cluster en todos los nodos del clúster global y se establece el clúster. También puede utilizar este procedimiento para agregar nodos nuevos a un clúster existente.
Antes de empezar
Realice las siguientes tareas:
Asegúrese de que la configuración del hardware se haya completado correctamente y de que se hayan comprobado las conexiones antes de instalar el software de Solaris. Consulte la Colección de administración del hardware de Oracle Solaris Cluster y la documentación del servidor y del dispositivo de almacenamiento para obtener información acerca de cómo configurar el hardware.
Determine la dirección Ethernet de cada nodo del clúster.
Si utiliza un servicio de nombres, asegúrese de que la información que se especifica a continuación se incluya en los servicios de nombres que utilizan los clientes para acceder a los servicios del clúster. Consulte las directrices de planificación de Direcciones IP de red pública. Consulte la documentación del administrador de sistemas de Solaris para obtener información sobre el uso de servicios de nombres de Solaris.
Asignación de dirección al nombre para todos los nombres de host públicos y las direcciones lógicas.
La dirección IP y el nombre de host del servidor de instalación de JumpStart.
Asegúrese de que se haya completado la planificación de configuración del clúster. Consulte la sección Cómo preparar la instalación del software del clúster para conocer los requisitos y las directrices.
Asegúrese de que todo el software, los parches y el firmware del SO Solaris necesarios para admitir el software Oracle Solaris Cluster estén instalados en el servidor desde el que va a crear el archivo de almacenamiento flash.
Si el software de Solaris ya está instalado en el servidor, debe comprobar que la instalación de Solaris cumpla los requisitos del software Oracle Solaris Cluster y cualquier otro software que pretenda instalar en el clúster. Consulte la sección Cómo instalar el software de Solaris instalar el software de Solaris de forma que cumpla los requisitos del software Oracle Solaris Cluster.
SPARC: Si va a configurar dominios invitados o de E/S de Sun Logical Domains (LDoms) como nodos del clúster, asegúrese de que el software LDoms se haya instalado en cada equipo y de que los dominios cumplan los requisitos de Oracle Solaris Cluster. Consulte SPARC: Instalación del software Sun Logical Domains y creación de dominios.
Asegúrese de que los paquetes de software y los parches de Oracle Solaris Cluster estén instalados en el servidor desde el que va a crear el archivo de almacenamiento flash. Consulte Cómo instalar los paquetes de software de los servicios de datos y la estructura de Oracle Solaris Cluster.
Decida cuál de los modos, típico o personalizado, de la utilidad scinstall va a emplear. En el modo de instalación típica del software Oracle Solaris Cluster, scinstall utiliza automáticamente los siguientes valores predeterminados de configuración.
|
Rellene una de las hojas de trabajo para la configuración del clúster de las que se muestran a continuación en función de si ejecuta la utilidad scinstall en el modo típico o personalizado. Consulte Planificación del entorno de Oracle Solaris Cluster para obtener directrices sobre planificación.
Plantilla de modo típico: si va utilizar el modo típico y aceptar todos los valores predeterminados, rellene la siguiente plantilla.
|
Plantilla del modo personalizado: si va a utilizar el modo personalizado y a personalizar los datos de configuración, rellene la siguiente plantilla.
Nota - Al instalar un clúster de un solo nodo, la utilidad scinstall usa automáticamente la dirección de red privada y la máscara de red predeterminadas, aunque el clúster no utilice una red privada.
|
Siga estas directrices para usar la utilidad scinstall interactiva en este procedimiento:
La utilidad scinstall interactiva completa automáticamente el texto que está escribiendo. Por lo tanto, no pulse la tecla Intro más de una vez si la siguiente pantalla de menú no aparece inmediatamente.
A menos que se indique lo contrario, puede pulsar Control+D para volver al inicio de una serie de preguntas relacionadas o al menú principal.
Las respuestas predeterminadas o aquellas proporcionadas en sesiones anteriores se muestran entre corchetes ([ ]) al final de una pregunta. Pulse la tecla de Intro para introducir la respuesta entre corchetes sin escribirla.
Asegúrese de que el servidor de instalación de JumpStart cumpla los siguientes requisitos:
El servidor de instalación se encuentra en la misma subred que los nodos del clúster o en el servidor de inicio de Solaris de la subred que utilizan los nodos.
El servidor de instalación no es un nodo del clúster.
El servidor de instalación instala una versión del SO Solaris compatible con el software Oracle Solaris Cluster.
Existe un directorio JumpStart personalizado para la instalación del software Oracle Solaris Cluster. Este directorio dir_jumpstart debe cumplir los siguientes requisitos:
Contener una copia de la utilidad check.
Ser exportado mediante NFS para que lo lea el servidor de instalación de JumpStart.
Cada nuevo nodo del clúster se configura como un cliente de la instalación personalizada de JumpStart que utiliza el directorio JumpStart personalizado que se ha configurado para la instalación de Oracle Solaris Cluster.
Siga las instrucciones correspondientes a su plataforma de software y su versión de SO para configurar el servidor de instalación de JumpStart. Consulte Creación de un servidor de perfiles para sistemas conectados en red de Guía de instalación de Solaris 10 10/09: instalación JumpStart personalizada e instalaciones avanzadas.
Consulte también las páginas de comando man setup_install_server(1M) y add_install_client(1M).
Para obtener más información, consulte Adición de un nodo a la lista de nodos autorizados de Guía de administración del sistema de Oracle Solaris Cluster.
Si el software de Solaris ya está instalado en el servidor, debe comprobar que la instalación de Solaris cumpla los requisitos del software Oracle Solaris Cluster y cualquier otro software que pretenda instalar en el clúster. Consulte la sección Cómo instalar el software de Solaris para obtener más información sobre cómo instalar el software de Solaris de forma que cumpla los requisitos del software Oracle Solaris Cluster.
Siga los procedimientos descritos en Cómo instalar el software de Solaris.
Siga los procedimientos descritos en SPARC: Instalación del software Sun Logical Domains y creación de dominios.
Siga los procedimientos descritos en Cómo instalar los paquetes de software de los servicios de datos y la estructura de Oracle Solaris Cluster.
Consulte Niveles de firmware y parches necesarios de Notas de la versión de Oracle Solaris Cluster 3.3 5/11 para conocer la ubicación de los parches y las instrucciones de instalación.
machine# cacaoadm enable
Realice este paso independientemente de si está utilizando un servicio de nombres. Consulte la lista de componentes de Oracle Solaris Cluster cuyas direcciones IP debe agregar en Direcciones IP de red pública.
El comando especificado más abajo elimina la información de la configuración de la consola web. Parte de esta información de configuración es específica del sistema instalado. Debe eliminar esta información antes de crear el archivo de almacenamiento flash. De lo contrario, la información de configuración transferida al nodo del clúster podría impedir que la consola web se iniciara o que interactuara correctamente con el nodo.
# /usr/share/webconsole/private/bin/wcremove -i console
Una vez instale la consola web no configurada en el nodo del clúster y la inicie por primera vez, ésta ejecutará automáticamente su configuración inicial y utilizará la información del nodo del clúster.
Para obtener más información acerca del comando wcremove, consulte Oracle Java Web Console User Identity de System Administration Guide: Basic Administration.
Siga los procedimientos que se explican en el Capítulo 3, Creación de contenedores Solaris Flash (tareas) de Guía de instalación de Solaris 10 10/09: contenedores Flash de Solaris (creación e instalación).
machine# flarcreate -n name archive
Nombre para el archivo de almacenamiento flash.
Nombre de archivo para el archivo de almacenamiento flash, con la ruta completa. Como norma general, el nombre del archivo debe terminar en .flar.
Consulte el Capítulo 4, Gestión de sistemas de archivos de red (descripción general) de Guía de administración del sistema: servicios de red para obtener más información acerca del uso automático de archivos compartidos.
Consulte, además, las páginas de comando man share(1M) y dfstab(4).
En la ruta de medios, sustituya arch por sparc o x86 y ver por 10 en el caso de Solaris 10.
installserver# cd /cdrom/cdrom0Solaris_arch/Product/sun_cluster/ \ Solaris_ver/Tools/ installserver# ./scinstall
Aparecerá el menú principal de scinstall.
Esta opción se utiliza para configurar las secuencias de comandos de finalización personalizadas de JumpStart. JumpStart utiliza estas secuencias de comandos de finalización para instalar el software Oracle Solaris Cluster.
*** Main Menu *** Please select from one of the following (*) options: * 1) Create a new cluster or add a cluster node * 2) Configure a cluster to be JumpStarted from this install server 3) Manage a dual-partition upgrade 4) Upgrade this cluster node * 5) Print release information for this cluster node * ?) Help with menu options * q) Quit Option: 2
El comando scinstall almacena la información de configuración y copia el archivo class predeterminado autoscinstall.class en el directorio /dir_jumpstart/autoscinstall.d/3.2/. Este archivo es parecido al del siguiente ejemplo.
install_type initial_install system_type standalone partitioning explicit filesys rootdisk.s0 free / filesys rootdisk.s1 750 swap filesys rootdisk.s3 512 /globaldevices filesys rootdisk.s7 20 cluster SUNWCuser add package SUNWman add
Por ejemplo, si asignó el segmento 4 al sistema de archivos de dispositivos globales y especificó a scinstall que el nombre del sistema de archivos es /gdevs, tendría que cambiar la entrada /globaldevices del archivo autoscinstall.class de la siguiente manera:
filesys rootdisk.s4 512 /gdevs
|
Consulte la palabra clave archive_location en Palabra clave archive_location de Guía de instalación de Solaris 10 10/09: instalación JumpStart personalizada e instalaciones avanzadas para obtener información acerca de los valores válidos para tipo_recuperación y ubicación cuando se utilizan con la palabra clave archive_location.
cluster SUNWCuser add package SUNWman add
El archivo autoscinstall.class instala el grupo de software de usuario final de Solaris (SUNWCuser).
En la tabla que aparece a continuación, se muestran los paquetes de Solaris necesarios para que algunas funciones de Oracle Solaris Cluster sean compatibles. Estos paquetes no se incluyen en el grupo de software de usuario final de Solaris. Consulte Consideraciones sobre los grupos de software de Solaris para obtener más información.
|
Puede cambiar el archivo class predeterminado de las siguientes formas:
Edite el archivo autoscinstall.class directamente. Estos cambios se aplican a todos los nodos de todos los clústeres que utilicen este directorio JumpStart personalizado.
Actualice el archivo rules para que apunte a otros perfiles y, a continuación, ejecute la utilidad check para validar el archivo rules.
Siempre que el perfil de instalación del SO Solaris cumpla los requisitos mínimos de asignación de sistema de archivos de Oracle Solaris Cluster, el software Oracle Solaris Cluster no pondrá ninguna restricción a la realización de otros cambios en el perfil de instalación. Consulte Particiones de disco del sistema para conocer las directrices relativas a las particiones, así como los requisitos para que el software Oracle Solaris Cluster sea compatible.
Para obtener más información acerca de los perfiles de JumpStart, consulte el Capítulo 3, Preparación de instalaciones JumpStart personalizadas (tareas) de Guía de instalación de Solaris 10 10/09: instalación JumpStart personalizada e instalaciones avanzadas.
Su propia secuencia de comandos de finalización se ejecuta después de la secuencia de comandos de finalización estándar instalada por el comando scinstall. Consulte la información sobre la preparación de instalaciones mediante JumpStart personalizadas en el Capítulo 3, Preparación de instalaciones JumpStart personalizadas (tareas) de Guía de instalación de Solaris 10 10/09: instalación JumpStart personalizada e instalaciones avanzadas para obtener información acerca de la creación de secuencias de comandos de finalización de JumpStart.
Consulte el Paso 15.
Cree un directorio nodo para cada nodo del clúster. También puede utilizar esta convención de nomenclatura para crear vínculos simbólicos en una secuencia de comandos finish compartida.
Siga los procedimientos incluidos en la documentación de los conmutadores para determinar si NDP está habilitado o si debe inhabilitar este protocolo.
Durante la configuración del clúster, el software comprueba que no haya tráfico en la interconexión privada. Si NDP envía paquetes a un adaptador privado cuando se está comprobando si hay tráfico en la interconexión privada, el software presupondrá que la interconexión no es privada y se interrumpirá la configuración del clúster. Por lo tanto, NDP debe inhabilitarse durante la creación del clúster.
Una vez establecido el clúster, puede volver a habilitar NDP en los conmutadores de interconexión privada si desea utilizar esta función.
Utilice el siguiente comando, como superusuario, para iniciar la utilidad cconsole:
adminconsole# /opt/SUNWcluster/bin/cconsole clustername &
La utilidad cconsole abre, además, una ventana maestra desde la que puede enviar los datos introducidos a todas las ventanas individuales de la consola al mismo tiempo.
phys-schost# shutdown -g0 -y -i0
ok boot net - install
Nota - Deje un espacio a cada lado del guión (-) en el comando.
Press any key to reboot. keystroke
Cuando la secuencia de inicialización finalice, aparecerá la pantalla de la utilidad de configuración de la BIOS.
Aparece la lista de dispositivos de inicio.
El número más bajo de los que aparecen a la derecha de las opciones de inicio IBA corresponde al número de puerto Ethernet más bajo. El número más alto de los que aparecen a la derecha de las opciones de inicio IBA corresponde al número de puerto Ethernet más alto.
La secuencia de inicio vuelve a comenzar. Tras otros procesos, se muestra el menú GRUB.
Nota - Si la entrada de JumpStart de Solaris es la única de la lista, también puede esperar hasta que se agote el tiempo de espera de la pantalla de selección. Si no responde en 30 segundos, el sistema continúa automáticamente con la secuencia de inicio.
GNU GRUB version 0.95 (631K lower / 2095488K upper memory) +-------------------------------------------------------------------------+ | Solaris_10 Jumpstart | | | | | +-------------------------------------------------------------------------+ Use the ^ and v keys to select which entry is highlighted. Press enter to boot the selected OS, 'e' to edit the commands before booting, or 'c' for a command-line.
Después de otros procesos, aparece el menú de tipo de instalación.
Nota - Si no escribe el número correspondiente a JumpStart personalizado antes de que finalice el periodo de espera de 30 segundos, el sistema inicia automáticamente la instalación interactiva de Solaris.
Select the type of installation you want to perform: 1 Solaris Interactive 2 Custom JumpStart 3 Solaris Interactive Text (Desktop session) 4 Solaris Interactive Text (Console session) 5 Apply driver updates 6 Single user shell Enter the number of your choice. 2
JumpStart instala el SO de Solaris y el software Oracle Solaris Cluster en todos los nodos. Una vez finalizada correctamente la instalación, todos los nodos se encuentran instalados completamente como nodos nuevos del clúster. La salida de la instalación de Oracle Solaris Cluster se registra en un archivo /var/cluster/logs/install/scinstall.log. N.
Nota - Si no interrumpe la BIOS en ese momento, volverá automáticamente al menú de tipo de instalación. En ese menú, si no se introduce una opción en 30 segundos, el sistema inicia automáticamente una instalación interactiva.
Después de otros procesos, aparece la utilidad de configuración de la BIOS.
Aparece la lista de dispositivos de inicio.
La secuencia de inicio vuelve a comenzar. No se necesita más interacción con el menú GRUB para finalizar el inicio en el modo de clúster.
Si los servicios todavía no están en línea para un nodo, espere hasta que cambie el estado y aparezca como en línea antes de continuar con el siguiente paso.
phys-schost# svcs multi-user-server node STATE STIME FMRI online 17:52:55 svc:/milestone/multi-user-server:default
phys-schost# mount | grep global | egrep -v node@ | awk '{print $1}'
phys-schost-new# mkdir -p mountpoint
Por ejemplo, si un nombre de sistema de archivos devuelto por el comando de montaje es /global/dg-schost-1, ejecute mkdir -p /global/dg-schost-1 en el nodo que está agregando al clúster.
phys-schost# grep vxio /etc/name_to_major vxio NNN
Asegúrese de que se utilice el mismo número vxio en todos los nodos con VxVM instalado.
Asegúrese de que el uso del número vxio esté disponible para todos los nodos que no tengan VxVM instalado.
Si el número vxio ya se está utilizando en un nodo que no tiene VxVM instalado, libere el número en ese nodo. Cambie la entrada /etc/name_to_major para utilizar un número distinto.
set kernel_cage_enable=1
Esta entrada se aplicará una vez reiniciado el sistema. Consulte Guía de administración del sistema de Oracle Solaris Cluster para obtener información sobre los procedimientos de reconfiguración dinámica en una configuración de Oracle Solaris Cluster. Consulte la documentación del servidor para obtener más información sobre la reconfiguración dinámica.
Para inhabilitarlo, agregue la siguiente entrada al archivo /etc/system en cada uno de los nodos del clúster.
exclude:lofs
El cambio realizado en el archivo /etc/system se aplicará en el siguiente reinicio del sistema.
Nota - No puede tener habilitado LOFS si utiliza HA para NFS en un sistema de archivos de alta disponibilidad y automountd se está ejecutando. LOFS puede provocar problemas de conmutación en HA para NFS. Si decide agregar HA para NFS en un sistema de archivos local de alta disponibilidad, realice uno de los siguientes cambios de configuración.
Sin embargo, si configura zonas no globales en el clúster, debe habilitar LOFS en todos los nodos del clúster. Si HA para NFS se encuentra en un sistema de archivos local de alta disponibilidad y debe coexistir con LOFS, utilice una de las demás soluciones en lugar de inhabilitar LOFS.
Inhabilite LOFS.
Inhabilite el daemon automountd.
Excluya de la asignación de montaje automático todos los archivos que formen parte del sistema de archivos local de alta disponibilidad exportado por HA para NFS. Esta opción permite mantener habilitados tanto LOFS como el daemon automountd.
Consulte The Loopback File System de System Administration Guide: Devices and File Systems para obtener información sobre los sistemas de archivos de bucle invertido.
|
Esta entrada se aplicará una vez reiniciado el sistema.
La configuración de este valor permite reiniciar el nodo cuando no pueda acceder a un indicador de inicio de sesión.
grub edit> kernel /platform/i86pc/multiboot kmdb
Estas son algunas de las tareas que requieren un reinicio:
la adición de un nodo nuevo a un clúster existente
la instalación de parches que requieren un reinicio del nodo o del clúster
la realización de cambios en la configuración que requieren un reinicio para surtir efecto.
phys-schost-1# cluster shutdown -y -g0 clustername
Nota - No reinicie el primer nodo instalado en el clúster hasta después de que el clúster se haya cerrado. Hasta que se inhabilite el modo de instalación del clúster, sólo el primer nodo instalado (el que estableció el clúster) cuenta con un voto del quórum. Si un clúster establecido que está aún en el modo de instalación no se cierra antes de que se reinicie el primer nodo instalado, el resto de los nodos del clúster no pueden obtener quórum. En tal caso, el clúster completo se cerraría.
Los nodos del clúster permanecen en el modo de instalación hasta que ejecute por primera vez el comando clsetup. Este comando se ejecuta durante el procedimiento Cómo configurar dispositivos del quórum.
ok boot
Cuando aparezca el menú GRUB, seleccione la entrada de Solaris que corresponda y pulse Intro. El menú de GRUB que aparece es similar al siguiente:
GNU GRUB version 0.95 (631K lower / 2095488K upper memory) +-------------------------------------------------------------------------+ | Solaris 10 /sol_10_x86 | | Solaris failsafe | | | +-------------------------------------------------------------------------+ Use the ^ and v keys to select which entry is highlighted. Press enter to boot the selected OS, 'e' to edit the commands before booting, or 'c' for a command-line.
Para obtener más información acerca del inicio mediante GRUB, consulte Booting an x86 Based System by Using GRUB (Task Map) de System Administration Guide: Basic Administration.
La utilidad scinstall instala y configura todos los nodos del clúster y reinicia el clúster. El clúster se establecerá cuando todos los nodos se hayan iniciado satisfactoriamente en él. La salida de la instalación de Oracle Solaris Cluster se registra en un archivo /var/cluster/logs/install/scinstall.log. N.
phys-schost# smcwebserver start
Para obtener más información, consulte la página de comando man smcwebserver(1M).
phys-schost# clnode status
La salida presenta un aspecto similar al siguiente.
=== Cluster Nodes === --- Node Status --- Node Name Status --------- ------ phys-schost-1 Online phys-schost-2 Online phys-schost-3 Online
Para obtener más información, consulte la página de comando man clnode(1CL).
phys-schost# clnode set -p reboot_on_path_failure=enabled
Especifica la propiedad que se va a establecer.
Habilita el reinicio automático del nodo en caso de producirse un error en las rutas de discos compartidos supervisados.
phys-schost# clnode show === Cluster Nodes === Node Name: node … reboot_on_path_failure: enabled …
Pasos siguientes
Si ha agregado un nodo a un clúster de dos nodos, vaya a Cómo actualizar los dispositivos del quórum tras agregar un nodo a un clúster global.
De lo contrario, vaya al siguiente procedimiento que corresponda:
Si ha instalado un nodo de varios clústeres y ha decidido configurar el quórum automáticamente, la configuración posterior a la instalación finaliza aquí. Vaya a Cómo verificar los modos de configuración e instalación del quórum.
Si ha instalado un clúster de varios nodos y ha rechazado la configuración automática del quórum, lleve a cabo la configuración posterior a la instalación. Vaya a Cómo configurar dispositivos del quórum.
Si ha agregado un nodo nuevo a un clúster existente que utiliza un dispositivo del quórum, vaya a Cómo actualizar los dispositivos del quórum tras agregar un nodo a un clúster global.
Si ha agregado un nodo nuevo a un clúster existente que no utiliza un dispositivo del quórum, compruebe el estado del clúster. Vaya a Cómo verificar los modos de configuración e instalación del quórum.
Si ha instalado un clúster con un único nodo, ya se ha completado el establecimiento del clúster. Vaya a Creación de sistemas de archivos del clúster para instalar el software de administración de volúmenes y configurar el clúster.
Errores más frecuentes
Opción scinstall inhabilitada: si la opción JumpStart del comando scinstall no presenta un asterisco delante significa que está inhabilitada. Esta condición indica que la configuración de JumpStart no se ha completado o bien hay un error en la misma. Para solucionar esta situación, en primer lugar salga de la utilidad scinstall. Repita los procedimientos del Paso 1 al Paso 16 para corregir la configuración de JumpStart y, a continuación, reinicie la utilidad scinstall.
Realice este procedimiento en los nodos de clúster global existentes con el fin de preparar el clúster para la adición de nodos nuevos.
Antes de empezar
Realice las siguientes tareas:
Asegúrese de que todo el hardware necesario esté instalado.
Asegúrese de que el adaptador de host esté instalado en el nodo nuevo. Consulte Oracle Solaris Cluster 3.3 Hardware Administration Manual.
Verifique que todas las interconexiones del clúster sean compatibles con el nodo nuevo. Consulte Oracle Solaris Cluster 3.3 Hardware Administration Manual.
Asegúrese de que los sistemas de almacenamiento adicional estén instalados. Consulte el manual que corresponda de la Colección de administración del hardware de Oracle Solaris Cluster 3.3.
phys-schost# clsetup
Aparece el menú principal.
La utilidad clsetup muestra el mensaje Comando completado satisfactoriamente si la tarea se ha completado sin errores.
phys-schost# clinterconnect show
Debe haber configurado al menos dos cables o dos adaptadores para poder agregar un nodo.
phys-schost# clsetup
Siga las instrucciones para especificar el nombre del nodo que se va a agregar al clúster, el nombre de un adaptador de transporte y si se va a utilizar un conmutador de transporte.
phys-schost# clinterconnect show
La salida del comando debería mostrar información de la configuración de al menos dos interconexiones del clúster.
phys-schost# cluster show-netprops
La salida presenta un aspecto similar al siguiente:
=== Private Network === private_netaddr: 172.16.0.0 private_netmask: 255.255.240.0 max_nodes: 64 max_privatenets: 10 max_zoneclusters: 12
Vaya a Cómo cambiar la configuración de red privada al agregar nodos o redes privadas. Debe cerrar el clúster para cambiar el intervalo de direcciones IP privadas. Esto incluye la conmutación fuera de línea de los grupos de recursos, la inhabilitación de todos los recursos del clúster y, por último, el reinicio en el modo sin clúster antes de reconfigurar el intervalo de direcciones IP.
Pasos siguientes
Configure el software Oracle Solaris Cluster en los nuevos nodos del clúster. Vaya a Cómo configurar el software Oracle Solaris Cluster en nodos de clúster global adicionales (scinstall) o a Cómo configurar el software Oracle Solaris Cluster en nodos de clúster global adicionales (XML).
Realice esta tarea para cambiar el intervalo de direcciones IP privadas del clúster global con el fin de admitir un incremento en uno o varios de los siguientes componentes de clúster:
el número de nodos o de zonas no globales
el número mínimo de redes privadas
El número de clústeres de zona
También puede utilizar este procedimiento para disminuir el intervalo de direcciones IP privadas.
Nota - Para llevar a cabo este procedimiento es necesario cerrar todo el clúster. Si necesita cambiar únicamente la máscara de red para, por ejemplo, proporcionar compatibilidad con los clústeres de zona, no realice este procedimiento. En lugar de ello, ejecute el siguiente comando desde un nodo del clúster global que se esté ejecutando en el modo de clúster para especificar el número de clústeres de zona programado:
phys-schost# cluster set-netprops num_zoneclusters=N
Este comando no requiere que se cierre el clúster.
Antes de empezar
Asegúrese de que acceso de shell remoto (rsh(1M)) o shell seguro (ssh(1)) para el superusuario esté habilitado para todos los nodos del clúster.
# clsetup
Aparecerá el menú principal de clsetup.
Si el nodo contiene zonas no globales, todos los grupos de recursos de las zonas se establecerán fuera de línea.
Aparece el menú de grupos de recursos.
# cluster status -t resource,resourcegroup
Limita la salida al objeto de clúster especificado.
Especifica los recursos.
Especifica los grupos de recursos.
# cluster shutdown -g0 -y
Especifica el tiempo de espera en segundos.
Impide que se emita la solicitud de confirmación del cierre.
ok boot -x
El menú de GRUB que aparece es similar al siguiente:
GNU GRUB version 0.97 (639K lower / 1047488K upper memory) +----------------------------------------------------------------------+ | Solaris 10 /sol_10_x86 | | Solaris failsafe | | | +----------------------------------------------------------------------+ Use the ^ and v keys to select which entry is highlighted. Press enter to boot the selected OS, 'e' to edit the commands before booting, or 'c' for a command-line.
Para obtener más información acerca del inicio mediante GRUB, consulte Booting an x86 Based System by Using GRUB (Task Map) de System Administration Guide: Basic Administration.
La pantalla de los parámetros de inicio de GRUB que aparece es similar a la siguiente:
GNU GRUB version 0.97 (639K lower / 1047488K upper memory) +----------------------------------------------------------------------+ | root (hd0,0,a) | | kernel /platform/i86pc/multiboot | | module /platform/i86pc/boot_archive | |+----------------------------------------------------------------------+ Use the ^ and v keys to select which entry is highlighted. Press 'b' to boot, 'e' to edit the selected command in the boot sequence, 'c' for a command-line, 'o' to open a new line after ('O' for before) the selected line, 'd' to remove the selected line, or escape to go back to the main menu.
[ Minimal BASH-like line editing is supported. For the first word, TAB lists possible command completions. Anywhere else TAB lists the possible completions of a device/filename. ESC at any time exits. ] grub edit> kernel /platform/i86pc/multiboot -x
La pantalla muestra el comando editado.
GNU GRUB version 0.97 (639K lower / 1047488K upper memory) +----------------------------------------------------------------------+ | root (hd0,0,a) | | kernel /platform/i86pc/multiboot -x | | module /platform/i86pc/boot_archive | +----------------------------------------------------------------------+ Use the ^ and v keys to select which entry is highlighted. Press 'b' to boot, 'e' to edit the selected command in the boot sequence, 'c' for a command-line, 'o' to open a new line after ('O' for before) the selected line, 'd' to remove the selected line, or escape to go back to the main menu.-
Nota - Este cambio en el comando del parámetro de inicio del núcleo no se conserva tras el inicio del sistema. La siguiente vez que reinicie el nodo, se iniciará en el modo de clúster. Si, por el contrario, desea iniciar en el modo sin clúster, siga estos pasos para volver a agregar la opción -x al comando del parámetro de inicio del núcleo.
Cuando se ejecuta en un modo que no sea de clúster, la utilidad clsetup muestra el menú principal para operaciones de un modo que no sea de clúster.
La utilidad clsetup muestra la configuración de red privada actual; a continuación, pregunta si desea modificar esta configuración.
La utilidad clsetup muestra la dirección IP de red privada, 172.16.0.0 y pregunta si desea aceptarla de forma predeterminada.
La utilidad clsetup pregunta si desea aceptar la máscara de red predeterminada. Vaya al siguiente paso para escribir su respuesta.
La utilidad clsetup solicita la nueva dirección IP de red privada.
La utilidad clsetup muestra la máscara de red predeterminada; a continuación, pregunta si desea aceptar la máscara de red predeterminada.
La máscara de red predeterminada es 255.255.240.0. Este rango de direcciones IP predeterminado admite un máximo de 64 nodos, 12 clústeres de zona y 10 redes privadas en el clúster.
A continuación, vaya al siguiente paso.
Si rechaza la máscara de red predeterminada, la utilidad clsetup solicita el número de nodos, redes privadas y clústeres de zona que tiene previsto configurar en el clúster.
A partir de estas cantidades, la utilidad clsetup calcula dos máscaras de red como propuesta:
La primera máscara de red es la mínima para admitir el número de nodos, redes privadas y clústeres de zona que haya especificado.
La segunda máscara de red admite el doble de nodos, redes privadas y clústeres de zona que haya especificado para asumir un posible crecimiento en el futuro.
# shutdown -g0 -y
ok boot
Cuando aparezca el menú GRUB, seleccione la entrada de Solaris que corresponda y pulse Intro. El menú de GRUB que aparece es similar al siguiente:
GNU GRUB version 0.95 (631K lower / 2095488K upper memory) +-------------------------------------------------------------------------+ | Solaris 10 /sol_10_x86 | | Solaris failsafe | | | +-------------------------------------------------------------------------+ Use the ^ and v keys to select which entry is highlighted. Press enter to boot the selected OS, 'e' to edit the commands before booting, or 'c' for a command-line.
Para obtener más información acerca del inicio mediante GRUB, consulte Booting an x86 Based System by Using GRUB (Task Map) de System Administration Guide: Basic Administration.
# clsetup
Aparecerá el menú principal de clsetup.
Aparece el menú de grupos de recursos.
Si el nodo contiene zonas no globales, establezca también en línea los grupos de recursos que se encuentren en esas zonas.
Escriba q para salir de cada submenú o pulse Ctrl-C.
Pasos siguientes
Para agregar un nodo a un clúster existente, utilice uno de los siguientes procedimientos:
Cómo instalar el software de Solaris y Oracle Solaris Cluster (JumpStart)
Cómo configurar el software Oracle Solaris Cluster en nodos de clúster global adicionales (XML)
Para crear una zona no global en un nodo de clúster, consulte Configuración de una zona no global en un nodo del clúster global.
Realice este procedimiento para agregar un nodo nuevo a un clúster global existente. Para agregar un nodo nuevo mediante JumpStart, siga los procedimientos descritos en Cómo instalar el software de Solaris y Oracle Solaris Cluster (JumpStart).
Nota - En este procedimiento, se utiliza el formato interactivo del programa scinstall. Para utilizar los formatos no interactivos del comando scinstall como, por ejemplo, al crear secuencias de comandos de instalación, consulte la página de comando man scinstall(1M).
Asegúrese de que los paquetes de software Oracle Solaris Cluster se hayan instalado en el nodo de forma manual o mediante el modo silencioso del programa installer de antes de ejecutar el comando scinstall. Para obtener información sobre cómo ejecutar el programa installer de desde una secuencia de comandos de instalación, consulte Capítulo 5, Installing in Silent Mode de Sun Java Enterprise System 5 Update 1 Installation Guide for UNIX.
Antes de empezar
Realice las siguientes tareas:
Asegúrese de que se haya instalado el SO Solaris para admitir el uso del software Oracle Solaris Cluster.
Si el software de Solaris ya se encuentra instalado en el nodo, debe asegurarse de que la instalación de Solaris cumpla con los requisitos de software Oracle Solaris Cluster y de cualquier otra aplicación que vaya a instalar en el clúster. Consulte la sección Cómo instalar el software de Solaris para obtener información sobre cómo instalar el software de Solaris para que cumpla los requisitos de software Oracle Solaris Cluster.
SPARC: Si va a configurar dominios invitados o de E/S de Sun Logical Domains (LDoms) como nodos del clúster, asegúrese de que el software LDoms se haya instalado en cada equipo y de que los dominios cumplan los requisitos de Oracle Solaris Cluster. Consulte SPARC: Instalación del software Sun Logical Domains y creación de dominios.
Asegúrese de que los paquetes de software y los parches de Oracle Solaris Cluster estén instalados en el nodo. Consulte Cómo instalar los paquetes de software de los servicios de datos y la estructura de Oracle Solaris Cluster.
Asegúrese de que el clúster esté preparado para la adición del nuevo nodo. Consulte Cómo preparar el clúster para nodos de clúster global adicionales.
Decida cuál de los modos, típico o personalizado, de la utilidad scinstall va a emplear. En el modo de instalación típica del software Oracle Solaris Cluster, scinstall utiliza automáticamente los siguientes valores predeterminados de configuración.
|
Rellene una de las hojas de trabajo para la planificación de la configuración de las que aparecen más abajo. Puede obtener directrices para la planificación en Planificación del sistema operativo Oracle Solaris y Planificación del entorno de Oracle Solaris Cluster.
Plantilla de modo típico: si va utilizar el modo típico y aceptar todos los valores predeterminados, rellene la siguiente plantilla.
|
Plantilla del modo personalizado: si va a utilizar el modo personalizado y a personalizar los datos de configuración, rellene la siguiente plantilla.
|
Siga estas directrices para usar la utilidad scinstall interactiva en este procedimiento:
La utilidad scinstall interactiva completa automáticamente el texto que está escribiendo. Por lo tanto, no pulse la tecla Intro más de una vez si la siguiente pantalla de menú no aparece inmediatamente.
A menos que se indique lo contrario, puede pulsar Control+D para volver al inicio de una serie de preguntas relacionadas o al menú principal.
Las respuestas predeterminadas o aquellas proporcionadas en sesiones anteriores se muestran entre corchetes ([ ]) al final de una pregunta. Pulse la tecla de Intro para introducir la respuesta entre corchetes sin escribirla.
phys-schost-new# /usr/cluster/bin/scinstall
Aparecerá el menú principal de scinstall.
*** Main Menu *** Please select from one of the following (*) options: * 1) Create a new cluster or add a cluster node 2) Configure a cluster to be JumpStarted from this install server 3) Manage a dual-partition upgrade 4) Upgrade this cluster node * 5) Print release information for this cluster node * ?) Help with menu options * q) Quit Option: 1
Aparece el menú Nuevo clúster o nodo del clúster.
La utilidad scinstall configura el nodo y lo inicia en el clúster.
phys-schost# eject cdrom
Si los servicios todavía no están en línea para un nodo, espere hasta que cambie el estado y aparezca como en línea antes de continuar con el siguiente paso.
phys-schost# svcs multi-user-server node STATE STIME FMRI online 17:52:55 svc:/milestone/multi-user-server:default
phys-schost# claccess deny-all
También puede usar la utilidad clsetup. Consulte Adición de un nodo a la lista de nodos autorizados de Guía de administración del sistema de Oracle Solaris Cluster para obtener información sobre los procedimientos.
phys-schost# clnode status
La salida presenta un aspecto similar al siguiente.
=== Cluster Nodes === --- Node Status --- Node Name Status --------- ------ phys-schost-1 Online phys-schost-2 Online phys-schost-3 Online
Para obtener más información, consulte la página de comando man clnode(1CL).
phys-schost# showrev -p
phys-schost# clnode set -p reboot_on_path_failure=enabled
Especifica la propiedad que se va a establecer.
Habilita el reinicio automático del nodo en caso de producirse un error en las rutas de discos compartidos supervisados.
phys-schost# clnode show === Cluster Nodes === Node Name: node … reboot_on_path_failure: enabled …
Para inhabilitarlo, agregue la siguiente entrada al archivo /etc/system en cada uno de los nodos del clúster.
exclude:lofs
El cambio realizado en el archivo /etc/system se aplicará en el siguiente reinicio del sistema.
Nota - No puede tener habilitado LOFS si utiliza HA para NFS en un sistema de archivos de alta disponibilidad y automountd se está ejecutando. LOFS puede provocar problemas de conmutación en HA para NFS. Si decide agregar HA para NFS en un sistema de archivos local de alta disponibilidad, realice uno de los siguientes cambios de configuración.
Sin embargo, si configura zonas no globales en el clúster, debe habilitar LOFS en todos los nodos del clúster. Si HA para NFS se encuentra en un sistema de archivos local de alta disponibilidad y debe coexistir con LOFS, utilice una de las demás soluciones en lugar de inhabilitar LOFS.
Inhabilite LOFS.
Inhabilite el daemon automountd.
Excluya de la asignación de montaje automático todos los archivos que formen parte del sistema de archivos local de alta disponibilidad exportado por HA para NFS. Esta opción permite mantener habilitados tanto LOFS como el daemon automountd.
Consulte The Loopback File System de System Administration Guide: Devices and File Systems para obtener información sobre los sistemas de archivos de bucle invertido.
Ejemplo 3-3 Configuración del software Oracle Solaris Cluster en un nodo adicional
En el siguiente ejemplo se muestra el nodo phys-schost-3, que se ha agregado al clúster schost. El nodo patrocinador es phys-schost-1.
*** Adding a Node to an Existing Cluster *** Fri Feb 4 10:17:53 PST 2005 scinstall -ik -C schost -N phys-schost-1 -A trtype=dlpi,name=qfe2 -A trtype=dlpi,name=qfe3 -m endpoint=:qfe2,endpoint=switch1 -m endpoint=:qfe3,endpoint=switch2 Checking device to use for global devices file system ... done Adding node "phys-schost-3" to the cluster configuration ... done Adding adapter "qfe2" to the cluster configuration ... done Adding adapter "qfe3" to the cluster configuration ... done Adding cable to the cluster configuration ... done Adding cable to the cluster configuration ... done Copying the config from "phys-schost-1" ... done Copying the postconfig file from "phys-schost-1" if it exists ... done Copying the Common Agent Container keys from "phys-schost-1" ... done Setting the node ID for "phys-schost-3" ... done (id=1) Setting the major number for the "did" driver ... Obtaining the major number for the "did" driver from "phys-schost-1" ... done "did" driver major number set to 300 Checking for global devices global file system ... done Updating vfstab ... done Verifying that NTP is configured ... done Initializing NTP configuration ... done Updating nsswitch.conf ... done Adding clusternode entries to /etc/inet/hosts ... done Configuring IP Multipathing groups in "/etc/hostname.<adapter>" files Updating "/etc/hostname.hme0". Verifying that power management is NOT configured ... done Ensure that the EEPROM parameter "local-mac-address?" is set to "true" ... done The "local-mac-address?" parameter setting has been changed to "true". Ensure network routing is disabled ... done Updating file ("ntp.conf.cluster") on node phys-schost-1 ... done Updating file ("hosts") on node phys-schost-1 ... done Rebooting ...
Errores más frecuentes
Configuración incorrecta: si uno o varios nodos no se pueden incorporar al clúster, o si se ha especificado información de configuración incorrecta, primero intente ejecutar de nuevo este procedimiento. Si no se soluciona el problema, realice el procedimiento Cómo anular la configuración del software Oracle Solaris Cluster para solucionar problemas de instalación en cada nodo que se haya configurado incorrectamente para suprimirlo de la configuración del clúster. No es necesario que desinstale los paquetes de software Oracle Solaris Cluster. A continuación, vuelva a realizar este procedimiento.
Pasos siguientes
Si ha agregado un nodo a un clúster existente que utiliza un dispositivo del quórum, vaya a Cómo actualizar los dispositivos del quórum tras agregar un nodo a un clúster global.
De lo contrario, vaya a Cómo verificar los modos de configuración e instalación del quórum.
Lleve a cabo este procedimiento para configurar un nuevo nodo del clúster mediante un archivo XML de configuración del clúster. El nodo nuevo puede ser un reflejo de un nodo de clúster existente que ejecute el software Oracle Solaris Cluster 3.3 5/11.
Mediante este procedimiento, se configuran los siguientes componentes del nodo:
Pertenencia de nodos del clúster
Interconexión del clúster
Dispositivos globales
Antes de empezar
Realice las siguientes tareas:
Asegúrese de que se haya instalado el SO Solaris para admitir el uso del software Oracle Solaris Cluster.
Si el software de Solaris ya se encuentra instalado en el nodo, debe asegurarse de que la instalación de Solaris cumpla con los requisitos de software Oracle Solaris Cluster y de cualquier otra aplicación que vaya a instalar en el clúster. Consulte la sección Cómo instalar el software de Solaris para obtener información sobre cómo instalar el software de Solaris para que cumpla los requisitos de software Oracle Solaris Cluster.
SPARC: Si va a configurar dominios invitados o de E/S de Sun Logical Domains (LDoms) como nodos del clúster, asegúrese de que el software LDoms se haya instalado en cada equipo y de que los dominios cumplan los requisitos de Oracle Solaris Cluster. Consulte SPARC: Instalación del software Sun Logical Domains y creación de dominios.
Asegúrese de que los paquetes de software Oracle Solaris Cluster y los parches necesarios estén instalados en el nodo. Consulte Cómo instalar los paquetes de software de los servicios de datos y la estructura de Oracle Solaris Cluster.
Asegúrese de que el clúster esté preparado para la adición del nuevo nodo. Consulte Cómo preparar el clúster para nodos de clúster global adicionales.
phys-schost-new# /usr/sbin/clinfo -n
El software Oracle Solaris Cluster aún no se ha configurado en el nodo. Puede agregar el nodo potencial al clúster.
El software Oracle Solaris Cluster ya está configurado en el nodo. Para poder agregar el nodo a un clúster distinto, debe suprimir la información de configuración del clúster existente.
ok boot -x
El menú de GRUB que aparece es similar al siguiente:
GNU GRUB version 0.97 (639K lower / 1047488K upper memory) +----------------------------------------------------------------------+ | Solaris 10 /sol_10_x86 | | Solaris failsafe | | | +----------------------------------------------------------------------+ Use the ^ and v keys to select which entry is highlighted. Press enter to boot the selected OS, 'e' to edit the commands before booting, or 'c' for a command-line.
Para obtener más información acerca del inicio mediante GRUB, consulte Booting an x86 Based System by Using GRUB (Task Map) de System Administration Guide: Basic Administration.
La pantalla de los parámetros de inicio de GRUB que aparece es similar a la siguiente:
GNU GRUB version 0.97 (639K lower / 1047488K upper memory) +----------------------------------------------------------------------+ | root (hd0,0,a) | | kernel /platform/i86pc/multiboot | | module /platform/i86pc/boot_archive | |+----------------------------------------------------------------------+ Use the ^ and v keys to select which entry is highlighted. Press 'b' to boot, 'e' to edit the selected command in the boot sequence, 'c' for a command-line, 'o' to open a new line after ('O' for before) the selected line, 'd' to remove the selected line, or escape to go back to the main menu.
[ Minimal BASH-like line editing is supported. For the first word, TAB lists possible command completions. Anywhere else TAB lists the possible completions of a device/filename. ESC at any time exits. ] grub edit> kernel /platform/i86pc/multiboot -x
La pantalla muestra el comando editado.
GNU GRUB version 0.97 (639K lower / 1047488K upper memory) +----------------------------------------------------------------------+ | root (hd0,0,a) | | kernel /platform/i86pc/multiboot -x | | module /platform/i86pc/boot_archive | +----------------------------------------------------------------------+ Use the ^ and v keys to select which entry is highlighted. Press 'b' to boot, 'e' to edit the selected command in the boot sequence, 'c' for a command-line, 'o' to open a new line after ('O' for before) the selected line, 'd' to remove the selected line, or escape to go back to the main menu.-
Nota - Este cambio en el comando del parámetro de inicio del núcleo no se conserva tras el inicio del sistema. La siguiente vez que reinicie el nodo, se iniciará en el modo de clúster. Si, por el contrario, desea iniciar en el modo sin clúster, siga estos pasos para volver a agregar la opción -x al comando del parámetro de inicio del núcleo.
phys-schost-new# /usr/cluster/bin/clnode remove
phys-schost# clnode export -o clconfigfile
Especifica el destino de salida.
Nombre del archivo XML de configuración del clúster. El nombre de archivo especificado puede ser un archivo existente o un archivo nuevo que el comando creará.
Para obtener más información, consulte la página de comando man clnode(1CL).
Base el archivo en la jerarquía de elementos que se muestra en la página de comando man clconfiguration(5CL). Puede almacenar el archivo en cualquier directorio.
Consulte la página de comando man clconfiguration(5CL) para obtener información detallada sobre la estructura y el contenido del archivo XML de configuración del clúster.
phys-schost-new# xmllint --valid --noout clconfigfile
phys-schost-new# clnode add -n sponsornode -i clconfigfile
Especifica el nombre de un miembro del clúster existente para que actúe como patrocinador del nodo nuevo.
Especifica el nombre del archivo XML de configuración del clúster que se va a utilizar como fuente de entrada.
phys-schost# clnode set -p reboot_on_path_failure=enabled
Especifica la propiedad que se va a establecer.
Habilita el reinicio automático del nodo en caso de producirse un error en las rutas de discos compartidos supervisados.
phys-schost# clnode show === Cluster Nodes === Node Name: node … reboot_on_path_failure: enabled …
Errores más frecuentes
Configuración incorrecta: si uno o varios nodos no se pueden incorporar al clúster, o si se ha especificado información de configuración incorrecta, primero intente ejecutar de nuevo este procedimiento. Si no se soluciona el problema, realice el procedimiento Cómo anular la configuración del software Oracle Solaris Cluster para solucionar problemas de instalación en cada nodo que se haya configurado incorrectamente para suprimirlo de la configuración del clúster. No es necesario que desinstale los paquetes de software Oracle Solaris Cluster. A continuación, vuelva a realizar este procedimiento.
Pasos siguientes
Si ha agregado un nodo a un clúster que utiliza un dispositivo del quórum, vaya a Cómo actualizar los dispositivos del quórum tras agregar un nodo a un clúster global.
De lo contrario, vaya a Cómo verificar los modos de configuración e instalación del quórum.
Si ha agregado un nodo a un clúster global, debe actualizar la información de configuración de los dispositivos del quórum, independientemente de si utiliza discos compartidos, dispositivos NAS, un servidor de quórum o una combinación de estos elementos. Para ello, quite todos los dispositivos del quórum y actualice el espacio de nombres de dispositivos globales. De forma opcional, puede reconfigurar los dispositivos del quórum que todavía desea utilizar. Así, se registra el nodo nuevo con cada dispositivo del quórum, lo que permite recalcular el recuento de votos basándose en el nuevo número de nodos del clúster.
Los nuevos dispositivos SCSI del quórum que se configuren se establecerán en las reservas SCSI-3.
Antes de empezar
Asegúrese de haber completado la instalación del software Oracle Solaris Cluster en el nodo que ha agregado.
phys-schost# cluster status -t node
La salida del comando muestra todos los dispositivos del quórum y los nodos. La siguiente salida de ejemplo muestra el dispositivo del quórum SCSI actual, d3.
phys-schost# clquorum list d3 …
Lleve a cabo este paso con todos los dispositivos del quórum configurados.
phys-schost# clquorum remove devicename
Especifica el nombre del dispositivo del quórum.
Si los dispositivos del quórum se han borrado correctamente, ninguno de ellos aparece en la lista.
phys-schost# clquorum status
phys-schost# cldevice populate
Nota - Este paso es necesario para prevenir un posible error grave del nodo.
El comando cldevice populate se ejecuta de forma remota en todos los nodos, a pesar de que se emite desde un solo nodo. Para determinar si ha concluido el procesamiento del comando cldevice populate, ejecute el comando siguiente en todos los nodos del clúster.
phys-schost# ps -ef | grep scgdevs
Puede configurar el mismo dispositivo que se utilizó originalmente como dispositivo del quórum o seleccionar un nuevo dispositivo compartido para configurarlo.
De lo contrario, vaya al Paso c.
phys-schost# cldevice list -v
La salida es similar a la siguiente:
DID Device Full Device Path ---------- ---------------- d1 phys-schost-1:/dev/rdsk/c0t0d0 d2 phys-schost-1:/dev/rdsk/c0t6d0 d3 phys-schost-2:/dev/rdsk/c1t1d0 d3 phys-schost-1:/dev/rdsk/c1t1d0 …
phys-schost# clquorum add -t type devicename
Especifica el tipo de dispositivo del quórum. Si no se especifica esta opción, se utilizará el tipo predeterminado, es decir, shared_disk.
phys-schost# clquorum list
La salida debe mostrar todos los dispositivos del quórum y todos los nodos.
Ejemplo 3-4 Actualización de los dispositivos del quórum SCSI tras agregar un nodo a un clúster de dos nodos
En el siguiente ejemplo se identifica el dispositivo del quórum SCSI original d2, se quita ese dispositivo del quórum, se muestran los dispositivos compartidos disponibles, se actualiza el espacio de nombres del dispositivo global, se configura d3 como nuevo dispositivo del quórum SCSI y se verifica el nuevo dispositivo.
phys-schost# clquorum list d2 phys-schost-1 phys-schost-2 phys-schost# clquorum remove d2 phys-schost# clquorum status … --- Quorum Votes by Device --- Device Name Present Possible Status ----------- ------- -------- ------ phys-schost# cldevice list -v DID Device Full Device Path ---------- ---------------- … d3 phys-schost-2:/dev/rdsk/c1t1d0 d3 phys-schost-1:/dev/rdsk/c1t1d0 … phys-schost# cldevice populate phys-schost# ps -ef - grep scgdevs phys-schost# clquorum add d3 phys-schost# clquorum list d3 phys-schost-1 phys-schost-2
Pasos siguientes
Vaya a Cómo verificar los modos de configuración e instalación del quórum.
Nota - No es necesario que configure los dispositivos del quórum si se da alguna de las siguientes circunstancias:
Ha elegido la configuración automática del quórum durante la configuración del software Oracle Solaris Cluster.
Ha instalado un clúster de un solo nodo.
Ha agregado un nodo a un clúster global existente y ya dispone de un número suficiente de votos del quórum asignados.
En estos casos, pase a Cómo verificar los modos de configuración e instalación del quórum.
Realice este procedimiento una sola vez cuando el clúster nuevo se haya formado completamente. Utilice este procedimiento para asignar los votos del quórum y, a continuación, para quitar el clúster del modo de instalación.
Antes de empezar
Lleve a cabo los siguientes pasos para configurar un servidor de quórum o un dispositivo NAS como dispositivo del quórum.
Servidores del quórum: para configurar un servidor de quórum como dispositivo del quórum, haga lo siguiente:
Instale el software Servidor de quórum en la máquina de host del servidor de quórum e inicie este último. Para obtener información acerca de la instalación y el inicio del servidor de quórum, consulte Instalación y configuración del software Servidor de quórum.
Compruebe que los conmutadores de red conectados directamente con los nodos del clúster cumplan uno de los criterios siguientes:
El conmutador es compatible con el protocolo RSTP.
El conmutador tiene habilitado el modo de puerto rápido.
Se necesita una de estas funciones para que la comunicación entre los nodos del clúster y el servidor de quórum sea inmediata. Si el conmutador retrasa esta comunicación significativamente, el clúster lo interpreta como la pérdida del dispositivo del quórum.
Debe disponer de la siguiente información:
un nombre para asignarlo al dispositivo del quórum configurado
la dirección IP de la máquina de host del servidor de quórum
el número de puerto del servidor de quórum.
Dispositivos NAS: para configurar un dispositivo de almacenamiento conectado a red (NAS) como dispositivo del quórum, haga lo siguiente:
Instale el hardware y el software del dispositivo NAS. Consulte Oracle Solaris Cluster 3.3 With Network-Attached Storage Device Manual y la documentación del dispositivo para conocer los requisitos y los procedimientos de instalación del hardware y el software de NAS.
En el caso de dispositivos NAS de Network Appliance, deberá disponer también de la siguiente información:
el nombre del dispositivo NAS
el ID de LUN del dispositivo NAS
Pretende utilizar un servidor de quórum.
La red pública utiliza la máscara de subred de longitud variable, también llamada enrutamiento de interdominios sin clases (CIDR).
Si utiliza un servidor de quórum, pero la red pública utiliza subredes con clases, como se define en RFC 791, no es necesario que realice este paso.
La siguiente entrada de ejemplo contiene una máscara de red y una dirección IP de red pública:
10.11.30.0 255.255.255.0
nodename netmask + broadcast +
phys-schost# cluster status -t node
No es necesario que inicie sesión como superusuario para ejecutar este comando.
phys-schost-1# cldevice list -v
La salida es similar a la siguiente:
DID Device Full Device Path ---------- ---------------- d1 phys-schost-1:/dev/rdsk/c0t0d0 d2 phys-schost-1:/dev/rdsk/c0t6d0 d3 phys-schost-2:/dev/rdsk/c1t1d0 d3 phys-schost-1:/dev/rdsk/c1t1d0 …
Nota - Los discos compartidos que elija deben ser válidos para su uso como dispositivo del quórum. Consulte la sección Dispositivos de quórum para obtener más información acerca de la selección de dispositivos del quórum.
Utilice la salida scdidadm del Paso a para identificar el nombre de ID de dispositivo de cada disco compartido que esté configurando como dispositivo del quórum. Por ejemplo, la salida del Paso a muestra que phys-schost-1 y phys-schost-2 comparten el dispositivo global d3.
phys-schost# cldevice show device === DID Device Instances === DID Device Name: /dev/did/rdsk/dN … default_fencing: nofencing …
Otra opción es, simplemente, inhabilitar el aislamiento del disco individual para que no se aplique independientemente del valor establecido en la propiedad global_fencing. Vaya directamente al Paso c
phys-schost# cluster show -t global === Cluster === Cluster name: cluster … global_fencing: nofencing …
Nota - Si la propiedad default_fencing de un disco individual se ha establecido en global, el aislamiento de ese disco estará inhabilitado siempre que la propiedad global_fencing, que afecta a todo el clúster, se haya establecido en nofencing o nofencing-noscrub . Si se cambia la propiedad global_fencing a un valor que permite el aislamiento, éste se habilitará en los discos cuya propiedad default_fencing se haya establecido en global.
phys-schost# cldevice set \ -p default_fencing=nofencing-noscrub device
phys-schost# cldevice show device
phys-schost# clsetup
Aparece la pantalla Configuración inicial del clúster.
Nota - Si en lugar de ello aparece el menú principal, quiere decir que la configuración inicial del clúster ya se ha realizado correctamente. Vaya directamente al Paso 11.
|
En el caso de los servidores del quórum, especifique también la siguiente información:
la dirección IP del host del servidor de quórum
el número de puerto que usa el servidor de quórum para comunicarse con los nodos del clúster
En el caso de los dispositivos NAS de Network Appliance, especifique además la siguiente información:
el nombre del dispositivo NAS
el ID de LUN del dispositivo NAS
Una vez que la utilidad clsetup haya establecido la configuración y el número de votos del quórum en el clúster, aparecerá el mensaje Inicialización del clúster completa. La utilidad le lleva de nuevo al menú principal.
Pasos siguientes
Verifique que la configuración del quórum sea correcta y que el modo de instalación esté inhabilitado. Vaya a Cómo verificar los modos de configuración e instalación del quórum.
Errores más frecuentes
Proceso de clsetup interrumpido: si el proceso de configuración del quórum se interrumpiera o no se completara correctamente, vuelva a ejecutar clsetup .
Cambios en el recuento de votos del quórum: si más adelante se incrementa o reduce el número de conexiones de nodos con un dispositivo de quórum, el número de votos de quórum no se recalcula de forma automática. Puede volver a establecer el voto del quórum correcto quitando cada uno de los dispositivos del quórum y agregándolos después nuevamente a la configuración uno por uno. En el caso de un clúster de dos nodos, agregue un nuevo dispositivo del quórum antes de quitar y volver a añadir el dispositivo del quórum original. A continuación, quite el dispositivo del quórum temporal. Consulte el procedimiento sobre cómo modificar una lista de nodos de un dispositivo del quórum en el Capítulo 6, Administración de quórum de Guía de administración del sistema de Oracle Solaris Cluster.
Dispositivo del quórum inalcanzable: si aparecen mensajes en los nodos de clúster que indican que un dispositivo del quórum es inalcanzable, o si se producen errores de los nodos de clúster con el mensaje CMM: Unable to acquire the quorum device, es posible que haya un problema con el dispositivo del quórum o con su ruta. Compruebe que el dispositivo del quórum y su ruta estén operativos.
Si el problema persiste, utilice otro dispositivo del quórum. Si desea utilizar el mismo dispositivo del quórum, puede aumentar su tiempo de espera, como se indica a continuación:
Nota - En Oracle Real Application Clusters (Oracle RAC), no modifique el tiempo de espera del quórum predeterminado de 25 segundos. En determinados casos en que una parte de la partición del clúster cree que la otra está inactiva ("cerebro dividido"), un tiempo de espera superior puede hacer que falle el proceso de migración tras error de Oracle RAC debido a la finalización del tiempo de espera de recursos VIP. Si el dispositivo del quórum que se utiliza no es adecuado para un tiempo de espera predeterminado de 25 segundos, utilice otro dispositivo.
1. Conviértase en superusuario.
2. En cada nodo del clúster, edite el archivo /etc/system como superusuario para establecer el tiempo de espera en un valor alto.
En el ejemplo siguiente se establece un tiempo de espera en 700 segundos.
phys-schost# vi /etc/system … set cl_haci:qd_acquisition_timer=700
3. Cierre el clúster desde un nodo.
phys-schost-1# cluster shutdown -g0 -y
4. Vuelva a iniciar cada nodo en el clúster.
Los cambios que se efectúan en el archivo /etc/system se aplican después de reiniciar.
Lleve a cabo este procedimiento para verificar que la configuración del quórum se haya completado correctamente, en caso de que lo haya configurado, y que el modo de instalación del clúster esté inhabilitado.
No es necesario ser superusuario para ejecutar estos comandos.
phys-schost% clquorum list
La salida muestra los dispositivos del quórum y los nodos.
phys-schost% cluster show -t global | grep installmode installmode: disabled
La creación e instalación del clúster se ha completado.
Pasos siguientes
Determine cuál de las tareas de la lista que se muestra a continuación corresponde a la siguiente tarea que se realizará en la configuración de su clúster. Si necesita realizar más de una tarea de las de esta lista, vaya a la que aparezca en primer lugar.
Si desea cambiar algún nombre de host privado, vaya a Cómo cambiar nombres de host privados.
Si no ha instalado su propio archivo /etc/inet/ntp.conf antes de instalar el software Oracle Solaris Cluster, instale o cree el archivo de configuración de NTP. Vaya a Cómo configurar Network Time Protocol (NTP).
Si desea configurar IPsec en la interconexión privada, vaya a Cómo configurar la arquitectura de seguridad IP (IPsec) en la interconexión privada del clúster.
Para instalar un administrador de volúmenes, vaya al Capítulo 4, Configuración del software Solaris Volume Manager y al Capítulo 5, Instalación y configuración de Veritas Volume Manager.
Nota - Si ha agregado un nodo nuevo a un clúster que utiliza VxVM, debe realizar una de las siguientes tareas:
Instale VxVM en ese nodo.
Modifique el archivo /etc/name_to_major de ese nodo para permitir su existencia simultánea con VxVM.
Siga los procedimientos descritos en Cómo instalar el software Veritas Volume Manager para llevar a cabo las tareas necesarias.
Para crear sistemas de archivos del clúster, vaya a Cómo crear sistemas de archivos del clúster.
Para crear zonas no globales en un nodo, vaya a Cómo crear una zona no global en un nodo del clúster global.
SPARC: Si desea configurar Sun Management Center para que supervise el clúster, consulte SPARC: Instalación del módulo de Oracle Solaris Cluster para Sun Management Center .
Instale las aplicaciones de terceros, registre los tipos de recursos y configure los grupos de recursos y los servicios de datos. Consulte la documentación proporcionada con el software de la aplicación y Oracle Solaris Cluster Data Services Planning and Administration Guide.
Antes de poner el clúster en funcionamiento, realice un registro de línea de base de la configuración del clúster para futuros diagnósticos. Vaya a Cómo registrar los datos de diagnóstico de la configuración del clúster.
Véase también
Realice una copia de seguridad de la configuración del clúster.
Si dispone de una copia de seguridad de la configuración del clúster, le resultará más sencillo recuperarla cuando sea necesario. Para obtener más información, consulte Copias de seguridad de la configuración del clúster de Guía de administración del sistema de Oracle Solaris Cluster.
Realice esta tarea si no desea utilizar los nombres de host privados predeterminados, clusternodeid_nodo-priv, que se asignan durante la instalación del software Oracle Solaris Cluster.
Nota - No lleve a cabo este procedimiento una vez se hayan configurado e iniciado las aplicaciones y los servicios de datos. De lo contrario, algunas aplicaciones o servicios de datos podrían continuar utilizando el nombre de host privado antiguo después de haber cambiado el mismo, lo que causaría conflictos en el nombre de host. Si hubiera alguna aplicación o algún servicio de datos en ejecución, deténgalos antes de realizar este procedimiento.
Realice este procedimiento en un nodo activo del clúster.
phys-schost# clsetup
Aparece el menú principal de clsetup.
Aparece el menú Nombres de host privados.
Repita este paso con cada nombre de host que desee cambiar.
phys-schost# clnode show -t node | grep privatehostname privatehostname: clusternode1-priv privatehostname: clusternode2-priv privatehostname: clusternode3-priv
Pasos siguientes
Determine cuál de las tareas de la lista que se muestra a continuación corresponde a la siguiente tarea que se realizará en la configuración de su clúster. Si necesita realizar más de una tarea de las de esta lista, vaya a la que aparezca en primer lugar.
Si no ha instalado su propio archivo /etc/inet/ntp.conf antes de instalar el software Oracle Solaris Cluster, instale o cree el archivo de configuración de NTP. Vaya a Cómo configurar Network Time Protocol (NTP).
Si desea configurar IPsec en la interconexión privada, vaya a Cómo configurar la arquitectura de seguridad IP (IPsec) en la interconexión privada del clúster.
Para instalar un administrador de volúmenes, vaya al Capítulo 4, Configuración del software Solaris Volume Manager y al Capítulo 5, Instalación y configuración de Veritas Volume Manager.
Nota - Si ha agregado un nodo nuevo a un clúster que utiliza VxVM, debe realizar una de las siguientes tareas:
Instale VxVM en ese nodo.
Modifique el archivo /etc/name_to_major de ese nodo para permitir su existencia simultánea con VxVM.
Siga los procedimientos descritos en Cómo instalar el software Veritas Volume Manager para llevar a cabo las tareas necesarias.
Para crear sistemas de archivos del clúster, vaya a Cómo crear sistemas de archivos del clúster.
Para crear zonas no globales en un nodo, vaya a Cómo crear una zona no global en un nodo del clúster global.
SPARC: Si desea configurar Sun Management Center para que supervise el clúster, consulte SPARC: Instalación del módulo de Oracle Solaris Cluster para Sun Management Center .
Instale las aplicaciones de terceros, registre los tipos de recursos y configure los grupos de recursos y los servicios de datos. Consulte la documentación proporcionada con el software de la aplicación y Oracle Solaris Cluster Data Services Planning and Administration Guide.
Antes de poner el clúster en funcionamiento, realice un registro de línea de base de la configuración del clúster para futuros diagnósticos. Vaya a Cómo registrar los datos de diagnóstico de la configuración del clúster.
La distribución automática de carga de grupos de recursos puede habilitarse entre nodos o zonas mediante el establecimiento de límites de carga. Asigna factores de carga a grupos de recursos y los factores de carga se corresponden con los límites de carga de los nodos.
El funcionamiento predeterminado es distribuir carga de grupos de recursos de forma uniforme entre todos los nodos disponibles. Cada grupo de recursos se inicia en un nodo de la lista de nodos. El Administrador de grupos de recursos (RGM) elige el nodo que satisfaga mejor la directiva de distribución de carga configurada. Debido a que el RGM asigna grupos de recursos a los nodos, los factores de carga de los grupos de recursos de cada nodo se suman para proporcionar una carga total. La carga total se compara respecto a los límites de carga de ese nodo.
Puede configurar límites de carga en un clúster global o en clúster de zona.
Los factores que se establecen para controlar la distribución de carga en cada nodo incluyen límites de carga, prioridad de grupo de recursos y modo preferente. En el clúster global, la propiedad Concentrate_load puede establecerse para seleccionar la directiva de distribución de carga preferida: concentrar la carga de grupos de recursos en el menor número posible de nodos sin sobrepasar los límites, o bien distribuir la carga lo más uniformemente posible entre todos los nodos disponibles. El comportamiento predeterminado es distribuir la carga de los grupos de recursos. Cada grupo de recursos continúa limitado a ejecutarse únicamente en los nodos de su lista de nodos, sea cual sea la configuración del factor de carga y del límite de carga.
Nota - Para configurar la distribución de carga de grupos de recursos puede utilizar la línea de comandos, la interfaz de Oracle Solaris Cluster Manager o la utilidad clsetup. El procedimiento siguiente explica cómo configurar la distribución de carga de grupos de recursos mediante la utilidad clsetup. Si desea obtener instrucciones sobre el uso de la línea de comandos para llevar a cabo estos procedimientos, consulte Configuración de los límites de carga de Guía de administración del sistema de Oracle Solaris Cluster.
Esta sección incluye los procedimientos siguientes:
Cada nodo del clúster o de zona puede tener su propio conjunto de límites de carga. Asigna factores de carga a grupos de recursos y los factores de carga se corresponden con los límites de carga de los nodos. Puede definir límites de carga flexibles (que se pueden sobrepasar) o rígidos (que no se pueden sobrepasar).
phys-schost# clsetup
Aparece el menú de clsetup.
Aparece el menú Otras tareas del clúster.
En pantalla aparece el menú Administrar distribución de carga de grupo de recursos.
En pantalla aparece el menú Administrar límites de carga.
Puede crear, modificar o eliminar un límite de carga.
Si desea establecer un límite de carga en un segundo nodo, seleccione el número de opción correspondiente al segundo nodo y pulse Intro. Una vez seleccionados todos los nodos en los que desea configurar límites de carga, escriba q y pulse Intro.
Por ejemplo, escriba mem_load como nombre de un límite de carga.
Si ha escrito sí, escriba el valor del límite flexible y pulse Intro.
Si ha escrito sí, escriba el valor del límite rígido y pulse Intro.
Aparece el mensaje Comando completado satisfactoriamente, junto con los límites flexible y rígido de carga correspondientes a los nodos seleccionados. Pulse Intro para continuar.
Vuelva al menú anterior; para ello, escriba q y pulse Intro.
También puede configurar un grupo de recursos para que tenga una prioridad superior y reducir así la probabilidad de ser desplazado de un nodo específico. Si se superan los límites de carga, los grupos de recursos con prioridad inferior podrían quedarse sin conexión.
phys-schost# clsetup
Aparece el menú de clsetup.
Aparece el menú Otras tareas del clúster.
En pantalla aparece el menú Administrar distribución de carga de grupo de recursos.
Aparece en pantalla el menú Establecer prioridad por grupo de recursos.
Se muestra el valor establecido para la prioridad. El valor predeterminado de Prioridad es 500.
En pantalla aparece el menú Administrar distribución de carga de grupo de recursos.
Un factor de carga es un valor que se asigna a la carga de un límite de carga. Los factores de carga se asignan a un grupo de recursos y dichos factores de carga se corresponden con la definición de límites de carga de los nodos.
phys-schost# clsetup
Aparece el menú de clsetup.
Aparece el menú Otras tareas del clúster.
En pantalla aparece el menú Administrar distribución de carga de grupo de recursos.
Aparece en pantalla el menú Establecer factores de carga por grupo de recursos.
Por ejemplo, puede establecer un factor de carga denominado mem_load en el grupo de recursos seleccionado escribiendo mem_load@50. Pulse Ctrl+D cuando haya terminado.
En pantalla aparece el menú Administrar distribución de carga de grupo de recursos.
La propiedad preemption_mode determina si se aplicará el modo preferente a un grupo de recursos de un nodo mediante un grupo de recursos de prioridad superior debido a la sobrecarga de nodos. La propiedad indica el coste de mover un grupo de recursos de un nodo a otro.
phys-schost# clsetup
Aparece el menú de clsetup.
Aparece el menú Otras tareas del clúster.
En pantalla aparece el menú Administrar distribución de carga de grupo de recursos.
Aparece en pantalla el menú Establecer modo preferente por grupo de recursos.
Si el grupo de recursos tiene establecido un modo preferente, se muestra de manera similar a la siguiente:
The preemption mode property of "rg11" is currently set to the following: preemption mode: Has_Cost
Las tres opciones son Has_cost, No_cost o Never.
En pantalla aparece el menú Administrar distribución de carga de grupo de recursos.
Si la propiedad Concentrate_load se establece en False, el clúster distribuye grupos de carga de manera uniforme en todos los nodos disponibles. Si se establece en True, el clúster intenta concentrar carga de grupos de recursos en el menor número posible de nodos sin sobrepasar los límites de carga. De forma predeterminada, la propiedad Concentrate_load está establecida en False. La propiedad Concentrate_load sólo puede establecerse en un clúster global; no en uno de zona. En un clúster de zona, el valor predeterminado es siempre False.
phys-schost# clsetup
Aparece el menú de clsetup.
Aparece el menú Otras tareas del clúster.
En pantalla aparece el menú Establecer la propiedad Concentrate_load del clúster.
Se muestra el valor actual: TRUE o bien FALSE.
Aparece el menú Otras tareas del clúster.
Nota - Si ha instalado su propio archivo /etc/inet/ntp.conf antes de instalar el software Oracle Solaris Cluster, no es necesario que lleve a cabo este procedimiento. Determine el paso que debe realizar a continuación:
Realice esta tarea para crear o modificar el archivo de configuración de NTP después de llevar a cabo una de las siguientes tareas:
Instalar el software Oracle Solaris Cluster
Agregar un nodo a un clúster global existente
Cambiar el nombre de host privado de un nodo del clúster global
Si ha agregado un nodo a un clúster de un solo nodo, debe asegurarse de que el archivo de configuración de NTP que utilice se copie en el nodo de clúster original y en el nodo nuevo.
Nota - No cambie el nombre de ntp.conf.cluster por ntp.conf.
Si el archivo /etc/inet/ntp.conf.cluster no existe en el nodo, es posible que disponga de un archivo /etc/inet/ntp.conf de una instalación del software Oracle Solaris Cluster anterior. El software Oracle Solaris Cluster crea el archivo /etc/inet/ntp.conf.cluster como archivo de configuración de NTP si no existe un archivo /etc/inet/ntp.conf en el nodo. En tal caso, realice las modificaciones que se describen a continuación en ese archivo ntp.conf.
Si ha cambiado el nombre de host privado de cualquier nodo, asegúrese de que el archivo de configuración de NTP contenga el nuevo nombre de host privado.
El contenido del archivo de configuración de NTP debe ser idéntico en todos los nodos del clúster.
Espere a que el comando finalice correctamente en todos los nodos antes de continuar con el Paso 5.
phys-schost# svcadm disable ntp
phys-schost# /etc/init.d/xntpd.cluster start
La secuencia de comandos de inicio xntpd.cluster busca el archivo /etc/inet/ntp.conf en primer lugar.
Si existe el archivo ntp.conf, la secuencia de comandos se cierra inmediatamente sin necesidad de iniciar el daemon de NTP.
Si no existe el archivo ntp.conf, pero sí el archivo ntp.conf.cluster, la secuencia de comandos inicia el daemon de NTP. En ese caso, la secuencia de comandos utiliza el archivo ntp.conf.cluster como archivo de configuración de NTP.
phys-schost# svcadm enable ntp
Pasos siguientes
Determine cuál de las tareas de la lista que se muestra a continuación corresponde a la siguiente tarea que se realizará en la configuración de su clúster. Si necesita realizar más de una tarea de las de esta lista, vaya a la que aparezca en primer lugar.
Si desea configurar IPsec en la interconexión privada, vaya a Cómo configurar la arquitectura de seguridad IP (IPsec) en la interconexión privada del clúster.
Para instalar un administrador de volúmenes, vaya al Capítulo 4, Configuración del software Solaris Volume Manager y al Capítulo 5, Instalación y configuración de Veritas Volume Manager.
Nota - Si ha agregado un nodo nuevo a un clúster que utiliza VxVM, debe realizar una de las siguientes tareas:
Instale VxVM en ese nodo.
Modifique el archivo /etc/name_to_major de ese nodo para permitir su existencia simultánea con VxVM.
Siga los procedimientos descritos en Cómo instalar el software Veritas Volume Manager para llevar a cabo las tareas necesarias.
Para crear sistemas de archivos del clúster, vaya a Cómo crear sistemas de archivos del clúster.
Para crear zonas no globales en un nodo, vaya a Cómo crear una zona no global en un nodo del clúster global.
SPARC: Si desea configurar Sun Management Center para que supervise el clúster, consulte SPARC: Instalación del módulo de Oracle Solaris Cluster para Sun Management Center .
Instale las aplicaciones de terceros, registre los tipos de recursos y configure los grupos de recursos y los servicios de datos. Consulte la documentación proporcionada con el software de la aplicación y Oracle Solaris Cluster Data Services Planning and Administration Guide.
Antes de poner el clúster en funcionamiento, realice un registro de línea de base de la configuración del clúster para futuros diagnósticos. Vaya a Cómo registrar los datos de diagnóstico de la configuración del clúster.
Puede configurar la arquitectura de seguridad IP (IPsec) de forma que la interfaz clprivnet proporcione una comunicación TCP/IP segura en la interconexión del clúster.
Para obtener información acerca de IPsec, consulte Parte IV, Seguridad IP de Guía de administración del sistema: servicios IP y la página de comando man ipsecconf(1M). Para obtener información sobre la interfaz clprivnet, consulte la página de comando man clprivnet(7).
Realice este procedimiento en todos los nodos de votación de clúster global que desee configurar para que utilicen IPsec.
phys-schost# ifconfig clprivnet0
Siga las instrucciones que aparecen en la sección Cómo proteger el tráfico entre dos sistemas con IPsec de Guía de administración del sistema: servicios IP. Además, tenga en cuenta las siguientes directrices:
Asegúrese de que los valores de los parámetros de configuración de esas direcciones sean coherentes en todos los nodos asociados.
Configure cada directiva como una línea independiente del archivo de configuración.
Para implementar IPsec sin necesidad de reiniciarlo, siga las instrucciones que encontrará en el ejemplo del procedimiento Protección del tráfico con IPsec sin necesidad de reiniciar.
Para obtener más información acerca de la norma sa unique, consulte la página de comando man ipsecconf(1M).
Incluya la dirección IP clprivnet del nodo local.
Esta opción ayuda al controlador a hacer un uso óptimo del ancho de banda de la red privada del clúster, lo que ofrece una alta granularidad de la distribución y un mayor rendimiento. La interfaz clprivnet utiliza el índice de parámetros de seguridad (SPI) del paquete para segmentar el tráfico.
Agregue esta entrada a las reglas de directivas configuradas para los transportes del clúster. Esta configuración establece el tiempo del que disponen las asociaciones de seguridad para volver a generarse cuando se reinicia un nodo del clúster y limita el tiempo de un nodo reiniciado para volver a unirse al clúster. 30 segundos debería ser un valor adecuado.
phys-schost# vi /etc/inet/ike/config … { label "clust-priv-interconnect1-clust-priv-interconnect2" … p2_idletime_secs 30 } …
Pasos siguientes
Determine cuál de las tareas de la lista que se muestra a continuación corresponde a la siguiente tarea que se realizará en la configuración de su clúster. Si necesita realizar más de una tarea de las de esta lista, vaya a la que aparezca en primer lugar.
Para instalar un administrador de volúmenes, vaya al Capítulo 4, Configuración del software Solaris Volume Manager y al Capítulo 5, Instalación y configuración de Veritas Volume Manager.
Nota - Si ha agregado un nodo nuevo a un clúster que utiliza VxVM, debe realizar una de las siguientes tareas:
Instale VxVM en ese nodo.
Modifique el archivo /etc/name_to_major de ese nodo para permitir su existencia simultánea con VxVM.
Siga los procedimientos descritos en Cómo instalar el software Veritas Volume Manager para llevar a cabo las tareas necesarias.
Para crear sistemas de archivos del clúster, vaya a Cómo crear sistemas de archivos del clúster.
Para crear zonas no globales en un nodo, vaya a Cómo crear una zona no global en un nodo del clúster global.
SPARC: Si desea configurar Sun Management Center para que supervise el clúster, consulte SPARC: Instalación del módulo de Oracle Solaris Cluster para Sun Management Center .
Instale las aplicaciones de terceros, registre los tipos de recursos y configure los grupos de recursos y los servicios de datos. Consulte la documentación proporcionada con el software de la aplicación y Oracle Solaris Cluster Data Services Planning and Administration Guide.
De lo contrario, si ha completado todas las tareas de instalación y configuración del software, valide el clúster. Vaya a Cómo validar el clúster.
Una vez completada la configuración del clúster, utilice el comando cluster check para validar la configuración y la funcionalidad del clúster. Para obtener más información, consulte la página de comando man cluster(1CL).
Consejo - Para realizar consultas o resolver problemas de forma más sencilla, en cada validación que ejecute, utilice la opción -o dir_salida para especificar un subdirectorio para los archivos de registro. Si se reutiliza el nombre de un subdirectorio que ya existe, se eliminarán todos los archivos existentes en dicho subdirectorio. Por tanto, para asegurarse de que haya disponibles archivos de registro para futuras consultas, especifique un nombre de subdirectorio exclusivo para cada comprobación de clúster que vaya a efectuar.
Antes de empezar
Asegúrese de haber completado la instalación y la configuración de todos los componentes de hardware y software en el clúster, incluidos el firmware y los parches.
Vaya a la ficha Parches y actualizaciones de My Oracle Support. Mediante la búsqueda avanzada, seleccione "Solaris Cluster" como producto y especifique "comprobar" en el campo de descripción para localizar los parches de Oracle Solaris Cluster que contengan comprobaciones. Aplique los parches que aún no estén instalados en el clúster.
# cluster check -v -o outputdir
Modo detallado
Redirige la salida al subdirectorio dir_salida.
El comando ejecuta todas las comprobaciones básicas disponibles. No se ve afectada ninguna función del clúster.
# cluster check -v -k interactive -o outputdir
Especifica comprobaciones de validación interactivas en ejecución
El comando ejecuta todas las comprobaciones de validación interactivas disponibles y le solicita información necesaria sobre el clúster. No se ve afectada ninguna función del clúster.
# cluster list-checks -k functional
Por ejemplo, una comprobación funcional puede desencadenar que el nodo genere avisos graves o una conmutación por error a otro nodo.
# cluster list-checks -v -C checkID
Especifica una comprobación concreta.
# cluster check -v -k functional -C checkid -o outputdir
Especifica comprobaciones de validación funcionales en ejecución.
Responda a las peticiones de la comprobación para confirmar la ejecución de la comprobación y para cualquier información o acciones que deba realizar.
Nota - Para fines de registro, especifique un nombre de subdirectorio dir_salida único para cada comprobación que se ejecuta. Si vuelve a utilizar un nombre dir_salida, la salida para la nueva comprobación sobrescribe el contenido existente del subdirectorio dir_salida reutilizado.
Ejemplo 3-5 Listado de comprobaciones de validación interactivas
En el siguiente ejemplo se enumeran todas las comprobaciones interactivas que están disponibles para ejecutarse en el clúster. En la salida del ejemplo aparece un muestreo de posibles comprobaciones; las comprobaciones disponibles reales varían en cada configuración.
# cluster list-checks -k interactive Some checks might take a few moments to run (use -v to see progress)... I6994574 : (Moderate) Fix for GLDv3 interfaces on cluster transport vulnerability applied?
Ejemplo 3-6 Ejecución de una comprobación de validación funcional
El siguiente ejemplo muestra primero el listado detallado de comprobaciones funcionales. La descripción detallada aparece en una lista para la comprobación F6968101, que indica que la comprobación podría alterar los servicios del clúster. El clúster se elimina de la producción. La comprobación funcional se ejecuta con salida detallada registrada en el subdirectorio funct.test.F6968101.12Jan2011. En la salida de ejemplo aparece un muestreo de posibles comprobaciones; las comprobaciones disponibles reales varían en cada configuración.
# cluster list-checks -k functional F6968101 : (Critical) Perform resource group switchover F6984120 : (Critical) Induce cluster transport network failure - single adapter. F6984121 : (Critical) Perform cluster shutdown F6984140 : (Critical) Induce node panic … # cluster list-checks -v -C F6968101 F6968101: (Critical) Perform resource group switchover Keywords: SolarisCluster3.x, functional Applicability: Applicable if multi-node cluster running live. Check Logic: Select a resource group and destination node. Perform '/usr/cluster/bin/clresourcegroup switch' on specified resource group either to specified node or to all nodes in succession. Version: 1.2 Revision Date: 12/10/10 Take the cluster out of production # cluster check -k functional -C F6968101 -o funct.test.F6968101.12Jan2011 F6968101 initializing... initializing xml output... loading auxiliary data... starting check run... pschost1, pschost2, pschost3, pschost4: F6968101.... starting: Perform resource group switchover ============================================================ >>> Functional Check <<< 'Functional' checks exercise cluster behavior. It is recommended that you do not run this check on a cluster in production mode.' It is recommended that you have access to the system console for each cluster node and observe any output on the consoles while the check is executed. If the node running this check is brought down during execution the check must be rerun from this same node after it is rebooted into the cluster in order for the check to be completed. Select 'continue' for more details on this check. 1) continue 2) exit choice: 1 ============================================================ >>> Check Description <<< … Follow onscreen directions
Pasos siguientes
Antes de poner el clúster en funcionamiento, realice un registro de línea de base de la configuración del clúster para futuros diagnósticos. Vaya a Cómo registrar los datos de diagnóstico de la configuración del clúster.
Cuando termine de configurar el clúster global y antes de ponerlo en funcionamiento, use la utilidad Oracle Explorer para registrar la información de línea de base acerca del clúster. Estos datos se pueden utilizar en caso de que se diera una necesidad de solucionar un problema con el clúster.
Services Tools Bundle contiene los paquetes de Oracle Explorer SUNWexplo y SUNWexplu. Consulte http://www.oracle.com/us/support/systems/premier/services-tools-bundle-sun-systems-163717.html para obtener información sobre la descarga y la instalación del software.
Utilice el comando adecuado para su plataforma:
|
Para más información, consulte la página de comando man explorer(1M) en el directorio /opt/SUNWexplo/man/man1m/ y Oracle Explorer User’s Guide.
El archivo de salida explorer se guarda en el directorio /opt/SUNWexplo/output/ como explorer.id_host.nombre_host-fecha.tar.gz.
La base de datos de Oracle Explorer pondrá la salida de explorer a disposición de la asistencia técnica de Oracle cuando estos datos resulten necesarios para ayudar a diagnosticar un problema técnico del clúster.
|
Para utilizar FTP o HTTPS para enviar archivos de Oracle Explorer, también puede seguir los procedimientos que se indican en Oracle Explorer User’s Guide .