Omitir Vínculos de navegación | |
Salir de la Vista de impresión | |
Guía de instalación del software de Oracle Solaris Cluster Oracle Solaris Cluster 3.3 3/13 (Español) |
1. Planificación de la configuración de Oracle Solaris Cluster
2. Instalación del software en los nodos del cluster global
3. Establecimiento del cluster global
Establecimiento de un nuevo cluster global o de un nuevo nodo de cluster global
Cómo configurar el software Oracle Solaris Cluster en todos los nodos (scinstall)
Cómo configurar el software Oracle Solaris Cluster en todos los nodos (XML)
Instalación de Oracle Solaris y el software de Oracle Solaris Cluster (JumpStart)
Cómo preparar el cluster para nodos de cluster global adicionales
Cómo cambiar la configuración de red privada al agregar nodos o redes privadas
Configuración del software de Oracle Solaris Cluster en nodos de cluster global adicionales (XML)
Cómo actualizar los dispositivos del quórum tras agregar un nodo a un cluster global
Cómo configurar dispositivos del quórum
Cómo verificar los modos de configuración e instalación del quórum
Cómo cambiar nombres de host privados
Configuración de la distribución de carga de grupos de recursos en los nodos
Configuración de los límites de carga para un nodo
Definición de una prioridad para un grupo de recursos
Definición de los factores de carga para un grupo de recursos
Definición del modo de preferencia para un grupo de recursos
Concentración de la carga en menos nodos del cluster
Configuración de Network Time Protocol (NTP)
Configuración de la arquitectura de seguridad IP (IPsec) en la interconexión privada del cluster
Cómo registrar los datos de diagnóstico de la configuración del cluster
4. Configuración del software de Solaris Volume Manager
5. Creación de un sistema de archivos del cluster
6. Creación de zonas no globales y clusters de zona
Esta sección ofrece información y procedimientos para establecer un cluster global nuevo y para agregar un nodo a un cluster existente. Los nodos del cluster global pueden ser máquinas físicas, (sólo SPARC) dominios de E/S de Oracle VM Server para SPARC o dominios invitados de Oracle VM Server para SPARC. Un cluster puede estar formado por cualquier combinación de estos tipos de nodo. Antes de comenzar a realizar estas tareas, asegúrese de haber instalado los paquetes de software del sistema operativo Oracle Solaris, la estructura de Oracle Solaris Cluster, y otros productos, tal como se describe en Instalación del software.
Los mapas de tareas siguientes enumeran las tareas que deben efectuarse en el caso de un cluster global nuevo o en el de un nodo que se ha agregado a un cluster global ya existente. Realice los procedimientos en el orden indicado.
Tabla 3-1 Mapa de tareas: establecer un nuevo cluster global
|
Tabla 3-2 Mapa de tareas: agregar un nodo a un cluster global
|
Lleve a cabo este procedimiento en uno de los nodos del cluster global para configurar el software de Oracle Solaris Cluster en todos los nodos del mismo.
Nota - En este procedimiento, se utiliza el formato interactivo del programa scinstall. Para utilizar los formatos no interactivos del comando scinstall como, por ejemplo, al crear secuencias de comandos de instalación, consulte la página del comando man scinstall(1M).
Asegúrese de que los paquetes de software de Oracle Solaris Cluster se hayan instalado en el nodo manualmente o con el modo silencioso del programa installer antes de ejecutar el comando scinstall. Para obtener información sobre cómo ejecutar el programa installer desde una secuencia de comandos de instalación, consulte Capítulo 5, Installing in Silent Mode de Sun Java Enterprise System 5 Update 1 Installation Guide for UNIX.
Antes de empezar
Realice las siguientes tareas:
Asegúrese de que se haya instalado el SO Oracle Solaris para admitir el software de Oracle Solaris Cluster.
Si el software de Oracle Solaris ya se encuentra instalado en el nodo, debe asegurarse de que la instalación de Oracle Solaris cumpla con los requisitos de software de Oracle Solaris Cluster y de cualquier otro software que vaya a instalar en el cluster. Consulte Cómo instalar el software de Oracle Solaris para obtener más información sobre cómo instalar el software de Oracle Solaris para cumplir con los requisitos del software de Oracle Solaris Cluster.
SPARC: Si va a configurar dominios invitados o de E/S de Oracle VM Server para SPARC como nodos del cluster, asegúrese de que el software de Oracle VM Server para SPARC se encuentre instalado en todas las máquinas físicas y de que los dominios cumplan los requisitos de Oracle Solaris Cluster. Consulte SPARC: Instalación del software de Oracle VM Server para SPARC y creación de dominios.
Asegúrese de que los paquetes de software y los parches de Oracle Solaris Cluster estén instalados en todos los nodos. Consulte Instalación de los paquetes de software de los servicios de datos y la estructura de Oracle Solaris Cluster.
Decida cuál de los modos, típico o personalizado, de la utilidad scinstall va a emplear.
En el modo de instalación típica del software de Oracle Solaris Cluster, scinstall utiliza automáticamente los siguientes valores predeterminados de configuración.
|
Rellene una de las hojas de trabajo para la configuración del cluster de las que se muestran a continuación en función de si ejecuta la utilidad scinstall en el modo típico o personalizado.
Plantilla de modo típico: si va utilizar el modo típico y aceptar todos los valores predeterminados, rellene la siguiente plantilla.
|
Plantilla del modo personalizado: si va a utilizar el modo personalizado y a personalizar los datos de configuración, rellene la siguiente plantilla.
Nota - Al instalar un cluster de un solo nodo, la utilidad scinstall asigna automáticamente la dirección de red privada y la máscara de red predeterminadas, aunque el cluster no utilice una red privada.
|
Siga estas directrices para usar la utilidad scinstall interactiva en este procedimiento:
La utilidad scinstall interactiva completa automáticamente el texto que está escribiendo. Por lo tanto, no pulse la tecla Intro más de una vez si la siguiente pantalla de menú no aparece inmediatamente.
A menos que se indique lo contrario, puede pulsar Control + D para volver al inicio de una serie de preguntas relacionadas o al menú principal.
Las respuestas predeterminadas o aquellas proporcionadas en sesiones anteriores se muestran entre corchetes ([ ]) al final de una pregunta. Pulse la tecla de Intro para introducir la respuesta entre corchetes sin escribirla.
Active acceso de shell remoto (rsh(1M)) o shell seguro (ssh(1)) para el superusuario en todos los nodos del cluster.
Siga los procedimientos incluidos en la documentación de los conmutadores para determinar si NDP está habilitado o si debe inhabilitar este protocolo.
Durante la configuración del cluster, el software comprueba que no haya tráfico en la interconexión privada. Si NDP envía paquetes a un adaptador privado cuando se está comprobando si hay tráfico en la interconexión privada, el software presupondrá que la interconexión no es privada y se interrumpirá la configuración del cluster. Por lo tanto, NDP debe inhabilitarse durante la creación del cluster.
Una vez establecido el cluster, puede volver a habilitar NDP en los conmutadores de interconexión privada si desea utilizar esta función.
phys-schost# /usr/cluster/bin/scinstall
*** Main Menu *** Please select from one of the following (*) options: * 1) Create a new cluster or add a cluster node * 2) Configure a cluster to be JumpStarted from this install server 3) Manage a dual-partition upgrade 4) Upgrade this cluster node * 5) Print release information for this cluster node * ?) Help with menu options * q) Quit Option: 1
Aparece el menú Nuevo cluster o nodo del cluster.
Aparece el menú Typical or Custom Mode (Modo típico o personalizado).
Aparece la pantalla Create a New Cluster (Crear un cluster). Lea los requisitos y, a continuación, pulse Control+D para continuar.
La utilidad scinstall instala y configura todos los nodos del cluster y reinicia el cluster. El cluster se establece cuando todos los nodos se han iniciado con éxito en el cluster. La salida de la instalación de Oracle Solaris Cluster se registra en el archivo /var/cluster/logs/install/scinstall.log.N.
Si los servicios todavía no están en línea para un nodo, espere hasta que cambie el estado y aparezca como en línea antes de continuar con el siguiente paso.
phys-schost# svcs multi-user-server node STATE STIME FMRI online 17:52:55 svc:/milestone/multi-user-server:default
phys-schost# clnode status
La salida presenta un aspecto similar al siguiente.
=== Cluster Nodes === --- Node Status --- Node Name Status --------- ------ phys-schost-1 Online phys-schost-2 Online phys-schost-3 Online
Para obtener más información, consulte la página del comando man clnode(1CL).
Esta función reinicia automáticamente un nodo cuando todas las rutas de disco compartido supervisadas presentan errores y siempre que al menos uno de los discos sea accesible desde otro nodo del cluster.
Nota - En el momento de configuración inicial, la supervisión de la ruta del disco se activa de manera predeterminada para todos los dispositivos detectados.
phys-schost# clnode set -p reboot_on_path_failure=enabled
Especifica la propiedad que se va a establecer.
Habilita el reinicio automático del nodo en caso de producirse un error en las rutas de discos compartidos supervisados.
phys-schost# clnode show === Cluster Nodes === Node Name: node … reboot_on_path_failure: enabled …
Para desactivar el LOFS, agregue la siguiente entrada al archivo /etc/system en cada nodo del cluster.
exclude:lofs
El cambio realizado en el archivo /etc/system se aplicará en el siguiente reinicio del sistema.
Nota - No puede tener el LOFS activado si utiliza HA para NFS en un sistema de archivos local de alta disponibilidad tener y y ejecuta automountd. El LOFS puede causar problemas de conmutación para HA para NFS. Si elige agregar HA para NFS en un sistema de archivos local de alta disponibilidad, debe realizar uno de los siguientes cambios de configuración.
Sin embargo, si configura las zonas no globales en el cluster, debe activar LOFS en todos los nodos del cluster. Si HA para NFS en un sistema de archivos local de alta disponibilidad debe coexistir con LOFS, use una de las otras soluciones en lugar de desactivar LOFS.
Desactive LOFS.
Inhabilite el daemon automountd.
Excluya del mapa del montador automático todos los archivos que formen parte del sistema de archivos locales de alta disponibilidad exportado por HA para NFS. Esta opción permite conservar tanto el LOFS como el daemon automountd activados.
Consulte The Loopback File System de System Administration Guide: Devices and File Systems para obtener información acerca de los sistemas de archivos de bucle de retorno.
Ejemplo 3-1 Configuración del software Oracle Solaris Cluster en todos los nodos
En el siguiente ejemplo, se muestran los mensajes de progreso de scinstall que se van registrando a medida que scinstall completa tareas de configuración en el cluster de dos nodos, schost. El cluster se instala desde phys-schost-1 mediante la utilidad scinstall en el modo típico. El otro nodo del cluster es phys-schost-2. Los nombres de los adaptadores son bge2 y bge3. La selección automática del dispositivo del quórum está habilitada.
Installation and Configuration Log file - /var/cluster/logs/install/scinstall.log.24747 Configuring global device using lofi on phys-schost-1: done Starting discovery of the cluster transport configuration. The Oracle Solaris Cluster software is already installed on "phys-schost-1". The Oracle Solaris Cluster software is already installed on "phys-schost-2". Starting discovery of the cluster transport configuration. The following connections were discovered: phys-schost-1:bge2 switch1 phys-schost-2:bge2 phys-schost-1:bge3 switch2 phys-schost-2:bge3 Completed discovery of the cluster transport configuration. Started cluster check on "phys-schost-1". Started cluster check on "phys-schost-2". cluster check completed with no errors or warnings for "phys-schost-1". cluster check completed with no errors or warnings for "phys-schost-2". Removing the downloaded files … done Configuring "phys-schost-2" … done Rebooting "phys-schost-2" … done Configuring "phys-schost-1" … done Rebooting "phys-schost-1" … Log file - /var/cluster/logs/install/scinstall.log.24747 Rebooting …
Errores más frecuentes
Configuración incorrecta: si uno o varios nodos no se pueden incorporar al cluster, o si se ha especificado información de configuración incorrecta, primero intente ejecutar de nuevo este procedimiento. Si no se soluciona el problema, realice el procedimiento Cómo anular la configuración del software Oracle Solaris Cluster para solucionar problemas de instalación en cada nodo que se haya configurado incorrectamente para suprimirlo de la configuración del cluster. No es necesario que desinstale los paquetes de software Oracle Solaris Cluster. A continuación, vuelva a ejecutar este procedimiento.
Pasos siguientes
Si ha instalado un cluster con un único nodo, ya se ha completado el establecimiento del cluster. Vaya a Creación de sistemas de archivos del cluster para instalar el software de administración de volúmenes y configurar el cluster.
Si ha instalado un nodo de varios clusters y ha decidido configurar el quórum automáticamente, la configuración posterior a la instalación finaliza aquí. Vaya a Cómo verificar los modos de configuración e instalación del quórum.
Si ha instalado un cluster de varios nodos y ha rechazado la configuración automática del quórum, lleve a cabo la configuración posterior a la instalación. Vaya a Cómo configurar dispositivos del quórum.
Si pretende configurar algún dispositivo del quórum en el cluster, vaya a Cómo configurar dispositivos del quórum.
De lo contrario, vaya a Cómo verificar los modos de configuración e instalación del quórum.
Lleve a cabo este procedimiento para configurar un cluster global nuevo mediante un archivo XML de configuración del cluster. El cluster nuevo puede ser un reflejo de un cluster existente que ejecute el software Oracle Solaris Cluster 3.3 3/13.
Mediante este procedimiento, se configuran los siguientes componentes del cluster:
Nombre del cluster
Pertenencia de nodos del cluster
Interconexión de cluster
Dispositivos globales
Antes de empezar
Realice las siguientes tareas:
Asegúrese de que se haya instalado el SO Oracle Solaris para admitir el software de Oracle Solaris Cluster.
Si el software de Oracle Solaris ya se encuentra instalado en el nodo, debe asegurarse de que la instalación de Oracle Solaris cumpla con los requisitos de software de Oracle Solaris Cluster y de cualquier otro software que vaya a instalar en el cluster. Consulte Cómo instalar el software de Oracle Solaris para obtener más información sobre cómo instalar el software de Oracle Solaris para cumplir con los requisitos del software de Oracle Solaris Cluster.
Asegúrese de que se haya instalado el SO Oracle Solaris para admitir el software de Oracle Solaris Cluster.
Si el software de Oracle Solaris ya se encuentra instalado en el nodo, debe asegurarse de que la instalación de Oracle Solaris cumpla con los requisitos de software de Oracle Solaris Cluster y de cualquier otro software que vaya a instalar en el cluster. Consulte Cómo instalar el software de Oracle Solaris para obtener más información sobre cómo instalar el software de Oracle Solaris para cumplir con los requisitos del software de Oracle Solaris Cluster.
SPARC: Si va a configurar dominios invitados o de E/S de Oracle VM Server para SPARC como nodos del cluster, asegúrese de que el software de Oracle VM Server para SPARC se encuentre instalado en todas las máquinas físicas y de que los dominios cumplan los requisitos de Oracle Solaris Cluster. Consulte SPARC: Instalación del software de Oracle VM Server para SPARC y creación de dominios.
Asegúrese de que el software y los parches de Oracle Solaris Cluster 3.3 3/13 estén instalados en todos los nodos que vaya a configurar. Consulte Instalación de los paquetes de software de los servicios de datos y la estructura de Oracle Solaris Cluster.
phys-schost# /usr/sbin/clinfo -n
clinfo: node is not configured as part of acluster: Operation not applicable
Este mensaje indica que el software de Oracle Solaris Cluster todavía no se ha configurado en el nodo potencial.
La devolución de un ID de nodo indica que el software de Oracle Solaris Cluster ya está configurado en el nodo.
Si el cluster ejecuta una versión anterior del software de Oracle Solaris Cluster y usted desea instalar el software de Oracle Solaris Cluster 3.3 3/13, realice los procedimientos de actualización que se indican en la Oracle Solaris Cluster Upgrade Guide.
Si el software de Oracle Solaris Cluster aún no se ha configurado en ningún nodo potencial del cluster, vaya al paso 2.
Siga los procedimientos incluidos en la documentación de los conmutadores para determinar si NDP está habilitado o si debe inhabilitar este protocolo.
Durante la configuración del cluster, el software comprueba que no haya tráfico en la interconexión privada. Si NDP envía paquetes a un adaptador privado cuando se está comprobando si hay tráfico en la interconexión privada, el software presupondrá que la interconexión no es privada y se interrumpirá la configuración del cluster. Por lo tanto, NDP debe inhabilitarse durante la creación del cluster.
Una vez establecido el cluster, puede volver a habilitar NDP en los conmutadores de interconexión privada si desea utilizar esta función.
phys-schost# cluster export -o clconfigfile
Especifica el destino de salida.
Nombre del archivo XML de configuración del cluster. El nombre de archivo especificado puede ser un archivo existente o un archivo nuevo que el comando creará.
Para obtener más información, consulte la página del comando man cluster(1CL).
Puede almacenar el archivo en cualquier directorio accesible para el resto de los hosts que configurará como nodos del cluster.
Base el archivo en la jerarquía de elementos que se muestra en la página del comando man clconfiguration(5CL). Puede almacenar el archivo en cualquier directorio accesible para el resto de los hosts que configurará como nodos del cluster.
Para poder establecer un cluster, los siguientes componentes deben poseer valores válidos en el archivo XML de configuración del cluster:
Nombre del cluster
Nodos del cluster
Transporte del cluster
De manera predeterminada, el cluster se crea con el espacio de nombres de dispositivos globales configurado en un dispositivo lofi. Si, en cambio, necesita utilizar un sistema de archivos dedicado en el cual crear los dispositivos globales, agregue la siguiente propiedad al elemento <propertyList> para cada nodo que vaya a usar una partición en lugar de un dispositivo lofi.
… <nodeList> <node name="node" id="N"> <propertyList> … <property name="globaldevfs" value="/filesystem-name"> … </propertyList> </node> …
Cuando modifique información de configuración exportada desde un cluster existente, tenga en cuenta que se utilizan algunos valores que deben cambiar para reflejar el nuevo cluster, como los nombres de nodo, en las definiciones de varios objetos del cluster.
Consulte la página del comando man clconfiguration(5CL) para obtener información detallada sobre la estructura y el contenido del archivo XML de configuración del cluster.
phys-schost# /usr/share/src/xmllint --valid --noout clconfigfile
Consulte la página del comando man xmllint(1) para obtener más información.
phys-schost# cluster create -i clconfigfile
Especifica el nombre del archivo XML de configuración del cluster que se va a utilizar como fuente de entrada.
Si los servicios todavía no están en línea para un nodo, espere hasta que cambie el estado y aparezca como en línea antes de continuar con el siguiente paso.
phys-schost# svcs multi-user-server node STATE STIME FMRI online 17:52:55 svc:/milestone/multi-user-server:default
phys-schost# clnode status
La salida presenta un aspecto similar al siguiente.
=== Cluster Nodes === --- Node Status --- Node Name Status --------- ------ phys-schost-1 Online phys-schost-2 Online phys-schost-3 Online
Para obtener más información, consulte la página del comando man clnode(1CL).
Consulte Parches y niveles de firmware requeridos de Notas de la versión de Oracle Solaris Cluster 3.3 3/13 para conocer la ubicación de parches y obtener instrucciones de instalación.
Para desactivar el LOFS, agregue la siguiente entrada al archivo /etc/system en cada nodo del cluster.
exclude:lofs
El cambio realizado en el archivo /etc/system se aplicará en el siguiente reinicio del sistema.
Nota - No puede tener el LOFS activado si utiliza HA para NFS en un sistema de archivos local de alta disponibilidad tener y y ejecuta automountd. El LOFS puede causar problemas de conmutación para HA para NFS. Si elige agregar HA para NFS en un sistema de archivos local de alta disponibilidad, debe realizar uno de los siguientes cambios de configuración.
Sin embargo, si configura las zonas no globales en el cluster, debe activar LOFS en todos los nodos del cluster. Si HA para NFS en un sistema de archivos local de alta disponibilidad debe coexistir con LOFS, use una de las otras soluciones en lugar de desactivar LOFS.
Desactive LOFS.
Inhabilite el daemon automountd.
Excluya del mapa del montador automático todos los archivos que formen parte del sistema de archivos locales de alta disponibilidad exportado por HA para NFS. Esta opción permite conservar tanto el LOFS como el daemon automountd activados.
Consulte The Loopback File System de System Administration Guide: Devices and File Systems para obtener información acerca de los sistemas de archivos de bucle de retorno.
Debe configurar un dispositivo del quórum si ha creado un cluster de dos nodos. Si decide no utilizar el archivo XML de configuración del cluster para crear un dispositivo del quórum requerido, vaya a Cómo configurar dispositivos del quórum.
Siga las instrucciones incluidas en Instalación y configuración del software Servidor de quórum.
Consulte Oracle Solaris Cluster 3.3 3/13 With Network-Attached Storage Device Manual .
phys-schost# xmllint --valid --noout clconfigfile
phys-schost# clquorum add -i clconfigfile devicename
Especifica el nombre del dispositivo que se va a configurar como dispositivo del quórum.
phys-schost# clquorum reset
phys-schost# claccess deny-all
Nota - En el momento de configuración inicial, la supervisión de la ruta del disco se activa de forma predeterminada para todos los dispositivos detectados.
phys-schost# clnode set -p reboot_on_path_failure=enabled
Especifica la propiedad que se va a establecer.
Habilita el reinicio automático del nodo en caso de producirse un error en las rutas de discos compartidos supervisados.
phys-schost# clnode show === Cluster Nodes === Node Name: node … reboot_on_path_failure: enabled …
Ejemplo 3-2 Configuración del software Oracle Solaris Cluster en todos los nodos utilizando un archivo XML
En el siguiente ejemplo, se crea el reflejo de la configuración del cluster y del quórum de un cluster de dos nodos existente en un cluster de dos nodos nuevo. El cluster nuevo se instala con el SO Oracle Solaris 10 y no se configura con zonas no globales. La configuración del cluster se exporta desde el nodo del cluster existente, phys-oldhost-1, al archivo XML de configuración del cluster clusterconf.xml. Los nombres de los nodos del cluster nuevo son phys-newhost-1 y phys-newhost-2. El dispositivo que se configura como dispositivo del quórum en el nuevo cluster es d3.
El nombre de indicador phys-newhost-N de este ejemplo señala que el comando se ejecuta en los dos nodos del cluster.
phys-newhost-N# /usr/sbin/clinfo -n clinfo: node is not configured as part of acluster: Operation not applicable phys-oldhost-1# cluster export -o clusterconf.xml Copy clusterconf.xml to phys-newhost-1 and modify the file with valid values phys-newhost-1# xmllint --valid --noout clusterconf.xml No errors are reported phys-newhost-1# cluster create -i clusterconf.xml phys-newhost-N# svcs multi-user-server STATE STIME FMRI online 17:52:55 svc:/milestone/multi-user-server:default phys-newhost-1# clnode status Output shows that both nodes are online phys-newhost-1# clquorum add -i clusterconf.xml d3 phys-newhost-1# clquorum reset
Errores más frecuentes
Configuración incorrecta: si uno o varios nodos no se pueden incorporar al cluster, o si se ha especificado información de configuración incorrecta, primero intente ejecutar de nuevo este procedimiento. Si no se soluciona el problema, realice el procedimiento Cómo anular la configuración del software Oracle Solaris Cluster para solucionar problemas de instalación en cada nodo que se haya configurado incorrectamente para suprimirlo de la configuración del cluster. No es necesario que desinstale los paquetes de software Oracle Solaris Cluster. A continuación, vuelva a ejecutar este procedimiento.
Pasos siguientes
Vaya a Cómo verificar los modos de configuración e instalación del quórum.
Véase también
Una vez que se haya establecido completamente el cluster, puede crear reflejos de la configuración del resto de los componentes del cluster existente. Si aún no lo ha hecho, modifique los valores de los elementos XML que desee para reflejar la configuración del cluster a la que va a agregar el componente. Por ejemplo, si va a duplicar grupos de recursos, asegúrese de que la entrada <resourcegroupNodeList> contenga nombres de nodo válidos para el cluster nuevo y no los nombres de nodo del cluster que ha reflejado, a no ser que ambos coincidan.
Para crear reflejos de un componente del cluster, ejecute el subcomando export del comando orientado a objetos en el componente del cluster que desee reflejar. Para obtener más información acerca de la sintaxis y las opciones del comando, consulte la página del comando man del objeto del cluster que desee reflejar. En la tabla que aparece a continuación, se muestran los componentes del cluster que se pueden crear desde un archivo XML de configuración del cluster una vez que éste se haya establecido, así como la página del comando man correspondiente al comando que se utiliza para duplicar el componente.
|
En este procedimiento, se describe cómo configurar y utilizar el método de instalación personalizada scinstall(1M) de JumpStart. Mediante este método se instalan tanto el SO Oracle Solaris como el software de Oracle Solaris Cluster en todos los nodos del cluster global y se establece el cluster. También puede utilizar este procedimiento para agregar nuevos nodos a un cluster existente.
Antes de empezar
Realice las siguientes tareas:
Asegúrese de que la configuración del hardware se haya completado correctamente y de que se hayan comprobado las conexiones antes de instalar el software de Oracle Solaris. Consulte la documentación del hardware de Oracle Solaris Cluster y la documentación del dispositivo de almacenamiento y del servidor para obtener información detallada sobre cómo configurar el hardware.
Determine la dirección Ethernet de cada nodo del cluster.
Si utiliza un servicio de nombres, asegúrese de que la siguiente información se agregue a cualquiera de los servicios de nombres que utilizan los clientes para acceder a los servicios de clusters. Consulte la sección Direcciones IP de red pública para obtener directrices de planificación. Consulte la documentación del administrador de sistemas de Oracle Solaris para obtener información sobre el uso de servicios de nombres de Oracle Solaris.
Asignaciones de dirección a nombre para todos los nombres de host públicos y las direcciones lógicas
La dirección IP y el nombre de host del servidor de instalación JumpStart
Asegúrese de que se haya completado la planificación de configuración del cluster. Consulte la sección Cómo preparar la instalación del software del cluster para obtener información sobre los requisitos y las directrices.
En el servidor a partir del que creará el archivo flash, asegúrese de que todo el software, el firmware y los parches de Oracle Solaris que sean necesarios para admitir el software de Oracle Solaris Cluster estén instalados.
Si el software de Oracle Solaris ya se encuentra instalado en el servidor, debe asegurarse de que la instalación de Oracle Solaris cumpla con los requisitos de software de Oracle Solaris Cluster y de cualquier otro software que vaya a instalar en el cluster. Consulte Cómo instalar el software de Oracle Solaris para obtener más información sobre cómo instalar el software de Oracle Solaris para cumplir con los requisitos del software de Oracle Solaris Cluster.
SPARC: Si va a configurar dominios invitados o de E/S de Oracle VM Server para SPARC como nodos del cluster, asegúrese de que el software de Oracle VM Server para SPARC se encuentre instalado en todas las máquinas físicas y de que los dominios cumplan los requisitos de Oracle Solaris Cluster. Consulte SPARC: Instalación del software de Oracle VM Server para SPARC y creación de dominios.
Asegúrese de que los parches y los paquetes de software de Oracle Solaris Cluster estén instalados en el servidor a partir del que se crea el archivo flash. Consulte Instalación de los paquetes de software de los servicios de datos y la estructura de Oracle Solaris Cluster.
Decida cuál de los modos, típico o personalizado, de la utilidad scinstall va a emplear. En el modo de instalación típica del software Oracle Solaris Cluster, scinstall utiliza automáticamente los siguientes valores predeterminados de configuración.
|
Rellene una de las hojas de trabajo para la configuración del cluster de las que se muestran a continuación en función de si ejecuta la utilidad scinstall en el modo típico o personalizado. Consulte Planificación del entorno de Oracle Solaris Cluster para obtener directrices de planificación.
Plantilla de modo típico: si va utilizar el modo típico y aceptar todos los valores predeterminados, rellene la siguiente plantilla.
|
Plantilla del modo personalizado: si va a utilizar el modo personalizado y a personalizar los datos de configuración, rellene la siguiente plantilla.
Nota - Al instalar un cluster de un solo nodo, la utilidad scinstall usa automáticamente la dirección de red privada y la máscara de red predeterminadas, aunque el cluster no utilice una red privada.
|
Siga estas directrices para usar la utilidad scinstall interactiva en este procedimiento:
La utilidad scinstall interactiva completa automáticamente el texto que está escribiendo. Por lo tanto, no pulse la tecla Intro más de una vez si la siguiente pantalla de menú no aparece inmediatamente.
A menos que se indique lo contrario, puede pulsar Control + D para volver al inicio de una serie de preguntas relacionadas o al menú principal.
Las respuestas predeterminadas o aquellas proporcionadas en sesiones anteriores se muestran entre corchetes ([ ]) al final de una pregunta. Pulse la tecla de Intro para introducir la respuesta entre corchetes sin escribirla.
Asegúrese de que el servidor de instalación de JumpStart cumpla los siguientes requisitos:
El servidor de instalación está en la misma subred que los nodos del cluster o en el servidor de inicio de Oracle Solaris para la subred que utilizan los nodos del cluster.
El servidor de instalación no es un nodo del cluster.
El servidor de instalación instala una versión del SO Oracle Solaris admitida por el software de Oracle Solaris Cluster.
Existe un directorio JumpStart personalizado para la instalación del software de Oracle Solaris Cluster. Este directorio jumpstart-dir debe cumplir los siguientes requisitos:
Contener una copia de la utilidad check.
Ser exportada por NFS para que el servidor de instalación JumpStart realice la lectura.
Cada nuevo nodo del cluster se configura como un cliente de la instalación personalizada de JumpStart que utiliza el directorio JumpStart personalizado que se ha configurado para la instalación de Oracle Solaris Cluster.
Siga las instrucciones correspondientes a su plataforma de software y su versión de SO para configurar el servidor de instalación de JumpStart. Consulte Creación de un servidor de perfiles para sistemas conectados en red de Guía de instalación de Oracle Solaris 10 1/13: instalaciones JumpStart.
Consulte también las páginas del comando man setup_install_server(1M) y add_install_client(1M).
Para obtener más información, consulte Cómo agregar un nodo a un cluster existente de Guía de administración del sistema de Oracle Solaris Cluster.
Si el software de Oracle Solaris ya se encuentra instalado en el servidor, debe asegurarse de que la instalación de Oracle Solaris cumpla con los requisitos de software de Oracle Solaris Cluster y de cualquier otro software que vaya a instalar en el cluster. Consulte Cómo instalar el software de Oracle Solaris para obtener más información sobre cómo instalar el software de Oracle Solaris para cumplir con los requisitos del software de Oracle Solaris Cluster.
Siga los procedimientos que se describen en Cómo instalar el software de Oracle Solaris.
Siga los procedimientos que se describen en SPARC: Instalación del software de Oracle VM Server para SPARC y creación de dominios.
Siga los procedimientos descritos en Instalación de los paquetes de software de los servicios de datos y la estructura de Oracle Solaris Cluster.
Consulte Parches y niveles de firmware requeridos de Notas de la versión de Oracle Solaris Cluster 3.3 3/13 para conocer la ubicación de parches y obtener instrucciones de instalación.
machine# cacaoadm enable
Realice este paso independientemente de si está utilizando un servicio de nombres. Consulte Direcciones IP de red pública para obtener un listado de componentes de Oracle Solaris Cluster cuyas direcciones IP deban agregarse.
El comando especificado más abajo elimina la información de la configuración de la consola web. Parte de esta información de configuración es específica del sistema instalado. Debe eliminar esta información antes de crear el archivo flash. De lo contrario, la información de configuración transferida al nodo del cluster podría impedir que la consola web se iniciara o que interaccionara correctamente con el nodo del cluster.
# /usr/share/webconsole/private/bin/wcremove -i console
Una vez que instale la consola web no configurada en el nodo del cluster y la inicie por primera vez, ésta ejecutará automáticamente su configuración inicial y utilizará la información del nodo del cluster.
Para obtener más información acerca del comando wcremove, consulte Identidad de usuario de Oracle Java Web Console de Administración de Oracle Solaris: administración básica.
Siga los procedimientos descritos en el Capítulo 3, Creación de un archivo flash (tareas) de Guía de instalación de Oracle Solaris 10 1/13: archivos flash (creación e instalación).
machine# flarcreate -n name archive
Nombre que se le dará al archivo flash.
Nombre de archivo que se le dará al archivo flash, con la ruta completa. Por convención, el nombre del archivo termina en .flar.
Consulte el Capítulo 4, Gestión de sistemas de archivos de red (descripción general) de Guía de administración del sistema: servicios de red para obtener más información acerca del uso compartido de archivos automático.
Consulte también las páginas del comando man share(1M) y dfstab(4).
En la ruta de medios, reemplace arch por sparc o x86, y ver por 10 para Oracle Solaris 10.
installserver# cd /cdrom/cdrom0/Solaris_arch/Product/sun_cluster/ \ Solaris_ver/Tools/ installserver# ./scinstall
Aparecerá el menú principal de scinstall.
Esta opción se utiliza para configurar secuencias de comandos de finalización personalizadas de JumpStart. JumpStart utiliza estas secuencias de comandos de finalización para instalar el software de Oracle Solaris Cluster.
*** Main Menu *** Please select from one of the following (*) options: * 1) Create a new cluster or add a cluster node * 2) Configure a cluster to be JumpStarted from this install server 3) Manage a dual-partition upgrade 4) Upgrade this cluster node * 5) Print release information for this cluster node * ?) Help with menu options * q) Quit Option: 2
El comando scinstall almacena la información de configuración y copia el archivo class predeterminado autoscinstall.class en el directorio /jumpstart-dir /autoscinstall.d/3.2/. Este archivo es similar al siguiente ejemplo.
install_type initial_install system_type standalone partitioning explicit filesys rootdisk.s0 free / filesys rootdisk.s1 750 swap filesys rootdisk.s3 512 /globaldevices filesys rootdisk.s7 20 cluster SUNWCuser add package SUNWman add
Modificar entradas según sea necesario para que coincidan con las opciones de configuración que realizó cuando instaló el SO Oracle Solaris en la máquina del archivo flash o cuando ejecutó la utilidad scinstall.
|
Consulte Palabra clave archive_location de Guía de instalación de Oracle Solaris 10 1/13: instalaciones JumpStart para obtener información sobre los valores válidos para retrieval_type y location cuando se usa con la palabra clave archive_location.
cluster SUNWCuser add package SUNWman add
El archivo autoscinstall.class instala el grupo de software de Oracle Solaris para usuarios finales (SUNWCuser).
En la siguiente tabla, se enumeran los paquetes de Oracle Solaris que son necesarios para admitir algunas funcionalidades de Oracle Solaris Cluster. Estos paquetes no se incluyen en el grupo de software de Oracle Solaris para usuarios finales. Consulte Consideraciones del grupo de software de Oracle Solaris si desea obtener más información.
|
Puede cambiar el archivo class predeterminado de una de las siguientes maneras:
Edite directamente el archivo autoscinstall.class. Estos cambios se aplican a todos los nodos de todos los clusters que utilizan este directorio JumpStart personalizado.
Actualice el archivo rules para que apunte a otros perfiles y, a continuación, ejecute la utilidad check para validar el archivo rules.
Siempre y cuando el perfil de instalación del SO Oracle Solaris cumpla los requisitos mínimos de asignación del sistema de archivos de Oracle Solaris Cluster, el software de Oracle Solaris Cluster no impone restricciones respecto de otros cambios en el perfil de instalación. Consulte Particiones de disco del sistema para obtener los requisitos y las directrices de la realización de particiones para admitir el software de Oracle Solaris Cluster.
Para obtener más información sobre perfiles de JumpStart, consulte el Capítulo 3, Preparación de instalaciones JumpStart (tareas) de Guía de instalación de Oracle Solaris 10 1/13: instalaciones JumpStart.
Su propia secuencia de comandos de finalización se ejecuta después de la secuencia de comandos de finalización estándar que instala el comando scinstall. Consulte el Capítulo 3, Preparación de instalaciones JumpStart (tareas) de Guía de instalación de Oracle Solaris 10 1/13: instalaciones JumpStart para obtener información sobre la creación de secuencia de comandos de finalización de JumpStart.
Consulte el Paso 15.
Cree un directorio node para cada nodo del cluster. Utilice también esta convención de denominación para crear enlaces simbólicos con una secuencia de comandos finish compartida.
Siga los procedimientos incluidos en la documentación de los conmutadores para determinar si NDP está habilitado o si debe inhabilitar este protocolo.
Durante la configuración del cluster, el software comprueba que no haya tráfico en la interconexión privada. Si NDP envía paquetes a un adaptador privado cuando se está comprobando si hay tráfico en la interconexión privada, el software presupondrá que la interconexión no es privada y se interrumpirá la configuración del cluster. Por lo tanto, NDP debe inhabilitarse durante la creación del cluster.
Una vez establecido el cluster, puede volver a habilitar NDP en los conmutadores de interconexión privada si desea utilizar esta función.
Utilice el siguiente comando, como superusuario, para iniciar la utilidad cconsole:
adminconsole# /opt/SUNWcluster/bin/cconsole clustername &
La utilidad cconsole abre, además, una ventana maestra desde la que puede enviar los datos introducidos a todas las ventanas individuales de la consola al mismo tiempo.
phys-schost# shutdown -g0 -y -i0
ok boot net - install
Nota - Deje un espacio a cada lado del guión (-) en el comando.
Press any key to reboot. keystroke
Una vez completada la secuencia de inicialización, aparece la pantalla BIOS Setup Utility (Utilidad de instalación del BIOS).
Aparece la lista de dispositivos de inicio.
El número más bajo a la derecha de las opciones de inicio del IBA corresponden al número de puerto Ethernet inferior. El número más alto a la derecha de las opciones de inicio del IBA corresponden al número de puerto Ethernet superior.
La secuencia de inicio comenzará de nuevo. Después de su procesamiento posterior, se muestra el menú de GRUB.
Nota - Si la entrada de Oracle Solaris JumpStart es la única entrada en la lista, de manera alternativa, puede esperar a que la pantalla de selección entre en tiempo de espera. Si el usuario no responde en 30 segundos, el sistema continúa automáticamente la secuencia de inicio.
Después de su procesamiento posterior, se muestra el menú del tipo de instalación.
Nota - Si no escribe el número de JumpStart personalizado antes de que termine el tiempo de espera que dura 30 segundos, el sistema inicia automáticamente la instalación interactiva de Oracle Solaris.
JumpStart instala el sistema operativo Oracle Solaris y el software de Oracle Solaris Cluster en cada nodo. Una vez que la instalación finaliza de manera correcta, todos los nodos se encuentran instalados completamente como nodos nuevos del cluster. La salida de la instalación de Oracle Solaris Cluster se registra en el archivo /var/cluster/logs/install/scinstall.log. N.
Nota - Si no interrumpe el BIOS en esta instancia, éste vuelve automáticamente al menú del tipo de instalación. Si no se introduce ninguna opción en el transcurso de 30 segundos, el sistema empieza automáticamente una instalación interactiva.
Después del procesamiento posterior, se muestra la utilidad de instalación del BIOS.
Aparece la lista de dispositivos de inicio.
La secuencia de inicio comenzará de nuevo. No se necesita más interacción con el menú GRUB para concluir el inicio en el modo del cluster.
Si los servicios todavía no están en línea para un nodo, espere hasta que cambie el estado y aparezca como en línea antes de continuar con el siguiente paso.
phys-schost# svcs multi-user-server node STATE STIME FMRI online 17:52:55 svc:/milestone/multi-user-server:default
phys-schost# mount | grep global | egrep -v node@ | awk '{print $1}'
phys-schost-new# mkdir -p mountpoint
Por ejemplo, si un nombre de sistema de archivos devuelto por el comando de montaje es /global/dg-schost-1, ejecute mkdir -p /global/dg-schost-1 en el nodo que está agregando al cluster.
Para desactivar el LOFS, agregue la siguiente entrada al archivo /etc/system en cada nodo del cluster.
exclude:lofs
El cambio realizado en el archivo /etc/system se aplicará en el siguiente reinicio del sistema.
Nota - No puede tener el LOFS activado si utiliza HA para NFS en un sistema de archivos local de alta disponibilidad tener y y ejecuta automountd. El LOFS puede causar problemas de conmutación para HA para NFS. Si elige agregar HA para NFS en un sistema de archivos local de alta disponibilidad, debe realizar uno de los siguientes cambios de configuración.
Sin embargo, si configura las zonas no globales en el cluster, debe activar LOFS en todos los nodos del cluster. Si HA para NFS en un sistema de archivos local de alta disponibilidad debe coexistir con LOFS, use una de las otras soluciones en lugar de desactivar LOFS.
Desactive LOFS.
Inhabilite el daemon automountd.
Excluya del mapa del montador automático todos los archivos que formen parte del sistema de archivos locales de alta disponibilidad exportado por HA para NFS. Esta opción permite conservar tanto el LOFS como el daemon automountd activados.
Consulte The Loopback File System de System Administration Guide: Devices and File Systems para obtener información acerca de los sistemas de archivos de bucle de retorno.
|
Esta entrada se aplicará una vez reiniciado el sistema.
La configuración de este valor permite reiniciar el nodo cuando no pueda acceder a un indicador de inicio de sesión.
grub edit> kernel /platform/i86pc/multiboot kmdb
A continuación, se incluyen algunas de las tareas que requieren un reinicio:
Adición de un nodo nuevo a un cluster existente.
Instalación de parches que requieren un reinicio del cluster o del nodo.
Realización de cambios en la configuración que requieren un reinicio para surtir efecto.
phys-schost-1# cluster shutdown -y -g0 clustername
Nota - No reinicie el primer nodo instalado en el cluster hasta que el cluster se haya cerrado. Hasta que se inhabilite el modo de instalación del cluster, sólo el primer nodo instalado (el que estableció el cluster) cuenta con un voto del quórum. Si un cluster establecido que está aún en el modo de instalación no se cierra antes de que se reinicie el primer nodo instalado, el resto de los nodos del cluster no pueden obtener quórum. En tal caso, el cluster completo se cerraría.
Los nodos del cluster permanecen en el modo de instalación hasta que ejecute por primera vez el comando clsetup. Este comando se ejecuta durante el procedimiento Cómo configurar dispositivos del quórum.
ok boot
Cuando aparezca el menú GRUB, seleccione la entrada de Oracle Solaris que corresponda y pulse Intro.
Para obtener más información sobre el inicio basado en GRUB, consulte Cómo iniciar un sistema basado en x86 mediante GRUB (mapa de tareas) de Administración de Oracle Solaris: administración básica.
La utilidad scinstall instala y configura todos los nodos del cluster y reinicia el cluster. El cluster se establece cuando todos los nodos se han iniciado con éxito en el cluster. La salida de la instalación de Oracle Solaris Cluster se registra en el archivo /var/cluster/logs/install/scinstall.log.N.
phys-schost# smcwebserver start
Para obtener más información, consulte la página del comando man smcwebserver(1M).
phys-schost# clnode status
La salida presenta un aspecto similar al siguiente.
=== Cluster Nodes === --- Node Status --- Node Name Status --------- ------ phys-schost-1 Online phys-schost-2 Online phys-schost-3 Online
Para obtener más información, consulte la página del comando man clnode(1CL).
Nota - En el momento de configuración inicial, la supervisión de la ruta del disco se activa de forma predeterminada para todos los dispositivos detectados.
phys-schost# clnode set -p reboot_on_path_failure=enabled
Especifica la propiedad que se va a establecer.
Habilita el reinicio automático del nodo en caso de producirse un error en las rutas de discos compartidos supervisados.
phys-schost# clnode show === Cluster Nodes === Node Name: node … reboot_on_path_failure: enabled …
Pasos siguientes
Si ha agregado un nodo a un cluster de dos nodos, vaya a Cómo actualizar los dispositivos del quórum tras agregar un nodo a un cluster global.
De lo contrario, vaya al siguiente procedimiento que corresponda:
Si ha instalado un nodo de varios clusters y ha decidido configurar el quórum automáticamente, la configuración posterior a la instalación finaliza aquí. Vaya a Cómo verificar los modos de configuración e instalación del quórum.
Si ha instalado un cluster de varios nodos y ha rechazado la configuración automática del quórum, lleve a cabo la configuración posterior a la instalación. Vaya a Cómo configurar dispositivos del quórum.
Si ha agregado un nodo nuevo a un cluster existente que utiliza un dispositivo de quórum, vaya a Cómo actualizar los dispositivos del quórum tras agregar un nodo a un cluster global.
Si ha agregado un nodo nuevo a un cluster existente que no utiliza un dispositivo de quórum, compruebe el estado del cluster. Vaya a Cómo verificar los modos de configuración e instalación del quórum.
Si ha instalado un cluster con un único nodo, ya se ha completado el establecimiento del cluster. Vaya a Creación de sistemas de archivos del cluster para instalar el software de administración de volúmenes y configurar el cluster.
Errores más frecuentes
Opción scinstall inactiva: si la opción JumpStart del comando scinstall no presenta un asterisco delante, significa que está inactiva. Esta condición indica que la configuración de JumpStart no se ha completado o bien hay un error en la misma. Para solucionar esta situación, en primer lugar salga de la utilidad scinstall. Repita los procedimientos del Paso 1 al Paso 16 para corregir la configuración de JumpStart y, a continuación, reinicie la utilidad scinstall.
Realice este procedimiento en los nodos de cluster global existentes con el fin de preparar el cluster para la adición de nodos nuevos.
Antes de empezar
Realice las siguientes tareas:
Asegúrese de que todo el hardware necesario esté instalado.
Asegúrese de que el adaptador de host esté instalado en el nodo nuevo. Consulte el Oracle Solaris Cluster 3.3 3/13 Hardware Administration Manual .
Verifique que todas las interconexiones del cluster sean compatibles con el nodo nuevo. Consulte el Oracle Solaris Cluster 3.3 3/13 Hardware Administration Manual .
Asegúrese de que los sistemas de almacenamiento adicional estén instalados. Consulte el correspondiente manual sobre almacenamiento de Oracle Solaris Cluster.
phys-schost# clsetup
Aparece el menú principal.
La utilidad clsetup muestra el mensaje Comando completado satisfactoriamente si la tarea se ha completado sin errores.
phys-schost# clinterconnect show
Debe haber configurado al menos dos cables o dos adaptadores para poder agregar un nodo.
phys-schost# clsetup
Siga las instrucciones para especificar el nombre del nodo que se va a agregar al cluster, el nombre de un adaptador de transporte y si se va a utilizar un conmutador de transporte.
phys-schost# clinterconnect show
La salida del comando debería mostrar información de la configuración de al menos dos interconexiones del cluster.
phys-schost# cluster show-netprops
La salida presenta un aspecto similar al siguiente:
=== Private Network === private_netaddr: 172.16.0.0 private_netmask: 255.255.240.0 max_nodes: 64 max_privatenets: 10 max_zoneclusters: 12
Vaya a Cómo cambiar la configuración de red privada al agregar nodos o redes privadas. Debe cerrar el cluster para cambiar el intervalo de direcciones IP privadas. Esto incluye la conmutación fuera de línea de los grupos de recursos, la inhabilitación de todos los recursos del cluster y, por último, el reinicio en el modo sin cluster antes de reconfigurar el intervalo de direcciones IP.
Pasos siguientes
Configure el software Oracle Solaris Cluster en los nuevos nodos del cluster. Vaya a Cómo configurar el software Oracle Solaris Cluster en nodos de cluster global adicionales (scinstall) o a Configuración del software de Oracle Solaris Cluster en nodos de cluster global adicionales (XML).
Realice esta tarea para cambiar el intervalo de direcciones IP privadas del cluster global con el fin de admitir un incremento en uno o varios de los siguientes componentes del cluster:
El número de nodos o de zonas no globales
El número mínimo de redes privadas
El número de clusters de zona
También puede utilizar este procedimiento para disminuir el intervalo de direcciones IP privadas.
Nota - Para llevar a cabo este procedimiento es necesario cerrar todo el cluster. Si necesita cambiar únicamente la máscara de red para, por ejemplo, proporcionar compatibilidad con los clusters de zona, no realice este procedimiento. En lugar de ello, ejecute el siguiente comando desde un nodo del cluster global que se esté ejecutando en el modo de cluster para especificar el número de clusters de zona programado:
phys-schost# cluster set-netprops num_zoneclusters=N
Este comando no requiere que se cierre el cluster.
Antes de empezar
Asegúrese de que acceso de shell remoto (rsh(1M)) o shell seguro (ssh(1)) para el superusuario esté activado para todos los nodos del cluster.
# clsetup
Aparece el menú principal de clsetup.
Si el nodo contiene zonas no globales, cualquier grupo de recursos que se encuentre en las zonas también se cambia a sin conexión.
Aparece el menú de grupos de recursos.
# cluster status -t resource,resourcegroup
Limita la salida al objeto de cluster especificado.
Especifica los recursos.
Especifica los grupos de recursos.
# cluster shutdown -g0 -y
Especifica el tiempo de espera en segundos.
Impide que se emita la solicitud de confirmación del cierre.
ok boot -x
Para obtener más información sobre el inicio basado en GRUB, consulte Cómo iniciar un sistema basado en x86 mediante GRUB (mapa de tareas) de Administración de Oracle Solaris: administración básica.
La pantalla muestra el comando editado.
Nota - Este cambio en el comando del parámetro de inicio del núcleo no se conserva tras el inicio del sistema. La siguiente vez que reinicie el nodo, se iniciará en el modo de cluster. Si, por el contrario, desea iniciar en el modo sin cluster, siga estos pasos para volver a agregar la opción -x al comando del parámetro de inicio del núcleo.
Cuando se ejecuta en un modo que no sea de cluster, la utilidad clsetup muestra el menú principal para operaciones de un modo que no sea de cluster.
La utilidad clsetup muestra la configuración de red privada actual; a continuación, pregunta si desea modificar esta configuración.
La utilidad clsetup muestra la dirección IP de red privada, 172.16.0.0, y pregunta si desea aceptarla de forma predeterminada.
La utilidad clsetup le preguntará si está de acuerdo con aceptar la máscara de red predeterminada. Vaya al paso siguiente para introducir su respuesta.
La utilidad clsetup solicita la nueva dirección IP de red privada.
La utilidad clsetup muestra la máscara de red predeterminada; a continuación, pregunta si desea aceptar la máscara de red predeterminada.
La máscara de red predeterminada es 255.255.240.0. Este rango de direcciones IP predeterminado admite un máximo de 64 nodos, 12 clusters de zona y 10 redes privadas en el cluster.
Continúe directamente con el paso siguiente.
Si rechaza la máscara de red predeterminada, la utilidad clsetup solicita el número de nodos, redes privadas y clusters de zona que tiene previsto configurar en el cluster.
A partir de estas cantidades, la utilidad clsetup calcula dos máscaras de red como propuesta:
La primera máscara de red es la mínima para admitir el número de nodos, redes privadas y clusters de zona que haya especificado.
La segunda máscara de red admite el doble de nodos, redes privadas y clusters de zona que haya especificado para asumir un posible crecimiento en el futuro.
# shutdown -g0 -y
ok boot
Cuando aparezca el menú GRUB, seleccione la entrada de Oracle Solaris que corresponda y pulse Intro.
Para obtener más información sobre el inicio basado en GRUB, consulte Cómo iniciar un sistema basado en x86 mediante GRUB (mapa de tareas) de Administración de Oracle Solaris: administración básica.
# clsetup
Aparece el menú principal de clsetup.
Aparece el menú de grupos de recursos.
Si el nodo contiene zonas no globales, establezca también en línea los grupos de recursos que se encuentren en esas zonas.
Escriba q para salir de cada submenú o pulse Ctrl-C.
Pasos siguientes
Para agregar un nodo a un cluster existente, utilice uno de los siguientes procedimientos:
Instalación de Oracle Solaris y el software de Oracle Solaris Cluster (JumpStart)
Configuración del software de Oracle Solaris Cluster en nodos de cluster global adicionales (XML)
Para crear una zona no global en un nodo del cluster, consulte Configuración de una zona no global en un nodo del cluster global.
Realice este procedimiento para agregar un nodo nuevo a un cluster global existente. Para agregar un nodo nuevo mediante JumpStart, siga los procedimientos descritos en Instalación de Oracle Solaris y el software de Oracle Solaris Cluster (JumpStart).
Nota - En este procedimiento, se utiliza el formato interactivo del programa scinstall. Para utilizar los formatos no interactivos del comando scinstall como, por ejemplo, al crear secuencias de comandos de instalación, consulte la página del comando man scinstall(1M).
Asegúrese de que los paquetes de software de Oracle Solaris Cluster se hayan instalado en el nodo manualmente o con el modo silencioso del programa installer antes de ejecutar el comando scinstall. Para obtener información sobre cómo ejecutar el programa installer desde una secuencia de comandos de instalación, consulte Capítulo 5, Installing in Silent Mode de Sun Java Enterprise System 5 Update 1 Installation Guide for UNIX.
Antes de empezar
Realice las siguientes tareas:
Asegúrese de que se haya instalado el SO Oracle Solaris para admitir el software de Oracle Solaris Cluster.
Si el software de Oracle Solaris ya se encuentra instalado en el nodo, debe asegurarse de que la instalación de Oracle Solaris cumpla con los requisitos de software de Oracle Solaris Cluster y de cualquier otro software que vaya a instalar en el cluster. Consulte Cómo instalar el software de Oracle Solaris para obtener más información sobre cómo instalar el software de Oracle Solaris para cumplir con los requisitos del software de Oracle Solaris Cluster.
SPARC: Si va a configurar dominios invitados o de E/S de Oracle VM Server para SPARC como nodos del cluster, asegúrese de que el software de Oracle VM Server para SPARC se encuentre instalado en todas las máquinas físicas y de que los dominios cumplan los requisitos de Oracle Solaris Cluster. Consulte SPARC: Instalación del software de Oracle VM Server para SPARC y creación de dominios.
Asegúrese de que los paquetes de software y los parches de Oracle Solaris Cluster estén instalados en el nodo. Consulte Instalación de los paquetes de software de los servicios de datos y la estructura de Oracle Solaris Cluster.
Asegúrese de que el cluster esté preparado para la adición del nuevo nodo. Consulte Cómo preparar el cluster para nodos de cluster global adicionales.
Decida cuál de los modos, típico o personalizado, de la utilidad scinstall va a emplear. En el modo de instalación típica del software Oracle Solaris Cluster, scinstall utiliza automáticamente los siguientes valores predeterminados de configuración.
|
Rellene una de las hojas de trabajo para la planificación de la configuración de las que aparecen más abajo. Puede obtener directrices para la planificación en Planificación del sistema operativo Oracle Solaris y Planificación del entorno de Oracle Solaris Cluster.
Plantilla de modo típico: si va utilizar el modo típico y aceptar todos los valores predeterminados, rellene la siguiente plantilla.
|
Plantilla del modo personalizado: si va a utilizar el modo personalizado y a personalizar los datos de configuración, rellene la siguiente plantilla.
|
Siga estas directrices para usar la utilidad scinstall interactiva en este procedimiento:
La utilidad scinstall interactiva completa automáticamente el texto que está escribiendo. Por lo tanto, no pulse la tecla Intro más de una vez si la siguiente pantalla de menú no aparece inmediatamente.
A menos que se indique lo contrario, puede pulsar Control + D para volver al inicio de una serie de preguntas relacionadas o al menú principal.
Las respuestas predeterminadas o aquellas proporcionadas en sesiones anteriores se muestran entre corchetes ([ ]) al final de una pregunta. Pulse la tecla de Intro para introducir la respuesta entre corchetes sin escribirla.
phys-schost-new# /usr/cluster/bin/scinstall
Aparecerá el menú principal de scinstall.
*** Main Menu *** Please select from one of the following (*) options: * 1) Create a new cluster or add a cluster node 2) Configure a cluster to be JumpStarted from this install server 3) Manage a dual-partition upgrade 4) Upgrade this cluster node * 5) Print release information for this cluster node * ?) Help with menu options * q) Quit Option: 1
Aparece el menú Nuevo cluster o nodo del cluster.
La utilidad scinstall configura el nodo y lo inicia en el cluster.
phys-schost# eject cdrom
Si los servicios todavía no están en línea para un nodo, espere hasta que cambie el estado y aparezca como en línea antes de continuar con el siguiente paso.
phys-schost# svcs multi-user-server node STATE STIME FMRI online 17:52:55 svc:/milestone/multi-user-server:default
phys-schost# claccess deny-all
También puede usar la utilidad clsetup. Consulte Cómo agregar un nodo a un cluster existente de Guía de administración del sistema de Oracle Solaris Cluster para obtener información sobre los procedimientos.
phys-schost# clnode status
La salida presenta un aspecto similar al siguiente.
=== Cluster Nodes === --- Node Status --- Node Name Status --------- ------ phys-schost-1 Online phys-schost-2 Online phys-schost-3 Online
Para obtener más información, consulte la página del comando man clnode(1CL).
phys-schost# showrev -p
Nota - En el momento de configuración inicial, la supervisión de la ruta del disco se activa de forma predeterminada para todos los dispositivos detectados.
phys-schost# clnode set -p reboot_on_path_failure=enabled
Especifica la propiedad que se va a establecer.
Habilita el reinicio automático del nodo en caso de producirse un error en las rutas de discos compartidos supervisados.
phys-schost# clnode show === Cluster Nodes === Node Name: node … reboot_on_path_failure: enabled …
Para desactivar el LOFS, agregue la siguiente entrada al archivo /etc/system en cada nodo del cluster.
exclude:lofs
El cambio realizado en el archivo /etc/system se aplicará en el siguiente reinicio del sistema.
Nota - No puede tener el LOFS activado si utiliza HA para NFS en un sistema de archivos local de alta disponibilidad tener y y ejecuta automountd. El LOFS puede causar problemas de conmutación para HA para NFS. Si elige agregar HA para NFS en un sistema de archivos local de alta disponibilidad, debe realizar uno de los siguientes cambios de configuración.
Sin embargo, si configura las zonas no globales en el cluster, debe activar LOFS en todos los nodos del cluster. Si HA para NFS en un sistema de archivos local de alta disponibilidad debe coexistir con LOFS, use una de las otras soluciones en lugar de desactivar LOFS.
Desactive LOFS.
Inhabilite el daemon automountd.
Excluya del mapa del montador automático todos los archivos que formen parte del sistema de archivos locales de alta disponibilidad exportado por HA para NFS. Esta opción permite conservar tanto el LOFS como el daemon automountd activados.
Consulte The Loopback File System de System Administration Guide: Devices and File Systems para obtener información acerca de los sistemas de archivos de bucle de retorno.
Ejemplo 3-3 Configuración del software Oracle Solaris Cluster en un nodo adicional
En el siguiente ejemplo se muestra el nodo phys-schost-3, que se ha agregado al cluster schost. El nodo patrocinador es phys-schost-1.
*** Adding a Node to an Existing Cluster *** Fri Feb 4 10:17:53 PST 2005 scinstall -ik -C schost -N phys-schost-1 -A trtype=dlpi,name=bge2 -A trtype=dlpi,name=bge3 -m endpoint=:bge2,endpoint=switch1 -m endpoint=:bge3,endpoint=switch2 Checking device to use for global devices file system ... done Adding node "phys-schost-3" to the cluster configuration ... done Adding adapter "bge2" to the cluster configuration ... done Adding adapter "bge3" to the cluster configuration ... done Adding cable to the cluster configuration ... done Adding cable to the cluster configuration ... done Copying the config from "phys-schost-1" ... done Copying the postconfig file from "phys-schost-1" if it exists ... done Copying the Common Agent Container keys from "phys-schost-1" ... done Setting the node ID for "phys-schost-3" ... done (id=1) Setting the major number for the "did" driver ... Obtaining the major number for the "did" driver from "phys-schost-1" ... done "did" driver major number set to 300 Checking for global devices global file system ... done Updating vfstab ... done Verifying that NTP is configured ... done Initializing NTP configuration ... done Updating nsswitch.conf ... done Adding clusternode entries to /etc/inet/hosts ... done Configuring IP Multipathing groups in "/etc/hostname.<adapter>" files Updating "/etc/hostname.hme0". Verifying that power management is NOT configured ... done Ensure that the EEPROM parameter "local-mac-address?" is set to "true" ... done The "local-mac-address?" parameter setting has been changed to "true". Ensure network routing is disabled ... done Updating file ("ntp.conf.cluster") on node phys-schost-1 ... done Updating file ("hosts") on node phys-schost-1 ... done Rebooting ...
Errores más frecuentes
Configuración incorrecta: si uno o varios nodos no se pueden incorporar al cluster, o si se ha especificado información de configuración incorrecta, primero intente ejecutar de nuevo este procedimiento. Si no se soluciona el problema, realice el procedimiento Cómo anular la configuración del software Oracle Solaris Cluster para solucionar problemas de instalación en cada nodo que se haya configurado incorrectamente para suprimirlo de la configuración del cluster. No es necesario que desinstale los paquetes de software Oracle Solaris Cluster. A continuación, vuelva a ejecutar este procedimiento.
Pasos siguientes
Si ha agregado un nodo a un cluster existente que utiliza un dispositivo del quórum, vaya a Cómo actualizar los dispositivos del quórum tras agregar un nodo a un cluster global.
De lo contrario, vaya a Cómo verificar los modos de configuración e instalación del quórum.
Lleve a cabo este procedimiento para configurar un nuevo nodo del cluster mediante un archivo XML de configuración del cluster. El nodo nuevo puede ser una duplicación de un nodo de cluster existente que ejecute el software de Oracle Solaris Cluster 3.3 3/13.
Mediante este procedimiento, se configuran los siguientes componentes del nodo:
Pertenencia de nodos del cluster
Interconexión de cluster
Dispositivos globales
Antes de empezar
Realice las siguientes tareas:
Asegúrese de que se haya instalado el SO Oracle Solaris para admitir el software de Oracle Solaris Cluster.
Si el software de Oracle Solaris ya se encuentra instalado en el nodo, debe asegurarse de que la instalación de Oracle Solaris cumpla con los requisitos de software de Oracle Solaris Cluster y de cualquier otro software que vaya a instalar en el cluster. Consulte Cómo instalar el software de Oracle Solaris para obtener más información sobre cómo instalar el software de Oracle Solaris para cumplir con los requisitos del software de Oracle Solaris Cluster.
SPARC: Si va a configurar dominios invitados o de E/S de Oracle VM Server para SPARC como nodos del cluster, asegúrese de que el software de Oracle VM Server para SPARC se encuentre instalado en todas las máquinas físicas y de que los dominios cumplan los requisitos de Oracle Solaris Cluster. Consulte SPARC: Instalación del software de Oracle VM Server para SPARC y creación de dominios.
Asegúrese de que los paquetes de software de Oracle Solaris Cluster y los parches necesarios estén instalados en el nodo. Consulte Instalación de los paquetes de software de los servicios de datos y la estructura de Oracle Solaris Cluster.
Asegúrese de que el cluster esté preparado para la adición del nuevo nodo. Consulte Cómo preparar el cluster para nodos de cluster global adicionales.
phys-schost-new# /usr/sbin/clinfo -n
El software de Oracle Solaris Cluster aún no se ha configurado en el nodo. Puede agregar el nodo potencial al cluster.
El software de Oracle Solaris Cluster ya está configurado en el nodo. Para poder agregar el nodo a un cluster distinto, debe suprimir la información de configuración del cluster existente.
ok boot -x
Para obtener más información sobre el inicio basado en GRUB, consulte Cómo iniciar un sistema basado en x86 mediante GRUB (mapa de tareas) de Administración de Oracle Solaris: administración básica.
La pantalla muestra el comando editado.
Nota - Este cambio en el comando del parámetro de inicio del núcleo no se conserva tras el inicio del sistema. La siguiente vez que reinicie el nodo, se iniciará en el modo de cluster. Si, por el contrario, desea iniciar en el modo sin cluster, siga estos pasos para volver a agregar la opción -x al comando del parámetro de inicio del núcleo.
phys-schost-new# /usr/cluster/bin/clnode remove
phys-schost# clnode export -o clconfigfile
Especifica el destino de salida.
Nombre del archivo XML de configuración del cluster. El nombre de archivo especificado puede ser un archivo existente o un archivo nuevo que el comando creará.
Para obtener más información, consulte la página del comando man clnode(1CL).
Base el archivo en la jerarquía de elementos que se muestra en la página del comando man clconfiguration(5CL). Puede almacenar el archivo en cualquier directorio.
Consulte la página del comando man clconfiguration(5CL) para obtener información detallada sobre la estructura y el contenido del archivo XML de configuración del cluster.
phys-schost-new# xmllint --valid --noout clconfigfile
phys-schost-new# clnode add -n sponsornode -i clconfigfile
Especifica el nombre de un miembro del cluster existente para que actúe como patrocinador del nodo nuevo.
Especifica el nombre del archivo XML de configuración del cluster que se va a utilizar como fuente de entrada.
Nota - En el momento de configuración inicial, la supervisión de la ruta del disco se activa de forma predeterminada para todos los dispositivos detectados.
phys-schost# clnode set -p reboot_on_path_failure=enabled
Especifica la propiedad que se va a establecer.
Habilita el reinicio automático del nodo en caso de producirse un error en las rutas de discos compartidos supervisados.
phys-schost# clnode show === Cluster Nodes === Node Name: node … reboot_on_path_failure: enabled …
Errores más frecuentes
Configuración incorrecta: si uno o varios nodos no se pueden incorporar al cluster, o si se ha especificado información de configuración incorrecta, primero intente ejecutar de nuevo este procedimiento. Si no se soluciona el problema, realice el procedimiento Cómo anular la configuración del software Oracle Solaris Cluster para solucionar problemas de instalación en cada nodo que se haya configurado incorrectamente para suprimirlo de la configuración del cluster. No es necesario que desinstale los paquetes de software Oracle Solaris Cluster. A continuación, vuelva a ejecutar este procedimiento.
Pasos siguientes
Si ha agregado un nodo a un cluster que utiliza un dispositivo del quórum, vaya a Cómo actualizar los dispositivos del quórum tras agregar un nodo a un cluster global.
De lo contrario, vaya a Cómo verificar los modos de configuración e instalación del quórum.
Si ha agregado un nodo a un cluster global, debe actualizar la información de configuración de los dispositivos del quórum, independientemente de si utiliza discos compartidos, dispositivos NAS, un servidor de quórum o una combinación de estos elementos. Para ello, quite todos los dispositivos del quórum y actualice el espacio de nombres de dispositivos globales. De forma opcional, puede reconfigurar los dispositivos del quórum que todavía desea utilizar. Así, se registra el nodo nuevo con cada dispositivo de quórum, lo que permite recalcular el recuento de votos basándose en el nuevo número de nodos del cluster.
Los nuevos dispositivos SCSI del quórum que se configuren se establecerán en las reservas SCSI-3.
Antes de empezar
Asegúrese de haber completado la instalación del software de Oracle Solaris Cluster en el nodo que ha agregado.
phys-schost# cluster status -t node
La salida del comando muestra todos los dispositivos del quórum y los nodos. La siguiente salida de ejemplo muestra el dispositivo del quórum SCSI actual, d3.
phys-schost# clquorum list d3 …
Lleve a cabo este paso con todos los dispositivos del quórum configurados.
phys-schost# clquorum remove devicename
Especifica el nombre del dispositivo del quórum.
Si los dispositivos del quórum se han borrado correctamente, ninguno de ellos aparece en la lista.
phys-schost# clquorum status
phys-schost# cldevice populate
Nota - Este paso es necesario para prevenir un posible error grave del nodo.
El comando cldevice populate se ejecuta de forma remota en todos los nodos, aunque el comando se haya emitido sólo desde un nodo. Para determinar si ha concluido el procesamiento del comando cldevice populate, ejecute el comando siguiente en todos los nodos del cluster.
phys-schost# ps -ef | grep scgdevs
Puede configurar el mismo dispositivo que se utilizó originalmente como dispositivo del quórum o seleccionar un nuevo dispositivo compartido para configurarlo.
De lo contrario, vaya directamente al Paso c.
phys-schost# cldevice list -v
La salida es similar a la siguiente:
DID Device Full Device Path ---------- ---------------- d1 phys-schost-1:/dev/rdsk/c0t0d0 d2 phys-schost-1:/dev/rdsk/c0t6d0 d3 phys-schost-2:/dev/rdsk/c1t1d0 d3 phys-schost-1:/dev/rdsk/c1t1d0 …
phys-schost# clquorum add -t type devicename
Especifica el tipo de dispositivo del quórum. Si no se especifica esta opción, se utilizará el tipo predeterminado, es decir, shared_disk.
phys-schost# clquorum list
La salida debe mostrar todos los dispositivos del quórum y todos los nodos.
Ejemplo 3-4 Actualización de los dispositivos del quórum SCSI tras agregar un nodo a un cluster de dos nodos
En el siguiente ejemplo, se identifica el dispositivo de quórum SCSI original d2, se elimina ese dispositivo de quórum, se muestran los dispositivos compartidos disponibles, se actualiza el espacio de nombres del dispositivo global, se configura d3 como nuevo dispositivo de quórum SCSI y se verifica el nuevo dispositivo.
phys-schost# clquorum list d2 phys-schost-1 phys-schost-2 phys-schost# clquorum remove d2 phys-schost# clquorum status … --- Quorum Votes by Device --- Device Name Present Possible Status ----------- ------- -------- ------ phys-schost# cldevice list -v DID Device Full Device Path ---------- ---------------- … d3 phys-schost-2:/dev/rdsk/c1t1d0 d3 phys-schost-1:/dev/rdsk/c1t1d0 … phys-schost# cldevice populate phys-schost# ps -ef - grep scgdevs phys-schost# clquorum add d3 phys-schost# clquorum list d3 phys-schost-1 phys-schost-2
Pasos siguientes
Vaya a Cómo verificar los modos de configuración e instalación del quórum.
Nota - No es necesario que configure los dispositivos del quórum si se da alguna de las siguientes circunstancias:
Ha elegido la configuración automática del quórum durante la configuración del software Oracle Solaris Cluster.
Ha instalado un cluster de un solo nodo.
Ha agregado un nodo a un cluster global existente y ya dispone de un número suficiente de votos del quórum asignados.
En estos casos, pase a Cómo verificar los modos de configuración e instalación del quórum.
Realice este procedimiento una sola vez cuando el cluster nuevo se haya formado completamente. Utilice este procedimiento para asignar los votos del quórum y, a continuación, para quitar el cluster del modo de instalación.
Antes de empezar
Lleve a cabo los siguientes pasos para configurar un servidor de quórum o un dispositivo NAS como dispositivo de quórum.
Servidores de quórum: para configurar un servidor de quórum como dispositivo de quórum, haga lo siguiente:
Instale el software Servidor de quórum en la máquina de host del servidor de quórum e inicie este último. Para obtener información acerca de la instalación y el inicio del servidor de quórum, consulte Instalación y configuración del software Servidor de quórum.
Compruebe que los conmutadores de red conectados directamente con los nodos del cluster cumplan uno de los criterios siguientes:
El conmutador es compatible con el protocolo RSTP.
El conmutador tiene habilitado el modo de puerto rápido.
Se necesita una de estas funciones para que la comunicación entre los nodos del cluster y el servidor de quórum sea inmediata. Si el conmutador ralentizada dicha comunicación se ralentizase de forma significativa, el cluster interpretaría este impedimento de la comunicación como una pérdida del dispositivo de quórum.
Debe disponer de la siguiente información:
Un nombre para asignarlo al dispositivo del quórum configurado.
La dirección IP de la máquina de host del servidor de quórum.
El número de puerto del servidor de quórum.
Dispositivos NAS: para configurar un dispositivo de almacenamiento conectado a red (NAS) como dispositivo de quórum, instale el hardware y el software del dispositivo NAS. Consulte Oracle Solaris Cluster 3.3 3/13 With Network-Attached Storage Device Manual y la documentación del dispositivo para conocer los requisitos y los procedimientos de instalación del hardware y el software de NAS.
Pretende utilizar un servidor de quórum.
La red pública utiliza la máscara de subred de longitud variable, también llamada enrutamiento de interdominios sin clases (CIDR).
Si utiliza un servidor de quórum, pero la red pública utiliza subredes con clases, como se define en RFC 791, no es necesario que realice este paso.
La entrada siguiente es un ejemplo que contiene una dirección IP de red pública y una máscara de red:
10.11.30.0 255.255.255.0
nodename netmask + broadcast +
phys-schost# cluster status -t node
No es necesario que inicie sesión como superusuario para ejecutar este comando.
phys-schost-1# cldevice list -v
La salida es similar a la siguiente:
DID Device Full Device Path ---------- ---------------- d1 phys-schost-1:/dev/rdsk/c0t0d0 d2 phys-schost-1:/dev/rdsk/c0t6d0 d3 phys-schost-2:/dev/rdsk/c1t1d0 d3 phys-schost-1:/dev/rdsk/c1t1d0 …
Nota - Los discos compartidos que elija deben ser válidos para su uso como dispositivo del quórum. Consulte la sección Dispositivos de quórum para obtener más información acerca de la selección de dispositivos del quórum.
Utilice la salida scdidadm del Paso a para identificar el nombre de ID de dispositivo de cada disco compartido que esté configurando como dispositivo de quórum. Por ejemplo, la salida del Paso a muestra que phys-schost-1 y phys-schost-2 comparten el dispositivo global d3.
phys-schost# cldevice show device === DID Device Instances === DID Device Name: /dev/did/rdsk/dN … default_fencing: nofencing …
Otra opción es simplemente desactivar el aislamiento del disco individual para que no se aplique independientemente del valor establecido en la propiedad global_fencing. Vaya directamente al Paso c
phys-schost# cluster show -t global === Cluster === Cluster name: cluster … global_fencing: nofencing …
Nota - Si la propiedad default_fencing de un disco individual se ha establecido en global, el aislamiento de ese disco estará inhabilitado siempre que la propiedad global_fencing, que afecta a todo el cluster, se haya establecido en nofencing o nofencing-noscrub . Si se cambia la propiedad global_fencing a un valor que permite el aislamiento, éste se activará en los discos cuya propiedad default_fencing se haya establecido en global.
phys-schost# cldevice set \ -p default_fencing=nofencing-noscrub device
phys-schost# cldevice show device
phys-schost# clsetup
Aparece la pantalla Configuración inicial del cluster.
Nota - Si en lugar de ello aparece el menú principal, quiere decir que la configuración inicial del cluster ya se ha realizado correctamente. Vaya al Paso 11.
|
En el caso de los servidores del quórum, especifique también la siguiente información:
La dirección IP del host del servidor de quórum.
El número de puerto que usa el servidor de quórum para comunicarse con los nodos del cluster.
Una vez que la utilidad clsetup haya establecido la configuración y el número de votos del quórum en el cluster, aparecerá el mensaje Inicialización del cluster completa. La utilidad le lleva de nuevo al menú principal.
Pasos siguientes
Verifique que la configuración del quórum sea correcta y que el modo de instalación esté inhabilitado. Vaya a Cómo verificar los modos de configuración e instalación del quórum.
Errores más frecuentes
Proceso de clsetup interrumpido: si el proceso de configuración del quórum se interrumpe o no se completa correctamente, vuelva a ejecutar clsetup.
Cambios en el recuento de votos del quórum: si más adelante se incrementa o reduce el número de conexiones de nodos con un dispositivo de quórum, el número de votos de quórum no se recalcula de manera automática. Puede volver a establecer el voto del quórum correcto quitando cada uno de los dispositivos de quórum y agregándolos después nuevamente a la configuración uno por uno. En caso de un nodo de dos clusters, agregue temporalmente un nuevo dispositivo de quórum antes de quitar y volver a agregar el dispositivo de quórum original. A continuación, elimine el dispositivo de quórum temporal. Consulte el procedimiento sobre cómo modificar una lista de nodos de un dispositivo del quórum en el Capítulo 6, Administración de quórum de Guía de administración del sistema de Oracle Solaris Cluster.
Dispositivo de quórum inalcanzable: si aparecen mensajes en los nodos del cluster que indican que un dispositivo de quórum es inalcanzable, o si se producen fallos en los nodos del cluster con el mensaje CMM: Unable to acquire the quorum device (CMM: No se puede adquirir el dispositivo de quórum), es posible que haya un problema con el dispositivo de quórum o su ruta. Compruebe que el dispositivo del quórum y su ruta estén operativos.
Si el problema persiste, utilice otro dispositivo del quórum. Si desea utilizar el mismo dispositivo del quórum, puede aumentar su tiempo de espera, como se indica a continuación:
Nota - En Oracle Real Application Clusters (Oracle RAC), no modifique el tiempo de espera del quórum predeterminado de 25 segundos. En determinados casos en que las dos partes de un cluster se desconectan y cada una de ellas cree que la otra parte está inactiva, un tiempo de espera superior puede hacer que falle el proceso de conmutación por error de Oracle RAC VIP debido a la finalización del tiempo de espera de recursos VIP. Si el dispositivo del quórum que se utiliza no es adecuado para un tiempo de espera predeterminado de 25 segundos, utilice otro dispositivo.
1. Conviértase en superusuario.
2. En cada nodo del cluster, edite el archivo /etc/system como superusuario para establecer el tiempo de espera en un valor alto.
En el ejemplo siguiente se establece el tiempo de espera en 700 segundos.
phys-schost# vi /etc/system … set cl_haci:qd_acquisition_timer=700
3. Cierre el cluster desde un nodo.
phys-schost-1# cluster shutdown -g0 -y
4. Vuelva a iniciar cada nodo en el cluster.
Los cambios que se efectúan en el archivo /etc/system se aplican después de reiniciar.
Lleve a cabo este procedimiento para verificar que la configuración del quórum se haya completado correctamente, en caso de que lo haya configurado, y que el modo de instalación del cluster esté inactivo.
No es necesario ser superusuario para ejecutar estos comandos.
phys-schost% clquorum list
La salida muestra los dispositivos del quórum y los nodos.
phys-schost% cluster show -t global | grep installmode installmode: disabled
La creación e instalación del cluster se ha completado.
Pasos siguientes
Determine cuál de las tareas de la lista que se muestra a continuación corresponde a la siguiente tarea que se realizará en la configuración de su cluster. Si necesita realizar más de una tarea de las de esta lista, vaya a la que aparezca en primer lugar.
Si desea cambiar algún nombre de host privado, vaya a Cómo cambiar nombres de host privados.
Si no ha instalado su propio archivo /etc/inet/ntp.conf antes de instalar el software de Oracle Solaris Cluster, instale o cree el archivo de configuración de NTP. Vaya a Configuración de Network Time Protocol (NTP).
Si desea configurar IPSec en la interconexión privada, vaya a Configuración de la arquitectura de seguridad IP (IPsec) en la interconexión privada del cluster.
Para configurar el software de Solaris Volume Manager, vaya al Capítulo 4, Configuración del software de Solaris Volume Manager.
Para crear sistemas de archivos del cluster, vaya a Cómo crear sistemas de archivos del cluster.
Para crear zonas no globales en un nodo, vaya a Creación de una zona no global en un nodo del cluster global.
Instale las aplicaciones de terceros, registre los tipos de recursos y configure los grupos de recursos y los servicios de datos. Consulte la documentación proporcionada con el software de la aplicación y Oracle Solaris Cluster Data Services Planning and Administration Guide.
Antes de poner el cluster en funcionamiento, realice un registro de línea de base de la configuración del cluster para futuros diagnósticos. Vaya a Cómo registrar los datos de diagnóstico de la configuración del cluster.
Véase también
Realice una copia de seguridad de la configuración del cluster.
Si dispone de una copia de seguridad de la configuración del cluster, le resultará más sencillo recuperarla cuando sea necesario. Para obtener más información, consulte Copias de seguridad de la configuración del cluster de Guía de administración del sistema de Oracle Solaris Cluster.
Realice esta tarea si no desea utilizar los nombres de host privados predeterminados, clusternodenodeid -priv, que se asignan durante la instalación del software de Oracle Solaris Cluster.
Nota - No lleve a cabo este procedimiento una vez se hayan configurado e iniciado las aplicaciones y los servicios de datos. De lo contrario, algunas aplicaciones o servicios de datos podrían continuar utilizando el nombre de host privado antiguo después de haber cambiado el mismo, lo que causaría conflictos en el nombre de host. Si hubiera alguna aplicación o algún servicio de datos en ejecución, deténgalos antes de realizar este procedimiento.
Realice este procedimiento en un nodo activo del cluster.
phys-schost# clsetup
Aparece el menú principal de clsetup.
Aparece el menú Nombres de host privados.
Repita este paso con cada nombre de host que desee cambiar.
phys-schost# clnode show -t node | grep privatehostname privatehostname: clusternode1-priv privatehostname: clusternode2-priv privatehostname: clusternode3-priv
Pasos siguientes
Determine cuál de las tareas de la lista que se muestra a continuación corresponde a la siguiente tarea que se realizará en la configuración de su cluster. Si necesita realizar más de una tarea de las de esta lista, vaya a la que aparezca en primer lugar.
Si no ha instalado su propio archivo /etc/inet/ntp.conf antes de instalar el software de Oracle Solaris Cluster, instale o cree el archivo de configuración de NTP. Vaya a Configuración de Network Time Protocol (NTP).
Si desea configurar IPSec en la interconexión privada, vaya a Configuración de la arquitectura de seguridad IP (IPsec) en la interconexión privada del cluster.
Para configurar el software de Solaris Volume Manager, vaya al Capítulo 4, Configuración del software de Solaris Volume Manager.
Para crear sistemas de archivos del cluster, vaya a Cómo crear sistemas de archivos del cluster.
Para crear zonas no globales en un nodo, vaya a Creación de una zona no global en un nodo del cluster global.
Instale las aplicaciones de terceros, registre los tipos de recursos y configure los grupos de recursos y los servicios de datos. Consulte la documentación proporcionada con el software de la aplicación y Oracle Solaris Cluster Data Services Planning and Administration Guide.
Antes de poner el cluster en funcionamiento, realice un registro de línea de base de la configuración del cluster para futuros diagnósticos. Vaya a Cómo registrar los datos de diagnóstico de la configuración del cluster.
Puede activar la distribución automática de la carga de grupos de recursos en los nodos o zonas estableciendo límites de carga. Asigna factores de carga a grupos de recursos y los factores de carga se corresponden con los límites de carga de los nodos.
El comportamiento predeterminado es distribuir la carga de grupos de recursos de manera uniforme en todos los nodos disponibles. Cada grupo de recursos se inicia en un nodo de esta lista de nodos. El Administrador de grupos de recursos (RGM) selecciona el nodo que mejor cumple la política de distribución de la carga configurada. Debido a que el RGM asigna grupos de recursos a los nodos, los factores de carga de los grupos de recursos de cada nodo se suman para proporcionar una carga total. La carga total se compara respecto a los límites de carga de ese nodo.
Puede configurar límites de carga en un cluster global o un cluster de zona.
Los factores establecidos para el control de la distribución de carga en cada nodo incluyen los límites de carga, las prioridades de grupos de recursos y el modo de preferencia. En el cluster global, puede establecer la propiedad Concentrate_load para seleccionar la política de distribución de carga preferida: para que se concentre la carga de grupos de recursos en la menor cantidad de nodos posible sin exceder los límites de carga o para distribuir la carga de la manera más uniforme posible entre todos los nodos disponibles. El comportamiento predeterminado es aumentar el tamaño de carga de grupos de recursos. Cada grupo de recursos continuará limitándose a ejecutar sólo en los nodos de su lista de nodos, independientemente del factor de carga y los valores de límite de carga.
Nota - Puede utilizar la línea de comandos, la interfaz del gestor de Oracle Solaris Cluster o la utilidad clsetup para configurar la distribución de la carga para los grupos de recursos. En el procedimiento siguiente, se ilustra cómo configurar la distribución de carga para los grupos de recursos mediante la utilidad clsetup. Para obtener instrucciones sobre cómo utilizar la línea de comandos para realizar estos procedimientos, consulte Configuración de límites de carga de Guía de administración del sistema de Oracle Solaris Cluster.
Esta sección incluye los procedimientos siguientes:
Definición de los factores de carga para un grupo de recursos
Definición del modo de preferencia para un grupo de recursos
Cada zona o nodo del cluster puede tener su propio conjunto de límites de carga. Asigna factores de carga a grupos de recursos y los factores de carga se corresponden con los límites de carga de los nodos. Puede establecer límites de carga flexibles (que se pueden superar) o límites de carga rígidos (que no se pueden superar).
phys-schost# clsetup
Se muestra el menú clsetup.
Se muestra el menú Other Cluster Tasks (Otras tareas del cluster).
Se muestra el menú Manage Resource Group Load Distribution (Gestionar distribución de carga de grupos de recursos).
Se muestra el menú Manage Load Limits (Gestionar límites de carga).
Puede crear, modificar y suprimir un límite de carga.
Si desea establecer un límite de carga en un segundo nodo, seleccione el número de opción que se corresponda con el segundo nodo y pulse la tecla Intro. Después de haber seleccionado todos los nodos en los que desea configurar límites de carga, escriba q y pulse la tecla Intro.
Por ejemplo, escriba mem_load como nombre de un límite de carga.
Si ha escrito yes (sí), introduzca el valor de límite flexible y pulse la tecla Intro.
Si ha escrito yes (sí), introduzca el valor de límite rígido y pulse la tecla Intro.
Se muestra el mensaje Command completed successfully (El comando se completó con éxito) junto con los límites de carga flexibles y rígidos para los nodos seleccionados. Pulse la tecla Intro para continuar.
Para volver al menú anterior, escriba q y pulse la tecla Intro.
También puede configurar un grupo de recursos para que tenga una prioridad superior y reducir así la probabilidad de ser desplazado de un nodo específico. Si de sobrepasan los límites de la carga, es posible que los grupos de recursos de menor prioridad estén obligados a permanecer sin conexión.
phys-schost# clsetup
Se muestra el menú clsetup.
Se muestra el menú Other Cluster Tasks (Otras tareas del cluster).
Se muestra el menú Manage Resource Group Load Distribution (Gestionar distribución de carga de grupos de recursos).
Se muestra el menú Set Priority Per Resource Group (Establecer prioridad por grupo de recursos).
Se muestran los valores de prioridad existentes. El valor de prioridad predeterminado es 500.
Se muestra el menú Manage Resource Group Load Distribution (Gestionar distribución de carga de grupos de recursos).
Un factor de carga es un valor que se asigna a la carga en un límite de carga. Los factores de carga se asignan a un grupo de recursos, y estos factores de carga corresponden a los límites de carga definidos de los nodos.
phys-schost# clsetup
Se muestra el menú clsetup.
Se muestra el menú Other Cluster Tasks (Otras tareas del cluster).
Se muestra el menú Manage Resource Group Load Distribution (Gestionar distribución de carga de grupos de recursos).
Se muestra el menú Set Load Factors Per Resource Group (Establecer factores de carga por grupo de recursos).
Por ejemplo, para establecer un factor de carga denominado mem_load en el grupo de recursos seleccionado, escriba mem_load@50. Pulse Ctrl-D cuando haya terminado.
Se muestra el menú Manage Resource Group Load Distribution (Gestionar distribución de carga de grupos de recursos).
La propiedad preemption_mode determina si un grupo de recursos se apoderará de un nodo mediante un grupo de recursos de mayor prioridad debido a la sobrecarga de nodos. La propiedad indica el costo de trasladar un grupo de recursos de un nodo a otro.
phys-schost# clsetup
Se muestra el menú clsetup.
Se muestra el menú Other Cluster Tasks (Otras tareas del cluster).
Se muestra el menú Manage Resource Group Load Distribution (Gestionar distribución de carga de grupos de recursos).
Se muestra el menú Set the Preemption Mode of a Resource Group (Establecer modo de preferencia de un grupo de recursos).
Si el grupo de recursos tiene establecido un modo de preferencia, se muestra de manera similar a la siguiente:
The preemption mode property of "rg11" is currently set to the following: preemption mode: Has_Cost
Las tres opciones son Has_cost, No_cost y Never.
Se muestra el menú Manage Resource Group Load Distribution (Gestionar distribución de carga de grupos de recursos).
Si se establece la propiedad Concentrate_load en False, el cluster difunde cargas de grupos de recursos de manera uniforme entre todos los nodos disponibles. Si se define esta propiedad en True, el cluster intenta concentrar la carga de grupos de recursos en la menor cantidad posible de nodos, sin exceder los límites de carga. De manera predeterminada, la propiedad Concentrate_load está establecida en False. Sólo puede definir la propiedad Concentrate_load en un cluster global; no puede establecer esta propiedad en un cluster de zona. En un cluster de zona, la configuración predeterminada siempre es False.
phys-schost# clsetup
Se muestra el menú clsetup.
Se muestra el menú Other Cluster Tasks (Otras tareas del cluster).
Se muestra el menú Set the Concentrate Load Property of the Cluster (Establecer la propiedad concentrate_load del cluster).
Se muestra el valor actual de TRUE o FALSE.
Se muestra el menú Other Cluster Tasks (Otras tareas del cluster).
Nota - Si ha instalado su propio archivo /etc/inet/ntp.conf antes de instalar el software de Oracle Solaris Cluster, no es necesario que lleve a cabo este procedimiento. Determine el paso que debe realizar a continuación:
Realice esta tarea para crear o modificar el archivo de configuración de NTP tras realizar cualquiera de las siguientes tareas:
Instalar el software de Oracle Solaris Cluster
Agregar un nodo a un cluster global existente
Cambiar el nombre de host privado de un nodo del cluster global
Si ha agregado un nodo a un cluster de un solo nodo, debe asegurarse de que el archivo de configuración de NTP que utilice se copie en el nodo del cluster original y en el nodo nuevo.
Nota - No cambie el nombre del archivo ntp.conf.cluster a ntp.conf.
Si el archivo /etc/inet/ntp.conf.cluster no existe en el nodo, es posible que disponga de un archivo /etc/inet/ntp.conf de una instalación del software de Oracle Solaris Cluster anterior. El software de Oracle Solaris Cluster crea el archivo /etc/inet/ntp.conf.cluster como archivo de configuración de NTP si no existe un archivo /etc/inet/ntp.conf en el nodo. Si es así, realice las siguientes modificaciones en el archivo ntp.conf.
Si ha cambiado el nombre de host privado de cualquier nodo, asegúrese de que el archivo de configuración de NTP contenga el nuevo nombre de host privado.
El contenido del archivo de configuración de NTP debe ser idéntico en todos los nodos del cluster.
Esperar a que el comando termine de ejecutarse correctamente en cada nodo antes de seguir con el Paso 5.
phys-schost# svcadm disable ntp
phys-schost# /etc/init.d/xntpd.cluster start
La secuencia de comandos de inicio xntpd.cluster busca primero el archivo /etc/inet/ntp.conf.
Si el archivo ntp.conf existe, la secuencia de comandos se cierra inmediatamente sin iniciar el daemon NTP.
Si el archivo ntp.conf no existe, pero el archivo ntp.conf.cluster sí existe, la secuencia de comandos inicia el daemon NTP. En este caso, la secuencia de comandos utiliza el archivo ntp.conf.cluster como archivo de configuración de NTP.
phys-schost# svcadm enable ntp
Pasos siguientes
Determine cuál de las tareas de la lista que se muestra a continuación corresponde a la siguiente tarea que se realizará en la configuración de su cluster. Si necesita realizar más de una tarea de las de esta lista, vaya a la que aparezca en primer lugar.
Si desea configurar IPSec en la interconexión privada, vaya a Configuración de la arquitectura de seguridad IP (IPsec) en la interconexión privada del cluster.
Para configurar el software de Solaris Volume Manager, vaya al Capítulo 4, Configuración del software de Solaris Volume Manager.
Para crear sistemas de archivos del cluster, vaya a Cómo crear sistemas de archivos del cluster.
Para crear zonas no globales en un nodo, vaya a Creación de una zona no global en un nodo del cluster global.
Instale las aplicaciones de terceros, registre los tipos de recursos y configure los grupos de recursos y los servicios de datos. Consulte la documentación proporcionada con el software de la aplicación y Oracle Solaris Cluster Data Services Planning and Administration Guide.
Antes de poner el cluster en funcionamiento, realice un registro de línea de base de la configuración del cluster para futuros diagnósticos. Vaya a Cómo registrar los datos de diagnóstico de la configuración del cluster.
Puede configurar la arquitectura de seguridad IP (IPsec) para la interfaz clprivnet a fin de proporcionar comunicación TCP/IP segura en la interconexión del cluster.
Para obtener más información sobre IPsec, consulte Parte IV, Seguridad IP de Administración de Oracle Solaris: servicios IP y la página del comando man ipsecconf(1M). Para obtener información sobre la interfaz clprivnet, consulte la página del comando man clprivnet(7).
Realice este procedimiento en todos los nodos con voto del cluster global que desee configurar para que utilicen IPsec.
phys-schost# ifconfig clprivnet0
Siga las instrucciones que se proporcionan en Cómo proteger el tráfico entre dos sistemas con IPsec de Administración de Oracle Solaris: servicios IP. Además, tenga en cuenta las siguientes directrices:
Asegúrese de que los valores de los parámetros de configuración de estas direcciones mantengan una coherencia en todos los nodos asociados.
Configurar cada política como una línea separada en el archivo de configuración.
Para implementar IPSec sin reiniciar, siga las instrucciones del ejemplo del procedimiento, Protección del tráfico con IPsec sin reiniciar.
Para obtener más información acerca de la norma sa unique, consulte la página del comando man ipsecconf(1M).
Incluya la dirección IP clprivnet del nodo local.
Esta función ayuda al controlador a utilizar de manera óptima el ancho de banda de la red privada del cluster, que proporciona una elevada granularidad de distribución y un mejor rendimiento. La interfaz clprivnet utiliza el índice de parámetros de seguridad (SPI) del paquete para segmentar el tráfico.
Agregue esta entrada con reglas de política que se han configurado para transportes del cluster. Este valor proporciona el tiempo para las asociaciones de seguridad que se vuelven a generar cuando un nodo del cluster se reinicia y además limita la rapidez con la que el nodo reiniciado puede volver a unirse al cluster. Un valor de 30 segundos debería ser suficiente.
phys-schost# vi /etc/inet/ike/config … { label "clust-priv-interconnect1-clust-priv-interconnect2" … p2_idletime_secs 30 } …
Pasos siguientes
Determine cuál de las tareas de la lista que se muestra a continuación corresponde a la siguiente tarea que se realizará en la configuración de su cluster. Si necesita realizar más de una tarea de las de esta lista, vaya a la que aparezca en primer lugar.
Para configurar el software de Solaris Volume Manager, vaya al Capítulo 4, Configuración del software de Solaris Volume Manager.
Para crear sistemas de archivos del cluster, vaya a Cómo crear sistemas de archivos del cluster.
Para crear zonas no globales en un nodo, vaya a Creación de una zona no global en un nodo del cluster global.
Instale las aplicaciones de terceros, registre los tipos de recursos y configure los grupos de recursos y los servicios de datos. Consulte la documentación proporcionada con el software de la aplicación y Oracle Solaris Cluster Data Services Planning and Administration Guide.
De lo contrario, si ha completado todas las tareas de configuración e instalación de software y hardware, valide el cluster. Vaya a Cómo validar el cluster.
Una vez completada la configuración del cluster, utilice el comando cluster check para validar la configuración y la funcionalidad del cluster. Para obtener más información, consulte la página del comando man cluster(1CL).
Consejo - Para realizar consultas o resolver problemas de forma más sencilla, en cada validación que ejecute, utilice la opción -o outputdir para especificar un subdirectorio para los archivos de registro. Si se reutiliza el nombre de un subdirectorio que ya existe, se eliminarán todos los archivos existentes en dicho subdirectorio. Por tanto, para asegurarse de que haya disponibles archivos de registro para futuras consultas, especifique un nombre de subdirectorio exclusivo para cada comprobación de cluster que vaya a efectuar.
Antes de empezar
Asegúrese de haber completado la instalación y la configuración de todos los componentes de hardware y software en el cluster, incluidos el firmware y los parches.
Vaya a la ficha Patches & Updates (Parches y actualizaciones) de My Oracle Support. Mediante la búsqueda avanzada, seleccione "Solaris Cluster" como producto y especifique "comprobar" en el campo de descripción para localizar los parches de Oracle Solaris Cluster que contengan comprobaciones. Aplique todos los parches que no se encuentren instalados en el cluster.
# cluster check -v -o outputdir
Modo detallado
Redirige la salida al subdirectorio outputdir.
El comando ejecuta todas las comprobaciones básicas disponibles. No se ve afectada ninguna función del cluster.
# cluster check -v -k interactive -o outputdir
Especifica comprobaciones de validación interactivas en ejecución
El comando ejecuta todas las comprobaciones de validación interactivas disponibles y le solicita información necesaria sobre el cluster. No se ve afectada ninguna función del cluster.
# cluster list-checks -k functional
Por ejemplo, una comprobación funcional puede desencadenar que el nodo genere avisos graves o una conmutación por error a otro nodo.
# cluster list-checks -v -C checkID
Especifica un una comprobación específica.
# cluster check -v -k functional -C checkid -o outputdir
Especifica comprobaciones de validación funcionales en ejecución.
Responda a las peticiones de la comprobación para confirmar la ejecución de la comprobación y para cualquier información o acciones que deba realizar.
Nota - para fines de registro, especifique un único nombre de subdirectorio dir_salida para cada comprobación que se ejecuta. Si vuelve a utilizar un nombre dir_salida, la salida para la nueva comprobación sobrescribe el contenido existente del subdirectorio dir_salida reutilizado.
Ejemplo 3-5 Listado de comprobaciones de validación interactivas
En el siguiente ejemplo se enumeran todas las comprobaciones interactivas que están disponibles para ejecutarse en el cluster. En la salida del ejemplo aparece un muestreo de posibles comprobaciones; las comprobaciones disponibles reales varían en cada configuración.
# cluster list-checks -k interactive Some checks might take a few moments to run (use -v to see progress)... I6994574 : (Moderate) Fix for GLDv3 interfaces on cluster transport vulnerability applied?
Ejemplo 3-6 Ejecución de una comprobación de validación funcional
El siguiente ejemplo muestra primero el listado detallado de comprobaciones funcionales. La descripción detallada aparece en una lista para la comprobación F6968101, que indica que la comprobación podría alterar los servicios del cluster. El cluster se elimina de la producción. La comprobación funcional se ejecuta con salida detallada registrada en el subdirectorio funct.test.F6968101.12Jan2011. En la salida de ejemplo aparece un muestreo de posibles comprobaciones; las comprobaciones disponibles reales varían en cada configuración.
# cluster list-checks -k functional F6968101 : (Critical) Perform resource group switchover F6984120 : (Critical) Induce cluster transport network failure - single adapter. F6984121 : (Critical) Perform cluster shutdown F6984140 : (Critical) Induce node panic … # cluster list-checks -v -C F6968101 F6968101: (Critical) Perform resource group switchover Keywords: SolarisCluster3.x, functional Applicability: Applicable if multi-node cluster running live. Check Logic: Select a resource group and destination node. Perform '/usr/cluster/bin/clresourcegroup switch' on specified resource group either to specified node or to all nodes in succession. Version: 1.2 Revision Date: 12/10/10 Take the cluster out of production # cluster check -k functional -C F6968101 -o funct.test.F6968101.12Jan2011 F6968101 initializing... initializing xml output... loading auxiliary data... starting check run... pschost1, pschost2, pschost3, pschost4: F6968101.... starting: Perform resource group switchover ============================================================ >>> Functional Check <<< 'Functional' checks exercise cluster behavior. It is recommended that you do not run this check on a cluster in production mode.' It is recommended that you have access to the system console for each cluster node and observe any output on the consoles while the check is executed. If the node running this check is brought down during execution the check must be rerun from this same node after it is rebooted into the cluster in order for the check to be completed. Select 'continue' for more details on this check. 1) continue 2) exit choice: 1 ============================================================ >>> Check Description <<< … Follow onscreen directions
Pasos siguientes
Antes de poner el cluster en funcionamiento, realice un registro de línea de base de la configuración del cluster para futuros diagnósticos. Vaya a Cómo registrar los datos de diagnóstico de la configuración del cluster.
Cuando termine de configurar el cluster global y antes de ponerlo en funcionamiento, use la utilidad Oracle Explorer para registrar la información de línea de base acerca del cluster. Estos datos se pueden utilizar en caso de que se diera una necesidad de resolver un problema con el cluster.
Services Tools Bundle contiene los paquetes de Oracle Explorer SUNWexplo y SUNWexplu. Consulte http://www.oracle.com/us/support/systems/premier/services-tools-bundle-sun-systems-163717.html para obtener información sobre la descarga y la instalación del software.
Utilice el comando adecuado para su plataforma. Por ejemplo, para recolectar información en un servidor Sun Fire T1000 de Oracle, ejecute el siguiente comando:
# explorer -i -w default,Tx000
Para más información, consulte la página del comando man explorer(1M), en el directorio /opt/SUNWexplo/man/man1m/, y la Guía del usuario de Oracle Explorer Data Collector, que se encuentra en la nota 1153444.1 de My Oracle Support:
El archivo de salida explorer se guarda en el directorio /opt/SUNWexplo/output/ como explorer.hostid.hostname-date .tar.gz.
Siga los procedimientos mencionados en la Guía de usuario de Oracle Explorer Data Collector para usar FTP o HTTPS con el fin de enviar archivos de Oracle Explorer.
La base de datos de Oracle Explorer pondrá la salida de explorer a disposición de la asistencia técnica de Oracle cuando estos datos resulten necesarios para ayudar a diagnosticar un problema técnico del cluster.