Utilice el comando scswitch(1M) junto con el comando de Solaris shutdown(1M) para detener un nodo individual. Utilice el comando scshutdown únicamente para parar todo el clúster.
Tarea |
Para obtener instrucciones |
---|---|
Parar un nodo del clúster Utilice scswitch(1M) y shutdown(1M) | |
Iniciar un nodo El nodo debe disponer de una conexión funcional con la interconexión del clúster para pertenecer a éste. | |
Parar y reiniciar (rearrancar) un nodo del clúster Utilice scswitch y shutdown El nodo debe disponer de una conexión funcional con la interconexión del clúster para pertenecer a éste. | |
Arrancar un nodo de forma que deje de pertenecer al clúster Utilice scswitch, shutdown y, a continuación, boot -x |
No utilice el comando send brk en una consola del clúster para parar un nodo de éste. El uso de send brk y go en el indicador ok para rearrancar provoca que el nodo emita un aviso grave. Esta función no se admite dentro de un clúster.
Si está ejecutando Oracle Parallel Server/Real Application Clusters, pare todas las instancias de la base de datos.
Para averiguar los procedimientos de parada, consulte la documentación del producto de Oracle Parallel Server/Real Application Clusters.
Conviértase en usuario root en el nodo del clúster que se debe parar.
Pase todos los recursos y los grupos de dispositivos y de recursos del nodo que se va a parar a los otros miembros del clúster.
Escriba el siguiente comando en el nodo que se va a parar:
# scswitch -S -h nodo |
Evacúa todos los servicios de dispositivo y grupos de recursos del nodo especificado.
Especifica el nodo del que se van a retirar todos los grupos de recursos y grupos de dispositivos.
Pare el nodo del clúster al nivel de OBP.
Escriba el siguiente comando en el nodo que se va a parar:
# shutdown -g0 -y -i0 |
Compruebe que el nodo haya llegado al indicador ok.
Si es necesario, apague el nodo.
En el ejemplo siguiente se muestra la salida de la consola correspondiente a parar el nodo phys-schost-1. La opción -g0 establece en cero el período de gracia, -y ofrece una respuesta afirmativa automática a la pregunta de confirmación e -i0 llama al nivel de ejecución 0 (cero). En las consolas de los otros nodos del clúster aparecen mensajes de parada de este nodo.
# scswitch -S -h phys-schost-1 # shutdown -g0 -y -i0 May 2 10:08:46 phys-schost-1 cl_runtime: WARNING: CMM monitoring disabled.phys-schost-1# INIT: New run level: 0 The system is coming down. Please wait. Notice: rgmd is being stopped. Notice: rpc.pmfd is being stopped. Notice: rpc.fed is being stopped. umount: /global/.devices/node@1 busy umount: /global/phys-schost-1 busy The system is down. syncing file systems... done Program terminated ok |
Consulte Cómo arrancar un nodo del clúster para reiniciar un nodo del clúster detenido.
El inicio de un nodo del clúster puede quedar afectado por la configuración del quórum. En un clúster de dos nodos, deberá tener configurado un dispositivo del quórum de tal modo que el total de quórum del nodo sea tres. Deberá tener un quórum de uno por cada nodo y uno adicional por el dispositivo de quórum. En esta situación, si se para el primer nodo, el segundo sigue teniendo quórum y funciona como miembro único del clúster. Para que el primer nodo vuelva al clúster como miembro de éste, el segundo nodo debe estar en marcha y activo. El total del quórum requerido del clúster (dos) debe estar presente.
Para iniciar un nodo del clúster que ha sido parado, arranque el nodo.
ok boot |
A medida que los componentes del clúster se activan, en todas las consolas de los nodos se pueden visualizar mensajes.
El nodo debe disponer de una conexión funcional con la interconexión del clúster para pertenecer a éste.
Compruebe que el nodo haya arrancado sin errores y se encuentre en línea.
El comando scstat (1M) informa del estado de un nodo.
# scstat -n |
Si el sistema de archivos /var de un nodo del clúster se llena, es posible que Sun Cluster no pueda reiniciarse en ese nodo. Si surge este problema, consulteCómo reparar un sistema de archivos /var completo.
En el ejemplo siguiente se muestra la salida de la consola correspondiente a arrancar el nodo phys-schost-1 en el clúster.
ok boot Rebooting with command: boot ... Hostname: phys-schost-1 Booting as part of a cluster ... NOTICE: Node 1: attempting to join cluster ... NOTICE: Node 1: joined cluster ... The system is coming up. Please wait. checking ufs filesystems ... reservation program successfully exiting Print services started. volume management starting. The system is ready. phys-schost-1 console login: |
Si el nodo del clúster está ejecutando Oracle Parallel Server/Real Application Clusters, pare todas las instancias de la base de datos.
Para averiguar los procedimientos de parada, consulte la documentación del producto de Oracle Parallel Server/Real Application Clusters.
Conviértase en usuario root en el nodo del clúster que se debe parar.
Pare el nodo del clúster mediante los comandos scswitch y shutdown.
Escriba estos comandos en el nodo que se debe parar. La opción -i6 del comando shutdown hace que el nodo rearranque después de pararse y llegar al indicador ok.
# scswitch -S -h nodo # shutdown -g0 -y -i6 |
Los nodos deben disponer de una conexión funcional con la interconexión del clúster para pertenecer a éste.
Compruebe que el nodo haya arrancado sin errores y se encuentre en línea.
# scstat -n |
En el ejemplo siguiente se muestra la salida de la consola correspondiente a la acción de rearrancar el nodo phys-schost-1. Los mensajes correspondientes a este nodo, como la notificación de parada y la de rearranque, aparecen en las consolas de los otros nodos del clúster.
# scswitch -S -h phys-schost-1 # shutdown -g0 -y -i6 May 2 10:08:46 phys-schost-1 cl_runtime: WARNING: CMM monitoring disabled. phys-schost-1# INIT: New run level: 6 The system is coming down. Please wait. System services are now being stopped. Notice: rgmd is being stopped. Notice: rpc.pmfd is being stopped. Notice: rpc.fed is being stopped. umount: /global/.devices/node@1 busy umount: /global/phys-schost-1 busy The system is down. syncing file systems... done rebooting... Resetting ... ,,, Sun Ultra 1 SBus (UltraSPARC 143MHz), No Keyboard OpenBoot 3.11, 128 MB memory installed, Serial #5932401. Ethernet address 8:8:20:99:ab:77, Host ID: 8899ab77. ... Rebooting with command: boot ... Hostname: phys-schost-1 Booting as part of a cluster ... NOTICE: Node 1: attempting to join cluster ... NOTICE: Node 1: joined cluster ... The system is coming up. Please wait. The system is ready. phys-schost-1 console login: |
Es posible arrancar un nodo de forma que no pertenezca al clúster; es decir, en modo sin clúster. Este modo se utiliza para instalar software o efectuar determinados procedimientos de administración, como instalar modificaciones en el nodo.
Conviértase en usuario root en el nodo que se debe iniciar en el modo sin clúster.
Pare el nodo mediante los comandos scswitch y shutdown.
# scswitch -S -h nodo # shutdown -g0 -y -i0 |
Compruebe que el nodo se encuentre en el indicador ok.
Arranque el nodo en modo sin clúster mediante el comando boot(1M) con la opción -x.
ok boot -x |
En la consola del nodo aparecerán mensajes que informan que el nodo no forma parte del clúster.
En el ejemplo siguiente se muestra la salida de consola obtenida al parar el nodo phys-schost-1 y reiniciarlo en modo sin clúster. La opción -g0 establece en cero el período de gracia, -y ofrece una respuesta afirmativa automática a la pregunta de confirmación e -i0 llama al nivel de ejecución 0 (cero). En las consolas de los otros nodos del clúster aparecen mensajes de parada de este nodo.
# scswitch -S -h phys-schost-1 # shutdown -g0 -y -i0 May 2 10:08:46 phys-schost-1 cl_runtime: WARNING: CMM monitoring disabled. phys-schost-1# ... rg_name = schost-sa-1 ... offline node = phys-schost-2 ... num of node = 0 ... phys-schost-1# INIT: New run level: 0 The system is coming down. Please wait. System services are now being stopped. Print services stopped. syslogd: going down on signal 15 ... The system is down. syncing file systems... done WARNING: node 1 is being shut down. Program terminated ok boot -x ... Not booting as part of cluster ... The system is ready. phys-schost-1 console login: |