Guía de administración del sistema de Oracle® Solaris Cluster 4.3

Salir de la Vista de impresión

Actualización: Julio de 2016
 
 

Inicio de un nodo

phys-schost# refleja una petición de datos de cluster global. Siga este procedimiento en un cluster global.

Este procedimiento proporciona las formas largas de los comandos de Oracle Solaris Cluster. La mayoría de los comandos también tienen una forma corta. A excepción de las formas cortas y largas de los nombres de comando, los comandos son idénticos.


Notas -  También puede iniciar un nodo de cluster de zona mediante la interfaz de explorador de Oracle Solaris Cluster Manager. Para obtener instrucciones de inicio de sesión en Oracle Solaris Cluster Manager, consulte Cómo acceder a Oracle Solaris Cluster Manager.

Si desea cerrar o reiniciar otros nodos activos del cluster global o del cluster de zona, espere a que aparezca en línea el estado guía de servidor multiusuario para el nodo que está iniciando. De lo contrario, el nodo no estará disponible para hacerse cargo de los servicios de otros nodos del cluster que se cierren o reinicien.


Notas -  La configuración del quórum puede afectar el inicio de un nodo. En un cluster de dos nodos, debe tener un dispositivo de quórum configurado de manera que el recuento total de quórum correspondiente al cluster sea de tres. Es conveniente tener un recuento de quórum para cada nodo y un recuento de quórum para el dispositivo de quórum. De esta forma, si se cierra el primer nodo, el segundo sigue disponiendo de quórum y funciona como miembro único del cluster. Para que el primer nodo retorne al cluster como nodo integrante, el segundo debe estar en funcionamiento. Debe estar el correspondiente número de quórum de cluster (dos).

Si ejecuta Oracle Solaris Cluster en un dominio invitado, el reinicio del control o el dominio de E/S puede afectar el dominio invitado en ejecución, incluido el dominio que se va a cerrar. Debe volver a equilibrar la carga de trabajo en otros nodos y detener el dominio invitado que ejecute Oracle Solaris Cluster antes de volver a iniciar el control o el dominio de E/S.

Cuando un dominio de E/S o control se reinicia, el dominio invitado no envía ni recibe latidos. Esto genera una situación de "cerebro dividido" y una reconfiguración del cluster. Como se reinicia el control o el dominio de E/S, el dominio invitado no puede tener acceso a ningún dispositivo compartido. Los otros nodos del cluster ponen una barrera entre el dominio invitado y los dispositivos compartidos. Cuando el control o el dominio de E/S se termina de reiniciar, se reanuda la E/S en el dominio invitado, y cualquier E/S de un almacenamiento compartido hace que el dominio invitado emita un aviso grave a causa de la barrera que le impide acceder a los discos compartidos como parte de la reconfiguración del cluster. Puede mitigar este problema si un invitado utiliza dos dominios de E/S para la redundancia, y usted reinicia los dominios de E/S de uno en uno.


Notas -  Los nodos deben disponer de una conexión operativa con la interconexión de cluster para poder convertirse en miembros del cluster.
  1. Para iniciar un nodo del cluster global o un nodo de un cluster de zona que se haya cerrado, inicie el nodo.

    Siga todos los pasos de este procedimiento desde un nodo del cluster global.

    • En los sistemas basados en SPARC, ejecute el comando siguiente.

      ok boot
    • En los sistemas basados en x86, ejecute los comandos siguientes.

      Cuando aparezca el menú GRUB, seleccione la entrada de Oracle Solaris que corresponda y pulse Intro.

      A medida que se activan los componentes del cluster, aparecen mensajes en las consolas de los nodos que se han iniciado.

    • Si tiene un cluster de zona, puede especificar un nodo para que se inicie.

      phys-schost# clzonecluster boot -n node zone-cluster-name
  2. Compruebe que el nodo se haya iniciado sin errores y esté en línea.
    • Al ejecutarlo, el comando cluster status informa sobre el estado de un nodo del cluster global.
      phys-schost# cluster status -t node
    • Al ejecutarlo desde un nodo del cluster global, el comando clzonecluster status informa sobre el estado de todos los nodos de clusters de zona.
      phys-schost# clzonecluster status

      Un nodo de un cluster de zona solo puede iniciarse en modo de cluster si el nodo que lo aloja se inicia en modo de cluster.


      Notas -  Si el sistema de archivos /var de un nodo alcanza su límite de capacidad, es posible que Oracle Solaris Cluster no pueda reiniciarse en ese nodo. Si surge este problema, consulte Reparación de un sistema de archivos /var que haya alcanzado el límite de capacidad.
Ejemplo 25  SPARC: Inicio de un nodo del cluster global

El ejemplo siguiente muestra la salida de la consola cuando el nodo phys-schost-1 se inicia en el cluster global.

ok boot
Rebooting with command: boot
...
Hostname: phys-schost-1
Booting as part of a cluster
...
NOTICE: Node phys-schost-1: attempting to join cluster
...
NOTICE: Node phys-schost-1: joined cluster
...
The system is coming up.  Please wait.
checking ufs filesystems
...
reservation program successfully exiting
Print services started.
volume management starting.
The system is ready.
phys-schost-1 console login:
Ejemplo 26  x86: Inicio de un nodo de cluster

El ejemplo siguiente muestra la salida de la consola cuando el nodo phys-schost-1 se inicia en el cluster.

                     <<< Current Boot Parameters >>>
Boot path: /pci@0,0/pci8086,2545@3/pci8086,1460@1d/pci8086,341a@7,1/sd@0,0:a
Boot args:

Type    b [file-name] [boot-flags] <ENTER>   to boot with options
or      i <ENTER>                            to enter boot interpreter
or      <ENTER>                              to boot with defaults

<<< timeout in 5 seconds >>>

Select (b)oot or (i)nterpreter: Size: 276915 + 22156 + 150372 Bytes
/platform/i86pc/kernel/unix loaded - 0xac000 bytes used
SunOS Release 5.9 Version on81-feature-patch:08/30/2003 32-bit
Copyright 1983-2003 Sun Microsystems, Inc.  All rights reserved.
Use is subject to license terms.
configuring IPv4 interfaces: e1000g2.
Hostname: phys-schost-1
Booting as part of a cluster
NOTICE: CMM: Node phys-schost-1 (nodeid = 1) with votecount = 1 added.
NOTICE: CMM: Node phys-schost-2 (nodeid = 2) with votecount = 1 added.
NOTICE: CMM: Quorum device 1 (/dev/did/rdsk/d1s2) added; votecount = 1, bitmask
of nodes with configured paths = 0x3.
WARNING: CMM: Initialization for quorum device /dev/did/rdsk/d1s2 failed with
error EACCES. Will retry later.
NOTICE: clcomm: Adapter e1000g3 constructed
NOTICE: clcomm: Path phys-schost-1:e1000g3 - phys-schost-2:e1000g3 being constructed
NOTICE: clcomm: Path phys-schost-1:e1000g3 - phys-schost-2:e1000g3 being initiated
NOTICE: clcomm: Path phys-schost-1:e1000g3 - phys-schost-2:e1000g3 online
NOTICE: clcomm: Adapter e1000g0 constructed
NOTICE: clcomm: Path phys-schost-1:e1000g0 - phys-schost-2:e1000g0 being constructed
NOTICE: CMM: Node phys-schost-1: attempting to join cluster.
WARNING: CMM: Reading reservation keys from quorum device /dev/did/rdsk/d1s2
failed with error 2.
NOTICE: CMM: Cluster has reached quorum.
NOTICE: CMM: Node phys-schost-1 (nodeid = 1) is up; new incarnation number =
1068503958.
NOTICE: CMM: Node phys-schost-2 (nodeid = 2) is up; new incarnation number =
1068496374.
NOTICE: CMM: Cluster members: phys-schost-1 phys-schost-2.
NOTICE: CMM: node reconfiguration #3 completed.
NOTICE: CMM: Node phys-schost-1: joined cluster.
NOTICE: clcomm: Path phys-schost-1:e1000g0 - phys-schost-2:e1000g0 being initiated
NOTICE: clcomm: Path phys-schost-1:e1000g0 - phys-schost-2:e1000g0 online
NOTICE: CMM: Retry of initialization for quorum device /dev/did/rdsk/d1s2 was
successful.
WARNING: mod_installdrv: no major number for rsmrdt
ip: joining multicasts failed (18) on clprivnet0 - will use link layer
broadcasts for multicast
The system is coming up.  Please wait.
checking ufs filesystems
/dev/rdsk/c1t0d0s5: is clean.
NIS domain name is dev.eng.mycompany.com
starting rpc services: rpcbind keyserv ypbind done.
Setting netmask of e1000g2 to 192.168.255.0
Setting netmask of e1000g3 to 192.168.255.128
Setting netmask of e1000g0 to 192.168.255.128
Setting netmask of clprivnet0 to 192.168.255.0
Setting default IPv4 interface for multicast: add net 224.0/4: gateway phys-schost-1
syslog service starting.
obtaining access to all attached disks


*****************************************************************************
*
* The X-server can not be started on display :0...
*
*****************************************************************************
volume management starting.
Starting Fault Injection Server...
The system is ready.

phys-schost-1 console login: