Guide d'administration système d'Oracle® Solaris Cluster

Quitter la vue de l'impression

Mis à jour : Octobre 2015
 
 

Initialisation d'un noeud

Si vous avez l'intention d'arrêter ou de réinitialiser d'autres noeuds actifs du cluster global ou du cluster de zones, attendez que le jalon multi-utilisateur-serveur soit en ligne pour le noeud que vous souhaitez réinitialiser.

Sinon, le noeud ne sera pas disponible pour prendre la place de services d'autres noeuds du cluster que vous arrêtez ou réinitialisez.


Remarque -  Le démarrage d'un noeud peut être affecté par la configuration du quorum. Dans un cluster à deux noeuds, il faut qu'un périphérique de quorum soit configuré afin que le nombre total du quorum soit trois. Vous devez avoir un nombre du quorum pour chaque noeud et un nombre du quorum pour le périphérique de quorum. Dans cette situation, si le premier noeud est arrêté, le second noeud continue d'avoir le quorum et s'exécute en tant que seul membre du cluster. Pour que le premier noeud reviennent dans le cluster en tant que noeud du cluster, le second noeud doit être opérationnel et en cours d'exécution. Le nombre requis de quorum du cluster (deux) doit être présent.

Si vous exécutez Oracle Solaris Cluster dans un domaine invité, la réinitialisation du domaine de contrôle ou d'E/S peut avoir un impact sur le domaine invité en cours d'exécution, y compris sur le domaine en cours d'arrêt. Vous devez rééquilibrer la charge de travail vers d'autres noeuds et arrêtez le domaine invité exécutant Oracle Solaris Cluster avant la réinitialisation du domaine de contrôle ou d'E/S.

Lorsqu'un domaine de contrôle ou d'E/S est redémarré, les signaux d'activité ne sont pas reçus ou envoyés par le domaine invité. Cette situation entraîne un split-brain et une reconfiguration de cluster. Puisque le domaine de contrôle ou d'E/S est en cours de réinitialisation, le domaine invité ne peut accéder à aucun des périphériques partagés. Les autres noeuds du cluster séparent le domaine invité des périphériques partagés. Lorsque le domaine de contrôle ou d'E/S a terminé sa réinitialisation, E/S reprend sur le domaine invité et toute E/S de stockage partagé provoque la panique du domaine invité car ce dernier a été séparé des disques partagés dans le cadre de la reconfiguration du cluster. Vous pouvez atténuer ce problème si un invité utilise deux domaines d'E/S pour la redondance et la réinitialisation des domaines d'E/S, l'un après l'autre.

L'élément phys-schost# fait référence à l'invite du cluster global. Appliquez cette procédure à un cluster global.

Cette procédure contient la forme longue des commandes d'Oracle Solaris Cluster. La plupart des commandes possèdent également des formes brèves. A l'exception de la forme du nom, ces commandes sont identiques.


Remarque -  Les noeuds doivent disposer d'une connexion qui fonctionne avec l'interconnexion de cluster pour atteindre l'appartenance au cluster.

Vous pouvez également initialiser un noeud du cluster de zones à l'aide de la GUI d'Oracle Solaris Cluster Manager. Pour obtenir les instructions de connexion à la GUI, reportez-vous à la section Accès à Oracle Solaris Cluster Manager.

  1. Pour démarrer un noeud du cluster global ou un noeud du cluster de zones qui a été arrêté, initialisez le noeud.

    Effectuez toutes les étapes de cette procédure depuis un noeud du cluster global.

    • Sur les systèmes SPARC, exécutez la commande suivante :

      ok boot
    • Sur les systèmes x86, exécutez les commandes suivantes :

      Lorsque le menu GRUB s'affiche, sélectionnez l'entrée Oracle Solaris appropriée, puis appuyez sur la touche Entrée.

      Des messages apparaissent sur les consoles des noeuds initialisés en même temps que les composants du cluster sont activés.

    • Si vous avez un cluster de zones, vous pouvez indiquer un noeud à initialiser.

      phys-schost# clzonecluster boot -n node zoneclustername
  2. Assurez-vous que le noeud a été initialisé sans erreurs et qu'il se trouve en ligne.
    • L'exécution de la commande cluster status rapporte le statut d'un noeud du cluster global.
      phys-schost# cluster status -t node
    • L'exécution de la commande clzonecluster status à partir d'un noeud du cluster global rapporte le statut de tous les noeuds du cluster de zones.
      phys-schost# clzonecluster status

      Un noeud du cluster de zones peut uniquement être initialisé en mode cluster lorsque le noeud hébergeant le noeud est initialisé en mode cluster.


      Remarque -  Si le système de fichiers /var se remplit, Oracle Solaris Cluster risque de ne pas pouvoir redémarrer sur ce noeud. Si ce problème survient, reportez-vous à la section Réparation d'un système de fichiers /var complet.
Exemple 3-12  SPARC: Initialisation d'un noeud du cluster global

L'exemple suivant présente la sortie de la console lorsque le noeud phys-schost-1 est initialisé dans le cluster global.

ok boot
Rebooting with command: boot
...
Hostname: phys-schost-1
Booting as part of a cluster
...
NOTICE: Node phys-schost-1: attempting to join cluster
...
NOTICE: Node phys-schost-1: joined cluster
...
The system is coming up.  Please wait.
checking ufs filesystems
...
reservation program successfully exiting
Print services started.
volume management starting.
The system is ready.
phys-schost-1 console login:
Exemple 3-13  x86: Initialisation d'un noeud de cluster

L'exemple suivant présente la sortie de la console lorsque le noeud phys-schost-1 est initialisé dans le cluster.

                     <<< Current Boot Parameters >>>
Boot path: /pci@0,0/pci8086,2545@3/pci8086,1460@1d/pci8086,341a@7,1/sd@0,0:a
Boot args:

Type    b [file-name] [boot-flags] <ENTER>   to boot with options
or      i <ENTER>                            to enter boot interpreter
or      <ENTER>                              to boot with defaults

<<< timeout in 5 seconds >>>

Select (b)oot or (i)nterpreter: Size: 276915 + 22156 + 150372 Bytes
/platform/i86pc/kernel/unix loaded - 0xac000 bytes used
SunOS Release 5.9 Version on81-feature-patch:08/30/2003 32-bit
Copyright 1983-2003 Sun Microsystems, Inc.  All rights reserved.
Use is subject to license terms.
configuring IPv4 interfaces: e1000g2.
Hostname: phys-schost-1
Booting as part of a cluster
NOTICE: CMM: Node phys-schost-1 (nodeid = 1) with votecount = 1 added.
NOTICE: CMM: Node phys-schost-2 (nodeid = 2) with votecount = 1 added.
NOTICE: CMM: Quorum device 1 (/dev/did/rdsk/d1s2) added; votecount = 1, bitmask
of nodes with configured paths = 0x3.
WARNING: CMM: Initialization for quorum device /dev/did/rdsk/d1s2 failed with
error EACCES. Will retry later.
NOTICE: clcomm: Adapter e1000g3 constructed
NOTICE: clcomm: Path phys-schost-1:e1000g3 - phys-schost-2:e1000g3 being constructed
NOTICE: clcomm: Path phys-schost-1:e1000g3 - phys-schost-2:e1000g3 being initiated
NOTICE: clcomm: Path phys-schost-1:e1000g3 - phys-schost-2:e1000g3 online
NOTICE: clcomm: Adapter e1000g0 constructed
NOTICE: clcomm: Path phys-schost-1:e1000g0 - phys-schost-2:e1000g0 being constructed
NOTICE: CMM: Node phys-schost-1: attempting to join cluster.
WARNING: CMM: Reading reservation keys from quorum device /dev/did/rdsk/d1s2
failed with error 2.
NOTICE: CMM: Cluster has reached quorum.
NOTICE: CMM: Node phys-schost-1 (nodeid = 1) is up; new incarnation number =
1068503958.
NOTICE: CMM: Node phys-schost-2 (nodeid = 2) is up; new incarnation number =
1068496374.
NOTICE: CMM: Cluster members: phys-schost-1 phys-schost-2.
NOTICE: CMM: node reconfiguration #3 completed.
NOTICE: CMM: Node phys-schost-1: joined cluster.
NOTICE: clcomm: Path phys-schost-1:e1000g0 - phys-schost-2:e1000g0 being initiated
NOTICE: clcomm: Path phys-schost-1:e1000g0 - phys-schost-2:e1000g0 online
NOTICE: CMM: Retry of initialization for quorum device /dev/did/rdsk/d1s2 was
successful.
WARNING: mod_installdrv: no major number for rsmrdt
ip: joining multicasts failed (18) on clprivnet0 - will use link layer
broadcasts for multicast
The system is coming up.  Please wait.
checking ufs filesystems
/dev/rdsk/c1t0d0s5: is clean.
NIS domain name is dev.eng.mycompany.com
starting rpc services: rpcbind keyserv ypbind done.
Setting netmask of e1000g2 to 192.168.255.0
Setting netmask of e1000g3 to 192.168.255.128
Setting netmask of e1000g0 to 192.168.255.128
Setting netmask of clprivnet0 to 192.168.255.0
Setting default IPv4 interface for multicast: add net 224.0/4: gateway phys-schost-1
syslog service starting.
obtaining access to all attached disks


*****************************************************************************
*
* The X-server can not be started on display :0...
*
*****************************************************************************
volume management starting.
Starting Fault Injection Server...
The system is ready.

phys-schost-1 console login: