Si vous avez l'intention d'arrêter ou de réinitialiser d'autres noeuds actifs du cluster global ou du cluster de zones, attendez que le jalon multi-utilisateur-serveur soit en ligne pour le noeud que vous souhaitez réinitialiser.
Sinon, le noeud ne sera pas disponible pour prendre la place de services d'autres noeuds du cluster que vous arrêtez ou réinitialisez.
Si vous exécutez Oracle Solaris Cluster dans un domaine invité, la réinitialisation du domaine de contrôle ou d'E/S peut avoir un impact sur le domaine invité en cours d'exécution, y compris sur le domaine en cours d'arrêt. Vous devez rééquilibrer la charge de travail vers d'autres noeuds et arrêtez le domaine invité exécutant Oracle Solaris Cluster avant la réinitialisation du domaine de contrôle ou d'E/S.
Lorsqu'un domaine de contrôle ou d'E/S est redémarré, les signaux d'activité ne sont pas reçus ou envoyés par le domaine invité. Cette situation entraîne un split-brain et une reconfiguration de cluster. Puisque le domaine de contrôle ou d'E/S est en cours de réinitialisation, le domaine invité ne peut accéder à aucun des périphériques partagés. Les autres noeuds du cluster séparent le domaine invité des périphériques partagés. Lorsque le domaine de contrôle ou d'E/S a terminé sa réinitialisation, E/S reprend sur le domaine invité et toute E/S de stockage partagé provoque la panique du domaine invité car ce dernier a été séparé des disques partagés dans le cadre de la reconfiguration du cluster. Vous pouvez atténuer ce problème si un invité utilise deux domaines d'E/S pour la redondance et la réinitialisation des domaines d'E/S, l'un après l'autre.
L'élément phys-schost# fait référence à l'invite du cluster global. Appliquez cette procédure à un cluster global.
Cette procédure contient la forme longue des commandes d'Oracle Solaris Cluster. La plupart des commandes possèdent également des formes brèves. A l'exception de la forme du nom, ces commandes sont identiques.
Vous pouvez également initialiser un noeud du cluster de zones à l'aide de la GUI d'Oracle Solaris Cluster Manager. Pour obtenir les instructions de connexion à la GUI, reportez-vous à la section Accès à Oracle Solaris Cluster Manager.
Effectuez toutes les étapes de cette procédure depuis un noeud du cluster global.
Sur les systèmes SPARC, exécutez la commande suivante :
ok boot
Sur les systèmes x86, exécutez les commandes suivantes :
Lorsque le menu GRUB s'affiche, sélectionnez l'entrée Oracle Solaris appropriée, puis appuyez sur la touche Entrée.
Des messages apparaissent sur les consoles des noeuds initialisés en même temps que les composants du cluster sont activés.
Si vous avez un cluster de zones, vous pouvez indiquer un noeud à initialiser.
phys-schost# clzonecluster boot -n node zoneclustername
phys-schost# cluster status -t node
phys-schost# clzonecluster status
Un noeud du cluster de zones peut uniquement être initialisé en mode cluster lorsque le noeud hébergeant le noeud est initialisé en mode cluster.
L'exemple suivant présente la sortie de la console lorsque le noeud phys-schost-1 est initialisé dans le cluster global.
ok boot Rebooting with command: boot ... Hostname: phys-schost-1 Booting as part of a cluster ... NOTICE: Node phys-schost-1: attempting to join cluster ... NOTICE: Node phys-schost-1: joined cluster ... The system is coming up. Please wait. checking ufs filesystems ... reservation program successfully exiting Print services started. volume management starting. The system is ready. phys-schost-1 console login:Exemple 3-13 x86: Initialisation d'un noeud de cluster
L'exemple suivant présente la sortie de la console lorsque le noeud phys-schost-1 est initialisé dans le cluster.
<<< Current Boot Parameters >>> Boot path: /pci@0,0/pci8086,2545@3/pci8086,1460@1d/pci8086,341a@7,1/sd@0,0:a Boot args: Type b [file-name] [boot-flags] <ENTER> to boot with options or i <ENTER> to enter boot interpreter or <ENTER> to boot with defaults <<< timeout in 5 seconds >>> Select (b)oot or (i)nterpreter: Size: 276915 + 22156 + 150372 Bytes /platform/i86pc/kernel/unix loaded - 0xac000 bytes used SunOS Release 5.9 Version on81-feature-patch:08/30/2003 32-bit Copyright 1983-2003 Sun Microsystems, Inc. All rights reserved. Use is subject to license terms. configuring IPv4 interfaces: e1000g2. Hostname: phys-schost-1 Booting as part of a cluster NOTICE: CMM: Node phys-schost-1 (nodeid = 1) with votecount = 1 added. NOTICE: CMM: Node phys-schost-2 (nodeid = 2) with votecount = 1 added. NOTICE: CMM: Quorum device 1 (/dev/did/rdsk/d1s2) added; votecount = 1, bitmask of nodes with configured paths = 0x3. WARNING: CMM: Initialization for quorum device /dev/did/rdsk/d1s2 failed with error EACCES. Will retry later. NOTICE: clcomm: Adapter e1000g3 constructed NOTICE: clcomm: Path phys-schost-1:e1000g3 - phys-schost-2:e1000g3 being constructed NOTICE: clcomm: Path phys-schost-1:e1000g3 - phys-schost-2:e1000g3 being initiated NOTICE: clcomm: Path phys-schost-1:e1000g3 - phys-schost-2:e1000g3 online NOTICE: clcomm: Adapter e1000g0 constructed NOTICE: clcomm: Path phys-schost-1:e1000g0 - phys-schost-2:e1000g0 being constructed NOTICE: CMM: Node phys-schost-1: attempting to join cluster. WARNING: CMM: Reading reservation keys from quorum device /dev/did/rdsk/d1s2 failed with error 2. NOTICE: CMM: Cluster has reached quorum. NOTICE: CMM: Node phys-schost-1 (nodeid = 1) is up; new incarnation number = 1068503958. NOTICE: CMM: Node phys-schost-2 (nodeid = 2) is up; new incarnation number = 1068496374. NOTICE: CMM: Cluster members: phys-schost-1 phys-schost-2. NOTICE: CMM: node reconfiguration #3 completed. NOTICE: CMM: Node phys-schost-1: joined cluster. NOTICE: clcomm: Path phys-schost-1:e1000g0 - phys-schost-2:e1000g0 being initiated NOTICE: clcomm: Path phys-schost-1:e1000g0 - phys-schost-2:e1000g0 online NOTICE: CMM: Retry of initialization for quorum device /dev/did/rdsk/d1s2 was successful. WARNING: mod_installdrv: no major number for rsmrdt ip: joining multicasts failed (18) on clprivnet0 - will use link layer broadcasts for multicast The system is coming up. Please wait. checking ufs filesystems /dev/rdsk/c1t0d0s5: is clean. NIS domain name is dev.eng.mycompany.com starting rpc services: rpcbind keyserv ypbind done. Setting netmask of e1000g2 to 192.168.255.0 Setting netmask of e1000g3 to 192.168.255.128 Setting netmask of e1000g0 to 192.168.255.128 Setting netmask of clprivnet0 to 192.168.255.0 Setting default IPv4 interface for multicast: add net 224.0/4: gateway phys-schost-1 syslog service starting. obtaining access to all attached disks ***************************************************************************** * * The X-server can not be started on display :0... * ***************************************************************************** volume management starting. Starting Fault Injection Server... The system is ready. phys-schost-1 console login: