Ignorer les liens de navigation | |
Quitter l'aperu | |
Guide d'administration système d'Oracle Solaris Cluster Oracle Solaris Cluster 4.1 (Français) |
1. Présentation de l'administration d'Oracle Solaris Cluster
2. Oracle Solaris Cluster et RBAC
3. Fermeture et initialisation d'un cluster
Présentation de la fermeture et de l'initialisation d'un cluster
Réparation d'un système de fichiers /var complet
Réparation d'un système de fichiers /var complet
4. Méthodes de réplication de données
7. Administration des interconnexions de cluster et des réseaux publics
8. Ajout et suppression d'un noeud
10. Configuration du contrôle de l'utilisation de la CPU
Fermez un noeud du cluster global ou du cluster de zones. Cette section fournit des instructions concernant la fermeture d'un noeud du cluster global et d'un noeud du cluster de zones.
Pour fermer un noeud du cluster global, utilisez la commande clnode evacuate avec la commande Oracle Solaris shutdown. Utilisez la commande cluster shutdown uniquement en cas de fermeture d'un cluster global entier.
Sur un noeud du cluster de zones, utilisez la commande clzonecluster halt sur un cluster global pour fermer un noeud unique du cluster de zones ou un cluster de zones entier. Vous pouvez également utiliser les commandes clnode evacuate et shutdown pour fermer un noeud du cluster de zones.
Pour plus d'informations, reportez-vous aux pages de manuel clnode(1CL), shutdown(1M) et clzonecluster(1CL).
Dans les procédures de ce chapitre, phys-schost# fait référence à une invite du cluster global. clzc:schost> représente l'invite de shell interactive de la commande clzonecluster.
Tableau 3-2 Liste des tâches : fermeture et initialisation d'un noeud
|
L'élément phys-schost# fait référence à l'invite du cluster global. Appliquez cette procédure à un cluster global.
Cette procédure contient la forme longue des commandes de Oracle Solaris Cluster. La plupart des commandes possèdent également des formes brèves. A l'exception de la forme du nom, ces commandes sont identiques.
Attention - N'utilisez pas la commande send brk sur la console d'un cluster pour fermer un noeud d'un cluster global ou d'un cluster de zones. La commande n'est pas prise en charge au sein d'un cluster. |
Reportez-vous à la documentation produit de Oracle RAC pour les procédures de fermeture.
Effectuez toutes les étapes de cette procédure depuis un noeud du cluster global.
phys-schost# clzonecluster halt -n physical-name zoneclustername
Lorsque vous spécifiez un noeud particulier du cluster de zones, vous n'arrêtez que ce noeud. Par défaut, la commande halt arrête les clusters de zones sur tous les noeuds.
Sur le noeud à fermer du cluster global, entrez la commande suivante. La commande clnode evacuate permet de basculer tous les groupes de ressources et les groupes de périphériques du noeud spécifié vers le noeud de prédilection suivant. (Vous pouvez également exécuter la commande clnode evacuate au sein d'un noeud du cluster de zones.)
phys-schost# clnode evacuate node
Spécifie le noeud dont vous commutez les groupes de ressources et de périphériques.
Spécifiez le noeud du cluster global que vous souhaitez fermer.
phys-schost# shutdown -g0 -y -i0
Vérifiez que le noeud du cluster global affiche l'invite ok sur un système SPARC ou le message Appuyez sur une touche pour continuer dans le menu GRUB d'un système x86.
Exemple 3-7 SPARC : Fermeture d'un noeud du cluster global
L'exemple suivant montre la sortie console lorsque le noeud phys-schost-1 est fermé. L'option -g0 définit la période de grâce sur zéro et l'option -y fournit une réponse oui automatique à la question de confirmation. Les messages de fermeture pour ce noeud apparaissent sur les consoles des autres noeuds du cluster global.
phys-schost# clnode evacuate phys-schost-1 phys-schost# shutdown -g0 -y Wed Mar 10 13:47:32 phys-schost-1 cl_runtime: WARNING: CMM monitoring disabled. phys-schost-1# INIT: New run level: 0 The system is coming down. Please wait. Notice: rgmd is being stopped. Notice: rpc.pmfd is being stopped. Notice: rpc.fed is being stopped. umount: /global/.devices/node@1 busy umount: /global/phys-schost-1 busy The system is down. syncing file systems... done Program terminated ok
Exemple 3-8 x86 : Fermeture d'un noeud du cluster global
L'exemple suivant montre la sortie console lorsque le noeud phys-schost-1 est fermé. L'option -g0 définit la période de grâce sur zéro et l'option -y fournit une réponse oui automatique à la question de confirmation. Les messages de fermeture pour ce noeud apparaissent sur les consoles des autres noeuds du cluster global.
phys-schost# clnode evacuate phys-schost-1 phys-schost# shutdown -g0 -y Shutdown started. Wed Mar 10 13:47:32 PST 2004 Changing to init state 0 - please wait Broadcast Message from root (console) on phys-schost-1 Wed Mar 10 13:47:32... THE SYSTEM phys-schost-1 IS BEING SHUT DOWN NOW ! ! ! Log off now or risk your files being damaged phys-schost-1# INIT: New run level: 0 The system is coming down. Please wait. System services are now being stopped. /etc/rc0.d/K05initrgm: Calling clnode evacuate failfasts disabled on node 1 Print services already stopped. Mar 10 13:47:44 phys-schost-1 syslogd: going down on signal 15 umount: /global/.devices/node@2 busy umount: /global/.devices/node@1 busy The system is down. syncing file systems... done WARNING: CMM: Node being shut down. Type any key to continue
Exemple 3-9 Fermeture d'un noeud d'un cluster de zones
L'exemple suivant montre l'utilisation de clzonecluster halt pour fermer un noeud d'un cluster de zones nommé sparse-sczone. (Vous pouvez également exécuter les commandes clnode evacuate et shutdown dans un noeud du cluster de zones.)
phys-schost# clzonecluster status === Zone Clusters === --- Zone Cluster Status --- Name Node Name Zone HostName Status Zone Status ---- --------- ------------- ------ ----------- sparse-sczone schost-1 sczone-1 Online Running schost-2 sczone-2 Online Running schost-3 sczone-3 Online Running schost-4 sczone-4 Online Running phys-schost# phys-schost# clzonecluster halt -n schost-4 sparse-sczone Waiting for zone halt commands to complete on all the nodes of the zone cluster "sparse-sczone"... Sep 5 19:24:00 schost-4 cl_runtime: NOTICE: Membership : Node 3 of cluster 'sparse-sczone' died. phys-host# phys-host# clzonecluster status === Zone Clusters === --- Zone Cluster Status --- Name Node Name Zone HostName Status Zone Status ---- --------- ------------- ------ ----------- sparse-sczone schost-1 sczone-1 Online Running schost-2 sczone-2 Online Running schost-3 sczone-3 Offline Installed schost-4 sczone-4 Online Running phys-schost#
Voir aussi
Reportez-vous à Initialisation d'un noeud pour redémarrer un noeud fermé du cluster global.
Si vous avez l'intention d'arrêter ou de réinitialiser d'autres noeuds actifs du cluster global ou du cluster de zones, attendez que le jalon multi-utilisateur-serveur soit en ligne pour le noeud que vous souhaitez réinitialiser.
Sinon, le noeud ne sera pas disponible pour prendre la place de services d'autres noeuds du cluster que vous fermez ou réinitialisez.
Remarque - Le démarrage d'un noeud peut être affecté par la configuration du quorum. Dans un cluster à deux noeuds, vous devez avoir un périphérique de quorum configuré afin que le nombre total du quorum soit trois. Vous devez avoir un nombre du quorum pour chaque noeud et un nombre du quorum pour le périphérique de quorum. Dans cette situation, si le premier noeud est fermé, le second noeud continue d'avoir le quorum et s'exécute en tant que seul membre du cluster. Pour que le premier noeud reviennent dans le cluster en tant que noeud du cluster, le second noeud doit être opérationnel et en cours d'exécution. Le nombre requis de quorum du cluster (deux) doit être présent.
Si vous exécutez Oracle Solaris Cluster dans un domaine invité, la réinitialisation du domaine de contrôle ou d' E/S peut avoir un impact sur le domaine invité en cours d'exécution, y compris sur le domaine en cours d'arrêt. Vous devez rééquilibrer la charge de travail vers d'autres noeuds et arrêtez le domaine invité exécutant Oracle Solaris Cluster avant la réinitialisation du domaine de contrôle ou d'E/S.
Lorsqu'un domaine de contrôle ou d'E/S est redémarré, les signaux d'activité ne sont pas reçus ou envoyés par le domaine invité. Cette situation entraîne un split-brain et une reconfiguration de cluster. Puisque le domaine de contrôle ou d'E/S est en cours de réinitialisation, le domaine invité ne peut accéder à aucun des périphériques partagés. Les autres noeuds du cluster séparent le domaine invité à partir des périphériques partagés. Lorsque le domaine de contrôle ou d'E/S a terminé sa réinitialisation, E/S reprend sur le domaine invité et toute E/S de stockage partagé provoque la panique du domaine invité car ce dernier a été séparé des disques partagés dans le cadre de la reconfiguration du cluster. Vous pouvez atténuer ce problème si un invité utilise deux domaines d'E/S pour la redondance et la réinitialisation des domaines d'E/S, l'un après l'autre.
L'élément phys-schost# fait référence à l'invite du cluster global. Appliquez cette procédure à un cluster global.
Cette procédure contient la forme longue des commandes de Oracle Solaris Cluster. La plupart des commandes possèdent également des formes brèves. A l'exception de la forme du nom, ces commandes sont identiques.
Remarque - Les noeuds doivent disposer d'une connexion qui fonctionne avec l'interconnexion de cluster pour atteindre l'appartenance au cluster.
Effectuez toutes les étapes de cette procédure depuis un noeud du cluster global.
Sur les systèmes SPARC, exécutez la commande suivante :
ok boot
Sur les systèmes x86, exécutez les commandes suivantes :
Lorsque le menu GRUB s'affiche, sélectionnez l'entrée Oracle Solaris appropriée, puis appuyez sur la touche Entrée.
Des messages apparaissent sur les consoles des noeuds initialisés en même temps que les composants du cluster sont activés.
Si vous avez un cluster de zones, vous pouvez indiquer un noeud à initialiser.
phys-schost# clzonecluster boot -n node zoneclustername
phys-schost# cluster status -t node
phys-schost# clzonecluster status
Un noeud du cluster de zones peut uniquement être initialisé en mode cluster lorsque le noeud hébergeant le noeud est initialisé en mode cluster.
Remarque - Si le système de fichiers /var d'un noeud se remplit, Oracle Solaris Cluster ne pourra peut-être pas redémarrer sur ce noeud. Si ce problème survient, reportez-vous à la section Réparation d'un système de fichiers /var complet.
Exemple 3-10 SPARC : Initialisation d'un noeud du cluster global
L'exemple suivant montre la sortie de console lorsque le noeud phys-schost-1 est initialisé dans le cluster global.
ok boot Rebooting with command: boot ... Hostname: phys-schost-1 Booting as part of a cluster ... NOTICE: Node phys-schost-1: attempting to join cluster ... NOTICE: Node phys-schost-1: joined cluster ... The system is coming up. Please wait. checking ufs filesystems ... reservation program successfully exiting Print services started. volume management starting. The system is ready. phys-schost-1 console login:
Pour arrêter ou réinitialiser d'autres noeuds actifs du cluster global ou du cluster de zones, attendez que le jalon multi-utilisateur-serveur soit en ligne pour le noeud que vous souhaitez réinitialiser.
Sinon, le noeud ne sera pas disponible pour prendre la place de services d'autres noeuds du cluster que vous fermez ou réinitialisez.
L'élément phys-schost# fait référence à l'invite du cluster global. Appliquez cette procédure à un cluster global.
Cette procédure contient la forme longue des commandes de Oracle Solaris Cluster. La plupart des commandes possèdent également des formes brèves. A l'exception de la forme du nom, ces commandes sont identiques.
Attention - Si une méthode pour n'importe quelle ressource n'arrive à expiration et ne peut pas être interrompu, le noeud sera redémarré uniquement si la ressource est Failover_mode propriété est définie à disque. Si les Failover_mode propriété est définie sur une autre valeur, le noeud ne sera pas redémarré. |
Reportez-vous à la documentation produit de Oracle RAC pour les procédures de fermeture.
Effectuez toutes les étapes de cette procédure depuis un noeud du cluster global.
Fermez le cluster de zones à l'aide de la commande clzonecluster halt exécutée sur un noeud du cluster global. (Les commandes clnode evacuate et shutdown fonctionnent également dans un cluster de zones.)
Pour un cluster global, entrez les commandes suivantes sur le noeud à fermer. La commande clnode evacuate bascule tous les groupes de périphériques du noeud spécifié vers le noeud de prédilection suivant. La commande bascule également tous les groupes de ressources des zones globales du noeud spécifié vers la zone globale de prédilection suivante des autres noeuds.
Remarque - Pour arrêter un noeud unique, utilisez la shutdown -g0 -y -i6 commande. Pour arrêter plusieurs noeuds en même temps, utilisez les shutdown -g0 -y -i0 commande pour arrêter les noeuds. Une fois tous les noeuds sont arrêtés, utilisez la commande boot sur tous les noeuds pour les réinitialiser au sein du cluster.
Sur un système SPARC, exécutez les commandes suivantes pour réinitialiser un noeud unique.
phys-schost# clnode evacuate node
phys-schost# shutdown -g0 -y -i6
Sur un système x86, exécutez les commandes suivantes pour réinitialiser un noeud unique.
phys-schost# clnode evacuate node
phys-schost# shutdown -g0 -y -i6
Lorsque le menu GRUB s'affiche, sélectionnez l'entrée Oracle Solaris appropriée, puis appuyez sur la touche Entrée.
Indiquez le noeud du cluster de zones à fermer et à réinitialiser.
phys-schost# clzonecluster reboot - node zoneclustername
Remarque - Les noeuds doivent disposer d'une connexion qui fonctionne avec l'interconnexion de cluster pour atteindre l'appartenance au cluster.
phys-schost# cluster status -t node
phys-schost# clzonecluster status
Exemple 3-11 SPARC : Réinitialisation d'un noeud du cluster global
L'exemple suivant montre la sortie console lorsque le noeud phys-schost-1 est réinitialisé. Les messages pour ce noeud, tels que les notifications de fermeture ou de démarrage, apparaissent sur les consoles des autres noeuds du cluster global.
phys-schost# clnode evacuate phys-schost-1 phys-schost# shutdown -g0 -y -i6 Shutdown started. Wed Mar 10 13:47:32 phys-schost-1 cl_runtime: WARNING: CMM monitoring disabled. phys-schost-1# INIT: New run level: 6 The system is coming down. Please wait. System services are now being stopped. Notice: rgmd is being stopped. Notice: rpc.pmfd is being stopped. Notice: rpc.fed is being stopped. umount: /global/.devices/node@1 busy umount: /global/phys-schost-1 busy The system is down. syncing file systems... done rebooting... Resetting ... ,,, Sun Ultra 1 SBus (UltraSPARC 143MHz), No Keyboard OpenBoot 3.11, 128 MB memory installed, Serial #5932401. Ethernet address 8:8:20:99:ab:77, Host ID: 8899ab77. ... Rebooting with command: boot ... Hostname: phys-schost-1 Booting as part of a cluster ... NOTICE: Node phys-schost-1: attempting to join cluster ... NOTICE: Node phys-schost-1: joined cluster ... The system is coming up. Please wait. The system is ready. phys-schost-1 console login:
Exemple 3-12 Réinitialisation d'un noeud du cluster de zones
L'exemple suivant montre la procédure de la réinitialisation d'un noeud d'un cluster de zones.
phys-schost# clzonecluster reboot -n schost-4 sparse-sczone Waiting for zone reboot commands to complete on all the nodes of the zone cluster "sparse-sczone"... Sep 5 19:40:59 schost-4 cl_runtime: NOTICE: Membership : Node 3 of cluster 'sparse-sczone' died. phys-schost# Sep 5 19:41:27 schost-4 cl_runtime: NOTICE: Membership : Node 3 of cluster 'sparse-sczone' joined. phys-schost# phys-schost# clzonecluster status === Zone Clusters === --- Zone Cluster Status --- Name Node Name Zone HostName Status Zone Status ---- --------- ------------- ------ ----------- sparse-sczone schost-1 sczone-1 Online Running schost-2 sczone-2 Online Running schost-3 sczone-3 Online Running schost-4 sczone-4 Online Running phys-schost#
Vous pouvez initialiser un noeud du cluster global en mode non cluster, le noeud ne participant alors pas à l'appartenance au cluster. Le mode non cluster est utile lors de l'installation du logiciel du cluster ou de la réalisation de certaines procédures d'administration, telles que la mise à jour d'un noeud. Un noeud du cluster de zones ne peut pas se trouver dans un état d'initialisation différent de l'état du noeud sous-jacent du cluster global. Si le noeud du cluster global est démarré en mode non cluster, le noeud du cluster de zones est automatiquement démarré en mode non cluster.
L'élément phys-schost# fait référence à l'invite du cluster global. Appliquez cette procédure à un cluster global.
Cette procédure contient la forme longue des commandes de Oracle Solaris Cluster. La plupart des commandes possèdent également des formes brèves. A l'exception de la forme du nom, ces commandes sont identiques.
Effectuez toutes les étapes de cette procédure depuis un noeud du cluster global.
La commande clnode evacuate permet de basculer tous les groupes de périphériques du noeud spécifié vers le noeud de prédilection suivant. La commande bascule également tous les groupes de ressources des zones globales du noeud spécifié vers les zones globales de prédilection suivantes des autres noeuds.
phys-schost# clnode evacuate node
phys-schost# shutdown -g0 -y
phys-schost# clzonecluster halt -n node zoneclustername
Vous pouvez également utiliser les commandes clnode evacuate et shutdown dans un cluster de zones.
Sur les systèmes SPARC, exécutez la commande suivante :
ok boot -xs
Sur les systèmes x86, exécutez les commandes suivantes :
Le menu GRUB s'affiche.
Pour plus d'informations sur l'initialisation basée sur le GRUB, reportez-vous à la section Initialisation d’un système du manuel Initialisation et arrêt des systèmes Oracle Solaris 11.1.
L'écran des paramètres d'initialisation GRUB s'affiche.
[ Minimal BASH-like line editing is supported. For the first word, TAB lists possible command completions. Anywhere else TAB lists the possible completions of a device/filename. ESC at any time exits. ] grub edit> kernel$ /platform/i86pc/kernel/$ISADIR/unix -B $ZFS-BOOTFS -x
L'écran affiche la commande éditée.
Remarque - Cette modification de la commande des paramètres d'initialisation du noyau ne sera pas prise en compte, lors de la prochaine initialisation du système. Lors de la prochaine initialisation du noeud, ce dernier sera initialisé en mode cluster. Si vous souhaitez plutôt initialiser le noeud en mode non cluster, effectuez de nouveau ces étapes pour ajouter l'option -x à la commande des paramètres d'initialisation du noyau.
Exemple 3-13 SPARC : Initialisation d'un noeud du cluster global en mode non cluster
L'exemple suivant montre la sortie de console lorsque le noeud phys-schost-1 est fermé et redémarré en mode non cluster. L'option -g0 définit la période de grâce sur zéro, l'option -y fournit une réponse oui automatique à la question de confirmation et l'option -i0 invoque le niveau d'exécution 0 (zéro). Les messages de fermeture pour ce noeud apparaissent sur les consoles des autres noeuds du cluster global.
phys-schost# clnode evacuate phys-schost-1 phys-schost# cluster shutdown -g0 -y Shutdown started. Wed Mar 10 13:47:32 phys-schost-1 cl_runtime: WARNING: CMM monitoring disabled. phys-schost-1# ... rg_name = schost-sa-1 ... offline node = phys-schost-2 ... num of node = 0 ... phys-schost-1# INIT: New run level: 0 The system is coming down. Please wait. System services are now being stopped. Print services stopped. syslogd: going down on signal 15 ... The system is down. syncing file systems... done WARNING: node phys-schost-1 is being shut down. Program terminated ok boot -x ... Not booting as part of cluster ... The system is ready. phys-schost-1 console login: