Ignorer les liens de navigation | |
Quitter l'aperu | |
![]() |
Guide d'administration système d'Oracle Solaris Cluster Oracle Solaris Cluster 3.3 3/13 (Français) |
1. Présentation de l'administration d'Oracle Solaris Cluster
2. Oracle Solaris Cluster et RBAC
3. Arrêt et initialisation d'un cluster
Présentation de l'arrêt et de l'initialisation d'un cluster
Réparation d'un système de fichiers /var complet
Réparation d'un système de fichiers /var complet
4. Méthodes de réplication de données
7. Administration des interconnexions de cluster et des réseaux publics
8. Ajout et suppression d'un noeud
10. Configuration du contrôle de l'utilisation de la CPU
11. Application de patchs au logiciel et au microprogramme d'Oracle Solaris Cluster
12. Sauvegarde et restauration d'un cluster
13. Administration d'Oracle Solaris Cluster avec les interfaces graphiques
Vous pouvez arrêter un noeud de cluster global, un noeud de cluster de zones ou une zone non globale. Cette section contient des instructions permettent de procéder à l'arrêt d'un noeud de cluster global et d'un noeud de cluster de zones.
Pour arrêter un noeud du cluster global, utilisez la commande clnode evacuate avec la commande Oracle Solaris shutdown. Utilisez la commande cluster shutdown uniquement en cas d'arrêt d'un cluster global entier.
Sur un noeud du cluster de zones, utilisez la commande clzonecluster halt sur un cluster global pour arrêter un noeud unique du cluster de zones ou un cluster de zones entier. Vous pouvez également utiliser les commandes clnode evacuate et shutdown pour arrêter un noeud du cluster de zones.
Pour plus d'informations sur l'arrêt et l'initialisation d'une zone non globale, reportez-vous au Chapitre 20, Installation, initialisation, arrêt, désinstallation et clonage de zones non globales (tâches) du manuel Guide d’administration système : Conteneurs Oracle Solaris-Gestion des ressources et Oracle Solaris Zones. Reportez-vous également aux pages de manuel clnode(1CL), shutdown(1M) et clzonecluster(1CL).
Dans les procédures de ce chapitre, phys-schost# fait référence à une invite du cluster global. clzc:schost> représente l'invite de shell interactive de la commande clzonecluster.
Tableau 3-2 Liste des tâches : arrêt et initialisation d'un noeud
|
L'élément phys-schost# fait référence à l'invite du cluster global. Appliquez cette procédure à un cluster global.
Cette procédure contient la forme longue des commandes d'Oracle Solaris Cluster. La plupart des commandes possèdent également des formes brèves. A l'exception de la forme du nom, ces commandes sont identiques.
![]() | Attention - N'utilisez pas la commande send brk sur la console d'un cluster pour arrêter un noeud d'un cluster global ou d'un cluster de zones. La commande n'est pas prise en charge au sein d'un cluster. |
Reportez-vous à la documentation produit d'Oracle RAC pour les procédures d'arrêt.
phys-schost# clzonecluster halt -n physical-name zoneclustername
Lorsque vous spécifiez un noeud particulier du cluster de zones, vous n'arrêtez que ce noeud. Par défaut, la commande halt arrête les clusters de zones sur tous les noeuds.
Sur le noeud à arrêter du cluster global, entrez la commande suivante. La commande clnode evacuate permet de basculer tous les groupes de ressources et les groupes de périphériques, y compris toutes les zones non globales, du noeud spécifié vers le noeud de prédilection suivant. (Vous pouvez également exécuter la commande clnode evacuate au sein d'un noeud du cluster de zones.)
phys-schost# clnode evacuate node
Spécifie le noeud dont vous commutez les groupes de ressources et de périphériques.
Spécifiez le noeud du cluster global que vous souhaitez arrêter.
phys-schost# shutdown -g0 -y -i0
Vérifiez que le noeud du cluster global affiche l'invite ok sur un système SPARC ou le message Appuyez sur une touche pour continuer dans le menu GRUB d'un système x86.
Exemple 3-7 SPARC : Arrêt d'un noeud de cluster global
L'exemple suivant montre la sortie console lorsque le noeud phys-schost-1 est arrêté. L'option -g0 définit la période de grâce sur zéro et l'option -y fournit une réponse oui automatique à la question de confirmation. Les messages d'arrêt de ce noeud apparaissent sur les consoles des autres noeuds du cluster global.
phys-schost# clnode evacuate phys-schost-1 phys-schost# shutdown -g0 -y Wed Mar 10 13:47:32 phys-schost-1 cl_runtime: WARNING: CMM monitoring disabled. phys-schost-1# INIT: New run level: 0 The system is coming down. Please wait. Notice: rgmd is being stopped. Notice: rpc.pmfd is being stopped. Notice: rpc.fed is being stopped. umount: /global/.devices/node@1 busy umount: /global/phys-schost-1 busy The system is down. syncing file systems... done Program terminated ok
Exemple 3-8 x86 : Arrêt d'un noeud de cluster global
L'exemple suivant montre la sortie console lorsque le noeud phys-schost-1 est arrêté. L'option -g0 définit la période de grâce sur zéro et l'option -y fournit une réponse oui automatique à la question de confirmation. Les messages d'arrêt de ce noeud apparaissent sur les consoles des autres noeuds du cluster global.
phys-schost# clnode evacuate phys-schost-1 phys-schost# shutdown -g0 -y Shutdown started. Wed Mar 10 13:47:32 PST 2004 Changing to init state 0 - please wait Broadcast Message from root (console) on phys-schost-1 Wed Mar 10 13:47:32... THE SYSTEM phys-schost-1 IS BEING SHUT DOWN NOW ! ! ! Log off now or risk your files being damaged phys-schost-1# INIT: New run level: 0 The system is coming down. Please wait. System services are now being stopped. /etc/rc0.d/K05initrgm: Calling clnode evacuate failfasts disabled on node 1 Print services already stopped. Mar 10 13:47:44 phys-schost-1 syslogd: going down on signal 15 umount: /global/.devices/node@2 busy umount: /global/.devices/node@1 busy The system is down. syncing file systems... done WARNING: CMM: Node being shut down. Type any key to continue
Exemple 3-9 Arrêt d'un noeud d'un cluster de zones
L'exemple suivant montre l'utilisation de clzonecluster halt pour arrêter un noeud d'un cluster de zones nommé sparse-sczone. (Vous pouvez également exécuter les commandes clnode evacuate et shutdown dans un noeud du cluster de zones.)
phys-schost# clzonecluster status === Zone Clusters === --- Zone Cluster Status --- Name Node Name Zone HostName Status Zone Status ---- --------- ------------- ------ ----------- sparse-sczone schost-1 sczone-1 Online Running schost-2 sczone-2 Online Running schost-3 sczone-3 Online Running schost-4 sczone-4 Online Running phys-schost# phys-schost# clzonecluster halt -n schost-4 sparse-sczone Waiting for zone halt commands to complete on all the nodes of the zone cluster "sparse-sczone"... Sep 5 19:24:00 schost-4 cl_runtime: NOTICE: Membership : Node 3 of cluster 'sparse-sczone' died. phys-host# phys-host# clzonecluster status === Zone Clusters === --- Zone Cluster Status --- Name Node Name Zone HostName Status Zone Status ---- --------- ------------- ------ ----------- sparse-sczone schost-1 sczone-1 Online Running schost-2 sczone-2 Online Running schost-3 sczone-3 Offline Installed schost-4 sczone-4 Online Running phys-schost#
Voir aussi
Reportez-vous à Initialisation d'un noeud pour redémarrer un noeud arrêté du cluster global.
Si vous avez l'intention d'arrêter ou de réinitialiser d'autres noeuds actifs du cluster global ou du cluster de zones, attendez que le jalon multi-utilisateur-serveur soit en ligne pour le noeud que vous souhaitez réinitialiser.
Sinon, le noeud ne sera pas disponible pour prendre la place de services d'autres noeuds du cluster que vous arrêtez ou réinitialisez. Pour plus d'informations sur l'initialisation d'une zone non globale, reportez-vous au Chapitre 20, Installation, initialisation, arrêt, désinstallation et clonage de zones non globales (tâches) du manuel Guide d’administration système : Conteneurs Oracle Solaris-Gestion des ressources et Oracle Solaris Zones.
Remarque - Le démarrage d'un noeud peut être affecté par la configuration du quorum. Dans un cluster à deux noeuds, il faut qu'un périphérique de quorum soit configuré afin que le nombre total du quorum soit trois. Vous devez avoir un nombre du quorum pour chaque noeud et un nombre du quorum pour le périphérique de quorum. Dans cette situation, si le premier noeud est arrêté, le second noeud continue d'avoir le quorum et s'exécute en tant que seul membre du cluster. Pour que le premier noeud reviennent dans le cluster en tant que noeud du cluster, le second noeud doit être opérationnel et en cours d'exécution. Le nombre requis de quorum du cluster (deux) doit être présent.
Si vous exécutez Oracle Solaris Cluster dans un domaine invité, la réinitialisation du domaine de contrôle ou d'E/S peut avoir un impact sur le domaine invité en cours d'exécution, y compris sur le domaine en cours d'arrêt. Vous devez rééquilibrer la charge de travail vers d'autres noeuds et arrêtez le domaine invité exécutant Oracle Solaris Cluster avant la réinitialisation du domaine de contrôle ou d'E/S.
Lorsqu'un domaine de contrôle ou d'E/S est redémarré, les signaux d'activité ne sont pas reçus ou envoyés par le domaine invité. Cette situation entraîne un split-brain et une reconfiguration de cluster. Puisque le domaine de contrôle ou d'E/S est en cours de réinitialisation, le domaine invité ne peut accéder à aucun des périphériques partagés. Les autres noeuds du cluster séparent le domaine invité des périphériques partagés. Lorsque le domaine de contrôle ou d'E/S a terminé sa réinitialisation, E/S reprend sur le domaine invité et toute E/S de stockage partagé provoque la panique du domaine invité car ce dernier a été séparé des disques partagés dans le cadre de la reconfiguration du cluster. Vous pouvez atténuer ce problème si un invité utilise deux domaines d'E/S pour la redondance et la réinitialisation des domaines d'E/S, l'un après l'autre.
L'élément phys-schost# fait référence à l'invite du cluster global. Appliquez cette procédure à un cluster global.
Cette procédure contient la forme longue des commandes d'Oracle Solaris Cluster. La plupart des commandes possèdent également des formes brèves. A l'exception de la forme du nom, ces commandes sont identiques.
Remarque - Les noeuds doivent disposer d'une connexion qui fonctionne avec l'interconnexion de cluster pour atteindre l'appartenance au cluster.
Sur les systèmes SPARC, exécutez la commande suivante :
ok boot
Sur les systèmes x86, exécutez les commandes suivantes :
Lorsque le menu GRUB s'affiche, sélectionnez l'entrée Oracle Solaris appropriée, puis appuyez sur la touche Entrée. Le menu GRUB qui s'affiche est semblable à ce qui suit :
GNU GRUB version 0.95 (631K lower / 2095488K upper memory) +-------------------------------------------------------------------------+ | Solaris 10 /sol_10_x86 | | Solaris failsafe | | | +-------------------------------------------------------------------------+ Use the ^ and v keys to select which entry is highlighted. Press enter to boot the selected OS, 'e' to edit the commands before booting, or 'c' for a command-line.
Des messages apparaissent sur les consoles des noeuds initialisés en même temps que les composants du cluster sont activés.
Si vous avez un cluster de zones, vous pouvez indiquer un noeud à initialiser.
phys-schost# clzonecluster boot -n node zoneclustername
phys-schost# cluster status -t node
phys-schost# clzonecluster status
Un noeud du cluster de zones peut uniquement être initialisé en mode cluster lorsque le noeud hébergeant le noeud est initialisé en mode cluster.
Remarque - Si le système de fichiers /var d'un noeud se remplit, Oracle Solaris Cluster ne pourra peut-être pas redémarrer sur ce noeud. Si ce problème survient, reportez-vous à la section Réparation d'un système de fichiers /var complet.
Exemple 3-10 SPARC : Initialisation d'un noeud du cluster global
L'exemple suivant montre la sortie de console lorsque le noeud phys-schost-1 est initialisé dans le cluster global.
ok boot Rebooting with command: boot ... Hostname: phys-schost-1 Booting as part of a cluster ... NOTICE: Node phys-schost-1: attempting to join cluster ... NOTICE: Node phys-schost-1: joined cluster ... The system is coming up. Please wait. checking ufs filesystems ... reservation program successfully exiting Print services started. volume management starting. The system is ready. phys-schost-1 console login:
Pour arrêter ou réinitialiser d'autres noeuds actifs du cluster global ou du cluster de zones, attendez que le jalon multi-utilisateur-serveur soit en ligne pour le noeud que vous souhaitez réinitialiser.
Sinon, le noeud ne sera pas disponible pour prendre la place de services d'autres noeuds du cluster que vous arrêtez ou réinitialisez. Pour plus d'informations sur la réinitialisation d'une zone non globale, reportez-vous au Chapitre 20, Installation, initialisation, arrêt, désinstallation et clonage de zones non globales (tâches) du manuel Guide d’administration système : Conteneurs Oracle Solaris-Gestion des ressources et Oracle Solaris Zones.
L'élément phys-schost# fait référence à l'invite du cluster global. Appliquez cette procédure à un cluster global.
Cette procédure contient la forme longue des commandes d'Oracle Solaris Cluster. La plupart des commandes possèdent également des formes brèves. A l'exception de la forme du nom, ces commandes sont identiques.
![]() | Attention - Si une méthode pour n'importe quelle ressource n'arrive à expiration et ne peut pas être interrompu, le noeud sera redémarré uniquement si la ressource est Failover_mode propriété est définie à disque. Si les Failover_mode propriété est définie sur une autre valeur, le noeud ne sera pas redémarré. |
Reportez-vous à la documentation produit d'Oracle RAC pour les procédures d'arrêt.
Pour un cluster global, entrez les commandes suivantes sur le noeud à arrêter. La commande clnode evacuate permet de basculer tous les groupes de périphériques du noeud spécifié vers le noeud de prédilection suivant. La commande bascule également tous les groupes de ressources de zones globales ou non globales du noeud spécifié vers les zones globales ou non globales de prédilection suivantes sur d'autres noeuds.
Remarque - Pour arrêter un noeud unique, utilisez la commande shutdown -g0 -y -i6. Pour arrêter plusieurs noeuds en même temps, utilisez les commandes shutdown -g0 -y -i0 pour arrêter les noeuds. Une fois tous les noeuds sont arrêtés, utilisez la commande boot sur tous les noeuds pour les réinitialiser au sein du cluster.
Sur un système SPARC, exécutez les commandes suivantes pour réinitialiser un noeud unique.
phys-schost# clnode evacuate node
phys-schost# shutdown -g0 -y -i6
Sur un système x86, exécutez les commandes suivantes pour réinitialiser un noeud unique.
phys-schost# clnode evacuate node
phys-schost# shutdown -g0 -y -i6
Lorsque le menu GRUB s'affiche, sélectionnez l'entrée Oracle Solaris appropriée, puis appuyez sur la touche Entrée. Le menu GRUB qui s'affiche est semblable à ce qui suit :
GNU GRUB version 0.95 (631K lower / 2095488K upper memory) +-------------------------------------------------------------------------+ | Solaris 10 /sol_10_x86 | | Solaris failsafe | | | +-------------------------------------------------------------------------+ Use the ^ and v keys to select which entry is highlighted. Press enter to boot the selected OS, 'e' to edit the commands before booting, or 'c' for a command-line.
Indiquez le noeud du cluster de zones à arrêter et à réinitialiser.
phys-schost# clzonecluster reboot - node zoneclustername
Remarque - Les noeuds doivent disposer d'une connexion qui fonctionne avec l'interconnexion de cluster pour atteindre l'appartenance au cluster.
phys-schost# cluster status -t node
phys-schost# clzonecluster status
Exemple 3-11 SPARC : Réinitialisation d'un noeud du cluster global
L'exemple suivant montre la sortie console lorsque le noeud phys-schost-1 est réinitialisé. Les messages pour ce noeud, tels que les notifications d'arrêt ou de démarrage, apparaissent sur les consoles des autres noeuds du cluster global.
phys-schost# clnode evacuate phys-schost-1 phys-schost# shutdown -g0 -y -i6 Shutdown started. Wed Mar 10 13:47:32 phys-schost-1 cl_runtime: WARNING: CMM monitoring disabled. phys-schost-1# INIT: New run level: 6 The system is coming down. Please wait. System services are now being stopped. Notice: rgmd is being stopped. Notice: rpc.pmfd is being stopped. Notice: rpc.fed is being stopped. umount: /global/.devices/node@1 busy umount: /global/phys-schost-1 busy The system is down. syncing file systems... done rebooting... Resetting ... ,,, Sun Ultra 1 SBus (UltraSPARC 143MHz), No Keyboard OpenBoot 3.11, 128 MB memory installed, Serial #5932401. Ethernet address 8:8:20:99:ab:77, Host ID: 8899ab77. ... Rebooting with command: boot ... Hostname: phys-schost-1 Booting as part of a cluster ... NOTICE: Node phys-schost-1: attempting to join cluster ... NOTICE: Node phys-schost-1: joined cluster ... The system is coming up. Please wait. The system is ready. phys-schost-1 console login:
Exemple 3-12 x86 : Réinitialisation d'un noeud du cluster global
L'exemple suivant montre la sortie console lorsque le noeud phys-schost-1 est réinitialisé. Les messages pour ce noeud, tels que les notifications d'arrêt ou de démarrage, apparaissent sur les consoles des autres noeuds du cluster global.
phys-schost# clnode evacuate phys-schost-1 phys-schost # shutdown -g0 -i6 -y GNU GRUB version 0.95 (631K lower / 2095488K upper memory) +-------------------------------------------------------------------------+ | Solaris 10 /sol_10_x86 | | Solaris failsafe | | | +-------------------------------------------------------------------------+ Use the ^ and v keys to select which entry is highlighted. Press enter to boot the selected OS, 'e' to edit the commands before booting, or 'c' for a command-line. Hostname: phys-schost-1 Booting as part of a cluster ... NOTICE: Node phys-schost-1: attempting to join cluster ... NOTICE: Node phys-schost-1: joined cluster ... The system is coming up. Please wait. checking ufs filesystems ... reservation program successfully exiting Print services started. volume management starting. The system is ready. phys-schost-1 console login:
Exemple 3-13 Réinitialisation d'un noeud du cluster de zones
L'exemple suivant montre la procédure de la réinitialisation d'un noeud d'un cluster de zones.
phys-schost# clzonecluster reboot -n schost-4 sparse-sczone Waiting for zone reboot commands to complete on all the nodes of the zone cluster "sparse-sczone"... Sep 5 19:40:59 schost-4 cl_runtime: NOTICE: Membership : Node 3 of cluster 'sparse-sczone' died. phys-schost# Sep 5 19:41:27 schost-4 cl_runtime: NOTICE: Membership : Node 3 of cluster 'sparse-sczone' joined. phys-schost# phys-schost# clzonecluster status === Zone Clusters === --- Zone Cluster Status --- Name Node Name Zone HostName Status Zone Status ---- --------- ------------- ------ ----------- sparse-sczone schost-1 sczone-1 Online Running schost-2 sczone-2 Online Running schost-3 sczone-3 Online Running schost-4 sczone-4 Online Running phys-schost#
Vous pouvez initialiser un noeud du cluster global en mode non cluster, le noeud ne participant alors pas à l'appartenance au cluster. Le mode non cluster est utile lors de l'installation du logiciel du cluster ou de la réalisation de certaines procédures d'administration, telles que l'application d'un patch sur un noeud. Un noeud du cluster de zones ne peut pas se trouver dans un état d'initialisation différent de l'état du noeud sous-jacent du cluster global. Si le noeud du cluster global est démarré en mode non cluster, le noeud du cluster de zones est automatiquement démarré en mode non cluster.
L'élément phys-schost# fait référence à l'invite du cluster global. Appliquez cette procédure à un cluster global.
Cette procédure contient la forme longue des commandes d'Oracle Solaris Cluster. La plupart des commandes possèdent également des formes brèves. A l'exception de la forme du nom, ces commandes sont identiques.
La commande clnode evacuate permet de basculer tous les groupes de périphériques du noeud spécifié vers le noeud de prédilection suivant. La commande bascule également tous les groupes de ressources de zones globales ou non globales du noeud spécifié vers les zones globales ou non globales de prédilection suivantes sur d'autres noeuds.
phys-schost# clnode evacuate node
phys-schost# shutdown -g0 -y
phys-schost# clzonecluster halt -n node zoneclustername
Vous pouvez également utiliser les commandes clnode evacuate et shutdown dans un cluster de zones.
Sur les systèmes SPARC, exécutez la commande suivante :
ok boot -xs
Sur les systèmes x86, exécutez les commandes suivantes :
Le menu GRUB qui s'affiche est semblable à ce qui suit :
GNU GRUB version 0.95 (631K lower / 2095488K upper memory) +-------------------------------------------------------------------------+ | Solaris 10 /sol_10_x86 | | Solaris failsafe | | | +-------------------------------------------------------------------------+ Use the ^ and v keys to select which entry is highlighted. Press enter to boot the selected OS, 'e' to edit the commands before booting, or 'c' for a command-line.
Pour plus d'informations sur l'initialisation GRUB, reportez-vous à la section Initialisation d’un système x86 à l’aide de GRUB (liste des tâches) du manuel Administration d’Oracle Solaris : Administration de base.
L'écran des paramètres d'initialisation GRUB qui s'affiche est semblable à ce qui suit :
GNU GRUB version 0.95 (615K lower / 2095552K upper memory) +----------------------------------------------------------------------+ | root (hd0,0,a) | | kernel /platform/i86pc/multiboot | | module /platform/i86pc/boot_archive | +----------------------------------------------------------------------+ Use the ^ and v keys to select which entry is highlighted. Press 'b' to boot, 'e' to edit the selected command in the boot sequence, 'c' for a command-line, 'o' to open a new line after ('O' for before) the selected line, 'd' to remove the selected line, or escape to go back to the main menu.
[ Minimal BASH-like line editing is supported. For the first word, TAB lists possible command completions. Anywhere else TAB lists the possible completions of a device/filename. ESC at any time exits. ] grub edit> kernel /platform/i86pc/multiboot -x
L'écran affiche la commande éditée.
GNU GRUB version 0.95 (615K lower / 2095552K upper memory) +----------------------------------------------------------------------+ | root (hd0,0,a) | | kernel /platform/i86pc/multiboot -x | | module /platform/i86pc/boot_archive | +----------------------------------------------------------------------+ Use the ^ and v keys to select which entry is highlighted. Press 'b' to boot, 'e' to edit the selected command in the boot sequence, 'c' for a command-line, 'o' to open a new line after ('O' for before) the selected line, 'd' to remove the selected line, or escape to go back to the main menu.-
Remarque - Cette modification de la commande des paramètres d'initialisation du noyau ne sera pas prise en compte, lors de la prochaine initialisation du système. Lors de la prochaine initialisation du noeud, ce dernier sera initialisé en mode cluster. Si vous souhaitez plutôt initialiser le noeud en mode non cluster, effectuez de nouveau ces étapes pour ajouter l'option -x à la commande des paramètres d'initialisation du noyau.
Exemple 3-14 SPARC : Initialisation d'un noeud du cluster global en mode non cluster
L'exemple suivant montre la sortie de console lorsque le noeud phys-schost-1 est arrêté et redémarré en mode non cluster. L'option -g0 définit la période de grâce sur zéro, l'option -y fournit une réponse oui automatique à la question de confirmation et l'option -i0 invoque le niveau d'exécution 0 (zéro). Les messages d'arrêt de ce noeud apparaissent sur les consoles des autres noeuds du cluster global.
phys-schost# clnode evacuate phys-schost-1 phys-schost# cluster shutdown -g0 -y Shutdown started. Wed Mar 10 13:47:32 phys-schost-1 cl_runtime: WARNING: CMM monitoring disabled. phys-schost-1# ... rg_name = schost-sa-1 ... offline node = phys-schost-2 ... num of node = 0 ... phys-schost-1# INIT: New run level: 0 The system is coming down. Please wait. System services are now being stopped. Print services stopped. syslogd: going down on signal 15 ... The system is down. syncing file systems... done WARNING: node phys-schost-1 is being shut down. Program terminated ok boot -x ... Not booting as part of cluster ... The system is ready. phys-schost-1 console login: