Ignorer les liens de navigation | |
Quitter l'aperu | |
![]() |
Guide d'administration système d'Oracle Solaris Cluster Oracle Solaris Cluster (Français) |
1. Introduction à l'administration d'Oracle Solaris Cluster
2. Oracle Solaris Cluster et RBAC
3. Fermeture et initialisation d'un cluster
Présentation de la fermeture et de l'initialisation d'un cluster
Réparation d'un système de fichiers /var complet
Réparation d'un système de fichiers /var complet
4. Méthodes de réplication de données
7. Administration des interconnexions de cluster et des réseaux publics
8. Ajout et suppression d'un nud
10. Configuration du contrôle de l'utilisation du CPU
11. Mise à jour du logiciel ou installation d'un microprogramme Oracle Solaris Cluster
12. Sauvegarde et restauration d'un cluster
13. Administration de Oracle Solaris Cluster avec les interfaces graphiques
Vous pouvez fermer un nœud du cluster global, un nœud du cluster de zones ou une zone non globale. Cette section fournit des instructions concernant la fermeture d'un nœud du cluster global et d'un nœud du cluster de zones.
Pour fermer un nœud du cluster global, utilisez la commande clnode evacuate avec la commande Oracle Solaris shutdown. Utilisez la commande cluster shutdown uniquement en cas de fermeture d'un cluster global entier.
Sur un nœud du cluster de zones, utilisez la commande clzonecluster halt sur un cluster global pour fermer un nœud unique du cluster de zones ou un cluster de zones entier. Vous pouvez également utiliser les commandes clnode evacuate et shutdown pour fermer un nœud du cluster de zones.
Pour plus d'informations à propos de la fermeture et de l'initialisation d'une zone non globale, reportez-vous au Chapitre 20, Installation, initialisation, arrêt, désinstallation et clonage de zones non globales (tâches) du Guide d’administration système : Gestion des ressources des conteneurs et des zones Oracle Solaris. Reportez-vous également à clnode(1CL)shutdown(1M) et à clzonecluster(1CL).
Dans les procédures de ce chapitre, phys-schost# reflète une invite de cluster global. clzc:schost> représente l'invite de shell interactive de la commande clzonecluster.
Tableau 3-2 Liste des tâches : fermeture et initialisation d'un nœud
|
L'élément phys-schost# fait référence à l'invite du cluster global. Appliquez cette procédure à un cluster global.
Cette procédure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart des commandes possèdent également des formes brèves. À l'exception de la forme du nom, ces commandes sont identiques.
![]() | Attention - N'utilisez pas la commande send brk sur la console d'un cluster pour fermer un nœud d'un cluster global ou d'un cluster de zones. La commande n'est pas prise en charge au sein d'un cluster. |
Reportez-vous à la documentation produit de Oracle RAC pour les procédures de fermeture.
phys-schost# clzonecluster halt -n physical-name zoneclustername
Lorsque vous spécifiez un nœud particulier du cluster de zones, vous n'arrêtez que ce nœud. Par défaut, la commande halt arrête les clusters de zones sur tous les nœuds.
Sur le nœud à fermer du cluster global, entrez la commande suivante. La commande clnode evacuate commute tous les groupes de ressources et de périphériques, y compris toutes les zones non-globales, depuis le nœud spécifié vers le prochain nœud de prédilection. (Vous pouvez également exécuter la commande clnode evacuate au sein d'un nœud du cluster de zones.
phys-schost# clnode evacuate node
Spécifie le nœud dont vous commutez les groupes de ressources et de périphériques.
Spécifiez le nœud du cluster global que vous souhaitez fermer.
phys-schost# shutdown -g0 -y -i0
Vérifiez que le nœud du cluster global affiche l'invite ok sur un système SPARC ou le message Appuyez sur une touche pour continuer dans le menu GRUB d'un système x86.
Exemple 3-7 SPARC : Fermeture d'un nœud du cluster global
L'exemple suivant montre la sortie console lorsque le nœud phys-schost-1 est fermé. L'option -g0 définit la période de grâce sur zéro et l'option -y fournit une réponse oui automatique à la question de confirmation. Les messages de fermeture pour ce nœud apparaissent sur les consoles des autres nœuds du cluster global.
phys-schost# clnode evacuate nodename phys-schost# shutdown -g0 -y Wed Mar 10 13:47:32 phys-schost-1 cl_runtime: WARNING: CMM monitoring disabled. phys-schost-1# INIT: New run level: 0 The system is coming down. Please wait. Notice: rgmd is being stopped. Notice: rpc.pmfd is being stopped. Notice: rpc.fed is being stopped. umount: /global/.devices/node@1 busy umount: /global/phys-schost-1 busy The system is down. syncing file systems... done Program terminated ok
Exemple 3-8 x86 : Fermeture d'un nœud du cluster global
L'exemple suivant montre la sortie console lorsque le nœud phys-schost-1 est fermé. L'option -g0 définit la période de grâce sur zéro et l'option -y fournit une réponse oui automatique à la question de confirmation. Les messages de fermeture pour ce nœud apparaissent sur les consoles des autres nœuds du cluster global.
phys-schost# clnode evacuate phys-schost-1 phys-schost# shutdown -g0 -y Shutdown started. Wed Mar 10 13:47:32 PST 2004 Changing to init state 0 - please wait Broadcast Message from root (console) on phys-schost-1 Wed Mar 10 13:47:32... THE SYSTEM phys-schost-1 IS BEING SHUT DOWN NOW ! ! ! Log off now or risk your files being damaged phys-schost-1# INIT: New run level: 0 The system is coming down. Please wait. System services are now being stopped. /etc/rc0.d/K05initrgm: Calling clnode evacuate failfasts disabled on node 1 Print services already stopped. Mar 10 13:47:44 phys-schost-1 syslogd: going down on signal 15 umount: /global/.devices/node@2 busy umount: /global/.devices/node@1 busy The system is down. syncing file systems... done WARNING: CMM: Node being shut down. Type any key to continue
Exemple 3-9 Fermeture d'un nœud d'un cluster de zones
L'exemple suivant montre l'utilisation de clzonecluster halt pour fermer un nœud d'un cluster de zones nommé sparse-sczone. (Vous pouvez également exécuter les commandes clnode evacuate et shutdown dans un nœud du cluster de zones.)
phys-schost# clzonecluster status === Zone Clusters === --- Zone Cluster Status --- Name Node Name Zone HostName Status Zone Status ---- --------- ------------- ------ ----------- sparse-sczone schost-1 sczone-1 Online Running schost-2 sczone-2 Online Running schost-3 sczone-3 Online Running schost-4 sczone-4 Online Running phys-schost# phys-schost# clzonecluster halt -n schost-4 sparse-sczone Waiting for zone halt commands to complete on all the nodes of the zone cluster "sparse-sczone"... Sep 5 19:24:00 schost-4 cl_runtime: NOTICE: Membership : Node 3 of cluster 'sparse-sczone' died. phys-host# phys-host# clzonecluster status === Zone Clusters === --- Zone Cluster Status --- Name Node Name Zone HostName Status Zone Status ---- --------- ------------- ------ ----------- sparse-sczone schost-1 sczone-1 Online Running schost-2 sczone-2 Online Running schost-3 sczone-3 Offline Installed schost-4 sczone-4 Online Running phys-schost#
Voir aussi
Reportez-vous à Initialisation d'un nud pour redémarrer un nœud fermé du cluster global.
Si vous avez l'intention d'arrêter ou de réinitialiser d'autres nœuds actifs du cluster global ou du cluster de zones, attendez que le jalon multi-utilisateur-serveur soit en ligne pour le nœud que vous souhaitez réinitialiser.
Sinon, le nœud ne sera pas disponible pour prendre la place de services d'autres nœuds du cluster que vous fermez ou réinitialisez. Pour plus d'informations à propos de l'initialisation d'une zone non globale, reportez-vous au Chapitre 20, Installation, initialisation, arrêt, désinstallation et clonage de zones non globales (tâches) du Guide d’administration système : Gestion des ressources des conteneurs et des zones Oracle Solaris.
Remarque - Le démarrage d'un nœud peut être affecté par la configuration du quorum. Dans un cluster à deux nœuds, vous devez avoir un périphérique de quorum configuré afin que le nombre total du quorum soit trois. Vous devez avoir un nombre du quorum pour chaque nœud et un nombre du quorum pour le périphérique de quorum. Dans cette situation, si le premier nœud est fermé, le second nœud continue d'avoir le quorum et s'exécute en tant que seul membre du cluster. Pour que le premier nœud reviennent dans le cluster en tant que nœud du cluster, le second nœud doit être opérationnel et en cours d'exécution. Le nombre requis de quorum du cluster (deux) doit être présent.
L'élément phys-schost# fait référence à l'invite du cluster global. Appliquez cette procédure à un cluster global.
Cette procédure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart des commandes possèdent également des formes brèves. À l'exception de la forme du nom, ces commandes sont identiques.
Remarque - Les nœuds doivent disposer d'une connexion qui fonctionne avec l'interconnexion de cluster pour atteindre l'appartenance au cluster.
Dans les systèmes SPARC, exécutez la commande suivante.
ok boot
Sur les systèmes x86, exécutez les commandes suivantes :
Lorsque le menu GRUB s'affiche, sélectionnez l'entrée Oracle Solaris appropriée, puis appuyez sur la touche Entrée. Le menu GRUB s'affiche comme suit :
GNU GRUB version 0.95 (631K lower / 2095488K upper memory) +-------------------------------------------------------------------------+ | Solaris 10 /sol_10_x86 | | Solaris failsafe | | | +-------------------------------------------------------------------------+ Use the ^ and v keys to select which entry is highlighted. Press enter to boot the selected OS, 'e' to edit the commands before booting, or 'c' for a command-line.
Des messages apparaissent sur les consoles des nœuds initialisés en même temps que les composants du cluster sont activés.
Si vous avez un cluster de zones, vous pouvez indiquer un nœud à initialiser.
phys-schost# clzonecluster boot -n node zoneclustername
phys-schost# cluster status -t node
phys-schost# clzonecluster status
Un nœud du cluster de zones peut uniquement être initialisé en mode cluster lorsque le nœud hébergeant le nœud est initialisé en mode cluster.
Remarque - Si le système de fichier /var d'un nœud se remplit, Oracle Solaris Cluster ne pourra peut-être pas redémarrer sur ce nœud. Si ce problème survient, reportez-vous à la section Réparation d'un système de fichiers /var complet.
Exemple 3-10 SPARC : Initialisation d'un nœud du cluster global
L'exemple suivant montre la sortie de console lorsque le nœud phys-schost-1 est initialisé dans le cluster global.
ok boot Rebooting with command: boot ... Hostname: phys-schost-1 Booting as part of a cluster ... NOTICE: Node phys-schost-1: attempting to join cluster ... NOTICE: Node phys-schost-1: joined cluster ... The system is coming up. Please wait. checking ufs filesystems ... reservation program successfully exiting Print services started. volume management starting. The system is ready. phys-schost-1 console login:
Pour arrêter ou réinitialiser d'autres nœuds actifs du cluster global ou du cluster de zones, attendez que le jalon multi-utilisateur-serveur soit en ligne pour le nœud que vous souhaitez réinitialiser.
Sinon, le nœud ne sera pas disponible pour prendre la place de services d'autres nœuds du cluster que vous fermez ou réinitialisez. Pour plus d'informations à propos de la réinitialisation d'une zone non globale, reportez-vous au Chapitre 20, Installation, initialisation, arrêt, désinstallation et clonage de zones non globales (tâches) du Guide d’administration système : Gestion des ressources des conteneurs et des zones Oracle Solaris.
L'élément phys-schost# fait référence à l'invite du cluster global. Appliquez cette procédure à un cluster global.
Cette procédure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart des commandes possèdent également des formes brèves. À l'exception de la forme du nom, ces commandes sont identiques.
![]() | Attention - Si une méthode pour n'importe quelle ressource n'arrive à expiration et ne peut pas être interrompu, le noeud sera redémarré uniquement si la ressource est Failover_mode propriété est définie à disque. Si les Failover_mode propriété est définie sur une autre valeur, le noeud ne sera pas redémarré. |
Reportez-vous à la documentation produit de Oracle RAC pour les procédures de fermeture.
Pour un cluster global, entrez les commandes suivantes sur le nœud à fermer. La commande clnode evacuate bascule tous les groupes de périphériques du nœud spécifié vers le prochain nœud de prédilection. La commande commute également tous les groupes de ressources des zones globales ou non-globales du nœud spécifié vers les prochaines zones globales ou non-globales de prédilection d'autres nœuds.
Remarque - Pour arrêter un noeud unique, utilisez la shutdown -g0 -y -i6 commande. Pour arrêter plusieurs noeuds en même temps, utilisez les shutdown -g0 -y -i0 commande pour arrêter les noeuds. Une fois tous les noeuds sont arrêtés, utilisez la boot commande sur tous les noeuds à l'initialisation à nouveau dans le cluster.
Sur un système SPARC, exécutez les commandes suivantes pour redémarrer un noeud unique.
phys-schost# clnode evacuate node
phys-schost# shutdown -g0 -y -i6
Sur un système x86, exécutez les commandes suivantes pour redémarrer un noeud unique.
phys-schost# clnode evacuate node
phys-schost# shutdown -g0 -y -i6
Lorsque le menu GRUB s'affiche, sélectionnez l'entrée Oracle Solaris appropriée, puis appuyez sur la touche Entrée. Le menu GRUB s'affiche comme suit :
GNU GRUB version 0.95 (631K lower / 2095488K upper memory) +-------------------------------------------------------------------------+ | Solaris 10 /sol_10_x86 | | Solaris failsafe | | | +-------------------------------------------------------------------------+ Use the ^ and v keys to select which entry is highlighted. Press enter to boot the selected OS, 'e' to edit the commands before booting, or 'c' for a command-line.
Indiquez le nœud du cluster de zones à fermer et à réinitialiser.
phys-schost# clzonecluster reboot - node zoneclustername
Remarque - Les nœuds doivent disposer d'une connexion qui fonctionne avec l'interconnexion de cluster pour atteindre l'appartenance au cluster.
phys-schost# cluster status -t node
phys-schost# clzonecluster status
Exemple 3-11 SPARC : Réinitialisation d'un nœud du cluster global
L'exemple suivant montre la sortie console lorsque le nœud phys-schost-1 est réinitialisé. Les messages pour ce nœud, tels que les notifications de fermeture ou de démarrage, apparaissent sur les consoles des autres nœuds du cluster global.
phys-schost# clnode evacuate phys-schost-1 phys-schost# shutdown -g0 -y -i6 Shutdown started. Wed Mar 10 13:47:32 phys-schost-1 cl_runtime: WARNING: CMM monitoring disabled. phys-schost-1# INIT: New run level: 6 The system is coming down. Please wait. System services are now being stopped. Notice: rgmd is being stopped. Notice: rpc.pmfd is being stopped. Notice: rpc.fed is being stopped. umount: /global/.devices/node@1 busy umount: /global/phys-schost-1 busy The system is down. syncing file systems... done rebooting... Resetting ... ,,, Sun Ultra 1 SBus (UltraSPARC 143MHz), No Keyboard OpenBoot 3.11, 128 MB memory installed, Serial #5932401. Ethernet address 8:8:20:99:ab:77, Host ID: 8899ab77. ... Rebooting with command: boot ... Hostname: phys-schost-1 Booting as part of a cluster ... NOTICE: Node phys-schost-1: attempting to join cluster ... NOTICE: Node phys-schost-1: joined cluster ... The system is coming up. Please wait. The system is ready. phys-schost-1 console login:
Exemple 3-12 x86 : Réinitialisation d'un nœud du cluster global
L'exemple suivant montre la sortie console lors de la réinitialisation du nœud phys-schost-1. Les messages pour ce nœud, tels que les notifications de fermeture ou de démarrage, apparaissent sur les consoles des autres nœuds du cluster global.
phys-schost# clnode evacuate phys-schost-1 phys-schost # shutdown -g0 -i6 -y GNU GRUB version 0.95 (631K lower / 2095488K upper memory) +-------------------------------------------------------------------------+ | Solaris 10 /sol_10_x86 | | Solaris failsafe | | | +-------------------------------------------------------------------------+ Use the ^ and v keys to select which entry is highlighted. Press enter to boot the selected OS, 'e' to edit the commands before booting, or 'c' for a command-line. Hostname: phys-schost-1 Booting as part of a cluster ... NOTICE: Node phys-schost-1: attempting to join cluster ... NOTICE: Node phys-schost-1: joined cluster ... The system is coming up. Please wait. checking ufs filesystems ... reservation program successfully exiting Print services started. volume management starting. The system is ready. phys-schost-1 console login:
Exemple 3-13 Réinitialisation d'un nœud du cluster de zones
L'exemple suivant montre la procédure de la réinitialisation d'un nœud d'un cluster de zones.
phys-schost# clzonecluster reboot -n schost-4 sparse-sczone Waiting for zone reboot commands to complete on all the nodes of the zone cluster "sparse-sczone"... Sep 5 19:40:59 schost-4 cl_runtime: NOTICE: Membership : Node 3 of cluster 'sparse-sczone' died. phys-schost# Sep 5 19:41:27 schost-4 cl_runtime: NOTICE: Membership : Node 3 of cluster 'sparse-sczone' joined. phys-schost# phys-schost# clzonecluster status === Zone Clusters === --- Zone Cluster Status --- Name Node Name Zone HostName Status Zone Status ---- --------- ------------- ------ ----------- sparse-sczone schost-1 sczone-1 Online Running schost-2 sczone-2 Online Running schost-3 sczone-3 Online Running schost-4 sczone-4 Online Running phys-schost#
Vous pouvez initialiser un nœud du cluster global en mode non cluster, le nœud ne participant alors pas à l'appartenance au cluster. Le mode non cluster est utile lors de l'installation du logiciel du cluster ou de la réalisation de certaines procédures d'administration, telles que l'application de patch sur un nœud. Un nœud du cluster de zones ne peut pas se trouver dans un état de démarrage différent de l'état du nœud sous-jacent du cluster global. Si le nœud du cluster global est démarré en mode non cluster, le nœud du cluster de zones est automatiquement démarré en mode non cluster.
L'élément phys-schost# fait référence à l'invite du cluster global. Appliquez cette procédure à un cluster global.
Cette procédure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart des commandes possèdent également des formes brèves. À l'exception de la forme du nom, ces commandes sont identiques.
La commande clnode evacuate bascule tous les groupes de périphériques du nœud spécifié vers le prochain nœud de prédilection. La commande commute également tous les groupes de ressources des zones globales ou non-globales du nœud spécifié vers les prochaines zones globales ou non-globales de prédilection d'autres nœuds.
phys-schost# clnode evacuate node
phys-schost# shutdown -g0 -y
phys-schost# clzonecluster halt -n node zoneclustername
Vous pouvez également utiliser les commandes clnode evacuate et shutdown dans un cluster de zones.
Dans les systèmes SPARC, exécutez la commande suivante.
ok boot -xs
Sur les systèmes x86, exécutez les commandes suivantes :
Le menu GRUB s'affiche comme suit :
GNU GRUB version 0.95 (631K lower / 2095488K upper memory) +-------------------------------------------------------------------------+ | Solaris 10 /sol_10_x86 | | Solaris failsafe | | | +-------------------------------------------------------------------------+ Use the ^ and v keys to select which entry is highlighted. Press enter to boot the selected OS, 'e' to edit the commands before booting, or 'c' for a command-line.
Pour plus d'informations concernant l'initialisation basée sur GRUB, reportez-vous à la section Booting an x86 Based System by Using GRUB (Task Map) du System Administration Guide: Basic Administration.
L'écran des paramètres d'initialisation de GRUB s'affiche comme suit :
GNU GRUB version 0.95 (615K lower / 2095552K upper memory) +----------------------------------------------------------------------+ | root (hd0,0,a) | | kernel /platform/i86pc/multiboot | | module /platform/i86pc/boot_archive | +----------------------------------------------------------------------+ Use the ^ and v keys to select which entry is highlighted. Press 'b' to boot, 'e' to edit the selected command in the boot sequence, 'c' for a command-line, 'o' to open a new line after ('O' for before) the selected line, 'd' to remove the selected line, or escape to go back to the main menu.
[ Minimal BASH-like line editing is supported. For the first word, TAB lists possible command completions. Anywhere else TAB lists the possible completions of a device/filename. ESC at any time exits. ] grub edit> kernel /platform/i86pc/multiboot -x
L'écran affiche la commande éditée.
GNU GRUB version 0.95 (615K lower / 2095552K upper memory) +----------------------------------------------------------------------+ | root (hd0,0,a) | | kernel /platform/i86pc/multiboot -x | | module /platform/i86pc/boot_archive | +----------------------------------------------------------------------+ Use the ^ and v keys to select which entry is highlighted. Press 'b' to boot, 'e' to edit the selected command in the boot sequence, 'c' for a command-line, 'o' to open a new line after ('O' for before) the selected line, 'd' to remove the selected line, or escape to go back to the main menu.-
Remarque - Cette modification de la commande des paramètres d'initialisation du noyau n'est pas conservée, lors du prochain démarrage du système. La prochaine fois que vous réinitialisez le nœud, ce dernier sera initialisé en mode cluster. Si vous souhaitez plutôt initialiser le nœud en mode non cluster, effectuez de nouveau ces étapes pour ajouter l'option -x à la commande des paramètres d'initialisation du noyau.
Exemple 3-14 SPARC : Initialisation d'un nœud du cluster global en mode non cluster
L'exemple suivant montre la sortie de console lorsque le nœud phys-schost-1 est fermé et redémarré en mode non cluster. L'option -g0 définit la période de grâce sur zéro, l'option -y fournit une réponse oui automatique à la question de confirmation et l'option -i0 invoque le niveau d'exécution 0 (zéro). Les messages de fermeture pour ce nœud apparaissent sur les consoles des autres nœuds du cluster global.
phys-schost# clnode evacuate phys-schost-1 phys-schost# cluster shutdown -g0 -y Shutdown started. Wed Mar 10 13:47:32 phys-schost-1 cl_runtime: WARNING: CMM monitoring disabled. phys-schost-1# ... rg_name = schost-sa-1 ... offline node = phys-schost-2 ... num of node = 0 ... phys-schost-1# INIT: New run level: 0 The system is coming down. Please wait. System services are now being stopped. Print services stopped. syslogd: going down on signal 15 ... The system is down. syncing file systems... done WARNING: node phys-schost-1 is being shut down. Program terminated ok boot -x ... Not booting as part of cluster ... The system is ready. phys-schost-1 console login: