Ignorer les liens de navigation | |
Quitter l'aperu | |
Guide d'administration système d'Oracle Solaris Cluster Oracle Solaris Cluster 4.1 (Français) |
1. Présentation de l'administration d'Oracle Solaris Cluster
2. Oracle Solaris Cluster et RBAC
3. Fermeture et initialisation d'un cluster
Fermeture et initialisation d'un noeud unique dans un cluster
Initialisation d'un noeud en mode non cluster
Réparation d'un système de fichiers /var complet
Réparation d'un système de fichiers /var complet
4. Méthodes de réplication de données
7. Administration des interconnexions de cluster et des réseaux publics
8. Ajout et suppression d'un noeud
10. Configuration du contrôle de l'utilisation de la CPU
La commande cluster shutdown d'Oracle Solaris Cluster arrête les services du cluster global de manière ordonnée et ferme correctement un cluster global entier. Vous pouvez utiliser la commande cluster shutdown lors du déplacement de l'emplacement d'un cluster global ou pour fermer le cluster global si une erreur d'application provoque la corruption des données. La commande clzonecluster halt arrête un cluster de zones en cours d'exécution sur un noeud spécifique ou un cluster de zones entier sur tous les noeuds configurés. (Vous pouvez également utiliser la commande cluster shutdown au sein d'un cluster de zones.) Pour plus d'informations, reportez-vous à la page de manuel cluster(1CL).
Dans les procédures de ce chapitre, phys-schost# fait référence à une invite du cluster global. clzc:schost> représente l'invite de shell interactive de la commande clzonecluster.
Remarque - Utilisez la commande cluster shutdown pour garantir la fermeture correcte du cluster global entier. La commande shutdown d'Oracle Solaris, en combinaison avec la commande clnode evacuate, permet de fermer tous les noeuds individuels. Pour plus d'informations, reportez-vous à la section Fermeture d'un cluster, Fermeture et initialisation d'un noeud unique dans un cluster ou à la page de manuel clnode(1CL).
Les commandes cluster shutdown et clzonecluster halt arrêtent tous les noeuds dans un cluster global ou un cluster de zones, respectivement, en effectuant les actions suivantes :
Met hors ligne tous les groupes de ressources en cours d'exécution.
Démonte tous les systèmes de fichiers du cluster pour un cluster global ou un cluster de zones.
La commande cluster shutdown ferme les services de périphériques actifs sur un cluster global ou un cluster de zones.
La commande cluster shutdown exécute init 0 et met tous les noeuds du cluster sur l'invite OpenBoot PROM ok sur un système basé sur SPARC ou sur le message Appuyez sur une touche pour continuer dans le menu GRUB d'un système basé sur x86. Pour plus d'informations sur l'initialisation basée sur le GRUB, reportez-vous à la section Initialisation d’un système du manuel Initialisation et arrêt des systèmes Oracle Solaris 11.1. La commande clzonecluster halt exécute la commande zoneadm - z zoneclustername halt pour arrêter (mais pas fermer) les zones du cluster de zones.
Remarque - Si nécessaire, vous pouvez initialiser un noeud en mode non cluster afin que le noeud ne participe pas à l'appartenance au cluster. Le mode non cluster est utile lors de l'installation du logiciel du cluster ou pour effectuer certaines procédures administratives. Pour plus d'informations, reportez-vous à la section Initialisation d'un noeud en mode non cluster.
Tableau 3-1 Liste des tâches : fermeture et initialisation d'un cluster
|
Vous pouvez fermer un cluster global, un cluster de zones ou tous les clusters de zones.
Attention - N'utilisez pas la commande send brk dans une console de cluster pour fermer un noeud de cluster global ou un noeud de cluster de zones. La commande n'est pas prise en charge au sein d'un cluster. |
L'élément phys-schost# fait référence à l'invite du cluster global. Appliquez cette procédure à un cluster global.
Cette procédure contient la forme longue des commandes de Oracle Solaris Cluster. La plupart des commandes possèdent également des formes brèves. A l'exception de la forme du nom, ces commandes sont identiques.
Reportez-vous à la documentation produit de Oracle RAC pour les procédures de fermeture.
Effectuez toutes les étapes de cette procédure depuis un noeud du cluster global.
phys-schost# cluster shutdown -g0 -y
phys-schost# clzonecluster halt zoneclustername
phys-schost# clzonecluster halt +
Vous pouvez également utiliser la commande cluster shutdown au sein d'un cluster de zones pour fermer un cluster de zones spécifique.
N'éteignez pas de noeud avant que tous les noeuds soient associés à l'invite ok sur un système basé sur SPARC ou un sous-système d'initialisation sur un système basé sur x86.
phys-schost# cluster status -t node
phys-schost# clzonecluster status
Exemple 3-1 Fermeture d'un cluster de zones
L'exemple suivant ferme un cluster de zones nommé sczone.
phys-schost# clzonecluster halt sczone Waiting for zone halt commands to complete on all the nodes of the zone cluster "sczone"... Sep 5 19:06:01 schost-4 cl_runtime: NOTICE: Membership : Node 2 of cluster 'sczone' died. Sep 5 19:06:01 schost-4 cl_runtime: NOTICE: Membership : Node 4 of cluster 'sczone' died. Sep 5 19:06:01 schost-4 cl_runtime: NOTICE: Membership : Node 3 of cluster 'sczone' died. Sep 5 19:06:01 schost-4 cl_runtime: NOTICE: Membership : Node 1 of cluster 'sczone' died. phys-schost#
Exemple 3-2 SPARC : Fermeture d'un cluster global
L'exemple suivant montre la sortie de console lorsque l'opération normale du cluster global est arrêtée et que tous les noeuds sont fermés, permettant à l'invite ok de s'afficher. L'option -g0 définit la période de grâce de la fermeture sur zéro et l'option -y fournit une réponse oui automatique à la question de confirmation. Les messages de fermeture apparaissent également sur les consoles des autres noeuds du cluster global.
phys-schost# cluster shutdown -g0 -y Wed Mar 10 13:47:32 phys-schost-1 cl_runtime: WARNING: CMM monitoring disabled. phys-schost-1# INIT: New run level: 0 The system is coming down. Please wait. System services are now being stopped. /etc/rc0.d/K05initrgm: Calling clnode evacuate The system is down. syncing file systems... done Program terminated ok
Exemple 3-3 x86 : Fermeture d'un cluster global
L'exemple suivant montre la sortie de console lorsque l'opération normale du cluster global est arrêtée et que tous les noeuds sont fermés. Dans cet exemple, l'invite ok ne s'affiche pas sur tous les noeuds. L'option -g0 définit la période de grâce de la fermeture sur zéro et l'option -y fournit une réponse oui automatique à la question de confirmation. Les messages de fermeture apparaissent également sur les consoles des autres noeuds du cluster global.
phys-schost# cluster shutdown -g0 -y May 2 10:32:57 phys-schost-1 cl_runtime: WARNING: CMM: Monitoring disabled. root@phys-schost-1# INIT: New run level: 0 The system is coming down. Please wait. System services are now being stopped. /etc/rc0.d/K05initrgm: Calling clnode evacuate failfasts already disabled on node 1 Print services already stopped. May 2 10:33:13 phys-schost-1 syslogd: going down on signal 15 The system is down. syncing file systems... done Type any key to continue
Voir aussi
Pour redémarrer un cluster global ou un cluster de zones qui a été fermé, reportez-vous à la section Initialisation d'un cluster.
Cette procédure explique le démarrage d'un cluster global ou d'un cluster de zones dont les noeuds ont été fermés. Pour les noeuds du cluster global, le système affiche l'invite ok sur les systèmes SPARC ou le message Press any key to continue sur les systèmes x86 basés sur GRUB.
L'élément phys-schost# fait référence à l'invite du cluster global. Appliquez cette procédure à un cluster global.
Cette procédure contient la forme longue des commandes de Oracle Solaris Cluster. La plupart des commandes possèdent également des formes brèves. A l'exception de la forme du nom, ces commandes sont identiques.
Remarque - Pour créer un cluster de zones, suivez les instructions de la section Création et configuration d’un cluster de zones du manuel Guide d’installation du logiciel Oracle Solaris Cluster.
Effectuez toutes les étapes de cette procédure depuis un noeud du cluster global.
ok boot
Lorsque le menu GRUB s'affiche, sélectionnez l'entrée Oracle Solaris appropriée, puis appuyez sur la touche Entrée.
Pour plus d'informations sur l'initialisation basée sur le GRUB, reportez-vous à la section Initialisation d’un système du manuel Initialisation et arrêt des systèmes Oracle Solaris 11.1.
Remarque - Les noeuds doivent disposer d'une connexion qui fonctionne avec l'interconnexion de cluster pour atteindre l'appartenance au cluster.
phys-schost# clzonecluster boot zoneclustername
L'exécution de la commande cluster status indique le statut des noeuds du cluster global.
phys-schost# cluster status -t node
L'exécution de la commande de statut clzonecluster status sur un noeud du cluster global indique l'état du noeud du cluster de zones.
phys-schost# clzonecluster status
Remarque - Si le système de fichiers /var d'un noeud se remplit, Oracle Solaris Cluster ne pourra peut-être pas redémarrer sur ce noeud. Si ce problème survient, reportez-vous à la section Réparation d'un système de fichiers /var complet. Pour plus d'informations, reportez-vous à la page de manuel clzonecluster(1CL).
Exemple 3-4 SPARC : Initialisation d'un cluster global
L'exemple suivant montre la sortie de console lorsque le noeud phys-schost-1 est initialisé dans le cluster global. Des messages similaires apparaissent sur les consoles des autres noeuds du cluster global. Lorsque la propriété de démarrage automatique d'un cluster de zones est définie sur true, le système initialise automatiquement le noeud du cluster de zones après avoir initialisé le noeud du cluster global sur cette machine.
Lorsqu'un noeud du cluster global est réinitialisé, tous les noeuds du cluster de zones sur cette machine s'arrêtent. Tout noeud du cluster de zones sur la même machine, et dont la propriété de démarrage automatique est définie sur true, est initialisé après le redémarrage du noeud du cluster global.
ok boot Rebooting with command: boot ... Hostname: phys-schost-1 Booting as part of a cluster NOTICE: Node phys-schost-1 with votecount = 1 added. NOTICE: Node phys-schost-2 with votecount = 1 added. NOTICE: Node phys-schost-3 with votecount = 1 added. ... NOTICE: Node phys-schost-1: attempting to join cluster ... NOTICE: Node phys-schost-2 (incarnation # 937690106) has become reachable. NOTICE: Node phys-schost-3 (incarnation # 937690290) has become reachable. NOTICE: cluster has reached quorum. NOTICE: node phys-schost-1 is up; new incarnation number = 937846227. NOTICE: node phys-schost-2 is up; new incarnation number = 937690106. NOTICE: node phys-schost-3 is up; new incarnation number = 937690290. NOTICE: Cluster members: phys-schost-1 phys-schost-2 phys-schost-3. ...
Pour fermer un cluster global, exécutez la commande cluster shutdown, puis initialisez le cluster global à l'aide de la commande boot sur chaque noeud. Pour fermer un cluster de zones utilisez la commande clzonecluster halt, puis utilisez la commande clzonecluster boot pour initialiser le cluster de zones. Vous pouvez également utiliser la commande clzonecluster reboot. Pour plus d'informations, reportez-vous aux pages de manuel cluster(1CL)boot(1M) et clzonecluster(1CL).
L'élément phys-schost# fait référence à l'invite du cluster global. Appliquez cette procédure à un cluster global.
Cette procédure contient la forme longue des commandes de Oracle Solaris Cluster. La plupart des commandes possèdent également des formes brèves. A l'exception de la forme du nom, ces commandes sont identiques.
Reportez-vous à la documentation produit de Oracle RAC pour les procédures de fermeture.
Effectuez toutes les étapes de cette procédure depuis un noeud du cluster global.
phys-schost# cluster shutdown -g0 -y
phys-schost# clzonecluster halt zoneclustername
Chaque noeud est fermé. Vous pouvez également utiliser la commande cluster shutdown au sein d'un cluster de zones pour fermer le cluster de zones.
Remarque - Les noeuds doivent disposer d'une connexion qui fonctionne avec l'interconnexion de cluster pour atteindre l'appartenance au cluster.
L'ordre dans lequel les noeuds sont initialisés n'a pas d'importance, sauf si vous modifiez la configuration entre les fermetures. Si vous modifiez la configuration entre les fermetures, démarrez d'abord le noeud avec la configuration la plus récente.
Pour un noeud du cluster global d'un système SPARC, exécutez la commande suivante.
ok boot
Pour un noeud du cluster global d'un système x86, exécutez les commandes suivantes.
Lorsque le menu GRUB s'affiche, sélectionnez l'entrée SE Oracle Solaris appropriée, puis appuyez sur la touche Entrée.
Remarque - Les noeuds doivent disposer d'une connexion qui fonctionne avec l'interconnexion de cluster pour atteindre l'appartenance au cluster.
Pour plus d'informations sur l'initialisation basée sur le GRUB, reportez-vous à la section Initialisation d’un système du manuel Initialisation et arrêt des systèmes Oracle Solaris 11.1.
Pour un cluster de zones, entrez la commande suivante sur un noeud unique du cluster global pour initialiser le cluster de zones.
phys-schost# clzonecluster boot zoneclustername
Des messages apparaissent sur les consoles des noeuds initialisés en même temps que les composants du cluster sont activés.
phys-schost# clnode status
phys-schost# clzonecluster status
Vous pouvez également exécuter la commande cluster status au sein d'un cluster de zones pour afficher le statut des noeuds.
Remarque - Si le système de fichiers /var d'un noeud se remplit, Oracle Solaris Cluster ne pourra peut-être pas redémarrer sur ce noeud. Si ce problème survient, reportez-vous à la section Réparation d'un système de fichiers /var complet.
Exemple 3-5 Réinitialisation d'un cluster de zones
L'exemple suivant montre la procédure d'arrêt et d'initialisation d'un cluster de zones nommé sparse-sczone. Vous pouvez également utiliser la commande clzonecluster reboot.
phys-schost# clzonecluster halt sparse-sczone Waiting for zone halt commands to complete on all the nodes of the zone cluster "sparse-sczone"... Sep 5 19:17:46 schost-4 cl_runtime: NOTICE: Membership : Node 4 of cluster 'sparse-sczone' died. Sep 5 19:17:46 schost-4 cl_runtime: NOTICE: Membership : Node 2 of cluster 'sparse-sczone' died. Sep 5 19:17:46 schost-4 cl_runtime: NOTICE: Membership : Node 1 of cluster 'sparse-sczone' died. Sep 5 19:17:46 schost-4 cl_runtime: NOTICE: Membership : Node 3 of cluster 'sparse-sczone' died. phys-schost# phys-schost# clzonecluster boot sparse-sczone Waiting for zone boot commands to complete on all the nodes of the zone cluster "sparse-sczone"... phys-schost# Sep 5 19:18:23 schost-4 cl_runtime: NOTICE: Membership : Node 1 of cluster 'sparse-sczone' joined. Sep 5 19:18:23 schost-4 cl_runtime: NOTICE: Membership : Node 2 of cluster 'sparse-sczone' joined. Sep 5 19:18:23 schost-4 cl_runtime: NOTICE: Membership : Node 3 of cluster 'sparse-sczone' joined. Sep 5 19:18:23 schost-4 cl_runtime: NOTICE: Membership : Node 4 of cluster 'sparse-sczone' joined. phys-schost# phys-schost# clzonecluster status === Zone Clusters === --- Zone Cluster Status --- Name Node Name Zone HostName Status Zone Status ---- --------- ------------- ------ ----------- sparse-sczone schost-1 sczone-1 Online Running schost-2 sczone-2 Online Running schost-3 sczone-3 Online Running schost-4 sczone-4 Online Running phys-schost#
Exemple 3-6 SPARC : Réinitialisation d'un cluster global
L'exemple suivant montre la sortie de console lorsque l'opération normale du cluster global est arrêtée, que tous les noeuds sont fermés pour l'invite ok et que le cluster global est redémarré. L'option -g0 définit la période de grâce sur zéro et l'option -y fournit une réponse oui automatique à la question de confirmation. Les messages de fermeture apparaissent également sur les consoles des autres noeuds du cluster global.
phys-schost# cluster shutdown -g0 -y Wed Mar 10 13:47:32 phys-schost-1 cl_runtime: WARNING: CMM monitoring disabled. phys-schost-1# INIT: New run level: 0 The system is coming down. Please wait. ... The system is down. syncing file systems... done Program terminated ok boot Rebooting with command: boot ... Hostname: phys-schost-1 Booting as part of a cluster ... NOTICE: Node phys-schost-1: attempting to join cluster ... NOTICE: Node phys-schost-2 (incarnation # 937690106) has become reachable. NOTICE: Node phys-schost-3 (incarnation # 937690290) has become reachable. NOTICE: cluster has reached quorum. ... NOTICE: Cluster members: phys-schost-1 phys-schost-2 phys-schost-3. ... NOTICE: Node phys-schost-1: joined cluster ... The system is coming up. Please wait. checking ufs filesystems ... reservation program successfully exiting Print services started. volume management starting. The system is ready. phys-schost-1 console login: NOTICE: Node phys-schost-1: joined cluster ... The system is coming up. Please wait. checking ufs filesystems ... reservation program successfully exiting Print services started. volume management starting. The system is ready. phys-schost-1 console login: