JavaScript is required to for searching.
Ignorer les liens de navigation
Quitter l'aperu
Guide d'administration système d'Oracle Solaris Cluster     Oracle Solaris Cluster (Français)
search filter icon
search icon

Informations document

Préface

1.  Introduction à l'administration d'Oracle Solaris Cluster

2.  Oracle Solaris Cluster et RBAC

3.  Fermeture et initialisation d'un cluster

Présentation de la fermeture et de l'initialisation d'un cluster

Fermeture d'un cluster

Initialisation d'un cluster

Réinitialisation d'un cluster

Fermeture et initialisation d'un noeligud unique dans un cluster

Fermeture d'un noeligud

Initialisation d'un noeligud

Réinitialisation d'un noeligud

Initialisation d'un noeligud en mode non cluster

Réparation d'un système de fichiers /var complet

Réparation d'un système de fichiers /var complet

4.  Méthodes de réplication de données

5.  Administration des périphériques globaux, du contrôle de chemin de disque et des systèmes de fichiers du cluster

6.  Gestion de Quorum

7.  Administration des interconnexions de cluster et des réseaux publics

8.  Ajout et suppression d'un noeligud

9.  Administration du cluster

10.  Configuration du contrôle de l'utilisation du CPU

11.  Mise à jour du logiciel ou installation d'un microprogramme Oracle Solaris Cluster

12.  Sauvegarde et restauration d'un cluster

13.  Administration de Oracle Solaris Cluster avec les interfaces graphiques

A.  exemple

Index

Fermeture et initialisation d'un nœud unique dans un cluster

Vous pouvez fermer un nœud du cluster global, un nœud du cluster de zones ou une zone non globale. Cette section fournit des instructions concernant la fermeture d'un nœud du cluster global et d'un nœud du cluster de zones.

Pour fermer un nœud du cluster global, utilisez la commande clnode evacuate avec la commande Oracle Solaris shutdown. Utilisez la commande cluster shutdown uniquement en cas de fermeture d'un cluster global entier.

Sur un nœud du cluster de zones, utilisez la commande clzonecluster halt sur un cluster global pour fermer un nœud unique du cluster de zones ou un cluster de zones entier. Vous pouvez également utiliser les commandes clnode evacuate et shutdown pour fermer un nœud du cluster de zones.

Pour plus d'informations à propos de la fermeture et de l'initialisation d'une zone non globale, reportez-vous au Chapitre 20, Installation, initialisation, arrêt, désinstallation et clonage de zones non globales (tâches) du Guide d’administration système : Gestion des ressources des conteneurs et des zones Oracle Solaris. Reportez-vous également à clnode(1CL)shutdown(1M) et à clzonecluster(1CL).

Dans les procédures de ce chapitre, phys-schost# reflète une invite de cluster global. clzc:schost> représente l'invite de shell interactive de la commande clzonecluster.

Tableau 3-2 Liste des tâches : fermeture et initialisation d'un nœud

Tâche
Outil
Instructions
Arrêtez un nœud.
Pour un nœud du cluster global, utilisez clnode(1CL) evacuate et shutdown. Pour un nœud du cluster de zones, utilisez clzonecluster(1CL) halt.
Démarrez un nœud.

Le nœud doit disposer d'une connexion qui fonctionne avec l'interconnexion de cluster pour atteindre l'appartenance au cluster.

Pour un nœud du cluster global, utilisez boot ou b. Pour un nœud du cluster de zones, utilisez clzonecluster(1CL) boot.
Arrêtez et redémarrez (réinitialisez) un nœud sur un cluster.

Le nœud doit disposer d'une connexion qui fonctionne avec l'interconnexion de cluster pour atteindre l'appartenance au cluster.

Pour un nœud du cluster global, utilisez clnode evacuate et shutdown, suivi de boot ou b.

Pour un nœud du cluster de zones, utilisez clzonecluster(1CL)reboot.

Initialisez un nœud afin que le nœud ne participe pas à l'appartenance au cluster.
Pour un nœud du cluster global, utilisez les commandes clnode evacuate et shutdown, suivi de boot-x sur l'édition de l'entrée de menu SPARC ou GRUB sur x86.

Si le cluster global sous-jacents est initialisé en mode non cluster, le nœud du cluster de zones est automatiquement en mode non cluster.

Fermeture d'un nœud

L'élément phys-schost# fait référence à l'invite du cluster global. Appliquez cette procédure à un cluster global.

Cette procédure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart des commandes possèdent également des formes brèves. À l'exception de la forme du nom, ces commandes sont identiques.


Attention

Attention - N'utilisez pas la commande send brk sur la console d'un cluster pour fermer un nœud d'un cluster global ou d'un cluster de zones. La commande n'est pas prise en charge au sein d'un cluster.


  1. Si votre cluster exécute Oracle RAC, fermez toutes les instances de la base de données sur le cluster que vous fermez.

    Reportez-vous à la documentation produit de Oracle RAC pour les procédures de fermeture.

  2. Connectez-vous en tant que superutilisateur ou adoptez un rôle octroyant une autorisation reposant sur un contrôle d'accès à base de rôles de type solaris.cluster.admin sur le nœud du cluster à fermer. Effectuez toutes les étapes de cette procédure depuis un nœud du cluster global.
  3. Si vous souhaitez arrêter un membre spécifique du cluster de zones, ignorez les étapes 4 à 6 et exécutez la commande suivante depuis un nœud du cluster global.
    phys-schost# clzonecluster halt -n physical-name zoneclustername

    Lorsque vous spécifiez un nœud particulier du cluster de zones, vous n'arrêtez que ce nœud. Par défaut, la commande halt arrête les clusters de zones sur tous les nœuds.

  4. Commutez tous les groupes de ressources, les ressources et les groupes de périphériques depuis le nœud en cours de fermeture vers les autres membres du cluster global.

    Sur le nœud à fermer du cluster global, entrez la commande suivante. La commande clnode evacuate commute tous les groupes de ressources et de périphériques, y compris toutes les zones non-globales, depuis le nœud spécifié vers le prochain nœud de prédilection. (Vous pouvez également exécuter la commande clnode evacuate au sein d'un nœud du cluster de zones.

    phys-schost# clnode evacuate node
    node

    Spécifie le nœud dont vous commutez les groupes de ressources et de périphériques.

  5. Fermez le nœud.

    Spécifiez le nœud du cluster global que vous souhaitez fermer.

    phys-schost# shutdown -g0 -y -i0

    Vérifiez que le nœud du cluster global affiche l'invite ok sur un système SPARC ou le message Appuyez sur une touche pour continuer dans le menu GRUB d'un système x86.

  6. Si nécessaire, éteignez le nœud.

Exemple 3-7 SPARC : Fermeture d'un nœud du cluster global

L'exemple suivant montre la sortie console lorsque le nœud phys-schost-1 est fermé. L'option -g0 définit la période de grâce sur zéro et l'option -y fournit une réponse oui automatique à la question de confirmation. Les messages de fermeture pour ce nœud apparaissent sur les consoles des autres nœuds du cluster global.

phys-schost# clnode evacuate nodename
phys-schost# shutdown -g0 -y
Wed Mar 10 13:47:32 phys-schost-1 cl_runtime:
WARNING: CMM monitoring disabled.
phys-schost-1# 
INIT: New run level: 0
The system is coming down.  Please wait.
Notice: rgmd is being stopped.
Notice: rpc.pmfd is being stopped.
Notice: rpc.fed is being stopped.
umount: /global/.devices/node@1 busy
umount: /global/phys-schost-1 busy
The system is down.
syncing file systems... done
Program terminated
ok 

Exemple 3-8 x86 : Fermeture d'un nœud du cluster global

L'exemple suivant montre la sortie console lorsque le nœud phys-schost-1 est fermé. L'option -g0 définit la période de grâce sur zéro et l'option -y fournit une réponse oui automatique à la question de confirmation. Les messages de fermeture pour ce nœud apparaissent sur les consoles des autres nœuds du cluster global.

phys-schost# clnode evacuate phys-schost-1
phys-schost# shutdown -g0 -y
Shutdown started.    Wed Mar 10 13:47:32 PST 2004

Changing to init state 0 - please wait
Broadcast Message from root (console) on phys-schost-1 Wed Mar 10 13:47:32... 
THE SYSTEM phys-schost-1 IS BEING SHUT DOWN NOW ! ! !
Log off now or risk your files being damaged

phys-schost-1#
INIT: New run level: 0
The system is coming down.  Please wait.
System services are now being stopped.
/etc/rc0.d/K05initrgm: Calling clnode evacuate
failfasts disabled on node 1
Print services already stopped.
Mar 10 13:47:44 phys-schost-1 syslogd: going down on signal 15
umount: /global/.devices/node@2 busy
umount: /global/.devices/node@1 busy
The system is down.
syncing file systems... done
WARNING: CMM: Node being shut down.
Type any key to continue 

Exemple 3-9 Fermeture d'un nœud d'un cluster de zones

L'exemple suivant montre l'utilisation de clzonecluster halt pour fermer un nœud d'un cluster de zones nommé sparse-sczone. (Vous pouvez également exécuter les commandes clnode evacuate et shutdown dans un nœud du cluster de zones.)

phys-schost# clzonecluster status

=== Zone Clusters ===

--- Zone Cluster Status ---

Name            Node Name   Zone HostName   Status   Zone Status
----            ---------   -------------   ------   -----------
sparse-sczone   schost-1    sczone-1        Online   Running
                schost-2    sczone-2        Online   Running
                schost-3    sczone-3        Online   Running
                schost-4    sczone-4        Online   Running

phys-schost#
phys-schost# clzonecluster halt -n schost-4 sparse-sczone
Waiting for zone halt commands to complete on all the nodes of the zone cluster "sparse-sczone"...
Sep  5 19:24:00 schost-4 cl_runtime: NOTICE: Membership : Node 3 of cluster 'sparse-sczone' died.
phys-host#
phys-host# clzonecluster status

=== Zone Clusters ===

--- Zone Cluster Status ---

Name            Node Name   Zone HostName   Status    Zone Status
----            ---------   -------------   ------    -----------
sparse-sczone   schost-1    sczone-1        Online    Running
                schost-2    sczone-2        Online    Running
                schost-3    sczone-3        Offline   Installed
                schost-4    sczone-4        Online    Running

phys-schost# 

Voir aussi

Reportez-vous à Initialisation d'un noeligud pour redémarrer un nœud fermé du cluster global.

Initialisation d'un nœud

Si vous avez l'intention d'arrêter ou de réinitialiser d'autres nœuds actifs du cluster global ou du cluster de zones, attendez que le jalon multi-utilisateur-serveur soit en ligne pour le nœud que vous souhaitez réinitialiser.

Sinon, le nœud ne sera pas disponible pour prendre la place de services d'autres nœuds du cluster que vous fermez ou réinitialisez. Pour plus d'informations à propos de l'initialisation d'une zone non globale, reportez-vous au Chapitre 20, Installation, initialisation, arrêt, désinstallation et clonage de zones non globales (tâches) du Guide d’administration système : Gestion des ressources des conteneurs et des zones Oracle Solaris.


Remarque - Le démarrage d'un nœud peut être affecté par la configuration du quorum. Dans un cluster à deux nœuds, vous devez avoir un périphérique de quorum configuré afin que le nombre total du quorum soit trois. Vous devez avoir un nombre du quorum pour chaque nœud et un nombre du quorum pour le périphérique de quorum. Dans cette situation, si le premier nœud est fermé, le second nœud continue d'avoir le quorum et s'exécute en tant que seul membre du cluster. Pour que le premier nœud reviennent dans le cluster en tant que nœud du cluster, le second nœud doit être opérationnel et en cours d'exécution. Le nombre requis de quorum du cluster (deux) doit être présent.


L'élément phys-schost# fait référence à l'invite du cluster global. Appliquez cette procédure à un cluster global.

Cette procédure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart des commandes possèdent également des formes brèves. À l'exception de la forme du nom, ces commandes sont identiques.


Remarque - Les nœuds doivent disposer d'une connexion qui fonctionne avec l'interconnexion de cluster pour atteindre l'appartenance au cluster.


  1. Pour démarrer un nœud du cluster global ou un nœud du cluster de zones qui a été fermé, initialisez le nœud. Effectuez toutes les étapes de cette procédure depuis un nœud du cluster global.
    • Dans les systèmes SPARC, exécutez la commande suivante.

      ok boot
    • Sur les systèmes x86, exécutez les commandes suivantes :

      Lorsque le menu GRUB s'affiche, sélectionnez l'entrée Oracle Solaris appropriée, puis appuyez sur la touche Entrée. Le menu GRUB s'affiche comme suit :

      GNU GRUB version 0.95 (631K lower / 2095488K upper memory)
      +-------------------------------------------------------------------------+
      | Solaris 10 /sol_10_x86                                                  |
      | Solaris failsafe                                                        |
      |                                                                         |
      +-------------------------------------------------------------------------+
      Use the ^ and v keys to select which entry is highlighted.
      Press enter to boot the selected OS, 'e' to edit the
      commands before booting, or 'c' for a command-line.

      Des messages apparaissent sur les consoles des nœuds initialisés en même temps que les composants du cluster sont activés.

    • Si vous avez un cluster de zones, vous pouvez indiquer un nœud à initialiser.

      phys-schost# clzonecluster boot -n node zoneclustername
  2. Assurez-vous que le nœud a été initialisé sans erreurs et qu'il se trouve en ligne.
    • L'exécution de la commande cluster status rapporte le statut d'un nœud du cluster global.
      phys-schost# cluster status -t node
    • L'exécution de la commande clzonecluster status à partir d'un nœud du cluster global rapporte le statut de tous les nœuds du cluster de zones.
      phys-schost# clzonecluster status

      Un nœud du cluster de zones peut uniquement être initialisé en mode cluster lorsque le nœud hébergeant le nœud est initialisé en mode cluster.


      Remarque - Si le système de fichier /var d'un nœud se remplit, Oracle Solaris Cluster ne pourra peut-être pas redémarrer sur ce nœud. Si ce problème survient, reportez-vous à la section Réparation d'un système de fichiers /var complet.


Exemple 3-10 SPARC : Initialisation d'un nœud du cluster global

L'exemple suivant montre la sortie de console lorsque le nœud phys-schost-1 est initialisé dans le cluster global.

ok boot
Rebooting with command: boot 
...
Hostname: phys-schost-1
Booting as part of a cluster
...
NOTICE: Node phys-schost-1: attempting to join cluster
...
NOTICE: Node phys-schost-1: joined cluster
...
The system is coming up.  Please wait.
checking ufs filesystems
...
reservation program successfully exiting
Print services started.
volume management starting.
The system is ready.
phys-schost-1 console login:

Réinitialisation d'un nœud

Pour arrêter ou réinitialiser d'autres nœuds actifs du cluster global ou du cluster de zones, attendez que le jalon multi-utilisateur-serveur soit en ligne pour le nœud que vous souhaitez réinitialiser.

Sinon, le nœud ne sera pas disponible pour prendre la place de services d'autres nœuds du cluster que vous fermez ou réinitialisez. Pour plus d'informations à propos de la réinitialisation d'une zone non globale, reportez-vous au Chapitre 20, Installation, initialisation, arrêt, désinstallation et clonage de zones non globales (tâches) du Guide d’administration système : Gestion des ressources des conteneurs et des zones Oracle Solaris.

L'élément phys-schost# fait référence à l'invite du cluster global. Appliquez cette procédure à un cluster global.

Cette procédure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart des commandes possèdent également des formes brèves. À l'exception de la forme du nom, ces commandes sont identiques.


Attention

Attention - Si une méthode pour n'importe quelle ressource n'arrive à expiration et ne peut pas être interrompu, le noeud sera redémarré uniquement si la ressource est Failover_mode propriété est définie à disque. Si les Failover_mode propriété est définie sur une autre valeur, le noeud ne sera pas redémarré.


  1. Si le nœud du cluster global ou du cluster de zones exécute Oracle RAC, fermez toutes les instances de la base de données sur le nœud que vous fermez.

    Reportez-vous à la documentation produit de Oracle RAC pour les procédures de fermeture.

  2. Connectez-vous en tant que superutilisateur ou adoptez un rôle octroyant une autorisation reposant sur un contrôle d'accès à base de rôles de type solaris.cluster.admin sur le nœud à fermer. Effectuez toutes les étapes de cette procédure depuis un nœud du cluster global.
  3. Fermez le nœud du cluster global à l'aide des commandes clnode evacuate et shutdown. Fermez le cluster de zones à l'aide de la commande clzonecluster halt exécutée sur un nœud du cluster global. (Les commandes clnode evacuate et shutdown fonctionnent également dans un cluster de zones.)

    Pour un cluster global, entrez les commandes suivantes sur le nœud à fermer. La commande clnode evacuate bascule tous les groupes de périphériques du nœud spécifié vers le prochain nœud de prédilection. La commande commute également tous les groupes de ressources des zones globales ou non-globales du nœud spécifié vers les prochaines zones globales ou non-globales de prédilection d'autres nœuds.


    Remarque - Pour arrêter un noeud unique, utilisez la shutdown -g0 -y -i6 commande. Pour arrêter plusieurs noeuds en même temps, utilisez les shutdown -g0 -y -i0 commande pour arrêter les noeuds. Une fois tous les noeuds sont arrêtés, utilisez la boot commande sur tous les noeuds à l'initialisation à nouveau dans le cluster.


    • Sur un système SPARC, exécutez les commandes suivantes pour redémarrer un noeud unique.

      phys-schost# clnode evacuate node
      phys-schost# shutdown -g0 -y -i6
    • Sur un système x86, exécutez les commandes suivantes pour redémarrer un noeud unique.

      phys-schost# clnode evacuate node
      phys-schost# shutdown -g0 -y -i6

      Lorsque le menu GRUB s'affiche, sélectionnez l'entrée Oracle Solaris appropriée, puis appuyez sur la touche Entrée. Le menu GRUB s'affiche comme suit :

      GNU GRUB version 0.95 (631K lower / 2095488K upper memory)
      +-------------------------------------------------------------------------+
      | Solaris 10 /sol_10_x86                                                  |
      | Solaris failsafe                                                        |
      |                                                                         |
      +-------------------------------------------------------------------------+
      Use the ^ and v keys to select which entry is highlighted.
      Press enter to boot the selected OS, 'e' to edit the
      commands before booting, or 'c' for a command-line.
    • Indiquez le nœud du cluster de zones à fermer et à réinitialiser.

      phys-schost# clzonecluster reboot - node zoneclustername

    Remarque - Les nœuds doivent disposer d'une connexion qui fonctionne avec l'interconnexion de cluster pour atteindre l'appartenance au cluster.


  4. Assurez-vous que le nœud a été initialisé sans erreurs et qu'il se trouve en ligne.
    • Assurez-vous que le nœud du cluster global se trouve en ligne.
      phys-schost# cluster status -t node
    • Assurez-vous que le nœud du cluster de zones se trouve en ligne.
      phys-schost# clzonecluster status

Exemple 3-11 SPARC : Réinitialisation d'un nœud du cluster global

L'exemple suivant montre la sortie console lorsque le nœud phys-schost-1 est réinitialisé. Les messages pour ce nœud, tels que les notifications de fermeture ou de démarrage, apparaissent sur les consoles des autres nœuds du cluster global.

phys-schost# clnode evacuate phys-schost-1
phys-schost# shutdown -g0 -y -i6
Shutdown started.    Wed Mar 10 13:47:32 phys-schost-1 cl_runtime: 

WARNING: CMM monitoring disabled.
phys-schost-1# 
INIT: New run level: 6
The system is coming down.  Please wait.
System services are now being stopped.
Notice: rgmd is being stopped.
Notice: rpc.pmfd is being stopped.
Notice: rpc.fed is being stopped.
umount: /global/.devices/node@1 busy
umount: /global/phys-schost-1 busy
The system is down.
syncing file systems... done
rebooting...
Resetting ... 
,,,
Sun Ultra 1 SBus (UltraSPARC 143MHz), No Keyboard
OpenBoot 3.11, 128 MB memory installed, Serial #5932401.
Ethernet address 8:8:20:99:ab:77, Host ID: 8899ab77.
...
Rebooting with command: boot
...
Hostname: phys-schost-1
Booting as part of a cluster
...
NOTICE: Node phys-schost-1: attempting to join cluster
...
NOTICE: Node phys-schost-1: joined cluster
...
The system is coming up.  Please wait.
The system is ready.
phys-schost-1 console login: 

Exemple 3-12 x86 : Réinitialisation d'un nœud du cluster global

L'exemple suivant montre la sortie console lors de la réinitialisation du nœud phys-schost-1. Les messages pour ce nœud, tels que les notifications de fermeture ou de démarrage, apparaissent sur les consoles des autres nœuds du cluster global.

phys-schost# clnode evacuate phys-schost-1
phys-schost # shutdown -g0 -i6 -y

GNU GRUB version 0.95 (631K lower / 2095488K upper memory)
+-------------------------------------------------------------------------+
| Solaris 10 /sol_10_x86                                                  |
| Solaris failsafe                                                        |
|                                                                         |
+-------------------------------------------------------------------------+
Use the ^ and v keys to select which entry is highlighted.
Press enter to boot the selected OS, 'e' to edit the
commands before booting, or 'c' for a command-line.
Hostname: phys-schost-1
Booting as part of a cluster
...
NOTICE: Node phys-schost-1: attempting to join cluster
...
NOTICE: Node phys-schost-1: joined cluster
...
The system is coming up.  Please wait.
checking ufs filesystems
...
reservation program successfully exiting
Print services started.
volume management starting.
The system is ready.
phys-schost-1 console login: 

Exemple 3-13 Réinitialisation d'un nœud du cluster de zones

L'exemple suivant montre la procédure de la réinitialisation d'un nœud d'un cluster de zones.

phys-schost# clzonecluster reboot -n schost-4 sparse-sczone
Waiting for zone reboot commands to complete on all the nodes of the zone cluster
   "sparse-sczone"...
Sep  5 19:40:59 schost-4 cl_runtime: NOTICE: Membership : Node 3 of cluster
   'sparse-sczone' died.
phys-schost# Sep  5 19:41:27 schost-4 cl_runtime: NOTICE: Membership : Node 3 of cluster
   'sparse-sczone' joined.

phys-schost#
phys-schost# clzonecluster status

=== Zone Clusters ===

--- Zone Cluster Status ---
Name            Node Name   Zone HostName   Status   Zone Status
----            ---------   -------------   ------   -----------
sparse-sczone   schost-1    sczone-1        Online   Running
                schost-2    sczone-2        Online   Running
                schost-3    sczone-3        Online   Running
                schost-4    sczone-4        Online   Running

phys-schost#

Initialisation d'un nœud en mode non cluster

Vous pouvez initialiser un nœud du cluster global en mode non cluster, le nœud ne participant alors pas à l'appartenance au cluster. Le mode non cluster est utile lors de l'installation du logiciel du cluster ou de la réalisation de certaines procédures d'administration, telles que l'application de patch sur un nœud. Un nœud du cluster de zones ne peut pas se trouver dans un état de démarrage différent de l'état du nœud sous-jacent du cluster global. Si le nœud du cluster global est démarré en mode non cluster, le nœud du cluster de zones est automatiquement démarré en mode non cluster.

L'élément phys-schost# fait référence à l'invite du cluster global. Appliquez cette procédure à un cluster global.

Cette procédure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart des commandes possèdent également des formes brèves. À l'exception de la forme du nom, ces commandes sont identiques.

  1. Connectez-vous en tant que superutilisateur ou adoptez un rôle octroyant une autorisation reposant sur un contrôle d'accès à base de rôles de type solaris.cluster.admin sur le cluster à démarrer en mode non cluster. Effectuez toutes les étapes de cette procédure depuis un nœud du cluster global.
  2. Fermez le nœud du cluster de zones en exécutant la commande clzonecluster halt sur un nœud du cluster global. Fermez le nœud du cluster global à l'aide des commandes clnode evacuate et shutdown.

    La commande clnode evacuate bascule tous les groupes de périphériques du nœud spécifié vers le prochain nœud de prédilection. La commande commute également tous les groupes de ressources des zones globales ou non-globales du nœud spécifié vers les prochaines zones globales ou non-globales de prédilection d'autres nœuds.

    • Fermez un cluster global spécifique.
      phys-schost# clnode evacuate node
      phys-schost# shutdown -g0 -y
    • Fermez un nœud spécifique du cluster de zones à partir d'un nœud du cluster global.
      phys-schost# clzonecluster halt -n node zoneclustername

      Vous pouvez également utiliser les commandes clnode evacuate et shutdown dans un cluster de zones.

  3. Vérifiez que le nœud du cluster global affiche l'invite ok sur un système Oracle Solaris ou le message Press any key to continue dans le menu GRUB d'un système x86.
  4. Initialisez le nœud du cluster global en mode non cluster.
    • Dans les systèmes SPARC, exécutez la commande suivante.

      ok boot -xs
    • Sur les systèmes x86, exécutez les commandes suivantes :

    1. Dans le menu GRUB, utilisez les touches fléchées pour sélectionner l'entrée Oracle Solaris appropriée et saisissez e pour modifier les commandes.

      Le menu GRUB s'affiche comme suit :

      GNU GRUB version 0.95 (631K lower / 2095488K upper memory)
      +-------------------------------------------------------------------------+
      | Solaris 10 /sol_10_x86                                                  |
      | Solaris failsafe                                                        |
      |                                                                         |
      +-------------------------------------------------------------------------+
      Use the ^ and v keys to select which entry is highlighted.
      Press enter to boot the selected OS, 'e' to edit the
      commands before booting, or 'c' for a command-line.

      Pour plus d'informations concernant l'initialisation basée sur GRUB, reportez-vous à la section Booting an x86 Based System by Using GRUB (Task Map) du System Administration Guide: Basic Administration.

    2. Dans l'écran des paramètres d'initialisation, utilisez les touches de direction pour sélectionner l'entrée du noyau et saisissez l'option e pour éditer cette dernière.

      L'écran des paramètres d'initialisation de GRUB s'affiche comme suit :

      GNU GRUB version 0.95 (615K lower / 2095552K upper memory)
      +----------------------------------------------------------------------+
      | root (hd0,0,a)                                                       |
      | kernel /platform/i86pc/multiboot                                     |
      | module /platform/i86pc/boot_archive                                  |
      +----------------------------------------------------------------------+
      Use the ^ and v keys to select which entry is highlighted.
      Press 'b' to boot, 'e' to edit the selected command in the
      boot sequence, 'c' for a command-line, 'o' to open a new line
      after ('O' for before) the selected line, 'd' to remove the
      selected line, or escape to go back to the main menu.
    3. Ajoutez l'option -x à la commande pour spécifier l'initialisation du système en mode non cluster.
      [ Minimal BASH-like line editing is supported. For the first word, TAB
      lists possible command completions. Anywhere else TAB lists the possible
      completions of a device/filename. ESC at any time exits. ]
      
      grub edit> kernel /platform/i86pc/multiboot -x
    4. Appuyez sur la touche Entrée pour accepter la modification et revenir à l'écran des paramètres d'initialisation.

      L'écran affiche la commande éditée.

      GNU GRUB version 0.95 (615K lower / 2095552K upper memory)
      +----------------------------------------------------------------------+
      | root (hd0,0,a)                                                       |
      | kernel /platform/i86pc/multiboot -x                                  |
      | module /platform/i86pc/boot_archive                                  |
      +----------------------------------------------------------------------+
      Use the ^ and v keys to select which entry is highlighted.
      Press 'b' to boot, 'e' to edit the selected command in the
      boot sequence, 'c' for a command-line, 'o' to open a new line
      after ('O' for before) the selected line, 'd' to remove the
      selected line, or escape to go back to the main menu.-
    5. Saisissez l'option b pour initialiser le nœud en mode non cluster.

      Remarque - Cette modification de la commande des paramètres d'initialisation du noyau n'est pas conservée, lors du prochain démarrage du système. La prochaine fois que vous réinitialisez le nœud, ce dernier sera initialisé en mode cluster. Si vous souhaitez plutôt initialiser le nœud en mode non cluster, effectuez de nouveau ces étapes pour ajouter l'option -x à la commande des paramètres d'initialisation du noyau.


Exemple 3-14 SPARC : Initialisation d'un nœud du cluster global en mode non cluster

L'exemple suivant montre la sortie de console lorsque le nœud phys-schost-1 est fermé et redémarré en mode non cluster. L'option -g0 définit la période de grâce sur zéro, l'option -y fournit une réponse oui automatique à la question de confirmation et l'option -i0 invoque le niveau d'exécution 0 (zéro). Les messages de fermeture pour ce nœud apparaissent sur les consoles des autres nœuds du cluster global.

phys-schost# clnode evacuate phys-schost-1
phys-schost# cluster shutdown -g0 -y
Shutdown started.    Wed Mar 10 13:47:32 phys-schost-1 cl_runtime: 

WARNING: CMM monitoring disabled.
phys-schost-1# 
...
rg_name = schost-sa-1 ...
offline node = phys-schost-2 ...
num of node = 0 ...
phys-schost-1# 
INIT: New run level: 0
The system is coming down.  Please wait.
System services are now being stopped.
Print services stopped.
syslogd: going down on signal 15
...
The system is down.
syncing file systems... done
WARNING: node phys-schost-1 is being shut down.
Program terminated

ok boot -x
...
Not booting as part of cluster
...
The system is ready.
phys-schost-1 console login: