JavaScript is required to for searching.
Ignorer les liens de navigation
Quitter l'aperu
Guide d'administration système d'Oracle Solaris Cluster     Oracle Solaris Cluster 3.3 3/13 (Français)
search filter icon
search icon

Informations document

Préface

1.  Présentation de l'administration d'Oracle Solaris Cluster

2.  Oracle Solaris Cluster et RBAC

3.  Arrêt et initialisation d'un cluster

Présentation de l'arrêt et de l'initialisation d'un cluster

Arrêt d'un cluster

Initialisation d'un cluster

Réinitialisation d'un cluster

Arrêt et initialisation d'un noeud unique dans un cluster

Arrêt d'un noeud

Initialisation d'un noeud

Réinitialisation d'un noeud

Initialisation d'un noeud en mode non cluster

Réparation d'un système de fichiers /var complet

Réparation d'un système de fichiers /var complet

4.  Méthodes de réplication de données

5.  Administration des périphériques globaux, du contrôle de chemin de disque et des systèmes de fichiers de cluster

6.  Gestion du quorum

7.  Administration des interconnexions de cluster et des réseaux publics

8.  Ajout et suppression d'un noeud

9.  Administration du cluster

10.  Configuration du contrôle de l'utilisation de la CPU

11.  Application de patchs au logiciel et au microprogramme d'Oracle Solaris Cluster

12.  Sauvegarde et restauration d'un cluster

13.  Administration d'Oracle Solaris Cluster avec les interfaces graphiques

A.  Exemple

Index

Arrêt et initialisation d'un noeud unique dans un cluster

Vous pouvez arrêter un noeud de cluster global, un noeud de cluster de zones ou une zone non globale. Cette section contient des instructions permettent de procéder à l'arrêt d'un noeud de cluster global et d'un noeud de cluster de zones.

Pour arrêter un noeud du cluster global, utilisez la commande clnode evacuate avec la commande Oracle Solaris shutdown. Utilisez la commande cluster shutdown uniquement en cas d'arrêt d'un cluster global entier.

Sur un noeud du cluster de zones, utilisez la commande clzonecluster halt sur un cluster global pour arrêter un noeud unique du cluster de zones ou un cluster de zones entier. Vous pouvez également utiliser les commandes clnode evacuate et shutdown pour arrêter un noeud du cluster de zones.

Pour plus d'informations sur l'arrêt et l'initialisation d'une zone non globale, reportez-vous au Chapitre 20, Installation, initialisation, arrêt, désinstallation et clonage de zones non globales (tâches) du manuel Guide d’administration système : Conteneurs Oracle Solaris-Gestion des ressources et Oracle Solaris Zones. Reportez-vous également aux pages de manuel clnode(1CL), shutdown(1M) et clzonecluster(1CL).

Dans les procédures de ce chapitre, phys-schost# fait référence à une invite du cluster global. clzc:schost> représente l'invite de shell interactive de la commande clzonecluster.

Tableau 3-2 Liste des tâches : arrêt et initialisation d'un noeud

Tâche
Outil
Instructions
Arrêt d'un noeud.
Pour un noeud de cluster global, utilisez clnode(1CL) evacuate et shutdown.Pour un noeud de cluster de zones, utilisez clzonecluster(1CL) halt.
Démarrage d'un noeud.

Le noeud doit disposer d'une connexion qui fonctionne avec l'interconnexion de cluster pour atteindre l'appartenance au cluster.

Pour un noeud de cluster global, utilisez boot ou b. Pour un noeud de cluster de zones, utilisez clzonecluster(1CL) boot.
Arrêt et redémarrage (réinitialisation) d'un noeud sur un cluster.

Le noeud doit disposer d'une connexion qui fonctionne avec l'interconnexion de cluster pour atteindre l'appartenance au cluster.

Pour un noeud du cluster global, utilisez les commandes clnode evacuate et shutdown, suivies de boot ou b.

Pour un noeud de cluster de zones, utilisez clzonecluster(1CL) reboot.

Initialisation d'un noeud afin que le noeud ne participe pas à l'appartenance au cluster.
Pour un noeud du cluster global, utilisez les commandes clnode evacuate et shutdown, suivies de boot-x sur l'édition de l'entrée de menu SPARC ou GRUB sur x86.

Si le cluster global sous-jacents est initialisé en mode non cluster, le noeud du cluster de zones est automatiquement en mode non cluster.

Arrêt d'un noeud

L'élément phys-schost# fait référence à l'invite du cluster global. Appliquez cette procédure à un cluster global.

Cette procédure contient la forme longue des commandes d'Oracle Solaris Cluster. La plupart des commandes possèdent également des formes brèves. A l'exception de la forme du nom, ces commandes sont identiques.


Attention

Attention - N'utilisez pas la commande send brk sur la console d'un cluster pour arrêter un noeud d'un cluster global ou d'un cluster de zones. La commande n'est pas prise en charge au sein d'un cluster.


  1. Si votre cluster exécute Oracle RAC, arrêtez toutes les instances de la base de données sur le cluster que vous arrêtez.

    Reportez-vous à la documentation produit d'Oracle RAC pour les procédures d'arrêt.

  2. Connectez-vous en tant que superutilisateur ou prenez un rôle octroyant l'autorisation RBAC solaris.cluster.admin sur le noeud du cluster à arrêter. Effectuez toutes les étapes de cette procédure depuis un noeud du cluster global.
  3. Si vous souhaitez arrêter un membre spécifique du cluster de zones, ignorez les étapes 4 à 6 et exécutez la commande suivante depuis un noeud du cluster global.
    phys-schost# clzonecluster halt -n physical-name zoneclustername

    Lorsque vous spécifiez un noeud particulier du cluster de zones, vous n'arrêtez que ce noeud. Par défaut, la commande halt arrête les clusters de zones sur tous les noeuds.

  4. Commutez tous les groupes de ressources, les ressources et les groupes de périphériques depuis le noeud en cours d'arrêt vers les autres membres du cluster global.

    Sur le noeud à arrêter du cluster global, entrez la commande suivante. La commande clnode evacuate permet de basculer tous les groupes de ressources et les groupes de périphériques, y compris toutes les zones non globales, du noeud spécifié vers le noeud de prédilection suivant. (Vous pouvez également exécuter la commande clnode evacuate au sein d'un noeud du cluster de zones.)

    phys-schost# clnode evacuate node
    node

    Spécifie le noeud dont vous commutez les groupes de ressources et de périphériques.

  5. Arrêtez le noeud.

    Spécifiez le noeud du cluster global que vous souhaitez arrêter.

    phys-schost# shutdown -g0 -y -i0

    Vérifiez que le noeud du cluster global affiche l'invite ok sur un système SPARC ou le message Appuyez sur une touche pour continuer dans le menu GRUB d'un système x86.

  6. Si nécessaire, mettez le noeud hors tension.

Exemple 3-7 SPARC : Arrêt d'un noeud de cluster global

L'exemple suivant montre la sortie console lorsque le noeud phys-schost-1 est arrêté. L'option -g0 définit la période de grâce sur zéro et l'option -y fournit une réponse oui automatique à la question de confirmation. Les messages d'arrêt de ce noeud apparaissent sur les consoles des autres noeuds du cluster global.

phys-schost# clnode evacuate phys-schost-1
phys-schost# shutdown -g0 -y
Wed Mar 10 13:47:32 phys-schost-1 cl_runtime:
WARNING: CMM monitoring disabled.
phys-schost-1# 
INIT: New run level: 0
The system is coming down.  Please wait.
Notice: rgmd is being stopped.
Notice: rpc.pmfd is being stopped.
Notice: rpc.fed is being stopped.
umount: /global/.devices/node@1 busy
umount: /global/phys-schost-1 busy
The system is down.
syncing file systems... done
Program terminated
ok 

Exemple 3-8 x86 : Arrêt d'un noeud de cluster global

L'exemple suivant montre la sortie console lorsque le noeud phys-schost-1 est arrêté. L'option -g0 définit la période de grâce sur zéro et l'option -y fournit une réponse oui automatique à la question de confirmation. Les messages d'arrêt de ce noeud apparaissent sur les consoles des autres noeuds du cluster global.

phys-schost# clnode evacuate phys-schost-1
phys-schost# shutdown -g0 -y
Shutdown started.    Wed Mar 10 13:47:32 PST 2004

Changing to init state 0 - please wait
Broadcast Message from root (console) on phys-schost-1 Wed Mar 10 13:47:32... 
THE SYSTEM phys-schost-1 IS BEING SHUT DOWN NOW ! ! !
Log off now or risk your files being damaged

phys-schost-1#
INIT: New run level: 0
The system is coming down.  Please wait.
System services are now being stopped.
/etc/rc0.d/K05initrgm: Calling clnode evacuate
failfasts disabled on node 1
Print services already stopped.
Mar 10 13:47:44 phys-schost-1 syslogd: going down on signal 15
umount: /global/.devices/node@2 busy
umount: /global/.devices/node@1 busy
The system is down.
syncing file systems... done
WARNING: CMM: Node being shut down.
Type any key to continue 

Exemple 3-9 Arrêt d'un noeud d'un cluster de zones

L'exemple suivant montre l'utilisation de clzonecluster halt pour arrêter un noeud d'un cluster de zones nommé sparse-sczone. (Vous pouvez également exécuter les commandes clnode evacuate et shutdown dans un noeud du cluster de zones.)

phys-schost# clzonecluster status

=== Zone Clusters ===

--- Zone Cluster Status ---

Name            Node Name   Zone HostName   Status   Zone Status
----            ---------   -------------   ------   -----------
sparse-sczone   schost-1    sczone-1        Online   Running
                schost-2    sczone-2        Online   Running
                schost-3    sczone-3        Online   Running
                schost-4    sczone-4        Online   Running

phys-schost#
phys-schost# clzonecluster halt -n schost-4 sparse-sczone
Waiting for zone halt commands to complete on all the nodes of the zone cluster "sparse-sczone"...
Sep  5 19:24:00 schost-4 cl_runtime: NOTICE: Membership : Node 3 of cluster 'sparse-sczone' died.
phys-host#
phys-host# clzonecluster status

=== Zone Clusters ===

--- Zone Cluster Status ---

Name            Node Name   Zone HostName   Status    Zone Status
----            ---------   -------------   ------    -----------
sparse-sczone   schost-1    sczone-1        Online    Running
                schost-2    sczone-2        Online    Running
                schost-3    sczone-3        Offline   Installed
                schost-4    sczone-4        Online    Running

phys-schost# 

Voir aussi

Reportez-vous à Initialisation d'un noeud pour redémarrer un noeud arrêté du cluster global.

Initialisation d'un noeud

Si vous avez l'intention d'arrêter ou de réinitialiser d'autres noeuds actifs du cluster global ou du cluster de zones, attendez que le jalon multi-utilisateur-serveur soit en ligne pour le noeud que vous souhaitez réinitialiser.

Sinon, le noeud ne sera pas disponible pour prendre la place de services d'autres noeuds du cluster que vous arrêtez ou réinitialisez. Pour plus d'informations sur l'initialisation d'une zone non globale, reportez-vous au Chapitre 20, Installation, initialisation, arrêt, désinstallation et clonage de zones non globales (tâches) du manuel Guide d’administration système : Conteneurs Oracle Solaris-Gestion des ressources et Oracle Solaris Zones.


Remarque - Le démarrage d'un noeud peut être affecté par la configuration du quorum. Dans un cluster à deux noeuds, il faut qu'un périphérique de quorum soit configuré afin que le nombre total du quorum soit trois. Vous devez avoir un nombre du quorum pour chaque noeud et un nombre du quorum pour le périphérique de quorum. Dans cette situation, si le premier noeud est arrêté, le second noeud continue d'avoir le quorum et s'exécute en tant que seul membre du cluster. Pour que le premier noeud reviennent dans le cluster en tant que noeud du cluster, le second noeud doit être opérationnel et en cours d'exécution. Le nombre requis de quorum du cluster (deux) doit être présent.


Si vous exécutez Oracle Solaris Cluster dans un domaine invité, la réinitialisation du domaine de contrôle ou d'E/S peut avoir un impact sur le domaine invité en cours d'exécution, y compris sur le domaine en cours d'arrêt. Vous devez rééquilibrer la charge de travail vers d'autres noeuds et arrêtez le domaine invité exécutant Oracle Solaris Cluster avant la réinitialisation du domaine de contrôle ou d'E/S.

Lorsqu'un domaine de contrôle ou d'E/S est redémarré, les signaux d'activité ne sont pas reçus ou envoyés par le domaine invité. Cette situation entraîne un split-brain et une reconfiguration de cluster. Puisque le domaine de contrôle ou d'E/S est en cours de réinitialisation, le domaine invité ne peut accéder à aucun des périphériques partagés. Les autres noeuds du cluster séparent le domaine invité des périphériques partagés. Lorsque le domaine de contrôle ou d'E/S a terminé sa réinitialisation, E/S reprend sur le domaine invité et toute E/S de stockage partagé provoque la panique du domaine invité car ce dernier a été séparé des disques partagés dans le cadre de la reconfiguration du cluster. Vous pouvez atténuer ce problème si un invité utilise deux domaines d'E/S pour la redondance et la réinitialisation des domaines d'E/S, l'un après l'autre.

L'élément phys-schost# fait référence à l'invite du cluster global. Appliquez cette procédure à un cluster global.

Cette procédure contient la forme longue des commandes d'Oracle Solaris Cluster. La plupart des commandes possèdent également des formes brèves. A l'exception de la forme du nom, ces commandes sont identiques.


Remarque - Les noeuds doivent disposer d'une connexion qui fonctionne avec l'interconnexion de cluster pour atteindre l'appartenance au cluster.


  1. Pour démarrer un noeud du cluster global ou un noeud du cluster de zones qui a été arrêté, initialisez le noeud. Effectuez toutes les étapes de cette procédure depuis un noeud du cluster global.
    • Sur les systèmes SPARC, exécutez la commande suivante :

      ok boot
    • Sur les systèmes x86, exécutez les commandes suivantes :

      Lorsque le menu GRUB s'affiche, sélectionnez l'entrée Oracle Solaris appropriée, puis appuyez sur la touche Entrée. Le menu GRUB qui s'affiche est semblable à ce qui suit :

      GNU GRUB version 0.95 (631K lower / 2095488K upper memory)
      +-------------------------------------------------------------------------+
      | Solaris 10 /sol_10_x86                                                  |
      | Solaris failsafe                                                        |
      |                                                                         |
      +-------------------------------------------------------------------------+
      Use the ^ and v keys to select which entry is highlighted.
      Press enter to boot the selected OS, 'e' to edit the
      commands before booting, or 'c' for a command-line.

      Des messages apparaissent sur les consoles des noeuds initialisés en même temps que les composants du cluster sont activés.

    • Si vous avez un cluster de zones, vous pouvez indiquer un noeud à initialiser.

      phys-schost# clzonecluster boot -n node zoneclustername
  2. Assurez-vous que le noeud a été initialisé sans erreurs et qu'il se trouve en ligne.
    • L'exécution de la commande cluster status rapporte le statut d'un noeud du cluster global.
      phys-schost# cluster status -t node
    • L'exécution de la commande clzonecluster status à partir d'un noeud du cluster global rapporte le statut de tous les noeuds du cluster de zones.
      phys-schost# clzonecluster status

      Un noeud du cluster de zones peut uniquement être initialisé en mode cluster lorsque le noeud hébergeant le noeud est initialisé en mode cluster.


      Remarque - Si le système de fichiers /var d'un noeud se remplit, Oracle Solaris Cluster ne pourra peut-être pas redémarrer sur ce noeud. Si ce problème survient, reportez-vous à la section Réparation d'un système de fichiers /var complet.


Exemple 3-10 SPARC : Initialisation d'un noeud du cluster global

L'exemple suivant montre la sortie de console lorsque le noeud phys-schost-1 est initialisé dans le cluster global.

ok boot
Rebooting with command: boot 
...
Hostname: phys-schost-1
Booting as part of a cluster
...
NOTICE: Node phys-schost-1: attempting to join cluster
...
NOTICE: Node phys-schost-1: joined cluster
...
The system is coming up.  Please wait.
checking ufs filesystems
...
reservation program successfully exiting
Print services started.
volume management starting.
The system is ready.
phys-schost-1 console login:

Réinitialisation d'un noeud

Pour arrêter ou réinitialiser d'autres noeuds actifs du cluster global ou du cluster de zones, attendez que le jalon multi-utilisateur-serveur soit en ligne pour le noeud que vous souhaitez réinitialiser.

Sinon, le noeud ne sera pas disponible pour prendre la place de services d'autres noeuds du cluster que vous arrêtez ou réinitialisez. Pour plus d'informations sur la réinitialisation d'une zone non globale, reportez-vous au Chapitre 20, Installation, initialisation, arrêt, désinstallation et clonage de zones non globales (tâches) du manuel Guide d’administration système : Conteneurs Oracle Solaris-Gestion des ressources et Oracle Solaris Zones.

L'élément phys-schost# fait référence à l'invite du cluster global. Appliquez cette procédure à un cluster global.

Cette procédure contient la forme longue des commandes d'Oracle Solaris Cluster. La plupart des commandes possèdent également des formes brèves. A l'exception de la forme du nom, ces commandes sont identiques.


Attention

Attention - Si une méthode pour n'importe quelle ressource n'arrive à expiration et ne peut pas être interrompu, le noeud sera redémarré uniquement si la ressource est Failover_mode propriété est définie à disque. Si les Failover_mode propriété est définie sur une autre valeur, le noeud ne sera pas redémarré.


  1. Si le noeud du cluster global ou du cluster de zones exécute Oracle RAC, arrêtez toutes les instances de la base de données sur le noeud que vous arrêtez.

    Reportez-vous à la documentation produit d'Oracle RAC pour les procédures d'arrêt.

  2. Connectez-vous en tant que superutilisateur ou prenez un rôle octroyant l'autorisation RBAC solaris.cluster.admin sur le noeud à arrêter. Effectuez toutes les étapes de cette procédure depuis un noeud du cluster global.
  3. Arrêtez le noeud du cluster global à l'aide des commandes clnode evacuate et shutdown. Arrêtez le cluster de zones à l'aide de la commande clzonecluster halt exécutée sur un noeud du cluster global. (Les commandes clnode evacuate et shutdown fonctionnent également dans un cluster de zones.)

    Pour un cluster global, entrez les commandes suivantes sur le noeud à arrêter. La commande clnode evacuate permet de basculer tous les groupes de périphériques du noeud spécifié vers le noeud de prédilection suivant. La commande bascule également tous les groupes de ressources de zones globales ou non globales du noeud spécifié vers les zones globales ou non globales de prédilection suivantes sur d'autres noeuds.


    Remarque - Pour arrêter un noeud unique, utilisez la commande shutdown -g0 -y -i6. Pour arrêter plusieurs noeuds en même temps, utilisez les commandes shutdown -g0 -y -i0 pour arrêter les noeuds. Une fois tous les noeuds sont arrêtés, utilisez la commande boot sur tous les noeuds pour les réinitialiser au sein du cluster.


    • Sur un système SPARC, exécutez les commandes suivantes pour réinitialiser un noeud unique.

      phys-schost# clnode evacuate node
      phys-schost# shutdown -g0 -y -i6
    • Sur un système x86, exécutez les commandes suivantes pour réinitialiser un noeud unique.

      phys-schost# clnode evacuate node
      phys-schost# shutdown -g0 -y -i6

      Lorsque le menu GRUB s'affiche, sélectionnez l'entrée Oracle Solaris appropriée, puis appuyez sur la touche Entrée. Le menu GRUB qui s'affiche est semblable à ce qui suit :

      GNU GRUB version 0.95 (631K lower / 2095488K upper memory)
      +-------------------------------------------------------------------------+
      | Solaris 10 /sol_10_x86                                                  |
      | Solaris failsafe                                                        |
      |                                                                         |
      +-------------------------------------------------------------------------+
      Use the ^ and v keys to select which entry is highlighted.
      Press enter to boot the selected OS, 'e' to edit the
      commands before booting, or 'c' for a command-line.
    • Indiquez le noeud du cluster de zones à arrêter et à réinitialiser.

      phys-schost# clzonecluster reboot - node zoneclustername

    Remarque - Les noeuds doivent disposer d'une connexion qui fonctionne avec l'interconnexion de cluster pour atteindre l'appartenance au cluster.


  4. Assurez-vous que le noeud a été initialisé sans erreurs et qu'il se trouve en ligne.
    • Assurez-vous que le noeud du cluster global se trouve en ligne.
      phys-schost# cluster status -t node
    • Assurez-vous que le noeud du cluster de zones se trouve en ligne.
      phys-schost# clzonecluster status

Exemple 3-11 SPARC : Réinitialisation d'un noeud du cluster global

L'exemple suivant montre la sortie console lorsque le noeud phys-schost-1 est réinitialisé. Les messages pour ce noeud, tels que les notifications d'arrêt ou de démarrage, apparaissent sur les consoles des autres noeuds du cluster global.

phys-schost# clnode evacuate phys-schost-1
phys-schost# shutdown -g0 -y -i6
Shutdown started.    Wed Mar 10 13:47:32 phys-schost-1 cl_runtime: 

WARNING: CMM monitoring disabled.
phys-schost-1# 
INIT: New run level: 6
The system is coming down.  Please wait.
System services are now being stopped.
Notice: rgmd is being stopped.
Notice: rpc.pmfd is being stopped.
Notice: rpc.fed is being stopped.
umount: /global/.devices/node@1 busy
umount: /global/phys-schost-1 busy
The system is down.
syncing file systems... done
rebooting...
Resetting ... 
,,,
Sun Ultra 1 SBus (UltraSPARC 143MHz), No Keyboard
OpenBoot 3.11, 128 MB memory installed, Serial #5932401.
Ethernet address 8:8:20:99:ab:77, Host ID: 8899ab77.
...
Rebooting with command: boot
...
Hostname: phys-schost-1
Booting as part of a cluster
...
NOTICE: Node phys-schost-1: attempting to join cluster
...
NOTICE: Node phys-schost-1: joined cluster
...
The system is coming up.  Please wait.
The system is ready.
phys-schost-1 console login: 

Exemple 3-12 x86 : Réinitialisation d'un noeud du cluster global

L'exemple suivant montre la sortie console lorsque le noeud phys-schost-1 est réinitialisé. Les messages pour ce noeud, tels que les notifications d'arrêt ou de démarrage, apparaissent sur les consoles des autres noeuds du cluster global.

phys-schost# clnode evacuate phys-schost-1
phys-schost # shutdown -g0 -i6 -y

GNU GRUB version 0.95 (631K lower / 2095488K upper memory)
+-------------------------------------------------------------------------+
| Solaris 10 /sol_10_x86                                                  |
| Solaris failsafe                                                        |
|                                                                         |
+-------------------------------------------------------------------------+
Use the ^ and v keys to select which entry is highlighted.
Press enter to boot the selected OS, 'e' to edit the
commands before booting, or 'c' for a command-line.
Hostname: phys-schost-1
Booting as part of a cluster
...
NOTICE: Node phys-schost-1: attempting to join cluster
...
NOTICE: Node phys-schost-1: joined cluster
...
The system is coming up.  Please wait.
checking ufs filesystems
...
reservation program successfully exiting
Print services started.
volume management starting.
The system is ready.
phys-schost-1 console login: 

Exemple 3-13 Réinitialisation d'un noeud du cluster de zones

L'exemple suivant montre la procédure de la réinitialisation d'un noeud d'un cluster de zones.

phys-schost# clzonecluster reboot -n schost-4 sparse-sczone
Waiting for zone reboot commands to complete on all the nodes of the zone cluster
   "sparse-sczone"...
Sep  5 19:40:59 schost-4 cl_runtime: NOTICE: Membership : Node 3 of cluster
   'sparse-sczone' died.
phys-schost# Sep  5 19:41:27 schost-4 cl_runtime: NOTICE: Membership : Node 3 of cluster
   'sparse-sczone' joined.

phys-schost#
phys-schost# clzonecluster status

=== Zone Clusters ===

--- Zone Cluster Status ---
Name            Node Name   Zone HostName   Status   Zone Status
----            ---------   -------------   ------   -----------
sparse-sczone   schost-1    sczone-1        Online   Running
                schost-2    sczone-2        Online   Running
                schost-3    sczone-3        Online   Running
                schost-4    sczone-4        Online   Running

phys-schost#

Initialisation d'un noeud en mode non cluster

Vous pouvez initialiser un noeud du cluster global en mode non cluster, le noeud ne participant alors pas à l'appartenance au cluster. Le mode non cluster est utile lors de l'installation du logiciel du cluster ou de la réalisation de certaines procédures d'administration, telles que l'application d'un patch sur un noeud. Un noeud du cluster de zones ne peut pas se trouver dans un état d'initialisation différent de l'état du noeud sous-jacent du cluster global. Si le noeud du cluster global est démarré en mode non cluster, le noeud du cluster de zones est automatiquement démarré en mode non cluster.

L'élément phys-schost# fait référence à l'invite du cluster global. Appliquez cette procédure à un cluster global.

Cette procédure contient la forme longue des commandes d'Oracle Solaris Cluster. La plupart des commandes possèdent également des formes brèves. A l'exception de la forme du nom, ces commandes sont identiques.

  1. Connectez-vous en tant que superutilisateur ou prenez un rôle octroyant l'autorisation RBAC solaris.cluster.admin sur le cluster à démarrer en mode non cluster. Effectuez toutes les étapes de cette procédure depuis un noeud du cluster global.
  2. Arrêtez le noeud de cluster de zones en exécutant la commande clzonecluster halt sur un noeud du cluster global. Arrêtez le noeud du cluster global à l'aide des commandes clnode evacuate et shutdown.

    La commande clnode evacuate permet de basculer tous les groupes de périphériques du noeud spécifié vers le noeud de prédilection suivant. La commande bascule également tous les groupes de ressources de zones globales ou non globales du noeud spécifié vers les zones globales ou non globales de prédilection suivantes sur d'autres noeuds.

    • Arrêtez un cluster global donné.
      phys-schost# clnode evacuate node
      phys-schost# shutdown -g0 -y
    • Arrêtez un noeud de cluster de zones donné à partir d'un noeud de cluster global.
      phys-schost# clzonecluster halt -n node zoneclustername

      Vous pouvez également utiliser les commandes clnode evacuate et shutdown dans un cluster de zones.

  3. Vérifiez que le noeud de cluster global affiche l'invite ok sur un système Oracle Solaris ou le message Press any key to continue dans le menu GRUB d'un système x86.
  4. Initialisez le noeud du cluster global en mode non cluster.
    • Sur les systèmes SPARC, exécutez la commande suivante :

      ok boot -xs
    • Sur les systèmes x86, exécutez les commandes suivantes :

    1. Dans le menu GRUB, utilisez les touches fléchées pour sélectionner l'entrée Oracle Solaris appropriée et saisissez e pour modifier les commandes.

      Le menu GRUB qui s'affiche est semblable à ce qui suit :

      GNU GRUB version 0.95 (631K lower / 2095488K upper memory)
      +-------------------------------------------------------------------------+
      | Solaris 10 /sol_10_x86                                                  |
      | Solaris failsafe                                                        |
      |                                                                         |
      +-------------------------------------------------------------------------+
      Use the ^ and v keys to select which entry is highlighted.
      Press enter to boot the selected OS, 'e' to edit the
      commands before booting, or 'c' for a command-line.

      Pour plus d'informations sur l'initialisation GRUB, reportez-vous à la section Initialisation d’un système x86 à l’aide de GRUB (liste des tâches) du manuel Administration d’Oracle Solaris : Administration de base.

    2. Dans l'écran des paramètres d'initialisation, utilisez les touches de direction pour sélectionner l'entrée du noyau et saisissez l'option e pour éditer cette dernière.

      L'écran des paramètres d'initialisation GRUB qui s'affiche est semblable à ce qui suit :

      GNU GRUB version 0.95 (615K lower / 2095552K upper memory)
      +----------------------------------------------------------------------+
      | root (hd0,0,a)                                                       |
      | kernel /platform/i86pc/multiboot                                     |
      | module /platform/i86pc/boot_archive                                  |
      +----------------------------------------------------------------------+
      Use the ^ and v keys to select which entry is highlighted.
      Press 'b' to boot, 'e' to edit the selected command in the
      boot sequence, 'c' for a command-line, 'o' to open a new line
      after ('O' for before) the selected line, 'd' to remove the
      selected line, or escape to go back to the main menu.
    3. Ajoutez l'option -x à la commande pour spécifier l'initialisation du système en mode non cluster.
      [ Minimal BASH-like line editing is supported. For the first word, TAB
      lists possible command completions. Anywhere else TAB lists the possible
      completions of a device/filename. ESC at any time exits. ]
      
      grub edit> kernel /platform/i86pc/multiboot -x
    4. Appuyez sur la touche Entrée pour accepter les modifications et revenir à l'écran des paramètres d'initialisation.

      L'écran affiche la commande éditée.

      GNU GRUB version 0.95 (615K lower / 2095552K upper memory)
      +----------------------------------------------------------------------+
      | root (hd0,0,a)                                                       |
      | kernel /platform/i86pc/multiboot -x                                  |
      | module /platform/i86pc/boot_archive                                  |
      +----------------------------------------------------------------------+
      Use the ^ and v keys to select which entry is highlighted.
      Press 'b' to boot, 'e' to edit the selected command in the
      boot sequence, 'c' for a command-line, 'o' to open a new line
      after ('O' for before) the selected line, 'd' to remove the
      selected line, or escape to go back to the main menu.-
    5. Saisissez l'option b pour initialiser le noeud en mode non cluster.

      Remarque - Cette modification de la commande des paramètres d'initialisation du noyau ne sera pas prise en compte, lors de la prochaine initialisation du système. Lors de la prochaine initialisation du noeud, ce dernier sera initialisé en mode cluster. Si vous souhaitez plutôt initialiser le noeud en mode non cluster, effectuez de nouveau ces étapes pour ajouter l'option -x à la commande des paramètres d'initialisation du noyau.


Exemple 3-14 SPARC : Initialisation d'un noeud du cluster global en mode non cluster

L'exemple suivant montre la sortie de console lorsque le noeud phys-schost-1 est arrêté et redémarré en mode non cluster. L'option -g0 définit la période de grâce sur zéro, l'option -y fournit une réponse oui automatique à la question de confirmation et l'option -i0 invoque le niveau d'exécution 0 (zéro). Les messages d'arrêt de ce noeud apparaissent sur les consoles des autres noeuds du cluster global.

phys-schost# clnode evacuate phys-schost-1
phys-schost# cluster shutdown -g0 -y
Shutdown started.    Wed Mar 10 13:47:32 phys-schost-1 cl_runtime: 

WARNING: CMM monitoring disabled.
phys-schost-1# 
...
rg_name = schost-sa-1 ...
offline node = phys-schost-2 ...
num of node = 0 ...
phys-schost-1# 
INIT: New run level: 0
The system is coming down.  Please wait.
System services are now being stopped.
Print services stopped.
syslogd: going down on signal 15
...
The system is down.
syncing file systems... done
WARNING: node phys-schost-1 is being shut down.
Program terminated

ok boot -x
...
Not booting as part of cluster
...
The system is ready.
phys-schost-1 console login: