JavaScript is required to for searching.
Ignorer les liens de navigation
Quitter l'aperu
Guide d'administration système d'Oracle Solaris Cluster     Oracle Solaris Cluster 3.3 3/13 (Français)
search filter icon
search icon

Informations document

Préface

1.  Présentation de l'administration d'Oracle Solaris Cluster

2.  Oracle Solaris Cluster et RBAC

3.  Arrêt et initialisation d'un cluster

Présentation de l'arrêt et de l'initialisation d'un cluster

Arrêt d'un cluster

Initialisation d'un cluster

Réinitialisation d'un cluster

Arrêt et initialisation d'un noeud unique dans un cluster

Arrêt d'un noeud

Initialisation d'un noeud

Réinitialisation d'un noeud

Initialisation d'un noeud en mode non cluster

Réparation d'un système de fichiers /var complet

Réparation d'un système de fichiers /var complet

4.  Méthodes de réplication de données

5.  Administration des périphériques globaux, du contrôle de chemin de disque et des systèmes de fichiers de cluster

6.  Gestion du quorum

7.  Administration des interconnexions de cluster et des réseaux publics

8.  Ajout et suppression d'un noeud

9.  Administration du cluster

10.  Configuration du contrôle de l'utilisation de la CPU

11.  Application de patchs au logiciel et au microprogramme d'Oracle Solaris Cluster

12.  Sauvegarde et restauration d'un cluster

13.  Administration d'Oracle Solaris Cluster avec les interfaces graphiques

A.  Exemple

Index

Présentation de l'arrêt et de l'initialisation d'un cluster

La commande cluster shutdown d'Oracle Solaris Cluster arrête les services du cluster global de manière ordonnée et arrête correctement un cluster global entier. Vous pouvez utiliser la commande cluster shutdown lors du déplacement de l'emplacement d'un cluster global ou pour arrêter le cluster global si une erreur d'application provoque l'altération des données. La commande clzonecluster halt arrête un cluster de zones en cours d'exécution sur un noeud spécifique ou un cluster de zones entier sur tous les noeuds configurés. (Vous pouvez également utiliser la commande cluster shutdown au sein d'un cluster de zones.) Pour plus d'informations, reportez-vous à la page de manuel cluster(1CL).

Dans les procédures de ce chapitre, phys-schost# fait référence à une invite du cluster global. clzc:schost> représente l'invite de shell interactive de la commande clzonecluster.


Remarque - Utilisez la commande cluster shutdown pour garantir l'arrêt correct du cluster global entier. La commande shutdown d'Oracle Solaris est utilisée conjointement avec la commande clnode(1CL) evacuate pour arrêter des noeuds individuels. Reportez-vous à la section Arrêt d'un cluster ou à la section Arrêt et initialisation d'un noeud unique dans un cluster pour plus d'informations.


Les commandes cluster shutdown et clzonecluster halt arrêtent respectivement tous les noeuds dans un cluster global ou un cluster de zones en effectuant les actions suivantes :

  1. Met hors ligne tous les groupes de ressources en cours d'exécution.

  2. Démonte tous les systèmes de fichiers du cluster pour un cluster global ou un cluster de zones.

  3. La commande cluster shutdown arrête les services de périphériques actifs sur un cluster global ou un cluster de zones.

  4. La commande cluster shutdown exécute init 0 et met tous les noeuds du cluster sur l'invite OpenBoot PROM ok sur un système basé sur SPARC ou sur le message Appuyez sur une touche pour continuer dans le menu GRUB d'un système basé sur x86. Les menus GRUB sont décrits plus en détail à la section Initialisation d’un système x86 à l’aide de GRUB (liste des tâches) du manuel Administration d’Oracle Solaris : Administration de base. La commande clzonecluster halt exécute la commande zoneadm -z zoneclustername halt pour stopper (mais pas arrêter) les zones du cluster de zones.


Remarque - Si nécessaire, vous pouvez initialiser un noeud en mode non cluster afin que le noeud ne participe pas à l'appartenance au cluster. Le mode non cluster est utile lors de l'installation du logiciel du cluster ou pour effectuer certaines procédures administratives. Pour plus d'informations, reportez-vous à la section Initialisation d'un noeud en mode non cluster.


Tableau 3-1 Liste des tâches : arrêt et initialisation d'un cluster

Tâche
Instructions
Arrêt du cluster.
Démarrage du cluster en initialisant tous les noeuds. Les noeuds doivent disposer d'une connexion qui fonctionne avec l'interconnexion de cluster pour atteindre l'appartenance au cluster.
Réinitialisation du cluster.

Arrêt d'un cluster

Vous pouvez arrêter un cluster global, un cluster de zones ou tous les clusters de zones.


Attention

Attention - N'utilisez pas la commande send brk dans une console de cluster pour arrêter un noeud de cluster global ou un noeud de cluster de zones. La commande n'est pas prise en charge au sein d'un cluster.


L'élément phys-schost# fait référence à l'invite du cluster global. Appliquez cette procédure à un cluster global.

Cette procédure contient la forme longue des commandes d'Oracle Solaris Cluster. La plupart des commandes possèdent également des formes brèves. A l'exception de la forme du nom, ces commandes sont identiques.

  1. Si votre cluster global ou de zones exécute Oracle Real Application Clusters (RAC), arrêtez toutes les instances de la base de données sur le cluster que vous arrêtez.

    Reportez-vous à la documentation produit d'Oracle RAC pour les procédures d'arrêt.

  2. Connectez-vous en tant que superutilisateur ou prenez un rôle octroyant l'autorisation RBAC solaris.cluster.admin sur tous les noeuds du cluster. Effectuez toutes les étapes de cette procédure depuis un noeud du cluster global.
  3. Arrêtez le cluster global, le cluster de zones ou tous les clusters de zones.
    • Arrêtez le cluster global. Cette action arrête également tous les clusters de zones.
      phys-schost# cluster shutdown -g0 -y
    • Arrêtez un cluster de zones particulier.
      phys-schost# clzonecluster halt zoneclustername
    • Arrêtez tous les clusters de zones.
      phys-schost# clzonecluster halt +

      Vous pouvez également utiliser la commande cluster shutdown au sein d'un cluster de zones pour arrêter un cluster de zones particulier.

  4. Vérifiez que tous les noeuds du cluster global ou du cluster de zones affichent l'invite ok sur un système basé sur SPARC ou un menu GRUB sur un système basé sur x86.

    Ne mettez aucun noeud hors tension tant que tous les noeuds n'affichent pas l'invite ok (sur un système SPARC) ou qu'ils ne se trouvent pas dans un sous-système d'initialisation (sur un système x86).

    • Vérifiez le statut d'un ou de plusieurs noeuds du cluster global à partir d'un noeud du cluster global encore en fonctionnement dans le cluster.
      phys-schost# cluster status -t node
    • Utilisez la sous-commande status pour vérifier que le cluster de zones a été arrêté.
      phys-schost# clzonecluster status
  5. Si nécessaire, mettez hors tension les noeuds du cluster global.

Exemple 3-1 Arrêt d'un cluster de zones

L'exemple suivant arrête un cluster de zones nommé sparse-sczone.

phys-schost# clzonecluster halt sparse-sczone
Waiting for zone halt commands to complete on all the nodes of the zone cluster "sparse-sczone"...
Sep  5 19:06:01 schost-4 cl_runtime: NOTICE: Membership : Node 2 of cluster 'sparse-sczone' died.
Sep  5 19:06:01 schost-4 cl_runtime: NOTICE: Membership : Node 4 of cluster 'sparse-sczone' died.
Sep  5 19:06:01 schost-4 cl_runtime: NOTICE: Membership : Node 3 of cluster 'sparse-sczone' died.
Sep  5 19:06:01 schost-4 cl_runtime: NOTICE: Membership : Node 1 of cluster 'sparse-sczone' died.
phys-schost# 

Exemple 3-2 SPARC : Arrêt d'un cluster global

L'exemple suivant montre la sortie de console lorsque le fonctionnement normal du cluster global est interrompu et que tous les noeuds sont arrêtés, auquel cas l'invite ok s'affiche. L'option -g0 définit sur zéro la période de grâce de l'arrêt et l'option -y répond automatiquement yes à la question de confirmation. Les messages d'arrêt apparaissent également sur les consoles des autres noeuds du cluster global.

phys-schost# cluster shutdown -g0 -y
Wed Mar 10 13:47:32 phys-schost-1 cl_runtime: 
WARNING: CMM monitoring disabled.
phys-schost-1# 
INIT: New run level: 0
The system is coming down.  Please wait.
System services are now being stopped.
/etc/rc0.d/K05initrgm: Calling clnode evacuate
The system is down.
syncing file systems... done
Program terminated
ok 

Exemple 3-3 x86 : Arrêt d'un cluster global

L'exemple suivant montre la sortie de console lorsque le fonctionnement normal du cluster global est interrompu et que tous les noeuds sont arrêtés. Dans cet exemple, l'invite ok ne s'affiche pas sur tous les noeuds. L'option -g0 définit sur zéro la période de grâce de l'arrêt et l'option -y répond automatiquement yes à la question de confirmation. Les messages d'arrêt apparaissent également sur les consoles des autres noeuds du cluster global.

phys-schost# cluster shutdown -g0 -y
May  2 10:32:57 phys-schost-1 cl_runtime: 
WARNING: CMM: Monitoring disabled.  
root@phys-schost-1#
INIT: New run level: 0
The system is coming down.  Please wait.
System services are now being stopped.
/etc/rc0.d/K05initrgm: Calling clnode evacuate
failfasts already disabled on node 1
Print services already stopped.
May  2 10:33:13 phys-schost-1 syslogd: going down on signal 15
The system is down.
syncing file systems... done
Type any key to continue 

Voir aussi

Pour redémarrer un cluster global ou un cluster de zones qui a été arrêté, reportez-vous à la section Initialisation d'un cluster.

Initialisation d'un cluster

Cette procédure explique le démarrage d'un cluster global ou d'un cluster de zones dont les noeuds ont été arrêtés. Pour les noeuds du cluster global, le système affiche l'invite ok sur les systèmes SPARC ou le message Press any key to continue sur les systèmes x86 basés sur GRUB.

L'élément phys-schost# fait référence à l'invite du cluster global. Appliquez cette procédure à un cluster global.

Cette procédure contient la forme longue des commandes d'Oracle Solaris Cluster. La plupart des commandes possèdent également des formes brèves. A l'exception de la forme du nom, ces commandes sont identiques.


Remarque - Pour créer un cluster de zones, suivez les instructions dans la section Configuration d’un cluster de zones du manuel Guide d’installation du logiciel Oracle Solaris Cluster.


  1. Initialisez chaque noeud en mode cluster. Effectuez toutes les étapes de cette procédure depuis un noeud du cluster global.
    • Sur les systèmes SPARC, exécutez la commande suivante :
      ok boot
    • Sur les systèmes x86, exécutez les commandes suivantes :

      Lorsque le menu GRUB s'affiche, sélectionnez l'entrée Oracle Solaris appropriée, puis appuyez sur la touche Entrée. Le menu GRUB qui s'affiche est semblable à ce qui suit :

      GNU GRUB version 0.95 (631K lower / 2095488K upper memory)
      +-------------------------------------------------------------------------+
      | Solaris 10 /sol_10_x86                                                  |
      | Solaris failsafe                                                        |
      |                                                                         |
      +-------------------------------------------------------------------------+
      Use the ^ and v keys to select which entry is highlighted.
      Press enter to boot the selected OS, 'e' to edit the
      commands before booting, or 'c' for a command-line.

      Pour plus d'informations sur l'initialisation GRUB, reportez-vous à la section Initialisation d’un système x86 à l’aide de GRUB (liste des tâches) du manuel Administration d’Oracle Solaris : Administration de base.


      Remarque - Les noeuds doivent disposer d'une connexion qui fonctionne avec l'interconnexion de cluster pour atteindre l'appartenance au cluster.


    • Si vous avez un cluster de zones, vous pouvez initialiser le cluster de zones entier.
      phys-schost# clzonecluster boot zoneclustername
    • Si vous avez plus d'un cluster de zones, vous pouvez initialiser tous les clusters de zones. Utilisez + à la place de zoneclustername.
  2. Vérifiez que les noeuds ont été initialisés sans erreur et sont en ligne.

    La commande de statut cluster(1CL) indique le statut des noeuds du cluster global.

    phys-schost# cluster status -t node

    Exécutée depuis un noeud du cluster global, la commande de statut clzonecluster(1CL) indique l'état du noeud du cluster de zones.

    phys-schost# clzonecluster status

    Remarque - Si le système de fichiers /var d'un noeud se remplit, Oracle Solaris Cluster ne pourra peut-être pas redémarrer sur ce noeud. Si ce problème survient, reportez-vous à la section Réparation d'un système de fichiers /var complet.


Exemple 3-4 SPARC : Initialisation d'un cluster global

L'exemple suivant montre la sortie de console lorsque le noeud phys-schost-1 est initialisé dans le cluster global. Des messages similaires apparaissent sur les consoles des autres noeuds du cluster global. Lorsque la propriété de démarrage automatique d'un cluster de zones est définie sur true, le système initialise automatiquement le noeud du cluster de zones après avoir initialisé le noeud du cluster global sur cette machine.

Lorsqu'un noeud du cluster global est réinitialisé, tous les noeuds du cluster de zones sur cette machine s'arrêtent. Tout noeud du cluster de zones sur la même machine, et dont la propriété de démarrage automatique est définie sur true, est initialisé après le redémarrage du noeud du cluster global.

ok boot
Rebooting with command: boot 
...
Hostname: phys-schost-1
Booting as part of a cluster
NOTICE: Node phys-schost-1 with votecount = 1 added.
NOTICE: Node phys-schost-2 with votecount = 1 added.
NOTICE: Node phys-schost-3 with votecount = 1 added.
...
NOTICE: Node phys-schost-1: attempting to join cluster
...
NOTICE: Node phys-schost-2 (incarnation # 937690106) has become reachable.
NOTICE: Node phys-schost-3 (incarnation # 937690290) has become reachable.
NOTICE: cluster has reached quorum.
NOTICE: node phys-schost-1 is up; new incarnation number = 937846227.
NOTICE: node phys-schost-2 is up; new incarnation number = 937690106.
NOTICE: node phys-schost-3 is up; new incarnation number = 937690290.
NOTICE: Cluster members: phys-schost-1 phys-schost-2 phys-schost-3.
...

Réinitialisation d'un cluster

Pour arrêter un cluster global, exécutez la commande cluster shutdown, puis initialisez le cluster global à l'aide de la commande boot sur chaque noeud. Pour arrêter un cluster de zones utilisez la commande clzonecluster halt, puis utilisez la commande clzonecluster boot pour initialiser le cluster de zones. Vous pouvez également utiliser la commande clzonecluster reboot. Pour plus d'informations, reportez-vous aux pages de manuel cluster(1CL)boot(1M) et clzonecluster(1CL).

L'élément phys-schost# fait référence à l'invite du cluster global. Appliquez cette procédure à un cluster global.

Cette procédure contient la forme longue des commandes d'Oracle Solaris Cluster. La plupart des commandes possèdent également des formes brèves. A l'exception de la forme du nom, ces commandes sont identiques.

  1. Si votre cluster exécute Oracle RAC, arrêtez toutes les instances de la base de données sur le cluster que vous arrêtez.

    Reportez-vous à la documentation produit d'Oracle RAC pour les procédures d'arrêt.

  2. Connectez-vous en tant que superutilisateur ou prenez un rôle octroyant l'autorisation RBAC solaris.cluster.admin sur tous les noeuds du cluster. Effectuez toutes les étapes de cette procédure depuis un noeud du cluster global.
  3. Arrêtez le cluster.
    • Arrêtez le cluster global.
      phys-schost# cluster shutdown -g0 -y 
    • Si vous avez un cluster de zones, arrêtez le cluster de zones depuis un noeud du cluster global.
      phys-schost# clzonecluster halt zoneclustername

    Chaque noeud est arrêté. Vous pouvez également utiliser la commande cluster shutdown au sein d'un cluster de zones pour arrêter le cluster de zones.


    Remarque - Les noeuds doivent disposer d'une connexion qui fonctionne avec l'interconnexion de cluster pour atteindre l'appartenance au cluster.


  4. Initialisez chaque noeud.

    L'ordre dans lequel les noeuds sont initialisés n'a pas d'importance, sauf si vous modifiez la configuration entre les arrêts. Si vous modifiez la configuration entre les arrêts, démarrez d'abord le noeud avec la configuration la plus récente.

    • Pour un noeud du cluster global d'un système SPARC, exécutez la commande suivante.

      ok boot
    • Pour un noeud du cluster global d'un système x86, exécutez les commandes suivantes.

      Lorsque le menu GRUB s'affiche, sélectionnez l'entrée SE Oracle Solaris appropriée, puis appuyez sur la touche Entrée. Le menu GRUB qui s'affiche est semblable à ce qui suit :

      GNU GRUB version 0.95 (631K lower / 2095488K upper memory)
      +-------------------------------------------------------------------------+
      | Solaris 10 /sol_10_x86                                                  |
      | Solaris failsafe                                                        |
      |                                                                         |
      +-------------------------------------------------------------------------+
      Use the ^ and v keys to select which entry is highlighted.
      Press enter to boot the selected OS, 'e' to edit the
      commands before booting, or 'c' for a command-line.

    Remarque - Les noeuds doivent disposer d'une connexion qui fonctionne avec l'interconnexion de cluster pour atteindre l'appartenance au cluster.


    Pour plus d'informations sur l'initialisation GRUB, reportez-vous à la section Initialisation d’un système x86 à l’aide de GRUB (liste des tâches) du manuel Administration d’Oracle Solaris : Administration de base.

    • Pour un cluster de zones, entrez la commande suivante sur un noeud unique du cluster global pour initialiser le cluster de zones.

      phys-schost# clzonecluster boot zoneclustername

    Des messages apparaissent sur les consoles des noeuds initialisés en même temps que les composants du cluster sont activés.

  5. Vérifiez que les noeuds ont été initialisés sans erreur et sont en ligne.
    • La commande clnode status rapporte le statut des noeuds du cluster global.
      phys-schost# clnode status
    • L'exécution de la commande clzonecluster status sur un noeud du cluster global rapporte le statut des noeuds du cluster de zones.
      phys-schost# clzonecluster status

      Vous pouvez également exécuter la commande cluster status au sein d'un cluster de zones pour afficher le statut des noeuds.


      Remarque - Si le système de fichiers /var d'un noeud se remplit, Oracle Solaris Cluster ne pourra peut-être pas redémarrer sur ce noeud. Si ce problème survient, reportez-vous à la section Réparation d'un système de fichiers /var complet.


Exemple 3-5 Réinitialisation d'un cluster de zones

L'exemple suivant montre la procédure d'arrêt et d'initialisation d'un cluster de zones nommé sparse-sczone. Vous pouvez également utiliser la commande clzonecluster reboot.

phys-schost# clzonecluster halt sparse-sczone
Waiting for zone halt commands to complete on all the nodes of the zone cluster "sparse-sczone"...
Sep  5 19:17:46 schost-4 cl_runtime: NOTICE: Membership : Node 4 of cluster 'sparse-sczone' died.
Sep  5 19:17:46 schost-4 cl_runtime: NOTICE: Membership : Node 2 of cluster 'sparse-sczone' died.
Sep  5 19:17:46 schost-4 cl_runtime: NOTICE: Membership : Node 1 of cluster 'sparse-sczone' died.
Sep  5 19:17:46 schost-4 cl_runtime: NOTICE: Membership : Node 3 of cluster 'sparse-sczone' died.
phys-schost#
phys-schost# clzonecluster boot sparse-sczone
Waiting for zone boot commands to complete on all the nodes of the zone cluster "sparse-sczone"...
phys-schost# Sep  5 19:18:23 schost-4  cl_runtime: NOTICE: Membership : Node 1 of cluster
 'sparse-sczone' joined.
Sep  5 19:18:23 schost-4 cl_runtime: NOTICE: Membership : Node 2 of cluster 'sparse-sczone' joined.
Sep  5 19:18:23 schost-4 cl_runtime: NOTICE: Membership : Node 3 of cluster 'sparse-sczone' joined.
Sep  5 19:18:23 schost-4 cl_runtime: NOTICE: Membership : Node 4 of cluster 'sparse-sczone' joined.

phys-schost#
phys-schost# clzonecluster status

=== Zone Clusters ===

--- Zone Cluster Status ---

Name            Node Name   Zone HostName   Status   Zone Status
----            ---------   -------------   ------   -----------
sparse-sczone   schost-1    sczone-1        Online   Running
                schost-2    sczone-2        Online   Running
                schost-3    sczone-3        Online   Running
                schost-4    sczone-4        Online   Running
phys-schost# 

Exemple 3-6 SPARC : Réinitialisation d'un cluster global

L'exemple suivant montre la sortie de console lorsque le fonctionnement normal du cluster global est interrompu, que tous les noeuds sont arrêtés et affichent l'invite ok et que le cluster global est redémarré. L'option -g0 définit la période de grâce sur zéro et l'option -y fournit une réponse oui automatique à la question de confirmation. Les messages d'arrêt apparaissent également sur les consoles des autres noeuds du cluster global.

phys-schost# cluster shutdown -g0 -y
Wed Mar 10 13:47:32 phys-schost-1 cl_runtime: 
WARNING: CMM monitoring disabled.
phys-schost-1# 
INIT: New run level: 0
The system is coming down.  Please wait.
...
The system is down.
syncing file systems... done
Program terminated
ok boot
Rebooting with command: boot 
...
Hostname: phys-schost-1
Booting as part of a cluster
...
NOTICE: Node phys-schost-1: attempting to join cluster
...
NOTICE: Node phys-schost-2 (incarnation # 937690106) has become reachable.
NOTICE: Node phys-schost-3 (incarnation # 937690290) has become reachable.
NOTICE: cluster has reached quorum.
...
NOTICE: Cluster members: phys-schost-1 phys-schost-2 phys-schost-3.
...
NOTICE: Node phys-schost-1: joined cluster
...
The system is coming up.  Please wait.
checking ufs filesystems
...
reservation program successfully exiting
Print services started.
volume management starting.
The system is ready.
phys-schost-1 console login:
NOTICE: Node phys-schost-1: joined cluster
...
The system is coming up.  Please wait.
checking ufs filesystems
...
reservation program successfully exiting
Print services started.
volume management starting.
The system is ready.
phys-schost-1 console login: