JavaScript is required to for searching.
Ignorer les liens de navigation
Quitter l'aperu
Guide d'administration système d'Oracle Solaris Cluster     Oracle Solaris Cluster 4.1 (Français)
search filter icon
search icon

Informations document

Préface

1.  Présentation de l'administration d'Oracle Solaris Cluster

2.  Oracle Solaris Cluster et RBAC

3.  Fermeture et initialisation d'un cluster

Présentation de la fermeture et de l'initialisation d'un cluster

Fermeture d'un cluster

Initialisation d'un cluster

Réinitialisation d'un cluster

Fermeture et initialisation d'un noeud unique dans un cluster

Fermeture d'un noeud

Initialisation d'un noeud

Réinitialisation d'un noeud

Initialisation d'un noeud en mode non cluster

Réparation d'un système de fichiers /var complet

Réparation d'un système de fichiers /var complet

4.  Méthodes de réplication de données

5.  Administration des périphériques globaux, du contrôle de chemin de disque et des systèmes de fichiers de cluster

6.  Gestion du quorum

7.  Administration des interconnexions de cluster et des réseaux publics

8.  Ajout et suppression d'un noeud

9.  Administration du cluster

10.  Configuration du contrôle de l'utilisation de la CPU

11.  Mise à jour du logiciel

12.  Sauvegarde et restauration d'un cluster

A.  Exemple

Index

Présentation de la fermeture et de l'initialisation d'un cluster

La commande cluster shutdown d'Oracle Solaris Cluster arrête les services du cluster global de manière ordonnée et ferme correctement un cluster global entier. Vous pouvez utiliser la commande cluster shutdown lors du déplacement de l'emplacement d'un cluster global ou pour fermer le cluster global si une erreur d'application provoque la corruption des données. La commande clzonecluster halt arrête un cluster de zones en cours d'exécution sur un noeud spécifique ou un cluster de zones entier sur tous les noeuds configurés. (Vous pouvez également utiliser la commande cluster shutdown au sein d'un cluster de zones.) Pour plus d'informations, reportez-vous à la page de manuel cluster(1CL).

Dans les procédures de ce chapitre, phys-schost# fait référence à une invite du cluster global. clzc:schost> représente l'invite de shell interactive de la commande clzonecluster.


Remarque - Utilisez la commande cluster shutdown pour garantir la fermeture correcte du cluster global entier. La commande shutdown d'Oracle Solaris, en combinaison avec la commande clnode evacuate, permet de fermer tous les noeuds individuels. Pour plus d'informations, reportez-vous à la section Fermeture d'un cluster, Fermeture et initialisation d'un noeud unique dans un cluster ou à la page de manuel clnode(1CL).


Les commandes cluster shutdown et clzonecluster halt arrêtent tous les noeuds dans un cluster global ou un cluster de zones, respectivement, en effectuant les actions suivantes :

  1. Met hors ligne tous les groupes de ressources en cours d'exécution.

  2. Démonte tous les systèmes de fichiers du cluster pour un cluster global ou un cluster de zones.

  3. La commande cluster shutdown ferme les services de périphériques actifs sur un cluster global ou un cluster de zones.

  4. La commande cluster shutdown exécute init 0 et met tous les noeuds du cluster sur l'invite OpenBoot PROM ok sur un système basé sur SPARC ou sur le message Appuyez sur une touche pour continuer dans le menu GRUB d'un système basé sur x86. Pour plus d'informations sur l'initialisation basée sur le GRUB, reportez-vous à la section Initialisation d’un système du manuel Initialisation et arrêt des systèmes Oracle Solaris 11.1. La commande clzonecluster halt exécute la commande zoneadm - z zoneclustername halt pour arrêter (mais pas fermer) les zones du cluster de zones.


Remarque - Si nécessaire, vous pouvez initialiser un noeud en mode non cluster afin que le noeud ne participe pas à l'appartenance au cluster. Le mode non cluster est utile lors de l'installation du logiciel du cluster ou pour effectuer certaines procédures administratives. Pour plus d'informations, reportez-vous à la section Initialisation d'un noeud en mode non cluster.


Tableau 3-1 Liste des tâches : fermeture et initialisation d'un cluster

Tâche
Instructions
Arrêtez le cluster.
Démarrez le cluster en initialisant tous les noeuds. Les noeuds doivent disposer d'une connexion qui fonctionne avec l'interconnexion de cluster pour atteindre l'appartenance au cluster.
Réinitialisez le cluster.

Fermeture d'un cluster

Vous pouvez fermer un cluster global, un cluster de zones ou tous les clusters de zones.


Attention

Attention - N'utilisez pas la commande send brk dans une console de cluster pour fermer un noeud de cluster global ou un noeud de cluster de zones. La commande n'est pas prise en charge au sein d'un cluster.


L'élément phys-schost# fait référence à l'invite du cluster global. Appliquez cette procédure à un cluster global.

Cette procédure contient la forme longue des commandes de Oracle Solaris Cluster. La plupart des commandes possèdent également des formes brèves. A l'exception de la forme du nom, ces commandes sont identiques.

  1. Si votre cluster global ou de zones exécute Oracle Real Application Clusters (RAC), fermez toutes les instances de la base de données sur le cluster que vous fermez.

    Reportez-vous à la documentation produit de Oracle RAC pour les procédures de fermeture.

  2. Prenez un rôle disposant de l'autorisation RBAC solaris.cluster.admin sur tous les noeuds du cluster.

    Effectuez toutes les étapes de cette procédure depuis un noeud du cluster global.

  3. Fermez le cluster global, le cluster de zones ou tous les clusters de zones.
    • Arrêtez le cluster global. Cette action ferme également tous les clusters de zones.
      phys-schost# cluster shutdown -g0 -y
    • Fermez un cluster de zones spécifique.
      phys-schost# clzonecluster halt zoneclustername
    • Fermez tous les clusters de zones.
      phys-schost# clzonecluster halt +

      Vous pouvez également utiliser la commande cluster shutdown au sein d'un cluster de zones pour fermer un cluster de zones spécifique.

  4. Vérifiez que tous les noeuds du cluster global ou du cluster de zones affichent l'invite ok sur un système basé sur SPARC ou un menu GRUB sur un système basé sur x86.

    N'éteignez pas de noeud avant que tous les noeuds soient associés à l'invite ok sur un système basé sur SPARC ou un sous-système d'initialisation sur un système basé sur x86.

    • Vérifiez le statut d'une ou de plusieurs noeuds du cluster global à partir d'un autre noeud du cluster global qui est toujours prêt à fonctionner dans le cluster.
      phys-schost# cluster status -t node
    • Utilisez la sous-commande status pour vérifier que le cluster de zones a été fermé.
      phys-schost# clzonecluster status
  5. Si nécessaire, éteignez les noeuds du cluster global.

Exemple 3-1 Fermeture d'un cluster de zones

L'exemple suivant ferme un cluster de zones nommé sczone.

phys-schost# clzonecluster halt sczone
Waiting for zone halt commands to complete on all the nodes of the zone cluster "sczone"...
Sep  5 19:06:01 schost-4 cl_runtime: NOTICE: Membership : Node 2 of cluster 'sczone' died.
Sep  5 19:06:01 schost-4 cl_runtime: NOTICE: Membership : Node 4 of cluster 'sczone' died.
Sep  5 19:06:01 schost-4 cl_runtime: NOTICE: Membership : Node 3 of cluster 'sczone' died.
Sep  5 19:06:01 schost-4 cl_runtime: NOTICE: Membership : Node 1 of cluster 'sczone' died.
phys-schost# 

Exemple 3-2 SPARC : Fermeture d'un cluster global

L'exemple suivant montre la sortie de console lorsque l'opération normale du cluster global est arrêtée et que tous les noeuds sont fermés, permettant à l'invite ok de s'afficher. L'option -g0 définit la période de grâce de la fermeture sur zéro et l'option -y fournit une réponse oui automatique à la question de confirmation. Les messages de fermeture apparaissent également sur les consoles des autres noeuds du cluster global.

phys-schost# cluster shutdown -g0 -y
Wed Mar 10 13:47:32 phys-schost-1 cl_runtime: 
WARNING: CMM monitoring disabled.
phys-schost-1# 
INIT: New run level: 0
The system is coming down.  Please wait.
System services are now being stopped.
/etc/rc0.d/K05initrgm: Calling clnode evacuate
The system is down.
syncing file systems... done
Program terminated
ok 

Exemple 3-3 x86 : Fermeture d'un cluster global

L'exemple suivant montre la sortie de console lorsque l'opération normale du cluster global est arrêtée et que tous les noeuds sont fermés. Dans cet exemple, l'invite ok ne s'affiche pas sur tous les noeuds. L'option -g0 définit la période de grâce de la fermeture sur zéro et l'option -y fournit une réponse oui automatique à la question de confirmation. Les messages de fermeture apparaissent également sur les consoles des autres noeuds du cluster global.

phys-schost# cluster shutdown -g0 -y
May  2 10:32:57 phys-schost-1 cl_runtime: 
WARNING: CMM: Monitoring disabled.  
root@phys-schost-1#
INIT: New run level: 0
The system is coming down.  Please wait.
System services are now being stopped.
/etc/rc0.d/K05initrgm: Calling clnode evacuate
failfasts already disabled on node 1
Print services already stopped.
May  2 10:33:13 phys-schost-1 syslogd: going down on signal 15
The system is down.
syncing file systems... done
Type any key to continue 

Voir aussi

Pour redémarrer un cluster global ou un cluster de zones qui a été fermé, reportez-vous à la section Initialisation d'un cluster.

Initialisation d'un cluster

Cette procédure explique le démarrage d'un cluster global ou d'un cluster de zones dont les noeuds ont été fermés. Pour les noeuds du cluster global, le système affiche l'invite ok sur les systèmes SPARC ou le message Press any key to continue sur les systèmes x86 basés sur GRUB.

L'élément phys-schost# fait référence à l'invite du cluster global. Appliquez cette procédure à un cluster global.

Cette procédure contient la forme longue des commandes de Oracle Solaris Cluster. La plupart des commandes possèdent également des formes brèves. A l'exception de la forme du nom, ces commandes sont identiques.


Remarque - Pour créer un cluster de zones, suivez les instructions de la section Création et configuration d’un cluster de zones du manuel Guide d’installation du logiciel Oracle Solaris Cluster.


  1. Initialisez chaque noeud en mode cluster.

    Effectuez toutes les étapes de cette procédure depuis un noeud du cluster global.

    • Sur les systèmes SPARC, exécutez la commande suivante :
      ok boot
    • Sur les systèmes x86, exécutez les commandes suivantes :

      Lorsque le menu GRUB s'affiche, sélectionnez l'entrée Oracle Solaris appropriée, puis appuyez sur la touche Entrée.

      Pour plus d'informations sur l'initialisation basée sur le GRUB, reportez-vous à la section Initialisation d’un système du manuel Initialisation et arrêt des systèmes Oracle Solaris 11.1.


      Remarque - Les noeuds doivent disposer d'une connexion qui fonctionne avec l'interconnexion de cluster pour atteindre l'appartenance au cluster.


    • Si vous avez un cluster de zones, vous pouvez initialiser le cluster de zones entier.
      phys-schost# clzonecluster boot zoneclustername
    • Si vous avez plus d'un cluster de zones, vous pouvez initialiser tous les clusters de zones. Utilisez + à la place de zoneclustername.
  2. Vérifiez que les noeuds ont été initialisés sans erreur et sont en ligne.

    L'exécution de la commande cluster status indique le statut des noeuds du cluster global.

    phys-schost# cluster status -t node

    L'exécution de la commande de statut clzonecluster status sur un noeud du cluster global indique l'état du noeud du cluster de zones.

    phys-schost# clzonecluster status

    Remarque - Si le système de fichiers /var d'un noeud se remplit, Oracle Solaris Cluster ne pourra peut-être pas redémarrer sur ce noeud. Si ce problème survient, reportez-vous à la section Réparation d'un système de fichiers /var complet. Pour plus d'informations, reportez-vous à la page de manuel clzonecluster(1CL).


Exemple 3-4 SPARC : Initialisation d'un cluster global

L'exemple suivant montre la sortie de console lorsque le noeud phys-schost-1 est initialisé dans le cluster global. Des messages similaires apparaissent sur les consoles des autres noeuds du cluster global. Lorsque la propriété de démarrage automatique d'un cluster de zones est définie sur true, le système initialise automatiquement le noeud du cluster de zones après avoir initialisé le noeud du cluster global sur cette machine.

Lorsqu'un noeud du cluster global est réinitialisé, tous les noeuds du cluster de zones sur cette machine s'arrêtent. Tout noeud du cluster de zones sur la même machine, et dont la propriété de démarrage automatique est définie sur true, est initialisé après le redémarrage du noeud du cluster global.

ok boot
Rebooting with command: boot 
...
Hostname: phys-schost-1
Booting as part of a cluster
NOTICE: Node phys-schost-1 with votecount = 1 added.
NOTICE: Node phys-schost-2 with votecount = 1 added.
NOTICE: Node phys-schost-3 with votecount = 1 added.
...
NOTICE: Node phys-schost-1: attempting to join cluster
...
NOTICE: Node phys-schost-2 (incarnation # 937690106) has become reachable.
NOTICE: Node phys-schost-3 (incarnation # 937690290) has become reachable.
NOTICE: cluster has reached quorum.
NOTICE: node phys-schost-1 is up; new incarnation number = 937846227.
NOTICE: node phys-schost-2 is up; new incarnation number = 937690106.
NOTICE: node phys-schost-3 is up; new incarnation number = 937690290.
NOTICE: Cluster members: phys-schost-1 phys-schost-2 phys-schost-3.
...

Réinitialisation d'un cluster

Pour fermer un cluster global, exécutez la commande cluster shutdown, puis initialisez le cluster global à l'aide de la commande boot sur chaque noeud. Pour fermer un cluster de zones utilisez la commande clzonecluster halt, puis utilisez la commande clzonecluster boot pour initialiser le cluster de zones. Vous pouvez également utiliser la commande clzonecluster reboot. Pour plus d'informations, reportez-vous aux pages de manuel cluster(1CL)boot(1M) et clzonecluster(1CL).

L'élément phys-schost# fait référence à l'invite du cluster global. Appliquez cette procédure à un cluster global.

Cette procédure contient la forme longue des commandes de Oracle Solaris Cluster. La plupart des commandes possèdent également des formes brèves. A l'exception de la forme du nom, ces commandes sont identiques.

  1. Si votre cluster exécute Oracle RAC, fermez toutes les instances de la base de données sur le cluster que vous fermez.

    Reportez-vous à la documentation produit de Oracle RAC pour les procédures de fermeture.

  2. Prenez un rôle disposant de l'autorisation RBAC solaris.cluster.admin sur tous les noeuds du cluster.

    Effectuez toutes les étapes de cette procédure depuis un noeud du cluster global.

  3. Arrêtez le cluster.
    • Arrêtez le cluster global.
      phys-schost# cluster shutdown -g0 -y 
    • Si vous avez un cluster de zones, fermez le cluster de zones depuis un noeud du cluster global.
      phys-schost# clzonecluster halt zoneclustername

    Chaque noeud est fermé. Vous pouvez également utiliser la commande cluster shutdown au sein d'un cluster de zones pour fermer le cluster de zones.


    Remarque - Les noeuds doivent disposer d'une connexion qui fonctionne avec l'interconnexion de cluster pour atteindre l'appartenance au cluster.


  4. Initialisez chaque noeud.

    L'ordre dans lequel les noeuds sont initialisés n'a pas d'importance, sauf si vous modifiez la configuration entre les fermetures. Si vous modifiez la configuration entre les fermetures, démarrez d'abord le noeud avec la configuration la plus récente.

    • Pour un noeud du cluster global d'un système SPARC, exécutez la commande suivante.

      ok boot
    • Pour un noeud du cluster global d'un système x86, exécutez les commandes suivantes.

      Lorsque le menu GRUB s'affiche, sélectionnez l'entrée SE Oracle Solaris appropriée, puis appuyez sur la touche Entrée.


    Remarque - Les noeuds doivent disposer d'une connexion qui fonctionne avec l'interconnexion de cluster pour atteindre l'appartenance au cluster.


    Pour plus d'informations sur l'initialisation basée sur le GRUB, reportez-vous à la section Initialisation d’un système du manuel Initialisation et arrêt des systèmes Oracle Solaris 11.1.

    • Pour un cluster de zones, entrez la commande suivante sur un noeud unique du cluster global pour initialiser le cluster de zones.

      phys-schost# clzonecluster boot zoneclustername

    Des messages apparaissent sur les consoles des noeuds initialisés en même temps que les composants du cluster sont activés.

  5. Vérifiez que les noeuds ont été initialisés sans erreur et sont en ligne.
    • La commande clnode status rapporte le statut des noeuds du cluster global.
      phys-schost# clnode status
    • L'exécution de la commande clzonecluster status sur un noeud du cluster global rapporte le statut des noeuds du cluster de zones.
      phys-schost# clzonecluster status

      Vous pouvez également exécuter la commande cluster status au sein d'un cluster de zones pour afficher le statut des noeuds.


      Remarque - Si le système de fichiers /var d'un noeud se remplit, Oracle Solaris Cluster ne pourra peut-être pas redémarrer sur ce noeud. Si ce problème survient, reportez-vous à la section Réparation d'un système de fichiers /var complet.


Exemple 3-5 Réinitialisation d'un cluster de zones

L'exemple suivant montre la procédure d'arrêt et d'initialisation d'un cluster de zones nommé sparse-sczone. Vous pouvez également utiliser la commande clzonecluster reboot.

phys-schost# clzonecluster halt sparse-sczone
Waiting for zone halt commands to complete on all the nodes of the zone cluster "sparse-sczone"...
Sep  5 19:17:46 schost-4 cl_runtime: NOTICE: Membership : Node 4 of cluster 'sparse-sczone' died.
Sep  5 19:17:46 schost-4 cl_runtime: NOTICE: Membership : Node 2 of cluster 'sparse-sczone' died.
Sep  5 19:17:46 schost-4 cl_runtime: NOTICE: Membership : Node 1 of cluster 'sparse-sczone' died.
Sep  5 19:17:46 schost-4 cl_runtime: NOTICE: Membership : Node 3 of cluster 'sparse-sczone' died.
phys-schost#
phys-schost# clzonecluster boot sparse-sczone
Waiting for zone boot commands to complete on all the nodes of the zone cluster "sparse-sczone"...
phys-schost# Sep  5 19:18:23 schost-4  cl_runtime: NOTICE: Membership : Node 1 of cluster
 'sparse-sczone' joined.
Sep  5 19:18:23 schost-4 cl_runtime: NOTICE: Membership : Node 2 of cluster 'sparse-sczone' joined.
Sep  5 19:18:23 schost-4 cl_runtime: NOTICE: Membership : Node 3 of cluster 'sparse-sczone' joined.
Sep  5 19:18:23 schost-4 cl_runtime: NOTICE: Membership : Node 4 of cluster 'sparse-sczone' joined.

phys-schost#
phys-schost# clzonecluster status

=== Zone Clusters ===

--- Zone Cluster Status ---

Name            Node Name   Zone HostName   Status   Zone Status
----            ---------   -------------   ------   -----------
sparse-sczone   schost-1    sczone-1        Online   Running
                schost-2    sczone-2        Online   Running
                schost-3    sczone-3        Online   Running
                schost-4    sczone-4        Online   Running
phys-schost# 

Exemple 3-6 SPARC : Réinitialisation d'un cluster global

L'exemple suivant montre la sortie de console lorsque l'opération normale du cluster global est arrêtée, que tous les noeuds sont fermés pour l'invite ok et que le cluster global est redémarré. L'option -g0 définit la période de grâce sur zéro et l'option -y fournit une réponse oui automatique à la question de confirmation. Les messages de fermeture apparaissent également sur les consoles des autres noeuds du cluster global.

phys-schost# cluster shutdown -g0 -y
Wed Mar 10 13:47:32 phys-schost-1 cl_runtime: 
WARNING: CMM monitoring disabled.
phys-schost-1# 
INIT: New run level: 0
The system is coming down.  Please wait.
...
The system is down.
syncing file systems... done
Program terminated
ok boot
Rebooting with command: boot 
...
Hostname: phys-schost-1
Booting as part of a cluster
...
NOTICE: Node phys-schost-1: attempting to join cluster
...
NOTICE: Node phys-schost-2 (incarnation # 937690106) has become reachable.
NOTICE: Node phys-schost-3 (incarnation # 937690290) has become reachable.
NOTICE: cluster has reached quorum.
...
NOTICE: Cluster members: phys-schost-1 phys-schost-2 phys-schost-3.
...
NOTICE: Node phys-schost-1: joined cluster
...
The system is coming up.  Please wait.
checking ufs filesystems
...
reservation program successfully exiting
Print services started.
volume management starting.
The system is ready.
phys-schost-1 console login:
NOTICE: Node phys-schost-1: joined cluster
...
The system is coming up.  Please wait.
checking ufs filesystems
...
reservation program successfully exiting
Print services started.
volume management starting.
The system is ready.
phys-schost-1 console login: