JavaScript is required to for searching.
Ignorer les liens de navigation
Quitter l'aperu
Guide d'administration système d'Oracle Solaris Cluster     Oracle Solaris Cluster 4.0 (Français)
search filter icon
search icon

Informations document

Préface

1.  Présentation de l'administration d'Oracle Solaris Cluster

2.  Oracle Solaris Cluster et RBAC

3.  Fermeture et initialisation d'un cluster

4.  Méthodes de réplication de données

5.  Administration des périphériques globaux, du contrôle de chemin de disque et des systèmes de fichiers de cluster

6.  Gestion du quorum

7.  Administration des interconnexions de cluster et des réseaux publics

8.  Ajout et suppression d'un noeud

9.  Administration du cluster

Présentation de l'administration du cluster

Modification du nom du cluster

Mappage d'un ID sur le nom d'un noeud

Authentification du nouveau noeud du cluster

Réinitialisation de l'heure et de la date d'un cluster

SPARC : Affichage d'OpenBoot PROM (OBP) sur un noeud

Modification du nom d'hôte privé d'un noeud

Modification du nom d'un noeud

Modification des noms d'hôtes logiques à l'aide des ressources de noms d'hôtes logiques Oracle Solaris Cluster existantes

Mise en mode de maintenance d'un noeud

Arrêt du mode de maintenance d'un noeud

Désinstallation de Oracle Solaris Cluster d'un noeud du cluster

Dépannage de la désinstallation d'un noeud

Entrées du système de fichiers de cluster non supprimées

Entrée non supprimée dans la liste des groupes de périphériques

Création, paramétrage et gestion de la base MIB d'événements SNMP de Oracle Solaris Cluster

Activation d'une base MIB d'événements SNMP

Désactivation d'une base MIB d'événements SNMP

Modification d'une base MIB d'événements SNMP

Activation des notifications de déroutement d'un hôte SNMP sur un noeud

Désactivation des notifications de déroutement d'un hôte SNMP sur un noeud

Ajout d'un utilisateur SNMP à un noeud

Suppression d'un utilisateur SNMP à un noeud

Configuration de limites de charge

Configuration de limites de charge sur un noeud

Modification des numéros de port des services ou agents de gestion

Utilisation du conteneur d'agent commun pour modifier les numéros de port des services ou agents de gestion

Tâches d'administration d'un cluster de zones

Suppression d'un cluster de zones

Suppression d'un système de fichiers d'un cluster de zones

Suppression d'un périphérique de stockage d'un cluster de zones

Dépannage

Exécution d'une application à l'extérieur du cluster global

Mise en mode non cluster d'un ensemble de métadonnées Solaris Volume Manager depuis les noeuds initialisés

Restauration d'un ensemble de disques altéré

Enregistrement de la configuration du logiciel Solaris Volume Manager

Purge de l'ensemble de disques corrompus

Recréation de la configuration du logiciel Solaris Volume Manager

10.  Configuration du contrôle de l'utilisation de la CPU

11.  Mise à jour du logiciel

12.  Sauvegarde et restauration d'un cluster

A.  Exemple

Index

Tâches d'administration d'un cluster de zones

Vous pouvez effectuer les autres tâches d'administration dans un cluster de zones. Cela comprend la suppression d'un chemin d'accès à la zone, la préparation d'un cluster de zones afin d'exécuter des applications ou son clonage. Toutes ces commandes doivent être exécutées depuis le noeud de vote du cluster global.


Remarque - Les zones d'un cluster de zones sont configurées quand vous exécutez la commande clzonecluster install - c pour configurer les profils. Reportez-vous à la section Configuration d’un cluster de zones du manuel Guide d’installation du logiciel Oracle Solaris Cluster pour plus d'informations sur l'utilisation de l'option -c config_profile.



Remarque - Les commandes Oracle Solaris Cluster devant être uniquement exécutées depuis le noeud non votant du cluster global, ne peuvent pas être utilisées dans les clusters de zones. Pour savoir comment exécuter correctement une commande dans une zone, reportez-vous à la page de manuel Oracle Solaris Cluster appropriée.


Tableau 9-3 Autres tâches du cluster de zones

Tâche
Instructions
Déplacement du chemin d'accès à la zone vers un nouveau chemin d'accès
clzonecluster move -f zonepath zoneclustername
Préparation du cluster de zones en vue d'y exécuter des applications
clzonecluster ready -n nodename zoneclustername
Clonage d'un cluster de zones
clzonecluster clone -Z source- zoneclustername [-m copymethod] zoneclustername

Arrêtez le cluster de zones source, avant d'exécuter la sous-commande clone. Le cluster de la zone cible doit déjà être configuré.

Suppression d'un cluster de zones
Suppression d'un système de fichiers d'un cluster de zones
Suppression d'un périphérique de stockage d'un cluster de zones
Dépannage de la désinstallation d'un noeud
Création, paramétrage et gestion de la base MIB d'événements SNMP d'Oracle Solaris Cluster

Suppression d'un cluster de zones

Vous pouvez supprimer un cluster de zones spécifique ou utiliser un caractère générique pour supprimer tous les clusters de zones qui sont configurés sur le cluster global. Vous devez configurer le cluster de zones avant de le supprimer.

  1. Connectez-vous en tant que superutilisateur ou en tant qu'utilisateur disposant des droits d'autorisation RBCA solaris.cluster.modify sur le noeud du cluster global.

    Effectuez toutes les étapes de cette procédure depuis un noeud du cluster global.

  2. Supprimez tous les groupes de ressources et les ressources qui leur sont associées du cluster de zones.
    phys-schost# clresourcegroup delete -F -Z zoneclustername +

    Remarque - Cette étape doit être effectuée depuis un noeud du cluster global. Pour effectuer cette étape plutôt depuis un noeud du cluster de zones, connectez-vous sur le noeud du cluster de zones et n'indiquez pas l'option -Z zonecluster dans la commande.


  3. Arrêtez le cluster de zones.
    phys-schost# clzonecluster halt zoneclustername
  4. Annulez l'installation du cluster de zones.
    phys-schost# clzonecluster uninstall zoneclustername
  5. Annulez la configuration du cluster de zones.
    phys-schost# clzonecluster delete zoneclustername

Exemple 9-11 Suppression d'un cluster de zones d'un cluster global

phys-schost# clresourcegroup delete -F -Z sczone +
phys-schost# clzonecluster halt sczone
phys-schost# clzonecluster uninstall sczone
phys-schost# clzonecluster delete sczone

Suppression d'un système de fichiers d'un cluster de zones

Un système de fichiers peut être exporté vers un cluster de zones à l'aide d'un montage direct ou d'un montage loopback.

Les clusters de zones prennent en charge les montages directs des fichiers suivants :

Les clusters de zones prennent en charge les montages loopback des fichiers suivants :

Vous configurez une ressource HAStoragePlus ou ScalMountPoint pour gérer le montage du système de fichiers. Pour savoir comment ajouter un système de fichiers à un cluster de zones, reportez-vous la section Ajout de systèmes de fichiers à un cluster de zones du manuel Guide d’installation du logiciel Oracle Solaris Cluster.

L'élément phys-schost# fait référence à l'invite du cluster global. Cette procédure contient la forme longue des commandes de Oracle Solaris Cluster. La plupart des commandes possèdent également des formes brèves. A l'exception de la forme du nom, ces commandes sont identiques.

  1. Connectez-vous en tant que superutilisateur à un noeud du cluster global hébergeant le cluster de zones.

    Certaines étapes de cette procédure doivent être effectuées depuis un noeud du cluster global. Les autres tâches sont à effectuer depuis un noeud du cluster de zones.

  2. Supprimez les ressources associées au système de fichiers à supprimer.
    1. Identifiez et supprimez les types de ressources Oracle Solaris Cluster, tels que HAStoragePlus et SUNW.ScalMountPoint, configurés pour le système de fichiers du cluster de zones à supprimer.
      phys-schost# clresource delete -F -Z zoneclustername fs_zone_resources
    2. Identifiez et supprimez les ressources Oracle Solaris Cluster configurées dans le cluster global du système de fichiers à supprimer, le cas échéant.
      phys-schost# clresource delete -F fs_global_resources

      Utilisez l'option -F avec précaution : elle force la suppression de toutes les ressources spécifiées, même si vous ne les avez pas désactivées au préalable. Toutes les ressources spécifiées sont supprimées des paramètres de dépendance des autres ressources. Cela peut provoquer un arrêt du service dans le cluster. Les ressources dépendant d'autres ressources qui n'ont pas été supprimée, peuvent être conservées en tant que non valides ou erreurs. Pour de plus amples informations, reportez-vous à la page de manuel clresource(1CL).


    Astuce - Si le groupe de la ressource supprimée ne contient par la suite plus aucune ressource, vous pouvez le supprimer en toute sécurité.


  3. Déterminez le chemin d'accès au répertoire du point de montage du système de fichiers.

    Par exemple :

    phys-schost# clzonecluster configure zoneclustername
  4. Supprimez le système de fichiers de la configuration du cluster de zones.
    phys-schost# clzonecluster configure zoneclustername
    clzc:zoneclustername> remove fs dir=filesystemdirectory
    clzc:zoneclustername> commit

    L'option dir= spécifie le point de montage du système de fichiers.

  5. Vérifiez la suppression du système de fichiers.
    phys-schost# clzonecluster show -v zoneclustername

Exemple 9-12 Suppression d'un système de fichiers hautement disponible d'un cluster de zones

L'exemple suivant montre comment supprimer un système de fichiers avec un répertoire de point de montage (/local/ufs-1) configuré dans un cluster de zones se nommant sczone. Cette ressource se nomme hasp-rs et elle est de type HAStoragePlus.

phys-schost# clzonecluster show -v sczone
...
 Resource Name:                           fs
   dir:                                     /local/ufs-1
   special:                                 /dev/md/ds1/dsk/d0
   raw:                                     /dev/md/ds1/rdsk/d0
   type:                                    ufs
   options:                                 [logging]
 ...
phys-schost# clresource delete -F -Z sczone hasp-rs
phys-schost# clzonecluster configure sczone
clzc:sczone> remove fs dir=/local/ufs-1
clzc:sczone> commit
phys-schost# clzonecluster show -v sczone

Exemple 9-13 Suppression d'un système de fichiers ZFS hautement disponible dans un cluster de zones

L'exemple suivant illustre la suppression d'un système de fichiers ZFS dans un pool ZFS appelé HAzpool, lequel est configuré dans la ressource hasp-rs de type SUNW.HAStoragePlus du cluster de zones sczone.

phys-schost# clzonecluster show -v sczone
...
 Resource Name:                           dataset
   name:                                     HAzpool
...
phys-schost# clresource delete -F -Z sczone hasp-rs
phys-schost# clzonecluster configure sczone
clzc:sczone> remove dataset name=HAzpool
clzc:sczone> commit
phys-schost# clzonecluster show -v sczone

Suppression d'un périphérique de stockage d'un cluster de zones

Vous pouvez supprimer d'un cluster de zones des périphériques de stockage, tels que les ensembles de disques Solaris Volume Manager et les périphériques DID. Suivez cette procédure pour supprimer un périphérique de stockage d'un cluster de zones.

  1. Connectez-vous en tant que superutilisateur à un noeud du cluster global hébergeant le cluster de zones.

    Certaines étapes de cette procédure doivent être effectuées depuis un noeud du cluster global. Vous pouvez effectuer les autres tâches depuis un noeud du cluster de zones.

  2. Supprimez les ressources associées au périphérique à supprimer.

    Identifiez et supprimez les types de ressources Oracle Solaris Cluster, tels que SUNW.HAStoragePlus et SUNW.ScalDeviceGroup, configurés sur les périphériques du cluster de zones à supprimer.

    phys-schost# clresource delete -F -Z zoneclustername dev_zone_resources
  3. Déterminez l'entrée correspondant aux périphériques à supprimer.
    phys-schost# clzonecluster show -v zoneclustername
    ...
     Resource Name:       device
        match:              <device_match>
     ...
  4. Supprimez les périphériques de la configuration du cluster de zones.
    phys-schost# clzonecluster configure zoneclustername
    clzc:zoneclustername> remove device match=<devices_match>
    clzc:zoneclustername> commit
    clzc:zoneclustername> end
  5. Réinitialisez le cluster de zones.
    phys-schost# clzonecluster reboot zoneclustername
  6. Vérifiez la suppression des périphériques.
    phys-schost# clzonecluster show -v zoneclustername

Exemple 9-14 Suppression d'un ensemble de disques SVM d'un cluster de zones

L'exemple suivant montre comment supprimer un ensemble de disques SVM apachedg configuré dans un cluster de zones se nommant sczone. Le nombre de l'ensemble de disques apachedg est égal à 3. Les périphériques sont utilisés par la ressource zc_rs configurée dans le cluster.

phys-schost# clzonecluster show -v sczone
...
  Resource Name:      device
     match:             /dev/md/apachedg/*dsk/*
  Resource Name:      device
     match:             /dev/md/shared/3/*dsk/*
...
phys-schost# clresource delete -F -Z sczone zc_rs

phys-schost# ls -l /dev/md/apachedg
lrwxrwxrwx 1 root root 8 Jul 22 23:11 /dev/md/apachedg -> shared/3
phys-schost# clzonecluster configure sczone
clzc:sczone> remove device match=/dev/md/apachedg/*dsk/*
clzc:sczone> remove device match=/dev/md/shared/3/*dsk/*
clzc:sczone> commit
clzc:sczone> end
phys-schost# clzonecluster reboot sczone
phys-schost# clzonecluster show -v sczone

Exemple 9-15 Suppression d'un périphérique DID d'un cluster de zones

L'exemple suivant montre comment supprimer des périphériques DID d10 et d11, qui sont configurés dans un cluster de zones se nommant sczone. Les périphériques sont utilisés par la ressource zc_rs configurée dans le cluster.

phys-schost# clzonecluster show -v sczone
...
 Resource Name:       device
     match:             /dev/did/*dsk/d10*
 Resource Name:       device
    match:              /dev/did/*dsk/d11*
...
phys-schost# clresource delete -F -Z sczone zc_rs
phys-schost# clzonecluster configure sczone
clzc:sczone> remove device match=/dev/did/*dsk/d10*
clzc:sczone> remove device match=/dev/did/*dsk/d11*
clzc:sczone> commit
clzc:sczone> end
phys-schost# clzonecluster reboot sczone
phys-schost# clzonecluster show -v sczone