JavaScript is required to for searching.
Ignorer les liens de navigation
Quitter l'aperu
Guide d'administration système d'Oracle Solaris Cluster     Oracle Solaris Cluster (Français)
search filter icon
search icon

Informations document

Préface

1.  Introduction à l'administration d'Oracle Solaris Cluster

2.  Oracle Solaris Cluster et RBAC

3.  Fermeture et initialisation d'un cluster

4.  Méthodes de réplication de données

5.  Administration des périphériques globaux, du contrôle de chemin de disque et des systèmes de fichiers du cluster

6.  Gestion de Quorum

7.  Administration des interconnexions de cluster et des réseaux publics

8.  Ajout et suppression d'un noeligud

9.  Administration du cluster

Présentation de l'administration du cluster

Modification du nom du cluster

Comment modifier le nom de cluster si vous utilisez Veritas CVM

Mappage d'un ID sur le nom d'un noeligud

Authentification du nouveau noeligud du cluster

Réinitialisation de l'heure et de la date d'un cluster

SPARC : Affichage d'OpenBoot PROM (OBP) sur un noeligud

Modification du nom d'hôte privé d'un noeligud

Ajout d'un nom d'hôte privé à un noeligud non votant d'un cluster global

Modification du nom d'hôte privé d'un noeligud non votant d'un cluster global

Suppression d'un nom d'hôte privé d'un noeligud non votant d'un cluster global

Modification du nom d'un noeligud

Modification des noms d'hôte logiques à l'aide des ressources de noms d'hôte logiques Oracle Solaris Cluster existantes

Mise en mode de maintenance d'un noeligud

Arrêt du mode de maintenance d'un noeligud

Désinstallation de Oracle Solaris Cluster d'un noeligud du cluster

Dépannage de la désinstallation d'un noeligud

Entrées du système de fichiers du cluster non supprimées

Liste des groupes de périphériques non supprimée

Script de désinstallation manquant

Création, paramétrage et gestion de la base MIB d'événements SNMP de Oracle Solaris Cluster

Activation d'une base MIB d'événements SNMP

Désactivation d'une base MIB d'événements SNMP

Modification d'une base MIB d'événements SNMP

Activation des notifications de déroutement d'un hôte SNMP sur un noeligud

Désactivation des notifications de déroutement d'un hôte SNMP sur un noeligud

Ajout d'un utilisateur SNMP à un noeligud

Suppression d'un utilisateur SNMP à un noeligud

Configuration de limites de charge

Configuration de limites de charge sur un noeligud

Tâches d'administration d'un cluster de zones

Suppression d'un cluster de zones

Suppression d'un système de fichiers d'un cluster de zones

Suppression d'un périphérique de stockage d'un cluster de zones

Dépannage

Exécution d'une application à l'extérieur du cluster global

Mise en mode non cluster d'un ensemble de métadonnées Solaris Volume Manager depuis les noeliguds initialisés

Restauration d'un ensemble de disques altéré

Enregistrement de la configuration du logiciel Solaris Volume Manager

Purge de l'ensemble de disques corrompus

Recréation de la configuration du logiciel Solaris Volume Manager

10.  Configuration du contrôle de l'utilisation du CPU

11.  Mise à jour du logiciel ou installation d'un microprogramme Oracle Solaris Cluster

12.  Sauvegarde et restauration d'un cluster

13.  Administration de Oracle Solaris Cluster avec les interfaces graphiques

A.  exemple

Index

Tâches d'administration d'un cluster de zones

Vous pouvez effectuer les autres tâches d'administration dans un cluster de zones. Cela comprend la suppression d'un chemin d'accès de la zone, la préparation d'un cluster de zones afin d'exécuter des applications ou son clonage. Toutes ces commandes doivent être exécutées depuis le nœud de vote du cluster global.


Remarque - Les commandes Oracle Solaris Cluster devant être uniquement exécutées depuis le nœud non votant du cluster global, ne peuvent pas être utilisées dans les clusters de zones. Pour savoir comment exécuter correctement une commande dans une zone, reportez-vous à la page de manuel Oracle Solaris Cluster appropriée.


Tableau 9-3 Autres tâches du cluster de zones

Tâche
Instructions
Déplacez le chemin d'accès à la zone vers un nouveau chemin d'accès.
clzonecluster move -f zonepath zoneclustername
Préparez le cluster de zones afin d'y exécuter des applications.
clzonecluster ready -n nodename zoneclustername
Clonez un cluster de zones.
clzonecluster clone -Z source- zoneclustername [-m copymethod] zoneclustername

Arrêtez le cluster de zones source, avant d'exécuter la sous-commande clone. Le cluster de la zone cible doit déjà être configuré.

Supprimez un cluster de zones.
Supprimez un système de fichiers d'un cluster de zones.
Supprimez un périphérique de stockage d'un cluster de zones.
Dépannez la désinstallation d'un nœud.
Créez, paramétrez et gérez la base MIB d'événements SNMP d'Oracle Solaris Cluster.

Suppression d'un cluster de zones

Vous pouvez supprimer un cluster de zones spécifique ou utiliser un caractère générique pour supprimer tous les clusters de zones qui sont configurés sur le cluster global. Vous devez configurer le cluster de zones avant de le supprimer.

  1. Connectez-vous en tant que superutilisateur ou adoptez un rôle octroyant une autorisation reposant sur un contrôle d'accès à base de rôles de type solaris.cluster.modify sur le nœud du cluster global. Effectuez toutes les étapes de cette procédure depuis un nœud du cluster global.
  2. Supprimez tous les groupes de ressources et les ressources qui leur sont associées du cluster de zones.
    phys-schost# clresourcegroup delete -F -Z zoneclustername +

    Remarque - Cette étape doit être effectuée depuis un nœud du cluster global. Pour effectuer cette étape plutôt depuis un nœud du cluster de zones, connectez-vous sur le nœud du cluster de zones et n'indiquez pas l'option -Zzonecluster dans la commande.


  3. Arrêtez le cluster de zones.
    phys-schost# clzonecluster halt zoneclustername
  4. Annulez l'installation du cluster de zones.
    phys-schost# clzonecluster uninstall zoneclustername
  5. Annulez la configuration du cluster de zones.
    phys-schost# clzonecluster delete zoneclustername

Exemple 9-11 Suppression d'un cluster de zones d'un cluster global

phys-schost# clresourcegroup delete -F -Z sczone +
phys-schost# clzonecluster halt sczone
phys-schost# clzonecluster uninstall sczone
phys-schost# clzonecluster delete sczone

Suppression d'un système de fichiers d'un cluster de zones

Un système de fichiers peut être exporté vers un cluster de zones à l'aide d'un montage direct ou d'un montage en boucle.

Les clusters de zones prennent en charge les montages directs des fichiers suivants :

Les clusters de zones prennent en charge les montages en boucle des fichiers suivants :

Vous pouvez configurer une ressource HAStoragePlus ou ScalMountPoint pour gérer le montage du système de fichiers. Pour savoir comment ajouter un système de fichiers à un cluster de zones, reportez-vous la section Ajout de systèmes de fichiers à un cluster de zones du Guide d’installation du logiciel Oracle Solaris Cluster.

L'élément phys-schost# fait référence à l'invite du cluster global. Cette procédure contient la forme longue des commandes de Oracle Solaris Cluster. La plupart des commandes possèdent également des formes brèves. À l'exception de la forme du nom, ces commandes sont identiques.

  1. Connectez-vous en tant que superutilisateur sur un nœud du cluster global hébergeant le cluster de zones. Certaines étapes de cette procédure doivent être effectuées depuis un nœud du cluster global. Les autres tâches sont à effectuer depuis un nœud du cluster de zones.
  2. Supprimez les ressources associées au système de fichiers à supprimer.
    1. Identifiez et supprimez les types de ressources Oracle Solaris Cluster, tels que HAStoragePlus et SUNW.ScalMountPoint, configurés sur le système de fichiers du cluster de zones à supprimer.
      phys-schost# clresource delete -F -Z zoneclustername fs_zone_resources
    2. Identifiez et supprimez les ressources Oracle Solaris Cluster de type SUNW.qfs qui sont configurées dans le cluster global du système de fichiers à supprimer, le cas échéant.
      phys-schost# clresource delete -F fs_global_resources

      Utilisez l'option -F avec précaution : elle force la suppression de toutes les ressources spécifiées, même si vous ne les avez pas désactivées au préalable. Toutes les ressources spécifiées sont supprimées des paramètres de dépendance des autres ressources. Cela peut provoquer un arrêt du service dans le cluster. Les ressources dépendant d'autres ressources qui n'ont pas été supprimée, peuvent être conservées en tant que non valides ou erreurs. Pour plus d'informations, reportez-vous à la page de manuel clresource(1CL).


    Astuce - Si le groupe de la ressource supprimée ne contient par la suite plus aucune ressource, vous pouvez le supprimer en toute sécurité.


  3. Déterminez le chemin d'accès au répertoire du point de montage du système de fichiers. Par exemple :
    phys-schost# clzonecluster configure zoneclustername
  4. Supprimez le système de fichiers de la configuration du cluster de zones.
    phys-schost# clzonecluster configure zoneclustername
    clzc:zoneclustername> remove fs dir=filesystemdirectory
    clzc:zoneclustername> commit

    L'option dir= spécifie le point de montage du système de fichiers.

  5. Vérifiez la suppression du système de fichiers.
    phys-schost# clzonecluster show -v zoneclustername

Exemple 9-12 Suppression d'un système de fichiers hautement disponible d'un cluster de zones

L'exemple suivant montre comment supprimer un système de fichiers avec un répertoire de point de montage (/local/ufs-1) configuré dans un cluster de zones se nommant sczone. Cette ressource se nomme hasp-rs et elle est de type HAStoragePlus.

phys-schost# clzonecluster show -v sczone
...
 Resource Name:                           fs
   dir:                                     /local/ufs-1
   special:                                 /dev/md/ds1/dsk/d0
   raw:                                     /dev/md/ds1/rdsk/d0
   type:                                    ufs
   options:                                 [logging]
 ...
phys-schost# clresource delete -F -Z sczone hasp-rs
phys-schost# clzonecluster configure sczone
clzc:sczone> remove fs dir=/local/ufs-1
clzc:sczone> commit
phys-schost# clzonecluster show -v sczone

Exemple 9-13 Suppression d'un système de fichiers ZFS hautement disponible dans un cluster de zones

L'exemple suivant montre comment supprimer d'un pool ZFS appelé HAzpool, un système de fichiers ZFS configuré dans la ressource hasp-rs de type SUNW.HAStoragePlus du cluster de zones sczone.

phys-schost# clzonecluster show -v sczone
...
 Resource Name:                           dataset
   name:                                     HAzpool
...
phys-schost# clresource delete -F -Z sczone hasp-rs
phys-schost# clzonecluster configure sczone
clzc:sczone> remove dataset name=HAzpool
clzc:sczone> commit
phys-schost# clzonecluster show -v sczone

Suppression d'un périphérique de stockage d'un cluster de zones

Vous pouvez supprimer les périphériques de stockage, tels que les ensembles de disques SVM et les périphériques DID, d'un cluster de zones. Suivez cette procédure pour supprimer un périphérique de stockage d'un cluster de zones.

  1. Connectez-vous en tant que superutilisateur sur un nœud du cluster global hébergeant le cluster de zones. Certaines étapes de cette procédure doivent être effectuées depuis un nœud du cluster global. Vous pouvez effectuer les autres tâches depuis un nœud du cluster de zones.
  2. Supprimez les ressources associées au périphérique à supprimer. Identifiez et supprimez les types de ressources Oracle Solaris Cluster, tels que SUNW.HAStoragePlus et SUNW.ScalDeviceGroup, configurés sur les périphériques du cluster de zones à supprimer.
    phys-schost# clresource delete -F -Z zoneclustername dev_zone_resources
  3. Déterminez l'entrée correspondant aux périphériques à supprimer.
    phys-schost# clzonecluster show -v zoneclustername
    ...
     Resource Name:       device
        match:              <device_match>
     ...
  4. Supprimez les périphériques de la configuration du cluster de zones.
    phys-schost# clzonecluster configure zoneclustername
    clzc:zoneclustername> remove device match=<devices_match>
    clzc:zoneclustername> commit
    clzc:zoneclustername> end
  5. Réinitialisez le cluster de zones.
    phys-schost# clzonecluster reboot zoneclustername
  6. Vérifiez la suppression des périphériques.
    phys-schost# clzonecluster show -v zoneclustername

Exemple 9-14 Suppression d'un ensemble de disques SVM d'un cluster de zones

L'exemple suivant montre comment supprimer un ensemble de disques SVM apachedg configuré dans un cluster de zones se nommant sczone. Le nombre de l'ensemble de disques apachedg est égal à 3. Les périphériques sont utilisés par la ressource zc_rs configurée dans le cluster.

phys-schost# clzonecluster show -v sczone
...
  Resource Name:      device
     match:             /dev/md/apachedg/*dsk/*
  Resource Name:      device
     match:             /dev/md/shared/3/*dsk/*
...
phys-schost# clresource delete -F -Z sczone zc_rs

phys-schost# ls -l /dev/md/apachedg
lrwxrwxrwx 1 root root 8 Jul 22 23:11 /dev/md/apachedg -> shared/3
phys-schost# clzonecluster configure sczone
clzc:sczone> remove device match=/dev/md/apachedg/*dsk/*
clzc:sczone> remove device match=/dev/md/shared/3/*dsk/*
clzc:sczone> commit
clzc:sczone> end
phys-schost# clzonecluster reboot sczone
phys-schost# clzonecluster show -v sczone

Exemple 9-15 Suppression d'un périphérique DID d'un cluster de zones

L'exemple suivant montre comment supprimer des périphériques DID d10 et d11, qui sont configurés dans un cluster de zones se nommant sczone. Les périphériques sont utilisés par la ressource zc_rs configurée dans le cluster.

phys-schost# clzonecluster show -v sczone
...
 Resource Name:       device
     match:             /dev/did/*dsk/d10*
 Resource Name:       device
    match:              /dev/did/*dsk/d11*
...
phys-schost# clresource delete -F -Z sczone zc_rs
phys-schost# clzonecluster configure sczone
clzc:sczone> remove device match=/dev/did/*dsk/d10*
clzc:sczone> remove device match=/dev/did/*dsk/d11*
clzc:sczone> commit
clzc:sczone> end
phys-schost# clzonecluster reboot sczone
phys-schost# clzonecluster show -v sczone