JavaScript is required to for searching.
Ignorer les liens de navigation
Quitter l'aperu
Guide d'administration système d'Oracle Solaris Cluster     Oracle Solaris Cluster 4.0 (Français)
search filter icon
search icon

Informations document

Préface

1.  Présentation de l'administration d'Oracle Solaris Cluster

2.  Oracle Solaris Cluster et RBAC

3.  Fermeture et initialisation d'un cluster

4.  Méthodes de réplication de données

5.  Administration des périphériques globaux, du contrôle de chemin de disque et des systèmes de fichiers de cluster

6.  Gestion du quorum

7.  Administration des interconnexions de cluster et des réseaux publics

8.  Ajout et suppression d'un noeud

9.  Administration du cluster

Présentation de l'administration du cluster

Modification du nom du cluster

Mappage d'un ID sur le nom d'un noeud

Authentification du nouveau noeud du cluster

Réinitialisation de l'heure et de la date d'un cluster

SPARC : Affichage d'OpenBoot PROM (OBP) sur un noeud

Modification du nom d'hôte privé d'un noeud

Modification du nom d'un noeud

Modification des noms d'hôtes logiques à l'aide des ressources de noms d'hôtes logiques Oracle Solaris Cluster existantes

Mise en mode de maintenance d'un noeud

Arrêt du mode de maintenance d'un noeud

Désinstallation de Oracle Solaris Cluster d'un noeud du cluster

Dépannage de la désinstallation d'un noeud

Entrées du système de fichiers de cluster non supprimées

Entrée non supprimée dans la liste des groupes de périphériques

Création, paramétrage et gestion de la base MIB d'événements SNMP de Oracle Solaris Cluster

Activation d'une base MIB d'événements SNMP

Désactivation d'une base MIB d'événements SNMP

Modification d'une base MIB d'événements SNMP

Activation des notifications de déroutement d'un hôte SNMP sur un noeud

Désactivation des notifications de déroutement d'un hôte SNMP sur un noeud

Ajout d'un utilisateur SNMP à un noeud

Suppression d'un utilisateur SNMP à un noeud

Configuration de limites de charge

Configuration de limites de charge sur un noeud

Modification des numéros de port des services ou agents de gestion

Utilisation du conteneur d'agent commun pour modifier les numéros de port des services ou agents de gestion

Tâches d'administration d'un cluster de zones

Suppression d'un cluster de zones

Suppression d'un système de fichiers d'un cluster de zones

Suppression d'un périphérique de stockage d'un cluster de zones

Dépannage

Exécution d'une application à l'extérieur du cluster global

Mise en mode non cluster d'un ensemble de métadonnées Solaris Volume Manager depuis les noeuds initialisés

Restauration d'un ensemble de disques altéré

Enregistrement de la configuration du logiciel Solaris Volume Manager

Purge de l'ensemble de disques corrompus

Recréation de la configuration du logiciel Solaris Volume Manager

10.  Configuration du contrôle de l'utilisation de la CPU

11.  Mise à jour du logiciel

12.  Sauvegarde et restauration d'un cluster

A.  Exemple

Index

Dépannage

Cette section contient une procédure de dépannage pouvant être utilisée pour effectuer des tests.

Exécution d'une application à l'extérieur du cluster global

Mise en mode non cluster d'un ensemble de métadonnées Solaris Volume Manager depuis les noeuds initialisés

Suivez cette procédure pour exécuter une application en dehors du cluster global, afin d'effectuer des tests.

  1. Déterminez si le périphérique de quorum est utilisé dans l'ensemble de métadonnées Solaris Volume Manager et si ce dernier utilise des réservations SCSI2 ou SCSI3.
    phys-schost# clquorum show
    1. Si le périphérique de quorum se trouve dans l'ensemble de métadonnées Solaris Volume Manager, ajoutez le nouveau périphérique de quorum qui ne fait pas partie de l'ensemble de métadonnées à mettre ensuite en mode non cluster.
      phys-schost# clquorum add did
    2. Supprimez l'ancien périphérique de quorum.
      phys-schost# clqorum remove did
    3. Si le périphérique de quorum utilise une réservation SCSI2, purgez la réservation SCSI2 de l'ancien quorum et assurez-vous qu'il ne reste aucune réservation SCSI2.

      Pour apprendre à exécuter les commandes pgre, vous devez installer et utiliser l'outil de diagnostic (ha-cluster/diagnostic/tool-kit) fourni par le support technique d'Oracle.

  2. Evacuez le noeud du cluster global à initialiser en mode non cluster.
    phys-schost# clresourcegroup evacuate -n targetnode
  3. Mettez hors ligne toute ressource ou tout groupe de ressources contenant des ressources HAStorage ou HAStoragePlus et des périphériques ou systèmes de fichiers affectés par l'ensemble de métadonnées à mettre en suite en mode non cluster.
    phys-schost# clresourcegroup offline resourcegroupname
  4. Désactivez tous les ressources du groupe mis hors ligne.
    phys-schost# clresource disable resourcename
  5. Annulez la gestion des groupes de ressources.
    phys-schost# clresourcegroup unmanage resourcegroupname
  6. Mettez hors ligne le ou les groupes de périphériques correspondants.
    phys-schost# cldevicegroup offline devicegroupname
  7. Désactivez le ou les groupes de périphériques.
    phys-schost# cldevicegroup disable devicegroupname
  8. Initialisez le noeud passif en mode non cluster.
    phys-schost# reboot -x
  9. Assurez-vous que le processus d'initialisation du noeud passif est terminé avant de continuer.
    phys-schost# svcs -x
  10. Vérifiez l'existence de réservations SCSI3 sur les disques des ensembles de métadonnées.

    Exécutez la commande suivante sur tous les disques des ensembles de métadonnées :

    phys-schost# /usr/cluster/lib/sc/scsi -c inkeys -d /dev/did/rdsk/dids2
  11. Si les disques contiennent des réservations SCSI3, purgez-les.
    phys-schost# /usr/cluster/lib/sc/scsi -c scrub -d /dev/did/rdsk/dids2
  12. Placez l'ensemble de métadonnées sur le noeud évacué.
    phys-schost# metaset -s name -C take -f
  13. Montez le ou les systèmes de fichiers contenant le périphérique défini sur l'ensemble de métadonnées.
    phys-schost# mount device mountpoint
  14. Démarrez l'application et effectuez le test. Une fois que le test est terminé, arrêtez l'application.
  15. Réinitialisez le noeud et attendez que ce processus se termine.
    phys-schost# reboot
  16. Mettez en ligne le ou les groupes de périphériques.
    phys-schost# cldevicegroup online -e devicegroupname
  17. Démarrez le ou les groupes de ressources.
    phys-schost# clresourcegroup online -emM resourcegroupname 

Restauration d'un ensemble de disques altéré

Utilisez cette procédure si un ensemble de disques est corrompu ou dans un état tel que les noeuds du cluster ne peuvent pas en devenir les propriétaires. Si vous tentez de rétablir son état sans succès, cette procédure vous permettra, en dernier recours, de réparer l'ensemble de disques.

Ces procédures s'appliquent aux ensembles de métadonnées Solaris Volume Manager et aux ensembles de métadonnées multipropriétaires Solaris Volume Manager.

Enregistrement de la configuration du logiciel Solaris Volume Manager

La restauration d'un ensemble de disques à son état d'origine peut prendre un certain temps et engendrer des erreurs. Une meilleure solution consiste à utiliser la commande metastat pour sauvegarder régulièrement les répliques ou à utiliser Oracle Explorer (SUNWexplo) pour créer une sauvegarde. Vous pouvez ensuite utiliser la configuration enregistrée pour recréer l'ensemble de disques. Vous devez enregistrer la configuration actuelle dans des fichiers (à l'aide des commandes prtvtoc et metastat), puis recréer l'ensemble de disques et ses composants. Reportez-vous à la section Recréation de la configuration du logiciel Solaris Volume Manager.

  1. Enregistrez la table de partition pour chaque disque de l'ensemble de disques.
    # /usr/sbin/prtvtoc /dev/global/rdsk/diskname > /etc/lvm/diskname.vtoc
  2. Enregistrez la configuration du logiciel Solaris Volume Manager.
    # /bin/cp /etc/lvm/md.tab /etc/lvm/md.tab_ORIGINAL
    # /usr/sbin/metastat -p -s setname >> /etc/lvm/md.tab

    Remarque - Les autres fichiers de configuration, tels que le fichier /etc/vfstab, peuvent faire référence au logiciel Solaris Volume Manager. Cette procédure suppose que vous avez recréé une configuration du logiciel Solaris Volume Manager identique et ainsi généré les mêmes informations de montage. Si Oracle Explorer (SUNWexplo) est exécuté sur un noeud propriétaire de l'ensemble, il récupère les informations des commandes prtvtoc et metaset —p.


Purge de l'ensemble de disques corrompus

L'opération de purge d'un ensemble à partir d'un noeud ou de tous les noeuds supprime la configuration. Pour purger un ensemble de disques à partir d'un noeud, ce noeud ne doit pas être propriétaire de l'ensemble de disques.

  1. Exécutez la commande de purge sur tous les noeuds.
    # /usr/sbin/metaset -s setname -P

    L'exécution de cette commande supprime les informations de l'ensemble de disques des répliques de la base de données et du référentiel Oracle Solaris Cluster. Les options -P et -C permettent de purger un ensemble de disques sans qu'il soit nécessaire de reconstruire complètement l'environnement Solaris Volume Manager.


    Remarque - Si un ensemble de disques multipropriétaire est purgé pendant la réinitialisation de noeuds dans un autre mode que le mode cluster, vous aurez probablement besoin d'installer et d'utiliser l'outil de diagnostic (ha-cluster/diagnostic/tool-kit) fourni par le support Oracle. Cet outil supprime les informations issues des fichiers de configuration dcs. Reportez-vous à l'Étape 2.


  2. Si vous voulez uniquement supprimer les informations de l'ensemble de disques contenues dans les répliques de la base de données, exécutez la commande suivante.
    # /usr/sbin/metaset -s setname -C purge

    L'option -P est généralement plus utile que l'option -C. L'option -C peut générer des erreurs lors de la recréation de l'ensemble de disques, car le logiciel Oracle Solaris Cluster continue de reconnaître l'ensemble.

    1. Si vous avez utilisé l'option -C avec la commande metaset, commencez par créer l'ensemble de disques pour vérifier qu'aucun problème ne se produit.
    2. Si vous détectez un problème, supprimez les informations des fichiers de configuration dcs à l'aide de l'outil de diagnostic (ha-cluster/diagnostic/tool-kit).

    Si les options purge échouent, vérifiez que vous avez installé les derniers patchs de noyau et métapériphériques, et contactez l'assistance d'Oracle Solaris Cluster.

Recréation de la configuration du logiciel Solaris Volume Manager

N'utilisez cette procédure que si vous perdez complètement votre configuration du logiciel Solaris Volume Manager. Cette procédure suppose que vous avez enregistré votre configuration Solaris Volume Manager actuelle et ses composants et que vous avez purgé l'ensemble de disques corrompu.


Remarque - Les médiateurs doivent être utilisés uniquement sur les clusters à deux noeuds.


  1. Créez un ensemble de disques.
    # /usr/sbin/metaset -s setname -a -h nodename1 nodename2

    S'il s'agit d'un ensemble de disques multipropriétaire, exécutez la commande suivante pour créer l'ensemble de disques.

     /usr/sbin/metaset -s setname -aM -h nodename1 nodename2
  2. Sur le même hôte que celui où l'ensemble a été créé, ajoutez des hôtes médiateurs si nécessaire (deux noeuds uniquement).
     /usr/sbin/metaset -s setname -a -m nodename1 nodename2
  3. Réinsérez ces mêmes disques dans l'ensemble de disques de ce même hôte.
     /usr/sbin/metaset -s setname -a /dev/did/rdsk/diskname /dev/did/rdsk/diskname
  4. Si vous avez purgé l'ensemble de disques et procédez à présent à sa recréation, veillez à conserver la VTOC (Volume Table of Contents, table des matières virtuelle) sur les disques afin d'ignorer cette étape.

    Toutefois, si vous recréez un ensemble pour le récupérer, vous devez formater les disques en fonction d'une configuration enregistrée dans le fichier /etc/lvm/diskname .vtoc. Par exemple :

    # /usr/sbin/fmthard -s /etc/lvm/d4.vtoc /dev/global/rdsk/d4s2
    # /usr/sbin/fmthard -s /etc/lvm/d8.vtoc /dev/global/rdsk/d8s2

    Vous pouvez exécuter cette commande sur n'importe quel noeud.

  5. Vérifiez la syntaxe du fichier /etc/lvm/md.tab pour chaque métapériphérique.
    # /usr/sbin/metainit -s setname -n -a metadevice
  6. Créez chaque métapériphérique à partir d'une configuration enregistrée.
    # /usr/sbin/metainit -s setname -a metadevice
  7. Si un système de fichiers existe sur le métapériphérique, exécutez la commande fsck.
    # /usr/sbin/fsck -n /dev/md/setname/rdsk/metadevice

    Si la commande fsck n'affiche que quelques erreurs, liées au superbloc par exemple, le périphérique a probablement été reconstruit correctement. Vous pouvez ensuite exécuter la commande fsck sans l'option -n. Si plusieurs erreurs se produisent, vérifiez que vous avez reconstruit le métapériphérique correctement. Si c'est le cas, vérifiez les erreurs fsck pour déterminer si le système de fichiers peut être récupéré. Si c'est impossible, restaurez les données à partir d'une sauvegarde.

  8. Concaténez tous les autres ensembles de métadonnées sur tous les noeuds de cluster pour le fichier /etc/lvm/md.tab, puis concaténez l'ensemble de disques local.
    # /usr/sbin/metastat -p >> /etc/lvm/md.tab