Sun Cluster Software Guide d'installation pour le SE Solaris

Chapitre 5 Installation et configuration de VERITAS Volume Manager

Ce chapitre, ainsi que les informations de planification de la rubrique Planification de la gestion des volumes, permettent d'installer et de configurer vos disques multihôtes et locaux pour VERITAS Volume Manager (VxVM). Reportez-vous à la documentation de VxVM pour de plus amples informations.

Ce chapitre comprend les rubriques suivantes :

Installation et configuration du logiciel VxVM

Cette section présente des informations et des procédures d'installation et de configuration du logiciel VxVM dans une configuration Sun Cluster.

Le tableau suivant énumère les tâches à réaliser pour installer et configurer le logiciel VxVM pour les configurations Sun Cluster.

Tableau 5–1 Liste des tâches : installation et configuration du logiciel VxVM

Tâche 

Instructions 

1. Planification de la disposition de votre configuration VxVM. 

Planification de la gestion des volumes

2. (Facultatif) Définition de la méthode de création du groupe de disques racine sur chaque nœud.

configuration d'un groupe de disques racine : généralités

3. Installation du logiciel VxVM. 

Installation du logiciel VERITAS Volume Manager

Documentation de l'installation de VxVM 

4. (Facultatif) Création d'un groupe de disques racine. Vous pouvez encapsuler le disque racine ou créer le groupe de disques racine sur des disques locaux non-racine.

SPARC : Encapsulation du disque racine

Création d'un groupe de disques racine sur un disque non racine

5. (Facultatif) Mise en miroir du disque racine encapsulé.

mise en miroir du disque racine encapsulé

6. Création de groupes de disques. 

Création de groupes de disques dans un cluster

configuration d'un groupe de disques racine : généralités

La création d'un groupe de disques racine est facultative. Si vous n'envisagez pas de créer de groupe de disques racine, passez à la rubrique Installation du logiciel VERITAS Volume Manager.

Le logiciel Sun Cluster prend en charge les méthodes suivantes pour la configuration du groupe de disques racine.

Pour de plus amples informations, reportez-vous à la documentation d'installation de VxVM.

ProcedureInstallation du logiciel VERITAS Volume Manager

Cette procédure permet d'installer le logiciel VERITAS Volume Manager (VxVM) sur chaque nœud souhaité. Vous pouvez installer VxVM sur tous les nœuds du cluster ou uniquement sur les nœuds physiquement connectés aux périphériques de stockage que VxVM devra gérer.

Avant de commencer

Effectuez les tâches suivantes :

  1. Devenez superutilisateur sur le noeud du cluster où vous envisagez d'installer VxVM.

  2. Insérez le CD VxVM dans le lecteur de CD du nœud.

  3. Suivez les procédures de votre guide d'installation de VxVM pour installer et configurer le logiciel VxVM et les licences.

  4. Exécutez l'utilitaire clvxvm en mode non interactif.


    phys-schost# clvxvm initialize
    

    L'utilitaire clvxvm effectue les tâches de post-installation nécessaires. En outre, l'utilitaire clvxvm sélectionne et configure un numéro majeur de pilote vxio pour tout le cluster. Pour plus d'informations, reportez-vous à la page du manuel clvxvm(1CL).

  5. SPARC : Pour activer la fonctionnalité de cluster de VxVM, indiquez la clé de licence correspondante, si cela n'a pas déjà été fait.

    Pour de plus amples informations sur l'ajout d'une licence, reportez-vous à la documentation d'installation de VxVM.

  6. (Facultatif) Installez l'interface utilisateur graphique de VxVM.

    Pour de plus amples informations sur l'installation de l'interface utilisateur graphique de VxVM, reportez-vous à la documentation de VxVM.

  7. Éjectez le CD.

  8. Installez les patchs VxVM pour la prise en charge du logiciel Sun Cluster.

    Pour connaître l'emplacement des patchs et les instructions d'installation, reportez-vous à la section Patchs et niveaux des micrologiciels requis du Notes de version de Sun Cluster 3.2 pour SE Solaris.

  9. Répétez de l'Étape 1 à l'Étape 8 pour installer VxVM sur des nœuds supplémentaires.


    Remarque –

    SPARC : Pour activer la fonctionnalité de cluster de VxVM, vous devez installer VxVM sur tous les nœuds du cluster.


  10. Si vous n'installez pas VxVM sur d'autres nœuds, modifiez le fichier /etc/name_to_major sur chacun des nœuds non-VxVM.

    1. Sur un noeud installé avec VxVM, déterminez le paramètre du numéro majeur vxio.


      phys-schost# grep vxio /etc/name_to_major
      
    2. Devenez superutilisateur d'un nœud sur lequel vous ne prévoyez pas d'installer VxVM.

    3. Dans le fichier /etc/name_to_major, ajoutez une entrée pour définir le numéro vxio majeur sur NNN (numéro obtenu à l'Étape a).


      phys-schost# vi /etc/name_to_major
      vxio NNN
      
    4. Initialisez l'entrée vxio.


      phys-schost# drvconfig -b -i vxio -m NNN
      
    5. Répétez l'Étape a à l'Étape d sur tous les nœuds à ne pas installer avec VxVM.

      Une fois que vous avez terminé, chaque nœud du cluster doit comporter la même entrée vxio dans son fichier /etc/name_to_major.

  11. Si vous envisagez de créer un groupe de disques racine, reportez-vous à la rubrique SPARC : Encapsulation du disque racine ou Création d'un groupe de disques racine sur un disque non racine.

    Dans le cas contraire, passez à l'Étape 12.


    Remarque –

    Le groupe de disques racine est facultatif.


  12. Réinitialisez chaque nœud sur lequel vous avez installé VxVM.


    phys-schost# shutdown -g0 -y -i6
    
Étapes suivantes

Si vous envisagez de créer un groupe de disques racine, reportez-vous à la rubrique SPARC : Encapsulation du disque racine ou Création d'un groupe de disques racine sur un disque non racine.

Vous pouvez également Reportez-vous à la rubrique Création de groupes de disques dans un cluster.

ProcedureSPARC : Encapsulation du disque racine

Cette procédure permet d'encapsuler le disque racine et ainsi de créer un groupe de disques racine. Les groupes de disques racine sont facultatifs. Reportez-vous à la documentation VxVM pour plus d'informations.


Remarque –

Si vous voulez créer un groupe de disques racine sur des disques non racine, suivez plutôt les procédures de la section Création d'un groupe de disques racine sur un disque non racine.


Avant de commencer

Assurez-vous d'avoir installé VxVM conformément aux instructions de la rubrique Installation du logiciel VERITAS Volume Manager.

  1. Devenez superutilisateur d'un nœud hébergeant VxVM.

  2. Encapsulez le disque racine.


    phys-schost# clvxvm encapsulate
    

    Pour de plus amples informations, reportez-vous à la page du manuel clvxvm(1CL).

  3. Répétez la procédure pour les autres nœuds hébergeant VxVM.

Étapes suivantes

Si vous envisagez de mettre en miroir le disque racine encapsulé, reportez-vous à la rubrique mise en miroir du disque racine encapsulé.

Dans le cas contraire, reportez-vous à la rubrique Création de groupes de disques dans un cluster.

ProcedureCréation d'un groupe de disques racine sur un disque non racine

Suivez cette procédure pour créer un groupe de disques racine en encapsulant ou en initialisant des disques locaux autres que le disque racine. La création d'un groupe de disques racine est facultative.


Remarque –

Si vous voulez créer un groupe de disques racine sur le disque racine, suivez plutôt les procédures de la rubrique SPARC : Encapsulation du disque racine.


Avant de commencer

Si les disques doivent être encapsulés, assurez-vous que chaque disque dispose d'au moins deux tranches avec 0 cylindre. Si nécessaire, utilisez la commande format(1M) pour affecter des cylindres 0 à chaque tranche VxVM.

  1. Prenez le rôle de superutilisateur.

  2. Lancez l'utilitaire vxinstall.


    phys-schost# vxinstall
    
  3. Lorsque vous y êtes invité par l'utilitaire vxinstall, procédez aux choix suivants ou sélectionnez les entrées suivantes.

    • SPARC : Pour activer la fonctionnalité de cluster de VxVM, indiquez la clé de licence correspondante.

    • Choisissez l'installation personnalisée.

    • N'encapsulez pas le disque d'initialisation.

    • Choisissez les disques que vous souhaitez ajouter au groupe de disques racine.

    • N'acceptez pas la réinitialisation automatique.

  4. Si le groupe de disques racine créé contient un ou plusieurs disques reliés à plusieurs nœuds, activez la propriété localonly.

    Utilisez la commande ci-dessous pour activer la propriété localonly du groupe de périphériques de disques bruts pour chacun des disques partagés du groupe de disques racine.


    phys-schost# cldevicegroup set -p localonly=true dsk/dN
    
    -p

    Indique une propriété du groupe de périphériques.

    localonly=true

    Définit le groupe de périphériques comme étant contrôlé uniquement par le nœud unique de la liste des nœuds.

    Lorsque la propriété localonly est activée, le groupe de périphériques de disque bruts est utilisé exclusivement par le noeud figurant dans sa liste de noeuds. Cela évite la séparation involontaire entre un nœud et le disque utilisé par le groupe de disques racine si le disque est connecté à plusieurs nœuds.

    Pour de plus amples informations sur la propriété localonly, reportez-vous à la page de manuel scconf_dg_rawdisk(1M).

  5. Évacuez les éventuels groupes de ressources ou de périphériques de ce nœud.


    phys-schost# clnode evacuate from-node
    
    from-node

    Indique le nom du nœud à partir duquel déplacer les groupes de ressources ou de périphériques.

  6. Réinitialisez le noeud.


    phys-schost# shutdown -g0 -y -i6
    
  7. Utilisez la commande vxdiskadm pour ajouter plusieurs disques au groupe de disques racine.

    Le groupe de disques racine tolère les pannes de disque dès lors qu'il contient plusieurs disques. Reportez-vous à la documentation de VxVM pour connaître les procédures.

Étapes suivantes

Créez les groupes de disques. Reportez-vous à la rubrique Création de groupes de disques dans un cluster.

Proceduremise en miroir du disque racine encapsulé

Après avoir installé VxVM et encapsulé le disque racine, exécutez cette procédure sur chaque noeud où le disque racine encapsulé doit être mis en miroir.

Avant de commencer

Assurez-vous d'avoir encapsulé le disque racine conformément aux instructions de la rubrique SPARC : Encapsulation du disque racine.

  1. Prenez le rôle de superutilisateur.

  2. Dressez la liste des périphériques.


    phys-schost# cldevice list -v
    

    Le résultat sera similaire à ce qui suit.


    DID Device          Full Device Path
    ----------          ----------------
    d1                  phys-schost-1:/dev/rdsk/c0t0d0
    d2                  phys-schost-1:/dev/rdsk/c0t6d0
    d3                  phys-schost-2:/dev/rdsk/c1t1d0
    d3                  phys-schost-1:/dev/rdsk/c1t1d0
  3. Mettez en miroir le disque racine encapsulé.

    Suivez les procédures de votre documentation VxVM.

    Pour obtenir une disponibilité maximale et simplifier l'administration, utilisez un disque local comme miroir. Pour obtenir des directives supplémentaires, reportez-vous à la section Recommandations relatives à la mise en miroir du disque racine.


    Caution – Caution –

    N'utilisez pas un périphérique de quorum pour mettre en miroir le disque racine. Cela risquerait d'empêcher l'initialisation du nœud à partir du disque racine miroir dans certaines circonstances.


  4. Affichez la liste des nœuds du groupe de périphériques de disques bruts pour le périphérique utilisé pour la mise en miroir du disque racine.

    Le nom du groupe de périphériques est de la forme dsk/dN, où dN est le nom du périphérique DID.


    phys-schost# cldevicegroup list -v dsk/dN
    
    -v

    Affiche le résultat détaillé.

    Le résultat sera similaire à ce qui suit.


    Device group        Type                Node list
    ------------        ----                ---------
    dsk/dN              Local_Disk          phys-schost-1, phys-schost-3
  5. Si la liste de nœuds contient plusieurs noms de nœud, supprimez tous les nœuds, à l'exception du nœud correspondant au disque racine mis en miroir.

    Seul le nœud dont vous avez mis le disque racine en miroir doit figurer dans la liste de nœuds du groupe de périphériques de disques bruts.


    phys-schost# cldevicegroup remove-node -n node dsk/dN
    
    -n node

    Indique le nœud à supprimer de la liste des nœuds du groupe de périphériques.

  6. Activez la propriété localonly du groupe de périphériques de disques bruts, si elle ne l'est pas déjà.

    Lorsque la propriété localonly est activée, le groupe de périphériques de disque bruts est utilisé exclusivement par le noeud figurant dans sa liste de noeuds. Cela évite la séparation involontaire d'un noeud de son périphérique de démarrage si celui-ci est connecté à plusieurs noeuds.


    phys-schost# cldevicegroup set -p localonly=true dsk/dN
    
    -p

    Définit la valeur d'une propriété de groupe de périphériques.

    localonly=true

    Active la propriété localonly du groupe de périphériques.

    Pour de plus amples informations sur la propriété localonly, reportez-vous à la page de manuel scconf_dg_rawdisk(1M).

  7. Répétez cette procédure pour chacun des nœuds du cluster dont vous souhaitez mettre en miroir le disque racine encapsulé.


Exemple 5–1 Mise en miroir du disque racine encapsulé

L'exemple présenté ci-dessous illustre la création d'un miroir du disque racine du nœud phys-schost-1. Le miroir est créé sur le disque c0t0d0, dont le groupe de périphériques de disques bruts porte le nom dsk2/d2. Le disque c1t1d0 est multihôte. Pour cette raison, le nœud phys-schost-3 est supprimé de la liste des nœuds du disque et la propriété localonly est activée.


phys-schost# cldevice list -v
DID Device          Full Device Path
----------          ----------------
d2                  pcircinus1:/dev/rdsk/c0t0d0
…
Create the mirror by using VxVM procedures
phys-schost# cldevicegroup  list -v dsk/d2
Device group        Type                Node list
------------        ----                ---------
dsk/d2              Local_Disk          phys-schost-1, phys-schost-3
phys-schost# cldevicegroup remove-node -n phys-schost-3 dsk/d2
phys-schost# cldevicegroup set -p localonly=true dsk/d2

Étapes suivantes

Créez les groupes de disques. Reportez-vous à la rubrique Création de groupes de disques dans un cluster.

Création de groupes de disques dans un cluster

Cette section permet de créer des groupes de disques VxVM dans un cluster. Le tableau suivant décrit les types de groupes de disques VxVM que vous pouvez configurer dans une configuration Sun Cluster et leurs caractéristiques.

Type de groupe de disques 

Utilisation 

Inscription auprès de Sun Cluster ? 

Exigence de stockage 

Groupe de disques VxVM 

Groupes de périphériques pour le basculement ou services de données évolutifs, périphériques globaux ou systèmes de fichiers du cluster 

Oui 

Stockage partagé 

Groupe de disques locaux VxVM 

Applications à faible disponibilité et confinées à un seul nœud 

Non 

Stockage partagé ou non partagé 

Groupe de disques partagés VxVM 

Oracle RAC (requiert également la fonctionnalité de cluster de VxVM) 

Non 

Stockage partagé 

Dans une configuration Sun Cluster, les tâches de création de groupes de disques VxVM sont répertoriées dans le tableau ci-dessous.

Tableau 5–2 Liste des tâches : création de groupes de disques VxVM

Tâche 

Instructions 

1. Création de groupes de disques et de volumes. 

Procédure de création d'un groupe de disques

2. Enregistrement en tant que groupes de périphériques Sun Cluster des groupes de disques non locaux et qui n'utilisent pas la fonctionnalité de cluster de VxVM. 

Procédure d'enregistrement d'un groupe de disques

3. Si nécessaire, résolution des conflits de codes mineurs entre les groupes de périphériques par l'affectation d'un nouveau code mineur. 

Affectation d'un nouveau code mineur à un groupe de périphériques

4. Vérification des groupes de disques et de volumes. 

Vérification de la configuration d'un groupe de disques

ProcedureProcédure de création d'un groupe de disques

Suivez cette procédure pour créer vos groupes de disques et volumes VxVM.

Exécutez cette procédure depuis un nœud physiquement connecté aux disques composant le groupe de disques à ajouter.

Avant de commencer

Effectuez les tâches suivantes :

  1. Devenez superutilisateur du nœud associé au groupe de disques.

  2. Créez les volumes et les groupes de disques VxVM.

    Prenez en compte les instructions spéciales suivantes :


    Remarque –

    Vous pouvez utiliser DRL (Dirty Region Logging) pour réduire le temps de récupération des volumes en cas de panne d'un nœud. Cependant, ce système risque de réduire le débit d'E/S.


  3. Pour les groupes de disques locaux, définissez la propriété localonly et ajoutez un nœud unique à la liste des nœuds du groupe de disques.


    Remarque –

    Un groupe de disques configuré pour être local uniquement n'a pas une disponibilité élevée et n'est pas accessible globalement.


    1. Lancez l'utilitaire clsetup.


      phys-schost# clsetup
      
    2. Choisissez l'option de menu sur les groupes et les volumes de périphériques.

    3. Choisissez l'élément de menu sur la définition de localonly sur un groupe de disques VxVM.

    4. Suivez les instructions pour définir la propriété localonly et indiquer le nœud unique qui contrôle de manière exclusive le groupe de disques.

      Un seul nœud à la fois est autorisé à contrôler le groupe de disques. Vous pouvez ultérieurement modifier le nœud correspondant au maître configuré.

    5. Une fois l'opération terminée, quittez l'utilitaire clsetup.

Étapes suivantes

Déterminez l'étape suivante :

ProcedureProcédure d'enregistrement d'un groupe de disques

Si la fonctionnalité de cluster de VxVM n'est pas activée, effectuez cette procédure pour enregistrer les groupes de disques qui ne sont pas locaux en tant que groupes de périphériques Sun Cluster.


Remarque –

SPARC : Si la fonctionnalité de cluster de VxVM est activée ou si vous avez créé un groupe de disques locaux, n'effectuez pas cette procédure. Pour continuer, passez à la rubrique Vérification de la configuration d'un groupe de disques.


  1. Devenez superutilisateur sur un noeud du cluster.

  2. Enregistrez le groupe de disques global en tant que groupe de périphériques Sun Cluster.

    1. Lancez l'utilitaire clsetup.


      phys-schost# clsetup
      
    2. Choisissez l'option de menu sur les groupes et les volumes de périphériques.

    3. Choisissez l'option de menu sur l'enregistrement d'un groupe de disques VxVM.

    4. Suivez les instructions pour indiquer le groupe de disques VxVM à enregistrer comme groupe de périphériques Sun Cluster.

    5. Une fois l'opération terminée, quittez l'utilitaire clsetup.

  3. Vérifiez que le groupe de périphériques est enregistré.

    Consultez les informations de périphérique de disques concernant le nouveau disque, affichées à l'aide de la commande suivante.


    phys-schost# cldevicegroup status
    
Étapes suivantes

Reportez-vous à la rubrique Vérification de la configuration d'un groupe de disques.

Erreurs fréquentes

Dépassement de capacité de la pile – Si une pile dépasse sa capacité lorsque le groupe de périphériques passe en ligne, la valeur par défaut de la taille de la pile de thread peut s'avérer insuffisante. Sur chaque nœud, ajoutez l'entrée set cl_comm:rm_thread_stacksize=0xsize au fichier /etc/system, où size correspond à un nombre supérieur à 8000, paramètre par défaut.

Changements de configuration : si vous apportez des changements aux informations de configuration pour un groupe de périphériques VxVM ou ses volumes, vous devez enregistrer les changements de configuration à l'aide de l'utilitaire clsetup. Les changements de configuration que vous devez enregistrer comprennent l'ajout ou la suppression de volumes, ainsi que le changement de groupe, de propriétaire ou de permissions des volumes existants. Reportez-vous à la rubrique Administering Device Groups du Sun Cluster System Administration Guide for Solaris OS pour connaître les procédures d'enregistrement des changements de configuration apportés à un groupe de périphériques VxVM.

ProcedureAffectation d'un nouveau code mineur à un groupe de périphériques

Si l'enregistrement d'un groupe de périphériques échoue parce qu'un code mineur entre en conflit avec celui d'un autre groupe de disques, vous devez attribuer au nouveau groupe de disques un nouveau code mineur inutilisé. Exécutez cette procédure pour affecter un nouveau code mineur à un groupe de disques.

  1. Devenez superutilisateur sur un noeud du cluster.

  2. Déterminez les codes mineurs utilisés.


    phys-schost# ls -l /global/.devices/node@1/dev/vx/dsk/*
    
  3. Choisissez n'importe quel autre multiple de 1000 non utilisé comme code mineur de base pour le nouveau groupe de disques.

  4. Affectez ce nouveau code mineur de base au groupe de disques.


    phys-schost# vxdg reminor diskgroup base-minor-number
    

Exemple 5–2 Affectation d'un nouveau code mineur à un groupe de périphériques

Dans cet exemple, les codes mineurs 16000 à 16002 et 4000 à 4001 sont utilisés. La commande vxdg reminor affecte un nouveau code mineur au nouveau groupe de périphériques pour utiliser le code mineur de base (5000).


phys-schost# ls -l /global/.devices/node@1/dev/vx/dsk/*
/global/.devices/node@1/dev/vx/dsk/dg1
brw-------   1 root     root      56,16000 Oct  7 11:32 dg1v1
brw-------   1 root     root      56,16001 Oct  7 11:32 dg1v2
brw-------   1 root     root      56,16002 Oct  7 11:32 dg1v3
 
/global/.devices/node@1/dev/vx/dsk/dg2
brw-------   1 root     root      56,4000 Oct  7 11:32 dg2v1
brw-------   1 root     root      56,4001 Oct  7 11:32 dg2v2
phys-schost# vxdg reminor dg3 5000

Étapes suivantes

Enregistrez le groupe de disques en tant que groupe de périphériques Sun Cluster. Rendez-vous à la section Procédure d'enregistrement d'un groupe de disques.

ProcedureVérification de la configuration d'un groupe de disques

Exécutez-la sur chaque noeud du cluster.

  1. Prenez le rôle de superutilisateur.

  2. Dressez la liste des groupes de disques.


    phys-schost# vxdisk list
    
  3. Dressez la liste des groupes de périphériques.


    phys-schost# cldevicegroup list -v
    
  4. Vérifiez que tous les groupes de disques sont correctement configurés.

    Vérifiez que les conditions indiquées ci-après sont respectées :

    • Le groupe de disques racine inclut uniquement les disques locaux.

    • Tous les groupes de disques et les groupes de disques locaux sont importés sur le nœud principal actuel uniquement.

  5. Vérifiez que tous les volumes ont été lancés.


    phys-schost# vxprint
    
  6. Vérifiez que tous les groupes de disques ont été enregistrés en tant que groupes de périphériques Sun Cluster et qu'ils sont en ligne.


    phys-schost# cldevicegroup status
    

    Le résultat ne doit présenter aucun groupe de disques local.

  7. (Facultatif) Capturez les informations de partitionnement du disque pour toute référence ultérieure.


    phys-schost# prtvtoc /dev/rdsk/cNtXdYsZ > filename
    

    Stockez le fichier dans un emplacement extérieur au cluster. Si vous modifiez la configuration du disque, exécutez de nouveau cette commande pour capturer la configuration modifiée. Si un disque est en panne et doit être remplacé, vous pouvez utiliser ces informations pour restaurer la configuration de la partition du disque. Pour de plus amples informations, reportez-vous à la page de manuel prtvtoc(1M).

  8. (Facultatif) Procédez à la sauvegarde de votre configuration de cluster.

    Si vous effectuez une sauvegarde archivée de votre configuration de cluster, vous pourrez la récupérer plus facilement en cas de problème.

    Pour plus d'informations, reportez-vous à la section How to Back Up the Cluster Configuration du Sun Cluster System Administration Guide for Solaris OS.

Directives d'administration des groupes de disques VxVM

Prenez en compte les directives suivantes pour l'administration des groupes de disques VxVM dans une configuration Sun Cluster :

Erreurs fréquentes

Si le résultat de la commande cldevicegroup status inclut des groupes de disques locaux, les groupes de disques affichés ne sont pas correctement configurés pour un accès en local uniquement. Retournez à la rubrique Procédure de création d'un groupe de disques pour reconfigurer le groupe de disques local.

Étapes suivantes

Déterminez, à partir de la liste suivante, la tâche suivante qui s'applique à la configuration de votre cluster. Pour effectuer plusieurs tâches de cette liste, accédez à la première de la liste.

Annulation de l'encapsulation du disque racine

Cette rubrique décrit la procédure d'annulation de l'encapsulation du disque racine dans une configuration Sun Cluster.

ProcedureAnnulation de l'encapsulation du disque racine

Exécutez cette procédure pour annuler l'encapsulation du disque racine.

Avant de commencer

Effectuez les tâches suivantes :

  1. Devenez superutilisateur sur le noeud dont vous voulez annuler l'encapsulation.

  2. Évacuez tous les groupes de ressources et groupes de périphériques du nœud.


    phys-schost# clnode evacuate from-node
    
    from-node

    Indique le nom du nœud à partir duquel déplacer les groupes de ressources ou de périphériques.

  3. Déterminez l'ID du nœud.


    phys-schost# clinfo -n
    
  4. Démontez les systèmes de fichiers de périphériques globaux de ce nœud (N représente l'ID nœud renvoyé lors de l'Étape 3).


    phys-schost# umount /global/.devices/node@N
    
  5. Consultez le fichier /etc/vfstab et déterminez quel volume VxVM correspond au système de fichiers de périphériques globaux.


    phys-schost# vi /etc/vfstab
    #device        device        mount    FS     fsck    mount    mount
    #to mount      to fsck       point    type   pass    at boot  options
    #
    #NOTE: volume rootdiskxNvol (/global/.devices/node@N) encapsulated 
    #partition cNtXdYsZ
    
  6. Retirez du groupe de disques racine le volume VxVM correspondant au système de fichiers de périphériques globaux.


    phys-schost# vxedit -g rootdiskgroup -rf rm rootdiskxNvol
    

    Caution – Caution –

    Ne stockez pas les données autres que les entrées de périphériques globaux sur le système de fichiers de périphériques globaux. Toutes les données du système de fichiers de périphériques globaux sont détruites avec la suppression du volume VxVM. Seules les données relatives aux entrées de périphériques globaux sont restaurées après la désencapsulation du disque racine.


  7. Annulez l'encapsulation du disque racine.


    Remarque –

    n'autorisez pas la demande de fermeture de la commande.



    phys-schost# /etc/vx/bin/vxunroot
    

    Reportez-vous à la documentation de VxVM pour de plus amples informations.

  8. Exécutez la commande format(1M) pour ajouter la partition de 512 Mo au disque racine, à utiliser pour le système de fichiers de périphériques globaux.


    Astuce –

    Utilisez la même tranche que celle qui avait été allouée au système de fichiers de périphériques globaux avant l'encapsulation du disque racine, comme spécifié dans le fichier /etc/vfstab.


  9. Installez un système de fichiers sur la partition créée à l'Étape 8.


    phys-schost# newfs /dev/rdsk/cNtXdYsZ
    
  10. Déterminez le nom IDP du disque racine.


    phys-schost# cldevice list cNtXdY
    dN
    
  11. Dans le fichier /etc/vfstab, remplacez le nom de chemin de l'entrée du système de fichiers de périphériques globaux par le chemin IDP déterminé à l'Étape 10.

    L'entrée d'origine devrait s'apparenter à celle-ci.


    phys-schost# vi /etc/vfstab
    /dev/vx/dsk/rootdiskxNvol /dev/vx/rdsk/rootdiskxNvol /global/.devices/node@N ufs 2 no global

    L'entrée modifiée avec le chemin IDP devrait ressembler à ceci :


    /dev/did/dsk/dNsX /dev/did/rdsk/dNsX /global/.devices/node@N ufs 2 no global
  12. Montez le système de fichiers global-devices.


    phys-schost# mount /global/.devices/node@N
    
  13. À partir d'un nœud du cluster, rétablissez dans le système de fichiers de périphériques globaux, les nœuds de tous les périphériques Solaris Volume Manager et périphériques de disques bruts.


    phys-schost# cldevice populate
    

    Les périphériques VxVM sont récréés pendant la réinitialisation.

  14. Sur chaque nœud, vérifiez que la commande cldevice populate s'est exécutée convenablement avant de passer à l'étape suivante.

    La commande cldevice populate est exécutée à distance sur tous les nœuds, bien que la commande soit émise depuis un seul nœud. Pour savoir si la commande cldevice populate s'est exécutée convenablement, exécutez la commande suivante sur chaque nœud du cluster.


    phys-schost# ps -ef | grep scgdevs
    
  15. Réinitialisez le noeud.


    phys-schost# shutdown -g0 -y -i6
    
  16. Répétez cette procédure sur chaque nœud du cluster pour y annuler l'encapsulation du disque racine.