Guide d'installation du logiciel Sun Cluster pour SE Solaris

SPARC: Installation et configuration du logiciel VxVM

Cette section présente des informations et des procédures d'installation et de configuration du logiciel VxVM dans une configuration Sun Cluster.

SPARC: Liste des tâches : Installation et configuration du logiciel VxVM

Le tableau suivant énumère les tâches à réaliser pour installer et configurer le logiciel VxVM pour les configurations Sun Cluster.

Tableau 4–1 SPARC: Liste des tâches : Installation et configuration du logiciel VxVM

Tâche 

Instructions 

1. Planification de la disposition de votre configuration VxVM.  

Planification de la gestion des volumes

2. Détermination de la procédure de création du groupe de disques root sur chaque nœud. 

SPARC: configuration d'un groupe de disques root : généralités

3. Pour VxVM, versions 3.5 et antérieures, installation du logiciel VxVM et création du groupe de disques root. Pour VxVM 4.0, la création d'un groupe de disques root est facultative. 

  • Méthode 1 : installation du logiciel VxVM et encapsulation du disque root par le biais de la commande scvxinstall, puis mise en miroir du disque root encapsulé (facultatif).

  1. SPARC: Installation du logiciel VERITAS Volume Manager et encapsulation du disque root

  2. SPARC: mise en miroir du disque root encapsulé

  • Méthode 2 : installation du logiciel VxVM et, si nécessaire, création du groupe de disques root sur des disques locaux, non-root.

  1. SPARC: Installation du logiciel VERITAS Volume Manager uniquement

  2. SPARC: création d'un groupe de disques root sur un disque non root

4. Création de groupes de disques et de volumes. 

SPARC: création et enregistrement d'un groupe de disques

5. Si nécessaire, résolution des conflits de codes mineurs entre les groupes d'unités de disque en affectant un nouveau code mineur. 

SPARC: Affectation d'un nouveau code mineur à un groupe de périphériques de disques

6. Vérification des groupes de disques et de volumes. 

SPARC: Vérification de la configuration d'un groupe de disques

7. Configuration du cluster. 

Configuration du cluster

SPARC: configuration d'un groupe de disques root : généralités

Pour VxVM 4.0, la création d'un groupe de disques root est facultative. Si vous n'envisagez pas de créer un groupe de disques root, passez à la rubrique SPARC: Installation du logiciel VERITAS Volume Manager uniquement .

Pour VxVM, versions 3.5 et antérieures, chaque nœud du cluster requiert la création d'un groupe de disques root, une fois l'installation de VxVM effectuée. Ce groupe de disques est utilisé par celui-ci pour stocker les informations de configuration et soumis aux restrictions suivantes :

Le logiciel Sun Cluster prend en charge les méthodes suivantes pour la configuration du groupe de disques root.

Pour de plus amples informations, reportez-vous à la documentation d'installation de VxVM.

SPARC: étape suivante

Installez VxVM avec l'une des méthodes d'installation suivantes, selon le mode de création du groupe de disques root choisi.

SPARC: Installation du logiciel VERITAS Volume Manager et encapsulation du disque root

Cette procédure utilise la commande scvxinstall(1M) pour installer le logiciel VxVM et encapsuler le disque root, en une seule opération.


Remarque –

si vous prévoyez de créer le groupe de disques root sur des disques locaux non root, reportez-vous à la rubrique SPARC: Installation du logiciel VERITAS Volume Manager uniquement .


Exécutez cette procédure sur chaque nœud sur lequel vous prévoyez d'installer VxVM. Vous pouvez l'installer sur tous les nœuds du cluster ou uniquement sur les nœuds qui sont physiquement reliés aux périphériques de stockage qui seront gérées par VxVM.

pour annuler ultérieurement l'encapsulation du disque root, suivez les procédures de la rubrique SPARC: Annulation de l'encapsulation du disque root .

  1. Assurez-vous que le cluster répond aux conditions préalables suivantes :

    • Tous les nœuds du cluster tournent en mode cluster .

    • Le disque root du nœud que vous installez possède deux partitions libres (non affectées).

  2. Gardez les informations suivantes à portée de main.

  3. Devenez superutilisateur sur le nœud où vous prévoyez d'installer VxVM.

  4. Insérez le CD de VxVM dans le lecteur de CD du nœud.

  5. Démarrez scvxinstall en mode interactif.

    À tout moment, appuyez sur Ctrl+C pour annuler la commande scvxinstall.


    # scvxinstall
    

    Reportez-vous à la page man scvxinstall(1M) pour de plus amples informations.

  6. Lorsque le système vous propose d'encapsuler root, tapez oui.


    Voulez-vous que Volume Manager encapsule le disque root [non]? o
    

  7. À l'invite du système, indiquez le chemin du CD de VxVM.

    • Si le CD de VxVM est détecté, son emplacement figure entre crochets dans l'invite. Appuyez sur Entrée pour accepter cet emplacement par défaut.


      Where is the volume manager cdrom [default]?

    • Si le CD de VxVM est introuvable, l'invite s'affiche sans emplacement par défaut. Indiquez le chemin du CD ou de l'image du CD.


      Où est le cd du gestionnaire de volume ?

  8. À l'invite du système, entrez votre clé de licence pour VxVM.


    Entrez une clé de licence: licence
    

    La commande scvxinstall effectue automatiquement les tâches suivantes :

    • installation des packages requis du logiciel VxVM, de l'octroi de licence et des pages man, mais pas des packages concernant l'IUG ;

    • sélection d'un numéro majeur de pilote vxio à l'échelle du cluster ;

    • création d'un groupe de disques root par le biais de l'encapsulation du disque root ;

    • mise à jour de l'entrée /global/.devices du fichier /etc/vfstab.

    Reportez-vous à la page man scvxinstall(1M) pour de plus amples informations.


    Remarque –

    deux réinitialisations automatiques se produisent lors de l'installation. Une fois les tâches d'installation effectuées, scvxinstall réinitialise automatiquement le nœud, sauf si vous appuyez sur Ctrl+C à l'invite du système. Si vous appuyez sur Ctrl+C pour annuler la seconde réinitialisation, vous devrez malgré tout réinitialiser le nœud ultérieurement pour achever l'installation de VxVM.


  9. Si vous prévoyez d'activer la fonction de cluster de VxVM, fournissez la clé de licence de cette fonction.

    Pour de plus amples informations sur l'ajout d'une licence, reportez-vous à la documentation d'installation de VxVM.

  10. (Facultatif) Installez l'interface utilisateur graphique de VxVM.

    Pour de plus amples informations sur l'installation de l'interface utilisateur graphique de VxVM, reportez-vous à la documentation de VxVM.

  11. Éjectez le CD.

  12. Installez les patchs de VxVM.

    Reportez-vous à la rubrique “Patchs et niveaux de microprogrammes requis” du document Notes de version de Sun Cluster 3.1 pour connaître l'emplacement des patchs et les consignes d'installation.

  13. (Facultatif) Si vous préférez que les pages man de VxVM ne résident pas sur le nœud du cluster, supprimez le package correspondant.


    # pkgrm VRTSvmman
    

  14. Pour installer VxVM sur d'autres nœuds, répétez la procédure de l'Étape 3 à l'Étape 13.


    Remarque –

    pour activer la fonction de cluster VxVM, vous devez installer VxVM sur tous les nœuds du cluster.


  15. Si vous n'installez pas VxVM sur d'autres nœuds, modifiez le fichier /etc/name_to_major sur chacun des nœuds concernés.

    1. Sur un nœud installé avec VxVM, déterminez le paramètre du numéro majeur vxio.


      # grep vxio /etc/name_to_major
      

    2. Devenez superutilisateur d'un nœud sur lequel vous ne prévoyez pas d'installer VxVM.

    3. Modifiez le fichier /etc/name_to_major et ajoutez une entrée pour définir le numéro majeur vxio sur NNN, le numéro dérivé à l'Étape a.


      # vi /etc/name_to_major
      vxio NNN
      

    4. Initialisez l'entrée vxio.


      # drvconfig -b -i vxio -m NNN
      

    5. Répétez l'opération de l'Étape b à l'Étape d pour tous les nœuds sur lesquels vous ne prévoyez pas d'installer VxVM.

      Une fois que vous en aurez terminé, chaque nœud du cluster devra comporter la même entrée vxio dans son fichier /etc/name_to_major.

  16. (Facultatif) Pour mettre en miroir le disque root encapsulé, reportez-vous à la rubrique SPARC: mise en miroir du disque root encapsulé .

  17. Reportez-vous à la rubrique SPARC: création et enregistrement d'un groupe de disques .

SPARC: mise en miroir du disque root encapsulé

Après avoir installé VxVM et encapsulé le disque root, exécutez cette procédure sur chaque nœud où le disque root encapsulé doit être mis en miroir.

  1. Mettez en miroir le disque root encapsulé.

    Suivez les procédures indiquées dans la documentation VxVM. Pour obtenir une disponibilité maximale et simplifier l'administration, utilisez un disque local comme miroir. Reportez-vous à la rubrique Recommandations relatives à la mise en miroir du disque root pour de plus amples informations.


    Caution – Caution –

    n'utilisez pas un périphérique de quorum pour mettre en miroir le disque root. Cela risquerait d'empêcher l'initialisation du nœud à partir du disque root miroir dans certaines circonstances.


  2. Affichez les correspondances IDP.


    # scdidadm -L
    

  3. À partir des correspondances d'IDP, localisez le disque utilisé pour la mise en miroir du disque root.

  4. Extrayez le nom du groupe de périphériques de disques bruts du nom IDP du miroir du disque root .

    Le nom du groupe de périphériques de disques bruts suit la convention dsk/dN, où N est un nombre. Dans le résultat indiqué ci-dessous, la partie de la ligne de sortie scdidadm dont s'extrait le nom du groupe de périphériques de disques bruts est indiquée en gras.


    N         nœud:/dev/rdsk/cNtXdY     /dev/did/rdsk/dN
    

  5. Affichez la liste de nœuds du groupe de périphériques de disques bruts.

    Le résultat sera similaire à ce qui suit.


    # scconf -pvv | grep dsk/dN
    Nom du groupe de périphériques :						dsk/dN
    …
     (dsk/dN) Liste de nœuds du groupe de périphériques :		phys-schost-1, phys-schost-3
    …

  6. Si la liste de nœuds contient plusieurs noms de nœud, supprimez tous les nœuds, à l'exception du nœud correspondant au disque root mis en miroir.

    Seul le nœud dont vous avez mis le disque root en miroir doit figurer dans la liste de nœuds du groupe de périphériques de disques bruts.


    # scconf -r -D name=dsk/dN,nodelist=nœud
    
    -D name=dsk/dN

    Indique le nom du groupe de périphériques de disques bruts unique du cluster.

    nodelist=nœud

    Spécifie le nom du ou des nœud(s) à supprimer de la liste des nœuds.

  7. Activez la propriété localonly du groupe de périphériques de disques bruts.

    Lorsque la propriété localonly est activée, le groupe de périphériques de disque bruts est utilisé exclusivement par le nœud figurant dans sa liste de nœuds. Cela évite la séparation involontaire d'un nœud de son périphérique de démarrage si celui-ci est connecté à plusieurs nœuds.


    # scconf -c -D name=dsk/dN,localonly=true
    

    Pour de plus amples informations sur la propriété localonly, reportez‐vous à la page man scconf_dg_rawdisk(1M).

  8. Répétez cette procédure pour chacun des nœuds du cluster dont vous souhaitez mettre en miroir le disque root encapsulé.

  9. Créez les groupes de disques.

    Reportez-vous à la rubrique SPARC: création et enregistrement d'un groupe de disques .

SPARC: Exemple de mise en miroir du disque root encapsulé

L'exemple présenté ci-dessous illustre la création d'un miroir du disque root du nœud phys-schost-1. Le miroir est créé sur le disque c1t1d0, dont le groupe de périphériques de disques bruts porte le nom dsk/d2. Le disque c1t1d0 est un disque multihôte, le nœud phys-schost-3 est donc supprimé de la liste des nœuds du disque et la propriété localonly activée.


(Affichez les mappages d'IDP)
# scdidadm -L 
…
2        phys-schost-1:/dev/rdsk/c1t1d0 /dev/did/rdsk/d2   
2        phys-schost-3:/dev/rdsk/c1t1d0 /dev/did/rdsk/d2   
…
 
(Affichez la liste de nœuds du groupe de périphériques de disques bruts du disque miroir)
# scconf -pvv | grep dsk/d2
Nom du groupe de périphériques :						dsk/d2
…
  (dsk/d2) Liste de nœuds du groupe de périphériques :		phys-schost-1, phys-schost-3
…
 
(Supprimez  phys-schost-3 de la liste de nœuds)
# scconf -r -D name=dsk/d2,nodelist=phys-schost-3
  
(Activez la propriété localonly)
# scconf -c -D name=dsk/d2,localonly=true

SPARC: Installation du logiciel VERITAS Volume Manager uniquement

Cette procédure utilise la commande scvxinstall pour installer uniquement le logiciel VERITAS Volume Manager (VxVM).


Remarque –

si vous voulez créer le groupe de disques root en l'encapsulant, n'utilisez pas cette procédure. Reportez-vous plutôt à la rubrique SPARC: Installation du logiciel VERITAS Volume Manager et encapsulation du disque root pour installer le logiciel VxVM et encapsuler le disque root en une seule opération.


Exécutez cette procédure sur chaque nœud sur lequel vous souhaitez installer VxVM. Vous pouvez installer VxVM sur tous les nœuds du cluster ou uniquement sur les nœuds physiquement reliés aux périphériques de stockage qui seront gérés par VxVM.

  1. Assurez-vous que tous les nœuds du cluster tournent en mode cluster.

  2. Veillez à ce que toutes les clés de licence VERITAS Volume Manager (VxVM) à installer soient disponibles.

  3. Devenez superutilisateur sur le nœud du cluster où vous envisagez d'installer VxVM.

  4. Insérez le CD de VxVM dans le lecteur de CD du nœud.

  5. Démarrez scvxinstall en mode d'installation non-interactive.


    # scvxinstall -i -L {licence | none}
    -i

    Installe VxVM, mais ne procède pas à l'encapsulation du disque root.

    -L {licence | none}

    Installe la licence indiquée. L'argument none indique qu'aucune clé de licence supplémentaire n'est ajoutée.

    La commande scvxinstall effectue automatiquement les tâches suivantes :

    • installation des packages requis du logiciel VxVM, de l'octroi de licence et des pages man, mais pas des packages concernant l'IUG ;

    • installation des clés de licence indiquées ;

    • sélection d'un numéro majeur de pilote vxio à l'échelle du cluster.

    Reportez-vous à la page man scvxinstall(1M) pour de plus amples informations.

  6. (Facultatif) Installez l'interface utilisateur graphique de VxVM.

    Pour de plus amples informations sur l'installation de l'interface utilisateur graphique de VxVM, reportez-vous à la documentation de VxVM.

  7. Éjectez le CD.

  8. Installez les patchs de VxVM.

    Reportez-vous à la rubrique “Patchs et niveaux de microprogrammes requis” du document Notes de version de Sun Cluster 3.1 pour connaître l'emplacement des patchs et les consignes d'installation.

  9. (Facultatif) Si vous préférez que les pages man de VxVM ne résident pas sur le nœud du cluster, supprimez le package correspondant.


    # pkgrm VRTSvmman
    

  10. Repeat Étape 3 through Étape 9 to install VxVM on any additional nodes.


    Remarque –

    pour activer la fonction de cluster VxVM, vous devez installer VxVM sur tous les nœuds du cluster.


  11. Si vous n'installez pas VxVM sur d'autres nœuds, modifiez le fichier /etc/name_to_major sur chacun des nœuds non-VxVM.

    1. Sur un nœud installé avec VxVM, déterminez le paramètre du numéro majeur vxio.


      # grep vxio /etc/name_to_major
      

    2. Devenez superutilisateur d'un nœud sur lequel vous ne prévoyez pas d'installer VxVM.

    3. Modifiez le fichier /etc/name_to_major et ajoutez une entrée pour définir le numéro majeur vxio sur NNN, le nombre dérivé à l'Étape a.


      # vi /etc/name_to_major
      vxio NNN
      

    4. Initialisez l'entrée vxio.


      # drvconfig -b -i vxio -m NNN
      

    5. Répétez l'opération de l'Étape a à l'Étape c pour tous les nœuds sur lesquels vous ne prévoyez pas d'installer VxVM.

      Une fois que vous en aurez terminé, chaque nœud du cluster devra comporter la même entrée vxio dans son fichier /etc/name_to_major.

  12. (Facultatif) Pour créer un groupe de disques root, reportez-vous à la rubrique SPARC: création d'un groupe de disques root sur un disque non root .

  13. Réinitialisez chaque nœud.


    # shutdown -g0 -y -i6
    

  14. Créez les groupes de disques.

    Reportez-vous à la rubrique SPARC: création et enregistrement d'un groupe de disques .

SPARC: création d'un groupe de disques root sur un disque non root

Suivez cette procédure pour créer un groupe de disques root en encapsulant ou en initialisant des disques locaux autres que le disque root.

  1. Connectez-vous en tant que superutilisateur sur le nœud.

  2. (Facultatif) Si les disques doivent être encapsulés, assurez-vous que chaque disque dispose d'au moins deux tranches avec 0 cylindre.

    Si nécessaire, utilisez la commande format(1M) pour affecter 0 cylindre à chaque tranche de VxVM.

  3. Lancez l'utilitaire vxinstall.


     # vxinstall
    

    Lorsque le système vous y invite, complétez les choix ou informations suivants.

    • Si vous prévoyez d'activer la fonction de cluster de VxVM, fournissez la clé de licence de cette fonction.

    • Choisissez l'installation personnalisée.

    • N'encapsulez pas le disque d'initialisation.

    • Choisissez les disques que vous souhaitez ajouter au groupe de disques root.

    • N'acceptez pas la réinitialisation automatique.

  4. Si le groupe de disques root créé contient un ou plusieurs disques reliés à plusieurs nœuds, activez la propriété localonly.

    Utilisez la commande ci-dessous pour activer la propriété localonly du groupe de périphériques de disques bruts pour chacun des disques partagés du groupe de disques root.


    # scconf -c -D name=dsk/dN,localonly=true
    

    Lorsque la propriété localonly est activée, le groupe de périphériques de disque bruts est utilisé exclusivement par le nœud figurant dans sa liste de nœuds. Cela évite la séparation involontaire entre un nœud et le disque utilisé par le groupe de disques root si le disque est connecté à plusieurs nœuds.

    Pour de plus amples informations sur la propriété localonly, reportez‐vous à la page man scconf_dg_rawdisk(1M).

  5. Déplacez les groupes de ressources ou groupes de périphériques du nœud.


    # scswitch -S -h nœud_origine
    
    -S

    Déplace tous les groupes de ressources et groupes de périphériques.

    -h nœud_origine

    Indique le nom du nœud à partir duquel déplacer les groupes de ressources ou de périphériques.

  6. Réinitialisez le nœud.


    # shutdown -g0 -y -i6
    

  7. Utilisez la commande vxdiskadm pour ajouter plusieurs disques au groupe de disques root.

    Le groupe de disques root tolère les pannes de disque dès lors qu'il contient plusieurs disques. Reportez-vous à la documentation de VxVM pour connaître les procédures.

  8. Créez les groupes de disques.

    Reportez-vous à la rubrique SPARC: création et enregistrement d'un groupe de disques .

SPARC: création et enregistrement d'un groupe de disques

Suivez cette procédure pour créer vos groupes de disques et volumes VxVM.


Remarque –

une fois qu'un groupe de disques est enregistré sur le cluster en tant que groupe de périphériques de disques, vous ne devez jamais importer ou déplacer un groupe de disques VxVM à l'aide des commandes de VxVM. Le logiciel Sun Cluster peut traiter tous les cas dans lesquels des groupes de disques doivent être importés ou déplacés. Reportez-vous à la rubrique “Administering Disk Device Groups” in Sun Cluster System Administration Guide for Solaris OS pour de plus amples informations sur les procédures de gestion des groupes de périphériques de disques Sun Cluster.


Exécutez cette procédure à partir d'un nœud physiquement connecté aux disques composant le groupe de disques que vous ajoutez.

  1. Gardez les informations suivantes à portée de main.

  2. Connectez-vous en tant que superutilisateur sur le nœud qui sera propriétaire du groupe de disques.

  3. Créez un groupe de disques et un volume VxVM.

    Si vous installez Oracle Real Application Clusters, créez des groupes de disques VxVM partagés à l'aide de la fonction de cluster de VxVM conformément au document VERITAS Volume Manager Administrator's Reference Guide. Sinon, créez des groupes de disques VxVM en suivant les procédures standard de la documentation de VxVM.


    Remarque –

    vous pouvez utiliser le système DRL pour diminuer le temps de récupération du volume en cas d'échec du nœud. Cependant, ce système risque de réduire le débit d'E/S.


  4. Si la fonction de cluster VxVM n'est pas activée, enregistrez le groupe de disques en tant que groupe de périphériques de disques Sun Cluster.

    Sinon, n'enregistrez pas de groupe de disques partagé comme groupe de périphériques de disques Sun Cluster. Reportez-vous à la rubrique SPARC: Vérification de la configuration d'un groupe de disques .

    1. Lancez l'utilitaire scsetup(1M).


      # scsetup
      

    2. Choisissez l'option Volumes et groupes de périphériques.

    3. Sélectionnez l'option Enregistrer un groupe de disques VxVM.

    4. Suivez les instructions pour indiquer le groupe de périphériques de disques VxVM à enregistrer en tant que groupe de périphériques de disques Sun Cluster.

    5. Si vous rencontrez le message d'erreur suivant lors de l'enregistrement du groupe de périphériques de disques, affectez-lui un nouveau code mineur.


      scconf: Echec de l'ajout du groupe de périphériques - en cours d'utilisation

      Pour affecter un nouveau code mineur au groupe de périphériques de disques, suivez la procédure SPARC: Affectation d'un nouveau code mineur à un groupe de périphériques de disques . Elle vous permet d'affecter un nouveau code mineur n'entrant pas en conflit avec un code mineur utilisé par des groupes de périphériques de disques existants.

    6. Une fois l'opération terminée, quittez l'utilitaire scsetup.

    7. Vérifiez que le groupe de périphériques de disques est enregistré.

      Consultez les informations de périphérique de disques concernant le nouveau disque, affichées à l'aide de la commande suivante.


      # scstat -D
      


      Astuce –

      si un dépassement de pile survient lors de la mise en ligne du groupe de périphériques de disques, la valeur par défaut de la taille de la pile de thread est certainement insuffisante. Ajoutez l'entrée suivante au fichier /etc/system de chaque nœud, où taille correspond à un nombre supérieur à 8000, le paramètre par défaut :


      set cl_comm:rm_thread_stacksize=0xtaille
      



    Remarque –

    si vous modifiez des informations de configuration d'un groupe de disques ou d'un volume VxVM, enregistrez les modifications à l'aide de l'utilitaire scsetup. Les changements de configuration que vous devez enregistrer comprennent l'ajout ou la suppression de volumes, ainsi que le changement de groupe, de propriétaire ou de permissions des volumes existants. Reportez-vous à la rubrique “Administering Disk Device Groups” in Sun Cluster System Administration Guide for Solaris OS pour de plus amples informations sur les procédures d'enregistrement des modifications de la configuration d'un groupe de périphériques de disques.


  5. Reportez-vous à la rubrique SPARC: Vérification de la configuration d'un groupe de disques .

SPARC: Affectation d'un nouveau code mineur à un groupe de périphériques de disques

Si l'enregistrement d'un groupe de périphériques de disques échoue parce qu'un code mineur entre en conflit avec celui d'un autre groupe de disques, vous devez attribuer au nouveau groupe un nouveau code mineur inutilisé. Exécutez cette procédure pour affecter un nouveau code mineur à un groupe de disques.

  1. Devenez superutilisateur sur un nœud du cluster.

  2. Déterminez les codes mineurs utilisés.


    # ls -l /global/.devices/node@1/dev/vx/dsk/*
    

  3. Choisissez n'importe quel autre multiple de 1000 non utilisé comme code mineur de base pour le nouveau groupe de disques.

  4. Affectez ce nouveau code mineur de base au groupe de disques.


    # vxdg reminor groupe_disques code_mineur_base
    

  5. Reportez-vous à la rubrique SPARC: création et enregistrement d'un groupe de disques pour enregistrer le groupe de disques en tant que groupe de périphériques de disques Sun Cluster.

SPARC: exemple d'affectation d'un nouveau code mineur à un groupe de périphériques de disques

L’exemple suivant illustre l'utilisation des codes mineurs 16000-16002 et 4000-4001. La commande vxdg reminor permet de redéfinir le code mineur du nouveau groupe de périphériques de disques avec le code mineur de base 5000.


# ls -l /global/.devices/node@1/dev/vx/dsk/*
/global/.devices/node@1/dev/vx/dsk/dg1
brw-------   1 root     root      56,16000 Oct  7 11:32 dg1v1
brw-------   1 root     root      56,16001 Oct  7 11:32 dg1v2
brw-------   1 root     root      56,16002 Oct  7 11:32 dg1v3
 
/global/.devices/node@1/dev/vx/dsk/dg2
brw-------   1 root     root      56,4000 Oct  7 11:32 dg2v1
brw-------   1 root     root      56,4001 Oct  7 11:32 dg2v2
# vxdg reminor dg3 5000

SPARC: Vérification de la configuration d'un groupe de disques

Exécutez-la sur chaque nœud du cluster.

  1. Vérifiez que seuls les disques locaux sont inclus dans le groupe de disques root et que les groupes de disques sont importés uniquement sur le nœud principal courant.


    # vxdisk list
    

  2. Assurez-vous que tous les volumes ont été lancés.


    # vxprint
    

  3. Assurez-vous que tous les groupes de disques ont été enregistrés en tant que groupes de périphériques de disques Sun Cluster et qu'ils sont en ligne.


    # scstat -D
    

  4. Configurez le cluster.

    Reportez-vous à la rubrique Configuration du cluster.

SPARC: Annulation de l'encapsulation du disque root

Exécutez cette procédure pour annuler l'encapsulation du disque root.

  1. Assurez-vous que seuls les systèmes de fichiers root Solaris se trouvent sur le disque root.

    Les systèmes de fichiers root Solaris sont (/) root, swap, et les espaces de noms de périphériques globaux, /usr, /var, /opt, et /home. Si tout autre système de fichiers réside sur le disque root, sauvegardez-le et supprimez-le du disque root.

  2. Devenez superutilisateur sur le nœud dont vous voulez annuler l'encapsulation.

  3. Déplacez tous les groupes de ressources ou groupes de périphériques du nœud.


    # scswitch -S -h nœud_origine
    
    -S

    Déplace tous les groupes de ressources et groupes de périphériques.

    -h nœud_origine

    Indique le nom du nœud à partir duquel déplacer les groupes de ressources ou de périphériques.

  4. Déterminez l'ID du nœud.


    # clinfo -nN
    

  5. Démontez le système de fichiers de périphériques globaux de ce nœud, où N correspond à l'ID de nœud obtenu à l'Étape 4.


    # umount /global/.devices/node@N
    

  6. Consultez le fichier /etc/vfstab et déterminez quel volume VxVM correspond au système de fichiers de périphériques globaux.


    # vi /etc/vfstab
    #device        device        mount    FS     fsck    mount    mount
    #to mount      to fsck       point    type   pass    at boot  options
    #
    #NOTE: volume rootdiskxNvol (/global/.devices/node@N) encapsulated 
    #partition cNtXdYsZ
    

  7. Supprimez, du groupe de disques root, le volume VxVM correspondant au système de fichiers de périphériques globaux.

    • Pour les versions 3.5 et antérieures de VxVM, utilisez la commande suivante :


      # vxedit -rf rm rootdiskxNvol
      

    • Pour la version 4.0, utilisez la commande :


      # vxedit -g groupedisquesroot
      


    Caution – Caution –

    ne stockez aucune autre donnée en dehors des entrées de périphériques globaux dans le système de fichiers de périphériques globaux. Toutes les données du système de fichiers de périphériques globaux sont détruites avec la suppression du volume VxVM. Seules les données relatives aux entrées de périphériques globaux sont restaurées après la désencapsulation du disque root.


  8. Annulez l'encapsulation du disque root.


    Remarque –

    n'autorisez pas la demande de fermeture de la commande.



    # /etc/vx/bin/vxunroot
    

    Reportez-vous à la documentation de VxVM pour de plus amples informations.

  9. Utilisez la commande format(1M) pour ajouter au disque root une partition de 512 Mo pour le système de fichiers de périphériques globaux.


    Astuce –

    utilisez la même tranche que celle qui avait été allouée au système de fichiers de périphériques globaux avant l'encapsulation du disque root, comme spécifié dans le fichier /etc/vfstab.


  10. Configurez un système de fichiers sur la partition créée à l'Étape 9.


    # newfs /dev/rdsk/cNtXdYsZ
    

  11. Déterminez le nom IDP du disque root.


    # scdidadm -l cNtXdY
    1        phys-schost-1:/dev/rdsk/cNtXdY   /dev/did/rdsk/dN 
    

  12. Dans le fichier /etc/vfstab, remplacez les noms de chemins de l'entrée relative au système de fichiers de périphériques globaux par le chemin IDP identifié à l'Étape 11.

    L'entrée d'origine devrait s'apparenter à celle-ci.


    # vi /etc/vfstab
    /dev/vx/dsk/rootdiskxNvol /dev/vx/rdsk/rootdiskxNvol /global/.devices/node@N ufs 2 no global

    L'entrée modifiée avec le chemin IDP devrait ressembler à ceci :


    /dev/did/dsk/dNsX /dev/did/rdsk/dNsX /global/.devices/node@N ufs 2 no global

  13. Montez le système de fichiers global-devices.


    # mount /global/.devices/node@N
    

  14. À partir d'un nœud du cluster, rétablissez dans le système de fichiers de périphériques globaux, les nœuds de tous les périphériques Solstice DiskSuite ou Solaris Volume Manager et périphériques de disques bruts.


    # scgdevs
    

    Les périphériques VxVM sont récréés pendant la réinitialisation.

  15. Réinitialisez le nœud.


    # reboot
    

  16. Répétez cette procédure sur chaque nœud du cluster pour y annuler l'encapsulation du disque root.