Sun Cluster Software Guide d'installation pour le SE Solaris

Chapitre 4 Configuration du logiciel Solaris Volume Manager

Configurez vos disques locaux et multihôtes pour Solaris Volume Manager en suivant les procédures de ce chapitre, ainsi que les informations du document Planification de la gestion des volumes. Reportez-vous à la documentation de Solaris Volume Manager pour de plus amples informations.


Remarque –

Le module Enhanced Storage de Solaris Management Console n'est pas compatible avec le logiciel Sun Cluster. Pour configurer le logiciel Solaris Volume Manager, utilisez l'interface de ligne de commande ou les utilitaires Sun Cluster.


Ce chapitre comprend les rubriques suivantes :

Configuration du logiciel Solaris Volume Manager

Le tableau suivant répertorie les tâches à effectuer pour configurer les fonctions du logiciel Solaris Volume Manager pour Sun Cluster.

Tableau 4–1 Liste des tâches : Configuration du logiciel Solaris Volume Manager

Tâche 

Instructions 

1. Planification de la disposition de votre configuration Solaris Volume Manager. 

Planification de la gestion des volumes

2. (Solaris 9 uniquement) Évaluation du nombre de noms de volumes et de jeux de disques nécessaires à la configuration et à la modification du fichier /kernel/drv/md.conf.

SPARC : Définition du nombre de noms de volumes et de jeux de disques

3. Création de répliques de la base de données d'état sur les disques locaux. 

Création de répliques de bases de données d'état

4. (Facultatif) Mise en miroir des systèmes de fichiers sur le disque racine.

Mise en miroir du disque racine

ProcedureSPARC : Définition du nombre de noms de volumes et de jeux de disques


Remarque –

Cette procédure ne s'applique qu'à l'environnement Solaris 9. Si le cluster fonctionne sous Solaris 10, reportez-vous à la rubrique Création de répliques de bases de données d'état.

Avec la parution de Solaris 10, Solaris Volume Manager a été amélioré et prend désormais en charge la configuration dynamique des volumes. Il n'est plus nécessaire de modifier les paramètres nmd et md_nsets du fichier /kernel/drv/md.conf. Les nouveaux volumes sont créés de manière dynamique, selon vos besoins.


Cette procédure permet de déterminer le nombre de noms de volumes Solaris Volume Manager et de jeux de disques requis pour la configuration et comment modifier le fichier /kernel/drv/md.conf pour spécifier ces nombres.


Astuce –

Par défaut, le nombre de noms de volumes par jeu de disques est de 128, mais de nombreuses configurations en requièrent davantage. Pour gagner du temps sur l'administration ultérieurement, augmentez ce nombre avant de mettre en œuvre une configuration.

Parallèlement, définissez la valeur des champs nmd et md_nsets sur la valeur la plus basse possible. Les structures de mémoire existent pour tous les périphériques possibles conformément aux commandes nmd et md_nsets, même si vous n'avez pas créé ces périphériques. Pour des performances optimales, configurez la valeur de nmd et de md_nsets de sorte qu'elle soit légèrement supérieure au nombre de volumes que vous utiliserez.


Avant de commencer

Ayez à disposition le document Fiche de travail relative aux configurations des groupes de périphériques complété.

  1. Calculez le nombre total de jeux de disques dont vous pensez avoir besoin sur le cluster, puis ajoutez-en un pour la gestion de disques privée.

    Le cluster peut comprendre un maximum de 32 jeux de disques dont 31 sont dédiés à une utilisation d'ordre général et 1 est dédié à la gestion de disques privée. Par défaut, le nombre de jeux de disques est de 4. Il s'agit de la valeur que vous saisissez dans le champ md_nsets lors de l'Étape 3.

  2. Calculez le nombre maximum de noms de volumes dont vous pensez avoir besoin pour chaque jeu de disques du cluster.

    Chaque jeu de disques peut comprendre un maximum de 8 192 noms de volumes. Il s'agit de la valeur que vous saisissez dans le champ nmdà l'Étape 3.

    1. Déterminez la quantité de noms de volumes dont vous pensez avoir besoin par jeu de disques.

      Si vous utilisez des volumes locaux, assurez-vous que chaque nom de volume local sur lequel est monté un système de fichiers de périphériques globaux (/global/.devices/node@nodeid) est unique sur l'ensemble du cluster et n'utilise pas le nom d'un ID de périphérique existant.


      Astuce –

      Choisissez une série de numéros à utiliser exclusivement pour les noms DID et, pour chaque nœud, une série à utiliser exclusivement pour ses noms de volumes locaux. Par exemple, les noms DID peuvent utiliser la tranche d1 à d100. Lesvolumes locaux peuvent utiliser sur le nœud 1 des noms de la tranche d100 à d199. Les volumes locaux sur le nœud 2 peuvent utiliser des noms de la tranche d200 à d299.


    2. Calculez le nombre maximum de noms de volumes que vous pensez utiliser dans n'importe quel jeu de disques.

      La quantité de noms de volumes à définir est basée sur la valeur des noms de volumes plutôt que sur leur quantité réelle. Par exemple, si vos noms de volumes vont de d950 à d1000, vous devez configurer la valeur sur 1 000 noms au lieu de 50 dans le logiciel Solaris Volume Manager.

  3. Prenez le rôle de superutilisateur sur chaque nœud et modifiez le fichier /kernel/drv/md.conf.


    Caution – Caution –

    Tous les nœuds de cluster (ou paires de clusters dans la topologie de paires de clusters) doivent disposer des mêmes fichiers /kernel/drv/md.conf, quel que soit le nombre de jeux de disques desservis par chaque nœud. Le non-respect de cette consigne peut occasionner de graves erreurs de Solaris Volume Manager et un risque de pertes de données.


    1. Attribuez la valeur déterminée lors de l'Étape 1 au champ md_nsets.

    2. Attribuez la valeur déterminée lors de l'Étape 2 au champ nmd.

  4. Sur chaque noeud, effectuez une réinitialisation de reconfiguration.


    phys-schost# touch /reconfigure
    phys-schost# shutdown -g0 -y -i6
    

    Les modifications apportées au fichier /kernel/drv/md.conf prennent effet après une réinitialisation de reconfiguration.

Étapes suivantes

Créez des répliques de base de données d'état. Reportez-vous à la rubrique Création de répliques de bases de données d'état.

ProcedureCréation de répliques de bases de données d'état

Suivez cette procédure sur chaque noeud du cluster.

  1. Prenez le rôle de superutilisateur.

  2. Créez des répliques de base de données d'état sur un ou plusieurs périphériques locaux pour chacun des nœuds du cluster.

    Pour spécifier les tranches à utiliser, précisez le nom physique (cNtXdY sZ) et non le nom de l'ID de périphérique (dN).


    phys-schost# metadb -af slice-1 slice-2 slice-3
    

    Astuce –

    pour protéger les données d'état, opération nécessaire pour exécuter le logiciel Solaris Volume Manager, créez au moins trois répliques par noeud. Vous pouvez également placer des répliques sur plusieurs périphériques pour bénéficier d'une protection en cas d'échec de l'un des périphériques.


    Pour obtenir plus d'informations, reportez-vous à la page de manuel metadb(1M) et à votre documentation Solaris Volume Manager.

  3. Vérifiez les répliques.


    phys-schost# metadb
    

    La commande metadb affiche la liste des répliques.


Exemple 4–1 Création de répliques de bases de données d'état

L'exemple suivant illustre trois répliques de bases de données d'état. Chaque réplique est créée sur un périphérique différent.


phys-schost# metadb -af c0t0d0s7 c0t1d0s7 c1t0d0s7
phys-schost# metadb
flags            first blk      block count
    a       u       16          8192         /dev/dsk/c0t0d0s7
    a       u       16          8192         /dev/dsk/c0t1d0s7
    a       u       16          8192         /dev/dsk/c1t0d0s7

Étapes suivantes

Pour la mise en miroir de systèmes de fichiers sur le disque racine, reportez-vous à la rubrique Mise en miroir du disque racine.

Sinon, passez à la rubrique Création de jeux de disques dans un cluster pour créer des jeux de disques Solaris Volume Manager.

Mise en miroir du disque racine

La mise en miroir du disque racine permet d'éviter que le noeud du cluster lui‐même s'arrête en cas de panne du disque système. Quatre types de systèmes de fichiers peuvent résider sur le disque racine. Chaque système de fichiers est mis en miroir à l'aide d'une méthode différente.

Suivez les procédures présentées pour mettre en miroir chaque type de système de fichiers.


Caution – Caution –

pour la mise en miroir d'un disque local, n'utilisez pas le chemin /dev/global lorsque vous indiquez le nom du disque. Si vous spécifiez ce chemin pour autre chose que des systèmes de fichiers de clusters, le système ne peut pas s'initialiser.


ProcedureMise en miroir du système de fichiers racine (/)

Utilisez cette procédure pour mettre en miroir le système de fichiers racine (/).


Remarque –

Cette procédure fournit les formes longues des commandes Sun Cluster. La plupart des commandes ont également une forme courte. À l'exception des formes des noms de commandes, les commandes sont identiques. Pour obtenir la liste des commandes et leurs formes courtes, reportez-vous à l'Annexe A, Sun Cluster Object-Oriented Commands du Sun Cluster System Administration Guide for Solaris OS.


  1. Prenez le rôle de superutilisateur.

  2. Placez la tranche racine dans une concaténation à tranche unique (une seule voie).

    Spécifiez le nom du disque physique de la tranche du disque racine (cNtXdYsZ.


    phys-schost# metainit -f submirror1 1 1 root-disk-slice
    
  3. Créez une deuxième concaténation.


    phys-schost# metainit submirror2 1 1 submirror-disk-slice
    
  4. Créez un miroir à une voie avec un sous-miroir.


    phys-schost# metainit mirror -m submirror1
    

    Remarque –

    S'il s'agit d'un périphérique local qui doit servir à monter un système de fichiers de périphériques globaux (/global/.devices/node@nodeid), le nom de volume du miroir doit être unique sur l'ensemble du cluster.


  5. Définissez le système de fichiers du répertoire (/) racine.


    phys-schost# metaroot mirror
    

    Cette commande édite les fichiers /etc/vfstab et /etc/system de sorte que le système puisse être initialisé avec le système de fichiers racine (/) sur un métapériphérique ou un volume. Pour plus d'informations, reportez-vous à la page de manuel metaroot(1M).

  6. Videz tous les systèmes de fichiers.


    phys-schost# lockfs -fa
    

    Cette commande supprime toutes les transactions du journal et les écrit dans le système de fichiers maître sur tous les systèmes de fichiers UFS montés. Pour plus d'informations, reportez-vous à la page de manuel lockfs(1M).

  7. Déplacez tous les groupes de ressources ou groupes de périphériques du noeud.


    phys-schost# clnode evacuate from-node
    
    from-node

    Indique le nom du noeud à partir duquel évacuer les groupes de ressources ou de périphériques.

  8. Réinitialisez le noeud.

    Cette commande remonte le système de fichiers racine (/) nouvellement mis en miroir.


    phys-schost# shutdown -g0 -y -i6
    
  9. Attachez le deuxième sous-miroir au miroir.


    phys-schost# metattach mirror submirror2
    

    Reportez-vous à la page de manuel metattach(1M) pour plus d'informations.

  10. Si le disque utilisé pour mettre en miroir le disque racine est connecté physiquement à plusieurs nœuds (plusieurs hôtes), modifiez les propriétés du groupe de périphériques pour prendre en charge cette utilisation comme miroir.

    Vérifiez que le groupe de périphériques répond aux exigences suivantes :

    • Le groupe de périphériques de disques bruts doit posséder un seul nœud configuré dans sa liste de nœuds.

    • La propriété localonly du groupe de périphériques de disques bruts doit être activée. La propriété localonly évite la séparation involontaire d'un nœud de son périphérique d'initialisation si ce dernier est connecté à plusieurs nœuds.

    1. Le cas échéant, utilisez la commande cldevice pour déterminer le nom du groupe de périphériques de disques bruts.


      phys-schost# cldevice show node:/dev/rdsk/cNtXdY
      

      Astuce –

      Si vous émettez la commande depuis un nœud physiquement connecté au disque, vous pouvez indiquer le nom du disque sous la forme cNtXdY plutôt que par son nom de chemin de périphérique complet.


      Dans l'exemple suivant, le nom du groupe de périphériques de disques bruts dsk/d2 fait partie du nom du périphérique DID.


      === DID Device Instances ===                   
      
      DID Device Name:                                /dev/did/rdsk/d2
        Full Device Path:                               phys-schost-1:/dev/rdsk/c1t1d0
        Full Device Path:                               phys-schost-3:/dev/rdsk/c1t1d0
      …

      Reportez-vous à la page de manuel cldevice(1CL) pour plus d'informations.

    2. Visualisez la liste des noeuds du groupe de périphériques de disques bruts.


      phys-schost# cldevicegroup show dsk/dN
      

      Le résultat doit être similaire à ce qui suit pour le groupe de périphériques dsk/d2 :


      Device Group Name:                              dsk/d2
      …
        Node List:                                      phys-schost-1, phys-schost-3
      …
        localonly:                                      false
    3. Si la liste de nœuds contient plusieurs noms de nœud, supprimez tous les nœuds, à l'exception du nœud correspondant au disque racine mis en miroir.

      Seul le nœud dont vous avez mis le disque racine en miroir doit figurer dans la liste de nœuds du groupe de périphériques de disques bruts.


      phys-schost# cldevicegroup remove-node -n node devicegroup
      
      -n node

      Indique le nœud à supprimer de la liste des nœuds du groupe de périphériques.

    4. Activez la propriété localonly du groupe de périphériques de disques bruts, si elle ne l'est pas déjà.

      Lorsque la propriété localonly est activée, le groupe de périphériques de disque bruts est utilisé exclusivement par le noeud figurant dans sa liste de noeuds. Cela évite la séparation involontaire d'un noeud de son périphérique de démarrage si celui-ci est connecté à plusieurs noeuds.


      phys-schost# cldevicegroup set -p localonly=true devicegroup
      
      -p

      Définit la valeur d'une propriété de groupe de périphériques.

      localonly=true

      Active la propriété localonly du groupe de périphériques.

      Pour de plus amples informations sur la propriété localonly, reportez-vous à la page du manuel cldevicegroup(1CL).

  11. Prenez note de l'autre chemin de démarrage, pour utilisation ultérieure éventuelle.

    Si le périphérique de démarrage principal échoue, vous pouvez ainsi procéder à l'initialisation à partir de cet autre périphérique de démarrage. Reportez-vous au Special Considerations for Mirroring root (/) du Solaris Volume Manager Administration Guide ou à la rubrique Creating a RAID-1 Volume du Solaris Volume Manager Administration Guide pour plus d'informations sur les autres périphériques de démarrage.


    phys-schost# ls -l /dev/rdsk/root-disk-slice
    
  12. Sur chaque nœud restant du cluster, reproduisez la procédure de l'Étape 1 à l'Étape 11.

    Vérifiez que chaque nom de volume d'un miroir sur lequel doit être monté le système de fichiers de périphériques globaux (/global/.devices/node@nodeid) est unique sur l'ensemble du cluster.


Exemple 4–2 Mise en miroir du système de fichiers racine (/)

L'exemple suivant illustre la création du miroir d0 sur le nœud phys-schost-1, constitué du sous-miroir d10 sur la partition c0t0d0s0 et du sous-miroir d20 sur la partition c2t2d0s0. Le périphérique c2t2d0 étant un disque multihôte, la propriété localonly est activée. L'exemple indique également l'autre chemin de démarrage pour l'enregistrement.


phys-schost# metainit -f d10 1 1 c0t0d0s0
d11: Concat/Stripe is setup
phys-schost# metainit d20 1 1 c2t2d0s0
d12: Concat/Stripe is setup
phys-schost# metainit d0 -m d10
d10: Mirror is setup
phys-schost# metaroot d0
phys-schost# lockfs -fa
phys-schost# clnode evacuate phys-schost-1
phys-schost# shutdown -g0 -y -i6
phys-schost# metattach d0 d20
d0: Submirror d20 is attached
phys-schost# cldevicegroup show dsk/d2
Device Group Name:                              dsk/d2
…
  Node List:                                      phys-schost-1, phys-schost-3
…
  localonly:                                     false
phys-schost# cldevicegroup remove-node -n phys-schost-3 dsk/d2
phys-schost# cldevicegroup set -p localonly-true dsk/d2
phys-schost# ls -l /dev/rdsk/c2t2d0s0
lrwxrwxrwx  1 root     root          57 Apr 25 20:11 /dev/rdsk/c2t2d0s0
–> ../../devices/node@1/pci@1f,0/pci@1/scsi@3,1/disk@2,0:a,raw

Étapes suivantes

Pour la mise en miroir de l'espace de noms de périphériques globaux, /global/.devices/node@nodeid, reportez-vous à la rubrique Mise en miroir de l'espace de noms de périphériques globaux.

Pour la mise en miroir de systèmes de fichiers qui ne peuvent pas être démontés, reportez-vous à la rubrique Mise en miroir des systèmes de fichiers autres que les systèmes de fichiers racine (/) ne pouvant pas être démontés.

Pour la mise en miroir de systèmes de fichiers définis par l'utilisateur, reportez-vous à la rubrique Mise en miroir de systèmes de fichiers pouvant être démontés.

Sinon, reportez-vous à la rubrique Création de jeux de disques dans un cluster pour la création d'un jeu de disques.

Erreurs fréquentes

Certaines étapes de cette procédure de mise en miroir peuvent générer un message d'erreur semblable à celui-ci :metainit: dg-schost-1: d1s0: n'est pas un métapériphérique. Ce message est anodin et peut être ignoré.

ProcedureMise en miroir de l'espace de noms de périphériques globaux

Suivez cette procédure pour mettre en miroir l'espace de noms de périphériques globaux, /global/.devices/node@nodeid/.


Remarque –

Cette procédure fournit les formes longues des commandes Sun Cluster. La plupart des commandes ont également une forme courte. À l'exception des formes des noms de commandes, les commandes sont identiques. Pour obtenir la liste des commandes et leurs formes courtes, reportez-vous à l'Annexe A, Sun Cluster Object-Oriented Commands du Sun Cluster System Administration Guide for Solaris OS.


  1. Prenez le rôle de superutilisateur.

  2. Placez la tranche de l'espace de noms de périphériques globaux dans une concaténation à une seule tranche (une seule voie).

    Utilisez le nom du disque physique de la tranche de disque (cNtXdYsZ).


    phys-schost# metainit -f submirror1 1 1 diskslice
    
  3. Créez une deuxième concaténation.


    phys-schost# metainit submirror2 1 1 submirror-diskslice
    
  4. Créez un miroir à une voie avec un sous-miroir.


    phys-schost# metainit mirror -m submirror1
    

    Remarque –

    Chaque nom de volume d'un miroir sur lequel doit être monté le système de fichiers de périphériques globaux (/global/.devices/node@nodeid) doit être unique sur l'ensemble du cluster.


  5. Attachez le deuxième sous-miroir au miroir.

    Cet attachement lance une synchronisation des sous-miroirs.


    phys-schost# metattach mirror submirror2
    
  6. Éditez l'entrée de fichier /etc/vfstab pour le système de fichiers /global/.devices/node@id_nœud.

    Remplacez les noms des colonnes device to mount et device to fsck par le nom du miroir.


    phys-schost# vi /etc/vfstab
    #device        device        mount    FS     fsck    mount    mount
    #to mount      to fsck       point    type   pass    at boot  options
    #
    /dev/md/dsk/mirror /dev/md/rdsk/mirror /global/.devices/node@nodeid ufs 2 no global
  7. Pour chaque nœud du cluster, reproduisez la procédure, de l'Étape 1 à l'Étape 6.

  8. Attendez la fin du processus de synchronisation des miroirs (commencé au cours de l'Étape 5).

    Utilisez la commande metastat(1M) pour visualiser l'état du miroir et vous assurer que la synchronisation de la mise en miroir est terminée.


    phys-schost# metastat mirror
    
  9. Si le disque utilisé pour mettre en miroir l'espace de noms de périphériques globaux est connecté physiquement à plusieurs nœuds (plusieurs hôtes), assurez-vous que la liste de nœuds de groupe de périphériques ne contient qu'un seul nœud et que la propriété localonly est activée.

    Vérifiez que le groupe de périphériques répond aux exigences suivantes :

    • Le groupe de périphériques de disques bruts doit posséder un seul nœud configuré dans sa liste de nœuds.

    • La propriété localonly du groupe de périphériques de disques bruts doit être activée. La propriété localonly évite la séparation involontaire d'un nœud de son périphérique d'initialisation si ce dernier est connecté à plusieurs nœuds.

    1. Le cas échéant, utilisez la commande cldevice pour déterminer le nom du groupe de périphériques de disques bruts.


      phys-schost# cldevice show node:/dev/rdsk/cNtXdY
      

      Astuce –

      Si vous émettez la commande depuis un nœud physiquement connecté au disque, vous pouvez indiquer le nom du disque sous la forme cNtXdY plutôt que par son nom de chemin de périphérique complet.


      Dans l'exemple suivant, le nom du groupe de périphériques de disques bruts dsk/d2 fait partie du nom du périphérique DID.


      === DID Device Instances ===                   
      
      DID Device Name:                                /dev/did/rdsk/d2
        Full Device Path:                               phys-schost-1:/dev/rdsk/c1t1d0
        Full Device Path:                               phys-schost-3:/dev/rdsk/c1t1d0
      …

      Reportez-vous à la page de manuel cldevice(1CL) pour plus d'informations.

    2. Visualisez la liste des noeuds du groupe de périphériques de disques bruts.


      phys-schost# cldevicegroup show dsk/dN
      

      Le résultat doit être similaire à ce qui suit pour le groupe de périphériques dsk/d2 :


      Device Group Name:                              dsk/d2
      …
        Node List:                                      phys-schost-1, phys-schost-3
      …
        localonly:                                      false
    3. Si la liste de nœuds contient plusieurs noms de nœud, supprimez tous les nœuds, à l'exception du nœud correspondant au disque racine mis en miroir.

      Seul le nœud dont vous avez mis le disque racine en miroir doit figurer dans la liste de nœuds du groupe de périphériques de disques bruts.


      phys-schost# cldevicegroup remove-node -n node devicegroup
      
      -n node

      Indique le nœud à supprimer de la liste des nœuds du groupe de périphériques.

    4. Activez la propriété localonly du groupe de périphériques de disques bruts, si elle ne l'est pas déjà.

      Lorsque la propriété localonly est activée, le groupe de périphériques de disque bruts est utilisé exclusivement par le noeud figurant dans sa liste de noeuds. Cela évite la séparation involontaire d'un noeud de son périphérique de démarrage si celui-ci est connecté à plusieurs noeuds.


      phys-schost# cldevicegroup set -p localonly=true devicegroup
      
      -p

      Définit la valeur d'une propriété de groupe de périphériques.

      localonly=true

      Active la propriété localonly du groupe de périphériques.

      Pour de plus amples informations sur la propriété localonly, reportez-vous à la page du manuel cldevicegroup(1CL).


Exemple 4–3 Mise en miroir de l'espace de noms de périphériques globaux

L'exemple suivant illustre la création du miroir d101, constitué du sous-miroir d111 sur la partition c0t0d0s3 et du sous-miroir d121 sur la partition c2t2d0s3. L'entrée du fichier /etc/vfstab pour /global/.devices/node@1 est mise à jour pour utiliser le nom de miroir d101. Le périphérique c2t2d0 étant un disque multihôte, la propriété localonly est activée.


phys-schost# metainit -f d111 1 1 c0t0d0s3
d111: Concat/Stripe is setup
phys-schost# metainit d121 1 1 c2t2d0s3
d121: Concat/Stripe is setup
phys-schost# metainit d101 -m d111
d101: Mirror is setup
phys-schost# metattach d101 d121
d101: Submirror d121 is attached
phys-schost# vi /etc/vfstab
#device        device        mount    FS     fsck    mount    mount
#to mount      to fsck       point    type   pass    at boot  options
#
/dev/md/dsk/d101 /dev/md/rdsk/d101 /global/.devices/node@1 ufs 2 no global
phys-schost# metastat d101
d101: Mirror
      Submirror 0: d111
         State: Okay
      Submirror 1: d121
         State: Resyncing
      Resync in progress: 15 % done
…
phys-schost# cldevice show phys-schost-3:/dev/rdsk/c2t2d0
=== DID Device Instances ===

DID Device Name:                                /dev/did/rdsk/d2
  Full Device Path:                               phys-schost-1:/dev/rdsk/c2t2d0
  Full Device Path:                               phys-schost-3:/dev/rdsk/c2t2d0
…

phys-schost# cldevicegroup show | grep dsk/d2
Device Group Name:                              dsk/d2
…
  Node List:                                      phys-schost-1, phys-schost-3
…
  localonly:                                      false
phys-schost# cldevicegroup remove-node -n phys-schost-3 dsk/d2
phys-schost# cldevicegroup set -p localonly-true dsk/d2

Étapes suivantes

Pour la mise en miroir de systèmes de fichiers, autres que racine (/), qui ne peuvent être démontés, reportez-vous à la rubrique Mise en miroir des systèmes de fichiers autres que les systèmes de fichiers racine (/) ne pouvant pas être démontés.

Pour la mise en miroir de systèmes de fichiers définis par l'utilisateur, reportez-vous à la rubrique Mise en miroir de systèmes de fichiers pouvant être démontés.

Sinon, reportez-vous à la rubrique Création de jeux de disques dans un cluster pour la création d'un jeu de disques.

Erreurs fréquentes

Certaines étapes de cette procédure de mise en miroir peuvent générer un message d'erreur semblable à celui-ci : metainit: dg-schost-1: d1s0: n'est pas un métapériphérique. Ce message est anodin et peut être ignoré.

ProcedureMise en miroir des systèmes de fichiers autres que les systèmes de fichiers racine (/) ne pouvant pas être démontés

Cette procédure permet de mettre en miroir les systèmes de fichiers autres que les systèmes de fichiers racine (/) ne pouvant pas être démontés tandis que le système est utilisé normalement, comme /usr, /opt ou swap.


Remarque –

Cette procédure fournit les formes longues des commandes Sun Cluster. La plupart des commandes ont également une forme courte. À l'exception des formes des noms de commandes, les commandes sont identiques. Pour obtenir la liste des commandes et leurs formes courtes, reportez-vous à l'Annexe A, Sun Cluster Object-Oriented Commands du Sun Cluster System Administration Guide for Solaris OS.


  1. Prenez le rôle de superutilisateur.

  2. Placez la tranche sur laquelle réside un système de fichiers non démontable dans une concaténation à une seule tranche (une seule voie).

    Spécifiez le nom du disque physique de la tranche de disque (cNtXdYsZ).


    phys-schost# metainit -f submirror1 1 1 diskslice
    
  3. Créez une deuxième concaténation.


    phys-schost# metainit submirror2 1 1 submirror-diskslice
    
  4. Créez un miroir à une voie avec un sous-miroir.


    phys-schost# metainit mirror -m submirror1
    

    Remarque –

    Il n'est pas nécessaire que le nom de volume du miroir soit unique sur l'ensemble du cluster.


  5. Pour chaque système de fichiers non démontable que vous souhaitez mettre en miroir, reproduisez la procédure, de l'Étape 1 à Étape 4.

  6. Sur chaque noeud, éditez l'entrée de fichier /etc/vfstab pour chaque système de fichiers non démontable mis en miroir.

    Remplacez les noms des colonnes device to mount et device to fsck par le nom du miroir.


    phys-schost# vi /etc/vfstab
    #device        device        mount    FS     fsck    mount    mount
    #to mount      to fsck       point    type   pass    at boot  options
    #
    /dev/md/dsk/mirror /dev/md/rdsk/mirror /filesystem ufs 2 no global
  7. Déplacez tous les groupes de ressources ou groupes de périphériques du noeud.


    phys-schost# clnode evacuate from-node
    
    from-node

    Indique le nom du nœud à partir duquel déplacer les groupes de ressources ou de périphériques.

  8. Réinitialisez le noeud.


    phys-schost# shutdown -g0 -y -i6
    
  9. Attachez le deuxième sous-miroir à chaque miroir.

    Cet attachement lance une synchronisation des sous-miroirs.


    phys-schost# metattach mirror submirror2
    
  10. Attendez la fin du processus de synchronisation des miroirs (commencé au cours de l' Étape 9).

    Utilisez la commande metastat(1M) pour visualiser l'état du miroir et vous assurer que la synchronisation de la mise en miroir est terminée.


    phys-schost# metastat mirror
    
  11. Si le disque utilisé pour mettre en miroir le système de fichiers ne pouvant pas être démonté est connecté physiquement à plusieurs nœuds (plusieurs hôtes), assurez-vous que la liste de nœuds de groupe de périphériques ne contient qu'un seul nœud et que la propriété localonly est activée.

    Vérifiez que le groupe de périphériques répond aux exigences suivantes :

    • Le groupe de périphériques de disques bruts doit posséder un seul nœud configuré dans sa liste de nœuds.

    • La propriété localonly du groupe de périphériques de disques bruts doit être activée. La propriété localonly évite la séparation involontaire d'un nœud de son périphérique d'initialisation si ce dernier est connecté à plusieurs nœuds.

    1. Le cas échéant, utilisez la commande cldevice pour déterminer le nom du groupe de périphériques de disques bruts.


      phys-schost# cldevice show node:/dev/rdsk/cNtXdY
      

      Astuce –

      Si vous émettez la commande depuis un nœud physiquement connecté au disque, vous pouvez indiquer le nom du disque sous la forme cNtXdY plutôt que par son nom de chemin de périphérique complet.


      Dans l'exemple suivant, le nom du groupe de périphériques de disques bruts dsk/d2 fait partie du nom du périphérique DID.


      === DID Device Instances ===                   
      
      DID Device Name:                                /dev/did/rdsk/d2
        Full Device Path:                               phys-schost-1:/dev/rdsk/c1t1d0
        Full Device Path:                               phys-schost-3:/dev/rdsk/c1t1d0
      …

      Reportez-vous à la page de manuel cldevice(1CL) pour plus d'informations.

    2. Visualisez la liste des noeuds du groupe de périphériques de disques bruts.


      phys-schost# cldevicegroup show dsk/dN
      

      Le résultat doit être similaire à ce qui suit pour le groupe de périphériques dsk/d2 :


      Device Group Name:                              dsk/d2
      …
        Node List:                                      phys-schost-1, phys-schost-3
      …
        localonly:                                      false
    3. Si la liste de nœuds contient plusieurs noms de nœud, supprimez tous les nœuds, à l'exception du nœud correspondant au disque racine mis en miroir.

      Seul le nœud dont vous avez mis le disque racine en miroir doit figurer dans la liste de nœuds du groupe de périphériques de disques bruts.


      phys-schost# cldevicegroup remove-node -n node devicegroup
      
      -n node

      Indique le nœud à supprimer de la liste des nœuds du groupe de périphériques.

    4. Activez la propriété localonly du groupe de périphériques de disques bruts, si elle ne l'est pas déjà.

      Lorsque la propriété localonly est activée, le groupe de périphériques de disque bruts est utilisé exclusivement par le noeud figurant dans sa liste de noeuds. Cela évite la séparation involontaire d'un noeud de son périphérique de démarrage si celui-ci est connecté à plusieurs noeuds.


      phys-schost# cldevicegroup set -p localonly=true devicegroup
      
      -p

      Définit la valeur d'une propriété de groupe de périphériques.

      localonly=true

      Active la propriété localonly du groupe de périphériques.

      Pour de plus amples informations sur la propriété localonly, reportez-vous à la page du manuel cldevicegroup(1CL).


Exemple 4–4 Mise en miroir de systèmes de fichiers ne pouvant pas être démontés

L'exemple suivant illustre la création du miroir d1 sur le noeud phys-schost-1 pour dupliquer /usr, résidant sur c0t0d0s1. Le miroir d1 est constitué du sous-miroir d11 sur la partition c0t0d0s1 et du sous-miroir d21 sur la partition c2t2d0s1. L'entrée de fichier /etc/vfstab pour /usr est mise à jour pour utiliser le nom de miroir d1. Le périphérique c2t2d0 étant un disque multihôte, la propriété localonly est activée.


phys-schost# metainit -f d11 1 1 c0t0d0s1
d11: Concat/Stripe is setup
phys-schost# metainit d21 1 1 c2t2d0s1
d21: Concat/Stripe is setup
phys-schost# metainit d1 -m d11
d1: Mirror is setup
phys-schost# vi /etc/vfstab
#device        device        mount    FS     fsck    mount    mount
#to mount      to fsck       point    type   pass    at boot  options
#
/dev/md/dsk/d1 /dev/md/rdsk/d1 /usr ufs  2       no global
…
phys-schost# clnode evacuate phys-schost-1
phys-schost# shutdown -g0 -y -i6
phys-schost# metattach d1 d21
d1: Submirror d21 is attached
phys-schost# metastat d1
d1: Mirror
      Submirror 0: d11
         State: Okay
      Submirror 1: d21
         State: Resyncing
      Resync in progress: 15 % done
…
phys-schost# cldevice show phys-schost-3:/dev/rdsk/c2t2d0
…
DID Device Name:                                /dev/did/rdsk/d2
phys-schost# cldevicegroup show dsk/d2
Device Group Name:                              dsk/d2
…
  Node List:                                      phys-schost-1, phys-schost-3
…
  localonly:                                      false
phys-schost# cldevicegroup remove-node -n phys-schost-3 dsk/d2
phys-schost# cldevicegroup set -p localonly=true dsk/d2

Étapes suivantes

Pour la mise en miroir de systèmes de fichiers définis par l'utilisateur, reportez-vous à la rubrique Mise en miroir de systèmes de fichiers pouvant être démontés.

Sinon, reportez-vous à la rubrique Création de jeux de disques dans un cluster pour la création d'un jeu de disques.

Erreurs fréquentes

Certaines étapes de cette procédure de mise en miroir peuvent générer un message d'erreur, semblable à celui-ci : metainit: dg-schost-1: d1s0: n'est pas un métapériphérique. Ce message est anodin et peut être ignoré.

ProcedureMise en miroir de systèmes de fichiers pouvant être démontés

Cette procédure permet de mettre en miroir des systèmes de fichiers pouvant être démontés et définis par l'utilisateur. Dans cette procédure, il n'est pas nécessaire de réinitialiser les noeuds.


Remarque –

Cette procédure fournit les formes longues des commandes Sun Cluster. La plupart des commandes ont également une forme courte. À l'exception des formes des noms de commandes, les commandes sont identiques. Pour obtenir la liste des commandes et leurs formes courtes, reportez-vous à l'Annexe A, Sun Cluster Object-Oriented Commands du Sun Cluster System Administration Guide for Solaris OS.


  1. Prenez le rôle de superutilisateur.

  2. Démontez le système de fichiers à mettre en miroir.

    Assurez-vous qu'aucun processus n'est en cours sur le système de fichiers.


    phys-schost# umount /mount-point
    

    Reportez-vous à la page de manuel umount(1M) et au Chapitre 18, Mounting and Unmounting File Systems (Tasks) du System Administration Guide: Devices and File Systems pour plus d'informations.

  3. Dans une concaténation à une seule tranche (à une voie), placez la tranche sur laquelle réside un système de fichiers défini par l'utilisateur qui peut être démonté.

    Spécifiez le nom du disque physique de la tranche de disque (cNtXdYsZ).


    phys-schost# metainit -f submirror1 1 1 diskslice
    
  4. Créez une deuxième concaténation.


    phys-schost# metainit submirror2 1 1 submirror-diskslice
    
  5. Créez un miroir à une voie avec un sous-miroir.


    phys-schost# metainit mirror -m submirror1
    

    Remarque –

    Il n'est pas nécessaire que le nom de volume du miroir soit unique sur l'ensemble du cluster.


  6. Pour chaque système de fichiers montable à mettre en miroir, reproduisez la procédure, de l'Étape 1 à l'Étape 5.

  7. Sur chaque noeud, éditez l'entrée de fichier /etc/vfstab pour chaque système de fichiers mis en miroir.

    Remplacez les noms des colonnes device to mount et device to fsck par le nom du miroir.


    phys-schost# vi /etc/vfstab
    #device        device        mount    FS     fsck    mount    mount
    #to mount      to fsck       point    type   pass    at boot  options
    #
    /dev/md/dsk/mirror /dev/md/rdsk/mirror /filesystem ufs 2 no global
  8. Attachez le deuxième sous-miroir au miroir.

    Cet attachement lance une synchronisation des sous-miroirs.


    phys-schost# metattach mirror submirror2
    
  9. Attendez la fin du processus de synchronisation des miroirs (commencé au cours de l' Étape 8).

    Utilisez la commandemetastat(1M) pour visualiser l'état du miroir.


    phys-schost# metastat mirror
    
  10. Si le disque utilisé pour mettre en miroir le système de fichiers défini par l'utilisateur est connecté physiquement à plusieurs nœuds (plusieurs hôtes), assurez-vous que la liste de nœuds de groupe de périphériques ne contient qu'un seul nœud et que la propriété localonly est activée.

    Vérifiez que le groupe de périphériques répond aux exigences suivantes :

    • Le groupe de périphériques de disques bruts doit posséder un seul nœud configuré dans sa liste de nœuds.

    • La propriété localonly du groupe de périphériques de disques bruts doit être activée. La propriété localonly évite la séparation involontaire d'un nœud de son périphérique d'initialisation si ce dernier est connecté à plusieurs nœuds.

    1. Le cas échéant, utilisez la commande cldevice pour déterminer le nom du groupe de périphériques de disques bruts.


      phys-schost# cldevice show node:/dev/rdsk/cNtXdY
      

      Astuce –

      Si vous émettez la commande depuis un nœud physiquement connecté au disque, vous pouvez indiquer le nom du disque sous la forme cNtXdY plutôt que par son nom de chemin de périphérique complet.


      Dans l'exemple suivant, le nom du groupe de périphériques de disques bruts dsk/d2 fait partie du nom du périphérique DID.


      === DID Device Instances ===                   
      
      DID Device Name:                                /dev/did/rdsk/d2
        Full Device Path:                               phys-schost-1:/dev/rdsk/c1t1d0
        Full Device Path:                               phys-schost-3:/dev/rdsk/c1t1d0
      …

      Reportez-vous à la page de manuel cldevice(1CL) pour plus d'informations.

    2. Visualisez la liste des noeuds du groupe de périphériques de disques bruts.


      phys-schost# cldevicegroup show dsk/dN
      

      Le résultat doit être similaire à ce qui suit pour le groupe de périphériques dsk/d2 :


      Device Group Name:                              dsk/d2
      …
        Node List:                                      phys-schost-1, phys-schost-3
      …
        localonly:                                      false
    3. Si la liste de nœuds contient plusieurs noms de nœud, supprimez tous les nœuds, à l'exception du nœud correspondant au disque racine mis en miroir.

      Seul le nœud dont vous avez mis le disque racine en miroir doit figurer dans la liste de nœuds du groupe de périphériques de disques bruts.


      phys-schost# cldevicegroup remove-node -n node devicegroup
      
      -n node

      Indique le nœud à supprimer de la liste des nœuds du groupe de périphériques.

    4. Activez la propriété localonly du groupe de périphériques de disques bruts, si elle ne l'est pas déjà.

      Lorsque la propriété localonly est activée, le groupe de périphériques de disque bruts est utilisé exclusivement par le noeud figurant dans sa liste de noeuds. Cela évite la séparation involontaire d'un noeud de son périphérique de démarrage si celui-ci est connecté à plusieurs noeuds.


      phys-schost# cldevicegroup set -p localonly=true devicegroup
      
      -p

      Définit la valeur d'une propriété de groupe de périphériques.

      localonly=true

      Active la propriété localonly du groupe de périphériques.

      Pour de plus amples informations sur la propriété localonly, reportez-vous à la page du manuel cldevicegroup(1CL).

  11. Montez le système de fichiers mis en miroir.


    phys-schost# mount /mount-point
    

    Reportez-vous à la page de manuel mount(1M) et au Chapitre 18, Mounting and Unmounting File Systems (Tasks) du System Administration Guide: Devices and File Systems pour plus d'informations.


Exemple 4–5 Mise en miroir de systèmes de fichiers pouvant être démontés

L'exemple suivant illustre la création du miroir d4 pour mettre en miroir le répertoire /export, résidant sur c0t0d0s4. Le miroir d4 est constitué du sous-miroir d14 sur la partition c0t0d0s4 et du sous-miroir d24 sur la partition c2t2d0s4. L'entrée de fichier /etc/vfstab pour /export est mise à jour pour utiliser le nom de miroir d4. Le périphérique c2t2d0 étant un disque multihôte, la propriété localonly est activée.


phys-schost# umount /export
phys-schost# metainit -f d14 1 1 c0t0d0s4
d14: Concat/Stripe is setup
phys-schost# metainit d24 1 1 c2t2d0s4
d24: Concat/Stripe is setup
phys-schost# metainit d4 -m d14
d4: Mirror is setup
phys-schost# vi /etc/vfstab
#device        device        mount    FS     fsck    mount    mount
#to mount      to fsck       point    type   pass    at boot  options
#
# /dev/md/dsk/d4 /dev/md/rdsk/d4 /export ufs 2 no    global
phys-schost# metattach d4 d24
d4: Submirror d24 is attached
phys-schost# metastat d4
d4: Mirror
       Submirror 0: d14
          State: Okay
       Submirror 1: d24
          State: Resyncing
       Resync in progress: 15 % done
…
phys-schost# cldevice show phys-schost-3:/dev/rdsk/c2t2d0
…
DID Device Name:                                /dev/did/rdsk/d2
phys-schost# cldevicegroup show dsk/d2
Device Group Name:                              dsk/d2
…
  Node List:                                      phys-schost-1, phys-schost-2
…
  localonly:                                      false
phys-schost# cldevicegroup remove-node -n phys-schost-3 dsk/d2
phys-schost# cldevicegroup set -p localonly=true dsk/d2 
phys-schost# mount /export

Étapes suivantes

Si vous avez besoin de créer des jeux de disques, reportez-vous à l'une des rubriques suivantes :

Si vous disposez d'un nombre de jeux de disques suffisant, reportez-vous à l'une des rubriques suivantes :

Erreurs fréquentes

Certaines étapes de cette procédure de mise en miroir peuvent générer un message d'erreur, semblable à celui-ci : metainit: dg-schost-1: d1s0: n'est pas un métapériphérique. Ce message est anodin et peut être ignoré.

Création de jeux de disques dans un cluster

Cette rubrique explique comment créer des jeux de disques pour une configuration de cluster. Lorsque vous créez un jeu de disques Solaris Volume Manager dans un environnement Sun Cluster, le jeu de disques est enregistré automatiquement avec le logiciel Sun Cluster en tant que groupe de périphériques du type svm. Pour créer ou supprimer un groupe de périphériques svm, vous devez utiliser les commandes et utilitaires Solaris Volume Manager pour créer ou supprimer le jeu de disques sous-jacent du groupe de périphériques.


Remarque –

Si vous souhaitez créer un jeu de disques Solaris Volume Manager pour Sun Cluster afin qu'il soit utilisé par Oracle RAC, n'utilisez pas ces procédures. À la place, suivez les procédures de la rubrique How to Create a Multi-Owner Disk Set in Solaris Volume Manager for Sun Cluster for the Oracle RAC Database du Sun Cluster Data Service for Oracle RAC Guide for Solaris OS.


Le tableau suivant répertorie les tâches à effectuer pour créer des jeux de disques.

Tableau 4–2 Liste des tâches : installation et configuration du logiciel Solaris Volume Manager

Tâche 

Instructions 

1. Création de jeux de disques via la commande metaset.

Création d'un jeu de disques

2. Ajout d'unités de disque aux jeux de disques. 

Ajout de disques à un jeu de disques

3. (Facultatif) Création de partitions sur les lecteurs des jeux de disques afin d'affecter de l'espace aux différentes tranches.

Modification des partitions de disques dans un jeu de disques

4. Création d'une liste des correspondances des pseudo-pilotes d'ID de périphérique (DID) et définition des volumes dans les fichiers /etc/lvm/md.tab.

Création d'un fichier md.tab

5. Initialisation des fichiers md.tab.

Activation de volumes

ProcedureCréation d'un jeu de disques

Suivez les instructions de cette procédure pour créer des jeux de disques.


Remarque –

Cette procédure fournit les formes longues des commandes Sun Cluster. La plupart des commandes ont également une forme courte. À l'exception des formes des noms de commandes, les commandes sont identiques. Pour obtenir la liste des commandes et leurs formes courtes, reportez-vous à l'Annexe A, Sun Cluster Object-Oriented Commands du Sun Cluster System Administration Guide for Solaris OS.


  1. SPARC : (Solaris 9) Précisez le nombre de jeux de disques dont disposera le cluster après la création des nouveaux jeux : y en aura-t-il plus de 3 ?

    • S'il doit y en avoir 3 au maximum, passez à l'Étape 9.

    • S'il doit y en avoir 4 ou plus, passez à l'Étape 2 pour préparer le cluster. Vous devez effectuer ces tâches, qu'il s'agisse d'une première installation de jeux de disques ou de l'ajout de jeux supplémentaires à un cluster entièrement configuré.

    • Si le cluster dispose de Solaris 10, Solaris Volume Manager modifiera automatiquement la configuration. Passez à l'Étape 9.

  2. À partir d'un noeud du cluster, vérifiez la valeur de la variable md_nsets dans le fichier /kernel/drv/md.conf.

  3. Si le nombre total des jeux de disques du cluster est supérieur à la valeur indiquée pour md_nsets moins un, augmentez la valeur de md_nsets en conséquence.

    Le nombre maximum de jeux de disques autorisé correspond à la valeur configurée de md_nsets moins un. La valeur maximale autorisée pour md_nsets étant de 32, vous pouvez créer au maximum 31 jeux de disques.

  4. Vérifiez que le fichier /kernel/drv/md.conf est identique sur tous les nœuds du cluster.


    Caution – Caution –

    Le non-respect de cette consigne peut occasionner de graves erreurs de Solaris Volume Manager et un risque de pertes de données.


  5. Si vous avez apporté des modifications au fichier md.conf sur l'un des nœuds, vous devez suivre les instructions ci-dessous pour appliquer ces modifications.

    1. Prenez le rôle de superutilisateur sur un nœud.

    2. Arrêtez le cluster depuis un noeud.


      phys-schost# cluster shutdown -g0 -y
      
    3. Réinitialisez tous les noeuds du cluster.

      • Sur les systèmes SPARC, procédez comme suit :


        ok boot
        
      • Sur les systèmes x86, procédez comme suit :

        Lorsque le menu GRUB s'affiche, sélectionnez l'entrée Solaris appropriée, puis appuyez sur Entrée. Le menu GRUB qui s'affiche est similaire à ce qui suit :


        GNU GRUB version 0.95 (631K lower / 2095488K upper memory)
        +-------------------------------------------------------------------------+
        | Solaris 10 /sol_10_x86                                                  |
        | Solaris failsafe                                                        |
        |                                                                         |
        +-------------------------------------------------------------------------+
        Use the ^ and v keys to select which entry is highlighted.
        Press enter to boot the selected OS, 'e' to edit the
        commands before booting, or 'c' for a command-line.

        Pour plus d'informations sur l'initialisation GRUB, reportez-vous au Chapitre 11, GRUB Based Booting (Tasks) du System Administration Guide: Basic Administration.

  6. Exécutez la commande devfsadm(1M) sur chaque nœud du cluster.

    Vous pouvez exécuter cette commande sur tous les nœuds du cluster en même temps.

  7. Dans un nœud du cluster, mettez à jour l'espace de noms de périphériques globaux.


    phys-schost# cldevice populate
    

    Reportez-vous à la page de manuel cldevice(1CL) pour plus d'informations.

  8. Sur chaque nœud, vérifiez que le traitement de la commande est terminé avant de créer des jeux de disques.

    La commande est exécutée à distance sur tous les nœuds, même si elle n'est exécutée qu'à partir d'un seul nœud. Pour savoir si la commande s'est exécutée convenablement, exécutez la commande suivante sur chaque nœud du cluster.


    phys-schost# ps -ef | grep scgdevs
    
  9. Assurez-vous que le jeu de disques que vous prévoyez de créer répond à l'une des exigences suivantes :

    • Si le jeu de disques est configuré avec exactement deux chaînes de disque, il doit être connecté à exactement deux nœuds et utiliser exactement deux hôtes médiateurs. Ces derniers doivent être identiques à ceux utilisés pour le jeu de disques. Pour plus d'informations sur la configuration des médiateurs à deux chaînes, reportez-vous à la rubrique Configuration de médiateurs à deux chaînes.

    • Si le jeu de disques est configuré avec plus de deux chaînes de disques, assurez-vous que, pour tout couple de chaînes de disques S1 et S2, la somme du nombre de lecteurs de disques sur ces chaînes soit supérieure au nombre de lecteurs de disques sur la troisième chaîne S3. Pour résumer cette condition par une formule : nombre(S1) + nombre(S2) > nombre(S3).

  10. Assurez-vous que les répliques locales de la base de données d'état existent.

    Pour plus d'informations, reportez-vous à la rubrique Création de répliques de bases de données d'état.

  11. Connectez-vous en tant que superutilisateur sur le nœud du cluster qui sera le maître du jeu de disques.

  12. Créez le jeu de disques.

    La commande suivante crée le jeu de disques et l'enregistre en tant que groupe de périphériques Sun Cluster.


    phys-schost# metaset -s setname -a -h node1 node2
    
    -s setname

    Spécifie le nom du jeu de disques.

    -a

    Ajoute (crée) le jeu de disques.

    -h nœud1

    Indique le nom du nœud principal qui sera maître du jeu de disques.

    noeud2

    Indique le nom du nœud secondaire qui sera maître du jeu de disques.


    Remarque –

    lorsque vous lancez la commande metaset pour configurer un groupe de périphériques Solaris Volume Manager sur un cluster, celle-ci désigne un nœud secondaire par défaut. Vous pouvez modifier le nombre souhaité de nœuds secondaires du groupe de périphériques à l'aide de l'utilitaire clsetup une fois le groupe de périphériques créé. Pour plus d'informations sur la modification de la propriété numsecondaries, reportez-vous à la rubrique Administering Device Groups du Sun Cluster System Administration Guide for Solaris OS.


  13. Si vous configurez un groupe de périphériques Solstice DiskSuite ou Solaris Volume Manager répliqués, définissez la propriété de réplication du groupe de périphériques.


    phys-schost# cldevicegroup sync device-group-name
    

    Pour plus d'informations sur la réplication de données, reportez-vous au Chapitre 4, Data Replication Approaches du Sun Cluster System Administration Guide for Solaris OS.

  14. Vérifiez l'état du nouveau jeu de disques.


    phys-schost# metaset -s setname
    
  15. Définissez les propriétés du groupe de périphériques si nécessaire.


    phys-schost# cldevicegroup set -p name=value devicegroup
    
    -p

    Indique une propriété de groupe de périphériques.

    nom

    Indique le nom d'une propriété.

    valeur

    Indique la valeur ou le paramètre de la propriété.

    devicegroup

    Indique le nom du groupe de périphériques. Le nom du groupe de périphériques est identique à celui du jeu de disques.

    Reportez-vous à la page de manuel cldevicegroup(1CL) pour plus d'informations sur les propriétés de groupe de périphériques.


Exemple 4–6 Création d'un jeu de disques

La commande suivante crée deux jeux de disques, dg-schost-1 et dg-schost-2, les nœuds phys-schost-1 et phys-schost-2 étant les primaires potentiels.


phys-schost# metaset -s dg-schost-1 -a -h phys-schost-1 phys-schost-2
phys-schost# metaset -s dg-schost-2 -a -h phys-schost-1 phys-schost-2

Étapes suivantes

Ajoutez des disques au jeu de disques. Reportez-vous à la rubrique Ajout de disques à un jeu de disques.

Ajout de disques à un jeu de disques

Lorsque vous ajoutez un disque à un jeu de disques, le logiciel de gestion des volumes repartitionne le disque comme indiqué ci-dessous, afin que la base de données d'état du jeu de disques puisse être stockée sur le disque.

ProcedureAjout de disques à un jeu de disques

Avant de commencer

Assurez-vous que le jeu de disques a été créé. Pour obtenir plus d'informations, reportez-vous à la rubrique Création d'un jeu de disques.

  1. Prenez le rôle de superutilisateur.

  2. Répertoriez les correspondances DID.


    phys-schost# cldevice show | grep Device
    
    • Choisissez des disques partagés par les nœuds du cluster qui seront maîtres, ou potentiellement maîtres, du jeu de disques.

    • Utilisez le nom de périphérique DID complet, présenté sous la forme /dev/did/rdsk/dN, lorsque vous ajoutez un lecteur à un jeu de disques.

    Dans l'exemple suivant, les entrées du périphérique DID /dev/did/rdsk/d3 indiquent que le lecteur est partagé par phys-schost-1 et phys-schost-2.


    === DID Device Instances ===
    DID Device Name:                                /dev/did/rdsk/d1
      Full Device Path:                               phys-schost-1:/dev/rdsk/c0t0d0
    DID Device Name:                                /dev/did/rdsk/d2
      Full Device Path:                               phys-schost-1:/dev/rdsk/c0t6d0
    DID Device Name:                                /dev/did/rdsk/d3
      Full Device Path:                               phys-schost-1:/dev/rdsk/c1t1d0
      Full Device Path:                               phys-schost-2:/dev/rdsk/c1t1d0
    …
  3. Devenez propriétaire du jeu de disques.


    phys-schost# cldegivegroup switch -n node devicegroup
    
    -n node

    Indique le nœud propriétaire du groupe de périphériques.

    devicegroup

    Indique le nom du groupe de périphériques, qui est identique au nom du jeu de disques.

  4. Ajoutez les disques au jeu de disques.

    Utilisez le nom de chemin DID complet.


    phys-schost# metaset -s setname -a /dev/did/rdsk/dN
    
    -s nom_jeu

    Indique le nom du jeu de disques, qui est identique au nom du groupe de périphériques.

    -a

    Ajoute le disque au jeu de disques.


    Remarque –

    n'utilisez pas le nom de périphérique de niveau inférieur (cNtXdY) lors de l'ajout d'un disque à un jeu de disques. Le nom de périphérique de niveau inférieur étant local, et non unique sur le cluster, son utilisation risque d'empêcher la commutation du méta-ensemble.


  5. Vérifiez l'état des disques et du jeu de disques.


    phys-schost# metaset -s setname
    

Exemple 4–7 Ajout de disques à un jeu de disques

La commande metaset ajoute les disques /dev/did/rdsk/d1 et /dev/did/rdsk/d2 au jeu de disques dg-schost-1.


phys-schost# metaset -s dg-schost-1 -a /dev/did/rdsk/d1 /dev/did/rdsk/d2

Étapes suivantes

Pour repartitionner des disques à utiliser dans les volumes, reportez-vous à la rubrique Modification des partitions de disques dans un jeu de disques.

Sinon, reportez-vous à la rubrique Création d'un fichier md.tab pour définir des métapériphériques ou des volumes par l'intermédiaire d'un fichier md.tab.

ProcedureModification des partitions de disques dans un jeu de disques

La commande metaset(1M) modifie les partitions de disques d'un jeu afin de réserver une petite partie de chacun des disques pour le logiciel Solaris Volume Manager. La tranche 7 est utilisée dans des périphériques sommaire du volume (VTOC). La tranche 6 est utilisée dans des périphériques EFI (Extensible Firmware Interface) (EFI). L'espace restant de chaque lecteur est placé dans la tranche 0. Pour mieux utiliser le lecteur, suivez cette procédure afin de modifier la disposition du disque. Si vous allouez de l'espace aux tranches 1 à 6 pour VTOC ou 1 à 5 pour EFI, vous pouvez utiliser ces tranches lors de la configuration de volumes Solaris Volume Manager.

  1. Prenez le rôle de superutilisateur.

  2. Utilisez la commande format pour modifier les partitions de chacun des disques du jeu.

    Lorsque vous repartitionnez un lecteur, vous devez respecter les conditions suivantes afin d'éviter que la commande metaset(1M) ne repartitionne le lecteur.

    • Créez une tranche 7 pour VTOC ou une tranche 6 pour EFI en commençant par le cylindre 0 pour obtenir suffisamment d'espace pour la réplique de base de données d'état. Reportez-vous au guide d'administration de Solaris Volume Manager pour déterminer la taille de la réplique de la base de données d'état requise pour votre version du logiciel de gestion des volumes.

    • Définissez le champ Indicateur de la tranche cible sur wu (lecture-écriture, démontable). Ne le configurez pas en lecture-seule.

    • N'autorisez pas la tranche cible à chevaucher une autre tranche du lecteur.

    Pour obtenir plus d'informations, consultez la page de manuel format(1M).

Étapes suivantes

Définissez les volumes à partir d'un fichier md.tab. Reportez-vous à la rubrique Création d'un fichier md.tab.

ProcedureCréation d'un fichier md.tab

Créez un fichier /etc/lvm/md.tab pour chaque noeud du cluster. Utilisez le fichier md.tab pour définir les volumes Solaris Volume Manager pour les jeux de disques que vous avez créés.


Remarque –

Si vous utilisez des volumes locaux, assurez-vous qu'ils portent des noms différents des DID (ID de périphériques) utilisés pour former les ensembles de disques. Par exemple, si le nom DID /dev/did/dsk/d3 est utilisé dans un jeu de disques, n'utilisez pas le nom /dev/md/dsk/d3 pour un volume local. Cette restriction ne s'applique pas aux volumes partagés, ceux-ci utilisant la convention /dev/md/setname/{r}dsk/d#.


  1. Prenez le rôle de superutilisateur.

  2. Répertoriez les correspondances DID pour les utiliser lors de la création de votre fichier md.tab.

    Dans le fichier md.tab, utilisez les noms de périphériques DID complets au lieu des noms de périphériques de niveau inférieur (cN tXdY). Le nom de périphérique DID se présente sous la forme /dev/did/rdsk/dN.


    phys-schost# cldevice show | grep Device
    

    === DID Device Instances ===
    DID Device Name:                                /dev/did/rdsk/d1
      Full Device Path:                               phys-schost-1:/dev/rdsk/c0t0d0
    DID Device Name:                                /dev/did/rdsk/d2
      Full Device Path:                               phys-schost-1:/dev/rdsk/c0t6d0
    DID Device Name:                                /dev/did/rdsk/d3
      Full Device Path:                               phys-schost-1:/dev/rdsk/c1t1d0
      Full Device Path:                               phys-schost-2:/dev/rdsk/c1t1d0
    …
  3. Créez un fichier /etc/lvm/md.tab et éditez-le avec l'éditeur de texte de votre choix.


    Remarque –

    S'il existe des données sur les disques utilisés pour les sous-miroirs, sauvegardez-les avant toute configuration de volume. Restaurez ensuite les données sur le miroir.


    Pour éviter une possible confusion entre les volumes locaux dans un environnement de cluster, utilisez un plan de dénomination tel que chaque volume local ait un nom unique sur l'ensemble du cluster. Par exemple, pour le nœud 1, choisissez un nom entre d100 et d199. Pour le nœud 2 choisissez entre d200 et d299.

    Pour obtenir plus d'informations sur la création du fichier md.tab, consultez la documentation Solaris Volume Manager et la page de manuel md.tab(4).


Exemple 4–8 Exemple de fichier md.tab

L'exemple de fichier md.tab suivant décrit le jeu de disques appelé dg-schost-1. L'ordre des lignes du fichier md.tab n'a pas d'importance.


dg-schost-1/d0 -m dg-schost-1/d10 dg-schost-1/d20
    dg-schost-1/d10 1 1 /dev/did/rdsk/d1s0
    dg-schost-1/d20 1 1 /dev/did/rdsk/d2s0

L'exemple de fichier md.tab est construit comme suit.

  1. La première ligne désigne le périphérique d0 comme miroir des volumes d10 et d20. L'option -m indique que ce périphérique est un miroir.


    dg-schost-1/d0 -m dg-schost-1/d0 dg-schost-1/d20
  2. La seconde ligne désigne le volume d10, premier sous-miroir de d0, comme miroir à une voie.


    dg-schost-1/d10 1 1 /dev/did/rdsk/d1s0
  3. La troisième ligne désigne le volume d20, second sous-miroir de d0, comme miroir à une voie.


    dg-schost-1/d20 1 1 /dev/did/rdsk/d2s0

Étapes suivantes

Activez les volumes définis dans les fichiers md.tab. Reportez-vous à la rubrique Activation de volumes.

ProcedureActivation de volumes

Suivez cette procédure pour activer des volumes Solaris Volume Manager définis dans les fichiers md.tab.

  1. Prenez le rôle de superutilisateur.

  2. Vérifiez que les fichiers md.tab se trouvent dans le répertoire /etc/lvm.

  3. Assurez-vous que vous êtes propriétaire du jeu de disques sur le nœud sur lequel la commande sera exécutée.

  4. Devenez propriétaire du jeu de disques.


    phys-schost# cldevicegroup switch -n node devicegroup
    
    -n node

    Spécifie le nœud propriétaire.

    devicegroup

    Spécifie le nom du jeu de disques.

  5. Activez les volumes du jeu de disques, définis dans le fichier md.tab.


    phys-schost# metainit -s setname -a
    
    -s nom_jeu

    Spécifie le nom du jeu de disques.

    -a

    Active tous les volumes du fichier md.tab.

  6. Répétez de l'Étape 3 à l'Étape 5 pour chaque jeu de disques du cluster.

    Si nécessaire, exécutez la commande metainit(1M) à partir d'un autre nœud connecté aux disques. Cette étape est obligatoire pour les topologies de paires de cluster, dans lesquelles les disques ne sont pas accessibles par tous les nœuds.

  7. Vérifiez l'état des volumes.


    phys-schost# metastat -s setname
    

    Reportez-vous à la page de manuel metastat(1M) pour obtenir de plus amples informations.

  8. (Facultatif) Capturez les informations de partitionnement du disque pour toute référence ultérieure.


    phys-schost# prtvtoc /dev/rdsk/cNtXdYsZ > filename
    

    Stockez le fichier dans un emplacement extérieur au cluster. Si vous modifiez la configuration du disque, exécutez de nouveau cette commande pour capturer la configuration modifiée. Si un disque est en panne et doit être remplacé, vous pouvez utiliser ces informations pour restaurer la configuration de la partition du disque. Pour de plus amples informations, reportez-vous à la page de manuel prtvtoc(1M).

  9. (Facultatif) Procédez à la sauvegarde de votre configuration de cluster.

    Si vous effectuez une sauvegarde archivée de votre configuration de cluster, vous pourrez la récupérer plus facilement en cas de problème.

    Pour plus d'informations, reportez-vous à la section How to Back Up the Cluster Configuration du Sun Cluster System Administration Guide for Solaris OS.


Exemple 4–9 Activation de volumes dans le fichier md.tab

Dans l'exemple ci-dessous, tous les volumes définis dans le fichier md.tab pour le jeu de disques dg-schost-1 sont activés.


phys-schost# metainit -s dg-schost-1 -a

Étapes suivantes

Si le cluster contient des jeux de disques configurés avec exactement deux baies de disques et deux nœuds, ajoutez des médiateurs à deux chaînes. Reportez-vous à la rubrique Configuration de médiateurs à deux chaînes.

Sinon, passez à la rubrique Création de systèmes de fichiers de cluster pour créer un système de fichiers de cluster.

Configuration de médiateurs à deux chaînes

Cette rubrique détaille les hôtes médiateurs à deux chaînes et en décrit les procédures d'installation. Les médiateurs à deux chaînes sont nécessaires pour tous les jeux de disques Solaris Volume Manager configurés avec exactement deux chaînes de disques et deux nœuds de cluster. L'utilisation des médiateurs permet au logiciel Sun Cluster de continuer à présenter les données les plus récentes en cas de panne d'une chaîne simple dans une configuration à deux chaînes.

Un médiateur à deux chaînes ou hôte médiateur, est un noeud de cluster stockant des données de médiateur. Les données de médiateur fournissent des informations sur l'emplacement d'autres médiateurs et contiennent un nombre de validation identique à celui qui figure dans les répliques de la base de données. Ce nombre de validation est utilisé pour confirmer que les données du médiateur sont synchronisées avec les données des répliques de la base de données.

Une chaîne de disques se compose d'une baie de disques, de ses disques physiques, de câbles reliant la baie au ou aux nœuds et d'adaptateurs d'interface.

Le tableau suivant répertorie les tâches à effectuer pour configurer des hôtes médiateurs à deux chaînes.

Tableau 4–3 Liste des tâches : installation et configuration du logiciel Solaris Volume Manager

Tâche 

Instructions 

1. Configuration des hôtes médiateurs à deux chaînes. 

Exigences des médiateurs à deux chaînes

Ajout d'hôtes médiateurs

2. Vérification de l'état des données de médiateur. 

Vérification de l'état des données du médiateur

3. Si nécessaire, corrigez les données de médiateur incorrectes. 

Correction des données incorrectes du médiateur

Exigences des médiateurs à deux chaînes

Les règles suivantes s'appliquent aux configurations à double chaîne utilisant des médiateurs.

Ces règles n'imposent pas que le cluster complet ait exactement deux noeuds. En revanche, seuls les jeux de disques possédant deux chaînes de disques doivent être connectés à exactement deux nœuds. Un cluster N+1 et de nombreuses autres topologies sont possibles en respectant ces règles.

ProcedureAjout d'hôtes médiateurs

Suivez cette procédure si votre configuration nécessite des médiateurs à deux chaînes.

  1. Connectez-vous en tant que superutilisateur sur le nœud actuellement maître du jeu de disques auquel vous souhaitez ajouter des hôtes médiateurs.

  2. Ajoutez chaque nœud avec connectivité au jeu de disques comme hôte médiateur pour ce jeu de disques.


    phys-schost# metaset -s setname -a -m mediator-host-list
    
    -s setname

    Spécifie le nom du jeu de disques.

    -a

    Ajoute le nœud au jeu de disques.

    -m mediator-host-list

    Indique le nom du nœud à ajouter en tant qu'hôte médiateur du jeu de disques.

    Reportez-vous à la page de manuel mediator(7D) pour obtenir des précisions sur les options spécifiques des médiateurs pour la commande metaset.


Exemple 4–10 Ajout d'hôtes médiateurs

L'exemple suivant ajoute les nœuds phys-schost-1 et phys-schost-2 en tant qu'hôtes médiateurs du jeu de disques dg-schost-1. Les deux commandes sont exécutées à partir du nœud phys-schost-1.


phys-schost# metaset -s dg-schost-1 -a -m phys-schost-1
phys-schost# metaset -s dg-schost-1 -a -m phys-schost-2

Étapes suivantes

Vérifiez l'état des données des médiateurs. Reportez-vous à la rubrique Vérification de l'état des données du médiateur.

ProcedureVérification de l'état des données du médiateur

Avant de commencer

Vérifiez que vous avez bien ajouté les hôtes médiateurs selon la procédure décrite dans la rubrique Ajout d'hôtes médiateurs.

  1. Affichez l'état des données de médiateur.


    phys-schost# medstat -s setname
    
    -s setname

    Spécifie le nom du jeu de disques.

    Pour obtenir plus d'informations, consultez la page de manuel medstat(1M).

  2. Si la valeur du champ Status généré par la commande medstat est Bad, vous devez réparer l'hôte médiateur concerné.

    Reportez-vous à la rubrique Correction des données incorrectes du médiateur.

Étapes suivantes

Reportez-vous à la rubrique Création de systèmes de fichiers de cluster pour créer un système de fichiers de cluster.

ProcedureCorrection des données incorrectes du médiateur

Suivez cette procédure pour corriger les données incorrectes du médiateur.

  1. Identifiez tous les hôtes médiateurs présentant des données incorrectes à l'aide de la procédure de la rubrique Vérification de l'état des données du médiateur.

  2. Connectez-vous en tant que superutilisateur sur le nœud propriétaire du jeu de disques concerné.

  3. Supprimez tous les hôtes médiateurs comportant des données de médiateur incorrectes de tous les jeux de disques affectés.


    phys-schost# metaset -s setname -d -m mediator-host-list
    
    -s setname

    Spécifie le nom du jeu de disques.

    -d

    Supprime du jeu de disques.

    -m mediator-host-list

    Indique le nom du nœud à supprimer en tant qu'hôte médiateur du jeu de disques.

  4. Restaurez chaque hôte médiateur que vous avez supprimé à l'Étape 3.


    phys-schost# metaset -s setname -a -m mediator-host-list
    
    -a

    Ajoute le nœud au jeu de disques.

    -m mediator-host-list

    Indique le nom du nœud à ajouter en tant qu'hôte médiateur du jeu de disques.

    Reportez-vous à la page de manuel mediator(7D) pour obtenir des précisions sur les options spécifiques des médiateurs pour la commande metaset.

Étapes suivantes

Déterminez, à partir de la liste suivante, la tâche suivante qui s'applique à la configuration de votre cluster. Pour effectuer plusieurs tâches de cette liste, accédez à la première de la liste.