Guide d'installation du logiciel Sun Cluster 3.1 10/03

Installation et configuration du logiciel Solstice DiskSuite/Solaris Volume Manager

Avant de commencer, ayez les informations suivantes à portée de main.

Le tableau suivant répertorie les tâches que vous devrez effectuer pour installer et configurer les fonctions du logiciel Solstice DiskSuite/Solaris Volume Manager pour Sun Cluster. Vous pouvez ignorer certaines procédures dans les cas suivants :

Tableau B–1 Liste des tâches : installation et configuration du logiciel Solstice DiskSuite/Solaris Volume Manager

Tâche 

Instructions 

1. Planification de la disposition de votre configuration Solstice DiskSuite/Solaris Volume Manager. 

2. Installation du logiciel Solstice DiskSuite (Solaris 8 uniquement).

Installation du logiciel Solstice DiskSuite

3. Calcul du nombre de noms de métapériphériques et d'ensembles de disques nécessaires à votre configuration et modification du fichier /kernel/drv/md.conf.

Définition du nombre de noms de métapériphériques ou de volumes et d'ensembles de disques

4. Création de répliques de la base de données d'état sur les disques locaux. 

Création de répliques de bases de données d'état

5. (Facultatif) Mise en miroir des systèmes de fichiers sur le disque racine.

Mise en miroir du disque racine

6. Création d'ensembles de disques à l'aide de la commande metaset.

Création d'un ensemble de disques

7. Ajout de lecteurs de disques aux ensembles de disques. 

Ajout de lecteurs à un ensemble de disques

8. (Facultatif) Création de partitions sur les lecteurs dans les ensembles de disques pour affecter de l'espace aux tranches 1 à 6.

Création de nouvelles partitions de lecteurs dans un ensemble de disques

9. Création d'une liste des correspondances des pseudo-pilotes d'ID de périphérique (IDP) et définition des métapériphériques ou des volumes dans les fichiers /etc/lvm/md.tab.

Création d'un fichier md.tab

10. Initialisation des fichiers md.tab.

Activation des métapériphériques ou volumes

11. (Configurations à double chaîne seulement) Configuration des hôtes médiateurs, vérification de l'état des données du médiateur et, si nécessaire, correction des données de médiateur incorrectes.

  1. Configuration des médiateurs

  2. Ajout d'hôtes médiateurs

  3. Vérification de l'état des données du médiateur

12. Configuration du cluster. 

Configuration du cluster

Exemple de configuration de Solstice DiskSuite/Solaris Volume Manager

L'exemple suivant décrit le processus permettant de déterminer le nombre de lecteurs de disques à placer dans chaque ensemble de disques. Dans cet exemple, trois dispositifs de stockage sont utilisés. Les applications existantes sont exécutées sous NFS (deux systèmes de fichiers de 5 Go chacun) et bases de données ORACLE (une de 5 Go et l'autre de 10 Go).

Le tableau suivant présente les calculs utilisés pour déterminer le nombre de lecteurs de disques nécessaires dans l'exemple de configuration. Dans une configuration à trois dispositifs de stockages, 28 lecteurs de disques sont nécessaires et sont divisés de façon aussi égale que possible entre les trois dispositifs. Notez que les systèmes de fichiers de 5 Go ont reçu un Go d'espace disque supplémentaire parce que le nombre de lecteurs de disques nécessaires a été arrondi.

Tableau B–2 Détermination du nombre de lecteurs de disques requis pour une configuration

Utilisation 

Données 

Espace disque nécessaire 

Lecteurs de disques nécessaires 

nfs1

5 Go 

3 disques de 2,1 Go * 2 (miroir) 

nfs2

5 Go 

3 disques de 2,1 Go * 2 (miroir) 

oracle1

5 Go 

3 disques de 2,1 Go * 2 (miroir) 

oracle2

10 Go 

5 disques de 2,1 Go * 2 (miroir) 

10 

Le tableau suivant indique l'affectation des lecteurs dans les deux ensembles de disques et les quatre services de données.

Tableau B–3 Division d'ensembles de disques

Ensemble de disques 

Services de données 

Lecteurs de disques 

Périphérique de stockage 1 

Périphérique de stockage 2 

Périphérique de stockage 3 

dg-schost-1

nfs1, oracle1

12 

dg-schost-2

nfs2, oracle2

16 

Au départ, quatre lecteurs de disques par périphérique de stockage (12 disques au total) sont affectés à dg-schost-1 et cinq ou six lecteurs de disques sur chaque (16 au total) sont affectés à dg-schost-2.

Aucun disque remplaçable à chaud n'est affecté à un ensemble de disques. En utilisant au moins un disque remplaçable à chaud par périphérique de stockage et par ensemble de disques, vous rendez un lecteur compatible avec le remplacement à chaud, restaurant ainsi toute la mise en miroir à deux voies.

Installation du logiciel Solstice DiskSuite


Remarque :

si vous avez utilisé SunPlex Manager pour installer le logiciel Solstice DiskSuite n'effectuez pas cette procédure. Reportez-vous plutôt à la rubrique Mise en miroir du disque racine.

Si vous avez installé le logiciel Solaris 9, n'effectuez pas cette procédure. Le logiciel Solaris Volume Manager est installé avec Solaris 9. Reportez-vous plutôt à la rubrique Définition du nombre de noms de métapériphériques ou de volumes et d'ensembles de disques.


Effectuez cette tâche sur chaque noeud de cluster.

  1. Devenez superutilisateur sur le noeud de cluster.

  2. Si vous procédez à l'installation à partir du CD, insérez le Solaris 8 Software 2 of 2 CD-ROM dans le lecteur de CD du noeud.

    Cette étape implique que le démon de gestion des volumes vold(1M) soit en cours d'exécution et configuré pour gérer les lecteurs de CD.

  3. Installez les packages du logiciel Solstice DiskSuite dans l'ordre indiqué dans l'exemple suivant.


    # cd /cdrom/sol_8_sparc_2/Solaris_8/EA/products/DiskSuite_4.2.1/sparc/Packagespkgadd -d . SUNWmdr SUNWmdu [SUNWmdx] packages_optionnels
    


    Remarque :

    si vous devez installer des patchs pour le logiciel Solstice DiskSuite, ne réinitialisez pas le système après l'installation de Solstice DiskSuite.


    Les packages SUNWmdr et SUNWmdu sont nécessaires pour toutes les installations de Solstice DiskSuite. Le package SUNWmdx est également nécessaire pour l'installation de Solstice DiskSuite 64 bits.

    Reportez-vous à la documentation d'installation de Solstice DiskSuite pour de plus amples informations sur les packages optionnels.

  4. Si vous avez effectué une installation à partir d'un CD, éjectez-le.

  5. Installez les patchs de Solstice DiskSuite.

    Reportez-vous à la rubrique « Patchs et niveaux de microprogrammes requis « des Notes de version de Sun Cluster 3.1 pour connaître l'emplacement des patchs et les consignes d'installation.

  6. Répétez la procédure de l'Étape 1 à l'Étape 5 sur les autres noeuds du cluster.

  7. À partir d'un noeud du cluster, renseignez manuellement l'espace de noms des périphériques globaux approprié pour Solstice DiskSuite.


    # scgdevs
    


    Remarque :

    la commande scgdevs peut envoyer un message similaire à celui-ci :


    Could not open /dev/rdsk/c0t6d0s2 to verify device id, Device busy

    Si le périphérique répertorié est un lecteur CD, vous pouvez ignorer ce message en toute sécurité.


  8. Définissez le nombre de noms de métapériphériques et d'ensembles de disques attendus dans le cluster.

    Reportez-vous à la rubrique Définition du nombre de noms de métapériphériques ou de volumes et d'ensembles de disques.

Définition du nombre de noms de métapériphériques ou de volumes et d'ensembles de disques


Remarque :

si vous avez utilisé SunPlex Manager pour installer le logiciel Solstice DiskSuite n'effectuez pas cette procédure. Reportez-vous plutôt à la rubrique Mise en miroir du disque racine.


Cette procédure vous explique comment déterminer le nombre de métapériphériques Solstice DiskSuite ou de noms de volumes Solaris Volume Manager et d'ensembles de disques requis pour votre configuration et comment modifier le fichier /kernel/drv/md.conf pour spécifier ces nombres.


Astuce :

par défaut, le nombre de noms de métapériphériques ou de volumes par ensemble de disques est de 128, mais de nombreuses configurations en nécessitent davantage. Pour gagner du temps sur l'administration ultérieurement, augmentez ce nombre avant de mettre en oeuvre une configuration.

Parallèlement, définissez la valeur des champs nmd et md_nsets sur la valeur la plus basse possible. Les structures de mémoire existent pour tous les périphériques possibles conformément aux commandes nmd et md_nsets, même si vous n'avez pas créé ces périphériques. Pour des performances optimales, configurez la valeur de nmdet de md_nsets de sorte qu'elle soit légèrement supérieure au nombre de métapériphériques ou de volumes que vous utiliserez.


  1. Gardez la Fiche de travail relative aux configurations des groupes de périphériques de disques à portée de main.

  2. Déterminez le nombre total d'ensembles de disques dont vous pensez avoir besoin sur le cluster, puis ajoutez-en un pour la gestion de disques privée.

    Le cluster peut comprendre un maximum de 32 ensembles de disques dont 31 dédiés à une utilisation d'ordre général et 1 dédié à la gestion de disques privée. Le nombre par défaut est 4. Vous devez saisir cette valeur dans le champ md_nsets de l'Étape 4.

  3. Déterminez la longueur maximum des noms de métapériphériques ou de volumes dont vous pensez avoir besoin par ensemble de disques du cluster.

    Chaque ensemble de disques peut comprendre un maximum de 8192 noms de métapériphériques ou de volumes. Vous devez saisir cette valeur dans le champ nmd de l'Étape 4.

    1. Déterminez la quantité de noms de métapériphériques ou de volumes dont vous pensez avoir besoin par ensemble de disques.

      Si vous utilisez des noms de métapériphériques ou de volumes locaux, assurez-vous que chaque nom de métapériphérique ou de volume local est unique dans le cluster et n'est identique à aucun nom IDP utilisé.


      Astuce :

      choisissez une série de numéros à utiliser exclusivement pour les noms IDP et, pour chaque noeud, une série à utiliser exclusivement pour ses noms de métapériphériques locaux. Par exemple, les noms IDP peuvent utiliser la tranche d1 à d100. Les métapériphériques ou volumes locaux peuvent utiliser sur le noeud 1 des noms de la tranche d100 à d199. Sur le noeud 2, les métapériphériques ou volumes locaux peuvent utiliser des noms de la tranche d200 à d299.


    2. Déterminez le nombre maximum de noms de métapériphériques ou de volumes que vous pensez utiliser dans n'importe quel ensemble de disques.

      La quantité de noms de métapériphériques ou de volumes à définir est basée sur la valeur des noms de métapériphériques ou de volume plutôt que sur leur quantité réelle. Par exemple, si vos noms de métapériphériques ou de volumes vont de d950 à d1000, vous devez configurer la valeur sur 1000 noms au lieu de 50 dans le logiciel Solstice DiskSuite/Solaris Volume Manager.

  4. Devenez superutilisateur sur chaque noeud et modifiez le fichier /kernel/drv/md.conf.


    Caution – Caution –

    tous les noeuds de cluster (ou paires de clusters dans la topologie de paires de clusters) doivent avoir les mêmes fichiers /kernel/drv/md.conf, quel que soit le nombre d'ensembles de disques desservis par chaque noeud. le non-respect de cette consigne peut occasionner de graves erreurs de Solstice DiskSuite/Solaris Volume Manager et un risque de pertes de données.


    1. Configurez le champ md_nsets sur la valeur déterminée à l'Étape 2.

    2. Configurez le champ nmd sur la valeur déterminée à l'Étape 3.

  5. Sur chaque noeud, effectuez une réinitialisation de reconfiguration.


    # touch /reconfigure
    # shutdown -g0 -y -i6
    

    Les modifications apportées au fichier /kernel/drv/md.conf prennent effet après une réinitialisation de reconfiguration.

  6. Créez des répliques de base de données d'état.

    Reportez-vous à la rubrique Création de répliques de bases de données d'état.

Création de répliques de bases de données d'état


Remarque :

si vous avez utilisé SunPlex Manager pour installer le logiciel Solstice DiskSuite n'effectuez pas cette procédure. Reportez-vous plutôt à la rubrique Mise en miroir du disque racine.


Suivez cette procédure sur chaque noeud du cluster.

  1. Devenez superutilisateur sur le noeud de cluster.

  2. Créez des répliques de bases de données d'état sur un ou plusieurs disques locaux pour chaque noeud de cluster à l'aide de la commande metadb(1M).


    # metadb -af partition_1partition_2 partition_3
    


    Astuce :

    pour protéger les données d'état, opération nécessaire pour exécuter le logiciel Solstice DiskSuite/Solaris Volume Manager, créez au moins trois répliques par noeud. Vous pouvez également placer des répliques sur plusieurs disques pour protéger les données en cas de panne d'un des disques.


    Reportez-vous à la page de manuel metadb(1M) et à votre documentation Solstice DiskSuite/Solaris Volume Manager pour de plus amples informations.

  3. Vérifiez les répliques.


    # metadb
    

    La commande metadb affiche la liste des répliques.

  4. Prévoyez-vous de mettre en miroir des systèmes de fichiers sur le disque racine ?

Exemple de création de répliques de bases de données d'état

L'exemple suivant décrit trois répliques de bases de données d'état Solstice DiskSuite. Chaque réplique est créée sur un disque différent. La réplique doit être plus grande pour Solaris Volume Manager.


# metadb -af c0t0d0s7 c0t1d0s7 c1t0d0s7
# metadb
indicateurs     premier bloc    nombre de blocs
          a  u       16         1034 /dev/dsk/c0t0d0s7
          a  u       16         1034 /dev/dsk/c0t1d0s7
          a  u       16         1034 /dev/dsk/c1t0d0s7

Mise en miroir du disque racine

La mise en miroir du disque racine permet d'éviter que le noeud du cluster lui-même s'arrête en cas de panne du disque système. Quatre types de systèmes de fichiers peuvent résider sur le disque racine. Chaque système de fichiers est mis en miroir à l'aide d'une méthode différente.

Suivez les procédures présentées pour mettre en miroir chaque type de système de fichiers.


Remarque :

certaines des étapes de mise en miroir sont susceptibles de provoquer un message d'erreur similaire au message suivant, sans risque et pouvant être ignoré :


metainit: dg-schost-1: d1s0: not a metadevice



Caution – Caution –

pour la mise en miroir d'un disque local, n'utilisez pas le chemin /dev/global lorsque vous indiquez le nom du disque. Si vous spécifiez ce chemin pour autre chose que des systèmes de fichiers de clusters, le système ne peut pas s'initialiser.


Mise en miroir du système de fichiers racine (/)

Suivez cette procédure pour mettre en miroir le système de fichiers racine (/).

  1. Connectez-vous en tant que superutilisateur sur le noeud.

  2. Utilisez la commande metainit(1M) pour mettre la tranche racine dans une concaténation à une seule tranche (simple).

    Indiquez le nom du disque physique de la tranche racine (cNtXdYsZ).


    # metainit -f sous_miroir1 1 1 tranche_disque_racine
    

  3. Créez une deuxième concaténation.


    # metainit sous_miroir2 1 1 tranche_disque_sous_miroir
    

  4. Créez un miroir à une voie avec un sous-miroir.


    # metainit miroir -m sous_miroir1
    


    Remarque :

    le nom de métapériphérique ou de volume du miroir doit être unique sur tout le cluster.


  5. Exécutez la commande metaroot(1M).

    Cette commande édite les fichiers /etc/vfstab et /etc/system de sorte que le système puisse être initialisé avec le système de fichiers racine (/) sur un métapériphérique ou un volume.


    # metaroot miroir
    

  6. Exécutez la commande lockfs(1M).

    Cette commande supprime toutes les transactions du journal et les écrit dans le système de fichiers maître sur tous les systèmes de fichiers UFS montés.


    # lockfs -fa
    

  7. Déplacez tous les groupes de ressources ou groupes de périphériques du noeud.


    # scswitch -S -h noeud_origine
    
    -S

    Déplace tous les groupes de ressources et groupes de périphériques.

    -h noeud_origine

    Indique le nom du noeud à partir duquel déplacer les groupes de ressources ou de périphériques.

  8. Réinitialisez le noeud.

    Cette commande remonte le système de fichiers racine (/) nouvellement mis en miroir.


    # shutdown -g0 -y -i6
    

  9. Utilisez la commande metattach(1M)) pour attacher le deuxième sous-miroir au miroir.


    # metattach miroir sous_miroir2
    

  10. Le disque utilisé pour mettre en miroir le disque racine est-il relié physiquement à plus d'un noeud (multiport) ?

    • Dans la négative, passez à l'Étape 11.

    • Dans l'affirmative, exécutez les étapes suivantes pour activer la propriété localonly du groupe de périphériques de disques bruts pour le disque servant à mettre le disque racine en miroir. Vous devez activer la propriété localonly pour éviter la séparation involontaire d'un noeud de son périphérique de démarrage si ce dernier est connecté à plusieurs noeuds.

    1. Si nécessaire, utilisez la commande scdidadm(1M) -L pour afficher le nom de chemin IDP complet du groupe de périphériques de disques bruts.

      Dans l'exemple suivant, le nom du groupe de périphériques de disques bruts dsk/d2 apparaît dans la troisième colonne des résultats, qui correspond au nom de chemin IDP complet.


      # scdidadm -L
      …
      1         phys-schost-3:/dev/rdsk/c1t1d0     /dev/did/rdsk/d2
      

    2. Visualisez la liste des noeuds du groupe de périphériques de disques bruts.

      Le résultat sera similaire à ce qui suit.


      # scconf -pvv | grep dsk/d2
      Nom du groupe de périphériques:                         dsk/d2
      …
        (dsk/d2) Liste des noeuds du groupe de périphériques: phys-schost-1,
                                                              phys-schost-3
      …

    3. La liste de noeuds contient-elle plus d'un nom ?

      • Dans l'affirmative, passez à l'Étape d.

      • Dans la négative, passez directement à l'Étape e.

    4. Supprimez tous les noeuds de la liste pour le groupe de périphériques de disques bruts à l'exception du noeud dont vous avez mis en miroir le disque racine.

      Seul le noeud dont vous avez mis en miroir le disque racine doit rester dans la liste des noeuds.


      # scconf -r -D name=dsk/dN,nodelist=noeud
      
      -D name=dsk/dN

      Indique le nom du groupe de périphériques de disques bruts unique du cluster.

      nodelist=noeud

      Spécifie le nom du ou des noeud(s) à supprimer de la liste des noeuds.

    5. Utilisez la commande scconf(1M) pour activer la propriété localonly.

      Lorsque la propriété localonly est activée, le groupe de périphériques de disques bruts est exclusivement utilisé par le noeud dans sa liste. Cela évite la séparation involontaire d'un noeud de son périphérique de démarrage si ce dernier est connecté à plusieurs noeuds.


      # scconf -c -D name=nom_groupe_disques_bruts,localonly=true
      
      -D name=nom_groupe_disques_bruts

      Indique le nom du groupe de périphériques de disques bruts.

      Pour de plus amples informations sur la propriété localonly, reportez-vous à la page de manuel scconf_dg_rawdisk(1M).

  11. Enregistrez l'autre chemin d'initialisation à utiliser éventuellement par la suite.

    Si le périphérique de démarrage principal échoue, vous pouvez ainsi procéder à l'initialisation à partir de cet autre périphérique de démarrage. Reportez-vous à la rubrique “Troubleshooting the System” in Solstice DiskSuite 4.2.1 User's Guide ou à la rubrique “Mirroring root () Special Considerations” in Solaris Volume Manager Administration Guide pour de plus amples informations sur les autres périphériques de démarrage.


    # ls -l /dev/rdsk/tranche_disque_racine
    

  12. Répétez l'opération de l'Étape 1 à l'Étape 11 sur chaque noeud restant du cluster.

    Assurez-vous que chaque nom de métapériphérique ou de volume pour un miroir est unique sur tout le cluster.

  13. Prévoyez-vous de mettre en miroir l'espace de noms, /global/.devices/node@id_noeud ?

  14. Prévoyez-vous de mettre en miroir des systèmes de fichiers ne pouvant être démontés ?

  15. Prévoyez-vous de mettre en miroir des systèmes de fichiers définis par l'utilisateur ?

Exemple de mise en miroir du système de fichiers racine (/)

L'exemple suivant illustre la création du miroir d0 sur le noeud phys-schost-1, constitué du sous-miroir d10 sur la partition c0t0d0s0 et du sous-miroir d20 sur la partition c2t2d0s0. Le disque c2t2d0 étant multiport, la propriété localonly est activée.


(Créez le miroir)
# metainit -f d10 1 1 c0t0d0s0
d11: Concaténation/Entrelacement configuré
# metainit d20 1 1 c2t2d0s0
d12: Concaténation/Entrelacement configuré
# metainit d0 -m d10
d10: Miroir configuré
# metaroot d0
# lockfs -fa
 
(Déplacez les groupes de ressources et de périphériques de phys-schost-1)
# scswitch -S -h phys-schost-1
 
(Réinitialisez le noeud)
# shutdown -g0 -y -i6
 
(Attachez le deuxième sous-miroir)
# metattach d0 d20
d0: sous-miroir d20 attaché
 
(Affichez la liste de noeuds du groupe de périphériques)
# scconf -pvv | grep dsk/d2
Nom du groupe de périphériques:                          dsk/d2
…
  (dsk/d2) Liste des noeuds du groupe de périphériques : phys-schost-1,
                                                         phys-schost-3
…
 
(Retirez phys-schost-3 de la liste des noeuds)
# scconf -r -D name=dsk/d2,nodelist=phys-schost-3
 
(Activez la propriété localonly))
# scconf -c -D name=dsk/d2,localonly=true
 
(Enregistrez l'autre chemin d'initialisation))
# ls -l /dev/rdsk/c2t2d0s0
lrwxrwxrwx  1 root     root          57 Apr 25 20:11 /dev/rdsk/c2t2d0s0
–> ../../devices/node@1/pci@1f,0/pci@1/scsi@3,1/disk@2,0:a,raw

Mise en miroir de l'espace de noms global

Suivez cette procédure pour mettre en miroir l'espace de noms global, /global/.devices/node@id_noeud.

  1. Devenez superutilisateur sur un noeud du cluster.

  2. Placez la tranche de l'espace de noms global dans une concaténation à une seule tranche (une seule voie).

    Utilisez le nom du disque physique de la tranche du disque (cNtXdYsZ).


    # metainit -f sous_miroir1 1 1 tranche_disque
    

  3. Créez une deuxième concaténation.


    # metainit sous_miroir2 1 1 tranche_disque_sous_miroir
    

  4. Créez un miroir à une voie avec un sous-miroir.


    # metainit miroir -m sous_miroir1
    


    Remarque :

    le nom de métapériphérique ou de volume du miroir doit être unique sur tout le cluster.


  5. Attachez le deuxième sous-miroir au miroir.

    Cet attachement lance une synchronisation des sous-miroirs.


    # metattach miroir sous_miroir2
    

  6. Éditez l'entrée de fichier /etc/vfstab pour le système de fichiers /global/.devices/node@id_noeud.

    Remplacez les noms des colonnes device to mount et device to fsck par le nom du miroir.


    #
    vi /etc/vfstab
    #device        device        mount    FS     fsck    mount    mount
    #to mount      to fsck       point    type   pass    at boot  options
    #
    /dev/md/dsk/miroir /dev/md/rdsk/miroir /global/.devices/node@id_noeud ufs 2 no global

  7. Répétez l'opération de l'Étape 1 à l'Étape 6 sur chaque noeud restant du cluster.

  8. Attendez que la synchronisation des miroirs, lancée à l'Étape 5, soit terminée.

    Utilisez la commande metastat(1M) pour visualiser le statut de miroir et pour vous assurer que la synchronisation de la mise en miroir est terminée.


    # metastat miroir
    

  9. Le disque utilisé pour mettre en miroir l'espace de noms global est-il relié physiquement à plus d'un noeud (multiport) ?

    • Dans la négative, passez à l'Étape 10.

    • Dans l'affirmative, exécutez les étapes suivantes pour activer la propriété localonly du groupe de périphériques de disques bruts pour le disque servant à la mise en miroir de l'espace de noms global. Vous devez activer la propriété localonly pour éviter la séparation involontaire d'un noeud de son périphérique de démarrage si ce dernier est connecté à plusieurs noeuds.

    1. Si nécessaire, utilisez la commande scdidadm(1M) pour afficher le nom de chemin IDP complet du groupe de périphériques de disques bruts.

      Dans l'exemple suivant, le nom du groupe de périphériques de disques bruts dsk/d2 apparaît dans la troisième colonne des résultats, qui correspond au nom de chemin IDP complet.


      # scdidadm -L
      …
      1         phys-schost-3:/dev/rdsk/c1t1d0     /dev/did/rdsk/d2
      

    2. Visualisez la liste des noeuds du groupe de périphériques de disques bruts.

      Le résultat sera similaire à ce qui suit.


      # scconf -pvv | grep dsk/d2
      Nom du groupe de périphérique :                          dsk/d2
      …
        (dsk/d2) Liste des noeuds du groupe de périphériques : phys-schost-1,
                                                               phys-schost-3
      …

    3. La liste de noeuds contient-elle plus d'un nom ?

      • Dans l'affirmative, passez à l'Étape d.

      • Dans la négative, passez directement à l'Étape e.

    4. Supprimez tous les noeuds de la liste à l'exception du noeud dont le disque racine a été mis en miroir.

      Seul le noeud dont le disque racine a été mis en miroir doit rester dans la liste des noeuds.


      # scconf -r -D name=dsk/dN,nodelist=noeud
      
      -D name=dsk/dN

      Indique le nom du groupe de périphériques de disques bruts unique du cluster.

      nodelist=noeud

      Spécifie le nom du ou des noeud(s) à supprimer de la liste des noeuds.

    5. Utilisez la commande scconf(1M) pour activer la propriété localonly.

      Lorsque la propriété localonly est activée, le groupe de périphériques de disques bruts est exclusivement utilisé par le noeud dans sa liste. Cela évite la séparation involontaire d'un noeud de son périphérique de démarrage si ce dernier est connecté à plusieurs noeuds.


      # scconf -c -D name=nom_groupe_disques_bruts,localonly=true
      
      -D name=nom_groupe_disques_bruts

      Indique le nom du groupe de périphériques de disques bruts.

      Pour de plus amples informations sur la propriété localonly, reportez-vous à la page de manuel scconf_dg_rawdisk(1M).

  10. Voulez-vous mettre en miroir des systèmes de fichiers autres que les systèmes de fichiers racine (/) ne pouvant être démontés ?

  11. Prévoyez-vous de mettre en miroir des systèmes de fichiers définis par l'utilisateur ?

Exemple de mise en miroir de l'espace de noms global

L'exemple suivant illustre la création du miroir d101, constitué du sous-miroir d111 sur la partition c0t0d0s3 et du sous-miroir d121 sur la partition c2t2d0s3. L'entrée de fichier /etc/vfstab pour /global/.devices/node@1 est mise à jour pour utiliser le nom de miroir d101. Le disque c2t2d0 étant multiport, la propriété localonly est activée.


(Créez le miroir)
# metainit -f d111 1 1 c0t0d0s3
d111: Concaténation/Entrelacement configuré
# metainit d121 1 1 c2t2d0s3
d121: Concaténation/Entrelacement configuré
# metainit d101 -m d111
d101: Miroir configuré
# metattach d101 d121
d101: Sous-miroir d121 attaché
 
(Éditez le fichier /etc/vfstab)
# vi /etc/vfstab
#device        device        mount    FS     fsck    mount    mount
#to mount      to fsck       point    type   pass    at boot  options
#
/dev/md/dsk/d101 /dev/md/rdsk/d101 /global/.devices/node@1 ufs 2 no global
 
(Visualisez l'état de synchronisation)
# metastat d101
d101: Miroir
      Sous-miroir 0: d111
         Système : OK
      Sous-miroir 1: d121
         Système : Resynchronisation
      resynchronisation en cours : 15 % terminé
…
 
(Identifiez le nom IDP du groupe de périphériques de disques bruts du disque mis en miroir)
# scdidadm -L
…
1         phys-schost-3:/dev/rdsk/c2t2d0     /dev/did/rdsk/d2
 
(Affichez la liste de noeuds du groupe de périphériques)
# scconf -pvv | grep dsk/d2
Nom du groupe de périphériques :                         dsk/d2
…
  (dsk/d2) Liste des noeuds du groupe de périphériques : phys-schost-1,
                                                         phys-schost-3
…
 
(Retirez phys-schost-3 de la liste des noeuds)
# scconf -r -D name=dsk/d2,nodelist=phys-schost-3
 
(Activez la propriété localonly))
# scconf -c -D name=dsk/d2,localonly=true

Mise en miroir des systèmes de fichiers autres que les systèmes de fichiers racine (/) ne pouvant pas être démontés

Cette procédure permet de mettre en miroir les systèmes de fichiers autres que les systèmes de fichiers racine (/) ne pouvant pas être démontés tandis que le système est utilisé normalement, comme /usr, /opt ou swap.

  1. Devenez superutilisateur sur un noeud du cluster.

  2. Placez la tranche sur laquelle réside un système de fichiers non démontable dans une concaténation à une seule tranche (une seule voie).

    Indiquez le nom du disque physique de la tranche de disque (cNtXdYsZ).


    # metainit -f sous_miroir1 1 1 tranche_disque
    

  3. Créez une deuxième concaténation.


    # metainit sous_miroir2 1 1 tranche_disque_sous_miroir
    

  4. Créez un miroir à une voie avec un sous-miroir.


    # metainit miroir -m sous_miroir1
    


    Remarque :

    il n'est pas nécessaire que le nom de métapériphérique ou du volume du miroir soit unique sur tout le cluster.


  5. Répétez la procédure de l'Étape 1 à l'Étape 4 pour chaque système de fichiers non démontable que vous souhaitez mettre en miroir.

  6. Sur chaque noeud, éditez l'entrée de fichier /etc/vfstab pour chaque système de fichiers non démontable mis en miroir.

    Remplacez les noms des colonnes device to mount et device to fsck par le nom du miroir.


    # vi /etc/vfstab
    #device        device        mount    FS     fsck    mount    mount
    #to mount      to fsck       point    type   pass    at boot  options
    #
    /dev/md/dsk/miroir /dev/md/rdsk/miroir /systéme_fichier ufs 2 no global

  7. Déplacez tous les groupes de ressources ou groupes de périphériques du noeud.


    # scswitch -S -h noeud_origine
    
    -S

    Déplace tous les groupes de ressources et groupes de périphériques.

    -h noeud_origine

    Indique le nom du noeud à partir duquel déplacer les groupes de ressources ou de périphériques.

  8. Réinitialisez le noeud.


    # shutdown -g0 -y -i6
    

  9. Attachez le deuxième sous-miroir à chaque miroir.

    Cet attachement lance une synchronisation des sous-miroirs.


    # metattach miroir sous_miroir2
    

  10. Attendez que la synchronisation des miroirs, lancée à l'Étape 9, soit terminée.

    Utilisez la commande metastat(1M) pour visualiser le statut de miroir et pour vous assurer que la synchronisation de la mise en miroir est terminée.


    # metastat miroir
    

  11. Le disque utilisé pour mettre en miroir le système de fichiers non démontable est-il relié physiquement à plus d'un noeud (multiport) ?

    • Dans la négative, passez à l'Étape 12.

    • Dans l'affirmative, exécutez les étapes suivantes pour activer la propriété localonly du groupe de périphériques de disques bruts pour le disque servant à la mise en miroir du système de fichiers non démontable. Vous devez activer la propriété localonly pour éviter la séparation involontaire d'un noeud de son périphérique de démarrage si ce dernier est connecté à plusieurs noeuds.

    1. Si nécessaire, utilisez la commande scdidadm -L pour afficher le nom de chemin IDP complet du groupe de périphériques de disques bruts.

      Dans l'exemple suivant, le nom du groupe de périphériques de disques bruts dsk/d2 apparaît dans la troisième colonne des résultats, correspondant au nom de chemin IDP complet.


      # scdidadm -L
      …
      1            phys-schost-3:/dev/rdsk/c1t1d0    /dev/did/rdsk/d2
      

    2. Visualisez la liste des noeuds du groupe de périphériques de disques bruts.

      Le résultat sera similaire à ce qui suit.


      # scconf -pvv | grep dsk/d2
      Nom du groupe de périphérique :                          dsk/d2
      …
        (dsk/d2) Liste des noeuds du groupe de périphériques : phys-schost-1,
                                                               phys-schost-3
      …

    3. La liste de noeuds contient-elle plus d'un nom ?

      • Dans l'affirmative passez à l'Étape d.

      • Dans la négative, passez directement à l'Étape e.

    4. Supprimez tous les noeuds de la liste du groupe de périphériques de disques bruts à l'exception du noeud dont le disque racine a été mis en miroir.

      Seul le noeud dont le disque racine est mis en miroir doit rester dans la liste des noeuds.


      # scconf -r -D name=dsk/dN,nodelist=noeud
      
      -D name=dsk/dN

      Indique le nom du groupe de périphériques de disques bruts unique du cluster.

      nodelist=noeud

      Spécifie le nom du ou des noeud(s) à supprimer de la liste des noeuds.

    5. Utilisez la commande scconf(1M) pour activer la propriété localonly.

      Lorsque la propriété localonly est activée, le groupe de périphériques de disques bruts est exclusivement utilisé par le noeud dans sa liste. Cela évite la séparation involontaire d'un noeud de son périphérique de démarrage si ce dernier est connecté à plusieurs noeuds.


      # scconf -c -D name=nom_groupe_disques_bruts,localonly=true
      
      -D name=nom_groupe_disques_bruts

      Indique le nom du groupe de périphériques de disques bruts.

      Pour de plus amples informations sur la propriété localonly, reportez-vous à la page de manuel scconf_dg_rawdisk(1M).

  12. Prévoyez-vous de mettre en miroir des systèmes de fichiers définis par l'utilisateur ?

Exemple de mise en miroir de systèmes de fichiers ne pouvant pas être démontés

L'exemple suivant illustre la création du miroir d1 sur le noeud phys-schost-1 pour dupliquer /usr, résidant sur c0t0d0s1. Le miroir d1 est constitué du sous-miroir d11 sur la partition c0t0d0s1 et du sous-miroir d21 sur la partition c2t2d0s1. L'entrée de fichier /etc/vfstab pour /usr est mise à jour pour utiliser le nom de miroir d1. Le disque c2t2d0 étant multiport, la propriété localonly est activée.


(Créez le miroir)
# metainit -f d11 1 1 c0t0d0s1
d11: Concaténation/Entrelacement configuré
# metainit d21 1 1 c2t2d0s1
d21: Concaténation/Entrelacement configuré
# metainit d1 -m d11
d1: Miroir configuré
 
(Éditez le fichier /etc/vfstab)
# vi /etc/vfstab
#device        device        mount    FS     fsck    mount    mount
#to mount      to fsck       point    type   pass    at boot  options
#
/dev/md/dsk/d1 /dev/md/rdsk/d1 /usr ufs  2       no global
 
(Déplacez les groupes de ressources et de périphériques de phys-schost-1)
# scswitch -S -h phys-schost-1
 
(Réinitialisez le noeud)
# shutdown -g0 -y -i6
 
(Attachez le deuxième sous-miroir)
# metattach d1 d21
d1: Submirror d21 is attached
 
(Visualisez l'état de synchronisation)
# metastat d1
d1: Mirror
      Submirror 0: d11
         State: Okay
      Submirror 1: d21
         State: Resyncing
      Resync in progress: 15 % done
…
 
(Identifiez le nom IDP du groupe de périphériques de disques bruts du disque mis en miroir)
# scdidadm -L
…
1         phys-schost-3:/dev/rdsk/c2t2d0     /dev/did/rdsk/d2
 
(Affichez la liste de noeuds du groupe de périphériques)
# scconf -pvv | grep dsk/d2
Device group name:					  dsk/d2
…
  (dsk/d2) Device group node list:  phys-schost-1, phys-schost-3
…
 
(Retirez phys-schost-3 de la liste des noeuds)
# scconf -r -D name=dsk/d2,nodelist=phys-schost-3
 
(Activez la propriété localonly)
# scconf -c -D name=dsk/d2,localonly=true

Mise en miroir de systèmes de fichiers pouvant être démontés

Cette procédure permet de mettre en miroir des systèmes de fichiers pouvant être démontés et définis par l'utilisateur. Dans cette procédure, il n'est pas nécessaire de réinitialiser les noeuds.

  1. Devenez superutilisateur sur un noeud du cluster.

  2. Démontez le système de fichiers à mettre en miroir.

    Assurez-vous qu'aucun processus n'est en cours sur le système de fichiers.


    # umount /point_montage
    

    Reportez-vous à la page de manuel umount(1M) et à “Mounting and Unmounting File Systems” in System Administration Guide: Basic Administration pour de plus amples informations.

  3. Placez dans une concaténation à une seule tranche (simple), la tranche contenant le système de fichiers défini par l'utilisateur pouvant être démonté.

    Indiquez le nom du disque physique de la tranche de disque (cNtXdYsZ).


    # metainit -f sous_miroir1 1 1 tranche_disque
    

  4. Créez une deuxième concaténation.


    # metainit sous_miroir2 1 1 tranche_disque_sous_miroir
    

  5. Créez un miroir à une voie avec un sous-miroir.


    # metainit miroir -m sous_miroir1
    


    Remarque :

    il n'est pas nécessaire que le nom de métapériphérique ou du volume du miroir soit unique sur tout le cluster.


  6. Répétez la procédure de l'Étape 1 à l'Étape 5 pour chaque système de fichiers démontable à mettre en miroir.

  7. Sur chaque noeud, éditez l'entrée de fichier /etc/vfstab pour chaque système de fichiers mis en miroir.

    Remplacez les noms des colonnes device to mount et device to fsck par le nom du miroir.


    # vi /etc/vfstab
    #device        device        mount    FS     fsck    mount    mount
    #to mount      to fsck       point    type   pass    at boot  options
    #
    /dev/md/dsk/miroir /dev/md/rdsk/miroir /système_fichier ufs 2 no global

  8. Attachez le deuxième sous-miroir au miroir.

    Cet attachement lance une synchronisation des sous-miroirs.


    # metattach miroir sous_miroir2
    

  9. Attendez que la synchronisation des miroirs démarrée à l'Étape 8 soit terminée.

    Utilisez la commande metastat(1M) pour afficher l'état des miroirs.


    # metastat miroir
    

  10. Le disque utilisé pour mettre en miroir le système de fichiers défini par l'utilisateur est-il relié physiquement à plus d'un noeud (multiport) ?

    • Dans la négative, passez à l'Étape 12.

    • Dans l'affirmative, exécutez les étapes suivantes pour activer la propriété localonly du groupe de périphériques de disques bruts pour le disque servant à la mise en miroir du système de fichiers défini par l'utilisateur. Vous devez activer la propriété localonly pour éviter la séparation involontaire d'un noeud de son périphérique de démarrage si ce dernier est connecté à plusieurs noeuds.

    1. Si nécessaire, utilisez la commande scdidadm -L pour afficher le nom de chemin IDP complet du groupe de périphériques de disques bruts.

      Dans l'exemple suivant, le nom du groupe de périphériques de disques bruts dsk/d4 apparaît dans la troisième colonne des résultats, qui correspond au nom de chemin IDP complet.


      # scdidadm -L
      …
      1         phys-schost-3:/dev/rdsk/c1t1d0     /dev/did/rdsk/d2
      

    2. Visualisez la liste des noeuds du groupe de périphériques de disques bruts.

      Le résultat sera similaire à ce qui suit.


      # scconf -pvv | grep dsk/d2
      Nom du groupe de périphérique :                          dsk/d2
      …
        (dsk/d2) Liste des noeuds du groupe de périphériques : phys-schost-1,
                                                               phys-schost-3
      …

    3. La liste de noeuds contient-elle plus d'un nom ?

      • Dans l'affirmative, passez à l'Étape d.

      • Dans la négative, passez directement à l'Étape e.

    4. Supprimez tous les noeuds de la liste du groupe de périphériques de disques bruts à l'exception du noeud dont le disque racine a été mis en miroir.

      Seul le noeud dont vous avez mis en miroir le disque racine doit rester dans la liste des noeuds.


      # scconf -r -D name=dsk/dN,nodelist=node
      
      -D name=dsk/dN

      Indique le nom du groupe de périphériques de disques bruts unique du cluster.

      nodelist=noeud

      Spécifie le nom du ou des noeud(s) à supprimer de la liste des noeuds.

    5. Utilisez la commande scconf(1M) pour activer la propriété localonly.

      Lorsque la propriété localonly est activée, le groupe de périphériques de disques bruts est exclusivement utilisé par le noeud dans sa liste. Cela évite la séparation involontaire d'un noeud de son périphérique de démarrage si ce dernier est connecté à plusieurs noeuds.


      # scconf -c -D name=nom_groupe_disques_bruts,localonly=true
      
      -D name=nom_groupe_disques_bruts

      Indique le nom du groupe de périphériques de disques bruts

      Pour de plus amples informations sur la propriété localonly, reportez-vous à la page de manuel scconf_dg_rawdisk(1M).

  11. Montez le système de fichiers mis en miroir.


    # mount /point_montage
    

    Reportez-vous à la page de manuel mount(1M) et à “Mounting and Unmounting File Systems” in System Administration Guide: Basic Administration pour de plus amples informations.

  12. Créez un ensemble de disques.

    Reportez-vous à la rubrique Création d'un ensemble de disques.

Exemple de mise en miroir de systèmes de fichiers pouvant être démontés

L'exemple suivant illustre la création du miroir d4 pour mettre en miroir le répertoire /export, résidant sur c0t0d0s4. Le miroir d4 est constitué du sous-miroir d14 sur la partition c0t0d0s4 et du sous-miroir d24 sur la partition c2t2d0s4. L'entrée de fichier /etc/vfstab pour /export est mise à jour pour utiliser le nom de miroir d4. Le disque c2t2d0 étant multiport, la propriété localonly est activée.


(Démontez le système de fichiers)
# umount /export
 
(Créez le miroir)
# metainit -f d14 1 1 c0t0d0s4
d14: Concaténation/Entrelacement configuré
# metainit d24 1 1 c2t2d0s4
d24: Concaténation/Entrelacement configuré
# metainit d4 -m d14
d4: Miroir configuré
 
(Éditez le fichier /etc/vfstab)
# vi /etc/vfstab
#device        device        mount    FS     fsck    mount    mount
#to mount      to fsck       point    type   pass    at boot  options
#
/dev/md/dsk/d4 /dev/md/rdsk/d4 /export ufs 2 no	global
 
(Attachez le deuxième sous-miroir)
# metattach d4 d24
d4: sous-miroir d24 attaché
 
(Visualisez l'état de synchronisation)
# metastat d4
d4: Mirror
      Submirror 0: d14
         State: Okay
      Submirror 1: d24
         State: Resyncing
      Resync in progress: 15 % done
…
 
(Identifiez le nom IDP du groupe de périphériques de disques bruts du disque mis en miroir)
# scdidadm -L
…
1         phys-schost-3:/dev/rdsk/c2t2d0     /dev/did/rdsk/d2
 
(Affichez la liste de noeuds du groupe de périphériques)
# scconf -pvv | grep dsk/d2
Nom du groupe de périphériques:                          dsk/d2
…
  (dsk/d2) Liste des noeuds du groupe de périphériques : phys-schost-1,
                                                         phys-schost-3
…
 
(Retirez phys-schost-3 de la liste des noeuds)
# scconf -r -D name=dsk/d2,nodelist=phys-schost-3
 
(Activez la propriété localonly))
# scconf -c -D name=dsk/d2,localonly=true
 
(Montez le système de fichiers)
# mount /export

Création d'un ensemble de disques

Suivez cette procédure pour chaque ensemble de disques que vous créez.


Remarque :

si vous avez utilisé SunPlex Manager pour installer le logiciel Solstice DiskSuite il doit déjà exister entre un et trois ensembles de disques. Pour de plus amples informations sur les ensembles de disques créés par SunPlex Manager, reportez-vous à Utilisation de SunPlex Manager pour installer le logiciel Sun Cluster.


  1. Envisagez-vous de créer plus de trois ensembles de disques dans le cluster ?

    • Dans la négative, passez directement à l'Étape 6.

    • Dans l'affirmative, reportez-vous à l'Étape 2 afin de préparer le cluster pour plus de trois ensembles de disques. Ces étapes s'appliquent que vous installiez des ensembles de disques pour la première fois ou que vous en ajoutiez dans un cluster déjà configuré.

  2. Vérifiez que la valeur de md_nsets est suffisamment élevée pour tenir compte du nombre total d'ensembles de disques que vous envisagez de créer dans le cluster.

    1. À partir d'un noeud du cluster, vérifiez la valeur de la variable md_nsets dans le fichier /kernel/drv/md.conf.

    2. Si le nombre total des ensembles de disques du cluster est supérieur à la valeur indiquée pour md_nsets moins un, augmentez la valeur de md_nsets en conséquence pour chaque noeud.

      Le nombre maximum d'ensembles de disques autorisé correspond à la valeur configurée de md_nsets moins un. La valeur maximale autorisée pour md_nsets est 32.

    3. Vérifiez que le fichier /kernel/drv/md.conf est identique sur tous les noeuds du cluster.


      Caution – Caution –

      le non-respect de cette consigne peut occasionner de graves erreurs de Solstice DiskSuite/Solaris Volume Manager et un risque de pertes de données.


    4. Arrêtez le cluster depuis un noeud.


      # scshutdown -g0 -y
      

    5. Réinitialisez tous les noeuds du cluster.


      ok> boot
      

  3. Exécutez la commande devfsadm(1M) sur chaque noeud du cluster.

    Vous pouvez exécuter cette commande sur tous les noeuds du cluster en même temps.

  4. À partir de l'un des noeuds du cluster, lancez la commande scgdevs(1M) pour mettre à jour l'espace de noms des périphériques globaux.

  5. Sur chaque noeud, assurez-vous que la commande scgdevs a terminé le traitement avant de créer un ensemble de disques.

    La commande scgdevs se déclenche à distance sur tous les noeuds, quand bien même elle est exécutée depuis un seul noeud. Pour savoir si elle s'est exécutée convenablement, exécutez la commande suivante sur chaque noeud du cluster.


    % ps -ef | grep scgdevs
    

  6. Assurez-vous que l'ensemble de disques que vous prévoyez de créer répond à l'une des exigences suivantes :

    • Si l'ensemble de disques est configuré avec exactement deux chaînes de disques, il doit connecter exactement deux noeuds et utiliser exactement deux hôtes médiateurs devant être les mêmes que ceux utilisés pour l'ensemble de disques. Reportez-vous à la rubrique Configuration des médiateurs pour connaître la procédure de configuration des médiateurs.

    • Si l'ensemble de disques est configuré avec plus de deux chaînes de disques, assurez-vous que, pour tout couple de chaînes de disques S1 et S2, la somme du nombre de lecteurs de disques sur ces chaînes soit supérieure au nombre de lecteurs de disques sur la troisième chaîne S3. Pour résumer cette condition par une formule, (nombre S1 + nombre S2) > nombre S3.

  7. Assurez-vous que les répliques locales de la base de données d'état existent.

    Pour connaître les instructions, reportez-vous à la rubrique Création de répliques de bases de données d'état.

  8. Connectez-vous en tant que superutilisateur sur le noeud du cluster qui sera le maître de l'ensemble de disques.

  9. Créez l'ensemble de disques.

    La commande suivante crée l'ensemble de disques et l'enregistre en tant que groupe de périphériques de disques Sun Cluster.


    # metaset -s nom_ensemble -a -h noeud1 noeud2
    
    -s nom_ensemble

    Indique le nom de l'ensemble de disques.

    -a

    Ajoute (crée) l'ensemble de disques.

    -h noeud1

    Indique le nom du noeud principal qui sera maître de l'ensemble de disques.

    noeud2

    Indique le nom du noeud secondaire qui sera maître de l'ensemble de disques.


    Remarque :

    lorsque vous lancez la commande metaset pour configurer un groupe de périphériques Solstice DiskSuite/Solaris Volume Manager sur un cluster, celle-ci désigne un noeud secondaire par défaut. Vous pouvez modifier le nombre de noeuds secondaires souhaité dans le groupe de périphériques à l'aide de l'utilitaire scsetup(1M) après la création du groupe de périphériques. Reportez-vous à la rubrique “Administering Disk Device Groups” in Guide d'administration système de Sun Cluster 3.1 10/03 pour de plus amples informations sur la procédure de modification de la propriété numsecondaries.


  10. Vérifiez l'état du nouvel ensemble de disques.


    # metaset -s nom_ensemble
    

  11. Ajout de lecteurs à un ensemble de disques.

    Reportez-vous à la rubrique Ajout de lecteurs à un ensemble de disques.

Exemple de création d'un ensemble de disques

La commande suivante crée deux ensembles de disques, dg-schost-1 et dg-schost-2, les noeuds phys-schost-1 et phys-schost-2 étant les primaires potentiels.


# metaset -s dg-schost-1 -a -h phys-schost-1 phys-schost-2
# metaset -s dg-schost-2 -a -h phys-schost-1 phys-schost-2

Ajout de lecteurs à un ensemble de disques

Lorsque vous ajoutez un lecteur de disque à un ensemble de disques, Solstice DiskSuite/Solaris Volume Manager le repartitionne de la manière suivante, afin que la base de données d'état pour l'ensemble de disques puisse être placée sur le lecteur.

Ajout de lecteurs à un ensemble de disques

  1. Connectez-vous en tant que superutilisateur sur le noeud.

  2. Assurez-vous que l'ensemble de disques a été créé.

    Pour connaître les instructions, reportez-vous à la rubrique Création d'un ensemble de disques.

  3. Répertoriez les correspondances IDP.


    # scdidadm -L
    

    • Choisissez des lecteurs partagés par les noeuds de cluster qui seront maîtres, ou potentiellement maîtres, de l'ensemble de disques.

    • Utilisez les noms de chemin IDP complets lorsque vous ajoutez des lecteurs à un ensemble de disques.

    La première colonne des résultats correspond au numéro d'instance IDP, la deuxième colonne correspond au chemin complet (chemin physique) et la troisième au nom du chemin IDP complet (pseudo-chemin). Un lecteur partagé comporte plusieurs entrées par numéro d'instance IDP.

    Dans l'exemple suivant, les entrées du numéro d'instance IDP 2 indiquent un lecteur partagé par phys-schost-1 et phys-schost-2 et le nom de chemin IDP (DID) complet est /dev/did/rdsk/d2.


    1       phys-schost-1:/dev/rdsk/c0t0d0 /dev/did/rdsk/d1
    2       phys-schost-1:/dev/rdsk/c1t1d0 /dev/did/rdsk/d2
    2       phys-schost-2:/dev/rdsk/c1t1d0 /dev/did/rdsk/d2
    3       phys-schost-1:/dev/rdsk/c1t2d0 /dev/did/rdsk/d3
    3       phys-schost-2:/dev/rdsk/c1t2d0 /dev/did/rdsk/d3
    …

  4. Devenez propriétaire de l'ensemble de disques.


    # metaset -s nom_ensemble -t
    
    -s nom_ensemble

    Indique le nom de l'ensemble de disques.

    -t

    Attribue la propriété de l'ensemble de disques.

  5. Ajoutez le lecteur de disque à l'ensemble de disques.

    Ajoutez le nom de chemin IDP complet.


    # metaset -s nom_ensemble -a nom_lecteur
    

    -a

    Ajoute le lecteur de disque à l'ensemble de disques.

    nom lecteur

    Nom de chemin IDP complet du lecteur de disque partagé


    Remarque :

    n'utilisez pas le nom de périphérique de niveau inférieur (cNtXdY) lors de l'ajout d'un lecteur à un ensemble de disques. Le nom de périphérique de niveau inférieur étant local, et non unique sur le cluster, son utilisation risque d'empêcher la commutation du méta-ensemble.


  6. Vérifiez l'état de l'ensemble de disques et des lecteurs.


    # metaset -s nom_ensemble
    

  7. Prévoyez-vous de repartitionner les lecteurs pour les utiliser dans des métapériphériques ?

Exemple : ajout de lecteurs à un ensemble de disques

La commande metaset ajoute les lecteurs de disques /dev/did/rdsk/d1 et /dev/did/rdsk/d2 à l'ensemble de disques dg-schost-1.


# metaset -s dg-schost-1 -a /dev/did/rdsk/d1 /dev/did/rdsk/d2

Création de nouvelles partitions de lecteurs dans un ensemble de disques

La commande metaset(1M) crée de nouvelles partitions sur les lecteurs d'un ensemble de disques de sorte qu'une petite partie de chaque lecteur est réservée dans la tranche 7 pour le logiciel Solstice DiskSuite/Solaris Volume Manager. L'espace restant sur chaque lecteur est placé dans la tranche 0. Pour un meilleur usage du disque, utilisez cette procédure pour modifier l'organisation du disque. Si vous allouez de l'espace aux tranches 1 à 6, vous pouvez utiliser ces dernières lors de l'installation de métapériphériques Solstice DiskSuite ou de volumes Solaris Volume Manager.

  1. Devenez superutilisateur sur le noeud de cluster.

  2. Utilisez la commande format pour modifier les partitions du disque pour chaque lecteur de l'ensemble de disques.

    Lorsque vous repartitionnez un lecteur, vous devez respecter les conditions suivantes pour éviter que la commande metaset(1M) ne repartitionne le lecteur.

    • Créez une tranche 7 à partir du cylindre 0, assez grande pour contenir une copie de la base de données d'état (environ 2 Mo).

    • Définissez le champ Flag de la tranche 7 sur wu (lecture-écriture, démontable). Ne le configurez pas en lecture-seule.

    • N'autorisez pas la tranche 7 à chevaucher une autre tranche du lecteur.

    Reportez-vous à la page de manuel format(1M) pour de plus amples informations.

  3. Définissez les métapériphériques ou les volumes à l'aide du fichier md.tab.

    Reportez-vous à la rubrique Création d'un fichier md.tab.

Création d'un fichier md.tab

Créez un fichier /etc/lvm/md.tab pour chaque noeud du cluster. Utilisez le fichier md.tab pour définir les métapériphériques Solstice DiskSuite ou les volumes Solaris Volume Manager pour les ensembles de disques que vous avez créés.


Remarque :

si vous utilisez des métapériphériques ou des volumes locaux, assurez-vous qu'ils portent des noms différents des noms IDP utilisés pour former les ensembles de disques. Par exemple, si le nom IDP /dev/did/dsk/d3 est utilisé dans un ensemble de disques, n'utilisez pas le nom /dev/md/dsk/d3 pour un métapériphérique ou un volume local. Cette restriction ne s'applique pas aux métapériphériques ou aux volumes partagés, ceux-ci utilisant la convention /dev/md/nom_ensemble/{r}dsk/d#.



Astuce :

pour éviter une possible confusion entre les métapériphériques ou les volumes locaux dans un environnement de cluster, utilisez un plan de dénomination tel que chaque métapériphérique ou volume local ait un nom unique dans tout le cluster. Par exemple, pour le noeud 1, choisissez un nom entre d100 et d199. Pour le noeud 2 choisissez entre d200 et d299.


  1. Devenez superutilisateur sur le noeud de cluster.

  2. Répertoriez les correspondances IDP pour les utiliser lors de la création de votre fichier md.tab.

    Utilisez les noms de chemin IDP complets dans le fichier md.tab à la place des noms de périphériques de niveau inférieur (cNtXdY).


    # scdidadm -L
    

    Dans l'exemple suivant, la première colonne des résultats correspond au numéro d'instance IDP, la deuxième colonne correspond au chemin complet (chemin physique) et la troisième au nom de chemin IDP complet (pseudo chemin).


    1       phys-schost-1:/dev/rdsk/c0t0d0 /dev/did/rdsk/d1
    2       phys-schost-1:/dev/rdsk/c1t1d0 /dev/did/rdsk/d2
    2       phys-schost-2:/dev/rdsk/c1t1d0 /dev/did/rdsk/d2
    3       phys-schost-1:/dev/rdsk/c1t2d0 /dev/did/rdsk/d3
    3       phys-schost-2:/dev/rdsk/c1t2d0 /dev/did/rdsk/d3
    …

  3. Créez un fichier /etc/lvm/md.tab et éditez-le manuellement avec l'éditeur de texte de votre choix.

    Consultez votre documentation Solstice DiskSuite/Solaris Volume Manager ainsi que la page de manuel md.tab(4) pour de plus amples informations sur la création d'un fichier md.tab.


    Remarque :

    si des données se trouvent sur les lecteurs à utiliser pour les sous-miroirs, sauvegardez-les avant toute configuration de métapériphérique ou de volume. Restaurez ensuite les données sur le miroir.


  4. Activez les métapériphériques ou les volumes définis dans les fichiers md.tab.

    Reportez-vous à la rubrique Activation des métapériphériques ou volumes.

Exemple de fichier md.tab

L'exemple de fichier md.tab suivant décrit l'ensemble de disques appelé dg-schost-1. L'ordre des lignes du fichier md.tab n'a pas d'importance.


dg-schost-1/d0 -m dg-schost-1/d10 dg-schost-1/d20
    dg-schost-1/d10 1 1 /dev/did/rdsk/d1s0
    dg-schost-1/d20 1 1 /dev/did/rdsk/d2s0

L'exemple de fichier md.tab est construit comme suit.


Remarque :

l'exemple suivant utilise la terminologie Solstice DiskSuite. Sous Solaris Volume Manager, un métapériphérique transactionnel est appelé un volume transactionnel et un métapériphérique un volume. Autrement, la procédure suivante est valable pour les deux gestionnaires de volumes.


  1. La première ligne désigne le périphérique d0 comme miroir des métapériphériques d10 et d20. L'option -m indique que ce périphérique est un miroir.


    dg-schost-1/d0 -m dg-schost-1/d0 dg-schost-1/d20

  2. La seconde ligne désigne le métapériphérique d10, premier sous-miroir de d0, comme miroir à une voie.


    dg-schost-1/d10 1 1 /dev/did/rdsk/d1s0

  3. La troisième ligne désigne le métapériphérique d20, second sous-miroir de d0, comme miroir à une voie.


    dg-schost-1/d20 1 1 /dev/did/rdsk/d2s0

Activation des métapériphériques ou volumes

Exécutez cette procédure pour activer les métapériphériques Solstice DiskSuite ou les volumes Solaris Volume Manager définis dans les fichiers md.tab.

  1. Devenez superutilisateur sur le noeud de cluster.

  2. Vérifiez que les fichiers md.tab se trouvent dans le répertoire /etc/lvm.

  3. Assurez-vous que vous êtes propriétaire de l'ensemble de disques sur le noeud où la commande sera exécutée.

  4. Devenez propriétaire de l'ensemble de disques.


    # metaset -s nom_ensemble -t
    
    -s nom_ensemble

    Indique le nom de l'ensemble de disques.

    -t

    Attribue la propriété de l'ensemble de disques.

  5. Activez les métapériphériques ou les volumes de l'ensemble de disques qui sont définis dans le fichier md.tab.


    # metainit -s nom_ensemble -a
    
    -a

    Active tous les métapériphériques du fichier md.tab

  6. Pour chaque périphérique maître et du journal, attachez le deuxième sous-miroir (sous-miroir2).

    Lorsque les métapériphériques ou volumes du fichier md.tab sont activés, seul le premier sous-miroir (sous-miroir1) des périphériques maître et de journal est attaché ; le sous-miroir 2 doit donc être attaché manuellement.


    # metattach miroir sous_miroir2
    

  7. Répétez la procédure de l'Étape 3 à l'Étape 6 pour chaque ensemble de disques du cluster.

    Si nécessaire, exécutez la commande metainit(1M) à partir d'un autre noeud connecté aux lecteurs. Cette étape est obligatoire pour les topologies de paires de clusters, où les lecteurs ne sont pas accessibles par tous les noeuds.

  8. Vérifiez l'état des métapériphériques ou volumes.


    # metastat -s nom_ensemble
    

    Reportez-vous à la page de manuel metastat(1M) pour de plus amples informations.

  9. Votre cluster contient-il des ensembles de disques configurés avec exactement deux chaînes de disques et deux noeuds ?

Exemple d'activation des métapériphériques ou volumes dans le fichier md.tab

Dans l'exemple suivant, tous les métapériphériques définis dans le fichier md.tab pour l'ensemble de disques dg-schost-1 sont activés. Sont ensuite activés les seconds sous-miroirs du périphérique maître dg-schost-1/d1 et du périphérique de journal dg-schost-1/d4.


# metainit -s dg-schost-1 -a
# metattach dg-schost-1/d1 dg-schost-1/d3
# metattach dg-schost-1/d4 dg-schost-1/d6