Guide d'installation du logiciel Sun Cluster pour SE Solaris

Installation et configuration du logiciel Solstice DiskSuite ou Solaris Volume Manager

Cette rubrique fournit des informations et des procédures pour installer et configurer le logiciel Solstice DiskSuite ou Solaris Volume Manager. Vous pouvez ignorer certaines procédures dans les cas suivants :

Le tableau suivant répertorie les tâches à effectuer pour installer et configurer les fonctions du logiciel Solstice DiskSuite ou Solaris Volume Manager pour Sun Cluster.

Tableau 3–1 Liste des tâches : Installation et configuration du logiciel Solstice DiskSuite ou Solaris Volume Manager

Tâche 

Instructions 

1. Planification de la disposition de votre configuration Solstice DiskSuite ou Solaris Volume Manager. 

Planification de la gestion des volumes

2. Installation du logiciel Solstice DiskSuite (Solaris 8 uniquement).

Installation du logiciel Solstice DiskSuite

3. (Solaris 8 et Solaris 9 uniquement) Évaluation du nombre de noms de méta-périphériques et de jeux de disques nécessaires pour la configuration et modification du fichier /kernel/drv/md.conf.

Définition du nombre de noms de métapériphériques ou de volumes et de jeux de disques

4. Création de répliques de la base de données d'état sur les disques locaux. 

Création de répliques de bases de données d'état

5. (Facultatif) Mise en miroir des systèmes de fichiers sur le disque racine.

Mise en miroir du disque racine

ProcedureInstallation du logiciel Solstice DiskSuite


Remarque –

Veillez à ne pas exécuter cette procédure dans les cas suivants :


Effectuez cette tâche sur chaque nœud de cluster.

Avant de commencer

Effectuez les tâches suivantes :

Étapes
  1. Devenez superutilisateur sur le nœud de cluster.

  2. Si vous procédez à l'installation à partir du CD, insérez le CD 2 du logiciel Solaris 8 dans le lecteur de CD-ROM du nœud.

    Cette étape implique que le démon de gestion des volumes vold(1M) soit en cours d'exécution et configuré pour gérer les lecteurs de CD-ROM.

  3. Installez les packages du logiciel Solstice DiskSuite.

    Installez les packages dans l'ordre indiqué dans l'exemple suivant.


    # cd /cdrom/sol_8_sparc_2/Solaris_8/EA/products/DiskSuite_4.2.1/sparc/Packagespkgadd -d . SUNWmdr SUNWmdu [SUNWmdx] optional-pkgs
    
    • Les packages SUNWmdr et SUNWmdu sont nécessaires pour toutes les installations de Solstice DiskSuite.

    • Le package SUNWmdx est également nécessaire pour l'installation de Solstice DiskSuite 64 bits.

    • Reportez-vous à la documentation d'installation de Solstice DiskSuite pour de plus amples informations sur les packages facultatifs.


    Remarque –

    si vous devez installer des patchs pour le logiciel Solstice DiskSuite, ne réinitialisez pas le système après l'installation de Solstice DiskSuite.


  4. Si vous avez effectué une installation à partir d'un CD, éjectez-le.

  5. Installez les patchs de Solstice DiskSuite.

    Pour obtenir plus d'informations sur l'emplacement et l'installation des patchs, reportez-vous à la section Patchs et niveaux de microprogrammes requis du Notes de version de Sun Cluster 3.1 8/05 pour SE Solaris.

  6. Répétez la procédure, de l'Étape 1 à l'Étape 5, sur chacun des autres nœuds du cluster.

  7. À partir d'un nœud du cluster, renseignez manuellement l'espace de noms de périphériques globaux de Solstice DiskSuite.


    # scgdevs
    
Étapes suivantes

Si vous avez installé Solstice DiskSuite via le programme d'installation SunPlex, reportez-vous à la rubrique Mise en miroir du disque racine .

Si le cluster fonctionne sous Solaris 10, reportez-vous à la rubrique Création de répliques de bases de données d'état .

Sinon, reportez-vous à la rubrique Définition du nombre de noms de métapériphériques ou de volumes et de jeux de disques .

Erreurs fréquentes

La commande scgdevs peut renvoyer un message indiquant que le système ne parvient pas à ouvrir /dev/rdsk/c0t6d0s2 pour vérifier l'ID de périphérique car celui-ci est occupé. Si le périphérique répertorié est un lecteur CD, vous pouvez ignorer ce message en toute sécurité.

ProcedureDéfinition du nombre de noms de métapériphériques ou de volumes et de jeux de disques


Remarque –

N'effectuez pas cette procédure dans les circonstances suivantes :


Cette procédure permet de déterminer le nombre de métapériphériques Solstice DiskSuite ou de noms de volumes Solaris Volume Manager et de jeux de disques requis pour la configuration et comment modifier le fichier /kernel/drv/md.conf pour spécifier ces nombres.


Astuce –

Par défaut, le nombre de noms de métapériphériques ou de volumes par jeu de disques est de 128, mais de nombreuses configurations en requièrent davantage. Pour gagner du temps sur l'administration ultérieurement, augmentez ce nombre avant de mettre en œuvre une configuration.

Parallèlement, définissez la valeur des champs nmd et md_nsets sur la valeur la plus basse possible. Les structures de mémoire existent pour tous les périphériques possibles conformément aux commandes nmd et md_nsets, même si vous n'avez pas créé ces périphériques. Pour des performances optimales, configurez la valeur de nmd et de md_nsets de sorte qu'elle soit légèrement supérieure au nombre de métapériphériques ou de volumes que vous utiliserez.


Avant de commencer

Ayez à disposition le document Fiche de travail relative aux configurations des groupes de périphériques de disque complété.

Étapes
  1. Calculez le nombre total de jeux de disques dont vous pensez avoir besoin sur le cluster, puis ajoutez-en un pour la gestion de disques privée.

    Le cluster peut comprendre un maximum de 32 jeux de disques dont 31 sont dédiés à une utilisation d'ordre général et 1 est dédié à la gestion de disques privée. Par défaut, le nombre de jeux de disques est de 4. Il s'agit de la valeur que vous saisissez dans le champ md_nsets lors de l'Étape 3.

  2. Calculez la longueur maximale des noms de métapériphériques ou de volumes dont vous pensez avoir besoin pour chaque jeu de disques du cluster.

    Chaque jeu de disques peut comprendre un maximum de 8 192 noms de métapériphérique ou de volume. Il s'agit de la valeur que vous saisissez dans le champ nmd lors de l'Étape 3.

    1. Déterminez la quantité de noms de métapériphérique ou de volume dont vous pensez avoir besoin par jeu de disques.

      Si vous utilisez des métapériphériques ou des volumes locaux, assurez-vous que chaque nom de volume ou de métapériphérique local sur lequel est monté un système de fichiers de périphériques globaux (/global/.devices/node@ nodeid) est unique dans l'ensemble du cluster et n'utilise pas le nom d'un ID de périphérique existant.


      Astuce –

      choisissez une série de numéros à utiliser exclusivement pour les noms DID et, pour chaque nœud, une série à utiliser exclusivement pour ses noms de métapériphériques locaux. Par exemple, les noms DID peuvent utiliser la tranche d1 à d100. Les métapériphériques ou volumes locaux peuvent utiliser sur le nœud 1 des noms de la tranche d100 à d199. Sur le nœud 2, les métapériphériques ou volumes locaux peuvent utiliser des noms de la tranche d200 à d299.


    2. Calculez le nombre maximum de noms de métapériphériques ou de volumes que vous pensez utiliser dans n'importe quel jeu de disques.

      La quantité de noms de métapériphériques ou de volumes à définir est fondée sur la valeur des noms de métapériphériques ou de volumes plutôt que sur leur quantité réelle. Par exemple, si vos noms de métapériphériques ou de volumes vont de d950 à d1000, vous devez configurer la valeur sur 1000 noms au lieu de 50 dans le logiciel Solstice DiskSuite ou Solaris Volume Manager.

  3. Sur chaque nœud, connectez-vous en tant que superutilisateur et modifiez le fichier /kernel/drv/md.conf.


    Caution – Caution –

    Tous les nœuds de cluster (ou paires de clusters dans la topologie de paires de clusters) doivent disposer des mêmes fichiers /kernel/drv/md.conf, quel que soit le nombre de jeux de disques desservis par chaque nœud. Le non-respect de cette consigne peut occasionner de graves erreurs de Solstice DiskSuite ou Solaris Volume Manager et un risque de pertes de données.


    1. Attribuez la valeur déterminée lors de l'Étape 1 au champ md_nsets.

    2. Attribuez la valeur déterminée lors de l'Étape 2 au champ nmd.

  4. Sur chaque nœud, effectuez une réinitialisation de reconfiguration.


    # touch /reconfigure
    # shutdown -g0 -y -i6
    

    Les modifications apportées au fichier /kernel/drv/md.conf prennent effet après une réinitialisation de reconfiguration.

Étapes suivantes

Créez des répliques de base de données d'état. Reportez-vous à la rubrique Création de répliques de bases de données d'état .

ProcedureCréation de répliques de bases de données d'état


Remarque –

Si vous avez utilisé le programme d'installation SunPlex pour installer Solstice DiskSuite, n'exécutez pas cette procédure. Reportez-vous à la rubrique Mise en miroir du disque racine .


Suivez cette procédure sur chaque nœud du cluster.

Étapes
  1. Devenez superutilisateur sur le nœud de cluster.

  2. Créez des répliques de base de données d'état sur un ou plusieurs périphériques locaux pour chacun des nœuds du cluster.

    Pour spécifier les tranches à utiliser, précisez le nom physique (cNtXdY sZ) et non le nom de l'ID de périphérique (dN).


    # metadb -af slice-1 slice-2 slice-3
    

    Astuce –

    pour protéger les données d'état, opération nécessaire pour exécuter le logiciel Solstice DiskSuite ou Solaris Volume Manager, créez au moins trois répliques par nœud. Vous pouvez également placer des répliques sur plusieurs périphériques pour bénéficier d'une protection en cas d'échec de l'un des périphériques.


    Pour obtenir plus d'informations, reportez-vous à la page de manuel metadb(1M) et à votre documentation Solstice DiskSuite ou Solaris Volume Manager.

  3. Vérifiez les répliques.


    # metadb
    

    La commande metadb affiche la liste des répliques.


Exemple 3–1 Création de répliques de bases de données d'état

L'exemple suivant montre trois répliques de bases de données d'état Solstice DiskSuite. Chaque réplique est créée sur un périphérique différent. La réplique doit être plus grande pour Solaris Volume Manager.


# metadb -af c0t0d0s7 c0t1d0s7 c1t0d0s7
# metadb
flags            first blk      block count
    a       u       16          1034         /dev/dsk/c0t0d0s7
    a       u       16          1034         /dev/dsk/c0t1d0s7
    a       u       16          1034         /dev/dsk/c1t0d0s7

Étapes suivantes

Pour la mise en miroir de systèmes de fichiers sur le disque racine, reportez-vous à la rubrique Mise en miroir du disque racine .

Sinon, passez à la rubrique Création de jeux de disques dans un cluster pour créer des jeux de disques Solstice DiskSuite ou Solaris Volume Manager.

Mise en miroir du disque racine

La mise en miroir du disque racine permet d'éviter que le nœud du cluster lui‐même s'arrête en cas de panne du disque système. Quatre types de systèmes de fichiers peuvent résider sur le disque racine. Chaque système de fichiers est mis en miroir à l'aide d'une méthode différente.

Suivez les procédures présentées pour mettre en miroir chaque type de système de fichiers.


Caution – Caution –

pour la mise en miroir d'un disque local, n'utilisez pas le chemin /dev/global lorsque vous indiquez le nom du disque. Si vous spécifiez ce chemin pour autre chose que des systèmes de fichiers de clusters, le système ne peut pas s'initialiser.


ProcedureMise en miroir du système de fichiers racine (/)

Utilisez cette procédure pour mettre en miroir le système de fichiers racine (/).

Étapes
  1. Connectez-vous en tant que superutilisateur sur le nœud.

  2. Placez la tranche racine dans une concaténation à tranche unique (une seule voie).

    Spécifiez le nom du disque physique de la tranche du disque racine (cNtXdYsZ).


    # metainit -f submirror1 1 1 root-disk-slice
    
  3. Créez une deuxième concaténation.


    # metainit submirror2 1 1 submirror-disk-slice
    
  4. Créez un miroir à une voie avec un sous-miroir.


    # metainit mirror -m submirror1
    

    Remarque –

    S'il s'agit d'un périphérique local qui doit servir à monter un système de fichiers de périphériques globaux (/global/.devices/node@nodeid), le nom de volume ou de métapériphérique du miroir doit être unique sur l'ensemble du cluster.


  5. Exécutez la commande metaroot(1M).

    Cette commande édite les fichiers /etc/vfstab et /etc/system de sorte que le système puisse être initialisé avec le système de fichiers racine (/) sur un métapériphérique ou un volume.


    # metaroot mirror
    
  6. Exécutez la commande lockfs(1M).

    Cette commande supprime toutes les transactions du journal et les écrit dans le système de fichiers maître sur tous les systèmes de fichiers UFS montés.


    # lockfs -fa
    
  7. Déplacez tous les groupes de ressources ou groupes de périphériques du nœud.


    # scswitch -S -h from-node
    
    -S

    Déplace tous les groupes de ressources et groupes de périphériques.

    -h from-node

    Indique le nom du nœud à partir duquel déplacer les groupes de ressources ou de périphériques.

  8. Réinitialisez le nœud.

    Cette commande remonte le système de fichiers racine (/) nouvellement mis en miroir.


    # shutdown -g0 -y -i6
    
  9. La commande metattach(1M) vous permet de relier le second sous-miroir au miroir.


    # metattach mirror submirror2
    
  10. Si le disque utilisé pour mettre le disque racine en miroir est connecté physiquement à plusieurs nœuds (multihôte), activez la propriété localonly.

    Pour activer la propriété localonly du groupe de périphériques de disques bruts pour l'unité de disque utilisée pour mettre en miroir le disque racine, exécutez les étapes ci-dessous. Vous devez activer la propriété localonly pour éviter la séparation involontaire d'un nœud de son périphérique de démarrage si ce dernier est connecté à plusieurs nœuds.

    1. Si nécessaire, utilisez la commande scdidadm(1M) -L pour afficher le nom de chemin DID complet du groupe de périphériques de disques bruts.

      Dans l'exemple suivant, le nom du groupe de périphériques de disques bruts dsk/d2 apparaît dans la troisième colonne des résultats, correspondant au nom de chemin DID complet.


      # scdidadm -L
      …
      1         phys-schost-3:/dev/rdsk/c1t1d0     /dev/did/rdsk/d2
      
    2. Visualisez la liste des nœuds du groupe de périphériques de disques bruts.

      La sortie ressemble à l'exemple suivant :


      # scconf -pvv | grep dsk/d2
      Device group name:						dsk/d2
      …
        (dsk/d2) Device group node list:		phys-schost-1, phys-schost-3
      …
    3. Si la liste de nœuds contient plusieurs noms de nœud, supprimez tous les nœuds, à l'exception du nœud correspondant au disque racine mis en miroir.

      Seul le nœud dont vous avez mis le disque racine en miroir doit figurer dans la liste de nœuds du groupe de périphériques de disques bruts.


      # scconf -r -D name=dsk/dN,nodelist=node
      
      -D name=dsk/dN

      Indique le nom du groupe de périphériques de disques bruts unique du cluster.

      nodelist=node

      Spécifie le nom du ou des nœud(s) à supprimer de la liste des nœuds.

    4. Utilisez la commande scconf(1M) pour activer la propriété localonly.

      Lorsque la propriété localonly est activée, le groupe de périphériques de disque bruts est utilisé exclusivement par le nœud figurant dans sa liste de nœuds. Cela évite la séparation involontaire d'un nœud de son périphérique de démarrage si celui-ci est connecté à plusieurs nœuds.


      # scconf -c -D name=rawdisk-groupname,localonly=true
      
      -D name=rawdisk-groupname

      Indique le nom du groupe de périphériques de disques bruts.

      Pour de plus amples informations sur la propriété localonly, reportez-vous à la page de manuel scconf_dg_rawdisk(1M).

  11. Prenez note de l'autre chemin de démarrage, pour utilisation ultérieure éventuelle.

    Si le périphérique de démarrage principal échoue, vous pouvez ainsi procéder à l'initialisation à partir de cet autre périphérique de démarrage. Pour plus d'informations sur les autres périphériques de démarrage, reportez-vous au Chapitre 7, Troubleshooting the System du Solstice DiskSuite 4.2.1 User’s Guide, à la rubrique Special Considerations for Mirroring root (/) du Solaris Volume Manager Administration Guide, ou à la rubrique Creating a RAID-1 Volume du Solaris Volume Manager Administration Guide.


    # ls -l /dev/rdsk/root-disk-slice
    
  12. Sur chaque nœud restant du cluster, reproduisez la procédure de l'Étape 1 à l'Étape 11.

    Vérifiez que chaque nom de volume ou de métapériphérique d'un miroir sur lequel doit être monté le système de fichiers de périphériques globaux (/global/.devices/node@nodeid) est unique sur l'ensemble du cluster.


Exemple 3–2 Mise en miroir du système de fichiers racine (/)

L'exemple suivant illustre la création du miroir d0 sur le nœud phys-schost-1, constitué du sous-miroir d10 sur la partition c0t0d0s0 et du sous-miroir d20 sur la partition c2t2d0s0. Le périphérique c2t2d0 étant un disque multihôte, la propriété localonly est activée.


(Create the mirror)
# metainit -f d10 1 1 c0t0d0s0
d11: Concat/Stripe is setup
# metainit d20 1 1 c2t2d0s0
d12: Concat/Stripe is setup
# metainit d0 -m d10
d10: Mirror is setup
# metaroot d0
# lockfs -fa
 
(Move resource groups and device groups from phys-schost-1)
# scswitch -S -h phys-schost-1
 
(Reboot the node)
# shutdown -g0 -y -i6
 
(Attach the second submirror)
# metattach d0 d20
d0: Submirror d20 is attached
 
(Display the device-group node list)
# scconf -pvv | grep dsk/d2
Device group name:						dsk/d2
…
  (dsk/d2) Device group node list:		phys-schost-1, phys-schost-3
…
 
(Remove phys-schost-3 from the node list)
# scconf -r -D name=dsk/d2,nodelist=phys-schost-3
 
(Enable the localonly property)
# scconf -c -D name=dsk/d2,localonly=true
 
(Record the alternate boot path)
# ls -l /dev/rdsk/c2t2d0s0
lrwxrwxrwx  1 root     root          57 Apr 25 20:11 /dev/rdsk/c2t2d0s0 
–> ../../devices/node@1/pci@1f,0/pci@1/scsi@3,1/disk@2,0:a,raw

Étapes suivantes

Pour la mise en miroir de l'espace de noms global, /global/.devices/node@nodeid, reportez-vous à la rubrique Mise en miroir de l'espace de noms global .

Pour la mise en miroir de systèmes de fichiers qui ne peuvent pas être démontés, reportez-vous à la rubrique Mise en miroir des systèmes de fichiers autres que les systèmes de fichiers racine (/) ne pouvant pas être démontés.

Pour la mise en miroir de systèmes de fichiers définis par l'utilisateur, reportez-vous à la rubrique Mise en miroir de systèmes de fichiers pouvant être démontés.

Sinon, reportez-vous à la rubrique Création de jeux de disques dans un cluster pour la création d'un jeu de disques.

Erreurs fréquentes

Certaines des étapes de la procédure de mise en miroir peuvent générer un message d'erreur, similaire à celui-ci : metainit: dg-schost-1: d1s0: not a metadevice. Ce message est anodin et peut être ignoré.

ProcedureMise en miroir de l'espace de noms global

Suivez cette procédure pour mettre en miroir l'espace de noms global, /global/.devices/node@nodeid/.

Étapes
  1. Devenez superutilisateur sur un nœud du cluster.

  2. Placez la tranche de l'espace de noms global dans une concaténation à une seule tranche (une seule voie).

    Utilisez le nom du disque physique de la tranche de disque (cNtXdYsZ).


    # metainit -f submirror1 1 1 diskslice
    
  3. Créez une deuxième concaténation.


    # metainit submirror2 1 1 submirror-diskslice
    
  4. Créez un miroir à une voie avec un sous-miroir.


    # metainit mirror -m submirror1
    

    Remarque –

    Chaque nom de volume ou de métapériphérique d'un miroir sur lequel doit être monté le système de fichiers de périphériques globaux (/global/.devices/node@nodeid) doit être unique sur l'ensemble du cluster.


  5. Attachez le deuxième sous-miroir au miroir.

    Cet attachement lance une synchronisation des sous-miroirs.


    # metattach mirror submirror2
    
  6. Éditez l'entrée de fichier /etc/vfstab pour le système de fichiers /global/.devices/node@id_nœud.

    Dans les colonnes device to mount et device to fsck, remplacez les noms par celui du miroir.


    # 
    vi /etc/vfstab
    #device        device        mount    FS     fsck    mount    mount
    #to mount      to fsck       point    type   pass    at boot  options
    #
    /dev/md/dsk/mirror /dev/md/rdsk/mirror /global/.devices/node@nodeid ufs 2 no global
  7. Pour chaque nœud du cluster, reproduisez la procédure, de l'Étape 1 à l'Étape 6.

  8. Attendez la fin du processus de synchronisation des miroirs (commencé au cours de l'Étape 5).

    Utilisez la commande metastat(1M) pour visualiser l'état du miroir et vous assurer que la synchronisation de la mise en miroir est terminée.


    # metastat mirror
    
  9. Si le disque utilisé pour mettre l'espace de noms global en miroir est connecté physiquement à plusieurs nœuds (multihôte), activez la propriété localonly.

    Pour activer la propriété localonly du groupe de périphériques de disques bruts pour l'unité de disque utilisée pour mettre en miroir l'espace de noms global, exécutez les étapes ci-dessous. Vous devez activer la propriété localonly pour éviter la séparation involontaire d'un nœud de son périphérique de démarrage si ce dernier est connecté à plusieurs nœuds.

    1. Si nécessaire, utilisez la commande scdidadm(1M) pour afficher le nom de chemin DID complet du groupe de périphériques de disques bruts.

      Dans l'exemple suivant, le nom du groupe de périphériques de disques bruts dsk/d2 apparaît dans la troisième colonne des résultats, correspondant au nom de chemin DID complet.


      # scdidadm -L
      …
      1         phys-schost-3:/dev/rdsk/c1t1d0     /dev/did/rdsk/d2
      
    2. Visualisez la liste des nœuds du groupe de périphériques de disques bruts.

      Le résultat sera similaire à ce qui suit.


      # scconf -pvv | grep dsk/d2
      Device group name:						dsk/d2
      …
        (dsk/d2) Device group node list:		phys-schost-1, phys-schost-3
      …
    3. Si la liste de nœuds contient plusieurs noms de nœud, supprimez tous les nœuds, à l'exception du nœud dont le disque est mis en miroir.

      Seul le nœud dont le disque est mis en miroir doit figurer dans la liste de nœuds du groupe de périphériques de disques bruts.


      # scconf -r -D name=dsk/dN,nodelist=node
      
      -D name=dsk/dN

      Indique le nom du groupe de périphériques de disques bruts unique du cluster.

      nodelist=node

      Spécifie le nom du ou des nœud(s) à supprimer de la liste des nœuds.

    4. Activez la propriété localonly.

      Lorsque la propriété localonly est activée, le groupe de périphériques de disque bruts est utilisé exclusivement par le nœud figurant dans sa liste de nœuds. Cela évite la séparation involontaire d'un nœud de son périphérique de démarrage si celui-ci est connecté à plusieurs nœuds.


      # scconf -c -D name=rawdisk-groupname,localonly=true
      
      -D name=rawdisk-groupname

      Indique le nom du groupe de périphériques de disques bruts.

      Pour de plus amples informations sur la propriété localonly, reportez-vous à la page de manuel scconf_dg_rawdisk(1M).


Exemple 3–3 Mise en miroir de l'espace de noms global

L'exemple suivant illustre la création du miroir d101, constitué du sous-miroir d111 sur la partition c0t0d0s3 et du sous-miroir d121 sur la partition c2t2d0s3. L'entrée de fichier /etc/vfstab pour /global/.devices/node@1 est mise à jour pour utiliser le nom de miroir d101. Le périphérique c2t2d0 étant un disque multihôte, la propriété localonly est activée.


(Create the mirror)
# metainit -f d111 1 1 c0t0d0s3
d111: Concat/Stripe is setup
# metainit d121 1 1 c2t2d0s3
d121: Concat/Stripe is setup
# metainit d101 -m d111
d101: Mirror is setup
# metattach d101 d121
d101: Submirror d121 is attached
 
(Edit the /etc/vfstab file)
# vi /etc/vfstab
#device        device        mount    FS     fsck    mount    mount
#to mount      to fsck       point    type   pass    at boot  options
#
/dev/md/dsk/d101 /dev/md/rdsk/d101 /global/.devices/node@1 ufs 2 no global
 
(View the sync status)
# metastat d101
d101: Mirror
      Submirror 0: d111
         State: Okay
      Submirror 1: d121
         State: Resyncing
      Resync in progress: 15 % done
…
 
(Identify the device-ID name of the mirrored disk's raw-disk device group)
# scdidadm -L
…
1         phys-schost-3:/dev/rdsk/c2t2d0     /dev/did/rdsk/d2
 
(Display the device-group node list)
# scconf -pvv | grep dsk/d2
Device group name:						dsk/d2
…
  (dsk/d2) Device group node list:		phys-schost-1, phys-schost-3
…
 
(Remove phys-schost-3 from the node list)
# scconf -r -D name=dsk/d2,nodelist=phys-schost-3
 
(Enable the localonly property)
# scconf -c -D name=dsk/d2,localonly=true

Étapes suivantes

Pour la mise en miroir de systèmes de fichiers, autres que racine (/), qui ne peuvent être démontés, reportez-vous à la rubrique Mise en miroir des systèmes de fichiers autres que les systèmes de fichiers racine (/) ne pouvant pas être démontés.

Pour la mise en miroir de systèmes de fichiers définis par l'utilisateur, reportez-vous à la rubrique Mise en miroir de systèmes de fichiers pouvant être démontés.

Sinon, reportez-vous à la rubrique Création de jeux de disques dans un cluster pour la création d'un jeu de disques.

Erreurs fréquentes

Certaines étapes de cette procédure de mise en miroir peuvent générer un message d'erreur, semblable à celui-ci : metainit: dg-schost-1: d1s0: not a metadevice. Ce message d'erreur est anodin et peut être ignoré.

ProcedureMise en miroir des systèmes de fichiers autres que les systèmes de fichiers racine (/) ne pouvant pas être démontés

Cette procédure permet de mettre en miroir les systèmes de fichiers autres que les systèmes de fichiers racine (/) ne pouvant pas être démontés tandis que le système est utilisé normalement, comme /usr, /opt ou swap.

Étapes
  1. Devenez superutilisateur sur un nœud du cluster.

  2. Placez la tranche sur laquelle réside un système de fichiers non démontable dans une concaténation à une seule tranche (une seule voie).

    Spécifiez le nom du disque physique de la tranche de disque (cNtXdYsZ).


    # metainit -f submirror1 1 1 diskslice
    
  3. Créez une deuxième concaténation.


    # metainit submirror2 1 1 submirror-diskslice
    
  4. Créez un miroir à une voie avec un sous-miroir.


    # metainit mirror -m submirror1
    

    Remarque –

    il n'est pas nécessaire que le nom de métapériphérique ou du volume du miroir soit unique sur tout le cluster.


  5. Pour chaque système de fichiers non démontable que vous souhaitez mettre en miroir, reproduisez la procédure, de l'Étape 1 à Étape 4.

  6. Sur chaque nœud, éditez l'entrée de fichier /etc/vfstab pour chaque système de fichiers non démontable mis en miroir.

    Dans les colonnes device to mount et device to fsck, remplacez les noms par celui du miroir.


    # vi /etc/vfstab
    #device        device        mount    FS     fsck    mount    mount
    #to mount      to fsck       point    type   pass    at boot  options
    #
    /dev/md/dsk/mirror /dev/md/rdsk/mirror /filesystem ufs 2 no global
  7. Déplacez tous les groupes de ressources ou groupes de périphériques du nœud.


    # scswitch -S -h from-node
    
    -S

    Déplace tous les groupes de ressources et groupes de périphériques.

    -h from-node

    Indique le nom du nœud à partir duquel déplacer les groupes de ressources ou de périphériques.

  8. Réinitialisez le nœud.


    # shutdown -g0 -y -i6
    
  9. Attachez le deuxième sous-miroir à chaque miroir.

    Cet attachement lance une synchronisation des sous-miroirs.


    # metattach mirror submirror2
    
  10. Attendez la fin du processus de synchronisation des miroirs (commencé au cours de l' Étape 9).

    Utilisez la commande metastat(1M) pour visualiser l'état du miroir et vous assurer que la synchronisation de la mise en miroir est terminée.


    # metastat mirror
    
  11. Si le disque utilisé pour la mise en miroir du système de fichiers non démontable est physiquement connecté à plus d'un nœud (en configuration multihôte, donc), activez la propriété localonly.

    Pour activer la propriété localonly du groupe de périphériques de disques bruts pour l'unité de disque utilisée pour mettre en miroir le système de fichiers démontable, exécutez les étapes ci-dessous. Vous devez activer la propriété localonly pour éviter la séparation involontaire d'un nœud de son périphérique de démarrage si ce dernier est connecté à plusieurs nœuds.

    1. Si nécessaire, utilisez la commande scdidadm -L pour afficher le nom du chemin complet de l'ID de périphérique du groupe de périphériques de disques bruts.

      Dans l'exemple suivant, le nom du groupe de périphériques de disques bruts, dsk/d2, apparaît dans la troisième colonne de la sortie, qui correspond au nom du chemin complet de l'ID de périphérique.


      # scdidadm -L
      …
      1            phys-schost-3:/dev/rdsk/c1t1d0    /dev/did/rdsk/d2
      
    2. Visualisez la liste des nœuds du groupe de périphériques de disques bruts.

      Le résultat sera similaire à ce qui suit.


      # scconf -pvv | grep dsk/d2
      Device group name:						dsk/d2
      …
        (dsk/d2) Device group node list:		phys-schost-1, phys-schost-3
      …
    3. Si la liste de nœuds contient plusieurs noms de nœud, supprimez tous les nœuds, à l'exception du nœud correspondant au disque racine mis en miroir.

      Seul le nœud dont le disque racine est mis en miroir doit figurer dans la liste de nœuds du groupe de périphériques de disques bruts.


      # scconf -r -D name=dsk/dN,nodelist=node
      
      -D name=dsk/dN

      Indique le nom du groupe de périphériques de disques bruts unique du cluster.

      nodelist=node

      Spécifie le nom du ou des nœud(s) à supprimer de la liste des nœuds.

    4. Activez la propriété localonly.

      Lorsque la propriété localonly est activée, le groupe de périphériques de disque bruts est utilisé exclusivement par le nœud figurant dans sa liste de nœuds. Cela évite la séparation involontaire d'un nœud de son périphérique de démarrage si celui-ci est connecté à plusieurs nœuds.


      # scconf -c -D name=rawdisk-groupname,localonly=true
      
      -D name=rawdisk-groupname

      Indique le nom du groupe de périphériques de disques bruts.

      Pour de plus amples informations sur la propriété localonly, reportez-vous à la page de manuel scconf_dg_rawdisk(1M).


Exemple 3–4 Mise en miroir de systèmes de fichiers ne pouvant pas être démontés

L'exemple suivant illustre la création du miroir d1 sur le nœud phys-schost-1 pour dupliquer /usr, résidant sur c0t0d0s1. Le miroir d1 est constitué du sous-miroir d11 sur la partition c0t0d0s1 et du sous-miroir d21 sur la partition c2t2d0s1. L'entrée de fichier /etc/vfstab pour /usr est mise à jour pour utiliser le nom de miroir d1. Le périphérique c2t2d0 étant un disque multihôte, la propriété localonly est activée.


(Create the mirror)
# metainit -f d11 1 1 c0t0d0s1
d11: Concat/Stripe is setup
# metainit d21 1 1 c2t2d0s1
d21: Concat/Stripe is setup
# metainit d1 -m d11
d1: Mirror is setup
 
(Edit the /etc/vfstab file)
# vi /etc/vfstab
#device        device        mount    FS     fsck    mount    mount
#to mount      to fsck       point    type   pass    at boot  options
#
/dev/md/dsk/d1 /dev/md/rdsk/d1 /usr ufs  2       no global
 
(Move resource groups and device groups from phys-schost-1)
# scswitch -S -h phys-schost-1
 
(Reboot the node)
# shutdown -g0 -y -i6
 
(Attach the second submirror)
# metattach d1 d21
d1: Submirror d21 is attached
 
(View the sync status)
# metastat d1
d1: Mirror
      Submirror 0: d11
         State: Okay
      Submirror 1: d21
         State: Resyncing
      Resync in progress: 15 % done
…
 
(Identify the device-ID name of the mirrored disk's raw-disk device group)
# scdidadm -L
…
1         phys-schost-3:/dev/rdsk/c2t2d0     /dev/did/rdsk/d2
 
(Display the device-group node list)
# scconf -pvv | grep dsk/d2
Device group name:						dsk/d2
…
  (dsk/d2) Device group node list:		phys-schost-1, phys-schost-3
…
 
(Remove phys-schost-3 from the node list)
# scconf -r -D name=dsk/d2,nodelist=phys-schost-3
 
(Enable the localonly property)
# scconf -c -D name=dsk/d2,localonly=true

Étapes suivantes

Pour la mise en miroir de systèmes de fichiers définis par l'utilisateur, reportez-vous à la rubrique Mise en miroir de systèmes de fichiers pouvant être démontés.

Sinon, reportez-vous à la rubrique Création de jeux de disques dans un cluster pour la création d'un jeu de disques.

Erreurs fréquentes

Certaines étapes de cette procédure de mise en miroir peuvent générer un message d'erreur, semblable à celui-ci : metainit: dg-schost-1: d1s0: not a metadevice. Ce message d'erreur est anodin et peut être ignoré.

ProcedureMise en miroir de systèmes de fichiers pouvant être démontés

Cette procédure permet de mettre en miroir des systèmes de fichiers pouvant être démontés et définis par l'utilisateur. Dans cette procédure, il n'est pas nécessaire de réinitialiser les nœuds.

Étapes
  1. Devenez superutilisateur sur un nœud du cluster.

  2. Démontez le système de fichiers à mettre en miroir.

    Assurez-vous qu'aucun processus n'est en cours sur le système de fichiers.


    # umount /mount-point
    

    Pour plus d'informations, voir la page de manuel umount(1M) et le Chapitre 18, Mounting and Unmounting File Systems (Tasks) du System Administration Guide: Devices and File Systems.

  3. Dans une concaténation à une seule tranche (à une voie), placez la tranche sur laquelle réside un système de fichiers défini par l'utilisateur qui peut être démonté.

    Spécifiez le nom du disque physique de la tranche de disque (cNtXdYsZ).


    # metainit -f submirror1 1 1 diskslice
    
  4. Créez une deuxième concaténation.


    # metainit submirror2 1 1 submirror-diskslice
    
  5. Créez un miroir à une voie avec un sous-miroir.


    # metainit mirror -m submirror1
    

    Remarque –

    il n'est pas nécessaire que le nom de métapériphérique ou du volume du miroir soit unique sur tout le cluster.


  6. Pour chaque système de fichiers montable à mettre en miroir, reproduisez la procédure, de l'Étape 1 à l'Étape 5.

  7. Sur chaque nœud, éditez l'entrée de fichier /etc/vfstab pour chaque système de fichiers mis en miroir.

    Dans les colonnes device to mount et device to fsck, remplacez les noms par celui du miroir.


    # vi /etc/vfstab
    #device        device        mount    FS     fsck    mount    mount
    #to mount      to fsck       point    type   pass    at boot  options
    #
    /dev/md/dsk/mirror /dev/md/rdsk/mirror /filesystem ufs 2 no global
  8. Attachez le deuxième sous-miroir au miroir.

    Cet attachement lance une synchronisation des sous-miroirs.


    # metattach mirror submirror2
    
  9. Attendez la fin du processus de synchronisation des miroirs (commencé au cours de l' Étape 8).

    Utilisez la commandemetastat(1M) pour afficher l'état des miroirs.


    # metastat mirror
    
  10. Si le disque utilisé pour mettre en miroir le système de fichiers défini par l'utilisateur est connecté physiquement à plusieurs nœuds (multihôte), activez la propriété localonly.

    Pour activer la propriété localonly du groupe de périphériques de disques bruts pour l'unité de disque utilisée pour mettre en miroir le système de fichiers défini par l'utilisateur, exécutez les étapes ci-dessous. Vous devez activer la propriété localonly pour éviter la séparation involontaire d'un nœud de son périphérique de démarrage si ce dernier est connecté à plusieurs nœuds.

    1. Si nécessaire, utilisez la commande scdidadm -L pour afficher le nom de chemin DID complet du groupe de périphériques de disques bruts.

      Dans l'exemple suivant, le nom du groupe de périphériques de disques bruts dsk/d4 apparaît dans la troisième colonne des résultats, qui correspond au nom de chemin DID complet.


      # scdidadm -L
      …
      1         phys-schost-3:/dev/rdsk/c1t1d0     /dev/did/rdsk/d2
      
    2. Visualisez la liste des nœuds du groupe de périphériques de disques bruts.

      Le résultat sera similaire à ce qui suit.


      # scconf -pvv | grep dsk/d2
      Device group name:						dsk/d2
      …
        (dsk/d2) Device group node list:		phys-schost-1, phys-schost-3
      …
    3. Si la liste de nœuds contient plusieurs noms de nœud, supprimez tous les nœuds, à l'exception du nœud correspondant au disque racine mis en miroir.

      Seul le nœud dont vous avez mis le disque racine en miroir doit figurer dans la liste de nœuds du groupe de périphériques de disques bruts.


      # scconf -r -D name=dsk/dN,nodelist=node
      
      -D name=dsk/dN

      Indique le nom du groupe de périphériques de disques bruts unique du cluster.

      nodelist=node

      Spécifie le nom du ou des nœud(s) à supprimer de la liste des nœuds.

    4. Activez la propriété localonly.

      Lorsque la propriété localonly est activée, le groupe de périphériques de disque bruts est utilisé exclusivement par le nœud figurant dans sa liste de nœuds. Cela évite la séparation involontaire d'un nœud de son périphérique de démarrage si celui-ci est connecté à plusieurs nœuds.


      # scconf -c -D name=rawdisk-groupname,localonly=true
      
      -D name=rawdisk-groupname

      Indique le nom du groupe de périphériques de disques bruts.

      Pour de plus amples informations sur la propriété localonly, reportez-vous à la page de manuel scconf_dg_rawdisk(1M).

  11. Montez le système de fichiers mis en miroir.


    # mount /mount-point
    

    Pour obtenir plus d'informations, voir la page de manuel mount(1M) et le Chapitre 18, Mounting and Unmounting File Systems (Tasks) du System Administration Guide: Devices and File Systems.


Exemple 3–5 Mise en miroir de systèmes de fichiers pouvant être démontés

L'exemple suivant illustre la création du miroir d4 pour mettre en miroir le répertoire /export, résidant sur c0t0d0s4. Le miroir d4 est constitué du sous-miroir d14 sur la partition c0t0d0s4 et du sous-miroir d24 sur la partition c2t2d0s4. L'entrée de fichier /etc/vfstab pour /export est mise à jour pour utiliser le nom de miroir d4. Le périphérique c2t2d0 étant un disque multihôte, la propriété localonly est activée.


(Unmount the file system)
# umount /export
 
(Create the mirror)
# metainit -f d14 1 1 c0t0d0s4
d14: Concat/Stripe is setup
# metainit d24 1 1 c2t2d0s4
d24: Concat/Stripe is setup
# metainit d4 -m d14
d4: Mirror is setup
 
(Edit the /etc/vfstab file)
# vi /etc/vfstab
#device        device        mount    FS     fsck    mount    mount
#to mount      to fsck       point    type   pass    at boot  options
#
# /dev/md/dsk/d4 /dev/md/rdsk/d4 /export ufs 2 no    global
 
(Attach the second submirror)
# metattach d4 d24
d4: Submirror d24 is attached
 
(View the sync status)
# metastat d4
d4: Mirror
       Submirror 0: d14
          State: Okay
       Submirror 1: d24
          State: Resyncing
       Resync in progress: 15 % done
…
 
(Identify the device-ID name of the mirrored disk's raw-disk device group)
# scdidadm -L
…
1         phys-schost-3:/dev/rdsk/c2t2d0     /dev/did/rdsk/d2
 
(Display the device-group node list)
# scconf -pvv | grep dsk/d2
Device group name:                       dsk/d2
…
  (dsk/d2) Device group node list:       phys-schost-1, phys-schost-3
…
 
(Remove phys-schost-3 from the node list)
# scconf -r -D name=dsk/d2,nodelist=phys-schost-3
 
(Enable the localonly property)
# scconf -c -D name=dsk/d2,localonly=true 
 
(Mount the file system)
# mount /export

Étapes suivantes

Si vous avez besoin de créer des jeux de disques, reportez-vous à l'une des rubriques suivantes :

Si vous disposez d'un nombre de jeux de disques suffisant, reportez-vous à l'une des rubriques suivantes :

Erreurs fréquentes

Certaines étapes de cette procédure de mise en miroir peuvent générer un message d'erreur, semblable à celui-ci : metainit: dg-schost-1: d1s0: not a metadevice. Ce message d'erreur est anodin et peut être ignoré.