Guide d'administration système de Sun Cluster 3.0 U1

Chapitre 8 Sauvegarde et restauration d'une grappe

Les procédures détaillées décrites dans ce chapitre sont les suivantes :

8.1 Sauvegarde d'une grappe

Tableau 8-1 Plan des tâches : Sauvegarde des fichiers de la grappe

Tâche 

Pour les instructions, voir... 

Trouver le nom des systèmes de fichiers à sauvegarder 

"8.1.1 Recherche du nom des systèmes de fichiers à sauvegarder"

Calculer le nombre de bandes nécessaires à une sauvegarde complète 

"8.1.2 Détermination du nombre de bandes nécessaires à une sauvegarde complète "

Sauvegarder le système de fichiers root 

"8.1.3 Sauvegarde du système de fichiers root (/)"

Effectuer une sauvegarde en ligne des systèmes de fichiers en miroir ou en réseau 

"8.1.4 Exécution de sauvegardes en ligne pour des copies miroir (Solstice DiskSuite)"

"8.1.5 Sauvegardes en ligne pour les volumes (VERITAS Volume Manager)"

8.1.1 Recherche du nom des systèmes de fichiers à sauvegarder

Cette procédure permet de déterminer le nom des systèmes de fichiers à sauvegarder.

  1. Affichez le contenu du fichier /etc/vfstab.

    Vous n'avez pas besoin d'être un superutilisateur pour exécuter cette commande.


    % more /etc/vfstab
    

  2. Cherchez le nom du système de fichiers à sauvegarder dans la colonne des points de montage.

    Utilisez ce nom pour la sauvegarde du système de fichiers.


    % more /etc/vfstab 
    

8.1.1.1 Exemple : recherche du nom des systèmes de fichiers à sauvegarder

L'exemple suivant présente les noms des systèmes de fichiers disponibles figurant dans le fichier /etc/vfstab.


% more /etc/vfstab
#device             device             mount  FS fsck  mount  mount
#to mount           to fsck            point  type     pass   at boot  options
#
#/dev/dsk/c1d0s2    /dev/rdsk/c1d0s2   /usr     ufs     1      yes      -
 f                  -                  /dev/fd  fd      -      no       -
 /proc              -                  /proc    proc    -      no       -
 /dev/dsk/c1t6d0s1  -                  -        swap    -      no       -
 /dev/dsk/c1t6d0s0  /dev/rdsk/c1t6d0s0 /        ufs     1      no       -
 /dev/dsk/c1t6d0s3  /dev/rdsk/c1t6d0s3 /cache   ufs     2      yes      -
 swap               -                  /tmp     tmpfs   -      yes      -

8.1.2 Détermination du nombre de bandes nécessaires à une sauvegarde complète

Cette procédure permet de calculer le nombre de bandes nécessaires pour la sauvegarde d'un système de fichiers.

  1. Devenez superutilisateur sur le noeud de grappe que vous souhaitez sauvegarder.

  2. Estimez la taille de la sauvegarde, en octets.


    # ufsdump S système_fichiers 
    

    S

    Affiche le nombre estimé d'octets nécessaires pour effectuer la sauvegarde.

    système_fichiers

    Indique le nom des systèmes de fichiers à sauvegarder.

  3. Divisez la taille estimée par la capacité de la bande pour connaître le nombre de bandes nécessaires.

8.1.2.1 Exemple : détermination du nombre de bandes nécessaires

Dans l'exemple suivant, le système de fichiers, d'une taille de 905 881 620 octets, tiendra facilement sur une bande de 4 Go (905 881 620 / 4 000 000 000).


# ufsdump S /global/phys-schost-1
905881620

8.1.3 Sauvegarde du système de fichiers root (/)

Cette procédure permet de sauvegarder le système de fichiers root (/) d'un noeud de grappe. Assurez-vous que la grappe fonctionne sans problème avant de lancer la sauvegarde.

  1. Devenez superutilisateur sur le noeud de grappe que vous souhaitez sauvegarder.

  2. Transférez tous les services de données en cours d'exécution du noeud à sauvegarder à un autre noeud de la grappe.


    # scswitch -z -D groupe_unités_disque -h liste_noeuds
    

    -z

    Effectue le changement.

    -D groupe_unités_disque

    Nom du groupe d'unités de disque à transférer.

    -h liste_noeuds

    Nom de la grappe vers lequel le groupe d'unités de disque doit passer. Ce noeud devient le nouveau noeud principal.

  3. Arrêtez le noeud.


    # shutdown -g0 -y -i0
    

  4. A l'invite ok, réinitialisez le noeud en mode hors-grappe.


    ok boot -x
    

  5. Sauvegardez le système de fichiers root (/).

    • Si le disque root n'est pas encapsulé, exécutez la commande suivante :


      # ufsdump 0ucf périphérique_vidage /
      

    • Si le disque root est encapsulé, exécutez la commande suivante :


      # ufsdump 0ucf périphérique_vidage /dev/vx/rdsk/rootvol
      

    Reportez-vous à la page de manuel ufsdump(1M) pour plus d'informations.

  6. Réinitialisez le noeud en mode grappe.


    # init 6
    

8.1.3.1 Exemple : sauvegarde du système de fichiers root (/)

Dans l'exemple suivant, le système de fichiers root (/) est sauvegardé sur le lecteur de bande /dev/rmt/0.


# ufsdump 0ucf /dev/rmt/0 /
  DUMP: Writing 63 Kilobyte records
  DUMP: Date of this level 0 dump: Tue Apr 18 18:06:15 2000
  DUMP: Date of last level 0 dump: the epoch
  DUMP: Dumping /dev/rdsk/c0t0d0s0 (phys-schost-1:/) to /dev/rmt/0
  DUMP: Mapping (Pass I) [regular files]
  DUMP: Mapping (Pass II) [directories]
  DUMP: Estimated 859086 blocks (419.48MB).
  DUMP: Dumping (Pass III) [directories]
  DUMP: Dumping (Pass IV) [regular files]
  DUMP: 859066 blocks (419.47MB) on 1 volume at 2495 KB/sec
  DUMP: DUMP IS DONE
  DUMP: Level 0 dump on Tue Apr 18 18:06:15 2000

8.1.4 Exécution de sauvegardes en ligne pour des copies miroir (Solstice DiskSuite)

Il est possible de sauvegarder un métapériphérique en miroir sans le démonter et sans mettre hors ligne le miroir entier. L'un des sous-miroirs doit être temporairement mis hors ligne, ce qui entraîne la perte du miroir, mais il peut être remis en ligne et resynchronisé dès la fin de la sauvegarde, sans que le système soit interrompu ou que l'utilisateur perde la possibilité d'accéder aux données. L'utilisation des miroirs pour effectuer des sauvegardes en ligne entraîne la création d'une sauvegarde constituant un "instantané" d'un système de fichiers actif.

Il se peut qu'un problème survienne si un programme envoie des données au volume juste avant l'exécution de la commande lockfs. Pour éviter cela, arrêtez temporairement tous les services qui s'exécutent sur le noeud concerné. Assurez-vous également que la grappe fonctionne sans problème avant de lancer la sauvegarde.

  1. Devenez superutilisateur sur le noeud de grappe que vous souhaitez sauvegarder.

  2. Exécutez la commande metaset(1M) pour déterminer quel noeud est propriétaire du volume sauvegardé.


    # metaset -s nom_ensemble
    

    -s nom_ensemble

    Indique le nom de l'ensemble de disques.

  3. Exécutez la commande lockfs(1M) suivie de l'option -w pour verrouiller l'accès en écriture au système de fichiers.


    # lockfs -w point_montage 
    


    Remarque :

    Vous devez verrouiller le système de fichiers uniquement si le miroir comporte un système de fichiers UFS. Si, par exemple, le métapériphérique est défini comme périphérique brut pour le logiciel de gestion de base de données ou une autre application spécifique, il n'est pas nécessaire d'utiliser la commande lockfs. Vous pouvez toutefois exécuter l'utilitaire fournisseur approprié pour vider les mémoires tampon et verrouiller l'accès.


  4. Exécutez la commande metastat(1M) pour connaître le nom des sous-miroirs.


    # metastat -s nom_ensemble -p
    

    -p

    Affiche l'état dans le format du fichier md.tab.

  5. Utilisez la commande metadetach(1M) pour mettre hors ligne l'un des sous-miroirs.


    # metadetach -s nom_ensemble miroir sous-miroir
    


    Remarque :

    Les lectures se poursuivront à partir des autres sous-miroirs. Toutefois, le sous-miroir hors ligne est désynchronisé dès qu'une écriture est effectuée dans le miroir. La synchronisation est rétablie dès que le sous-miroir hors ligne est remis en ligne. Il n'est pas nécessaire d'exécuter la commande fsck.


  6. Déverrouillez les systèmes de fichiers et permettez aux écritures de se poursuivre en utilisant la commande lockfs suivie de l'option -u.


    # lockfs -u point_montage 
    

  7. Vérifiez le système de fichiers..


    # fsck /dev/md/ensemble_disques/rdsk/sous_miroir
    

  8. Effectuez une sauvegarde du sous-miroir hors ligne sur une bande ou sur un autre support.

    Exécutez la commande ufsdump(1M) ou tout autre utilitaire de sauvegarde que vous utilisez habituellement.


    # ufsdump 0ucf périphérique_vidage sous_miroir
    


    Remarque :

    Utilisez le nom de périphérique brut (/rdsk) pour le sous-miroir, plutôt que le nom du périphérique en mode bloc ( /dsk).


  9. Exécutez la commande metattach(1M) pour remettre le métapériphérique en ligne.


    # metattach -s nom_ensemble miroir sous_miroir
    

    Lorsque le métapériphérique est remis en ligne, il est automatiquement resynchronisé avec le miroir.

  10. Exécutez la commande metastat pour vérifier que la resynchronisation du sous-miroir est en cours.


    # metastat -s nom_ensemble miroir
    

8.1.4.1 Exemple : sauvegardes en ligne des miroirs (Solstice DiskSuite)

Dans l'exemple suivant, le noeud de grappe phys-schost-1 est le propriétaire du méta-ensemble schost-1 ; la procédure de sauvegarde est donc exécutée à partir de ce noeud. Le miroir /dev/md/schost-1/dsk/d0 se compose des sous-miroirs d10, d20 et d30.


[Déterminez le propriétaire du méta-ensemble :]
# metaset -s schost-1
Set name = schost-1, Set number = 1
Host                Owner
phys-schost-1       Yes
...
[Verrouillez l'accès en écriture au système de fichiers :] 
# lockfs -w /global/schost-1
[Affichez la liste des sous-miroirs :]
# metastat -s schost-1 -p
schost-1/d0 -m schost-1/d10 schost-1/d20 schost-1/d30 1
schost-1/d10 1 1 d4s0
schost-1/d20 1 1 d6s0
schost-1/d30 1 1 d8s0
[Mettez un sous-miroir hors ligne :]
# metadetach -s schost-1 d0 d30
[Déverrouillez le système de fichiers :]
# lockfs -u /
[Vérifiez le système de fichiers :]
# fsck /dev/md/schost-1/rdsk/d30
[Copiez le sous-miroir sur l'unité de sauvegarde :]
# ufsdump 0ucf /dev/rmt/0 /dev/md/schost-1/rdsk/d30
  DUMP: Writing 63 Kilobyte records
  DUMP: Date of this level 0 dump: Tue Apr 25 16:15:51 2000
  DUMP: Date of last level 0 dump: the epoch
  DUMP: Dumping /dev/md/schost-1/rdsk/d30 to /dev/rdsk/c1t9d0s0.
  ...
  DUMP: DUMP IS DONE 
[Remettez le sous-miroir en ligne :]
# metattach -s schost-1 d0 d30
schost-1/d0: submirror schost-1/d30 is attached
[Resynchronisez le sous-miroir :]
# metastat -s schost-1 d0
schost-1/d0: Mirror
    Submirror 0: schost-0/d10
      State: Okay         
    Submirror 1: schost-0/d20
      State: Okay
    Submirror 2: schost-0/d30
      State: Resyncing
    Resync in progress: 42% done
    Pass: 1
    Read option: roundrobin (default)
...

8.1.5 Sauvegardes en ligne pour les volumes (VERITAS Volume Manager)

VERITAS Volume Manager identifie les volumes en miroir comme réseaux. Il est possible de sauvegarder un réseau sans le démonter et sans mettre hors ligne le volume entier. Pour ce faire, vous devez créer une copie instantanée du volume et sauvegarder ce volume temporaire sans interrompre le système ou fermer l'accès aux données pour les utilisateurs.

Assurez-vous que la grappe fonctionne sans problème avant de lancer la sauvegarde.

  1. Connectez-vous à un noeud quelconque de la grappe et devenez superutilisateur sur le noeud principal actuel du groupe de disques de la grappe.

  2. Affichez les informations sur le groupe de disques.


    # vxprint -g groupe_disques
    

  3. Exécutez la commande scstat(1M) pour voir sur quel noeud le groupe de disques est actuellement importé, indiquant qu'il s'agit du noeud principal du groupe de disques.


    # scstat -D
    

    -D

    Affiche l'état de tous les groupes d'unités de disque.

  4. Créez un instantané du volume à l'aide de la commande vxassist(1M).


    # vxassist -g groupe_disques snapstart volume
    


    Remarque :

    La création d'un instantané peut prendre un certain temps, selon la taille du volume.


  5. Vérifiez que le nouveau volume a bien été créé.


    # vxprint -g groupe_disques
    

    Lorsque l'instantané est effectué, l'état de Snapdone s'affiche dans le champ State du groupe de disques sélectionné.

  6. Arrêtez tous les services de données qui accèdent au système de fichiers.


    # scswitch -z -g groupe_ressources -h ""
    


    Remarque :

    L'arrêt des services de données est recommandé pour garantir la sauvegarde correcte du système de fichiers de données. Si aucun service de données n'est en cours d'exécution, il n'est pas nécessaire d'effectuer l'Étape 6 ni l'Étape 8.


  7. Créez un volume de sauvegarde nommé vol_sauv et joignez-lui le volume instantané à l'aide de la commande vxassist.


    # vxassist -g groupe_disques snapshot volume vol_sauv
    

  8. Faites redémarrer tous les services de données arrêtés à l' Étape 6 à l'aide de la commande scswitch.


    # scswitch -z -g groupe_ressources -h liste_noeuds
    

  9. Vérifiez que le volume est bien attaché au nouveau volume vol_sauv à l'aide de la commande vxprint.


    # vxprint -g groupe_disques
    

  10. Enregistrez la modification de la configuration du groupe de disques.


    # scconf -c -D nom=groupe_disques,sync
    

  11. Vérifiez le volume de sauvegarde à l'aide de la commande fsck.


    # fsck -y /dev/vx/rdsk/groupe_disques/vol_sauv
    

  12. Effectuez une sauvegarde pour copier sur une bande ou sur un autre support le volume vol_sauv.

    Exécutez la commande ufsdump(1M) ou l'utilitaire de sauvegarde que vous utilisez habituellement.


    # ufsdump 0ucf périphérique_vidage /dev/vx/dsk/groupe_disques/vol_sauv
    

  13. Supprimez le volume temporaire à l'aide de la commande vxedit(1M).


    # vxedit -rf rm vol_sauv
    

  14. Enregistrez les modifications apportées à la configuration du groupe de disques à l'aide de la commande scconf command.


    # scconf -c -D name=groupe_disques,sync
    

8.1.5.1 Exemple : sauvegardes en ligne des volumes (VERITAS Volume Manager)

Dans l'exemple suivant, le noeud de grappe phys-schost-2- est le propriétaire du méta-ensemble schost-1 ; la procédure de sauvegarde est donc exécutée à partir de ce noeud. Le volume /vo101 est d'abord copié, puis associé à un nouveau volume vol_sauv.


[Devenez superutiliser sur le noeud principal.]
[Identifiez le noeud principal actuel pour groupe de disques :]
# scstat -D
-- Device Group Servers --
                         Device Group     Primary           Secondary
                         ------------     -------           ---------
 Device group servers:   rmt/1            -                 -
 Device group servers:   schost-1         phys-schost-2     phys-schost-1

-- Device Group Status --
                             Device Group        Status              
                             ------------        ------              
 Device group status:        rmt/1               Offline
 Device group status:        schost-1            Online
[Affichez les informations sur le groupe de disques :]
# vxprint -g schost-1
TY NAME            ASSOC     KSTATE   LENGTH   PLOFFS STATE   TUTIL0  PUTIL0
dg schost-1       schost-1   -        -        -      -        -      -
  
dm schost-101     c1t1d0s2   -        17678493 -      -        -      -
dm schost-102     c1t2d0s2   -        17678493 -      -        -      -
dm schost-103     c2t1d0s2   -        8378640  -      -        -      -
dm schost-104     c2t2d0s2   -        17678493 -      -        -      -
dm schost-105     c1t3d0s2   -        17678493 -      -        -      -
dm schost-106     c2t3d0s2   -        17678493 -      -        -      -
 
v  vol01          gen        ENABLED  204800   -      ACTIVE   -      -
pl vol01-01       vol01      ENABLED  208331   -      ACTIVE   -      -
sd schost-101-01  vol01-01   ENABLED  104139   0      -        -      -
sd schost-102-01  vol01-01   ENABLED  104139   0      -        -      -
pl vol01-02       vol01      ENABLED  208331   -      ACTIVE   -      -
sd schost-103-01  vol01-02   ENABLED  103680   0      -        -      -
sd schost-104-01  vol01-02   ENABLED  104139   0      -        -      -
pl vol01-03       vol01      ENABLED  LOGONLY  -      ACTIVE   -      -
sd schost-103-02  vol01-03   ENABLED  5        LOG    -        -      -
[Lancez la prise d'instantané :]
# vxassist -g schost-1 snapstart vol01
[Vérifiez que le nouveau volume a bien été créé :]
# vxprint -g schost-1
TY NAME            ASSOC    KSTATE    LENGTH   PLOFFS STATE   TUTIL0  PUTIL0
dg schost-1       schost-1   -        -        -      -        -      -
  
dm schost-101     c1t1d0s2   -        17678493 -      -        -      -
dm schost-102     c1t2d0s2   -        17678493 -      -        -      -
dm schost-103     c2t1d0s2   -        8378640  -      -        -      -
dm schost-104     c2t2d0s2   -        17678493 -      -        -      -
dm schost-105     c1t3d0s2   -        17678493 -      -        -      -
dm schost-106     c2t3d0s2   -        17678493 -      -        -      -
  
v  vol01          gen        ENABLED  204800   -      ACTIVE   -      -
pl vol01-01       vol01      ENABLED  208331   -      ACTIVE   -      -
sd schost-101-01  vol01-01   ENABLED  104139   0      -        -      -
sd schost-102-01  vol01-01   ENABLED  104139   0      -        -      -
pl vol01-02       vol01      ENABLED  208331   -      ACTIVE   -      -
sd schost-103-01  vol01-02   ENABLED  103680   0      -        -      -
sd schost-104-01  vol01-02   ENABLED  104139   0      -        -      -
pl vol01-03       vol01      ENABLED  LOGONLY  -      ACTIVE   -      -
sd schost-103-02  vol01-03   ENABLED  5        LOG    -        -      -
pl vol01-04       vol01      ENABLED  208331   -      SNAPDONE -      -
sd schost-105-01  vol01-04   ENABLED  104139   0      -        -      -
sd schost-106-01  vol01-04   ENABLED  104139   0      -        -      -
[Sí nécessaire, arrêtez les services de données :]
# scswitch -z -g nfs-rg -h ""
[Créez une copie du volume :]
# vxassist -g schost-1 snapshot vol01 bkup-vol
[Si nécessaire, relancez les services de données :]
# scswitch -z -g nfs-rg -h phys-schost-1
[Vérifiez que le volume vol_sauv a bien été créé :]
# vxprint -g schost-1
TY NAME           ASSOC       KSTATE   LENGTH   PLOFFS STATE   TUTIL0  PUTIL0
dg schost-1       schost-1    -        -        -      -        -      -
 
dm schost-101     c1t1d0s2    -        17678493 -      -        -      -
...
 
v  bkup-vol       gen         ENABLED  204800   -      ACTIVE   -      -
pl bkup-vol-01    bkup-vol    ENABLED  208331   -      ACTIVE   -      -
sd schost-105-01  bkup-vol-01 ENABLED  104139   0      -        -      -
sd schost-106-01  bkup-vol-01 ENABLED  104139   0      -        -      -
 
v  vol01          gen         ENABLED  204800   -      ACTIVE   -      -
pl vol01-01       vol01       ENABLED  208331   -      ACTIVE   -      -
sd schost-101-01  vol01-01    ENABLED  104139   0      -        -      -
sd schost-102-01  vol01-01    ENABLED  104139   0      -        -      -
pl vol01-02       vol01       ENABLED  208331   -      ACTIVE   -      -
sd schost-103-01  vol01-02    ENABLED  103680   0      -        -      -
sd schost-104-01  vol01-02    ENABLED  104139   0      -        -      -
pl vol01-03       vol01       ENABLED  LOGONLY  -      ACTIVE   -      -
sd schost-103-02  vol01-03    ENABLED  5        LOG    -        -      -
[Synchronisez le groupe de disques avec la structure de la grappe :]
# scconf -c -D name=schost-1,sync
[Vérifiez les systèmes de fichiers :]
# fsck -y /dev/vx/rdsk/schost-1/bkup-vol
[Copiez vol_sauv sur l'unité de sauvegarde :]
# ufsdump 0ucf /dev/rmt/0 /dev/vx/rdsk/schost-1/bkup-vol
  DUMP: Writing 63 Kilobyte records
  DUMP: Date of this level 0 dump: Tue Apr 25 16:15:51 2000
  DUMP: Date of last level 0 dump: the epoch
  DUMP: Dumping /dev/vx/dsk/schost-2/bkup-vol to /dev/rmt/0.
  ...
  DUMP: DUMP IS DONE
[Supprimez le volume de sauvegarde :]
# vxedit -rf rm bkup-vol
[Synchronisez le groupe de disques :]
# scconf -c -D name=schost-1,sync

8.2 Restauration des fichiers de la grappe : présentation

La commande ufsrestore copie les fichiers sur le disque associé au répertoire de travail courant, à partir des sauvegardes créées à l'aide de la commande ufsdump. Vous pouvez exécuter la commande ufsrestore pour recharger une arborescence de système de fichiers à partir d'un vidage de niveau 0 et des vidages incrémentiels suivants, ou pour restaurer un ou plusieurs fichiers individuels d'une bande de vidage quelconque. Si vous exécutez la commande ufsrestore comme superutilisateur, les fichiers sont restaurés avec leur propriétaire, date de dernière modification et mode (droits d'accès) initiaux.

Avant de commencer à restaurer des fichiers ou des systèmes de données, vous devez connaître :

8.3 Restauration des fichiers de la grappe

Tableau 8-2 Plan des tâches : restauration des fichiers de la grappe

Tâche 

Pour les instructions, voir... 

Pour Solstice DiskSuite, restaurer de manière interactive les fichiers en suivant les procédures de restauration applicables de Solaris 

"8.3.1 Restauration interactive de fichiers individuels (Solstice DiskSuite)"

Pour Solstice DiskSuite, restaurer le système de fichiers root (/)

"8.3.2 Restauration du système de fichiers root (/) (Solstice DiskSuite)"

  

"8.3.3 Restauration d'un système de fichiers root d'un métapériphérique (Solstice DiskSuite)"

Pour VERITAS Volume Manager, restaurer un système de fichiers root (/) non encapsulé 

"8.3.4 Restauration d'un système de fichiers root (/) non encapsulé (VERITAS Volume Manager)"

Pour VERITAS Volume Manager, restaurer un système de fichiers root (/) encapsulé 

"8.3.5 Restauration d'un système de fichiers root (/) encapsulé (VERITAS Volume Manager)"

8.3.1 Restauration interactive de fichiers individuels (Solstice DiskSuite)

Suivez cette procédure pour restaurer un ou plusieurs fichiers individuels. Assurez-vous que la grappe fonctionne sans problème avant de lancer la procédure de restauration.

  1. Devenez superutilisateur sur le noeud de grappe que vous souhaitez restaurer.

  2. Arrêtez tous les services de données qui utilisent les fichiers à restaurer.


    # scswitch -z -g groupe_ressources -h ""
    

  3. Restaurez les fichiers à l'aide de la commande ufsrestore.

8.3.2 Restauration du système de fichiers root (/) (Solstice DiskSuite)

Suivez cette procédure pour restaurer les systèmes de fichiers root (/) sur un nouveau disque, par exemple après le remplacement d'un disque d'initialisation défectueux. Le noeud restauré ne doit pas être initialisé. Assurez-vous que la grappe fonctionne sans problème avant de lancer la procédure de restauration.


Remarque :

Comme vous devez partitionner le nouveau disque selon le même format que le disque défectueux, identifiez le plan de partitionnement avant de commencer la procédure, et recréez comme nécessaire les systèmes de fichiers.


  1. Devenez superutilisateur sur un noeud de la grappe offrant l'accès au méta-ensemble, mais qui n'est pas le noeud à restaurer.

  2. Supprimez de tous les méta-ensembles le nom d'hôte du noeud en cours de restauration.

    Exécutez cette commande à partir d'un noeud du méta-ensemble autre que celui que vous supprimez.


    # metaset -s nom_ensemble -f -d -h liste_noeuds
    

    -s nom_ensemble

    Indique le nom de l'ensemble de disques.

    -f

    Force la suppression.

    -d

    Supprime des éléments de l'ensemble de disques.

    -h liste_noeuds

    Indique le nom du noeud à supprimer de l'ensemble de disques.

  3. Remplace le disque défectueux sur le noeud dont le système de fichiers root (/) doit être restauré.

    Reportez-vous aux procédures de remplacement de disques dans la documentation fournie avec le serveur.

  4. Initialisez le noeud à restaurer.

    • Si vous utilisez le CD-ROM Solaris, exécutez la commande suivante :


      ok boot cdrom -s
      

    • Si vous utilisez un serveur JumpStartTM, exécutez la commande suivante :


      ok boot net -s
      

  5. Créez toutes les partitions et remplacez le disque root à l'aide de la commande format(1M).

    Recréez le plan de partitionnement initial du disque défectueux.

  6. Créez comme il convient le système de fichiers root (/) et les autres systèmes de fichiers à l'aide de la commande newfs(1M).

    Recréez les systèmes de fichiers initiaux du disque défectueux.


    Remarque :

    N'oubliez pas de créer le système de fichiers /global/.devices/node@id_noeud.


  7. Montez le système de fichiers root (/) sur un point de montage temporaire.


    # mount device point_montage_temp
    

  8. Utilisez les commandes suivantes pour restaurer le système de fichiers root (/).


    # cd point_montage_temp
    # ufsrestore rvf périphérique_vidage
    # rm restoresymtable
    # cd /
    # umount point_montage_temp # fsck unité_disque_brute
    

    Le système de fichiers est restauré.

  9. Installez un nouveau bloc d'initialisation sur le nouveau disque.


    # /usr/sbin/installboot /usr/platform/`uname -i`/lib/fs/ufs/bootblk 
    unité_disque_brute
    

  10. Réinitialisez le noeud en mode mono-utilisateur.


    # reboot -- "-s"
    

  11. Remplacez l'ID de disque à l'aide de la commande scdidadm.


    # scdidadm -R disque_root
    

  12. Utilisez la commande metadb(1M) pour recréer les répliques de la base de données d'état.


    # metadb -c copies -af unité_disque_brute
    

    -c copies

    Indique le nombre de répliques à créer.

    -f unité_disque_brute

    Unité de disques brute sur laquelle seront créées les répliques.

    -a

    Ajoute les répliques.

  13. Réinitialisez le noeud en mode grappe.

    1. Lancez la réinitialisation.


      # reboot
      

      Il se peut que, pendant l'initialisation, apparaisse un message d'erreur ou d'avertissement se terminant par l'instruction suivante :


      Type control-d to proceed with normal startup,
      (or give root password for system maintenance):

    2. Appuyez sur CTRL-d pour effectuer l'initialisation en mode multi-utilisateurs.

  14. A partir d'un noeud de la grappe autre que le noeud restauré, utilisez la commande metaset(1M) pour ajouter le noeud restauré à tous les méta-ensembles.


    phys-schost-2# metaset -s nom_ensemble -a -h liste_noeuds
    

    -a

    Crée et ajoute l'hôte à l'ensemble de disques.

    Le noeud est réinitialisé en mode grappe. La grappe est prête à être utilisé.

8.3.2.1 Exemple : restauration du système de fichiers root (/) (Solstice DiskSuite)

L'exemple suivant montre le système de fichiers root (/) restauré sur le noeud phys-schost-1 à partir du lecteur de bande /dev/rmt/0. La commande metaset est exécutée à partir d'un autre noeud de la grappe, phys-schost-2, pour retirer et ensuite ré-ajouter le noeud phys-schost-1 à l'ensemble de disques schost-1. Toutes les autres commandes sont exécutées à partir de phys-schost-1. Un nouveau bloc est créé sur /dev/rdsk/c0t0d0s0 et trois répliques de bases de données d'état sont recréées sur /dev/rdsk/c0t0d0s4.


[Devenez superutilisateur sur un noeud de la grappe différent du noeud à restaurer.]
[Supprimez le noeud du méta-ensemble :]
 phys-schost-2# metaset -s schost-1 -f -d -h phys-schost-1
[Remplacez le disque défectueux et initialiser le noeud :]
ok boot cdrom -s
[Utilisez les commandes format et newfs pour recréer les partitions et les systèmes de fichiers.]
[Montez le système de fichiers root sur un point de montage temporaire :] 
# mount /dev/dsk/c0t0d0s0 /a
[Restaurez le système de fichiers root :]
# cd /a
# ufsrestore rvf /dev/rmt/0
# rm restoresymtable
# cd /
# umount /a
# fsck /dev/rdsk/c0t0d0s0
[Installez un nouveau bloc d'initialisation :]
# /usr/sbin/installboot /usr/platform/`uname \
-i`/lib/fs/ufs/bootblk /dev/rdsk/c0t0d0s0
[Redémarrez en mode mono-utilisateur :]
# reboot -- "-s"
[Remplacez l'ID de disque :]
# scdidadm -R /dev/dsk/c0t0d0
[Recréez les répliques de base de données d'état :]
# metadb -c 3 -af /dev/rdsk/c0t0d0s4
# reboot
Press CTL-d to boot into multiuser mode.
[Remettez le noeud dans le méta-ensemble :]
phys-schost-2# metaset -s schost-1 -a -h phys-schost-1

8.3.3 Restauration d'un système de fichiers root d'un métapériphérique (Solstice DiskSuite)

Suivez cette procédure pour restaurer un système de fichiers root (/) qui se trouvait sur un métapériphérique lorsque les sauvegardes ont eu lieu. Effectuez cette procédure en cas, par exemple, d'altération d'un disque root et de remplacement par un nouveau disque. Le noeud restauré ne doit pas être initialisé. Assurez-vous que la grappe fonctionne sans problème avant de lancer la procédure de restauration.


Remarque :

Comme vous devez partitionner le nouveau disque selon le même format que le disque défectueux, identifiez le plan de partitionnement avant de commencer la procédure, et recréez comme nécessaire les systèmes de fichiers.


  1. Devenez superutilisateur sur un noeud de la grappe offrant l'accès au méta-ensemble, mais qui n'est pas le noeud à restaurer.

  2. Supprimez de tous les méta-ensembles le nom d'hôte du noeud en cours de restauration.


    # metaset -s nom_ensemble -f -d -h liste_noeuds
    

    -s nom_ensemble

    Indique le nom du méta-ensemble.

    -f

    Force la suppression.

    -d

    Effectue la suppression dans le méta-ensemble.

    -h liste_noeuds

    Indique le nom du noeud à supprimer du méta-ensemble.

  3. Remplace le disque défectueux sur le noeud dont le système de fichiers root (/) doit être restauré.

    Reportez-vous aux procédures de remplacement de disques dans la documentation fournie avec le serveur.

  4. Initialisez le noeud à restaurer.

    • Si vous utilisez le CD-ROM Solaris, exécutez la commande suivante :


      ok boot cdrom -s
      

    • Si vous utilisez un serveur JumpStart, exécutez la commande suivante :


      ok boot net -s
      

  5. Créez toutes les partitions et remplacez le disque root à l'aide de la commande format(1M).

    Recréez le plan de partitionnement initial du disque défectueux.

  6. Créez comme il convient le système de fichiers root (/) et les autres systèmes de fichiers à l'aide de la commande newfs(1M).

    Recréez les systèmes de fichiers initiaux du disque défectueux.


    Remarque :

    N'oubliez pas de créer le système de fichiers /global/.devices/node@id_noeud.


  7. Montez le système de fichiers root (/) sur un point de montage temporaire.


    # mountdevice point_montage_temp
    

  8. Utilisez les commandes suivantes pour restaurer le système de fichiers root (/).


    # cd point_montage_temp
    # ufsrestore rvf périphérique_vidage
    # rm restoresymtable
    

  9. Installez un nouveau bloc d'initialisation sur le nouveau disque.


    # /usr/sbin/installboot /usr/platform/`uname -i`/lib/fs/ufs/bootblkunité_disque_brute
    

  10. Supprimez les lignes du fichier /point_montage_temp/etc/system contenant des informations sur la root MDD.


    * Begin MDD root info (do not edit)
    forceload: misc/md_trans
    forceload: misc/md_raid
    forceload: misc/md_mirror
    forceload: misc/md_hotspares
    forceload: misc/md_stripe
    forceload: drv/pcipsy
    forceload: drv/glm
    forceload: drv/sd
    rootdev:/pseudo/md@0:0,10,blk
    * End MDD root info (do not edit)

  11. Editez le fichier /point_montage_temp/etc/vfstab et remplacez l'entrée root d'un métapériphérique par la tranche normale correspondante pour chaque système de fichiers du disque root faisant partie du métapériphérique.


    Exemple: 
    Changez --
    /dev/md/dsk/d10   /dev/md/rdsk/d10    /      ufs   1     no       -
    
    à--
    /dev/dsk/c0t0d0s0 /dev/rdsk/c0t0d0s0  /usr   ufs   1     no       -

  12. Démontez le système de fichiers temporaire et vérifiez l'unité de disques brute.


    # cd /
    # umount  point_montage_temp
    # fsck unité_disque_brute
    

  13. Réinitialisez le noeud en mode mono-utilisateur.


    # reboot -- "-s"
    

  14. Remplacez l'ID de disque à l'aide de la commande scdidadm.


    # scdidadm -R disque_root
    

  15. Utilisez la commande metadb(1M) pour recréer les répliques de la base de données d'état.


    # metadb -c copies -af unité_disque_brute
    

    -c copies

    Indique le nombre de répliques à créer.

    -af unité_disque_brute

    Crée des répliques de base de données d'état initial sur l'unité de disques brute nommée.

  16. Réinitialisez le noeud en mode grappe.

    1. Lancez la réinitialisation.


      # reboot
      

      Pendant l'initialisation, vous verrez apparaître des messages d'erreur ou d'avertissement se terminant par l'instruction suivante :


      Type control-d to proceed with normal startup,
      (or give root password for system maintenance):

    2. Appuyez sur CTRL-d pour effectuer l'initialisation en mode multi-utilisateurs.

  17. A partir d'un noeud de la grappe autre que le noeud restauré, utilisez la commande metaset(1M) pour ajouter le noeud restauré à tous les méta-ensembles.


    phys-schost-2# metaset -s nom_ensemble -a -h liste_noeuds
    

    -a

    Ajoute (crée) le méta-ensemble.

    Définissez le métapériphérique/miroir pour la root (/) en suivant les instructions de la documentation de Solstice DiskSuite.

    Le noeud est réinitialisé en mode grappe. La grappe est prête à être utilisé.

8.3.3.1 Exemple : restauration d'un système de fichiers root (/) d'un métapériphérique

L'exemple suivant montre le système de fichiers root (/) restauré sur le noeud phys-schost-1 à partir du lecteur de bande /dev/rmt/0. La commande metaset est exécutée à partir d'un autre noeud de la grappe, phys-schost-2, pour retirer et ensuite ré-ajouter le noeud phys-schost-1 au méta-ensemble schost-1. Toutes les autres commandes sont exécutées à partir de phys-schost-1. Un nouveau bloc est créé sur /dev/rdsk/c0t0d0s0 et trois répliques de bases de données d'état sont recréées sur /dev/rdsk/c0t0d0s4.


[Become superuser on a cluster node with access to the metaset, other than the node to be restored.]
[Remove the node from the metaset:]
phys-schost-2# metaset -s schost-1 -f -d -h phys-schost-1
[Replace the failed disk and boot the node:]
ok boot cdrom -s
[Use format and newfs to recreate partitions and file systems.]
[Mount the root file system on a temporary mount point:]
# mount /dev/dsk/c0t0d0s0 /a
[Restore the root file system:]
# cd /a
# ufsrestore rvf /dev/rmt/0
# rm restoresymtable
[Install a new boot block:]
# /usr/sbin/installboot /usr/platform/`uname \
-i`/lib/fs/ufs/bootblk /dev/rdsk/c0t0d0s0
[Remove the lines in /temp-mount-point/etc/system file for MDD root information:]
* Begin MDD root info (do not edit)
forceload: misc/md_trans
forceload: misc/md_raid
forceload: misc/md_mirror
forceload: misc/md_hotspares
forceload: misc/md_stripe
forceload: drv/pcipsy
forceload: drv/glm
forceload: drv/sd
rootdev:/pseudo/md@0:0,10,blk
* End MDD root info (do not edit)
[Edit the /temp-mount-point/etc/vfstab file]
Example: 
Change from--
/dev/md/dsk/d10   /dev/md/rdsk/d10    /      ufs   1     no       -
Change to--
/dev/dsk/c0t0d0s0 /dev/rdsk/c0t0d0s0  /usr   ufs   1     no       -
[Unmount the temporary file system and check the raw disk device:]
# cd /
# umount /a
# fsck /dev/rdsk/c0t0d0s0
[Reboot in single-user mode:]
# reboot -- "-s"
[Replace the disk ID:]
# scdidadm -R /dev/dsk/c0t0d0
[Recreate state database replicas:]
# metadb -c 3 -af /dev/rdsk/c0t0d0s4
# reboot
Type CTRL-d to boot into multiuser mode.
[Add the node back to the metaset:]
phys-schost-2# metaset -s schost-1 -a -h phys-schost-1

8.3.4 Restauration d'un système de fichiers root (/) non encapsulé (VERITAS Volume Manager)

Cette procédure permet de restaurer sur un noeud un système de fichiers root (/) non encapsulé. Le noeud restauré ne doit pas être initialisé. Assurez-vous que la grappe fonctionne sans problème avant de lancer la procédure de restauration.


Remarque :

Comme vous devez partitionner le nouveau disque selon le même format que le disque défectueux, identifiez le plan de partitionnement avant de commencer la procédure, et recréez comme nécessaire les systèmes de fichiers.


  1. Remplacez le disque défectueux sur le noeud dont le système de fichiers root (/) doit être restauré.

    Reportez-vous aux procédures de remplacement de disques dans la documentation fournie avec le serveur.

  2. Initialisez le noeud à restaurer.

    • Si vous utilisez le CD-ROM Solaris, exécutez la commande suivante :


      ok boot cdrom -s
      

    • Si vous utilisez un serveur JumpStart, exécutez la commande suivante :


      ok boot net -s
      

  3. Créez toutes les partitions et remplacez le disque root à l'aide de la commande format(1M).

    Recréez le plan de partitionnement initial du disque défectueux.

  4. Créez comme il convient le système de fichiers root (/) et les autres systèmes de fichiers à l'aide de la commande newfs(1M).

    Recréez les systèmes de fichiers initiaux du disque défectueux.


    Remarque :

    N'oubliez pas de créer le système de fichiers /global/.devices/node@id_noeud.


  5. Montez le système de fichiers root (/) sur un point de montage temporaire.


    # mount device point_montage_temp
    

  6. Rétablissez le système de fichiers root (/) à partir de la copie de sauvegarde, démontez et vérifiez le système de fichiers.


    # cd point_montage_temp # ufsrestore rvf périphérique_vidage
    # rm restoresymtable
    # cd /
    # umount point_montage_temp
    # fsck unité_disque_brute
    

    Le système de fichiers est restauré.

  7. Installez un nouveau bloc d'initialisation sur le nouveau disque.


    # /usr/sbin/installboot /usr/platform/`uname -i`/lib/fs/ufs/bootblk unité_disque_brute
    

  8. Réinitialisez le noeud en mode mono-utilisateur.

    1. Lancez la réinitialisation.


      # reboot -- "-s"

      Pendant l'initialisation, vous verrez apparaître des messages d'erreur ou d'avertissement se terminant par l'instruction suivante :


      Type control-d to proceed with normal startup,
      (or give root password for system maintenance):

    2. Entrez le mot de passe root.

  9. Déterminez si le groupe de disques root se trouve sur une seule tranche du disque root.

    • Si oui, créez et définissez le groupe de disques root :


      # vxdctl init
      # vxdg init rootdg
      # vxdctl add disk tranche_disque type=simple 
      # vxdisk -f init tranche_disque type=simple 
      # vxdg adddisk tranche_disque
      # vxdctl enable
      

    • Si non, passez à l'Étape 10.

  10. Mettez à jour l'ID de disque à l'aide de la commande scdidadm.


    # scdidadm -R /dev/rdsk/unité_disque
    

  11. Appuyez sur CTRL-d pour reprendre en mode multi-utilisateurs.

    Le noeud est réinitialisé en mode grappe. La grappe est prête à être utilisé.

8.3.4.1 Exemple : restauration d'un système de fichiers root (/) non encapsulé (Solstice DiskSuite)

L'exemple suivant présente un système de fichiers root (/) non encapsulé restauré sur le noeud phys-schost-1 à partir du lecteur de bande /dev/rmt/0.


[Remplacez le disque défectueux et initialisez le noeud :]
ok boot cdrom -s
[Utilisez les commandes format et newfs pour créer les partitions et les systèmes de fichiers]
[Montez le système de fichiers root sur un point de montage temporaire :]
# mount /dev/dsk/c0t0d0s0 /a
[Restaurez le système de fichiers root :]
# cd /a
# ufsrestore rvf /dev/rmt/0
# rm restoresymtable
# cd /
# umount /a
# fsck /dev/rdsk/c0t0d0s0
[Installez un nouveau bloc d'initialisation :]
# /usr/sbin/installboot /usr/platform/`uname \
-i`/lib/fs/ufs/bootblk /dev/rdsk/c0t0d0s0
[Redémarrez en mode mono-utilisateur :]
# reboot -- "-s"
[Si le groupe de disques root se trouve sur une seule tranche du disque root, créez le nouveau groupe de disques root :]
# vxdctl init
# vxdg init rootdg
# vxdctl add disk c0t0d0s4 type=simple
# vxdisk -f init c0t0d0s4 type=simple
# vxdg adddisk c0t0d0s4
# vxdctl enable
[Mettez à jour l'ID de disque :]
# scdidadm -R /dev/rdsk/c0t0d0
[Appuyez sur CTRL-d pour reprendre en mode multi-utilisateurs]

8.3.5 Restauration d'un système de fichiers root (/) encapsulé (VERITAS Volume Manager)

Cette procédure permet de restaurer sur un noeud un système de fichiers root (/) encapsulé. Le noeud restauré ne doit pas être initialisé. Assurez-vous que la grappe fonctionne sans problème avant de lancer la procédure de restauration.


Remarque :

Comme vous devez partitionner le nouveau disque selon le même format que le disque défectueux, identifiez le plan de partitionnement avant de commencer la procédure, et recréez comme nécessaire les systèmes de fichiers.


  1. Remplacez le disque défectueux sur le noeud dont le système de fichiers root (/) doit être restauré.

    Reportez-vous aux procédures de remplacement de disques dans la documentation fournie avec le serveur.

  2. Initialisez le noeud à restaurer.

    • Si vous utilisez le CD-ROM Solaris, exécutez la commande suivante :


      ok boot cdrom -s
      
    • Si vous utilisez un serveur JumpStart, exécutez la commande suivante :


      ok boot net -s
      

  3. Créez toutes les partitions et remplacez le disque root à l'aide de la commande format(1M).

    Recréez le plan de partitionnement initial du disque défectueux.

  4. Créez comme il convient le système de fichiers root (/) et les autres systèmes de fichiers à l'aide de la commande newfs(1M).

    Recréez les systèmes de fichiers initiaux du disque défectueux.


    Remarque :

    N'oubliez pas de créer le système de fichiers /global/.devices/node@id_noeud.


  5. Montez le système de fichiers root (/) sur un point de montage temporaire.


    # mount device point_montage_temp
    

  6. Restaurez le système de fichiers root (/) à partir de la copie de sauvegarde.


    # cd point_montage_temp
    # ufsrestore rvf  périphérique_vidage
    # rm restoresymtable
    

  7. Créez un fichier install-db vide.

    Le noeud sera en mode d'installation VxVM à la réinitialisation suivante.


    # touch /point_montage_temp/etc/vx/reconfig.d/state.d/install-db
    

  8. Supprimez ou mettez en commentaire les entrées suivantes du fichier /point_montage_temp/etc/system.


    * rootdev:/pseudo/vxio@0:0 * set vxio:vol_rootdev_is_volume=1

  9. Editez le fichier /point_montage_temp/etc/vfstab et remplacez tous les points de montage VxVM par les unités de disque standard pour le disque root, par exemple /dev/dsk/c0t0d0s0.


    Exemple: 
    Changez --
    /dev/vx/dsk/rootdg/rootvol /dev/md/rdsk/rootdg/rootvol /      ufs   1     no -
    
    En --
    /dev/dsk/c0t0d0s0 /dev/rdsk/c0t0d0s0  / ufs   1     no       -

  10. Démontez le système de fichiers temporaire et vérifiez le système de fichiers.


    # cd /
    # umount point_montage_temp
    # fsck unité_disque_brute
    

  11. Installez le bloc d'initialisation sur le nouveau disque.


    # /usr/sbin/installboot /usr/platform/`uname -i`/lib/fs/ufs/bootblk unité-disque-brute
    

  12. Réinitialisez le noeud en mode mono-utilisateur.


    # reboot -- "-s"
    

  13. Mettez à jour l'ID de disque à l'aide de la commande scdidadm(1M).


    # scdidadm -R /dev/rdsk/c0t0d0
    

  14. Exécutez la commande vxinstall pour encapsuler le disque et redémarrer.


    # vxinstall
    

  15. Si le code mineur entre en conflit avec celui d'un autre système, démontez les périphériques globaux et attribuez un nouveau code mineur au groupe de disques.

    • Démontez le système de fichiers de périphériques globaux sur le noeud de grappe.


      # umount /global/.devices/node@ID_noeud
      

    • Attribuez un autre code mineur au groupe de disques rootdg du noeud de grappe.


      # vxdg reminor rootdg 100
      

  16. Arrêtez et réinitialisez le noeud en mode grappe.


    # shutdown -g0 -i6 -y
    

8.3.5.1 Exemple : restauration d'un système de fichiers root (/) encapsulé (VERITAS Volume Manager)

L'exemple suivant présente un système de fichiers root (/) encapsulé restauré sur le noeud phys-schost-1 à partir du lecteur de bande /dev/rmt/0.


[Remplacez le disque défectueux et initialisez le noeud :]
ok boot cdrom -s
[Utilisez les commandes format et newfs pour créer les partitions et les systèmes de fichiers] 
[Montez le système de fichiers root sur un point de montage temporaire :]
# mount /dev/dsk/c0t0d0s0 /a
[Restaurez le système de fichiers root :] 
# cd /a
# ufsrestore rvf /dev/rmt/0
# rm restoresymtable
[Créez un fichier install-db vide :]
# touch /a/etc/vx/reconfig.d/state.d/install-db
[Editez /etc/system sur le système de fichiers temporaire et supprimez ou mettez en commentaire les entrées suivantes :]
	# rootdev:/pseudo/vxio@0:0
	# set vxio:vol_rootdev_is_volume=1
[Editez /etc/vfstab sur le système de fichiers temporaire :]
Exemple :
Changez : /dev/vx/dsk/rootdg/rootvol /dev/md/rdsk/rootdg/rootvol / ufs 1 no-
En : /dev/dsk/c0t0d0s0 /dev/rdsk/c0t0d0s0  / ufs   1     no       - 
[Démontez le système de fichiers temporaire et vérifiez le système de fichiers :]
# cd /
# umount /a
# fsck /dev/rdsk/c0t0d0s0
[Installez un nouveau bloc d'initialisation :]
# /usr/sbin/installboot /usr/platform/`uname \
-i`/lib/fs/ufs/bootblk /dev/rdsk/c0t0d0s0
[Redémarrez en mode mono-utilisateur :]
# reboot -- "-s"
[Mettez à jour l'ID de disque :]
# scdidadm -R /dev/rdsk/c0t0d0
[Exécutez vxinstall:]
# vxinstall
Choisissez d'encapsuler le disque root.
[Si le code mineur entre en conflit avec un autre code, attribuez un nouveau code mineur au groupe de disques rootdg :]
# umount /global/.devices/node@id_noeud
# vxdg reminor rootdg 100
# shutdown -g0 -i6 -y

8.3.5.2 Etape suivante

Pour des instructions sur la mise en miroir du disque root encapsulé, reportez-vous au document Guide d'installation de Sun Cluster 3.0 U1. Restauration des fichiers de la grappe