Guide d'administration système de Sun Cluster pour SE Solaris

Sauvegarde d'un cluster

Tableau 9–1 Plan des tâches : sauvegarde des fichiers du cluster

Tâche 

Pour les instructions, voir... 

Trouver le nom des systèmes de fichiers à sauvegarder. 

Recherche du nom des systèmes de fichiers à sauvegarder

Calculer le nombre de bandes nécessaires à une sauvegarde complète 

Détermination du nombre de bandes nécessaires à une sauvegarde complète

Sauvegarder le système de fichiers racine 

Sauvegarde du système de fichiers racine (/)

Effectuer une sauvegarde en ligne des systèmes de fichiers en miroir ou en réseau 

Exécution de sauvegardes en ligne de copies miroir (Solstice DiskSuite/Solaris Volume Manager)

 

SPARC : Sauvegarde en ligne de volumes (VERITAS Volume Manager)

ProcedureRecherche du nom des systèmes de fichiers à sauvegarder

Cette procédure permet de déterminer le nom des systèmes de fichiers à sauvegarder.

Étapes
  1. Affichez le contenu du fichier /etc/vfstab.

    Vous n'avez pas besoin d'être superutilisateur ni d'endosser un rôle équivalent pour exécuter cette commande.


    % more /etc/vfstab
    
  2. Cherchez le nom du système de fichiers à sauvegarder dans la colonne des points de montage.

    Utilisez ce nom pour la sauvegarde du système de fichiers.


    % more /etc/vfstab 
    

Exemple 9–1 Recherche des noms des systèmes de fichiers à sauvegarder

L'exemple suivant présente les noms des systèmes de fichiers tels que répertoriés dans le fichier /etc/vfstab.


% more /etc/vfstab
#device             device             mount  FS fsck  mount  mount
#to mount           to fsck            point  type     pass   at boot  options
#
#/dev/dsk/c1d0s2    /dev/rdsk/c1d0s2   /usr     ufs     1      yes      -
 f                  -                  /dev/fd  fd      -      no       -
 /proc              -                  /proc    proc    -      no       -
 /dev/dsk/c1t6d0s1  -                  -        swap    -      no       -
 /dev/dsk/c1t6d0s0  /dev/rdsk/c1t6d0s0 /        ufs     1      no       -
 /dev/dsk/c1t6d0s3  /dev/rdsk/c1t6d0s3 /cache   ufs     2      yes      -
 swap               -                  /tmp     tmpfs   -      yes      -

ProcedureDétermination du nombre de bandes nécessaires à une sauvegarde complète

Cette procédure permet de calculer le nombre de bandes nécessaires pour la sauvegarde d'un système de fichiers.

Étapes
  1. Devenez superutilisateur ou endossez un rôle équivalent sur le nœud de cluster à sauvegarder.

  2. Estimez la taille de la sauvegarde, en octets.


    # ufsdump S filesystem 
    
    S

    Indique une estimation en octets de l'espace requis pour effectuer la sauvegarde.

    système_fichiers

    Indique le nom du système de fichiers à sauvegarder.

  3. Divisez la taille estimée par la capacité de la bande pour connaître le nombre de bandes nécessaires.


Exemple 9–2 Détermination du nombre de bandes requises

Dans l'exemple suivant, le système de fichiers dont la taille est de 905 881 620 octets pourra être facilement sauvegardé sur une bande de 4  Go (905 881 620 ÷ 4 000 000 000).


# ufsdump S /global/phys-schost-1
905881620

ProcedureSauvegarde du système de fichiers racine (/)

Procédez comme suit pour sauvegarder le système de fichiers racine (/) d'un nœud de cluster. Assurez-vous que le cluster fonctionne sans problème avant de lancer la sauvegarde.

Étapes
  1. Devenez superutilisateur ou endossez un rôle équivalent sur le nœud du cluster que vous souhaitez sauvegarder.

  2. Transférez tous les services de données en cours d'exécution du nœud à sauvegarder vers un autre nœud du cluster.


    # scswitch -z -D disk-device-group[,...] -h node[,...]
    
    -z

    Effectue le transfert.

    -D groupe_périphériques_disques

    Nom du groupe de périphériques de disques à transférer.

    -h nœud

    Nom du nœud du cluster sur lequel transférer le groupe de périphériques de disques. Ce nœud devient le nouveau nœud principal.

  3. Arrêtez le nœud.


    # shutdown -g0 -y -i0
    
  4. Réinitialisez le nœud en mode non-cluster.

    • SPARC :


      ok boot -x
      
    • x86 :


                            <<< Current Boot Parameters >>>
      Boot path: /pci@0,0/pci8086,2545@3/pci8086,1460@1d/pci8086,341a@7,1/
      sd@0,0:a
      Boot args:
      
      Type  b [file-name] [boot-flags] <ENTER> to boot with options
      or    i <ENTER>                          to enter boot interpreter
      or    <ENTER>                            to boot with defaults
      
                        <<< timeout in 5 seconds >>>
      Select (b)oot or (i)nterpreter: b -x
      
  5. Sauvegardez le système de fichiers racine (/).

    • Utilisez la commande suivante si le disque racine n'est pas encapsulé.


      # ufsdump 0ucf dump-device /
      
    • Utilisez la commande suivante si le disque racine est encapsulé.


      # ufsdump 0ucf dump-device /dev/vx/rdsk/rootvol
      

    Pour de plus amples informations, reportez-vous à la page de manuel ufsdump(1M).

  6. Réinitialisez le nœud en mode cluster.


    # init 6
    

Exemple 9–3 Sauvegarde du système de fichiers racine (/)

Dans l'exemple suivant, le système de fichiers racine (/) est sauvegardé sur le périphérique de bande /dev/rmt/0.


# ufsdump 0ucf /dev/rmt/0 /
  DUMP: Writing 63 Kilobyte records
  DUMP: Date of this level 0 dump: Tue Apr 18 18:06:15 2000
  DUMP: Date of last level 0 dump: the epoch
  DUMP: Dumping /dev/rdsk/c0t0d0s0 (phys-schost-1:/) to /dev/rmt/0
  DUMP: Mapping (Pass I) [regular files]
  DUMP: Mapping (Pass II) [directories]
  DUMP: Estimated 859086 blocks (419.48MB).
  DUMP: Dumping (Pass III) [directories]
  DUMP: Dumping (Pass IV) [regular files]
  DUMP: 859066 blocks (419.47MB) on 1 volume at 2495 KB/sec
  DUMP: DUMP IS DONE
  DUMP: Level 0 dump on Tue Apr 18 18:06:15 2000

ProcedureExécution de sauvegardes en ligne de copies miroir (Solstice DiskSuite/Solaris Volume Manager)

Un métapériphérique Solstice DiskSuite ou un volume Solaris Volume Manager peut être sauvegardé sans nécessiter son démontage ni la mise hors ligne de la totalité de la copie miroir. L'un des sous-miroirs doit être temporairement mis hors ligne, ce qui entraîne la perte du miroir, mais il peut être remis en ligne et resynchronisé dès la fin de la sauvegarde, sans que le système soit interrompu ou que l'utilisateur perde la possibilité d'accéder aux données. L'utilisation des miroirs pour effectuer des sauvegardes en ligne entraîne la création d'un “instantané“ d'un système de fichiers actif.

Il se peut qu'un problème survienne si un programme envoie des données au volume juste avant l'exécution de la commande lockfs. Pour éviter cela, arrêtez temporairement tous les services qui s'exécutent sur le nœud concerné. Assurez-vous également que le cluster fonctionne sans problème avant de lancer la sauvegarde.

Étapes
  1. Devenez superutilisateur ou endossez un rôle équivalent sur le nœud du cluster que vous souhaitez sauvegarder.

  2. Pour identifier le nœud propriétaire du volume à sauvegarder, utilisez la commande metaset(1M).


    # metaset -s setname
    
    -s nom_jeu

    Spécifie le nom du jeu de disques.

  3. Pour protéger le système de fichiers en écriture, utilisez la commande lockfs(1M) associée à l'option -w.


    # lockfs -w mountpoint 
    

    Remarque –

    vous devez verrouiller le système de fichiers uniquement si le miroir comporte un système de fichiers UFS. Par exemple, si le métapériphérique Solstice DiskSuite ou le volume Solaris Volume Manager est configuré comme périphérique brut pour le logiciel de gestion de base de données ou pour une autre application spécifique, il n'est pas nécessaire d'utiliser la commande lockfs. Vous pouvez toutefois exécuter l'utilitaire fournisseur approprié pour vider les mémoires tampon et verrouiller l'accès.


  4. Pour déterminer le nom des sous-miroirs, utilisez la commande metastat(1M).


    # metastat -s setname -p
    
    -p

    Affiche le statut dans un format similaire à celui du fichier md.tab.

  5. Utilisez la commande metadetach(1M) pour mettre l'un des sous-miroirs hors ligne.


    # metadetach -s setname mirror submirror
    

    Remarque –

    les lectures se poursuivront à partir des autres sous-miroirs. Toutefois, le sous-miroir hors ligne est désynchronisé dès qu'une écriture est effectuée dans le miroir. La synchronisation est rétablie dès que le sous-miroir hors ligne est remis en ligne. Vous n'êtes pas tenu d'exécuter fsck.


  6. Déverrouillez les systèmes de fichiers et permettez aux écritures de se poursuivre en utilisant la commande lockfs suivie de l'option -u.


    # lockfs -u mountpoint 
    
  7. Vérifiez le système de fichiers.


    # fsck /dev/md/diskset/rdsk/submirror
    
  8. Sauvegardez le sous-miroir hors ligne sur une bande ou sur un autre support.

    Utilisez la commande ufsdump(1M) ou tout autre utilitaire de sauvegarde courant.


    # ufsdump 0ucf dump-device submirror
    

    Remarque –

    utilisez le nom de périphérique brut (/rdsk) pour le sous-miroir, plutôt que le nom du périphérique en mode bloc (/dsk).


  9. Utilisez la commande metattach(1M) pour remettre le métapériphérique ou le volume en ligne.


    # metattach -s setname mirror submirror
    

    Lorsque le métapériphérique ou le volume est remis en ligne, il est automatiquement resynchronisé avec le miroir.

  10. Utilisez la commande metastat pour vérifier la resynchronisation effective du sous-miroir.


    # metastat -s setname mirror
    

Exemple 9–4 Sauvegarde en ligne de miroirs (Solstice DiskSuite/Solaris Volume Manager)

Dans l'exemple suivant, le nœud du cluster phys-schost-1 est propriétaire du méta-ensemble schost-1, la procédure de sauvegarde est donc initialisée depuis phys-schost-1. Le miroir /dev/md/schost-1/dsk/d0 se compose des sous-miroirs d10, d20 et d30.


[Determine the owner of the metaset:]
# metaset -s schost-1
Set name = schost-1, Set number = 1
Host                Owner
  phys-schost-1     Yes 
...
[Lock the file system from writes:] 
# lockfs -w /global/schost-1
[List the submirrors:]
# metastat -s schost-1 -p
schost-1/d0 -m schost-1/d10 schost-1/d20 schost-1/d30 1
schost-1/d10 1 1 d4s0
schost-1/d20 1 1 d6s0
schost-1/d30 1 1 d8s0
[Take a submirror offline:]
# metadetach -s schost-1 d0 d30
[Unlock the file system:]
# lockfs -u /
[Check the file system:]
# fsck /dev/md/schost-1/rdsk/d30
[Copy the submirror to the backup device:]
# ufsdump 0ucf /dev/rmt/0 /dev/md/schost-1/rdsk/d30
  DUMP: Writing 63 Kilobyte records
  DUMP: Date of this level 0 dump: Tue Apr 25 16:15:51 2000
  DUMP: Date of last level 0 dump: the epoch
  DUMP: Dumping /dev/md/schost-1/rdsk/d30 to /dev/rdsk/c1t9d0s0.
  ...
  DUMP: DUMP IS DONE
[Bring the submirror back online:]
# metattach -s schost-1 d0 d30
schost-1/d0: submirror schost-1/d30 is attached
[Resync the submirror:]
# metastat -s schost-1 d0
schost-1/d0: Mirror
    Submirror 0: schost-0/d10
      State: Okay         
    Submirror 1: schost-0/d20
      State: Okay
    Submirror 2: schost-0/d30
      State: Resyncing
    Resync in progress: 42% done
    Pass: 1
    Read option: roundrobin (default)
...

ProcedureSPARC : Sauvegarde en ligne de volumes (VERITAS Volume Manager)

VERITAS Volume Manager identifie les volumes en miroir comme des réseaux. Il est possible de sauvegarder un réseau sans le démonter et sans mettre hors ligne le volume entier. Pour ce faire, vous devez créer une copie instantanée du volume et sauvegarder ce volume temporaire sans interrompre le système ou fermer l'accès aux données pour les utilisateurs.

Assurez-vous que le cluster fonctionne sans problème avant de lancer la sauvegarde.

Étapes
  1. Connectez-vous à un nœud du cluster et devenez superutilisateur ou endossez un rôle équivalent sur le nœud principal courant du groupe de disques du cluster.

  2. Dressez la liste des informations relatives au groupe de disques.


    # vxprint -g diskgroup
    
  3. Exécutez la commande scstat(1M) pour identifier le nœud sur lequel le groupe de disques est actuellement importé, c'est-à-dire le nœud principal du groupe de disques.


    # scstat -D
    
    -D

    Affiche le statut de tous les groupes de périphériques de disques.

  4. Créez un instantané du volume à l'aide de la commande vxassist.


    # vxassist -g diskgroup snapstart volume
    

    Remarque –

    la création d'un instantané peut prendre un certain temps, selon la taille du volume.


  5. Vérifiez la création effective du nouveau volume.


    # vxprint -g diskgroup
    

    Lorsque l'instantané est effectué, le statut de Snapdone s'affiche dans le champ State du groupe de disques sélectionné.

  6. Arrêtez tous les services de données qui accèdent au système de fichiers.


    # scswitch -z -g resource-group[,...] -h ““
    

    Remarque –

    l'arrêt des services de données est recommandé pour garantir la sauvegarde correcte du système de fichiers de données. Si aucun service de données ne s'exécute, vous n'avez pas besoin d'effectuer l'Étape 6 et l'Étape 8.


  7. Créez un volume de sauvegarde nommé bkup-vol et joignez-lui le volume instantané à l'aide de la commande vxassist.


    # vxassist -g diskgroup snapshot volume bkup-vol
    
  8. Redémarrez tous les services de données qui ont été arrêtés à l'Étape 6 en utilisant la commande scswitch(1M).


    # scswitch -z -g resource-group[,...] -h node[,...]
    
  9. Vérifiez que le volume est bien attaché au nouveau volume vol-sauv, à l'aide de la commande vxprint.


    # vxprint -g diskgroup
    
  10. Enregistrez la configuration modifiée du groupe de disques.


    # scconf -c -D name=diskgroup,sync
    
  11. Vérifiez le volume de sauvegarde à l'aide de la commande fsck.


    # fsck -y /dev/vx/rdsk/diskgroup/bkup-vol
    
  12. Effectuez une sauvegarde pour copier sur une bande ou sur un autre support le volume vol_sauv.

    Utilisez la commandeufsdump(1M) ou tout autre utilitaire de sauvegarde courant.


    # ufsdump 0ucf dump-device /dev/vx/dsk/diskgroup/bkup-vol
    
  13. Supprimez le volume temporaire à l'aide de la commande vxedit.


    # vxedit -rf rm bkup-vol
    
  14. Enregistrez les modifications de la configuration du groupe de disques à l'aide de la commandescconf(1M).


    # scconf -c -D name=diskgroup,sync
    

Exemple 9–5 SPARC : Sauvegarde en ligne de volumes (VERITAS Volume Manager)

Dans l'exemple suivant, le nœud du cluster phys-schost-2 est le propriétaire principal du groupe de périphériques de disques schost-1. Par conséquent, la procédure de sauvegarde est exécutée depuis phys-schost-2. Le volume /vo101 est d'abord copié, puis associé à un nouveau volume vol_sauv.


[Become superuser or assume an equivalent role on the primary node.]
[Identify the current primary node for the disk device group:]
# scstat -D
-- Device Group Servers --
                         Device Group     Primary           Secondary
                         ------------     -------           ---------
 Device group servers:   rmt/1            -                 -
 Device group servers:   schost-1         phys-schost-2     phys-schost-1

-- Device Group Status --
                             Device Group        Status              
                             ------------        ------              
 Device group status:        rmt/1               Offline
 Device group status:        schost-1            Online
[List the disk device group information:]
# vxprint -g schost-1
TY NAME            ASSOC     KSTATE   LENGTH   PLOFFS STATE   TUTIL0  PUTIL0
dg schost-1       schost-1   -        -        -      -        -      -
  
dm schost-101     c1t1d0s2   -        17678493 -      -        -      -
dm schost-102     c1t2d0s2   -        17678493 -      -        -      -
dm schost-103     c2t1d0s2   -        8378640  -      -        -      -
dm schost-104     c2t2d0s2   -        17678493 -      -        -      -
dm schost-105     c1t3d0s2   -        17678493 -      -        -      -
dm schost-106     c2t3d0s2   -        17678493 -      -        -      -
 
v  vol01          gen        ENABLED  204800   -      ACTIVE   -      -
pl vol01-01       vol01      ENABLED  208331   -      ACTIVE   -      -
sd schost-101-01  vol01-01   ENABLED  104139   0      -        -      -
sd schost-102-01  vol01-01   ENABLED  104139   0      -        -      -
pl vol01-02       vol01      ENABLED  208331   -      ACTIVE   -      -
sd schost-103-01  vol01-02   ENABLED  103680   0      -        -      -
sd schost-104-01  vol01-02   ENABLED  104139   0      -        -      -
pl vol01-03       vol01      ENABLED  LOGONLY  -      ACTIVE   -      -
sd schost-103-02  vol01-03   ENABLED  5        LOG    -        -      -
[Start the snapshot operation:]
# vxassist -g schost-1 snapstart vol01
[Verify the new volume was created:]
# vxprint -g schost-1
TY NAME            ASSOC    KSTATE    LENGTH   PLOFFS STATE   TUTIL0  PUTIL0
dg schost-1       schost-1   -        -        -      -        -      -
  
dm schost-101     c1t1d0s2   -        17678493 -      -        -      -
dm schost-102     c1t2d0s2   -        17678493 -      -        -      -
dm schost-103     c2t1d0s2   -        8378640  -      -        -      -
dm schost-104     c2t2d0s2   -        17678493 -      -        -      -
dm schost-105     c1t3d0s2   -        17678493 -      -        -      -
dm schost-106     c2t3d0s2   -        17678493 -      -        -      -
  
v  vol01          gen        ENABLED  204800   -      ACTIVE   -      -
pl vol01-01       vol01      ENABLED  208331   -      ACTIVE   -      -
sd schost-101-01  vol01-01   ENABLED  104139   0      -        -      -
sd schost-102-01  vol01-01   ENABLED  104139   0      -        -      -
pl vol01-02       vol01      ENABLED  208331   -      ACTIVE   -      -
sd schost-103-01  vol01-02   ENABLED  103680   0      -        -      -
sd schost-104-01  vol01-02   ENABLED  104139   0      -        -      -
pl vol01-03       vol01      ENABLED  LOGONLY  -      ACTIVE   -      -
sd schost-103-02  vol01-03   ENABLED  5        LOG    -        -      -
pl vol01-04       vol01      ENABLED  208331   -      SNAPDONE -      -
sd schost-105-01  vol01-04   ENABLED  104139   0      -        -      -
sd schost-106-01  vol01-04   ENABLED  104139   0      -        -      -
[Stop data services, if necessary:]
# scswitch -z -g nfs-rg -h ““
[Create a copy of the volume:]
# vxassist -g schost-1 snapshot vol01 bkup-vol
[Restart data services, if necessary:]
# scswitch -z -g nfs-rg -h phys-schost-1
[Verify bkup-vol was created:]
# vxprint -g schost-1
TY NAME           ASSOC       KSTATE   LENGTH   PLOFFS STATE   TUTIL0  PUTIL0
dg schost-1       schost-1    -        -        -      -        -      -
 
dm schost-101     c1t1d0s2    -        17678493 -      -        -      -
...
 
v  bkup-vol       gen         ENABLED  204800   -      ACTIVE   -      -
pl bkup-vol-01    bkup-vol    ENABLED  208331   -      ACTIVE   -      -
sd schost-105-01  bkup-vol-01 ENABLED  104139   0      -        -      -
sd schost-106-01  bkup-vol-01 ENABLED  104139   0      -        -      -
 
v  vol01          gen         ENABLED  204800   -      ACTIVE   -      -
pl vol01-01       vol01       ENABLED  208331   -      ACTIVE   -      -
sd schost-101-01  vol01-01    ENABLED  104139   0      -        -      -
sd schost-102-01  vol01-01    ENABLED  104139   0      -        -      -
pl vol01-02       vol01       ENABLED  208331   -      ACTIVE   -      -
sd schost-103-01  vol01-02    ENABLED  103680   0      -        -      -
sd schost-104-01  vol01-02    ENABLED  104139   0      -        -      -
pl vol01-03       vol01       ENABLED  LOGONLY  -      ACTIVE   -      -
sd schost-103-02  vol01-03    ENABLED  5        LOG    -        -      -
[Synchronize the disk group with cluster framework:]
# scconf -c -D name=schost-1,sync
[Check the file systems:]
# fsck -y /dev/vx/rdsk/schost-1/bkup-vol
[Copy bkup-vol to the backup device:]
# ufsdump 0ucf /dev/rmt/0 /dev/vx/rdsk/schost-1/bkup-vol
  DUMP: Writing 63 Kilobyte records
  DUMP: Date of this level 0 dump: Tue Apr 25 16:15:51 2000
  DUMP: Date of last level 0 dump: the epoch
  DUMP: Dumping /dev/vx/dsk/schost-2/bkup-vol to /dev/rmt/0.
  ...
  DUMP: DUMP IS DONE
[Remove the bkup-volume:]
# vxedit -rf rm bkup-vol
[Synchronize the disk group:]
# scconf -c -D name=schost-1,sync