Guide d'administration système de Sun Cluster pour SE Solaris

Chapitre 9 Sauvegarde et restauration d'un cluster

Les procédures détaillées décrites dans ce chapitre sont les suivantes :

Sauvegarde d'un cluster

Tableau 9–1 Plan des tâches : sauvegarde des fichiers du cluster

Tâche 

Pour les instructions, voir... 

Trouver le nom des systèmes de fichiers à sauvegarder. 

Recherche du nom des systèmes de fichiers à sauvegarder

Calculer le nombre de bandes nécessaires à une sauvegarde complète 

Détermination du nombre de bandes nécessaires à une sauvegarde complète

Sauvegarder le système de fichiers racine 

Sauvegarde du système de fichiers racine (/)

Effectuer une sauvegarde en ligne des systèmes de fichiers en miroir ou en réseau 

Exécution de sauvegardes en ligne de copies miroir (Solstice DiskSuite/Solaris Volume Manager)

SPARC: Sauvegarde en ligne de volumes (VERITAS Volume Manager)

Recherche du nom des systèmes de fichiers à sauvegarder

Cette procédure permet de déterminer le nom des systèmes de fichiers à sauvegarder.

  1. Affichez le contenu du fichier /etc/vfstab.

    Vous n'avez pas besoin d'être un superutilisateur pour exécuter cette commande.


    % more /etc/vfstab
    

  2. Cherchez le nom du système de fichiers à sauvegarder dans la colonne des points de montage.

    Utilisez ce nom pour la sauvegarde du système de fichiers.


    % more /etc/vfstab 
    

Exemple : recherche du nom des systèmes de fichiers à sauvegarder

L'exemple suivant présente les noms des systèmes de fichiers tels que répertoriés dans le fichier /etc/vfstab.


% more /etc/vfstab
#device             device             mount  FS fsck  mount  mount
#to mount           to fsck            point  type     pass   at boot  options
#
#/dev/dsk/c1d0s2    /dev/rdsk/c1d0s2   /usr     ufs     1      yes      -
 f                  -                  /dev/fd  fd      -      no       -
 /proc              -                  /proc    proc    -      no       -
 /dev/dsk/c1t6d0s1  -                  -        swap    -      no       -
 /dev/dsk/c1t6d0s0  /dev/rdsk/c1t6d0s0 /        ufs     1      no       -
 /dev/dsk/c1t6d0s3  /dev/rdsk/c1t6d0s3 /cache   ufs     2      yes      -
 swap               -                  /tmp     tmpfs   -      yes      -

Détermination du nombre de bandes nécessaires à une sauvegarde complète

Cette procédure permet de calculer le nombre de bandes nécessaires pour la sauvegarde d'un système de fichiers.

  1. Devenez superutilisateur sur le nœud du cluster que vous souhaitez sauvegarder.

  2. Estimez la taille de la sauvegarde, en octets.


    # ufsdump S système_fichiers 
    

    S

    Indique une estimation en octets de l'espace requis pour effectuer la sauvegarde.

    système_fichiers

    Indique le nom du système de fichiers à sauvegarder.

  3. Divisez la taille estimée par la capacité de la bande pour connaître le nombre de bandes nécessaires.

Exemple : calcul du nombre de bandes requises

Dans l'exemple suivant, le système de fichiers dont la taille est de 905 881 620 octets pourra être facilement sauvegardé sur une bande de 4  Go (905 881 620 ÷ 4 000 000 000).


# ufsdump S /global/phys-schost-1 905881620

Sauvegarde du système de fichiers racine (/)

Procédez comme suit pour sauvegarder le système de fichiers racine (/) d'un nœud de cluster. Assurez-vous que le cluster fonctionne sans problème avant de lancer la sauvegarde.

  1. Devenez superutilisateur sur le nœud du cluster que vous souhaitez sauvegarder.

  2. Transférez tous les services de données en cours d'exécution du nœud à sauvegarder vers un autre nœud du cluster.


    # scswitch -z -D groupe-disques-périphériques[,...] -h nœud[,...]
    

    -z

    Effectue le transfert.

    -D groupe_périphériques_disques

    Nom du groupe de périphériques de disques à transférer.

    -h nœud

    Nom du nœud du cluster sur lequel transférer le groupe de périphériques de disques. Ce nœud devient le nouveau nœud principal.

  3. Arrêtez le nœud.


    # shutdown -g0 -y -i0
    

  4. Réinitialisez le nœud en mode non-cluster.

    • SPARC :


      ok boot -x
      

    • x86 :


                            <<< Current Boot Parameters >>>
      Boot path: /pci@0,0/pci8086,2545@3/pci8086,1460@1d/pci8086,341a@7,1/
      sd@0,0:a
      Boot args:
      
      Type  b [file-name] [boot-flags] <ENTER> to boot with options
      or    i <ENTER>                          to enter boot interpreter
      or    <ENTER>                            to boot with defaults
      
                        <<< timeout in 5 seconds >>>
      Select (b)oot or (i)nterpreter: b -x
      

  5. Sauvegardez le système de fichiers racine (/).

    • Utilisez la commande suivante si le disque racine n'est pas encapsulé.


      # ufsdump 0ucf périphérique-dump /
      

    • Utilisez la commande suivante si le disque racine est encapsulé.


      # ufsdump 0ucf périphérique-dump /dev/vx/rdsk/rootvol
      

    Reportez-vous à la page de manuel ufsdump(1M) pour de plus amples informations.

  6. Réinitialisez le nœud en mode cluster.


    # init 6
    

Exemple : sauvegarde du système de fichiers racine (/)

Dans l'exemple suivant, le système de fichiers racine (/) est sauvegardé sur le périphérique de bande /dev/rmt/0.


# ufsdump 0ucf /dev/rmt/0 /
  DUMP: Writing 63 Kilobyte records
  DUMP: Date of this level 0 dump: Tue Apr 18 18:06:15 2000
  DUMP: Date of last level 0 dump: the epoch
  DUMP: Dumping /dev/rdsk/c0t0d0s0 (phys-schost-1:/) to /dev/rmt/0
  DUMP: Mapping (Pass I) [regular files]
  DUMP: Mapping (Pass II) [directories]
  DUMP: Estimated 859086 blocks (419.48MB).
  DUMP: Dumping (Pass III) [directories]
  DUMP: Dumping (Pass IV) [regular files]
  DUMP: 859066 blocks (419.47MB) on 1 volume at 2495 KB/sec
  DUMP: DUMP IS DONE
  DUMP: Level 0 dump on Tue Apr 18 18:06:15 2000

Exécution de sauvegardes en ligne de copies miroir (Solstice DiskSuite/Solaris Volume Manager)

Un métapériphérique Solstice DiskSuite ou un volume Solaris Volume Manager peut être sauvegardé sans nécessiter son démontage ni la mise hors ligne de la totalité de la copie miroir. L'un des sous-miroirs doit être temporairement mis hors ligne, ce qui entraîne la perte du miroir, mais il peut être remis en ligne et resynchronisé dès la fin de la sauvegarde, sans que le système soit interrompu ou que l'utilisateur perde la possibilité d'accéder aux données. L'utilisation des miroirs pour effectuer des sauvegardes en ligne entraîne la création d'un “instantané“ d'un système de fichiers actif.

Il se peut qu'un problème survienne si un programme envoie des données au volume juste avant l'exécution de la commande lockfs. Pour éviter cela, arrêtez temporairement tous les services qui s'exécutent sur le nœud concerné. Assurez-vous également que le cluster fonctionne sans problème avant de lancer la sauvegarde.

  1. Devenez superutilisateur sur le nœud du cluster que vous souhaitez sauvegarder.

  2. Utilisez la commande metaset(1M) pour définir le nœud propriétaire du volume sauvegardé.


    # metaset -s nom_jeu
    

    -s nom_jeu

    Spécifie le nom du jeu de disques.

  3. Utilisez la commande lockfs(1M) associée à l'option -w pour protéger le système de fichiers en écriture.


    # lockfs -w point_montage 
    


    Remarque –

    vous devez verrouiller le système de fichiers uniquement si le miroir comporte un système de fichiers UFS. Par exemple, si le métapériphérique Solstice DiskSuite ou le volume Solaris Volume Manager est configuré comme périphérique brut pour le logiciel de gestion de base de données ou pour une autre application spécifique, il n'est pas nécessaire d'utiliser la commande lockfs. Vous pouvez toutefois exécuter l'utilitaire fournisseur approprié pour vider les mémoires tampon et verrouiller l'accès.


  4. Utilisez la commande metastat(1M) pour déterminer le nom des sous-miroirs.


    # metastat -s nom_jeu -p
    

    -p

    Affiche le statut dans un format similaire à celui du fichier md.tab.

  5. Utilisez la commande metadetach(1M) pour mettre l'un des sous-miroirs hors ligne.


    # metadetach -s nom_jeu miroir sous-miroir
    


    Remarque –

    les lectures se poursuivront à partir des autres sous-miroirs. Toutefois, le sous-miroir hors ligne est désynchronisé dès qu'une écriture est effectuée dans le miroir. La synchronisation est rétablie dès que le sous-miroir hors ligne est remis en ligne. Vous n'êtes pas tenu d'exécuter fsck.


  6. Déverrouillez les systèmes de fichiers et permettez aux écritures de se poursuivre en utilisant la commande lockfs suivie de l'option -u.


    # lockfs -u point_montage 
    

  7. Vérifiez le système de fichiers.


    # fsck /dev/md/diskset/rdsk/sous_miroir
    

  8. Sauvegardez le sous-miroir hors ligne sur une bande ou sur un autre support.

    Utilisez la commande ufsdump(1M) ou n'importe quel autre utilitaire de sauvegarde courant.


    # ufsdump 0ucf périphérique-dump sous-miroir
    


    Remarque –

    utilisez le nom de périphérique brut (/rdsk) pour le sous-miroir, plutôt que le nom du périphérique en mode bloc (/dsk).


  9. Utilisez la commande metattach(1M) pour remettre le métapériphérique ou le volume en ligne.


    # metattach -s nom_jeu miroir sous-miroir
    

    Lorsque le métapériphérique ou le volume est remis en ligne, il est automatiquement resynchronisé avec le miroir.

  10. Utilisez la commande metastat pour vérifier la resynchronisation effective du sous-miroir.


    # metastat -s nom_jeu miroir
    

Exemple : sauvegarde en ligne de miroirs (Solstice DiskSuite/Solaris Volume Manager)

Dans l'exemple suivant, le nœud du cluster phys-schost-1 est propriétaire du méta-ensemble schost-1, la procédure de sauvegarde est donc initialisée depuis phys-schost-1. Le miroir /dev/md/schost-1/dsk/d0 se compose des sous-miroirs d10, d20 et d30.


[Déterminez le propriétaire du méta-ensemble :]
# metaset -s schost-1
Set name = schost-1, Set number = 1
Host                Owner
  phys-schost-1     Yes 
...
[Protégez le système de fichiers en écriture :] 
# lockfs -w /global/schost-1
[Répertoriez les sous-miroirs :]
# metastat -s schost-1 -p
schost-1/d0 -m schost-1/d10 schost-1/d20 schost-1/d30 1
schost-1/d10 1 1 d4s0
schost-1/d20 1 1 d6s0
schost-1/d30 1 1 d8s0
[Mettez un sous-miroir hors ligne :]
# metadetach -s schost-1 d0 d30
[Déverrouillez le système de fichiers :]
# lockfs -u /
[Contrôlez le système de fichiers :]
# fsck /dev/md/schost-1/rdsk/d30
[Copiez le sous-miroir sur l'unité de sauvegarde :]
# ufsdump 0ucf /dev/rmt/0 /dev/md/schost-1/rdsk/d30
  DUMP: Writing 63 Kilobyte records
  DUMP: Date of this level 0 dump: Tue Apr 25 16:15:51 2000
  DUMP: Date of last level 0 dump: the epoch
  DUMP: Dumping /dev/md/schost-1/rdsk/d30 to /dev/rdsk/c1t9d0s0.
  ...
  DUMP: DUMP IS DONE
[Remettez le sous-miroir en ligne :]
# metattach -s schost-1 d0 d30
schost-1/d0: submirror schost-1/d30 is attached
[Resynchronisez le sous-miroir :]
# metastat -s schost-1 d0
schost-1/d0: Mirror
    Submirror 0: schost-0/d10
      State: Okay         
    Submirror 1: schost-0/d20
      State: Okay
    Submirror 2: schost-0/d30
      State: Resyncing
    Resync in progress: 42% done
    Pass: 1
    Read option: roundrobin (default)
...

SPARC: Sauvegarde en ligne de volumes (VERITAS Volume Manager)

VERITAS Volume Manager identifie les volumes en miroir comme réseaux. Il est possible de sauvegarder un réseau sans le démonter et sans mettre hors ligne le volume entier. Pour ce faire, vous devez créer une copie instantanée du volume et sauvegarder ce volume temporaire sans interrompre le système ou fermer l'accès aux données pour les utilisateurs.

Assurez-vous que le cluster fonctionne sans problème avant de lancer la sauvegarde.

  1. Connectez-vous à un nœud quelconque du cluster et devenez superutilisateur sur le nœud principal actuel du groupe de disques du cluster.

  2. Dressez la liste des informations relatives au groupe de disques.


    # vxprint -g groupe_disques
    

  3. Exécutez la commande scstat(1M) pour connaître le nœud sur lequel le groupe de disques est actuellement importé, c'est-à-dire le nœud principal du groupe de disques.


    # scstat -D
    

    -D

    Affiche le statut de tous les groupes de périphériques de disques.

  4. Créez un instantané du volume à l'aide de la commande vxassist.


    # vxassist -g groupe_disques snapstart volume
    


    Remarque –

    la création d'un instantané peut prendre un certain temps, selon la taille du volume.


  5. Vérifiez la création effective du nouveau volume.


    # vxprint -g groupe_disques
    

    Lorsque l'instantané est effectué, le statut de Snapdone s'affiche dans le champ State du groupe de disques sélectionné.

  6. Arrêtez tous les services de données qui accèdent au système de fichiers.


    # scswitch -z -g resource-group[,...] -h ““
    


    Remarque –

    l'arrêt des services de données est recommandé pour garantir la sauvegarde correcte du système de fichiers de données. Si aucun service de données n'est en cours d'exécution, il n'est pas nécessaire d'effectuer l'Étape 6 ni l'Étape 8.


  7. Créez un volume de sauvegarde nommé vol-sauv et joignez-lui le volume instantané à l'aide de la commande vxassist.


    # vxassist -g groupe_disques snapshot volume vol-sauv
    

  8. Redémarrez tous les services de données interrompus à l'Étape 6, à l'aide de la commande scswitch(1M).


    # scswitch -z -g resource-group[,...] -h node[,...]
    

  9. Vérifiez que le volume est bien attaché au nouveau volume vol-sauv, à l'aide de la commande vxprint.


    # vxprint -g groupe_disques
    

  10. Enregistrez la configuration modifiée du groupe de disques.


    # scconf -c -D name=groupe_disques,sync
    

  11. Vérifiez le volume de sauvegarde à l'aide de la commande fsck.


    # fsck -y /dev/vx/rdsk/groupe_disques/vol-sauv
    

  12. Effectuez une sauvegarde pour copier sur une bande ou sur un autre support le volume vol_sauv.

    Utilisez la commande ufsdump(1M) ou n'importe quel autre utilitaire de sauvegarde courant.


    # ufsdump 0ucf périphérique-dump /dev/vx/dsk/groupedisques/vol-sauv
    

  13. Supprimez le volume temporaire à l'aide de la commande vxedit.


     # vxedit -rf rm vol-sauv
    

  14. Enregistrez les modifications de la configuration du groupe de disques à l'aide de la commande scconf(1M).


    # scconf -c -D name= groupe_disques,sync
    

SPARC: Exemple : sauvegarde en ligne de volumes (VERITAS Volume Manager)

Dans l'exemple suivant, le nœud du cluster phys-schost-2 est propriétaire du méta-ensemble schost-1, la procédure de sauvegarde est donc initialisée depuis phys-schost-2. Le volume /vo101 est d'abord copié, puis associé à un nouveau volume vol_sauv.


[Devenez superutilisateur sur le noeud principal.]
[Identifiez le noeud principal en cours pour le groupe de disques:]
# scstat -D
-- Serveurs du groupe de périphériques --

	Groupe de périphériques Élément principal Élément secondaire
                         ---------------------------------- ------------------------ ----------------------------
Serveurs du groupe 
de périphériques  :     rmt/1	          -		-
Serveurs du groupe 
de périphériques  :     schost-1         phys-schost-2	              phys-schost-1

-- Statut du groupe de périphériques --
			Groupe de périphériques Statut              
			-----------------------------------	------              
 Statut du groupe de périphériques :        rmt/1		Hors ligne
 Statut du groupe de périphériques :        schost-1		Hors ligne
[Affichez les informations sur le groupe de disques :]
# vxprint -g schost-1
TY NAME            ASSOC     KSTATE   LENGTH   PLOFFS STATE   TUTIL0  PUTIL0
dg schost-1       schost-1   -        -        -      -        -      -
  
dm schost-101     c1t1d0s2   -        17678493 -      -        -      -
dm schost-102     c1t2d0s2   -        17678493 -      -        -      -
dm schost-103     c2t1d0s2   -        8378640  -      -        -      -
dm schost-104     c2t2d0s2   -        17678493 -      -        -      -
dm schost-105     c1t3d0s2   -        17678493 -      -        -      -
dm schost-106     c2t3d0s2   -        17678493 -      -        -      -
 
v  vol01          gen        ENABLED  204800   -      ACTIVE   -      -
pl vol01-01       vol01      ENABLED  208331   -      ACTIVE   -      -
sd schost-101-01  vol01-01   ENABLED  104139   0      -        -      -
sd schost-102-01  vol01-01   ENABLED  104139   0      -        -      -
pl vol01-02       vol01      ENABLED  208331   -      ACTIVE   -      -
sd schost-103-01  vol01-02   ENABLED  103680   0      -        -      -
sd schost-104-01  vol01-02   ENABLED  104139   0      -        -      -
pl vol01-03       vol01      ENABLED  LOGONLY  -      ACTIVE   -      -
sd schost-103-02  vol01-03   ENABLED  5        LOG    -        -      -
[Démarrez l'opération de collecte:]
# vxassist -g schost-1 snapstart vol01
[Vérifiez que le nouveau volume a été créé:]
# vxprint -g schost-1
TY NAME            ASSOC    KSTATE    LENGTH   PLOFFS STATE   TUTIL0  PUTIL0
dg schost-1       schost-1   -        -        -      -        -      -
  
dm schost-101     c1t1d0s2   -        17678493 -      -        -      -
dm schost-102     c1t2d0s2   -        17678493 -      -        -      -
dm schost-103     c2t1d0s2   -        8378640  -      -        -      -
dm schost-104     c2t2d0s2   -        17678493 -      -        -      -
dm schost-105     c1t3d0s2   -        17678493 -      -        -      -
dm schost-106     c2t3d0s2   -        17678493 -      -        -      -
  
v  vol01          gen        ENABLED  204800   -      ACTIVE   -      -
pl vol01-01       vol01      ENABLED  208331   -      ACTIVE   -      -
sd schost-101-01  vol01-01   ENABLED  104139   0      -        -      -
sd schost-102-01  vol01-01   ENABLED  104139   0      -        -      -
pl vol01-02       vol01      ENABLED  208331   -      ACTIVE   -      -
sd schost-103-01  vol01-02   ENABLED  103680   0      -        -      -
sd schost-104-01  vol01-02   ENABLED  104139   0      -        -      -
pl vol01-03       vol01      ENABLED  LOGONLY  -      ACTIVE   -      -
sd schost-103-02  vol01-03   ENABLED  5        LOG    -        -      -
pl vol01-04       vol01      ENABLED  208331   -      SNAPDONE -      -
sd schost-105-01  vol01-04   ENABLED  104139   0      -        -      -
sd schost-106-01  vol01-04   ENABLED  104139   0      -        -      -
[Arrêtez les services de données le cas échéant:]
# scswitch -z -g nfs-rg -h ““
[Créez une copie du volume :]
# vxassist -g schost-1 snapshot vol01 vol-sauv
[Redémarrez les services de données, le cas échéant:]
# scswitch -z -g nfs-rg -h phys-schost-1
[Vérifiez que vol-sauv a été créé :]
# vxprint -g schost-1
TY NAME           ASSOC       KSTATE   LENGTH   PLOFFS STATE   TUTIL0  PUTIL0
dg schost-1       schost-1    -        -        -      -        -      -
 
dm schost-101     c1t1d0s2    -        17678493 -      -        -      -
...
 
v  vol-sauv       gen         ENABLED  204800   -      ACTIVE   -      -
pl vol-sauv-01    vol-sauv    ENABLED  208331   -      ACTIVE   -      -
sd schost-105-01  vol-sauv-01 ENABLED  104139   0      -        -      -
sd schost-106-01  vol-sauv-01 ENABLED  104139   0      -        -      -
 
v  vol01          gen         ENABLED  204800   -      ACTIVE   -      -
pl vol01-01       vol01       ENABLED  208331   -      ACTIVE   -      -
sd schost-101-01  vol01-01    ENABLED  104139   0      -        -      -
sd schost-102-01  vol01-01    ENABLED  104139   0      -        -      -
pl vol01-02       vol01       ENABLED  208331   -      ACTIVE   -      -
sd schost-103-01  vol01-02    ENABLED  103680   0      -        -      -
sd schost-104-01  vol01-02    ENABLED  104139   0      -        -      -
pl vol01-03       vol01       ENABLED  LOGONLY  -      ACTIVE   -      -
sd schost-103-02  vol01-03    ENABLED  5        LOG    -        -      -
[Synchronisez le groupe de disques avec le cluster :]
# scconf -c -D name=schost-1,sync
[Vérifiez les systèmes de fichiers :]
# fsck -y /dev/vx/rdsk/schost-1/vol-sauv
[Copy vol-sauv to the backup device:]
# ufsdump 0ucf /dev/rmt/0 /dev/vx/rdsk/schost-1/vol-sauv
  DUMP: Writing 63 Kilobyte records
  DUMP: Date of this level 0 dump: Tue Apr 25 16:15:51 2000
  DUMP: Date of last level 0 dump: the epoch
  DUMP: Dumping /dev/vx/dsk/schost-2/vol-sauv to /dev/rmt/0.
  ...
  DUMP: DUMP IS DONE
[Supprimez le volume de sauvegarde :]
# vxedit -rf rm vol-sauv
[Synchronisez le groupe de disques:]
# scconf -c -D name=schost-1,sync

Restauration des fichiers de cluster : présentation

La commande ufsrestore( 1M) copie les fichiers sur le disque associé au répertoire de travail courant, à partir des sauvegardes créées à l'aide de la commande ufsdump (1M). Vous pouvez exécuter la commande ufsrestore pour recharger une arborescence de système de fichiers à partir d'un vidage de niveau 0 et des vidages incrémentiels suivants, ou pour restaurer un ou plusieurs fichiers individuels d'une bande de vidage quelconque. Si vous exécutez ufsrestore en tant que superutilisateur, les fichiers restaurés conservent leur propriétaire, date de modification et mode (permissions) d'origine.

Avant de commencer à restaurer des fichiers ou des systèmes de données, vous devez connaître :

Restauration des fichiers de cluster

Tableau 9–2 Plan des tâches : Restauration des fichiers de cluster

Tâche 

Pour les instructions, voir... 

Pour Solstice DiskSuite/Solaris Volume Manager, restaurer les fichiers de manière interactive en suivant les procédures de restauration Solaris 

Restauration interactive de fichiers individuels (Solstice DiskSuite/Solaris Volume Manager)

Pour Solstice DiskSuite/Solaris Volume Manager, restaurer le système de fichiers racine (/)

Restauration du système de fichiers racine (/) (Solstice DiskSuite/Solaris Volume Manager)

  

Restauration d'un système de fichiers racine (/) se trouvant sur un métapériphérique Solstice DiskSuite ou un volume Solaris Volume Manager

Pour VERITAS Volume Manager, restaurer le système de fichiers racine (/) non encapsulé

SPARC: restauration d'un système de fichiers racine /) non encapsulé (VERITAS Volume Manager)

Pour VERITAS Volume Manager, restaurer le système de fichiers racine (/) encapsulé

SPARC: restauration d'un système de fichiers racine (/) encapsulé (VERITAS Volume Manager)

Restauration interactive de fichiers individuels (Solstice DiskSuite/Solaris Volume Manager)

Suivez cette procédure pour restaurer un ou plusieurs fichiers individuels. Assurez-vous que le cluster fonctionne sans problème avant de lancer la procédure de restauration.

  1. Devenez superutilisateur sur le nœud du cluster que vous souhaitez restaurer.

  2. Arrêtez tous les services de données qui utilisent les fichiers à restaurer.


    # scswitch -z -g resource-group[,...] -h ““
    

  3. Restaurez les fichiers à l'aide de la commande ufsrestore.

Restauration du système de fichiers racine (/) (Solstice DiskSuite/Solaris Volume Manager)

Suivez cette procédure pour restaurer les systèmes de fichiers racine (/) sur un nouveau disque, par exemple après le remplacement d'un disque d'initialisation défectueux. Le nœud restauré ne doit pas être initialisé. Assurez-vous que le cluster fonctionne sans problème avant de lancer la procédure de restauration.


Remarque –

comme vous devez partitionner le nouveau disque selon le même format que le disque défectueux, identifiez le plan de partitionnement avant de commencer la procédure, et suivez-le pour recréer les systèmes de fichiers.


  1. Devenez superutilisateur sur un nœud de la grappe avec accès au méta-ensemble, autre que le nœud à restaurer.

  2. Supprimez de tous les méta-ensembles le nom d'hôte du nœud en cours de restauration.

    Exécutez cette commande à partir de n'importe quel nœud du méta-ensemble, en dehors de celui que vous supprimez.


    # metaset -s nom_jeu -f -d -h listenoeuds
    

    -s nom_jeu

    Spécifie le nom du jeu de disques.

    -f

    Force la suppression.

    -d

    Supprime du jeu de disques.

    -h liste_nœuds

    Indique le nom du nœud à supprimer du jeu de disques.

  3. Remplacez le disque défectueux du nœud sur lequel le système de fichiers (/) racine doit être restauré.

    Reportez-vous aux procédures de remplacement de disques dans la documentation fournie avec le serveur.

  4. Initialisez le nœud que vous souhaitez restaurer.

    • Si vous utilisez le CD de Solaris :

      • SPARC : à l'invite ok de la mémoire PROM OpenBoot, entrez la commande suivante :


        ok boot cdrom -s
        

      • x86 : Insérez le CD dans le lecteur CD du système et initialisez ce dernier en le mettant successivement hors puis sous tension. Dans l'écran des paramètres d'initialisation actuels, entrez la commande suivante :


                             <<< Current Boot Parameters >>>
        Boot path: /pci@0,0/pci8086,2545@3/pci8086,1460@1d/pci8086,341a@
        7,1/sd@0,0:a
        Boot args:
        
        Type b [file-name] [boot-flags] <ENTER> to boot with options
        or   i <ENTER>                          to enter boot interpreter
        or   <ENTER>                            to boot with defaults
        
                         <<< timeout in 5 seconds >>>
        Select (b)oot or (i)nterpreter: b -s
        

    • Si vous utilisez un serveur JumpStart TM de Solaris :

      • SPARC : à l'invite ok de la mémoire PROM OpenBoot, entrez la commande suivante :


        ok boot net -s
        

      • x86 : Initialisez le système en le mettant successivement hors puis sous tension. Dans l'écran des paramètres d'initialisation actuels, entrez la commande suivante :


                              <<< Paramètres d'initialisation actuels>>>
        Chemin d'initialisation : /pci@0,0/pci8086,2545@3/pci8086,1460@1d/pci8086,341a@7,1/
        sd@0,0:a
        Arguments d'initialisation :
        
        Entrez    b [nom fichier] [balises d'initialisation] <;ENTRÉE>  pour initialiser les options
        ou      i <ENTRÉE>                           pour accéder à l'interprète d'initialisation
        ou      <;ENTRÉE>                             pour initialiser les paramètres par défaut
        
                          <<< déconnexion automatique dans 5 secondes >>>
        Sélectionnez (b)oot ou (i)nterpreter : b -s
        

  5. Créez toutes les partitions et remplacez le disque racine à l'aide de la commande format(1M).

    Recréez le plan de partitionnement initial du disque défectueux.

  6. Créez le système de fichiers racine (/) et d'autres systèmes de fichiers éventuels, à l'aide de la commande newfs( 1M).

    Recréez les systèmes de fichiers initiaux du disque défectueux.


    Remarque –

    n'oubliez pas de créer le système de fichiers /global/.devices/node@nodeid.


  7. Montez le système de fichiers racine (/) sur un point de montage temporaire.


    # mount périphérique point_montage-temp
    

  8. Utilisez les commandes suivantes pour restaurer le système de fichiers racine (/).


    # cd point_montage-temp
    # ufsrestore rvf périphérique-dump
    # rm restoresymtable
    # cd /
    # umountpoint_montage_temp
    # fsck disque_caract
    

    Le système de fichiers est restauré.

  9. Installez un nouveau bloc d'initialisation sur le nouveau disque.


    # /usr/sbin/installboot /usr/platform/`uname -i`/lib/fs/ufs/bootblk disque-caract
    

  10. Réinitialisez le noeud en mode monoutilisateur.


    # reboot -- "-s"

  11. Remplacez l'ID du disque à l'aide de la commande scdidadm( 1M).


    # scdidadm -R disque_racine
    

  12. Utilisez la commande metadb( 1M) pour recréer les répliques des bases de données d'état.


    # metadb -c copies  -af périphérique_disques_bruts
    

    -c copies

    Indique le nombre de répliques à créer.

    -f périphérique_disques_bruts

    Périphérique de disques bruts sur lequel seront créées les répliques.

    -a

    Ajoute les répliques.

  13. Réinitialisez le nœud en mode cluster.

    1. Lancez la réinitialisation.


      # reboot
      

      Pendant l'initialisation, vous verrez peut-être apparaître un message d'erreur ou d'avertissement se terminant par l'instruction suivante :


      Taper Ctrl-D pour procéder au démarrage normal (ou donner le mot de passe de racine pour la maintenance du système) :

    2. Appuyez sur Ctrl-D pour effectuer l'initialisation en mode multiutilisateurs.

  14. À partir d'un nœud de cluster différent du nœud restauré, utilisez la commande metaset pour ajouter le nœud restauré à tous les méta-ensembles.


    phys-schost-2# metaset -s nom_jeu -a -h listenoeuds
    

    -a

    Crée et ajoute l'hôte au jeu de disques.

    Le nœud est réinitialisé en mode cluster. Le cluster est prêt à être utilisé.

Exemple : restauration du système de fichiers racine (/) (Solstice DiskSuite/Solaris Volume Manager)

L'exemple suivant illustre la restauration du système de fichiers root (/) sur le nœud phys-schost-1 à partir du périphérique de bande /dev/rmt/0. La commande metaset est exécutée à partir d'un autre nœud du cluster, phys-schost-2, pour supprimer et ensuite ré-ajouter le nœud phys-schost-1 au jeu de disques schost-1. Toutes les autres commandes sont exécutées à partir de phys-schost-1. Un nouveau bloc d'initialisation est créé sur /dev/rdsk/c0t0d0s0, ainsi que trois répliques de bases de données d'état sur /dev/rdsk/c0t0d0s4.


[Devenez superutilisateur sur un nœud du cluster autre que le nœud à restaurer.]
[Supprimez le nœud du metaset:]
phys-schost-2# metaset -s schost-1 -f -d -h phys-schost-1
[Remplacez le disque défectueux et redémarrez le nœud:]

Initialisez le nœud à partir du CD de Solaris :


[Utilisez format et newfs pour recréer des partitions et des systèmes de fichiers.]
[Montez le système de fichiers racine sur un point de montage temporaire :]
# mount /dev/dsk/c0t0d0s0 /a
[Restaurez le système de fichiers racine :]
# cd /a
# ufsrestore rvf /dev/rmt/0
# rm restoresymtable
# cd /
# umount /a
# fsck /dev/rdsk/c0t0d0s0
[Installez un nouveau bloc d'initialisation :]
# /usr/sbin/installboot /usr/platform/`uname \
-i`/lib/fs/ufs/bootblk /dev/rdsk/c0t0d0s0
[Réinitialisez en mode monoutilisateur :]
# reboot -- "-s"
[Remplacez l'ID du disque :]
# scdidadm -R /dev/dsk/c0t0d0
[Recréez les répliques de la base de données d'état :]
# metadb -c 3 -af /dev/rdsk/c0t0d0s4
# reboot
Press Control-d to boot into multiuser mode.
[Rajoutez le nœud dans le méta-ensemble :]
phys-schost-2# metaset -s schost-1 -a -h phys-schost-1

Restauration d'un système de fichiers racine (/) se trouvant sur un métapériphérique Solstice DiskSuite ou un volume Solaris Volume Manager

Utilisez cette procédure pour restaurer un système de fichiers racine (/) qui se trouvait sur un métapériphérique Solstice DiskSuite ou un volume Solaris Volume Manager au moment de la réalisation des sauvegardes. Effectuez cette procédure, par exemple, en cas d'altération d'un disque racine, remplacé par un nouveau disque. Le nœud restauré ne doit pas être initialisé. Assurez-vous que le cluster fonctionne sans problème avant de lancer la procédure de restauration.


Remarque –

comme vous devez partitionner le nouveau disque selon le même format que le disque défectueux, identifiez le plan de partitionnement avant de commencer la procédure, et recréez comme nécessaire les systèmes de fichiers.


  1. Devenez superutilisateur sur un nœud de la grappe avec accès au méta-ensemble, autre que le nœud à restaurer.

  2. Supprimez de tous les méta-ensembles le nom d'hôte du nœud en cours de restauration.


    # metaset -s nom_jeu -f -d -h listenoeuds
    

    -s nom_jeu

    Indique le nom du méta-ensemble.

    -f

    Force la suppression.

    -d

    Effectue la suppression dans le méta-ensemble.

    -h liste_nœuds

    Indique le nom du nœud à supprimer du méta-ensemble.

  3. Remplacez le disque défectueux du nœud sur lequel le système de fichiers (/) racine doit être restauré.

    Reportez-vous aux procédures de remplacement de disques dans la documentation fournie avec le serveur.

  4. Initialisez le nœud que vous souhaitez restaurer.

    • Si vous utilisez le CD de Solaris :

      • SPARC : à l'invite ok de la mémoire PROM OpenBoot, entrez la commande suivante :


        ok boot cdrom -s
        

      • x86 : Insérez le CD dans le lecteur CD du système et initialisez ce dernier en le mettant successivement hors puis sous tension. Dans l'écran des paramètres d'initialisation actuels, entrez la commande suivante :


                              <<< Paramètres d'initialisation actuels>>>
        Chemin d'initialisation : /pci@0,0/pci8086,2545@3/pci8086,1460@1d/pci8086,341a@7,1/
        sd@0,0:a
        Arguments d'initialisation :
        
        Entrez    b [nom fichier] [balises d'initialisation] <;ENTRÉE>  pour initialiser les options
        ou      i <ENTRÉE>                           pour accéder à l'interprète d'initialisation
        ou      <;ENTRÉE>                             pour initialiser les paramètres par défaut
        
                          <<< déconnexion automatique dans 5 secondes >>>
        Sélectionnez (b)oot ou (i)nterpreter : b -s
        

    • Si vous utilisez un serveur JumpStart TM de Solaris :

      • SPARC : à l'invite ok de la mémoire PROM OpenBoot, entrez la commande suivante :


        ok boot net -s
        

      • x86 : Initialisez le système en le mettant successivement hors puis sous tension. Dans l'écran des paramètres d'initialisation actuels, entrez la commande suivante :


                              <<< Paramètres d'initialisation actuels>>>
        Chemin d'initialisation : /pci@0,0/pci8086,2545@3/pci8086,1460@1d/pci8086,341a@7,1/
        sd@0,0:a
        Arguments d'initialisation :
        
        Entrez    b [nom fichier] [balises d'initialisation] <;ENTRÉE>  pour initialiser les options
        ou      i <ENTRÉE>                           pour accéder à l'interprète d'initialisation
        ou      <;ENTRÉE>                             pour initialiser les paramètres par défaut
        
                          <<< déconnexion automatique dans 5 secondes >>>
        Sélectionnez (b)oot ou (i)nterpreter : b -s
        

  5. Créez toutes les partitions et remplacez le disque racine à l'aide de la commande format.

    Recréez le plan de partitionnement initial du disque défectueux.

  6. Créez le système de fichiers racine (/) et d'autres systèmes de fichiers éventuels, à l'aide de la commande newfs.

    Recréez les systèmes de fichiers initiaux du disque défectueux.


    Remarque –

    n'oubliez pas de créer le système de fichiers /global/.devices/node@nodeid.


  7. Montez le système de fichiers racine (/) sur un point de montage temporaire.


    # mount point_montage_temporaire_périphérique
    

  8. Utilisez les commandes suivantes pour restaurer le système de fichiers racine (/).


    # cd point_montage_temporaire # ufsrestore rvf périphérique_dump # rm restoresymtable
    

  9. Installez un nouveau bloc d'initialisation sur le nouveau disque.


    # /usr/sbin/installboot /usr/platform/`uname -i`/lib/fs/ufs/bootblk disque-caract
    

  10. Dans le fichier /point_montage_temp/etc/system supprimez les lignes relatives aux informations root MDD.


    * Begin MDD root info (do not edit)
    forceload: misc/md_trans
    forceload: misc/md_raid
    forceload: misc/md_mirror
    forceload: misc/md_hotspares
    forceload: misc/md_stripe
    forceload: drv/pcipsy
    forceload: drv/glm
    forceload: drv/sd
    rootdev:/pseudo/md@0:0,10,blk
    * End MDD root info (do not edit)

  11. Modifiez le fichier /point_montage-temp/etc/vfstab pour remplacer l'entrée racine d'un métapériphérique Solstice DiskSuite ou d'un volume Solaris Volume Manager par une tranche normale pour chaque système de fichiers du disque racine faisant partie de ce métapériphérique ou de ce volume.


    Example: 
    Change from—
    /dev/md/dsk/d10   /dev/md/rdsk/d10    /      ufs   1     no       -
    
    Change to—
    /dev/dsk/c0t0d0s0 /dev/rdsk/c0t0d0s0  /      ufs   1     no       -

  12. Démontez le système de fichiers temporaire et vérifiez le périphérique de disques bruts.


    # cd /
    # umount point_montage-temp
    # fsck disque-caract
    

  13. Réinitialisez le noeud en mode monoutilisateur.


    # reboot -- "-s"

  14. Remplacez l'ID du disque à l'aide de la commande scdidadm.


    # scdidadm -R disque_racine
    

  15. Utilisez la commande metadb pour recréer les répliques des bases de données d'état.


    # metadb -c copies -af raw-disk-device
    

    -c copies

    Indique le nombre de répliques à créer.

    -af périphérique_disques_bruts

    Crée les répliques de base de données d'état initiales sur le périphérique de disques bruts nommé.

  16. Réinitialisez le nœud en mode cluster.

    1. Lancez la réinitialisation.


      # reboot
      

      Pendant l'initialisation, vous verrez apparaître des messages d'erreur ou d'avertissement se terminant par l'instruction suivante :


      Taper Ctrl-D pour procéder au démarrage normal (ou donner le mot de passe de racine pour la maintenance du système) :

    2. Appuyez sur Ctrl-D pour effectuer l'initialisation en mode multiutilisateurs.

  17. À partir d'un nœud de cluster différent du nœud restauré, utilisez la commande metaset pour ajouter le nœud restauré à tous les méta-ensembles.


    phys-schost-2# metaset -s nom_jeu -a -h listenoeuds
    

    -a

    Ajoute (crée) le méta-ensemble.

    Définit le métapériphérique ou le volume/miroir pour le répertoire racine (/) comme indiqué dans la documentation de Solstice DiskSuite.

    Le nœud est réinitialisé en mode cluster. Le cluster est prêt à être utilisé.

Exemple : restauration d'un système de fichiers racine (/) se trouvant sur un métapériphérique Solstice DiskSuite ou un volume Solaris Volume Manager

L'exemple suivant illustre la restauration du système de fichiers root (/) sur le nœud phys-schost-1 à partir du périphérique de bande /dev/rmt/0. La commande metaset est exécutée à partir d'un autre nœud de la grappe, phys-schost-2, pour supprimer et restaurer ultérieurement le nœud phys-schost-1 du méta-ensemble schost-1. Toutes les autres commandes sont exécutées à partir de phys-schost-1. Un nouveau bloc d'initialisation est créé sur /dev/rdsk/c0t0d0s0, ainsi que trois répliques de bases de données d'état sur /dev/rdsk/c0t0d0s4.


[Devenez superutilisateur sur un nœud du cluster ayant accès au méta-ensemble et différent du nœud à restaurer.]
[Supprimez le nœud du méta-ensemble :]
phys-schost-2# metaset -s schost-1 -f -d -h phys-schost-1
[Remplacez le disque défectueux et initialisez le nœud :]

Initialisez le nœud à partir du CD de Solaris :


[Use format and newfs to recreate partitions and file systems.]
[Mount the root file system on a temporary mount point:]
# mount /dev/dsk/c0t0d0s0 /a
[Restore the root file system:]
# cd /a
# ufsrestore rvf /dev/rmt/0
# rm restoresymtable
[Install a new boot block:]
# /usr/sbin/installboot /usr/platform/`uname \
-i`/lib/fs/ufs/bootblk /dev/rdsk/c0t0d0s0
[Remove the lines in /temp-mountpoint/etc/system file for MDD root information:]
* Begin MDD root info (do not edit)
forceload: misc/md_trans
forceload: misc/md_raid
forceload: misc/md_mirror
forceload: misc/md_hotspares
forceload: misc/md_stripe
forceload: drv/pcipsy
forceload: drv/glm
forceload: drv/sd
rootdev:/pseudo/md@0:0,10,blk
* End MDD root info (do not edit)
[Edit the /temp-mountpoint/etc/vfstabfile]
Example: 
Change from—
/dev/md/dsk/d10   /dev/md/rdsk/d10    /      ufs   1     no       -

Change to—
/dev/dsk/c0t0d0s0 /dev/rdsk/c0t0d0s0  /usr   ufs   1     no       -
[Unmount the temporary file system and check the raw disk device:]
# cd /
# umount /a
# fsck /dev/rdsk/c0t0d0s0
[Reboot in single-user mode:]
# reboot -- "-s"
[Replace the disk ID:]
# scdidadm -R /dev/dsk/c0t0d0
[Recreate state database replicas:]
# metadb -c 3 -af /dev/rdsk/c0t0d0s4
# reboot
Type Control-d to boot into multiuser mode.
[Add the node back to the metaset:]
phys-schost-2# metaset -s schost-1 -a -h phys-schost-1

SPARC: restauration d'un système de fichiers racine /) non encapsulé (VERITAS Volume Manager)

Cette procédure permet de restaurer sur un nœud un système de fichiers racine (/) non encapsulé. Le nœud restauré ne doit pas être initialisé. Assurez-vous que le cluster fonctionne sans problème avant de lancer la procédure de restauration.


Remarque –

comme vous devez partitionner le nouveau disque selon le même format que le disque défectueux, identifiez le plan de partitionnement avant de commencer la procédure, et recréez comme nécessaire les systèmes de fichiers.


  1. Remplacez le disque défectueux sur le nœud dont le système de fichiers racine doit être restauré.

    Reportez-vous aux procédures de remplacement de disques dans la documentation fournie avec le serveur.

  2. Initialisez le nœud que vous souhaitez restaurer.

    • Si vous utilisez le CD de Solaris, à l'invite ok de la mémoire PROM OpenBoot, entrez la commande suivante :


      ok boot cdrom -s
      

    • Si vous utilisez un serveur JumpStart TM de Solaris, à l'invite ok de la mémoire PROM OpenBoot, entrez la commande suivante :


      ok boot net -s
      

  3. Créez toutes les partitions et remplacez le disque racine à l'aide de la commande format.

    Recréez le plan de partitionnement initial du disque défectueux.

  4. Créez le système de fichiers racine (/) et d'autres systèmes de fichiers éventuels, à l'aide de la commande newfs.

    Recréez les systèmes de fichiers initiaux du disque défectueux.


    Remarque –

    n'oubliez pas de créer le système de fichiers /global/.devices/node@nodeid.


  5. Montez le système de fichiers racine (/) sur un point de montage temporaire.


    # mount device temp-mountpoint
    

  6. Rétablissez le système de fichiers racine (/) à partir de la copie de sauvegarde, démontez et vérifiez le système de fichiers.


    # cd point:_montage_temporaire # ufsrestore rvf périphérique_vidage # rm restoresymtable # cd / # umount point_montage_temporaire # fsck périphérique_disques_bruts
    

    Le système de fichiers est restauré.

  7. Installez un nouveau bloc d'initialisation sur le nouveau disque.


    # /usr/sbin/installboot /usr/platform/`uname -i`/lib/fs/ufs/bootblk raw-disk-device
    

  8. Réinitialisez le noeud en mode monoutilisateur.

    1. Lancez la réinitialisation.


      # reboot -- "-s"

      Pendant l'initialisation, vous verrez apparaître des messages d'erreur ou d'avertissement se terminant par l'instruction suivante :


      Taper Ctrl-D pour procéder au démarrage normal (ou donner le mot de passe de racine pour la maintenance du système) :

    2. Entrez le mot de passe racine.

  9. Mettez à jour l'ID du disque à l'aide de la commande scdidadm.


     # scdidadm -R /dev/rdsk/périphérique_disques
    

  10. Appuyez sur CTRL-d pour reprendre en mode multiutilisateurs.

    Le nœud est réinitialisé en mode cluster. Le cluster est prêt à être utilisé.

SPARC: exemple de restauration d'un système de fichiers racine (/) non encapsulé (Solstice DiskSuite/Solaris Volume Manager)

L'exemple suivant illustre la restauration d'un système de fichiers racine (/) non encapsulé sur le nœud phys-schost-1 à partir du périphérique de bande /dev/rmt/0.


[Remplacez le disque défectueux et initialisez le nœud :]

Initialisez le nœud depuis le CD de Solaris. A l'invite ok de la mémoire PROM OpenBoot, entrez la commande suivante :


ok boot cdrom -s
...
[Use format and newfs to create partitions and file systems]
[Mount the root file system on a temporary mount point:]
# mount /dev/dsk/c0t0d0s0 /a
[Restore the root file system:]
# cd /a
# ufsrestore rvf /dev/rmt/0
# rm restoresymtable
# cd /
# umount /a
# fsck /dev/rdsk/c0t0d0s0
[Install a new boot block:]
# /usr/sbin/installboot /usr/platform/`uname \
-i`/lib/fs/ufs/bootblk /dev/rdsk/c0t0d0s0
[Reboot in single-user mode:]
# reboot -- "-s"
[Update the disk ID:]
# scdidadm -R /dev/rdsk/c0t0d0
[Press Control-d to resume in multiuser mode]

SPARC: restauration d'un système de fichiers racine (/) encapsulé (VERITAS Volume Manager)

Cette procédure permet de restaurer sur un nœud un système de fichiers racine (/) encapsulé. Le nœud restauré ne doit pas être initialisé. Assurez-vous que le cluster fonctionne sans problème avant de lancer la procédure de restauration.


Remarque –

comme vous devez partitionner le nouveau disque selon le même format que le disque défectueux, identifiez le plan de partitionnement avant de commencer la procédure, et recréez comme nécessaire les systèmes de fichiers.


  1. Remplacez le disque défectueux sur le nœud dont le système de fichiers racine doit être restauré.

    Reportez-vous aux procédures de remplacement de disques dans la documentation fournie avec le serveur.

  2. Initialisez le nœud que vous souhaitez restaurer.

    • Si vous utilisez le CD de Solaris, à l'invite ok de la mémoire PROM OpenBoot, entrez la commande suivante :


      ok boot cdrom -s
      

    • Si vous utilisez un serveur JumpStart TM de Solaris, à l'invite ok de la mémoire PROM OpenBoot, entrez la commande suivante :


      ok boot net -s
      

  3. Créez toutes les partitions et remplacez le disque racine à l'aide de la commande format.

    Recréez le plan de partitionnement initial du disque défectueux.

  4. Créez le système de fichiers racine (/) et d'autres systèmes de fichiers éventuels, à l'aide de la commande newfs.

    Recréez les systèmes de fichiers initiaux du disque défectueux.


    Remarque –

    N'oubliez pas de créer le système de fichiers /global/.devices/nœud@id_nœud.


  5. Montez le système de fichiers racine (/) sur un point de montage temporaire.


    # mount device temp-mountpoint
    

  6. Restaurez le système de fichiers racine (/) à partir de la sauvegarde.


    # cd temp-mountpoint
    # ufsrestore rvf périphérique-dump
    # rm restoresymtable
    

  7. Créez un fichier install-db vide.

    Le nœud sera en mode d'installation VxVM à la réinitialisation suivante.


    # touch /temp-mountpoint/etc/vx/reconfig.d/state.d/install-db
    

  8. Supprimez les entrées suivantes du fichier /point_montage_temp/etc/system.


    * rootdev:/pseudo/vxio@0:0
    * set vxio:vol_rootdev_is_volume=1

  9. Éditez le fichier /point_montage_temporaire/etc/vfstab et remplacez tous les points de montage de VxVM par les périphériques de disques standard du disque racine, tels que /dev/dsk/c0t0d0s0.


    Example: 
    Change from—
    /dev/vx/dsk/rootdg/rootvol /dev/vx/rdsk/rootdg/rootvol /      ufs   1     no -
    
    Change to—
    /dev/dsk/c0t0d0s0 /dev/rdsk/c0t0d0s0  / ufs   1     no       -

  10. Démontez le système de fichiers temporaire et vérifiez-le.


    # cd /
    # umount temp-mountpoint
    # fsck raw-disk-device
    

  11. Installez le nouveau bloc d'initialisation sur le nouveau disque.


    # /usr/sbin/installboot /usr/platform/`uname -i`/lib/fs/ufs/bootblk raw-disk-device
    

  12. Réinitialisez le noeud en mode monoutilisateur.


    # reboot -- "-s"

  13. Mettez à jour l'ID du disque à l'aide de scdidadm( 1M).


    # scdidadm -R /dev/rdsk/c0t0d0
    

  14. Exécutez vxinstall pour encapsuler le disque et réinitialiser.


     # vxinstall
    

  15. Si le code mineur entre en conflit avec celui d'un autre système, démontez les périphériques globaux et attribuez un nouveau code mineur au groupe de disques.

    • Démontez le système de fichiers de périphériques globaux sur le nœud du cluster.


      # umount /global/.devices/node@nodeid
      

    • Attribuez un autre code mineur au groupe de disques rootdg du nœud de cluster.


      # vxdg reminor rootdg 100
      

  16. Arrêtez le nœud et réinitialisez-le en mode cluster.


    # shutdown -g0 -i6 -y
    

SPARC: Exemple : restauration d'un système de fichiers racine (/) encapsulé (VERITAS Volume Manager)

L'exemple suivant montre un système de fichiers racine (/) encapsulé restauré sur le nœud phys-schost-1 depuis le lecteur de bande /dev/rmt/0.


[Remplacez le disque défectueux et initialisez le nœud:]

Initialisez le nœud depuis le CD de Solaris. A l'invite ok de la mémoire PROM OpenBoot, entrez la commande suivante :


ok boot cdrom -s
...
[Use format and newfs to create partitions and file systems]
[Mount the root file system on a temporary mount point:]
# mount /dev/dsk/c0t0d0s0 /a
[Restore the root file system:]
# cd /a
# ufsrestore rvf /dev/rmt/0
# rm restoresymtable
[Create an empty install-db file:]
# touch /a/etc/vx/reconfig.d/state.d/install-db
[Edit /etc/system on the temporary file system and 
remove or comment out the following entries:]
	# rootdev:/pseudo/vxio@0:0
	# set vxio:vol_rootdev_is_volume=1
[Edit /etc/vfstab on the temporary file system:]
Example: 
Change from—
/dev/vx/dsk/rootdg/rootvol /dev/vx/rdsk/rootdg/rootvol / ufs 1 no-

Change to—
/dev/dsk/c0t0d0s0 /dev/rdsk/c0t0d0s0  / ufs   1     no       -
[Unmount the temporary file system, then check the file system:]
# cd /
# umount /a
# fsck /dev/rdsk/c0t0d0s0
[Install a new boot block:]
# /usr/sbin/installboot /usr/platform/`uname \
-i`/lib/fs/ufs/bootblk /dev/rdsk/c0t0d0s0
[Reboot in single-user mode:]
# reboot -- "-s"
[Update the disk ID:]
# scdidadm -R /dev/rdsk/c0t0d0
[Run vxinstall:]
# vxinstall
Choose to encapsulate the root disk.
[If there is a conflict in minor number, reminor the rootdg disk group:]
# umount /global/.devices/node@nodeid
# vxdg reminor rootdg 100
# shutdown -g0 -i6 -y

étape suivante

Pour obtenir des instructions sur la façon de définir le miroir du disque racine encapsulé, reportez-vous au Guide d'installation du logiciel Sun Cluster pour SE Solaris.