JavaScript is required to for searching.
Ignorer les liens de navigation
Quitter l'aperu
Guide d'administration système d'Oracle Solaris Cluster     Oracle Solaris Cluster (Français)
search filter icon
search icon

Informations document

Préface

1.  Introduction à l'administration d'Oracle Solaris Cluster

2.  Oracle Solaris Cluster et RBAC

3.  Fermeture et initialisation d'un cluster

4.  Méthodes de réplication de données

5.  Administration des périphériques globaux, du contrôle de chemin de disque et des systèmes de fichiers du cluster

6.  Gestion de Quorum

7.  Administration des interconnexions de cluster et des réseaux publics

8.  Ajout et suppression d'un noeligud

9.  Administration du cluster

10.  Configuration du contrôle de l'utilisation du CPU

11.  Mise à jour du logiciel ou installation d'un microprogramme Oracle Solaris Cluster

12.  Sauvegarde et restauration d'un cluster

Restauration d'un cluster

Recherche des noms de systèmes de fichiers à sauvegarder

Calcul du nombre de bandes requises pour une sauvegarde complète

Sauvegarde du système de fichiers racine (/)

Sauvegarde en ligne pour les systèmes mis en miroir (Solaris Volume Manager)

Sauvegarde en ligne pour les volumes (Veritas Volume Manager)

Sauvegarde de la configuration du cluster

Restauration de fichiers en cluster

Restauration interactive de fichiers individuels (Solaris Volume Manager)

Restauration du système de fichiers racine (/) (Solaris Volume Manager)

Restauration d'un système de fichiers racine (/) situé sur un volume Solaris Volume Manager

Restauration d'un système de fichiers racine (/) non encapsulé (Veritas Volume Manager)

Restauration d'un système de fichiers racine (/) encapsulé (Veritas Volume Manager)

13.  Administration de Oracle Solaris Cluster avec les interfaces graphiques

A.  exemple

Index

Restauration de fichiers en cluster

La commande ufsrestore(1M) copie des fichiers sur le disque en fonction du répertoire de travail courant, à partir des sauvegardes créées à l'aide de la commande ufsdump(1M). Vous pouvez utiliser ufsrestore pour recharger l'arborescence complète du système de fichiers à partir d'un vidage au niveau 0 ou de vidages incrémentiels ultérieurs, ou pour restaurer un ou plusieurs fichiers uniques à partir d'une bande de vidage. Si la commande ufsrestore est exécutée par un superutilisateur ou un utilisateur ayant adopté un rôle équivalent, les fichiers sont restaurés avec leur propriétaire d'origine, la date de dernière modification et le mode (autorisations).

Avant de restaurer les fichiers ou les systèmes de fichiers, munissez-vous des informations suivantes.

Tableau 12-2 Liste des tâches : restauration de fichiers en cluster

Tâche
Instructions
Pour Solaris Volume Manager, restaurez les fichiers de manière interactive.
Pour Solaris Volume Manager, restaurez le système de fichiers racine (/).
 
Pour Veritas Volume Manager, restaurez un système de fichiers racine (/).
Pour Veritas Volume Manager, restaurez un système de fichiers racine (/) encapsulé.

Restauration interactive de fichiers individuels (Solaris Volume Manager)

Suivez cette procédure pour restaurer un ou plusieurs fichiers individuels. Avant d'entamer la procédure de restauration, assurez-vous que le cluster est en cours d'exécution et ne signale aucune erreur.

  1. Connectez-vous en tant que superutilisateur ou adoptez un rôle octroyant une autorisation reposant sur un contrôle d'accès basé sur les rôles de type solaris.cluster.admin sur le nœud du cluster dont vous effectuez la restauration.
  2. Arrêtez tous les services de données utilisant les fichiers à restaurer.
    # clresourcegroup offline resource-group
  3. Restaurez les fichiers.
    # ufsrestore

Restauration du système de fichiers racine (/) (Solaris Volume Manager)

Suivez cette procédure pour restaurer les systèmes de fichiers racine (/) sur un nouveau disque, par exemple après le remplacement d'un disque racine défectueux. Le nœud en cours de restauration ne doit pas être initialisé. Avant d'entamer la procédure de restauration, assurez-vous que le cluster est en cours d'exécution et ne signale aucune erreur.


Remarque - Le format de la partition du nouveau disque devant être identique à celui du disque défectueux, identifiez le schéma de partitionnement avant d'entamer la procédure et recréez les systèmes de fichiers, selon les besoins.


L'élément phys-schost# fait référence à l'invite du cluster global. Appliquez cette procédure à un cluster global.

Cette procédure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart des commandes possèdent également des formes brèves. À l'exception de la forme du nom, ces commandes sont identiques.

  1. Connectez-vous en tant que superutilisateur ou adoptez un rôle octroyant une autorisation reposant sur un contrôle d'accès basé sur les rôles de type solaris.cluster.modify sur un nœud du cluster ayant accès aux ensembles de disques auxquels le nœud à restaurer est également joint.

    Utilisez un nœud autre que celui dont vous effectuez la restauration.

  2. Supprimez le nom d'hôte du nœud en cours de restauration de tous les metasets.

    Exécutez cette commande à partir d'un nœud du metaset autre que le nœud dont vous effectuez la suppression. Le nœud en cours de récupération étant hors ligne, le système affiche l'erreur RPC: Rpcbind failure - RPC: Timed out. Ignorez-la et passez à l'étape suivante.

    # metaset -s setname -f -d -h nodelist
    -s setname

    Spécifie le nom de l'ensemble de disques.

    -f

    Supprime le dernier hôte de l'ensemble de disques.

    -d

    Supprime dans l'ensemble de disques.

    -h nodelist

    Spécifie le nom du nœud à supprimer de l'ensemble de disques.

  3. Restaurez les systèmes de fichiers racine (/) et /usr.

    Pour restaurer les systèmes de fichiers racine et /usr, suivez la procédure décrite au chapitre 26 (Chapitre 25, Restoring UFS Files and File Systems (Tasks) du System Administration Guide: Devices and File Systems. Ignorez l'étape de redémarrage du système de la procédure du SE Oracle Solaris.


    Remarque - Veillez à créer le système de fichiers /global/.devices/node@nodeid.


  4. Réinitialisez le nœud en mode multiutilisateur.
    # reboot
  5. Remplacez l'ID de périphérique.
    # cldevice repair rootdisk
  6. Utilisez la commande metadb(1M) pour recréer les répliques de base de données d'état.
    # metadb -c copies -af raw-disk-device
    -c copies

    Spécifie le nombre de répliques à créer.

    -f raw-disk-device

    Périphérique de disque brut sur lequel créer les répliques.

    -a

    Ajoute des répliques.

  7. À partir d'un nœud du cluster autre que le nœud restauré, ajoutez le nœud restauré à tous les ensembles de disques.
    phys-schost-2# metaset -s setname -a -h nodelist
    -a

    Crée et ajoute l'hôte à l'ensemble de disques.

    Le nœud est redémarré en mode cluster. Le cluster est prêt à l'emploi.

Exemple 12-6 Restauration du système de fichiers racine (/)

L'exemple suivant illustre un système de fichiers racine (/) restauré sur le nœud phys-schost-1 à partir du périphérique à bande /dev/rmt/0. La commande metaset est exécutée à partir d'un autre nœud du cluster (phys-schost-2) pour supprimer et ultérieurement rajouter le nœud phys-schost-1 à l'ensemble de disques schost-1. Toutes les autres commandes sont exécutées à partir de phys-schost-1. Un nouveau bloc d'initialisation est créé sur /dev/rdsk/c0t0d0s0 et trois répliques de base de données d'état sont recréées sur /dev/rdsk/c0t0d0s4.

[Become superuser or assume a  role that provides solaris.cluster.modify RBAC authorization on a cluster node
    other than the node to be restored.]
[Remove the node from the metaset:]
phys-schost-2# metaset -s schost-1 -f -d -h phys-schost-1
[Replace the failed disk and boot the node:]
Restore the root (/) and /usr file system using the procedure in the Solaris system
    administration documentation
[Reboot:]
# reboot
[Replace the disk ID:]
# cldevice repair /dev/dsk/c0t0d0
[Re-create state database replicas:]
# metadb -c 3 -af /dev/rdsk/c0t0d0s4
[Add the node back to the metaset:]
phys-schost-2# metaset -s schost-1 -a -h phys-schost-1

Restauration d'un système de fichiers racine (/) situé sur un volume Solaris Volume Manager

Suivez cette procédure pour restaurer un système de fichiers racine (/) qui se trouvait sur un volume Solaris Volume Manager lors de réalisation des sauvegardes. Procédez de cette manière lorsqu'un disque racine est endommagé et remplacé par un nouveau disque. Le nœud en cours de restauration ne doit pas être initialisé. Avant d'entamer la procédure de restauration, assurez-vous que le cluster est en cours d'exécution et ne signale aucune erreur.


Remarque - Le format de la partition du nouveau disque devant être identique à celui du disque défectueux, identifiez le schéma de partitionnement avant d'entamer la procédure et recréez les systèmes de fichiers, selon les besoins.


L'élément phys-schost# fait référence à l'invite du cluster global. Appliquez cette procédure à un cluster global.

Cette procédure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart des commandes possèdent également des formes brèves. À l'exception de la forme du nom, ces commandes sont identiques.

  1. Connectez-vous en tant que superutilisateur ou adoptez un rôle octroyant une autorisation reposant sur un contrôle d'accès basé sur les rôles de type solaris.cluster.modify sur un nœud du cluster ayant accès à l'ensemble de disques autre que le nœud dont vous effectuez la restauration.

    Utilisez un nœud autre que celui dont vous effectuez la restauration.

  2. Supprimez le nom d'hôte du nœud en cours de restauration sur tous les ensembles de disques auxquels il est relié. Exécutez la commande suivante pour chaque ensemble de disques.
    # metaset -s setname -d -h hostname
    -s setname

    Spécifie le nom du metaset.

    -f

    Supprime le dernier hôte de l'ensemble de disques.

    -d

    Supprime dans le metaset.

    -h nodelist

    Spécifie le nom du nœud à supprimer du metaset.

    -h hostname

    Spécifie le nom de l'hôte.

    -m mediator_host_list

    Spécifie le nom de l'hôte médiateur à ajouter à l'ensemble de disques ou à supprimer de cet ensemble.

  3. Si le nœud est un hôte médiateur à deux chaînes, supprimez le médiateur. Exécutez la commande suivante une fois pour chaque ensemble de disques auquel le nœud est relié.
    # metaset -ssetname-d -m hostname
  4. Remplacez le disque défectueux du nœud sur lequel le système de fichiers racine (/) sera restauré.

    Suivez les procédures pour le remplacement d'un disque décrites dans la documentation fournie avec votre serveur.

  5. Initialisez le nœud dont vous effectuez la restauration. Le nœud réparé est initialisé en mode monoutilisateur à partir du CD-ROM. Ainsi, Solaris Volume Manager ne s'exécutera pas sur ce nœud.
    • Si vous utilisez le CD du SE Oracle Solaris, notez ce qui suit :

      • SPARC : Type :

        ok boot cdrom -s
      • x86 : Insérez le CD dans le lecteur et initialisez le système en l'arrêtant, puis en le désactivant et l'activant à nouveau. Dans l'écran des paramètres d'initialisation actuels, saisissez b ou i.

                             <<< Current Boot Parameters >>>
        Boot path: /pci@0,0/pci8086,2545@3/pci8086,1460@1d/pci8086,341a@
        7,1/sd@0,0:a
        Boot args:
        
        Type b [file-name] [boot-flags] <ENTER> to boot with options
        or   i <ENTER>                          to enter boot interpreter
        or   <ENTER>                            to boot with defaults
        
                         <<< timeout in 5 seconds >>>
        Select (b)oot or (i)nterpreter: b -s
    • Si vous utilisez un serveur Solaris JumpStart, notez ce qui suit :

      • SPARC : Type :

        ok boot net -s
      • x86 : Insérez le CD dans le lecteur et initialisez le système en l'arrêtant, puis en le désactivant et l'activant à nouveau. Dans l'écran des paramètres d'initialisation actuels, saisissez b ou i.

                             <<< Current Boot Parameters >>>
        Boot path: /pci@0,0/pci8086,2545@3/pci8086,1460@1d/pci8086,341a@
        7,1/sd@0,0:a
        Boot args:
        
        Type b [file-name] [boot-flags] <ENTER> to boot with options
        or   i <ENTER>                          to enter boot interpreter
        or   <ENTER>                            to boot with defaults
        
                         <<< timeout in 5 seconds >>>
        Select (b)oot or (i)nterpreter: b -s
  6. Créez toutes les partitions et l'espace de swap sur le disque racine en utilisant la commande format.

    Recréez le schéma de partitionnement d'origine du disque défectueux.

  7. Créez le système de fichiers racine (/) ainsi que tout autre système de fichiers requis en utilisant la commande newfs.

    Recréez les systèmes de fichiers d'origine du disque défectueux.


    Remarque - Veillez à créer le système de fichiers /global/.devices/node@nodeid.


  8. Montez le système de fichiers racine (/) sur un point de montage temporaire.
    # mount device temp-mountpoint
  9. Utilisez les commandes suivantes pour restaurer le système de fichiers racine (/).
    # cd temp-mountpoint
    # ufsrestore rvf dump-device
    # rm restoresymtable
  10. Installez un nouveau bloc d'initialisation sur le nouveau disque.
    # /usr/sbin/installboot /usr/platform/`uname -i`/lib/fs/ufs/bootblk 
    raw-disk-device
  11. Dans le fichier /temp-mountpoint/etc/system, supprimez les lignes d'informations racine MDD.
    * Begin MDD root info (do not edit)
    forceload: misc/md_trans
    forceload: misc/md_raid
    forceload: misc/md_mirror
    forceload: misc/md_hotspares
    forceload: misc/md_stripe
    forceload: drv/pcipsy
    forceload: drv/glm
    forceload: drv/sd
    rootdev:/pseudo/md@0:0,10,blk
    * End MDD root info (do not edit)
  12. Éditez le fichier /temp-mountpoint/etc/vfstab pour changer l'entrée racine d'un volume Solaris Volume Manager en tranche normale correspondante pour chaque système de fichiers du disque racine faisant partie du métapériphérique ou du volume.
    Example: 
    Change from—
    /dev/md/dsk/d10   /dev/md/rdsk/d10    /      ufs   1     no       -
    
    Change to—
    /dev/dsk/c0t0d0s0 /dev/rdsk/c0t0d0s0  /      ufs   1     no       -
  13. Démontez le système de fichiers temporaire et vérifiez le périphérique de disque brut.
    # cd /
    # umount temp-mountpoint
    # fsck raw-disk-device
  14. Réinitialisez le nœud en mode multiutilisateur.
    # reboot
  15. Remplacez l'ID de périphérique.
    # cldevice repair rootdisk
  16. Utilisez la commande metadb pour recréer les répliques de base de données d'état.
    # metadb -c copies -af raw-disk-device
    -c copies

    Spécifie le nombre de répliques à créer.

    -af raw-disk-device

    Crée les répliques de base de données d'état initiales sur le périphérique de disque brut spécifié.

  17. À partir d'un nœud du cluster autre que le nœud restauré, ajoutez le nœud restauré à tous les ensembles de disques.
    phys-schost-2# metaset -s setname -a -h nodelist
    -a

    Ajoute (crée) le metaset.

    Paramétrez le volume/miroir pour la racine (/) en fonction de la documentation.

    Le nœud est redémarré en mode cluster.

  18. Si le nœud était un hôte médiateur à deux chaînes, rajoutez le médiateur.
    phys-schost-2# metaset -s setname -a -m hostname 

Exemple 12-7 Restauration d'un système de fichiers racine (/) situé sur un volume Solaris Volume Manager

L'exemple suivant illustre un système de fichiers racine (/) restauré sur le nœud phys-schost-1 à partir du périphérique à bande /dev/rmt/0. La commande metaset est exécutée à partir d'un autre nœud du cluster (phys-schost-2) pour supprimer le nœud phys-schost-1 du metaset schost-1 et le rajouter ultérieurement. Toutes les autres commandes sont exécutées à partir de phys-schost-1. Un nouveau bloc d'initialisation est créé sur /dev/rdsk/c0t0d0s0 et trois répliques de base de données d'état sont recréées sur /dev/rdsk/c0t0d0s4.

[Become superuser or assume a role that provides solaris.cluster.modify RBAC
   authorization on a cluster node with access to the metaset, other than the node to be restored.]
[Remove the node from the metaset:]
phys-schost-2# metaset -s schost-1 -d -h phys-schost-1
[Replace the failed disk and boot the node:]

Initialisez le nœud à partir du CD du SE Oracle Solaris :

[Use format and newfs to recreate partitions and file systems
.]
[Mount the root file system on a temporary mount point:]
# mount /dev/dsk/c0t0d0s0 /a
[Restore the root file system:]
# cd /a
# ufsrestore rvf /dev/rmt/0
# rm restoresymtable
[Install a new boot block:]
# /usr/sbin/installboot /usr/platform/`uname \
-i`/lib/fs/ufs/bootblk /dev/rdsk/c0t0d0s0

[Remove the lines in / temp-mountpoint/etc/system file for MDD root information:
]
* Begin MDD root info (do not edit)
forceload: misc/md_trans
forceload: misc/md_raid
forceload: misc/md_mirror
forceload: misc/md_hotspares
forceload: misc/md_stripe
forceload: drv/pcipsy
forceload: drv/glm
forceload: drv/sd
rootdev:/pseudo/md@0:0,10,blk
* End MDD root info (do not edit)
[Edit the /temp-mountpoint/etc/vfstab file]
Example: 
Change from—
/dev/md/dsk/d10   /dev/md/rdsk/d10    /      ufs   1     no       -

Change to—
/dev/dsk/c0t0d0s0 /dev/rdsk/c0t0d0s0  /usr   ufs   1     no       -
[Unmount the temporary file system and check the raw disk device:]
# cd /
# umount /a
# fsck /dev/rdsk/c0t0d0s0
[Reboot:]
# reboot
[Replace the disk ID:]
# cldevice repair /dev/rdsk/c0t0d0
[Re-create state database replicas:]
# metadb -c 3 -af /dev/rdsk/c0t0d0s4
[Add the node back to the metaset:]
phys-schost-2# metaset -s schost-1 -a -h phys-schost-1

Restauration d'un système de fichiers racine (/) non encapsulé (Veritas Volume Manager)

Suivez cette procédure pour restaurer un système de fichiers racine (/) non encapsulé. Le nœud en cours de restauration ne doit pas être initialisé. Avant d'entamer la procédure de restauration, assurez-vous que le cluster est en cours d'exécution et ne signale aucune erreur.


Remarque - Le format de la partition du nouveau disque devant être identique à celui du disque défectueux, identifiez le schéma de partitionnement avant d'entamer la procédure et recréez les systèmes de fichiers, le cas échéant.


L'élément phys-schost# fait référence à l'invite du cluster global. Appliquez cette procédure à un cluster global.

Cette procédure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart des commandes possèdent également des formes brèves. À l'exception de la forme du nom, ces commandes sont identiques.

  1. Remplacez le disque défectueux du nœud sur lequel le système de fichiers racine sera restauré.

    Suivez les procédures pour le remplacement d'un disque décrites dans la documentation fournie avec votre serveur.

  2. Initialisez le nœud dont vous effectuez la restauration.
    • Si vous utilisez le CD du SE Oracle Solaris, saisissez la commande suivante lorsque vous recevez l'invite OpenBoot PROM ok :

      ok boot cdrom -s
    • Si vous utilisez un serveur Solaris JumpStart, saisissez la commande suivante lorsque vous recevez l'invite OpenBoot PROM ok :

      ok boot net -s
  3. Créez toutes les partitions et le swap sur le disque racine en utilisant la commande format.

    Recréez le schéma de partitionnement d'origine du disque défectueux.

  4. Créez le système de fichiers racine (/) ainsi que tout autre système de fichiers requis en utilisant la commande newfs.

    Recréez les systèmes de fichiers d'origine du disque défectueux.


    Remarque - Veillez à créer le système de fichiers /global/.devices/node@nodeid.


  5. Montez le système de fichiers racine (/) sur un point de montage temporaire.
    # mount device temp-mountpoint
  6. Restaurez le système de fichiers racine (/) à partir de la sauvegarde, puis démontez et vérifiez le système de fichiers.
    # cd temp-mountpoint
    # ufsrestore rvf dump-device
    # rm restoresymtable
    # cd /
    # umount temp-mountpoint
    # fsck raw-disk-device

    Le système de fichiers est maintenant restauré.

  7. Installez un nouveau bloc d'initialisation sur le nouveau disque.
    # /usr/sbin/installboot /usr/platform/`uname -i`/lib/fs/ufs/bootblk raw-disk-device
  8. Réinitialisez le nœud en mode multiutilisateur.
    # reboot
  9. Mettez à jour l'ID de périphérique.
    # cldevice repair /dev/rdsk/disk-device
  10. Appuyez sur les touches Ctrl-d pour reprendre en mode multiutilisateur.

    Le nœud est redémarré en mode cluster. Le cluster est prêt à l'emploi.

Exemple 12-8 Restauration du système de fichiers racine non encapsulé (/) (Veritas Volume Manager)

L'exemple suivant illustre un système de fichiers racine non encapsulé (/) restauré sur le nœud phys-schost-1 à partir du périphérique à bande /dev/rmt/0.

[Replace the failed disk and boot the node:]

Initialisez le nœud à partir du CD du SE Oracle Solaris. Lorsque vous recevez l'invite OpenBoot PROM ok, saisissez la commande suivante :

ok boot cdrom -s
...
[Use format and newfs to create partitions and file systems]
[Mount the root file system on a temporary mount point:]
# mount /dev/dsk/c0t0d0s0 /a
[Restore the root file system:]
# cd /a
# ufsrestore rvf /dev/rmt/0
# rm restoresymtable
# cd /
# umount /a
# fsck /dev/rdsk/c0t0d0s0
[Install a new boot block:]
# /usr/sbin/installboot /usr/platform/`uname \
-i`/lib/fs/ufs/bootblk /dev/rdsk/c0t0d0s0

[Reboot:]
# reboot
[Update the disk ID:]
# cldevice repair /dev/rdsk/c0t0d0

Restauration d'un système de fichiers racine (/) encapsulé (Veritas Volume Manager)

Suivez cette procédure pour restaurer un système de fichiers racine (/) encapsulé sur un nœud. Le nœud en cours de restauration ne doit pas être initialisé. Avant d'entamer la procédure de restauration, assurez-vous que le cluster est en cours d'exécution et signale des erreurs.


Remarque - Le format de la partition du nouveau disque devant être identique à celui du disque défectueux, identifiez le schéma de partitionnement avant d'entamer la procédure et recréez les systèmes de fichiers, le cas échéant.


L'élément phys-schost# fait référence à l'invite du cluster global. Appliquez cette procédure à un cluster global.

Cette procédure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart des commandes possèdent également des formes brèves. À l'exception de la forme du nom, ces commandes sont identiques.

  1. Remplacez le disque défectueux du nœud sur lequel le système de fichiers racine sera restauré.

    Suivez les procédures pour le remplacement d'un disque décrites dans la documentation fournie avec votre serveur.

  2. Initialisez le nœud dont vous effectuez la restauration.
    • Si vous utilisez le CD du SE Oracle Solaris, saisissez la commande suivante lorsque vous recevez l'invite OpenBoot PROM ok :

      ok boot cdrom -s
    • Si vous utilisez un serveur Solaris JumpStart, saisissez la commande suivante lorsque vous recevez l'invite OpenBoot PROM ok :

      ok boot net -s
  3. Créez toutes les partitions et l'espace de swap sur le disque racine en utilisant la commande format.

    Recréez le schéma de partitionnement d'origine du disque défectueux.

  4. Créez le système de fichiers racine (/) ainsi que tout autre système de fichiers requis en utilisant la commande newfs.

    Recréez les systèmes de fichiers d'origine du disque défectueux.


    Remarque - Veillez à créer le système de fichiers /global/.devices/node@nodeid.


  5. Montez le système de fichiers racine (/) sur un point de montage temporaire.
    # mount device temp-mountpoint
  6. Restaurez le système de fichiers racine (/) à partir de la sauvegarde.
    # cd temp-mountpoint
    # ufsrestore rvf dump-device
    # rm restoresymtable
  7. Créez un fichier vide install-db.

    Ce fichier place le nœud en mode d'installation VxVM au prochain redémarrage.

    # touch \
    /temp-mountpoint/etc/vx/reconfig.d/state.d/install-db
  8. Supprimez les entrées suivantes du fichier /temp-mountpoint/etc/system.
    * rootdev:/pseudo/vxio@0:0
    * set vxio:vol_rootdev_is_volume=1
  9. Éditez le fichier / temp-mountpoint /etc/vfstab et remplacez tous les points de montage VxVM par les périphériques de disque standard pour le disque racine, tels que /dev/dsk/c0t0d0s0.
    Example: 
    Change from—
    /dev/vx/dsk/rootdg/rootvol /dev/vx/rdsk/rootdg/rootvol /      ufs   1     no -
    
    Change to—
    /dev/dsk/c0t0d0s0 /dev/rdsk/c0t0d0s0  / ufs   1     no       -
  10. Démontez le système de fichiers temporaire et vérifiez le système de fichiers.
    # cd /
    # umount temp-mountpoint
    # fsck raw-disk-device
  11. Installez le bloc d'initialisation sur le nouveau disque.
    # /usr/sbin/installboot /usr/platform/`uname -i`/lib/fs/ufs/bootblk raw-disk-device
  12. Réinitialisez le nœud en mode multiutilisateur.
    # reboot
  13. Mettez à jour l'ID de périphérique scdidadm(1M).
    # cldevice repair /dev/rdsk/c0t0d0
  14. Exécutez la commande encapsulée clvxvm pour encapsuler le disque, puis redémarrez.
  15. En cas de conflit en code mineur avec un autre système, démontez les périphériques globaux et affectez un nouveau code mineur au groupe de disques.
    • Démontez le système de fichiers de périphériques globaux sur le nœud du cluster.

      # umount /global/.devices/node@nodeid
    • Affectez un nouveau code mineur au groupe de disques rootdg sur le nœud du cluster.

      # vxdg reminor rootdg 100
  16. Arrêtez et réinitialisez le nœud en mode cluster.
    # shutdown -g0 -i6 -y

Exemple 12-9 Restauration du système de fichiers racine (/) encapsulé (Veritas Volume Manager)

L'exemple suivant illustre un système de fichiers racine (/) encapsulé restauré sur le nœud phys-schost-1 à partir du périphérique à bande /dev/rmt/0.

[Replace the failed disk and boot the node:]

Initialisez le nœud à partir du CD du SE Oracle Solaris. Lorsque vous recevez l'invite OpenBoot PROM ok, saisissez la commande suivante :

ok boot cdrom -s
...
[Use format and newfs to create partitions and file systems]
[Mount the root file system on a temporary mount point:]
# mount /dev/dsk/c0t0d0s0 /a
[Restore the root file system:]
# cd /a
# ufsrestore rvf /dev/rmt/0
# rm restoresymtable
[Create an empty install-db file:]
# touch /a/etc/vx/reconfig.d/state.d/install-db
[Edit /etc/system on the temporary file system and 
remove or comment out the following entries:]
    # rootdev:/pseudo/vxio@0:0
    # set vxio:vol_rootdev_is_volume=1
[Edit /etc/vfstab on the temporary file system:]
Example: 
Change from—
/dev/vx/dsk/rootdg/rootvol /dev/vx/rdsk/rootdg/rootvol / ufs 1 no-

Change to—
/dev/dsk/c0t0d0s0 /dev/rdsk/c0t0d0s0  / ufs   1     no       -
[Unmount the temporary file system, then check the file system:]
# cd /
# umount /a
# fsck /dev/rdsk/c0t0d0s0
[Install a new boot block:]
# /usr/sbin/installboot /usr/platform/`uname \
-i`/lib/fs/ufs/bootblk /dev/rdsk/c0t0d0s0
[Reboot:]
# reboot
[Update the disk ID:]
# cldevice repair /dev/rdsk/c0t0d0
[Encapsulate the disk::]
# vxinstall
Choose to encapsulate the root disk.
[If a conflict  in minor number occurs, reminor the rootdg disk group:]
# umount /global/.devices/node@nodeid
# vxdg reminor rootdg 100
# shutdown -g0 -i6 -y

Voir aussi

Pour plus d'informations sur la mise en miroir du disque racine encapsulé, reportez-vous au Guide d’installation du logiciel Oracle Solaris Cluster.