JavaScript is required to for searching.
Ignorer les liens de navigation
Quitter l'aperu
Guide d'administration système d'Oracle Solaris Cluster     Oracle Solaris Cluster 3.3 3/13 (Français)
search filter icon
search icon

Informations document

Préface

1.  Présentation de l'administration d'Oracle Solaris Cluster

2.  Oracle Solaris Cluster et RBAC

3.  Arrêt et initialisation d'un cluster

4.  Méthodes de réplication de données

5.  Administration des périphériques globaux, du contrôle de chemin de disque et des systèmes de fichiers de cluster

6.  Gestion du quorum

7.  Administration des interconnexions de cluster et des réseaux publics

8.  Ajout et suppression d'un noeud

9.  Administration du cluster

10.  Configuration du contrôle de l'utilisation de la CPU

11.  Application de patchs au logiciel et au microprogramme d'Oracle Solaris Cluster

12.  Sauvegarde et restauration d'un cluster

Restauration d'un cluster

Recherche des noms des systèmes de fichiers à sauvegarder

Détermination du nombre de bandes nécessaires pour une sauvegarde complète

Sauvegarde du système de fichiers root (/)

Sauvegarde en ligne pour les systèmes mis en miroir (Solaris Volume Manager)

Sauvegarde de la configuration du cluster

Restauration de fichiers en cluster

Restauration interactive de fichiers individuels (Solaris Volume Manager)

Restauration du système de fichiers root (/) (Solaris Volume Manager)

Restauration d'un système de fichiers root (/) qui se trouvait sur un volume Solaris Volume Manager

13.  Administration d'Oracle Solaris Cluster avec les interfaces graphiques

A.  Exemple

Index

Restauration de fichiers en cluster

La commande ufsrestore(1M) copie des fichiers sur un disque, défini relativement au répertoire de travail courant, à partir de sauvegardes créées à l'aide de la commande ufsdump(1M). Vous pouvez utiliser ufsrestore pour recharger une hiérarchie de système de fichiers complète à partir d'un vidage de niveau 0 et de tous les vidages incrémentiels qui le suivent, ou pour restaurer un ou plusieurs systèmes de fichiers depuis une bande de vidage quelconque. Si ufsrestore est exécuté par un superutilisateur ou un rôle équivalent, les fichiers sont restaurés avec leur propriétaire, dernière date de modification et mode (autorisations) d'origine.

Avant de restaurer les fichiers ou les systèmes de fichiers, munissez-vous des informations suivantes.

Tableau 12-2 Liste des tâches : restauration de fichiers en cluster

Tâche
Instructions
Pour Solaris Volume Manager, restauration interactive de fichiers
Pour Solaris Volume Manager, restauration du système de fichiers root (/)
 

Restauration interactive de fichiers individuels (Solaris Volume Manager)

Cette procédure permet de restaurer un ou plusieurs fichiers individuels. Avant d'entamer la procédure de restauration, assurez-vous que le cluster est en cours d'exécution et ne signale aucune erreur.

  1. Connectez-vous en tant que superutilisateur ou prenez un rôle octroyant l'autorisation RBAC solaris.cluster.admin sur le noeud de cluster que vous restaurez.
  2. Arrêtez tous les services de données qui utilisent les fichiers à restaurer.
    # clresourcegroup offline resource-group
  3. Restaurez les fichiers.
    # ufsrestore

Restauration du système de fichiers root (/) (Solaris Volume Manager)

Cette procédure permet de restaurer les systèmes de fichiers root (/) sur un nouveau disque, par exemple après le remplacement d'un disque root défectueux. Le noeud en cours de restauration ne doit pas être initialisé. Avant d'entamer la procédure de restauration, assurez-vous que le cluster est en cours d'exécution et ne signale aucune erreur.


Remarque - Le format de la partition du nouveau disque devant être identique à celui du disque défectueux, identifiez le schéma de partitionnement avant d'entamer la procédure et recréez les systèmes de fichiers, selon les besoins.


L'élément phys-schost# fait référence à l'invite du cluster global. Appliquez cette procédure à un cluster global.

Cette procédure contient la forme longue des commandes d'Oracle Solaris Cluster. La plupart des commandes possèdent également des formes brèves. A l'exception de la forme du nom, ces commandes sont identiques.

  1. Connectez-vous en tant que superutilisateur ou prenez un rôle octroyant l'autorisation RBAC solaris.cluster.modify sur un noeud du cluster ayant accès aux ensembles de disques auxquels le noeud à restaurer est également joint.

    Utilisez un noeud autre que celui dont vous effectuez la restauration.

  2. Supprimez le nom d'hôte du noeud en cours de restauration de tous les ensembles de métadonnées.

    Exécutez cette commande à partir d'un noeud du metaset autre que le noeud dont vous effectuez la suppression. Le noeud en cours de récupération étant hors ligne, le système affiche l'erreur RPC: Rpcbind failure - RPC: Timed out. Ignorez-la et passez à l'étape suivante.

    # metaset -s setname -f -d -h nodelist
    -s setname

    Spécifie le nom de l'ensemble de disques.

    -f

    Supprime le dernier hôte de l'ensemble de disques.

    -d

    Supprime dans l'ensemble de disques.

    -h nodelist

    Spécifie le nom du noeud à supprimer de l'ensemble de disques.

  3. Restaurez les systèmes de fichiers root (/) et /usr.

    Pour restaurer les systèmes de fichiers root et /usr, suivez la procédure décrite à la section Restoring UFS Files and File Systems du manuel System Administration Guide: Devices and File Systems. Ignorez l'étape de réinitialisation du système dans la procédure du système d'exploitation Oracle Solaris.


    Remarque - Veillez à créer le système de fichiers /global/.devices/node@nodeid.


  4. Réinitialisez le noeud en mode multiutilisateur.
    # reboot
  5. Remplacez l'ID de périphérique.
    # cldevice repair rootdisk
  6. Exécutez la commande metadb(1M) pour recréer les répliques de la base de données d'état.
    # metadb -c copies -af raw-disk-device
    -c copies

    Spécifie le nombre de répliques à créer.

    -f raw-disk-device

    Périphérique de disque brut sur lequel créer les répliques.

    -a

    Ajoute des répliques.

  7. A partir d'un noeud du cluster autre que le noeud restauré, ajoutez le noeud restauré à tous les ensembles de disques.
    phys-schost-2# metaset -s setname -a -h nodelist
    -a

    Crée et ajoute l'hôte à l'ensemble de disques.

    Le noeud est redémarré en mode cluster. Le cluster est prêt à l'emploi.

Exemple 12-5 Restauration du système de fichiers root (/) (Solaris Volume Manager)

L'exemple suivant illustre la restauration du système de fichiers root (/) sur le noeud phys-schost-1 depuis le périphérique à bande /dev/rmt/0. La commande metaset est exécutée à partir d'un autre noeud du cluster (phys-schost-2) pour supprimer et ultérieurement rajouter le noeud phys-schost-1 à l'ensemble de disques schost-1. Toutes les autres commandes sont exécutées à partir de phys-schost-1. Un nouveau bloc d'initialisation est créé sur /dev/rdsk/c0t0d0s0 et trois répliques de base de données d'état sont recréées sur /dev/rdsk/c0t0d0s4.

[Become superuser or assume a  role that provides solaris.cluster.modify RBAC authorization on a cluster node
    other than the node to be restored.]
[Remove the node from the metaset:]
phys-schost-2# metaset -s schost-1 -f -d -h phys-schost-1
[Replace the failed disk and boot the node:]
Restore the root (/) and /usr file system using the procedure in the Solaris system
    administration documentation
[Reboot:]
# reboot
[Replace the disk ID:]
# cldevice repair /dev/dsk/c0t0d0
[Re-create state database replicas:]
# metadb -c 3 -af /dev/rdsk/c0t0d0s4
[Add the node back to the metaset:]
phys-schost-2# metaset -s schost-1 -a -h phys-schost-1

Restauration d'un système de fichiers root (/) qui se trouvait sur un volume Solaris Volume Manager

Cette procédure permet de restaurer un système de fichiers root (/) qui se trouvait sur un volume Solaris Volume Manager lorsque les sauvegardes ont été effectuées. Effectuez cette procédure dans certaines circonstances, par exemple lorsqu'un disque root est endommagé et remplacé par un nouveau disque. Le noeud en cours de restauration ne doit pas être initialisé. Avant d'entamer la procédure de restauration, assurez-vous que le cluster est en cours d'exécution et ne signale aucune erreur.


Remarque - Le format de la partition du nouveau disque devant être identique à celui du disque défectueux, identifiez le schéma de partitionnement avant d'entamer la procédure et recréez les systèmes de fichiers, selon les besoins.


L'élément phys-schost# fait référence à l'invite du cluster global. Appliquez cette procédure à un cluster global.

Cette procédure contient la forme longue des commandes d'Oracle Solaris Cluster. La plupart des commandes possèdent également des formes brèves. A l'exception de la forme du nom, ces commandes sont identiques.

  1. Connectez-vous en tant que superutilisateur ou prenez un rôle octroyant l'autorisation RBAC solaris.cluster.modifiy sur un noeud de cluster ayant accès à l'ensemble de disques et différent du noeud que vous restaurez.

    Utilisez un noeud autre que celui dont vous effectuez la restauration.

  2. Supprimez le nom d'hôte du noeud en cours de restauration de tous les ensembles de disques auquel il est connecté. Exécutez une fois la commande suivante pour chaque ensemble de disques.
    # metaset -s setname -d -h hostname
    -s setname

    Indique le nom de l'ensemble de métadonnées.

    -f

    Supprime le dernier hôte de l'ensemble de disques.

    -d

    Supprime de l'ensemble de métadonnées.

    -h nodelist

    Spécifie le nom du noeud à supprimer de l'ensemble de métadonnées.

    -h hostname

    Indique le nom de l'hôte.

    -m mediator_host_list

    Indique le nom de l'hôte médiateur à ajouter ou à supprimer de l'ensemble de disques.

  3. Si le noeud est un hôte médiateur à deux chaînes, supprimez le médiateur. Exécutez une fois la commande suivante pour chaque ensemble de disques auquel le noeud est connecté.
    # metaset -ssetname-d -m hostname
  4. Remplacez le disque défectueux sur le noeud sur lequel le système de fichiers root (/) sera restauré.

    Reportez-vous aux procédures de remplacement de disques dans la documentation fournie avec votre serveur.

  5. Initialisez le noeud que vous restaurez. Le noeud réparé est initialisé en mode monoutilisateur à partir du CD-ROM, de sorte que Solaris Volume Manager n'est pas en cours d'exécution sur le noeud.
    • Si vous utilisez le CD du système d'exploitation Oracle Solaris, procédez comme suit :

      • SPARC : saisissez :

        ok boot cdrom -s
      • x86 : insérez le CD dans l'unité de CD du système et initialisez le système en le mettant hors tension puis sous tension. Dans l'écran des paramètres d'initialisation actuels, saisissez b ou i.

                             <<< Current Boot Parameters >>>
        Boot path: /pci@0,0/pci8086,2545@3/pci8086,1460@1d/pci8086,341a@
        7,1/sd@0,0:a
        Boot args:
        
        Type b [file-name] [boot-flags] <ENTER> to boot with options
        or   i <ENTER>                          to enter boot interpreter
        or   <ENTER>                            to boot with defaults
        
                         <<< timeout in 5 seconds >>>
        Select (b)oot or (i)nterpreter: b -s
    • Si vous utilisez un serveur Solaris JumpStart, procédez comme suit :

      • SPARC : saisissez :

        ok boot net -s
      • x86 : insérez le CD dans l'unité de CD du système et initialisez le système en le mettant hors tension puis sous tension. Dans l'écran des paramètres d'initialisation actuels, saisissez b ou i.

                             <<< Current Boot Parameters >>>
        Boot path: /pci@0,0/pci8086,2545@3/pci8086,1460@1d/pci8086,341a@
        7,1/sd@0,0:a
        Boot args:
        
        Type b [file-name] [boot-flags] <ENTER> to boot with options
        or   i <ENTER>                          to enter boot interpreter
        or   <ENTER>                            to boot with defaults
        
                         <<< timeout in 5 seconds >>>
        Select (b)oot or (i)nterpreter: b -s
  6. Créez toutes les partitions et tous les espaces de swap sur le disque root à l'aide de la commande format.

    Recréez le schéma de partitionnement d'origine qui se trouvait sur le disque défectueux.

  7. Créez le système de fichiers root (/) et les autres systèmes de fichiers appropriés à l'aide de la commande newfs

    Recréez les systèmes de fichiers d'origine qui se trouvaient sur le disque défectueux.


    Remarque - Veillez à créer le système de fichiers /global/.devices/node@nodeid.


  8. Montez le système de fichiers root (/) sur un point de montage temporaire.
    # mount device temp-mountpoint
  9. Exécutez les commandes suivantes pour restaurer le système de fichiers root (/).
    # cd temp-mountpoint
    # ufsrestore rvf dump-device
    # rm restoresymtable
  10. Installez un nouveau bloc d'initialisation sur le nouveau disque.
    # /usr/sbin/installboot /usr/platform/`uname -i`/lib/fs/ufs/bootblk 
    raw-disk-device
  11. Supprimez les lignes relatives aux informations root MDD dans le fichier /temp-mountpoint/etc/system.
    * Begin MDD root info (do not edit)
    forceload: misc/md_trans
    forceload: misc/md_raid
    forceload: misc/md_mirror
    forceload: misc/md_hotspares
    forceload: misc/md_stripe
    forceload: drv/pcipsy
    forceload: drv/glm
    forceload: drv/sd
    rootdev:/pseudo/md@0:0,10,blk
    * End MDD root info (do not edit)
  12. Editez le fichier /temp-mountpoint/etc/vfstab pour modifier l'entrée root et la faire passer d'un volume Solaris Volume Manager à une tranche normale correspondante pour chaque système de fichiers du disque root faisant partie du métapériphérique ou volume.
    Example: 
    Change from—
    /dev/md/dsk/d10   /dev/md/rdsk/d10    /      ufs   1     no       -
    
    Change to—
    /dev/dsk/c0t0d0s0 /dev/rdsk/c0t0d0s0  /      ufs   1     no       -
  13. Démontez le système de fichiers temporaire et vérifiez le périphérique de disque brut.
    # cd /
    # umount temp-mountpoint
    # fsck raw-disk-device
  14. Réinitialisez le noeud en mode multiutilisateur.
    # reboot
  15. Remplacez l'ID de périphérique.
    # cldevice repair rootdisk
  16. Utilisez la commande metadb pour recréer les répliques de base de données d'état.
    # metadb -c copies -af raw-disk-device
    -c copies

    Spécifie le nombre de répliques à créer.

    -af raw-disk-device

    Crée des répliques de base de données d'état initiales sur le périphérique de disque brut nommé.

  17. A partir d'un noeud du cluster autre que le noeud restauré, ajoutez le noeud restauré à tous les ensembles de disques.
    phys-schost-2# metaset -s setname -a -h nodelist
    -a

    Ajoute (crée) l'ensemble de métadonnées.

    Configurez le volume/miroir du root (/) en suivant les instructions de la documentation.

    Le noeud est redémarré en mode cluster.

  18. Si le noeud était un hôte médiateur à deux chaînes, ajoutez à nouveau le médiateur.
    phys-schost-2# metaset -s setname -a -m hostname 

Exemple 12-6 Restauration d'un système de fichiers root (/) qui se trouvait sur un volume Solaris Volume Manager

L'exemple suivant illustre la restauration du système de fichiers root (/) sur le noeud phys-schost-1 depuis le périphérique à bande /dev/rmt/0. La commande metaset est exécutée à partir d'un autre noeud du cluster, phys-schost-2, pour supprimer et ajouter à nouveau ultérieurement le noeud phys-schost-1 à l'ensemble de métadonnées schost-1. Toutes les autres commandes sont exécutées à partir de phys-schost-1. Un nouveau bloc d'initialisation est créé sur /dev/rdsk/c0t0d0s0 et trois répliques de base de données d'état sont recréées sur /dev/rdsk/c0t0d0s4.

[Become superuser or assume a role that provides solaris.cluster.modify RBAC
   authorization on a cluster node with access to the metaset, other than the node to be restored.]
[Remove the node from the metaset:]
phys-schost-2# metaset -s schost-1 -d -h phys-schost-1
[Replace the failed disk and boot the node:]

Initialisez le noeud à partir du CD du système d'exploitation Oracle Solaris :

[Use format and newfs to recreate partitions and file systems
.]
[Mount the root file system on a temporary mount point:]
# mount /dev/dsk/c0t0d0s0 /a
[Restore the root file system:]
# cd /a
# ufsrestore rvf /dev/rmt/0
# rm restoresymtable
[Install a new boot block:]
# /usr/sbin/installboot /usr/platform/`uname \
-i`/lib/fs/ufs/bootblk /dev/rdsk/c0t0d0s0

[Remove the lines in / temp-mountpoint/etc/system file for MDD root information:
]
* Begin MDD root info (do not edit)
forceload: misc/md_trans
forceload: misc/md_raid
forceload: misc/md_mirror
forceload: misc/md_hotspares
forceload: misc/md_stripe
forceload: drv/pcipsy
forceload: drv/glm
forceload: drv/sd
rootdev:/pseudo/md@0:0,10,blk
* End MDD root info (do not edit)
[Edit the /temp-mountpoint/etc/vfstab file]
Example: 
Change from—
/dev/md/dsk/d10   /dev/md/rdsk/d10    /      ufs   1     no       -

Change to—
/dev/dsk/c0t0d0s0 /dev/rdsk/c0t0d0s0  /usr   ufs   1     no       -
[Unmount the temporary file system and check the raw disk device:]
# cd /
# umount /a
# fsck /dev/rdsk/c0t0d0s0
[Reboot:]
# reboot
[Replace the disk ID:]
# cldevice repair /dev/rdsk/c0t0d0
[Re-create state database replicas:]
# metadb -c 3 -af /dev/rdsk/c0t0d0s4
[Add the node back to the metaset:]
phys-schost-2# metaset -s schost-1 -a -h phys-schost-1