JavaScript is required to for searching.
Ignorer les liens de navigation
Quitter l'aperu
Guide d'administration système d'Oracle Solaris Cluster     Oracle Solaris Cluster 4.1 (Français)
search filter icon
search icon

Informations document

Préface

1.  Présentation de l'administration d'Oracle Solaris Cluster

2.  Oracle Solaris Cluster et RBAC

3.  Fermeture et initialisation d'un cluster

4.  Méthodes de réplication de données

5.  Administration des périphériques globaux, du contrôle de chemin de disque et des systèmes de fichiers de cluster

6.  Gestion du quorum

7.  Administration des interconnexions de cluster et des réseaux publics

8.  Ajout et suppression d'un noeud

9.  Administration du cluster

10.  Configuration du contrôle de l'utilisation de la CPU

11.  Mise à jour du logiciel

12.  Sauvegarde et restauration d'un cluster

Restauration d'un cluster

Sauvegarde en ligne pour les systèmes mis en miroir (Solaris Volume Manager)

Sauvegarde de la configuration du cluster

Restauration de fichiers en cluster

Restauration du système de fichiers root (/) ZFS (Solaris Volume Manager)

A.  Exemple

Index

Restauration de fichiers en cluster

Vous pouvez restaurer le système de fichiers root ZFS sur un nouveau disque.

Avant de restaurer les fichiers ou les systèmes de fichiers, munissez-vous des informations suivantes.

Tableau 12-2 Liste des tâches : restauration de fichiers en cluster

Tâche
Instructions
Pour Solaris Volume Manager, restaurez un système de fichiers root (/) ZFS.

Restauration du système de fichiers root (/) ZFS (Solaris Volume Manager)

Suivez cette procédure pour restaurer les systèmes de fichiers root (/) ZFS sur un nouveau disque, par exemple après le remplacement d'un disque racine défectueux. Le noeud en cours de restauration ne doit pas être initialisé. Avant d'entamer la procédure de restauration, assurez-vous que le cluster est en cours d'exécution et ne signale aucune erreur. UFS est pris en charge, sauf en tant que système de fichiers root. UFS peut être utilisé sur les métapériphériques dans les ensembles de métadonnées Solaris Volume Manager des disques partagés.


Remarque - Le format de la partition du nouveau disque devant être identique à celui du disque défectueux, identifiez le schéma de partitionnement avant d'entamer la procédure et recréez les systèmes de fichiers, selon les besoins.


L'élément phys-schost# fait référence à l'invite du cluster global. Appliquez cette procédure à un cluster global.

Cette procédure contient la forme longue des commandes de Oracle Solaris Cluster. La plupart des commandes possèdent également des formes brèves. A l'exception de la forme du nom, ces commandes sont identiques.

  1. Prenez un rôle octroyant une autorisation RBAC de type solaris.cluster.modify sur un noeud du cluster ayant accès aux ensembles de disques auxquels le noeud à restaurer est également joint.

    Utilisez un noeud autre que celui dont vous effectuez la restauration.

  2. Supprimez le nom d'hôte du noeud en cours de restauration de tous les metasets.

    Exécutez cette commande à partir d'un noeud du metaset autre que le noeud dont vous effectuez la suppression. Le noeud en cours de récupération étant hors ligne, le système affiche l'erreur RPC: Rpcbind failure - RPC: Timed out. Ignorez-la et passez à l'étape suivante.

    # metaset -s setname -f -d -h nodelist
    -s setname

    Spécifie le nom de l'ensemble de disques.

    -f

    Supprime le dernier hôte de l'ensemble de disques.

    -d

    Supprime dans l'ensemble de disques.

    -h nodelist

    Spécifie le nom du noeud à supprimer de l'ensemble de disques.

  3. Restaurez le système de fichiers root (/) ZFS.

    Remplacement d’un disque dans un pool racine ZFS (SPARC ou x86/VTOC) du manuel Administration d’Oracle Solaris 11.1 : Systèmes de fichiers ZFS

    Pour récupérer le pool racine ZFS ou des instantanés du pool racine, suivez la procédure décrite à la section Remplacement d’un disque dans un pool racine ZFS (SPARC ou x86/VTOC) du manuel Administration d’Oracle Solaris 11.1 : Systèmes de fichiers ZFS.


    Remarque - Veillez à créer le système de fichiers /global/.devices/node@nodeid.


    Si le fichier de sauvegarde /.globaldevices existe dans le répertoire de sauvegarde, il est restauré en même temps que le système de fichiers root ZFS. Le fichier n'est pas créé automatiquement par le service SMF globaldevices.

  4. Réinitialisez le noeud en mode multiutilisateur.
    # reboot
  5. Remplacez l'ID de périphérique.
    # cldevice repair rootdisk
  6. Utilisez la commande metadb pour recréer les répliques de base de données d'état.
    # metadb -c copies -af raw-disk-device
    -c copies

    Spécifie le nombre de répliques à créer.

    -f raw-disk-device

    Périphérique de disque brut sur lequel créer les répliques.

    -a

    Ajoute des répliques.

    Pour plus d'informations, reportez-vous à la page de manuel metadb(1M).

  7. A partir d'un noeud du cluster autre que le noeud restauré, ajoutez le noeud restauré à tous les ensembles de disques.
    phys-schost-2# metaset -s setname -a -h nodelist
    -a

    Crée et ajoute l'hôte à l'ensemble de disques.

    Le noeud est redémarré en mode cluster. Le cluster est prêt à l'emploi.

Exemple 12-1 Restauration du système de fichiers root (/) ZFS (Solaris Volume Manager)

L'exemple suivant montre le système de fichiers root (/) restauré sur le noeud phys-schost-1. La commande metaset est exécutée à partir d'un autre noeud du cluster (phys-schost-2) pour supprimer et ultérieurement rajouter le noeud phys-schost-1 à l'ensemble de disques schost-1. Toutes les autres commandes sont exécutées à partir de phys-schost-1. Un nouveau bloc d'initialisation est créé sur /dev/rdsk/c0t0d0s0 et trois répliques de base de données d'état sont recréées sur /dev/rdsk/c0t0d0s4. Pour plus d'informations sur la restauration des données, reportez-vous à la section Réparation de données endommagées du manuel Administration d’Oracle Solaris 11.1 : Systèmes de fichiers ZFS.

[Assume a  role that provides solaris.cluster.modify RBAC authorization on a cluster node
    other than the node to be restored.]
[Remove the node from the metaset:]
phys-schost-2# metaset -s schost-1 -f -d -h phys-schost-1
[Replace the failed disk and boot the node:]
Restore the root (/) and /usr file system using the procedure in the Solaris system
    administration documentation
[Reboot:]
# reboot
[Replace the disk ID:]
# cldevice repair /dev/dsk/c0t0d0
[Re-create state database replicas:]
# metadb -c 3 -af /dev/rdsk/c0t0d0s4
[Add the node back to the metaset:]
phys-schost-2# metaset -s schost-1 -a -h phys-schost-1