Utilisez cette procédure pour restaurer les systèmes de fichiers root ZFS (/) sur un nouveau disque, par exemple après le remplacement d'un disque root défectueux. Le noeud en cours de restauration ne doit pas être initialisé. Avant d'entamer la procédure de restauration, assurez-vous que le cluster est en cours d'exécution et ne signale aucune erreur. UFS est pris en charge, sauf en tant que système de fichiers root. UFS peut être utilisé sur les métapériphériques dans les ensembles de métadonnées Solaris Volume Manager des disques partagés.
L'élément phys-schost# fait référence à l'invite du cluster global. Appliquez cette procédure à un cluster global.
Cette procédure contient la forme longue des commandes d'Oracle Solaris Cluster. La plupart des commandes possèdent également des formes brèves. A l'exception de la forme du nom, ces commandes sont identiques.
Utilisez un noeud autre que celui dont vous effectuez la restauration.
Exécutez cette commande à partir d'un noeud du metaset autre que le noeud dont vous effectuez la suppression. Le noeud en cours de récupération étant hors ligne, le système affiche l'erreur RPC: Rpcbind failure - RPC: Timed out. Ignorez-la et passez à l'étape suivante.
# metaset -s setname -f -d -h nodelist
Spécifie le nom de l'ensemble de disques.
Supprime le dernier hôte de l'ensemble de disques.
Supprime dans l'ensemble de disques.
Spécifie le nom du noeud à supprimer de l'ensemble de disques.
Pour plus d'informations, reportez-vous à la section Remplacement d’un disque dans un pool root ZFS (SPARC ou x86/VTOC) du manuel Gestion des systèmes de fichiers ZFS dans OracleSolaris 11.2 .
Pour récupérer le pool root ZFS ou des instantanés du pool root, suivez la procédure décrite à la section Remplacement d’un disque dans un pool root ZFS (SPARC ou x86/VTOC) du manuel Gestion des systèmes de fichiers ZFS dans OracleSolaris 11.2 .
Si le fichier de sauvegarde /.globaldevices existe dans le répertoire de sauvegarde, il est restauré en même temps que le système de fichiers root ZFS. Le fichier n'est pas créé automatiquement par le service SMF globaldevices.
# reboot
# cldevice repair rootdisk
# metadb -c copies -af raw-disk-device
Spécifie le nombre de répliques à créer.
Périphérique de disque brut sur lequel créer les répliques.
Ajoute des répliques.
Pour plus d'informations, reportez-vous à la page de manuel metadb(1M).
phys-schost-2# metaset -s setname -a -h nodelist
Crée et ajoute l'hôte à l'ensemble de disques.
Le noeud est redémarré en mode cluster. Le cluster est prêt à l'emploi.
L'exemple suivant montre le système de fichiers root (/) restauré sur le noeud phys-schost-1. La commande metaset est exécutée à partir d'un autre noeud du cluster (phys-schost-2) pour supprimer et ultérieurement rajouter le noeud phys-schost-1 à l'ensemble de disques schost-1. Toutes les autres commandes sont exécutées à partir de phys-schost-1. Un nouveau bloc d'initialisation est créé sur /dev/rdsk/c0t0d0s0 et trois répliques de base de données d'état sont recréées sur /dev/rdsk/c0t0d0s4. Pour plus d'informations sur la restauration des données, reportez-vous à la section Résolution des problèmes de données dans un pool de stockage ZFS du manuel Gestion des systèmes de fichiers ZFS dans OracleSolaris 11.2 .
[Assume a role that provides solaris.cluster.modify RBAC authorization on a cluster node other than the node to be restored.] [Remove the node from the metaset:] phys-schost-2# metaset -s schost-1 -f -d -h phys-schost-1 [Replace the failed disk and boot the node:] Restore the root (/) and /usr file system using the procedure in the Solaris system administration documentation [Reboot:] # reboot [Replace the disk ID:] # cldevice repair /dev/dsk/c0t0d0 [Re-create state database replicas:] # metadb -c 3 -af /dev/rdsk/c0t0d0s4 [Add the node back to the metaset:] phys-schost-2# metaset -s schost-1 -a -h phys-schost-1