Tâche |
Pour les instructions, voir... |
---|---|
Pour Solstice DiskSuite/Solaris Volume Manager, restaurer les fichiers de manière interactive en suivant les procédures de restauration Solaris |
Restauration interactive de fichiers individuels (Solstice DiskSuite/Solaris Volume Manager) |
Pour Solstice DiskSuite/Solaris Volume Manager, restaurer le système de fichiers racine (/) |
Restauration du système de fichiers racine (/) (Solstice DiskSuite/Solaris Volume Manager) |
| |
Pour VERITAS Volume Manager, restaurer le système de fichiers racine (/) non encapsulé |
Restauration d'un système de fichiers racine (/) non encapsulé (VERITAS Volume Manager) |
Pour VERITAS Volume Manager, restaurer le système de fichiers racine (/) encapsulé |
Restauration d'un système de fichiers racine (/) encapsulé (VERITAS Volume Manager) |
Suivez cette procédure pour restaurer un ou plusieurs fichiers individuels. Assurez-vous que le cluster fonctionne sans problème avant de lancer la procédure de restauration.
Devenez superutilisateur sur le noeud du cluster que vous souhaitez restaurer.
Arrêtez tous les services de données qui utilisent les fichiers à restaurer.
# scswitch -z -g groupe_ressources[,...] -h ““ |
Restaurez les fichiers à l'aide de la commande ufsrestore.
Suivez cette procédure pour restaurer les systèmes de fichiers racine (/) sur un nouveau disque, par exemple après le remplacement d'un disque d'initialisation défectueux. Le noeud restauré ne doit pas être initialisé. Assurez-vous que le cluster fonctionne sans problème avant de lancer la procédure de restauration.
comme vous devez partitionner le nouveau disque selon le même format que le disque défectueux, identifiez le plan de partitionnement avant de commencer la procédure, et recréez comme nécessaire les systèmes de fichiers.
Devenez superutilisateur sur un noeud d' un cluster ayant accès au méta-ensemble et différent du noeud à restaurer.
Supprimez de tous les méta-ensembles le nom d'hôte du noeud en cours de restauration.
Exécutez cette commande à partir de n'importe quel noeud du méta-ensemble, en dehors de celui que vous supprimez.
# metaset -s nom_ensemble -f -d -h liste_noeuds |
Indique le nom de l'ensemble de disques.
Force la suppression.
Supprime des éléments de l'ensemble de disques.
Indique le nom du noeud à supprimer de l'ensemble de disques.
Remplacez le disque défectueux du noeud sur lequel le système de fichiers (/) racine doit être restauré.
Reportez-vous aux procédures de remplacement de disques dans la documentation fournie avec le serveur.
Initialisez le noeud à restaurer.
Si vous utilisez le CD Solaris, exécutez la commande suivante :
ok boot cdrom -s |
Si vous utilisez un serveur Solaris JumpStartTM, exécutez la commande suivante :
ok boot net -s |
Créez toutes les partitions et remplacez le disque racine à l'aide de la commande format(1M).
Recréez le plan de partitionnement initial du disque défectueux.
Créez le système de fichiers racine (/) et d'autres systèmes de fichiers éventuels, à l'aide de la commande newfs( 1M).
Recréez les systèmes de fichiers initiaux du disque défectueux.
n'oubliez pas de créer le système de fichiers /global/.devices/node@nodeid.
Montez le système de fichiers racine (/) sur un point de montage temporaire.
# mount périphérique point_montage_temporaire |
Utilisez les commandes suivantes pour restaurer le système de fichiers racine (/).
# cd point_montage_temporaire # ufsrestore rvf périphérique_sauvegarde # rm restoresymtable # cd / # umount point_montage_temporaire # fsck périphérique_disques_bruts |
Le système de fichiers est restauré.
Installez un nouveau bloc d'initialisation sur le nouveau disque.
# /usr/sbin/installboot /usr/platform/`uname -ì/lib/fs/ufs/bootblk périphérique_disques_bruts |
Réinitialisez le noeud en mode monoutilisateur.
# reboot -- "-s" |
Remplacez l'ID du disque à l'aide de la commande scdidadm( 1M).
# scdidadm -R disque_racine |
Utilisez la commande metadb( 1M) pour recréer les répliques des bases de données d'état.
# metadb -c copies -af périphérique_disques_bruts |
Indique le nombre de répliques à créer.
Périphérique de disques bruts sur lequel seront créées les répliques.
Ajoute les répliques.
Réinitialisez le noeud en mode cluster.
Lancez la réinitialisation.
# reboot |
Pendant l'initialisation, vous verrez peut-être apparaître un message d'erreur ou d'avertissement se terminant par l'instruction suivante :
Taper Ctrl-D pour procéder au démarrage normal (ou donner le mot de passe de racine pour la maintenance du système) : |
Appuyez sur Ctrl-D pour effectuer l'initialisation en mode multi-utilisateurs.
Depuis un noeud de cluster différent du noeud restauré, utilisez la commande metaset(1M) pour ajouter le noeud restauré à tous les méta-ensembles.
phys-schost-2# metaset -s nom_ensemble -a -h liste_noeuds |
Crée et ajoute l'hôte à l'ensemble de disques.
Le noeud est réinitialisé en mode cluster. Le cluster est prêt à être utilisé.
L'exemple suivant montre le système de fichiers racine (/) restauré sur le noeud phys-schost-1 depuis le lecteur de bande /dev/rmt/0. La commande metaset est exécutée à partir d'un autre noeud du cluster, phys-schost-2, pour supprimer et ensuite ré-ajouter le noeud phys-schost-1 à l'ensemble de disques schost-1. Toutes les autres commandes sont exécutées à partir de phys-schost-1. Un nouveau bloc d'initialisation est créé sur /dev/rdsk/c0t0d0s0, et trois répliques de bases de données d'état sont recréées sur /dev/rdsk/c0t0d0s4.
[Devenez superutilisateur sur un noeud autre que le noeud à restaurer.] [Supprimer le noeud du méta-ensemble :] phys-schost-2# metaset -s schost-1 -f -d -h phys-schost-1 [Remplacez le disque défaillant et initialisez le noeud :] ok boot cdrom -s [Utilisez format et newfs pour recréer des partitions et des systèmes de fichiers.] [Montez le système de fichiers racine sur un point de montage temporaire :] # mount /dev/dsk/c0t0d0s0 /a [Restaurez le système de fichiers racine :] # cd /a # ufsrestore rvf /dev/rmt/0 # rm restoresymtable # cd / # umount /a # fsck /dev/rdsk/c0t0d0s0 [Installez un nouveau bloc d'initialisation :] # /usr/sbin/installboot /usr/platform/`uname \ -ì/lib/fs/ufs/bootblk /dev/rdsk/c0t0d0s0 [Réinitialisez en mode mono-utilisateur :] # reboot -- "-s" [Remplacez l'ID du disque :] # scdidadm -R /dev/dsk/c0t0d0 [Recréez les répliques de la base de données d'état :] # metadb -c 3 -af /dev/rdsk/c0t0d0s4 # reboot Press CTL-d to boot into multiuser mode. [Rajoutez le noeud dans le méta-ensemble :] phys-schost-2# metaset -s schost-1 -a -h phys-schost-1 |
Utilisez cette procédure pour restaurer un système de fichiers racine (/) présent sur un métapériphérique au moment où les sauvegardes ont été effectuées. Effectuez cette procédure, par exemple, en cas d'altération d'un disque racine, remplacé par un nouveau disque. Le noeud restauré ne doit pas être initialisé. Assurez-vous que le cluster fonctionne sans problème avant de lancer la procédure de restauration.
comme vous devez partitionner le nouveau disque selon le même format que le disque défectueux, identifiez le plan de partitionnement avant de commencer la procédure, et recréez comme nécessaire les systèmes de fichiers.
Devenez superutilisateur sur un noeud de cluster ayant accès au méta-ensemble et différent du noeud à restaurer.
Supprimez de tous les méta-ensembles le nom d'hôte du noeud en cours de restauration.
# metaset -s nom_ensemble -f -d -h liste_noeuds |
Indique le nom du méta-ensemble.
Force la suppression.
Effectue la suppression dans le méta-ensemble.
Indique le nom du noeud à supprimer du méta-ensemble.
Remplacez le disque défectueux du noeud sur lequel le système de fichiers (/) racine doit être restauré.
Reportez-vous aux procédures de remplacement de disques dans la documentation fournie avec le serveur.
Initialisez le noeud à restaurer.
Si vous utilisez le CD Solaris, exécutez la commande suivante :
ok boot cdrom -s |
Si vous utilisez un serveur JumpStart, exécutez la commande suivante :
ok boot net -s |
Créez toutes les partitions et remplacez le disque racine à l'aide de la commande format(1M).
Recréez le plan de partitionnement initial du disque défectueux.
Créez le système de fichiers racine (/) et d'autres systèmes de fichiers éventuels, à l'aide de la commande newfs(1M).
Recréez les systèmes de fichiers initiaux du disque défectueux.
n'oubliez pas de créer le système de fichiers /global/.devices/node@nodeid.
Montez le système de fichiers racine (/) sur un point de montage temporaire.
# mount point_montage_temporaire_périphérique |
Utilisez les commandes suivantes pour restaurer le système de fichiers racine (/).
# cd point_montage_temporaire # ufsrestore rvf périphérique_sauvegarde # rm restoresymtable |
Installez un nouveau bloc d'initialisation sur le nouveau disque.
# /usr/sbin/installboot /usr/platform/`uname -ì/lib/fs/ufs/bootblkpériphérique_disques_bruts |
Dans le fichier /point_montage_temporaire/etc/system supprimez les lignes relatives aux informations racine MDD.
* Begin MDD root info (do not edit) forceload: misc/md_trans forceload: misc/md_raid forceload: misc/md_mirror forceload: misc/md_hotspares forceload: misc/md_stripe forceload: drv/pcipsy forceload: drv/glm forceload: drv/sd rootdev:/pseudo/md@0:0,10,blk * End MDD root info (do not edit) |
Éditez le fichier /point_montage_temp/etc/vfstab et remplacez l'entrée racine d'un métapériphérique par la tranche normale correspondante pour chaque système de fichiers du disque racine faisant partie du métapériphérique.
Example: Change from— /dev/md/dsk/d10 /dev/md/rdsk/d10 / ufs 1 no - Change to— /dev/dsk/c0t0d0s0 /dev/rdsk/c0t0d0s0 /usr ufs 1 no - |
Démontez le système de fichiers temporaire et vérifiez le périphérique de disques bruts.
# cd / # umount point_montage_temporaire # fsck périphérique_disques_bruts |
Réinitialisez le noeud en mode monoutilisateur.
# reboot -- "-s" |
Remplacez l'ID du disque à l'aide de la commande scdidadm.
# scdidadm -R disque_racine |
Utilisez la commande metadb(1M) pour recréer les répliques des bases de données d'état.
# metadb -c copies -af périphérique_disques_bruts |
Indique le nombre de répliques à créer.
Crée les répliques de base de données d'état initiales sur le périphérique de disques bruts nommé.
Réinitialisez le noeud en mode cluster.
Lancez la réinitialisation.
# reboot |
Pendant l'initialisation, vous verrez apparaître des messages d'erreur ou d'avertissement se terminant par l'instruction suivante :
Taper Ctrl-D pour procéder au démarrage normal (ou donner le mot de passe de racine pour la maintenance du système) : |
Appuyez sur Ctrl-D pour effectuer l'initialisation en mode multi-utilisateurs.
Depuis un noeud de cluster différent du noeud restauré, utilisez la commande metaset(1M) pour ajouter le noeud restauré à tous les méta-ensembles.
phys-schost-2# metaset -s nom_ensemble -a -h liste_noeuds |
Ajoute (crée) le méta-ensemble.
Définissez le métapériphérique/miroir pour la racine (/) en suivant les instructions de la documentation de Solstice DiskSuite.
Le noeud est réinitialisé en mode cluster. Le cluster est prêt à être utilisé.
L'exemple suivant montre le système de fichiers racine (/) restauré sur le noeud phys-schost-1 depuis le lecteur de bande /dev/rmt/0. La commande metaset est exécutée à partir d'un autre noeud du cluster, phys-schost-2, pour retirer et ensuite rajouter le noeud phys-schost-1 au méta-ensemble schost-1. Toutes les autres commandes sont exécutées à partir de phys-schost-1. Un nouveau bloc d'initialisation est créé sur /dev/rdsk/c0t0d0s0, et trois répliques de bases de données d'état sont recréées sur /dev/rdsk/c0t0d0s4.
[Devenez superutilisateur sur un noeud de cluster avec accès au méta-ensemble, autre que le noeud à restaurer.] [Supprimez le noeud du méta-ensemble :] phys-schost-2# metaset -s schost-1 -f -d -h phys-schost-1 [Remplacez le disque défaillant et initialisez le noeud :] ok boot cdrom -s [Utilisez format et newfs pour recréer des partitions et les systèmes de fichiers.] [Montez le système de fichiers racine sur un point de montage temporaire :] # mount /dev/dsk/c0t0d0s0 /a [Restaurez le système de fichiers racine :] # cd /a # ufsrestore rvf /dev/rmt/0 # rm restoresymtable [Installez un nouveau bloc d'initialisation :] # /usr/sbin/installboot /usr/platform/`uname \ -ì/lib/fs/ufs/bootblk /dev/rdsk/c0t0d0s0 [Supprimez les lignes dans le fichier /point_montage_temporaire/etc/system pour les informations racine MDD :] * Begin MDD root info (do not edit) forceload: misc/md_trans forceload: misc/md_raid forceload: misc/md_mirror forceload: misc/md_hotspares forceload: misc/md_stripe forceload: drv/pcipsy forceload: drv/glm forceload: drv/sd rootdev:/pseudo/md@0:0,10,blk * End MDD root info (do not edit) [Modifiez le fichier /point_montage_temporaire/etc/vfstab] Example: Change from— /dev/md/dsk/d10 /dev/md/rdsk/d10 / ufs 1 no - Change to— /dev/dsk/c0t0d0s0 /dev/rdsk/c0t0d0s0 /usr ufs 1 no - [Démontez le système de fichiers temporaire et contrôlez le périphérique de disques bruts :] # cd / # umount /a # fsck /dev/rdsk/c0t0d0s0 [Réinitialisez en mode monoutilisateur :] # reboot -- "-s" [Remplacez l'ID de disque :] # scdidadm -R /dev/dsk/c0t0d0 [Recréez les répliques de base de données d'état :] # metadb -c 3 -af /dev/rdsk/c0t0d0s4 # reboot Appuyez sur CTRL-d pour effectuer l'initialisation en mode multi-utilisateurs. [Rajoutez le noeud dans le méta-ensemble :] phys-schost-2# metaset -s schost-1 -a -h phys-schost-1 |
Cette procédure permet de restaurer sur un noeud un système de fichiers racine (/) non encapsulé. Le noeud restauré ne doit pas être initialisé. Assurez-vous que le cluster fonctionne sans problème avant de lancer la procédure de restauration.
comme vous devez partitionner le nouveau disque selon le même format que le disque défectueux, identifiez le plan de partitionnement avant de commencer la procédure, et recréez comme nécessaire les systèmes de fichiers.
Remplacez le disque défectueux sur le noeud dont le système de fichiers racine doit être restauré.
Reportez-vous aux procédures de remplacement de disques dans la documentation fournie avec le serveur.
Initialisez le noeud à restaurer.
Si vous utilisez le CD Solaris, exécutez la commande suivante :
ok boot cdrom -s |
Si vous utilisez un serveur JumpStart, exécutez la commande suivante :
ok boot net -s |
Créez toutes les partitions et remplacez le disque racine à l'aide de la commande format(1M).
Recréez le plan de partitionnement initial du disque défectueux.
Créez le système de fichiers racine (/) et d'autres systèmes de fichiers éventuels, à l'aide de la commande newfs(1M).
Recréez les systèmes de fichiers initiaux du disque défectueux.
n'oubliez pas de créer le système de fichiers /global/.devices/node@nodeid.
Montez le système de fichiers racine (/) sur un point de montage temporaire.
# mount périphérique point_montage_temporaire |
Rétablissez le système de fichiers racine (/) à partir de la copie de sauvegarde, démontez et vérifiez le système de fichiers.
# cd point:_montage_temporaire # ufsrestore rvf périphérique_sauvegarde # rm restoresymtable # cd / # umount point_montage_temporaire # fsck périphérique_disques_bruts |
Le système de fichiers est restauré.
Installez un nouveau bloc d'initialisation sur le nouveau disque.
# /usr/sbin/installboot /usr/platform/`uname -ì/lib/fs/ufs/bootblk périphérique_disques_bruts |
Réinitialisez le noeud en mode monoutilisateur.
Lancez la réinitialisation.
# reboot -- "-s" |
Pendant l'initialisation, vous verrez apparaître des messages d'erreur ou d'avertissement se terminant par l'instruction suivante :
Taper Ctrl-D pour procéder au démarrage normal (ou donner le mot de passe de racine pour la maintenance du système) : |
Entrez le mot de passe racine.
Mettez à jour l'ID du disque à l'aide de la commande scdidadm.
# scdidadm -R /dev/rdsk/périphérique_disques |
Appuyez sur CTRL-d pour reprendre en mode multiutilisateurs.
Le noeud est réinitialisé en mode cluster. Le cluster est prêt à être utilisé.
L'exemple suivant illustre la restauration d'un système de fichiers racine (/) non encapsulé sur le noeud phys-schost-1 à partir du périphérique de bande /dev/rmt/0.
[Remplacez le disque défaillant et initialisez le noeud :] ok boot cdrom -s [Utilisez format et newfs pour créer des partitions et des systèmes de fichiers] [Montez le système de fichiers racine sur un point de montage temporaire :] # mount /dev/dsk/c0t0d0s0 /a [Restaurez le système de fichier racine :] # cd /a # ufsrestore rvf /dev/rmt/0 # rm restoresymtable # cd / # umount /a # fsck /dev/rdsk/c0t0d0s0 [Installez un nouveau bloc d'initialisation :] # /usr/sbin/installboot /usr/platform/`uname \ -ì/lib/fs/ufs/bootblk /dev/rdsk/c0t0d0s0 [Réinitialisez en mode mono-utilisateur :] # reboot -- "-s" [Mettez à jour l'ID du disque :] # scdidadm -R /dev/rdsk/c0t0d0 [Appuyez sur CTRL-d pour revenir en mode multi-utilisateur. ] |
Cette procédure permet de restaurer sur un noeud un système de fichiers racine (/) encapsulé. Le noeud restauré ne doit pas être initialisé. Assurez-vous que le cluster fonctionne sans problème avant de lancer la procédure de restauration.
comme vous devez partitionner le nouveau disque selon le même format que le disque défectueux, identifiez le plan de partitionnement avant de commencer la procédure, et recréez comme nécessaire les systèmes de fichiers.
Remplacez le disque défectueux sur le noeud dont le système de fichiers racine doit être restauré.
Reportez-vous aux procédures de remplacement de disques dans la documentation fournie avec le serveur.
Initialisez le noeud à restaurer.
Si vous utilisez le CD Solaris, exécutez la commande suivante :
ok boot cdrom -s |
Si vous utilisez un serveur JumpStart, exécutez la commande suivante :
ok boot net -s |
Créez toutes les partitions et remplacez le disque racine à l'aide de la commande format(1M).
Recréez le plan de partitionnement initial du disque défectueux.
Créez le système de fichiers racine (/) et d'autres systèmes de fichiers éventuels, à l'aide de la commande newfs(1M).
Recréez les systèmes de fichiers initiaux du disque défectueux.
n'oubliez pas de créer le système de fichiers /global/.devices/node@nodeid.
Montez le système de fichiers racine (/) sur un point de montage temporaire.
# mount périphérique point_montage_temporaire |
Restaurez le système de fichiers racine (/) à partir de la sauvegarde.
# cd point_montage_temporaire # ufsrestore rvf périphérique_sauvegarde # rm restoresymtable |
Créez un fichier install-db vide.
Le noeud sera en mode d'installation VxVM à la réinitialisation suivante.
# touch /point_montage_temporaire/etc/vx/reconfig.d/state.d/install-db |
Supprimez les entrées suivantes du fichier /point_montage_temporaire/etc/system.
* rootdev:/pseudo/vxio@0:0 * set vxio:vol_rootdev_is_volume=1 |
Éditez le fichier /point_montage_temporaire/etc/vfstab et remplacez tous les points de montage de VxVM par les périphériques de disques standard du disque racine, tels que /dev/dsk/c0t0d0s0.
Example: Change from— /dev/vx/dsk/rootdg/rootvol /dev/vx/rdsk/rootdg/rootvol / ufs 1 no - Change to— /dev/dsk/c0t0d0s0 /dev/rdsk/c0t0d0s0 / ufs 1 no - |
Démontez le système de fichiers temporaire et vérifiez-le.
# cd / # umount point_montage_temporaire # fsck périphérique_disques_bruts |
Installez le nouveau bloc d'initialisation sur le nouveau disque.
# /usr/sbin/installboot /usr/platform/`uname -ì/lib/fs/ufs/bootblk périphérique_disques_bruts |
Réinitialisez le noeud en mode monoutilisateur.
# reboot -- "-s" |
Mettez à jour l'ID du disque à l'aide de scdidadm( 1M).
# scdidadm -R /dev/rdsk/c0t0d0 |
Exécutez vxinstall pour encapsuler le disque et réinitialiser.
# vxinstall |
Si le code mineur entre en conflit avec celui d'un autre système, démontez les périphériques globaux et attribuez un nouveau code mineur au groupe de disques.
Démontez le système de fichiers de périphériques globaux sur le noeud du cluster.
# umount /global/.devices/node@nodeid |
Attribuez un autre code mineur au groupe de disques rootdg du noeud de cluster.
# vxdg reminor rootdg 100 |
Arrêtez le noeud et réinitialisez-le en mode cluster.
# shutdown -g0 -i6 -y |
L'exemple suivant montre un système de fichiers racine (/) encapsulé restauré sur le noeud phys-schost-1 depuis le lecteur de bande /dev/rmt/0.
[Remplacez le disque défectueux et initialisez le noeud :] ok boot cdrom -s [Utilisez format et newfs pour créer des partitions et des systèmes de fichiers.] [Montez le système de fichiers racine sur un point de montage temporaire :] # mount /dev/dsk/c0t0d0s0 /a [Restaurez le système de fichiers racine :] # cd /a # ufsrestore rvf /dev/rmt/0 # rm restoresymtable [Créez un fichier install-db vide :] # touch /a/etc/vx/reconfig.d/state.d/install-db [Modifiez /etc/system sur le système de fichiers temporaire et supprimez les entrées suivantes :] # rootdev:/pseudo/vxio@0:0 # set vxio:vol_rootdev_is_volume=1 [Modifiez /etc/vfstab sur le système de fichiers temporaire :] Example: Change from— /dev/vx/dsk/rootdg/rootvol /dev/vx/rdsk/rootdg/rootvol / ufs 1 no- Change to— /dev/dsk/c0t0d0s0 /dev/rdsk/c0t0d0s0 / ufs 1 no - [Démontez le système de fichiers temporaire, puis contrôlez le système de fichiers :] # cd / # umount /a # fsck /dev/rdsk/c0t0d0s0 [Installez un nouveau bloc d'initialisation :] # /usr/sbin/installboot /usr/platform/`uname \ -ì/lib/fs/ufs/bootblk /dev/rdsk/c0t0d0s0 [Réinitialisez en mode mono-utilisateur :] # reboot -- "-s" [Mettez à jour l'ID du disque :] # scdidadm -R /dev/rdsk/c0t0d0 [Éxécutez vxinstall :] # vxinstall Choisissez d'encapsuler le disque root. [S'il existe un conflit au niveau du code mineur, attribuez un autre code mineur au groupe de disques rootdg :] # umount /global/.devices/node@nodeid # vxdg reminor rootdg 100 # shutdown -g0 -i6 -y |
Pour obtenir des instructions sur la façon de définir le miroir du disque racine encapsulé, reportez-vous au Guide d'installation du logiciel Sun Cluster 3.1 10/03.