Tâche |
Pour les instructions, voir... |
---|---|
Pour Solstice DiskSuite/Solaris Volume Manager, restaurer les fichiers de manière interactive en suivant les procédures de restauration Solaris |
Restauration interactive de fichiers individuels (Solstice DiskSuite/Solaris Volume Manager) |
Pour Solstice DiskSuite/Solaris Volume Manager, restaurer le système de fichiers racine (/) |
Restauration du système de fichiers racine (/) (Solstice DiskSuite/Solaris Volume Manager) |
| |
Pour VERITAS Volume Manager, restaurer un système de fichiers racine ( /) non encapsulé |
SPARC : restauration d'un système de fichiers racine /) non encapsulé (VERITAS Volume Manager) |
Pour VERITAS Volume Manager, restaurer un système de fichiers racine (/) encapsulé |
SPARC : restauration d'un système de fichiers racine (/) encapsulé (VERITAS Volume Manager) |
Suivez cette procédure pour restaurer un ou plusieurs fichiers individuels. Assurez-vous que le cluster fonctionne sans problème avant de lancer la procédure de restauration.
Devenez superutilisateur ou endossez un rôle équivalent sur le nœud de cluster à restaurer.
Arrêtez tous les services de données qui utilisent les fichiers à restaurer.
# scswitch -z -g resource-group[,...] -h ““ |
Restaurez les fichiers à l'aide de la commande ufsrestore.
Suivez cette procédure pour restaurer les systèmes de fichiers racine (/) sur un nouveau disque, par exemple après le remplacement d'un disque d'initialisation défectueux. Le nœud restauré ne doit pas être initialisé. Assurez-vous que le cluster fonctionne sans problème avant de lancer la procédure de restauration.
Vous devez partitionner le nouveau disque avec le même format que le disque erroné. Identifiez le type de partition avant de commencer cette procédure et recréez les systèmes de fichiers appropriés.
Devenez superutilisateur ou endossez un rôle équivalent sur un nœud de cluster qui peut accéder aux jeux de disques auxquels le nœud à restaurer est également connecté.
Devenez superutilisateur ou endossez un rôle équivalent sur un nœud différent de celui que vous souhaitez restaurer.
Supprimez de tous les méta-ensembles le nom d'hôte du nœud en cours de restauration.
Exécutez cette commande à partir de n'importe quel nœud du méta-ensemble, en dehors de celui que vous supprimez.
# metaset -s setname -f -d -h nodelist |
Spécifie le nom du jeu de disques.
Force la suppression.
Supprime du jeu de disques.
Indique le nom du nœud à supprimer du jeu de disques.
Restaurez les systèmes de fichiers root (/) et /usr.
Pour restaurer les systèmes de fichiers root et /usr, suivez la procédure du Chapitre 26, Restoring Files and File Systems (Tasks) du System Administration Guide: Devices and File Systems. Ignorez l'étape de la procédure Solaris pour réinitialiser le système.
n'oubliez pas de créer le système de fichiers /global/.devices/node@nodeid.
Réinitialisez le nœud en mode multi-utilisateur.
# reboot |
Remplacez l'ID du disque à l'aide de la commande scdidadm(1M).
# scdidadm -R rootdisk |
Utilisez la commande metadb(1M) pour recréer les répliques des bases de données d'état.
# metadb -c copies -af raw-disk-device |
Indique le nombre de répliques à créer.
Périphérique de disques bruts sur lequel seront créées les répliques.
Ajoute les répliques.
À partir d'un nœud de cluster différent du nœud restauré, utilisez la commande metaset pour ajouter le nœud restauré à tous les jeux de disques.
phys-schost-2# metaset -s setname -a -h nodelist |
Crée et ajoute l'hôte au jeu de disques.
Le nœud est réinitialisé en mode cluster. Le cluster est prêt à être utilisé.
L'exemple suivant illustre la restauration du système de fichiers root (/) sur le nœud phys-schost-1 à partir du périphérique de bande /dev/rmt/0. La commande metaset est exécutée à partir d'un autre nœud du cluster, phys-schost-2, pour supprimer et ensuite ré-ajouter le nœud phys-schost-1 au jeu de disques schost-1. Toutes les autres commandes sont exécutées à partir de phys-schost-1. Un nouveau bloc d'initialisation est créé sur /dev/rdsk/c0t0d0s0, et trois répliques de bases de données d'état sont recréées sur /dev/rdsk/c0t0d0s4.
[Become superuser or assume an equivalent role on a cluster node other than the node to be restored .] [Remove the node from the metaset:] phys-schost-2# metaset -s schost-1 -f -d -h phys-schost-1 [Replace the failed disk and boot the node:] Restore the root (/) and /usr file system using the procedure in the Solaris system administration documentation [Reboot:] # reboot [Replace the disk ID:] # scdidadm -R /dev/dsk/c0t0d0 [Recreate state database replicas:] # metadb -c 3 -af /dev/rdsk/c0t0d0s4 [Add the node back to the metaset:] phys-schost-2# metaset -s schost-1 -a -h phys-schost-1 |
Utilisez cette procédure pour restaurer un système de fichiers racine (/) qui se trouvait sur un métapériphérique Solstice DiskSuite ou un volume Solaris Volume Manager au moment de la réalisation des sauvegardes. Effectuez cette procédure, par exemple, en cas d'altération d'un disque racine, remplacé par un nouveau disque. Le nœud restauré ne doit pas être initialisé. Assurez-vous que le cluster fonctionne sans problème avant de lancer la procédure de restauration.
comme vous devez partitionner le nouveau disque selon le même format que le disque défectueux, identifiez le plan de partitionnement avant de commencer la procédure, et recréez comme nécessaire les systèmes de fichiers.
Devenez superutilisateur ou endossez un rôle équivalent sur un nœud de cluster en accédant à un jeu de disque autre que le nœud à restaurer.
Supprimez de tous les jeux de disques le nom d'hôte du nœud restauré.
# metaset -s setname -f -d -h nodelist |
Indique le nom du méta-ensemble.
Force la suppression.
Effectue la suppression dans le méta-ensemble.
Indique le nom du nœud à supprimer du méta-ensemble.
Remplacez le disque défectueux du nœud sur lequel le système de fichiers (/) racine doit être restauré.
Reportez-vous aux procédures de remplacement de disques dans la documentation fournie avec le serveur.
Initialisez le nœud que vous souhaitez restaurer.
Si vous utilisez le CD de Solaris :
SPARC : à l'invite ok de la mémoire PROM OpenBoot, entrez la commande suivante :
ok boot cdrom -s |
Cx86;Insérez le CD dans le lecteur CD du système et initialisez ce dernier en le mettant successivement hors puis sous tension. Dans l'écran des paramètres d'initialisation actuels, entrez la commande suivante :
<<< Current Boot Parameters >>> Boot path: /pci@0,0/pci8086,2545@3/pci8086,1460@1d/pci8086,341a@ 7,1/sd@0,0:a Boot args: Type b [file-name] [boot-flags] <ENTER> to boot with options or i <ENTER> to enter boot interpreter or <ENTER> to boot with defaults <<< timeout in 5 seconds >>> Select (b)oot or (i)nterpreter: b -s |
Si vous utilisez un serveur Solaris JumpStart TM :
SPARC : à l'invite ok de la mémoire PROM OpenBoot, entrez la commande suivante :
ok boot net -s |
Cx86;Initialisez le système en le mettant successivement hors puis sous tension. Dans l'écran des paramètres d'initialisation actuels, entrez la commande suivante :
<<< Current Boot Parameters >>> Boot path: /pci@0,0/pci8086,2545@3/pci8086,1460@1d/pci8086,341a@ 7,1/sd@0,0:a Boot args: Type b [file-name] [boot-flags] <ENTER> to boot with options or i <ENTER> to enter boot interpreter or <ENTER> to boot with defaults <<< timeout in 5 seconds >>> Select (b)oot or (i)nterpreter: b -s |
Créez toutes les partitions et remplacez le disque racine à l'aide de la commande format.
Recréez le plan de partitionnement initial du disque défectueux.
Créez le système de fichiers racine (/) et d'autres systèmes de fichiers éventuels, à l'aide de la commande newfs.
Recréez les systèmes de fichiers initiaux du disque défectueux.
n'oubliez pas de créer le système de fichiers /global/.devices/node@nodeid.
Montez le système de fichiers racine (/) sur un point de montage temporaire.
# mount device temp-mountpoint |
Utilisez les commandes suivantes pour restaurer le système de fichiers racine (/).
# cd temp-mountpoint # ufsrestore rvf dump-device # rm restoresymtable |
Installez un nouveau bloc d'initialisation sur le nouveau disque.
# /usr/sbin/installboot /usr/platform/`uname -i`/lib/fs/ufs/bootblk raw-disk-device |
Dans le fichier /point_montage_temp/etc/system supprimez les lignes relatives aux informations root MDD.
* Begin MDD root info (do not edit) forceload: misc/md_trans forceload: misc/md_raid forceload: misc/md_mirror forceload: misc/md_hotspares forceload: misc/md_stripe forceload: drv/pcipsy forceload: drv/glm forceload: drv/sd rootdev:/pseudo/md@0:0,10,blk * End MDD root info (do not edit) |
Modifiez le fichier /point_montage-temp/etc/vfstab pour remplacer l'entrée racine d'un métapériphérique Solstice DiskSuite ou d'un volume Solaris Volume Manager par une tranche normale pour chaque système de fichiers du disque racine faisant partie de ce métapériphérique ou de ce volume.
Example: Change from— /dev/md/dsk/d10 /dev/md/rdsk/d10 / ufs 1 no - Change to— /dev/dsk/c0t0d0s0 /dev/rdsk/c0t0d0s0 / ufs 1 no - |
Démontez le système de fichiers temporaire et vérifiez le périphérique de disques bruts.
# cd / # umount temp-mountpoint # fsck raw-disk-device |
Réinitialisez le nœud en mode multiutilisateur.
# reboot |
Remplacez l'ID du disque à l'aide de la commande scdidadm.
# scdidadm -R rootdisk |
Utilisez la commande metadb pour recréer les répliques des bases de données d'état.
# metadb -c copies -af raw-disk-device |
Indique le nombre de répliques à créer.
Crée les répliques de base de données d'état initiales sur le périphérique de disques bruts nommé.
À partir d'un nœud de cluster différent du nœud restauré, utilisez la commande metaset pour ajouter le nœud restauré à tous les jeux de disques.
phys-schost-2# metaset -s setname -a -h nodelist |
Ajoute (crée) le méta-ensemble.
Configurez le métapériphérique ou le volume/miroir de la racine (/) conformément à la documentation Solstice DiskSuite.
Le nœud est réinitialisé en mode cluster. Le cluster est prêt à être utilisé.
L'exemple suivant illustre la restauration du système de fichiers root (/) sur le nœud phys-schost-1 à partir du périphérique de bande /dev/rmt/0. La commande metaset est exécutée à partir d'un autre nœud du cluster, phys-schost-2, pour supprimer et restaurer ultérieurement le nœud phys-schost-1 du méta-ensemble schost-1. Toutes les autres commandes sont exécutées à partir de phys-schost-1. Un nouveau bloc d'initialisation est créé sur /dev/rdsk/c0t0d0s0, et trois répliques de bases de données d'état sont recréées sur /dev/rdsk/c0t0d0s4.
[Become superuser or assume an equivalent role on a cluster node with access to the metaset, other than the node to be restored.] [Remove the node from the metaset:] phys-schost-2# metaset -s schost-1 -f -d -h phys-schost-1 [Replace the failed disk and boot the node:] |
Initialisez le nœud à partir du CD de Solaris :
SPARC : à l'invite ok de la mémoire PROM OpenBoot, entrez la commande suivante :
ok boot cdrom -s |
Cx86;Insérez le CD dans le lecteur CD du système et initialisez ce dernier en le mettant successivement hors puis sous tension. Dans l'écran des paramètres d'initialisation actuels, entrez la commande suivante :
<<< Current Boot Parameters >>> Boot path: /pci@0,0/pci8086,2545@3/pci8086,1460@1d/pci8086,341a@7,1/ sd@0,0:a Boot args: Type b [file-name] [boot-flags] <ENTER> to boot with options or i <ENTER> to enter boot interpreter or <ENTER> to boot with defaults <<< timeout in 5 seconds >>> Select (b)oot or (i)nterpreter: b -s |
[Use format and newfs to recreate partitions and file systems .] [Mount the root file system on a temporary mount point:] # mount /dev/dsk/c0t0d0s0 /a [Restore the root file system:] # cd /a # ufsrestore rvf /dev/rmt/0 # rm restoresymtable [Install a new boot block:] # /usr/sbin/installboot /usr/platform/`uname \ -i`/lib/fs/ufs/bootblk /dev/rdsk/c0t0d0s0 [Remove the lines in / temp-mountpoint/etc/system file for MDD root information: ] * Begin MDD root info (do not edit) forceload: misc/md_trans forceload: misc/md_raid forceload: misc/md_mirror forceload: misc/md_hotspares forceload: misc/md_stripe forceload: drv/pcipsy forceload: drv/glm forceload: drv/sd rootdev:/pseudo/md@0:0,10,blk * End MDD root info (do not edit) [Edit the /temp-mountpoint/etc/vfstab file] Example: Change from— /dev/md/dsk/d10 /dev/md/rdsk/d10 / ufs 1 no - Change to— /dev/dsk/c0t0d0s0 /dev/rdsk/c0t0d0s0 /usr ufs 1 no - [Unmount the temporary file system and check the raw disk device: ] # cd / # umount /a # fsck /dev/rdsk/c0t0d0s0 [Reboot:] # reboot [Replace the disk ID:] # scdidadm -R /dev/rdsk/c0t0d0 [Recreate state database replicas:] # metadb -c 3 -af /dev/rdsk/c0t0d0s4 [Add the node back to the metaset:] phys-schost-2# metaset -s schost-1 -a -h phys-schost-1 |
Cette procédure permet de restaurer sur un nœud un système de fichiers racine (/) non encapsulé. Le nœud restauré ne doit pas être initialisé. Assurez-vous que le cluster fonctionne sans problème avant de lancer la procédure de restauration.
comme vous devez partitionner le nouveau disque selon le même format que le disque défectueux, identifiez le plan de partitionnement avant de commencer la procédure, et recréez comme nécessaire les systèmes de fichiers.
Remplacez le disque défectueux sur le nœud dont le système de fichiers racine doit être restauré.
Reportez-vous aux procédures de remplacement de disques dans la documentation fournie avec le serveur.
Initialisez le nœud que vous souhaitez restaurer.
Si vous utilisez le CD de Solaris, à l'invite ok de la mémoire PROM OpenBoot, entrez la commande suivante :
ok boot cdrom -s |
Si vous utilisez un serveur Solaris JumpStart TM, à l'invite ok de la mémoire PROM OpenBoot, entrez la commande suivante :
ok boot net -s |
Créez toutes les partitions et remplacez le disque racine à l'aide de la commande format.
Recréez le plan de partitionnement initial du disque défectueux.
Créez le système de fichiers racine (/) et d'autres systèmes de fichiers éventuels, à l'aide de la commande newfs.
Recréez les systèmes de fichiers initiaux du disque défectueux.
n'oubliez pas de créer le système de fichiers /global/.devices/node@nodeid.
Montez le système de fichiers racine (/) sur un point de montage temporaire.
# mount device temp-mountpoint |
Rétablissez le système de fichiers racine (/) à partir de la copie de sauvegarde, démontez et vérifiez le système de fichiers.
# cd temp-mountpoint # ufsrestore rvf dump-device # rm restoresymtable # cd / # umount temp-mountpoint # fsck raw-disk-device |
Le système de fichiers est restauré.
Installez un nouveau bloc d'initialisation sur le nouveau disque.
# /usr/sbin/installboot /usr/platform/`uname -i`/lib/fs/ufs/bootblk raw-disk-device |
Réinitialisez le nœud en mode multiutilisateur.
# reboot |
Mettez à jour l'ID du disque à l'aide de la commande scdidadm.
# scdidadm -R /dev/rdsk/disk-device |
Appuyez sur CTRL-d pour reprendre en mode multiutilisateurs.
Le nœud est réinitialisé en mode cluster. Le cluster est prêt à être utilisé.
L'exemple suivant illustre la restauration d'un système de fichiers racine (/) non encapsulé sur le nœud phys-schost-1 à partir du périphérique de bande /dev/rmt/0.
[Replace the failed disk and boot the node:] |
Initialisez le nœud depuis le CD de Solaris. A l'invite ok de la mémoire PROM OpenBoot, entrez la commande suivante :
ok boot cdrom -s ... [Use format and newfs to create partitions and file systems] [Mount the root file system on a temporary mount point:] # mount /dev/dsk/c0t0d0s0 /a [Restore the root file system:] # cd /a # ufsrestore rvf /dev/rmt/0 # rm restoresymtable # cd / # umount /a # fsck /dev/rdsk/c0t0d0s0 [Install a new boot block:] # /usr/sbin/installboot /usr/platform/`uname \ -i`/lib/fs/ufs/bootblk /dev/rdsk/c0t0d0s0 [Reboot:] # reboot [Update the disk ID:] # scdidadm -R /dev/rdsk/c0t0d0 |
Cette procédure permet de restaurer sur un nœud un système de fichiers racine (/) encapsulé. Le nœud restauré ne doit pas être initialisé. Assurez-vous que le cluster fonctionne sans problème avant de lancer la procédure de restauration.
comme vous devez partitionner le nouveau disque selon le même format que le disque défectueux, identifiez le plan de partitionnement avant de commencer la procédure, et recréez comme nécessaire les systèmes de fichiers.
Remplacez le disque défectueux sur le nœud dont le système de fichiers racine doit être restauré.
Reportez-vous aux procédures de remplacement de disques dans la documentation fournie avec le serveur.
Initialisez le nœud que vous souhaitez restaurer.
Si vous utilisez le CD de Solaris, à l'invite ok de la mémoire PROM OpenBoot, entrez la commande suivante :
ok boot cdrom -s |
Si vous utilisez un serveur Solaris JumpStart TM, à l'invite ok de la mémoire PROM OpenBoot, entrez la commande suivante :
ok boot net -s |
Créez toutes les partitions et remplacez le disque racine à l'aide de la commande format.
Recréez le plan de partitionnement initial du disque défectueux.
Créez le système de fichiers racine (/) et d'autres systèmes de fichiers éventuels, à l'aide de la commande newfs.
Recréez les systèmes de fichiers initiaux du disque défectueux.
n'oubliez pas de créer le système de fichiers /global/.devices/node@nodeid.
Montez le système de fichiers racine (/) sur un point de montage temporaire.
# mount device temp-mountpoint |
Restaurez le système de fichiers racine (/) à partir de la sauvegarde.
# cd temp-mountpoint # ufsrestore rvf dump-device # rm restoresymtable |
Créez un fichier install-db vide.
Le nœud sera en mode d'installation VxVM à la réinitialisation suivante.
# touch \ /temp-mountpoint/etc/vx/reconfig.d/state.d/install-db |
Supprimez les entrées suivantes du fichier /temp-mountpoint/etc/system.
* rootdev:/pseudo/vxio@0:0 * set vxio:vol_rootdev_is_volume=1 |
Éditez le fichier /temp-mountpoint /etc/vfstab et remplacez tous les points de montage de VxVM par les périphériques de disques standard du disque racine, tels que /dev/dsk/c0t0d0s0.
Example: Change from— /dev/vx/dsk/rootdg/rootvol /dev/vx/rdsk/rootdg/rootvol / ufs 1 no - Change to— /dev/dsk/c0t0d0s0 /dev/rdsk/c0t0d0s0 / ufs 1 no - |
Démontez le système de fichiers temporaire et vérifiez-le.
# cd / # umount temp-mountpoint # fsck raw-disk-device |
Installez le nouveau bloc d'initialisation sur le nouveau disque.
# /usr/sbin/installboot /usr/platform/`uname -i`/lib/fs/ufs/bootblk raw-disk-device |
Réinitialisez le nœud en mode multiutilisateur.
# reboot |
Mettez à jour l'ID du disque à l'aide de la commande scdidadm(1M).
# scdidadm -R /dev/rdsk/c0t0d0 |
Exécutez vxinstall pour encapsuler le disque et réinitialiser.
# vxinstall |
Si le code mineur entre en conflit avec celui d'un autre système, démontez les périphériques globaux et attribuez un nouveau code mineur au groupe de disques.
Démontez le système de fichiers de périphériques globaux sur le nœud du cluster.
# umount /global/.devices/node@nodeid |
Attribuez un autre code mineur au groupe de disques rootdg du nœud de cluster.
# vxdg reminor rootdg 100 |
Arrêtez le nœud et réinitialisez-le en mode cluster.
# shutdown -g0 -i6 -y |
L'exemple suivant montre un système de fichiers racine (/) encapsulé restauré sur le nœud phys-schost-1 depuis le lecteur de bande /dev/rmt/0.
[Replace the failed disk and boot the node:] |
Initialisez le nœud depuis le CD de Solaris. A l'invite ok de la mémoire PROM OpenBoot, entrez la commande suivante :
ok boot cdrom -s ... [Use format and newfs to create partitions and file systems] [Mount the root file system on a temporary mount point:] # mount /dev/dsk/c0t0d0s0 /a [Restore the root file system:] # cd /a # ufsrestore rvf /dev/rmt/0 # rm restoresymtable [Create an empty install-db file:] # touch /a/etc/vx/reconfig.d/state.d/install-db [Edit /etc/system on the temporary file system and remove or comment out the following entries:] # rootdev:/pseudo/vxio@0:0 # set vxio:vol_rootdev_is_volume=1 [Edit /etc/vfstab on the temporary file system:] Example: Change from— /dev/vx/dsk/rootdg/rootvol /dev/vx/rdsk/rootdg/rootvol / ufs 1 no- Change to— /dev/dsk/c0t0d0s0 /dev/rdsk/c0t0d0s0 / ufs 1 no - [Unmount the temporary file system, then check the file system:] # cd / # umount /a # fsck /dev/rdsk/c0t0d0s0 [Install a new boot block:] # /usr/sbin/installboot /usr/platform/`uname \ -i`/lib/fs/ufs/bootblk /dev/rdsk/c0t0d0s0 [Reboot:] # reboot [Update the disk ID:] # scdidadm -R /dev/rdsk/c0t0d0 [Run vxinstall:] # vxinstall Choose to encapsulate the root disk. [If there is a conflict in minor number, reminor the rootdg disk group :] # umount /global/.devices/node@nodeid # vxdg reminor rootdg 100 # shutdown -g0 -i6 -y |
Pour obtenir des instructions sur la façon de définir le miroir du disque racine encapsulé, reportez-vous au document Guide d’installation du logiciel Sun Cluster pour SE Solaris.