Sun Cluster 3.0 12/01 系统管理指南

8.3 恢复群集文件

表 8-2 任务表:恢复群集文件

任务 

有关说明,请转到... 

对于 Solstice DiskSuite,按 Solaris 恢复过程以交互方式恢复文件 

"8.3.1 如何以交互方式恢复单个文件 (Solstice DiskSuite)"

对于 Solstice DiskSuite,恢复根 (/) 文件系统

"8.3.2 如何恢复根 (/) 文件系统 (Solstice DiskSuite)"

 

"8.3.3 如何恢复元设备上的根 (/) 文件系统 (Solstice DiskSuite)"

对于 VERITAS Volume Manager,恢复未封装的根 (/) 文件系统 

"8.3.4 如何恢复未封装的根 (/) 文件系统 (VERITAS Volume Manager)"

对于 VERITAS Volume Manager,恢复封装的根 (/) 文件系统 

"8.3.5 如何恢复已封装的根 (/) 文件系统 (VERITAS Volume Manager)"

8.3.1 如何以交互方式恢复单个文件 (Solstice DiskSuite)

按照此过程分别恢复一个或多个文件。 在执行此恢复过程前确保群集正在无故障地运行。

  1. 成为您要恢复的群集节点的超级用户。

  2. 停止正在使用待恢复文件的数据服务。


    # scswitch -z -g resource-group -h ""
    

  3. 使用 ufsrestore 命令恢复这些文件。

8.3.2 如何恢复根 (/) 文件系统 (Solstice DiskSuite)

按照此过程将根 (/) 文件系统恢复到一个新磁盘上,比如在替换一个坏的根磁盘后进行恢复。 不应引导正在恢复的节点。 在执行此恢复过程前确保群集正在无故障地运行。


注意:

由于必须使用与故障磁盘相同的格式来给新的磁盘进行分区,所以在进行此过程前必须确定分区方案,并相应地重新创建文件系统。


  1. 成为某个有权访问元集的群集节点(而不是所要恢复的那个节点)的超级用户。

  2. 从所有元集中删除要恢复的节点的主机名。

    从元集中的某个节点(而非正要删除的那个节点)运行此命令。


    # metaset -s setname -f -d -h nodelist
    

    -s setname

    指定磁盘集名称。

    -f

    强制。

    -d

    从磁盘集中删除。

    -h nodelist

    指定要从磁盘集中删除的节点的名称。

  3. 替换正恢复其根 (/) 文件系统的那个节点上的故障磁盘。

    请参阅服务器所附带的文档,以了解磁盘替换过程。

  4. 引导要恢复的节点。

    • 如果使用 Solaris CD-ROM,请运行以下命令:


      ok boot cdrom -s
      

    • 如果使用的是 Solaris JumpStartTM 服务器,则运行以下命令:


      ok boot net -s
      

  5. 使用 format(1M) 命令在根磁盘上创建所有的分区和交换。

    重建故障磁盘上的原分区方案。

  6. 使用 newfs(1M) 命令适当创建根 (/) 文件系统和其他文件系统。

    重建故障磁盘上的原文件系统。


    注意:

    确保创建了 /global/.devices/node@nodeid 文件系统。


  7. 在临时安装点上安装根 (/) 文件系统。


    # mount device temp-mountpoint
    

  8. 使用以下命令来恢复根 (/) 文件系统。


    # cd temp-mountpoint
    # ufsrestore rvf dump-device
    # rm restoresymtable
    # cd /
    # umount temp-mountpoint
    # fsck raw-disk-device
    

    此时文件系统已恢复。

  9. 在新磁盘上安装新的引导块。


    # /usr/sbin/installboot /usr/platform/`uname -i`/lib/fs/ufs/bootblk raw-disk-device
    

  10. 以单用户模式重新引导节点。


    # reboot -- "-s"
    

  11. 使用 scdidadm 命令替换磁盘 ID。


    # scdidadm -R rootdisk
    

  12. 使用 metadb(1M) 命令来重建状态数据库的副本。


    # metadb -c copies -af raw-disk-device
    

    -c copies

    指定所要创建的副本数量。

    -f raw-disk-device

    要在其上创建副本的原始磁盘设备。

    -a

    添加副本。

  13. 以群集模式重新引导该节点。

    1. 开始重新引导。


      # reboot
      

      在此引导过程中,您可能会看到一条错误消息或警告消息,其结尾部分是以下指令:


      Type control-d to proceed with normal startup,
      (or give root password for system maintenance):

    2. 按下 CTRL-d 以引导到多用户模式下。

  14. 从除所恢复的那个节点之外的任何一个群集节点,使用 metaset(1M) 命令将所恢复的那个节点添加到所有元集。


    phys-schost-2# metaset -s setname -a -h nodelist
    

    -a

    创建并将主机添加到磁盘集中。

    已将节点重新引导到群集模式下。 群集已经就绪。

8.3.2.1 示例 - 恢复根 (/) 文件系统 (Solstice DiskSuite)

下面的示例展示了将根 (/) 文件系统从磁带设备 /dev/rmt/0 恢复到节点 phys-schost-1 的过程。从群集中的另一节点 phys-schost-2 运行 metaset 命令,以删除节点 phys-schost-1,稍后再将它重新添加到磁盘集 schost-1 中。 所有其他命令都是从 phys-schost-1 上运行的。 在 /dev/rdsk/c0t0d0s0 上创建了一个新的引导块,而状态数据库的三个副本则是在 /dev/rdsk/c0t0d0s4 上重建的。


[Become superuser on a cluster node other than the node to be restored.]
[Remove the node from the metaset:]
phys-schost-2# metaset -s schost-1 -f -d -h phys-schost-1
[Replace the failed disk and boot the node:]
ok boot cdrom -s
[Use format and newfs to recreate partitions and file systems.]
[Mount the root file system on a temporary mount point:]
# mount /dev/dsk/c0t0d0s0 /a
[Restore the root file system:]
# cd /a
# ufsrestore rvf /dev/rmt/0
# rm restoresymtable
# cd /
# umount /a
# fsck /dev/rdsk/c0t0d0s0
[Install a new boot block:]
# /usr/sbin/installboot /usr/platform/`uname \
-矛/lib/fs/ufs/bootblk /dev/rdsk/c0t0d0s0
[Reboot in single-user mode:]
# reboot -- "-s"
[Replace the disk ID:]
# scdidadm -R /dev/dsk/c0t0d0
[Recreate state database replicas:]
# metadb -c 3 -af /dev/rdsk/c0t0d0s4
# reboot
Press CTL-d to boot into multiuser mode.
[Add the node back to the metaset:]
phys-schost-2# metaset -s schost-1 -a -h phys-schost-1

8.3.3 如何恢复元设备上的根 (/) 文件系统 (Solstice DiskSuite)

使用此过程来恢复在执行备份时元设备上的根 (/) 文件系统。 如果发生类似根磁盘被损坏后用新磁盘来替换的情况,就可以执行此过程。 不应引导正在恢复的节点。 在执行此恢复过程前确保群集正在无故障地运行。


注意:

由于新磁盘的分区必须与故障磁盘完全相同,所以在进行此过程前必须先确定分区方案,并相应地重建文件系统。


  1. 成为某个有权访问元集的群集节点(而不是所要恢复的那个节点)的超级用户。

  2. 从所有元集中删除要恢复的节点的主机名。


    # metaset -s setname -f -d -h nodelist
    

    -s setname

    指定元集名称。

    -f

    强制。

    -d

    从元集中删除。

    -h nodelist

    指定要从元集中删除的节点的名称。

  3. 替换要恢复其根 (/) 文件系统的那个节点上的故障磁盘。

    请参阅服务器所附带的文档,以了解磁盘替换过程。

  4. 引导要恢复的节点。

    • 如果使用 Solaris CD-ROM,请运行以下命令:


      ok boot cdrom -s
      

    • 如果使用 JumpStart 服务器,请运行以下命令:


      ok boot net -s
      

  5. 使用 format(1M) 命令在根磁盘上创建所有的分区和交换。

    重建故障磁盘上的原分区方案。

  6. 使用 newfs(1M) 命令,适当地创建根 (/) 文件系统和其他文件系统

    重建故障磁盘上的原文件系统。


    注意:

    确保创建了 /global/.devices/node@nodeid 文件系统。


  7. 在临时安装点上安装根 (/) 文件系统。


    # mount device temp-mountpoint
    

  8. 使用以下命令来恢复根 (/) 文件系统。


    # cd temp-mountpoint
    # ufsrestore rvf dump-device
    # rm restoresymtable
    

  9. 在新磁盘上安装新的引导块。


    # /usr/sbin/installboot /usr/platform/`uname -矛/lib/fs/ufs/bootblk raw-disk-device
    

  10. 删除 /temp-mountpoint/etc/system 文件中有关 MDD 根信息的那些行。


    * Begin MDD root info (do not edit)
    forceload: misc/md_trans
    forceload: misc/md_raid
    forceload: misc/md_mirror
    forceload: misc/md_hotspares
    forceload: misc/md_stripe
    forceload: drv/pcipsy
    forceload: drv/glm
    forceload: drv/sd
    rootdev:/pseudo/md@0:0,10,blk
    * End MDD root info (do not edit)

  11. 对于那些作为元设备组成部分的根磁盘,编辑 /temp-mount-point/etc/vfstab 文件,将这些根磁盘上的各个文件系统的根条目从元设备改为一个相应的正常片。


    Example:
    Change from-
    /dev/md/dsk/d10   /dev/md/rdsk/d10    /      ufs   1     no       -
    
    Change to-
    /dev/dsk/c0t0d0s0 /dev/rdsk/c0t0d0s0  /usr   ufs   1     no       -

  12. 卸载临时文件系统并检查原始磁盘设备。


    # cd /
    # umount temp-mountpoint
    # fsck raw-disk-device
    

  13. 以单用户模式重新引导节点。


    # reboot -- "-s"
    

  14. 使用 scdidadm 命令替换磁盘 ID。


    # scdidadm -R rootdisk
    

  15. 使用 metadb(1M) 命令来重建状态数据库的副本。


    # metadb -c copies -af raw-disk-device
    

    -c copies

    指定所要创建的副本数量。

    -af raw-disk-device

    在指定的原始磁盘设备上创建初始状态数据库副本。

  16. 以群集模式重新引导该节点。

    1. 开始重新引导。


      # reboot
      

      在此引导过程中,您将看到错误消息或警告消息,其结尾部分是以下指令:


      Type control-d to proceed with normal startup,
      (or give root password for system maintenance):

    2. 按下 CTRL-d 以引导到多用户模式下。

  17. 从除所恢复的那个节点之外的任何一个群集节点,使用 metaset(1M) 命令将所恢复的那个节点添加到所有元集。


    phys-schost-2# metaset -s setname -a -h nodelist
    

    -a

    添加(创建)元集。

    参照 Solstice DiskSuite 文档为根 (/) 设置元设备/镜像。

    已将节点重新引导到群集模式下。 群集已经就绪。

8.3.3.1 示例 - 恢复元设备上原有的根 (/) 文件系统 (Solstice DiskSuite)

下面的示例展示了将根 (/) 文件系统从磁带设备 /dev/rmt/0 恢复到节点 phys-schost-1 的过程。从群集中的另一节点 phys-schost-2 运行 metaset 命令,以删除节点 phys-schost-1,稍后再将它重新添加到元集 schost-1 中。 所有其他命令都是从 phys-schost-1 上运行的。 在 /dev/rdsk/c0t0d0s0 上创建了一个新的引导块,而状态数据库的三个副本则是在 /dev/rdsk/c0t0d0s4 上重建的。


[Become superuser on a cluster node with access to the metaset,
 other than the node to be restored.]
[Remove the node from the metaset:]
phys-schost-2# metaset -s schost-1 -f -d -h phys-schost-1
[Replace the failed disk and boot the node:]
ok boot cdrom -s
[Use format and newfs to recreate partitions and file systems.]
[Mount the root file system on a temporary mount point:]
# mount /dev/dsk/c0t0d0s0 /a
[Restore the root file system:]
# cd /a
# ufsrestore rvf /dev/rmt/0
# rm restoresymtable
[Install a new boot block:]
# /usr/sbin/installboot /usr/platform/`uname \
-矛/lib/fs/ufs/bootblk /dev/rdsk/c0t0d0s0
[Remove the lines in /temp-mountpoint/etc/system file for MDD root information:]
* Begin MDD root info (do not edit)
forceload: misc/md_trans
forceload: misc/md_raid
forceload: misc/md_mirror
forceload: misc/md_hotspares
forceload: misc/md_stripe
forceload: drv/pcipsy
forceload: drv/glm
forceload: drv/sd
rootdev:/pseudo/md@0:0,10,blk
* End MDD root info (do not edit)
[Edit the /temp-mountpoint/etc/vfstab file]
Example:
Change from-
/dev/md/dsk/d10   /dev/md/rdsk/d10    /      ufs   1     no       -

Change to-
/dev/dsk/c0t0d0s0 /dev/rdsk/c0t0d0s0  /usr   ufs   1     no       -
[Unmount the temporary file system and check the raw disk device:]
# cd /
# umount /a
# fsck /dev/rdsk/c0t0d0s0
[Reboot in single-user mode:]
# reboot -- "-s"
[Replace the disk ID:]
# scdidadm -R /dev/dsk/c0t0d0
[Recreate state database replicas:]
# metadb -c 3 -af /dev/rdsk/c0t0d0s4
# reboot
Type CTRL-d to boot into multiuser mode.
[Add the node back to the metaset:]
phys-schost-2# metaset -s schost-1 -a -h phys-schost-1

8.3.4 如何恢复未封装的根 (/) 文件系统 (VERITAS Volume Manager)

按照此过程将一个未封装的根 (/) 文件系统恢复到一个节点。 不应引导正在恢复的节点。 在执行此恢复过程前确保群集正在无故障地运行。


注意:

由于新磁盘的分区必须与故障磁盘完全相同,所以在进行此过程前必须先确定分区方案,并相应地重建文件系统。


  1. 替换要恢复其根文件系统的那个节点上的故障磁盘。

    请参阅服务器所附带的文档,以了解磁盘替换过程。

  2. 引导要恢复的节点。

    • 如果使用 Solaris CD-ROM,请运行以下命令:


      ok boot cdrom -s
      

    • 如果使用 JumpStart 服务器,请运行以下命令:


      ok boot net -s
      

  3. 使用 format(1M) 命令在根磁盘上创建所有的分区和交换。

    重建故障磁盘上的原分区方案。

  4. 使用 newfs(1M) 命令适当创建根 (/) 文件系统和其他文件系统。

    重建故障磁盘上的原文件系统。


    注意:

    确保创建了 /global/.devices/node@nodeid 文件系统。


  5. 在临时安装点上安装根 (/) 文件系统。


    # mount device temp-mountpoint
    

  6. 从备份中恢复根 (/) 文件系统,然后卸载并检查该文件系统。


    # cd temp-mountpoint
    # ufsrestore rvf dump-device
    # rm restoresymtable
    # cd /
    # umount temp-mountpoint
    # fsck raw-disk-device
    

    此时文件系统已恢复。

  7. 在新磁盘上安装新的根块。


    # /usr/sbin/installboot /usr/platform/`uname -矛/lib/fs/ufs/bootblk raw-disk-device
    

  8. 将节点重新引导到单用户模式。

    1. 开始重新引导。


      # reboot -- "-s"

      在此引导过程中,您将看到错误消息或警告消息,其结尾部分是以下指令:


      Type control-d to proceed with normal startup,
      (or give root password for system maintenance):

    2. 键入根口令。

  9. 确定根磁盘组是否位于根磁盘上的单个片上。

    • 如果是,则创建并设置根磁盘组。


      # vxdctl init
      # vxdg init rootdg
      # vxdctl add disk diskslice type=simple
      # vxdisk -f init diskslice type=simple
      # vxdg adddisk diskslice
      # vxdctl enable
      

    • 如果否,则继续执行步骤 10

  10. 使用 scdidadm 命令更新磁盘 ID。


    # scdidadm -R /dev/rdsk/disk-device
    

  11. 按下 CTRL-d 可恢复多用户模式。

    节点重新引导到群集模式下。 群集已经就绪。

8.3.4.1 示例 - 恢复未封装的根 (/) 文件系统 (VERITAS Volume Manager)

下面的示例展示了将未封装的根 (/) 文件系统从磁带设备 /dev/rmt/0 恢复到节点 phys-schost-1 的过程。


[Replace the failed disk and boot the node:]
ok boot cdrom -s
[Use format and newfs to create partitions and file systems]
[Mount the root file system on a temporary mount point:]
# mount /dev/dsk/c0t0d0s0 /a
[Restore the root file system:]
# cd /a
# ufsrestore rvf /dev/rmt/0
# rm restoresymtable
# cd /
# umount /a
# fsck /dev/rdsk/c0t0d0s0
[Install a new boot block:]
# /usr/sbin/installboot /usr/platform/`uname \
-矛/lib/fs/ufs/bootblk /dev/rdsk/c0t0d0s0
[Reboot in single-user mode:]
# reboot -- "-s"
[If the root disk group is on a single slice on the root disk, 
create the new root disk group:]
# vxdctl init
# vxdg init rootdg
# vxdctl add disk c0t0d0s4 type=simple
# vxdisk -f init c0t0d0s4 type=simple
# vxdg adddisk c0t0d0s4
# vxdctl enable
[Update the disk ID:]
# scdidadm -R /dev/rdsk/c0t0d0
[Press CTRL-d to resume in multiuser mode]

8.3.5 如何恢复已封装的根 (/) 文件系统 (VERITAS Volume Manager)

按照此过程将一个已封装的根 (/ ) 文件系统恢复到一个节点。不应引导正在恢复的节点。 在执行此恢复过程前确保群集正在无故障地运行。


注意:

由于新磁盘的分区必须与故障磁盘完全相同,所以在进行此过程前必须先确定分区方案,并相应地重建文件系统。


  1. 替换要恢复其根文件系统的那个节点上的故障磁盘。

    请参阅服务器所附带的文档,以了解磁盘替换过程。

  2. 引导要恢复的节点。

    • 如果使用 Solaris CD-ROM,请运行以下命令:


      ok boot cdrom -s
      
    • 如果使用 JumpStart 服务器,请运行以下命令:


      ok boot net -s
      

  3. 使用 format(1M) 命令在根磁盘上创建所有的分区和交换。

    重建故障磁盘上的原分区方案。

  4. 使用 newfs(1M) 命令适当创建根 (/) 文件系统和其他文件系统。

    重建故障磁盘上的原文件系统。


    注意:

    确保创建了 /global/.devices/node@nodeid 文件系统。


  5. 在临时安装点上安装根 (/) 文件系统。


    # mount device temp-mountpoint
    

  6. 从备份中恢复根 (/) 文件系统。


    # cd temp-mountpoint
    # ufsrestore rvf dump-device
    # rm restoresymtable
    

  7. 创建一个空的 install-db 文件。

    此操作将在下次重新引导节点时将其置于 VxVM 安装模式。


    # touch /temp-mountpoint/etc/vx/reconfig.d/state.d/install-db
    

  8. 删除或注释掉 /temp-mountpoint/etc/system 文件中的以下条目。


    * rootdev:/pseudo/vxio@0:0
    * set vxio:vol_rootdev_is_volume=1

  9. 编辑 /temp-mount-point/etc/vfstab 文件,并用根磁盘的标准磁盘设备(例如 /dev/dsk/c0t0d0s0)替换所有的 VxVM 安装点。


    Example:
    Change from-
    /dev/vx/dsk/rootdg/rootvol /dev/md/rdsk/rootdg/rootvol /      ufs   1     no -
    
    Change to-
    /dev/dsk/c0t0d0s0 /dev/rdsk/c0t0d0s0  / ufs   1     no       -

  10. 卸载临时文件系统并检查该文件系统。


    # cd /
    # umount temp-mountpoint
    # fsck raw-disk-device
    

  11. 在新磁盘上安装引导块。


    # /usr/sbin/installboot /usr/platform/`uname -矛/lib/fs/ufs/bootblk raw-disk-device
    

  12. 以单用户模式重新引导节点。


    # reboot -- "-s"
    

  13. 使用 scdidadm(1M) 命令更新磁盘 ID。


    # scdidadm -R /dev/rdsk/c0t0d0
    

  14. 运行 vxinstall 以封装磁盘并重新引导。


    # vxinstall
    

  15. 如果与其他系统存在次编号冲突,则卸载全局设备并为该磁盘组重编次编号。

    • 卸载群集节点上的全局设备文件系统。


      # umount /global/.devices/node@nodeid
      

    • 为群集节点上的 rootdg 磁盘组重编次编号。


      # vxdg reminor rootdg 100
      

  16. 关闭并以群集模式重新引导节点。


    # shutdown -g0 -i6 -y
    

8.3.5.1 示例 - 恢复封装的根 (/) 文件系统 (VERITAS Volume Manager)

下面的示例展示了将根 (/) 文件系统从磁带设备 /dev/rmt/0 恢复到节点 phys-schost-1 的过程。


[Replace the failed disk and boot the node:]
ok boot cdrom -s
[Use format and newfs to create partitions and file systems]
[Mount the root file system on a temporary mount point:]
# mount /dev/dsk/c0t0d0s0 /a
[Restore the root file system:]
# cd /a
# ufsrestore rvf /dev/rmt/0
# rm restoresymtable
[Create an empty install-db file:]
# touch /a/etc/vx/reconfig.d/state.d/install-db
[Edit /etc/system on the temporary file system and remove or comment out the following entries:]
	# rootdev:/pseudo/vxio@0:0
	# set vxio:vol_rootdev_is_volume=1
[Edit /etc/vfstab on the temporary file system:]
Example:
Change from-
/dev/vx/dsk/rootdg/rootvol /dev/md/rdsk/rootdg/rootvol / ufs 1 no-

Change to-
/dev/dsk/c0t0d0s0 /dev/rdsk/c0t0d0s0  / ufs   1     no       -
[Unmount the temporary file system, then check the file system:]
# cd /
# umount /a
# fsck /dev/rdsk/c0t0d0s0
[Install a new boot block:]
# /usr/sbin/installboot /usr/platform/`uname \
-矛/lib/fs/ufs/bootblk /dev/rdsk/c0t0d0s0
[Reboot in single-user mode:]
# reboot -- "-s"
[Update the disk ID:]
# scdidadm -R /dev/rdsk/c0t0d0
[Run vxinstall:]
# vxinstall
Choose to encapsulate the root disk.
[If there is a conflict in minor number, reminor the rootdg disk group:]
# umount /global/.devices/node@nodeid
# vxdg reminor rootdg 100
# shutdown -g0 -i6 -y

8.3.5.2 从此处可转到何处

有关如何镜像已封装的根磁盘的说明,请参阅《Sun Cluster 3.0 12/01 软件安装指南》。