Sun Cluster 3.0 U1 系统管理指南

8.3.2 如何恢复根 (/) 文件系统 (Solstice DiskSuite)

按照此过程将根 (/) 文件系统恢复到一个新磁盘,比如在更换一个坏的根磁盘 后。不应引导正在恢复的节点。在执行此恢复过程前确保群集正在无故障地运行。


注意:

由于必须使用与故障磁盘相同的格式来给新的磁盘进行分区,所以在进行此过程前必须确定分区方案,并相应地重新创建文件系统。


  1. 成为要恢复的节点之外的一个有权访问元集的群集节点的超级用户。

  2. 从所有元集中删除要恢复的节点的主机名。

    在元集中要删除的节点之外的节点上运行此命令。


    # metaset -s setname -f -d -h nodelist
    

    -ssetname

    指定磁盘集名称。

    -f

    强制。

    -d

    从磁盘集中删除。

    -h nodelist

    指定要从磁盘集中删除的节点的名称。

  3. 在要在其上恢复根 (/) 文件系统的节点上更换故障磁盘。

    请参考服务器附带的文档中的磁盘更换过程。

  4. 引导要恢复的节点。

    • 如果使用 Solaris CD-ROM,请运行以下命令:


      ok boot cdrom -s
      

    • 如果使用 JumpStartTM 服务器,请运行以下命令:


      ok boot net -s
      

  5. 使用 format (1M) 命令在根磁盘上创建所有的分区和交换。

    重建故障磁盘上的原分区方案。

  6. 使用 newfs (1M) 命令,相应地创建根 (/) 文件系统和其它文件系统。

    重建故障磁盘上的原文件系统。


    注意:

    确保创建 /global/.devices/node@nodeid 文件系统。


  7. 在一个临时安装点上安装根 (/) 文件系统。


    # mount device temp-mount-point
    

  8. 使用下面的命令来恢复根 (/) 文件系统。


    # cd temp-mount-point
    # ufsrestore rvf dump-device
    # rm restoresymtable
    # cd /
    # umount temp-mount-point # fsck raw-disk-device
    

    此时文件系统已恢复。

  9. 在新磁盘上安装一个新引导块。


    # /usr/sbin/installboot /usr/platform/`uname -i`/lib/fs/ufs/bootblk raw-disk-device
    

  10. 以单用户模式重新引导节点。


    # reboot -- "-s"
    

  11. 使用 scdidadm 命令更换磁盘 ID。


    # scdidadm -R rootdisk
    

  12. 使用 metadb (1M) 命令来重建状态数据库复制品。


    # metadb -c copies -af raw-disk-device
    

    -c copies

    指定要创建的复制品的编号。

    -f raw-disk-device

    要在其上创建复制品的原始磁盘设备。

    -a

    添加复制品。

  13. 以群集模式重新引导该节点。

    1. 启动重新引导。


      # reboot
      

      在此引导过程中,您可能会看到一条错误消息或警告消息,其结尾部分是以下指令:


      Type control-d to proceed with normal startup,
      (or give root password for system maintenance):

    2. 按下 CTRL-d 以引导到多用户模式下。

  14. 从已恢复的节点之外的一个群集节点,使用 metaset (1M) 命令将恢复的节点添加到所有的元集中。


    phys-schost-2# metaset -s setname -a -h nodelist
    

    -a

    创建并将主机添加到磁盘集中。

    节点已引导到群集模式下, 群集已经就绪。

8.3.2.1 示例 - 恢复根 (/) 文件系统 (Solstice DiskSuite)

下面的示例展示从磁带设备 /dev/rmt/0 恢复到节点 phys-schost-1 的根 (/) 文件系统。从群集中的另一节点 phys-schost-2 运行 metaset 命令,以删除节点 phys-schost-1,稍后再将它重新添加到磁盘集 schost-1 中。所有其它命令都是从 phys-schost-1 上运行的。/dev/rdsk/c0t0d0s0 上创建了一个新的引导块,/dev/rdsk/c0t0d0s4 上重建了三个状态数据库复制品。


[Become superuser on a cluster node 
other than the node to be restored.]
[Remove the node from the metaset:]
phys-schost-2# metaset -s schost-1 -f -d -h phys-schost-1
[Replace the failed disk and boot the node:]
ok boot cdrom -s
[Use format and newfs to recreate partitions and file systems.]
[Mount the root file system on a temporary mount point:]
# mount /dev/dsk/c0t0d0s0 /a
[Restore the root file system:]
# cd /a
# ufsrestore rvf /dev/rmt/0
# rm restoresymtable
# cd /
# umount /a
# fsck /dev/rdsk/c0t0d0s0
[Install a new boot block:]
# /usr/sbin/installboot /usr/platform/`uname \
-i`/lib/fs/ufs/bootblk /dev/rdsk/c0t0d0s0
[Reboot in single-user mode:]
# reboot -- "-s"
[Replace the disk ID:]
# scdidadm -R /dev/dsk/c0t0d0
[Recreate state database replicas:]
# metadb -c 3 -af /dev/rdsk/c0t0d0s4
# reboot
Press CTL-d to boot into multiuser mode.
[Add the node back to the metaset:]
phys-schost-2# metaset -s schost-1 -a -h phys-schost-1