使用此过程可将根 (/) 文件系统恢复到新磁盘(例如,在更换损坏的根磁盘之后)。不应引导正在恢复的节点。执行恢复过程之前,请确保群集正在无故障运行。
由于新磁盘的分区格式必须与故障磁盘的分区格式相同,所以在开始此过程之前,请先确定分区方案,然后再相应地重新创建文件系统。
phys-schost# 提示符表示全局群集提示符。此操作过程适用于全局群集。
此过程提供了 Sun Cluster 命令的长格式。此外,大多数命令还有简短格式。这些命令除了名称长短的不同以外,其功能都是相同的。有关命令及其简短格式的列表,请参见附录 B。
在对附加了待恢复节点的磁盘集具有访问权限的群集节点上,成为超级用户或担任可 solaris.cluster.modify RBAC 授权的角色。
使用除要恢复的节点以外的其他节点。
将要恢复的节点的主机名从所有元集中删除。
从元集中除正要删除的节点以外的一个节点上运行此命令。由于要恢复的节点处于脱机状态,因此系统会显示 RPC: Rpcbind failure - RPC: Timed out 错误。忽略此错误并继续执行下一步。
# metaset -s setname -f -d -h nodelist |
指定磁盘集名称。
从磁盘集中删除最后一个主机。
从磁盘集删除。
指定要从磁盘集删除的节点的名称。
恢复根 (/) 和 /usr 文件系统。
要恢复根和 /usr 文件系统,请执行《系统管理指南:设备和文件系统》中的第 27 章 “恢复文件和文件系统(任务)”中所介绍的过程。忽略 Solaris OS 过程中的步骤,重新引导该系统。
请确保创建 /global/.devices/node@nodeid 文件系统。
在多用户模式下重新引导节点。
# reboot |
替换设备 ID。
# cldevice repair rootdisk |
使用 metadb(1M) 命令可重新创建状态数据库副本。
# metadb -c copies -af raw-disk-device |
指定要创建的复本数。
要在其上创建复本的原始磁盘设备。
添加复本。
从一个群集节点(非恢复的节点)上将恢复后的节点添加到所有磁盘集。
phys-schost-2# metaset -s setname -a -h nodelist |
创建主机并将其添加到磁盘集中。
已将节点重新引导到群集模式下。群集已经就绪。
下面的示例展示了将根 (/) 文件系统从磁带设备 /dev/rmt/0 恢复到节点 phys-schost-1 的过程。从群集中的另一节点 phys-schost-2 运行 metaset 命令,以便从磁盘集 schost-1 中删除节点 phys-schost-1,然后再将其重新添加到该磁盘集中。所有其他命令都是从 phys-schost-1 运行的。系统在 /dev/rdsk/c0t0d0s0 上创建了一个新的引导块,在 /dev/rdsk/c0t0d0s4 上重新创建了三个状态数据库副本。
[Become superuser or assume a role that provides solaris.cluster.modify RBAC authorization on a cluster node other than the node to be restored .] [Remove the node from the metaset:] phys-schost-2# metaset -s schost-1 -f -d -h phys-schost-1 [Replace the failed disk and boot the node:] Restore the root (/) and /usr file system using the procedure in the Solaris system administration documentation [Reboot:] # reboot [Replace the disk ID:] # cldevice repair /dev/dsk/c0t0d0 [Re-create state database replicas:] # metadb -c 3 -af /dev/rdsk/c0t0d0s4 [Add the node back to the metaset:] phys-schost-2# metaset -s schost-1 -a -h phys-schost-1 |