使用此过程可将 ZFS 根 (/) 文件系统恢复到新磁盘(例如,在更换损坏的根磁盘之后)。不应引导正在恢复的节点。执行恢复过程之前,请确保群集正在无故障运行。支持 UFS,但用作根文件系统时除外。UFS 可以用在共享磁盘上的 Solaris Volume Manager 元集中的元设备上。
phys-schost# 提示符表示全局群集提示符。此操作过程适用于全局群集。
此过程提供了 Oracle Solaris Cluster 命令的长格式。此外,大多数命令还有短形式。这些命令除了名称长短的不同以外,其功能都是相同的。
使用除要恢复的节点以外的其他节点。
从元集中除正要删除的节点以外的一个节点上运行此命令。由于要恢复的节点处于脱机状态,因此系统会显示 RPC: Rpcbind failure - RPC: Timed out 错误。忽略此错误并继续执行下一步。
# metaset -s setname -f -d -h nodelist
指定磁盘集名称。
从磁盘集中删除最后一个主机。
从磁盘集删除。
指定要从磁盘集删除的节点的名称。
有关更多信息,请参见在 Oracle Solaris 11.2 中管理 ZFS 文件系统 中的如何替换 ZFS 根池中的磁盘(SPARC 或 x86/VTOC)。
要恢复 ZFS 根池或根池快照,请遵循在 Oracle Solaris 11.2 中管理 ZFS 文件系统 中的如何替换 ZFS 根池中的磁盘(SPARC 或 x86/VTOC)中的步骤。
如果 /.globaldevices 备份文件存在于备份目录中,则它会与 ZFS 根一起恢复。该文件不是由 globaldevices SMF 服务自动创建的。
# reboot
# cldevice repair rootdisk
# metadb -c copies -af raw-disk-device
指定要创建的复本数。
要在其上创建复本的原始磁盘设备。
添加副本。
有关更多信息,请参见 metadb(1M) 手册页。
phys-schost-2# metaset -s setname -a -h nodelist
创建主机并将其添加到磁盘集中。
已将节点重新引导到群集模式下。群集已经就绪。
下面的示例显示了将根 (/) 文件系统恢复到节点 phys-schost-1 的过程。从群集中的另一节点 phys-schost-2 运行 metaset 命令,以便从磁盘集 schost-1 中删除节点 phys-schost-1,然后再将其重新添加到该磁盘集中。所有其他命令都是从 phys-schost-1 运行的。系统在 /dev/rdsk/c0t0d0s0 上创建了一个新的引导块,在 /dev/rdsk/c0t0d0s4 上重新创建了三个状态数据库副本。 有关恢复数据的更多信息,请参见在 Oracle Solaris 11.2 中管理 ZFS 文件系统 中的解决 ZFS 存储池中的数据问题。
[Assume a role that provides solaris.cluster.modify RBAC authorization on a cluster node other than the node to be restored.] [Remove the node from the metaset:] phys-schost-2# metaset -s schost-1 -f -d -h phys-schost-1 [Replace the failed disk and boot the node:] Restore the root (/) and /usr file system using the procedure in the Solaris system administration documentation [Reboot:] # reboot [Replace the disk ID:] # cldevice repair /dev/dsk/c0t0d0 [Re-create state database replicas:] # metadb -c 3 -af /dev/rdsk/c0t0d0s4 [Add the node back to the metaset:] phys-schost-2# metaset -s schost-1 -a -h phys-schost-1