可通过执行此任务来以单用户模式对故障转移区域应用修补程序。如果要将故障转移配置中的 Sun Cluster Data Service for Solaris Containers 与 Sun Cluster 一起使用,就需要采用这种修补方法。
确认并没有为任何一个被用作磁盘集(包含此过程中手动实施的区域路径)共享存储的 LUN 配置法定设备。
确定包含区域路径的磁盘集中是否使用了法定设备,并确定法定设备是否使用了 scsi2 或 scsi3 保留。
# clquorum show |
如果法定设备位于磁盘集的某个 LUN 中,请添加一个新的 LUN 作为法定设备,并且不要让新法定设备成为包含区域路径的任何磁盘集的一部分。
# clquorum add new-didname |
删除旧的法定设备。
# clquorum remove old-didname |
如果旧的法定设备使用了 scsi2 保留,请从旧的法定设备中清除 scsi2 保留,然后确认没有遗留下任何 scsi2 保留。
# /usr/cluster/lib/sc/pgre -c pgre_scrub -d /dev/did/rdsk/old-didnames2 # /usr/cluster/lib/sc/pgre -c pgre_inkeys -d /dev/did/rdsk/old-didnames2 |
如果无意中清除了活动法定设备上的保留关键字,则必须删除并重新添加法定设备,以便将新的保留关键字放置到法定设备上。
撤出要修补的节点。
# clresourcegroup evacuate -n node1 |
使包含 HA Solaris Container 资源的一个或多个资源组脱机。
# clresourcegroup offline resourcegroupname |
禁用已脱机的资源组中的所有资源。
# clresource disable resourcename |
取消对已脱机的资源组的管理。
# clresourcegroup unmanage resourcegroupname |
使相应的一个或多个设备组脱机。
# cldevicegroup offline cldevicegroupname |
禁用已脱机的设备组。
# cldevicegroup disable devicegroupname |
将非活动节点引导出群集。
# reboot -- -x |
继续执行操作之前,检验非活动节点上的所有 SMF 启动方法是否均已完成。
# svcs -x |
检验活动节点上的各种重新配置进程是否均已完成。
# cluster status |
确定磁盘集包含的磁盘上是否有任何 scsi3 保留。
获取非活动节点上元集的所有权。
# metaset -s disksetname -C take -f |
在非活动节点上挂载包含区域路径的一个或多个文件系统。
# mount device mountpoint |
在非活动节点上切换到单用户模式。
# init s |
停止所有可能已引导且不在 Sun Cluster Data Service for Solaris Container 控制下的区域。
# zoneadm -z zonename halt |
(可选的)如果要安装多个修补程序,出于性能考虑,您可以选择以单用户模式引导所有已配置的区域。
# zoneadm -z zonename boot -s |
应用修补程序。
重新引导节点,等待所有 SMF 启动方法完成。只有在节点完成重新引导后,才可以执行 svcs -a 命令。
# reboot |
# svcs -a |
第一个节点现已准备就绪。
撤出要修补的第二个节点。
# clresourcegroup evacuate -n node2 |
对第二个节点重复执行步骤 8 至步骤 13。
拆离已经过修补的区域,以加快修补过程。
# zoneadm -z zonename detach |
在非活动节点上切换到单用户模式。
# init s |
停止所有可能已引导且不在 Sun Cluster Data Service for Solaris Container 控制下的区域。
# zoneadm -z zonename halt |
(可选的)如果要安装多个修补程序,出于性能考虑,您可以选择以单用户模式引导所有已配置的区域。
# zoneadm -z zonename boot -s |
应用修补程序。
连接被拆离的区域。
# zoneadm -z zonename attach -F |
将节点重新引导至群集模式。
# reboot |
使一个或多个设备组联机。
启动资源组。