本章提供了 Sun Cluster 3.0 5/02 更新版中新增的系统管理信息。此信息是对《Sun Cluster 3.0 12/01 系统管理指南》的补充。
本章对下列主题进行了充实:
以下信息适用于本更新版和所有后续更新版。
在 Sun Cluster 3.0 5/02 更新版的相应小节中新增了以下两项内容,它适用于 Sun Cluster 3.0 软件的本更新版和所有后续更新版:
VxVM 不支持 chmod 命令。要更改 VxVM 中的全局设备许可,请参考 VxVM 管理员指南。
Sun Cluster 3.0 软件不支持使用 VxVM 动态多路径 (DMP) 从同一节点管理多个路径。
如果所有磁盘设备组都将某一群集节点列入其潜在主节点列表中,使用以下过程可从所有磁盘设备组中删除该节点:
成为要作为所有磁盘设备组的潜在主节点而被删除的那个节点的超级用户。
确保要从中删除该节点的磁盘设备组处于卷管理工具控制之下。
在每个磁盘设备组的 Device group node list 中查找该节点名。
# scconf -p | grep 篓Device group篓 |
检查步骤 2中涉及的磁盘设备组是否有属于设备组类型 SDS 的。
如果是,请执行"如何从一个磁盘设备组中删除一个节点 (Solstice DiskSuite) (5/02)"中所述的过程。
如果否,则转到步骤 4。
检查步骤 2中涉及的磁盘设备组中是否有属于设备组类型 VxVM 的。
如果是,请执行"如何从磁盘设备组 (VERITAS Volume Manager) 删除一个节点 (5/02)"中所述的过程。
如果否,则转到步骤 5。
确定要删除该节点的原始磁盘设备组。
请注意以下涉及 -pvv 的命令中包含两个"v"。第二个"v"用于显示原始磁盘设备组:
# scconf -pvv | grep 篓Device group篓 |
检查步骤 5 中所列磁盘设备组中是否有属于设备组类型 Disk、Local_Disk 或这两者的?
如果是,请执行"如何从原始磁盘设备组删除节点 (5/02)"中所述的过程。
如果否,则转到步骤 7。
检验是否已从所有磁盘设备组的潜在主节点列表中删除了该节点。
如果该节点不再是任何磁盘设备组的潜在主节点,则以下命令不返回任何内容:
# scconf -pvv | grep 篓Device group篓 | grep nodename |
使用以下过程可从 Solstice DiskSuite 磁盘设备组的潜在主节点列表中删除某个群集节点:一个节点可同时属于多个磁盘设备组。因此,对要从其删除节点的每个磁盘设备组重复 metaset 命令。
确定要删除该节点的 Solstice DiskSuite 磁盘设备组。
磁盘组类型 SDS 表示是 Solstice DiskSuite 磁盘设备组。
# scconf -p | grep Device |
成为当前拥有要修改的磁盘设备组的节点上的超级用户。
从磁盘设备组删除节点的主机名。
# metaset -s setname -d -h nodelist |
指定磁盘设备组的名称
从磁盘设备组删除用 -h 标识的节点
从可以主控磁盘设备组的节点的列表中删除节点
完成更新可能需要几分钟。
如果命令失败,请在命令中添加 -f(强制)选项:
# metaset -s setname -d -f -h nodelist |
对要从中删除潜在主节点的每个磁盘设备组重复执行步骤 3。
检验是否已从磁盘设备组删除了该节点。
磁盘设备组名称将与用 metaset 指定的磁盘集名称相匹配。
# scstat -D |
以下示例显示的是从磁盘设备组配置中删除主机名 phys-schost-2 的过程。 这样做就排除了 phys-schost-2 作为指定磁盘设备组的主节点的可能性。 检验该节点是否确实已删除,方法是通过运行 scstat -D 命令,检查所删除的节点是否不再显示在屏幕文本中。
[Determine the Solstice DiskSuite disk device group(2) for the node:] # scconf -p | grep Device Device group name: dg-schost-1 Device group type: SDS Device group failback enabled: no Device group node list: phys-schost-1, phys-schost-2 Device group ordered node list: yes Device group diskset name: dg-schost-1 [Determine the disk device group(s) for the node:] # scstat -D -- Device Group Servers -- Device Group Primary Secondary ------------ ------- --------- Device group servers: dg-schost-1 phys-schost-1 phys-schost-2 [Become superuser.] [Remove the hostname from all disk device groups:] # metaset -s dg-schost-1 -d -h phys-schost-2 [Verify removal of the node:] # scstat -D -- Device Group Servers -- Device Group Primary Secondary ------------ ------- --------- Device group servers: dg-schost-1 phys-schost-1 - |
使用以下过程可从 VERITAS Volume Manager (VxVM) 磁盘设备组(磁盘组)的潜在主节点列表中删除一个群集节点:
确定要删除该节点的 VxVM 磁盘设备组。
设备组类型 VxVM 表示是
# scconf -p | grep Device |
成为当前群集成员节点的超级用户。
执行 scsetup 实用程序。
# scsetup |
显示 Main Menu。
要重新配置磁盘设备组,请键入 4(设备组和卷)。
要从 VxVM 磁盘设备组中删除该节点,请键入 5(从 VxVM 设备组删除节点)。
根据提示从磁盘设备组中删除群集节点。 系统将提示您输入有关以下内容的信息:
VxVM 设备组
节点名
检验是否已从 VxVM 磁盘设备组中删除了该节点。
# scconf -p | grep Device |
此示例说明将名为 phys-schost-1 的节点从 dg1 VxVM 磁盘设备组中删除的过程。
[Determine the VxVM disk device group for the node:] # scconf -p | grep Device Device group name: dg1 Device group type: VxVM Device group failback enabled: no Device group node list: phys-schost-1, phys-schost-2 Device group diskset name: dg1 [Become superuser and execute the scsetup utility:] # scsetup Select Device groups and volumes>Remove a node from a VxVM device group. Answer the questions when prompted. You will need the following information. You Will Need: Example: VxVM device group name dg1 node names phys-schost-1 [Verify that the scconf command executed properly:] scconf -r -D name=dg1,nodelist=phys-schost-1 Command completed successfully. Quit the scsetup Device Groups Menu and Main Menu. [Verify that the node was removed:] # scconf -p | grep Device Device group name: dg1 Device group type: VxVM Device group failback enabled: no Device group node list: phys-schost-2 Device group diskset name: dg1 |
使用以下过程可从原始磁盘设备组的潜在主节点列表中删除一个群集节点:
成为群集中其它节点(即不是要删除的节点)的超级用户。
标识与要删除的节点相连接的磁盘设备组。
在 Device group node list 条目中查找该节点名。
# scconf -pvv | grep nodename | grep |
确定步骤 2 中标识的磁盘设备组中哪些是原始磁盘设备组。
原始磁盘设备组所属设备组类型是 Disk 或 Local_Disk。
# scconf -pvv | grep 篓group typ毛 |
禁用每个 Local_Disk 原始磁盘设备组的 localonly 特性。
# scconf -c -D name=rawdisk-device-group,localonly=false |
有关 localonly 特性的详细信息,请参阅 scconf_dg_rawdisk(1M) 手册页。
检验是否已禁用与要删除的节点相连接的所有原始磁盘设备组的 localonly 特性。
Disk 设备组类型表示已对该原始磁盘设备组禁用 localonly 特性。
# scconf -pvv | grep 篓group typ毛 |
从步骤 2 中标识的所有原始磁盘设备组中删除该节点。
必须为与要删除的节点相连接的每个原始磁盘设备组完成此步骤。
# scconf -r -D name=rawdisk-device-group,nodelist=nodename |
此示例显示从一个原始磁盘设备组删除节点 (phys-schost-2) 的过程。所有命令均是从该群集的另一节点 (phys-schost-1) 上运行的。标识与要删除的节点相连接的磁盘设备组。
[] phys-schost-1# scconf -pvv | grep phys-schost-2 | grep 篓Device group node list篓 (dsk/d4) Device group node list: phys-schost-2 (dsk/d2) Device group node list: phys-schost-1, phys-schost-2 (dsk/d1) Device group node list: phys-schost-1, phys-schost-2 [Identify the are raw disk device groups:] phys-schost-1# scconf -pvv | grep 篓group typ毛 (dsk/d4) Device group type: Local_Disk (dsk/d8) Device group type: Local_Disk [Disable the localonly flag for each local disk on the node:] phys-schost-1# scconf -c -D name=dsk/d4,localonly=false [Verify that the localonly flag is disabled:] phys-schost-1# scconf -pvv | grep 篓group typ毛 (dsk/d4) Device group type: Disk (dsk/d8) Device group type: Local_Disk [Remove the node from all raw disk device groups:] phys-schost-1# scconf -r -D name=dsk/d4,nodelist=phys-schost-2 phys-schost-1# scconf -r -D name=dsk/d2,nodelist=phys-schost-2 phys-schost-1# scconf -r -D name=dsk/d1,nodelist=phys-schost-2 |
以下过程已引入 Sun Cluster 3.0 5/02 更新版中,并适用于 Sun Cluster 3.0 软件的此更新版和所有后续更新版。
如果要在群集中创建多于三个的磁盘集,则在创建这些磁盘集之前,请先执行以下步骤。无论您是第一次安装磁盘集,还是向已完全配置好的群集中添加更多的磁盘集,都请遵循这些步骤。
确保将 md_nsets 变量的值设置得足够高,可以满足要在群集中创建的磁盘集的总数。
在群集的任何节点上,检查 /kernel/drv/md.conf 文件中的 md_nsets 变量的值。
如果群集中磁盘集的总数大于 md_nsets 的现有值减一,则在每个节点上将 md_nsets 的值增加到所需的值。
磁盘集的最大许可数为 md_nsets 的值减一。md_nsets 可能的最大值是 32。
确保 /kernel/drv/md.conf 文件在群集的每个节点上都完全相同。
不按本指南操作可能会导致严重的 Solstice DiskSuite 错误,并且可能丢失数据。
从一个节点,关闭群集。
# scshutdown -g0 -y |
重新引导群集的每个节点。
ok> boot |
在群集的每个节点上,运行 devfsadm(1M) 命令。
您可以同时在群集的所有节点上运行此命令。
从群集的一个节点上,运行 scgdevs(1M) 命令。
在试图在每个节点上创建任何磁盘集之前,都请先检验 scgdevs 命令已经完成。
scgdevs 命令在所有节点上远程调用其自身,即使仅从一个节点运行该命令也是如此。要确定 scgdevs 命令是否已完成处理过程,请在群集的每个节点上运行以下命令。
% ps -ef | grep scgdevs |
以下信息适用于本更新版和所有后续更新版。
以下信息已添加到 Sun Cluster 3.0 12/01 更新版中,并适用于 Sun Cluster 3.0 软件的此更新版和所有后续更新版。
Sun Cluster 3.0 配置中不支持以下 VxFS 功能:
快速 I/O
快照
存储检查点
高速缓存顾问(可以使用它们,但只能在给定的节点上观察到其效果)
VERITAS CFS(需要 VERITAS 群集功能和 VCS)
针对 VxFS 的特定安装选项
convosync(转换 O_SYNC)
mincache
qlog, delaylog, tmplog
群集配置中支持的所有其他 VxFS 功能和选项在 Sun Cluster 3.0 软件中都支持。要了解群集配置中支持或不支持哪些 VxFS 选项,请参阅 VxFS 文档和手册页。
以下有关如何使用 VxFS 来创建高可用性群集文件系统的指南是针对 Sun Cluster 3.0 配置的:
按 VxFS 文档中所述的以下过程来创建 VxFS 文件系统。
从主节点(控制 VxFS 文件系统所在磁盘的那个节点)上全局安装和卸载 VxFS 文件系统,以确保操作成功。如果从辅助节点上安装或卸载 VxFS 文件系统,则操作可能会失败。
从 VxFS 群集文件系统的主节点上执行所有的 VxFS 管理命令。
以下有关如何管理 VxFS 群集文件系统的指导信息并非只针对 Sun Cluster 3.0 软件:但是,它们与您管理 UFS 群集文件系统的方式会有所不同。
您可以从群集中的任何节点访问和管理 VxFS 群集文件系统上的文件,但 ioctls 命令除外,它只能通过主节点发出。如果您不知道某个管理命令是否与 ioctls 有关,则从主节点上发出该命令。
如果 VxFS 群集文件系统故障转移到一个辅助节点上,则在故障转移期间所有正在进行的标准系统调用操作都会在该新的主节点上重新发出,而且此过程是透明的。但是,如果在故障转移期间执行了与 ioctl 有关的任何操作,则此类操作将会失败。在 VxFS 群集文件系统进行故障转移之后,请检查该群集文件系统的状态。有些管理命令可能在故障转移之前就已在旧的主节点上发出,需要对它们采取更正措施。有关详细信息,请参阅 VxFS 文档。
以下注意事项已添加到 Sun Cluster 3.0 5/02 更新版中本过程的步骤 2 中,并适用于 Sun Cluster 3.0 软件的本更新版和所有后续更新版。
newfs(1M) 命令仅适用于创建新的 UFS 文件系统。要创建新的 VxFS 文件系统,请按 VxFS 文档中所述的过程进行操作。
以下信息适用于本更新版和所有后续更新版。
Sun Cluster 3.0 5/02 更新版中对以下任务表进行了更改,这些更改适用于 Sun Cluster 3.0 软件的本更新版和所有后续更新版。有关该任务表中未列出的引用的过程,请参阅《Sun Cluster 3.0 12/01 系统管理指南》。
表 6-1 任务表:删除群集节点 (5/02)
以下信息已在 Sun Cluster 3.0 5/02 更新版中进行更改,并适用于 Sun Cluster 3.0 软件的本更新版和所有后续更新版:
已删除从原始磁盘设备组中删除节点的相关步骤。这些指导信息现在位于"如何从原始磁盘设备组删除节点 (5/02)"新过程中。
从群集中删除该节点后,您现在可以选择从被删除的节点卸载 Sun Cluster 软件。要卸载 Sun Cluster 软件,请转到"如何从群集节点卸载 Sun Cluster 软件 (5/02)"。
以下过程已添加到 Sun Cluster 3.0 5/02 更新版中,并适用于 Sun Cluster 3.0 软件的本更新版和所有后续更新版:
在从完全建好的群集配置中断开连接前,执行此过程从群集节点中卸载 Sun Cluster 软件。您可以使用此过程从群集中的其余最后一个节点中卸载软件。
如果要从尚未加入群集的节点或仍处于安装模式的节点中卸载 Sun Cluster 软件,请不要执行此过程。而应参阅《Sun Cluster 3.0 12/01 软件安装指南》中"如何卸载 Sun Cluster 软件以解决安装问题"。
确保您已正确完成任务表中有关删除群集节点的所有必须预先完成的任务。
请参阅《Sun Cluster 3.0 12/01 系统管理指南》中的"添加和删除群集节点"。
在继续此过程前,请确保您已从所有资源组、设备组和定额设备配置中删除了该节点,并将其置于维护状态,然后从群集中删除该节点。
成为您要卸载的节点之外某个活动群集成员的超级用户。
从该活动的群集成员上,将您要卸载的节点添加到群集的节点验证列表中。
# scconf -a -T node=nodename |
添加
指定验证选项
指定要添加到验证列表中的节点的名称
或者,您可以使用 scsetup(1M) 实用程序。有关相应过程的信息,请参阅《Sun Cluster 3.0 12/01 系统管理指南》中的"如何将群集节点添加到授权的节点列表中"。
成为要卸载的节点的超级用户。
将节点重新引导为非群集模式。
# shutdown -g0 -y -i0 ok boot -x |
在 /etc/vfstab 文件中,删除除 /global/.devices 全局安装之外所有全局安装的文件系统条目。
从该节点中卸载 Sun Cluster 软件。
# cd / # scinstall -r |
有关详细信息,请参阅 scinstall(1M) 手册页。如果 scinstall 返回错误消息,请参阅"有关节点卸载的疑难解答"。
从其他群集设备中断开传输电缆和传输结点(如果有)的连接。
本节介绍在您运行 scinstall -r 命令时可能收到的错误消息以及相应的更正措施。
以下错误消息表示被删除的节点在 vfstab 文件中仍引用了群集文件系统:
Verifying that no unexpected global mounts remain in /etc/vfstab ... failed scinstall: global-mount1 is still configured as a global mount. scinstall: global-mount1 is still configured as a global mount. scinstall: /global/dg1 is still configured as a global mount. scinstall: It is not safe to uninstall with these outstanding errors. scinstall: Refer to the documentation for complete uninstall instructions. scinstall: Uninstall failed. |
要更正此错误,请返回"如何从群集节点卸载 Sun Cluster 软件 (5/02)"并重复相应的过程。在重新运行 scinstall -r 命令前确保已成功完成此过程中的步骤 6。
以下错误消息表示被删除的节点仍位于某个磁盘设备组的潜在主节点列表中:
Verifying that no device services still reference this node ... failed scinstall: This node is still configured to host device service "service". scinstall: This node is still configured to host device service "service2". scinstall: This node is still configured to host device service "service3". scinstall: This node is still configured to host device service "dg1". scinstall: It is not safe to uninstall with these outstanding errors. scinstall: Refer to the documentation for complete uninstall instructions. scinstall: Uninstall failed. |
要更正此错误,请执行以下步骤:
尝试使该节点重新加入群集。
# boot |
该节点是否成功加入群集?
如果否,请继续步骤 3。
如果是,请执行以下步骤从磁盘设备组中删除该节点:
如果该节点成功加入群集,请从其余的磁盘设备组中删除该节点。
按"如何从所有磁盘设备组删除节点 (5/02)"中所述的过程进行操作。
从所有磁盘设备组中删除该节点后,返回"如何从群集节点卸载 Sun Cluster 软件 (5/02)"并重复相应过程。
如果该节点未能重新加入群集,请将该节点的 /etc/cluster/ccr 文件重命名为您所选的任何其它名称,例如 ccr.old。
# mv /etc/cluster/ccr /etc/cluster/ccr.old |
返回"如何从群集节点卸载 Sun Cluster 软件 (5/02)"并重复相应过程。