以下信息适用于本更新版和所有后续更新版。
在 Sun Cluster 3.0 5/02 更新版的相应小节中新增了以下两项内容,它适用于 Sun Cluster 3.0 软件的本更新版和所有后续更新版:
VxVM 不支持 chmod 命令。要更改 VxVM 中的全局设备许可,请参考 VxVM 管理员指南。
Sun Cluster 3.0 软件不支持使用 VxVM 动态多路径 (DMP) 从同一节点管理多个路径。
如果所有磁盘设备组都将某一群集节点列入其潜在主节点列表中,使用以下过程可从所有磁盘设备组中删除该节点:
成为要作为所有磁盘设备组的潜在主节点而被删除的那个节点的超级用户。
确保要从中删除该节点的磁盘设备组处于卷管理工具控制之下。
在每个磁盘设备组的 Device group node list 中查找该节点名。
# scconf -p | grep 篓Device group篓 |
检查步骤 2中涉及的磁盘设备组是否有属于设备组类型 SDS 的。
如果是,请执行"如何从一个磁盘设备组中删除一个节点 (Solstice DiskSuite) (5/02)"中所述的过程。
如果否,则转到步骤 4。
检查步骤 2中涉及的磁盘设备组中是否有属于设备组类型 VxVM 的。
如果是,请执行"如何从磁盘设备组 (VERITAS Volume Manager) 删除一个节点 (5/02)"中所述的过程。
如果否,则转到步骤 5。
确定要删除该节点的原始磁盘设备组。
请注意以下涉及 -pvv 的命令中包含两个"v"。第二个"v"用于显示原始磁盘设备组:
# scconf -pvv | grep 篓Device group篓 |
检查步骤 5 中所列磁盘设备组中是否有属于设备组类型 Disk、Local_Disk 或这两者的?
如果是,请执行"如何从原始磁盘设备组删除节点 (5/02)"中所述的过程。
如果否,则转到步骤 7。
检验是否已从所有磁盘设备组的潜在主节点列表中删除了该节点。
如果该节点不再是任何磁盘设备组的潜在主节点,则以下命令不返回任何内容:
# scconf -pvv | grep 篓Device group篓 | grep nodename |
使用以下过程可从 Solstice DiskSuite 磁盘设备组的潜在主节点列表中删除某个群集节点:一个节点可同时属于多个磁盘设备组。因此,对要从其删除节点的每个磁盘设备组重复 metaset 命令。
确定要删除该节点的 Solstice DiskSuite 磁盘设备组。
磁盘组类型 SDS 表示是 Solstice DiskSuite 磁盘设备组。
# scconf -p | grep Device |
成为当前拥有要修改的磁盘设备组的节点上的超级用户。
从磁盘设备组删除节点的主机名。
# metaset -s setname -d -h nodelist |
指定磁盘设备组的名称
从磁盘设备组删除用 -h 标识的节点
从可以主控磁盘设备组的节点的列表中删除节点
完成更新可能需要几分钟。
如果命令失败,请在命令中添加 -f(强制)选项:
# metaset -s setname -d -f -h nodelist |
对要从中删除潜在主节点的每个磁盘设备组重复执行步骤 3。
检验是否已从磁盘设备组删除了该节点。
磁盘设备组名称将与用 metaset 指定的磁盘集名称相匹配。
# scstat -D |
以下示例显示的是从磁盘设备组配置中删除主机名 phys-schost-2 的过程。 这样做就排除了 phys-schost-2 作为指定磁盘设备组的主节点的可能性。 检验该节点是否确实已删除,方法是通过运行 scstat -D 命令,检查所删除的节点是否不再显示在屏幕文本中。
[Determine the Solstice DiskSuite disk device group(2) for the node:] # scconf -p | grep Device Device group name: dg-schost-1 Device group type: SDS Device group failback enabled: no Device group node list: phys-schost-1, phys-schost-2 Device group ordered node list: yes Device group diskset name: dg-schost-1 [Determine the disk device group(s) for the node:] # scstat -D -- Device Group Servers -- Device Group Primary Secondary ------------ ------- --------- Device group servers: dg-schost-1 phys-schost-1 phys-schost-2 [Become superuser.] [Remove the hostname from all disk device groups:] # metaset -s dg-schost-1 -d -h phys-schost-2 [Verify removal of the node:] # scstat -D -- Device Group Servers -- Device Group Primary Secondary ------------ ------- --------- Device group servers: dg-schost-1 phys-schost-1 - |
使用以下过程可从 VERITAS Volume Manager (VxVM) 磁盘设备组(磁盘组)的潜在主节点列表中删除一个群集节点:
确定要删除该节点的 VxVM 磁盘设备组。
设备组类型 VxVM 表示是
# scconf -p | grep Device |
成为当前群集成员节点的超级用户。
执行 scsetup 实用程序。
# scsetup |
显示 Main Menu。
要重新配置磁盘设备组,请键入 4(设备组和卷)。
要从 VxVM 磁盘设备组中删除该节点,请键入 5(从 VxVM 设备组删除节点)。
根据提示从磁盘设备组中删除群集节点。 系统将提示您输入有关以下内容的信息:
VxVM 设备组
节点名
检验是否已从 VxVM 磁盘设备组中删除了该节点。
# scconf -p | grep Device |
此示例说明将名为 phys-schost-1 的节点从 dg1 VxVM 磁盘设备组中删除的过程。
[Determine the VxVM disk device group for the node:] # scconf -p | grep Device Device group name: dg1 Device group type: VxVM Device group failback enabled: no Device group node list: phys-schost-1, phys-schost-2 Device group diskset name: dg1 [Become superuser and execute the scsetup utility:] # scsetup Select Device groups and volumes>Remove a node from a VxVM device group. Answer the questions when prompted. You will need the following information. You Will Need: Example: VxVM device group name dg1 node names phys-schost-1 [Verify that the scconf command executed properly:] scconf -r -D name=dg1,nodelist=phys-schost-1 Command completed successfully. Quit the scsetup Device Groups Menu and Main Menu. [Verify that the node was removed:] # scconf -p | grep Device Device group name: dg1 Device group type: VxVM Device group failback enabled: no Device group node list: phys-schost-2 Device group diskset name: dg1 |
使用以下过程可从原始磁盘设备组的潜在主节点列表中删除一个群集节点:
成为群集中其它节点(即不是要删除的节点)的超级用户。
标识与要删除的节点相连接的磁盘设备组。
在 Device group node list 条目中查找该节点名。
# scconf -pvv | grep nodename | grep |
确定步骤 2 中标识的磁盘设备组中哪些是原始磁盘设备组。
原始磁盘设备组所属设备组类型是 Disk 或 Local_Disk。
# scconf -pvv | grep 篓group typ毛 |
禁用每个 Local_Disk 原始磁盘设备组的 localonly 特性。
# scconf -c -D name=rawdisk-device-group,localonly=false |
有关 localonly 特性的详细信息,请参阅 scconf_dg_rawdisk(1M) 手册页。
检验是否已禁用与要删除的节点相连接的所有原始磁盘设备组的 localonly 特性。
Disk 设备组类型表示已对该原始磁盘设备组禁用 localonly 特性。
# scconf -pvv | grep 篓group typ毛 |
从步骤 2 中标识的所有原始磁盘设备组中删除该节点。
必须为与要删除的节点相连接的每个原始磁盘设备组完成此步骤。
# scconf -r -D name=rawdisk-device-group,nodelist=nodename |
此示例显示从一个原始磁盘设备组删除节点 (phys-schost-2) 的过程。所有命令均是从该群集的另一节点 (phys-schost-1) 上运行的。标识与要删除的节点相连接的磁盘设备组。
[] phys-schost-1# scconf -pvv | grep phys-schost-2 | grep 篓Device group node list篓 (dsk/d4) Device group node list: phys-schost-2 (dsk/d2) Device group node list: phys-schost-1, phys-schost-2 (dsk/d1) Device group node list: phys-schost-1, phys-schost-2 [Identify the are raw disk device groups:] phys-schost-1# scconf -pvv | grep 篓group typ毛 (dsk/d4) Device group type: Local_Disk (dsk/d8) Device group type: Local_Disk [Disable the localonly flag for each local disk on the node:] phys-schost-1# scconf -c -D name=dsk/d4,localonly=false [Verify that the localonly flag is disabled:] phys-schost-1# scconf -pvv | grep 篓group typ毛 (dsk/d4) Device group type: Disk (dsk/d8) Device group type: Local_Disk [Remove the node from all raw disk device groups:] phys-schost-1# scconf -r -D name=dsk/d4,nodelist=phys-schost-2 phys-schost-1# scconf -r -D name=dsk/d2,nodelist=phys-schost-2 phys-schost-1# scconf -r -D name=dsk/d1,nodelist=phys-schost-2 |
以下过程已引入 Sun Cluster 3.0 5/02 更新版中,并适用于 Sun Cluster 3.0 软件的此更新版和所有后续更新版。
如果要在群集中创建多于三个的磁盘集,则在创建这些磁盘集之前,请先执行以下步骤。无论您是第一次安装磁盘集,还是向已完全配置好的群集中添加更多的磁盘集,都请遵循这些步骤。
确保将 md_nsets 变量的值设置得足够高,可以满足要在群集中创建的磁盘集的总数。
在群集的任何节点上,检查 /kernel/drv/md.conf 文件中的 md_nsets 变量的值。
如果群集中磁盘集的总数大于 md_nsets 的现有值减一,则在每个节点上将 md_nsets 的值增加到所需的值。
磁盘集的最大许可数为 md_nsets 的值减一。md_nsets 可能的最大值是 32。
确保 /kernel/drv/md.conf 文件在群集的每个节点上都完全相同。
不按本指南操作可能会导致严重的 Solstice DiskSuite 错误,并且可能丢失数据。
从一个节点,关闭群集。
# scshutdown -g0 -y |
重新引导群集的每个节点。
ok> boot |
在群集的每个节点上,运行 devfsadm(1M) 命令。
您可以同时在群集的所有节点上运行此命令。
从群集的一个节点上,运行 scgdevs(1M) 命令。
在试图在每个节点上创建任何磁盘集之前,都请先检验 scgdevs 命令已经完成。
scgdevs 命令在所有节点上远程调用其自身,即使仅从一个节点运行该命令也是如此。要确定 scgdevs 命令是否已完成处理过程,请在群集的每个节点上运行以下命令。
% ps -ef | grep scgdevs |