Sun Cluster 3.0 5/02 补编

第 6 章 系统管理

本章提供了 Sun Cluster 3.0 5/02 更新版中新增的系统管理信息。此信息是对《Sun Cluster 3.0 12/01 系统管理指南》的补充。

本章对下列主题进行了充实:

管理磁盘设备组

以下信息适用于本更新版和所有后续更新版。

VERITAS Volume Manager 管理注意事项 (5/02)

在 Sun Cluster 3.0 5/02 更新版的相应小节中新增了以下两项内容,它适用于 Sun Cluster 3.0 软件的本更新版和所有后续更新版:

如何从所有磁盘设备组删除节点 (5/02)

如果所有磁盘设备组都将某一群集节点列入其潜在主节点列表中,使用以下过程可从所有磁盘设备组中删除该节点:

  1. 成为要作为所有磁盘设备组的潜在主节点而被删除的那个节点的超级用户。

  2. 确保要从中删除该节点的磁盘设备组处于卷管理工具控制之下。

    在每个磁盘设备组的 Device group node list 中查找该节点名。


    # scconf -p | grep 篓Device group篓
    

  3. 检查步骤 2中涉及的磁盘设备组是否有属于设备组类型 SDS 的。

  4. 检查步骤 2中涉及的磁盘设备组中是否有属于设备组类型 VxVM 的。

  5. 确定要删除该节点的原始磁盘设备组。

    请注意以下涉及 -pvv 的命令中包含两个"v"。第二个"v"用于显示原始磁盘设备组:


    # scconf -pvv | grep 篓Device group篓
    

  6. 检查步骤 5 中所列磁盘设备组中是否有属于设备组类型 DiskLocal_Disk 或这两者的?

  7. 检验是否已从所有磁盘设备组的潜在主节点列表中删除了该节点。

    如果该节点不再是任何磁盘设备组的潜在主节点,则以下命令不返回任何内容:


    # scconf -pvv | grep 篓Device group篓 | grep nodename
    

如何从一个磁盘设备组中删除一个节点 (Solstice DiskSuite) (5/02)

使用以下过程可从 Solstice DiskSuite 磁盘设备组的潜在主节点列表中删除某个群集节点:一个节点可同时属于多个磁盘设备组。因此,对要从其删除节点的每个磁盘设备组重复 metaset 命令。

  1. 确定要删除该节点的 Solstice DiskSuite 磁盘设备组。

    磁盘组类型 SDS 表示是 Solstice DiskSuite 磁盘设备组。


    # scconf -p | grep Device
    

  2. 成为当前拥有要修改的磁盘设备组的节点上的超级用户。

  3. 从磁盘设备组删除节点的主机名。


    # metaset -s setname -d -h nodelist
    

    -s setname

    指定磁盘设备组的名称

    -d

    从磁盘设备组删除用 -h 标识的节点

    -h nodelist

    从可以主控磁盘设备组的节点的列表中删除节点


    注意:

    完成更新可能需要几分钟。


    如果命令失败,请在命令中添加 -f(强制)选项:


    # metaset -s setname -d -f -h nodelist
    

  4. 对要从中删除潜在主节点的每个磁盘设备组重复执行步骤 3

  5. 检验是否已从磁盘设备组删除了该节点。

    磁盘设备组名称将与用 metaset 指定的磁盘集名称相匹配。


    # scstat -D
    

示例 - 从一个磁盘设备组 (Solstice DiskSuite) 删除某节点

以下示例显示的是从磁盘设备组配置中删除主机名 phys-schost-2 的过程。 这样做就排除了 phys-schost-2 作为指定磁盘设备组的主节点的可能性。 检验该节点是否确实已删除,方法是通过运行 scstat -D 命令,检查所删除的节点是否不再显示在屏幕文本中。


[Determine the Solstice DiskSuite disk device group(2) for the node:]
# scconf -p | grep Device
  Device group name:                 dg-schost-1
    Device group type:               SDS
    Device group failback enabled:   no
    Device group node list:          phys-schost-1, phys-schost-2
    Device group ordered node list:  yes
    Device group diskset name:    	dg-schost-1
[Determine the disk device group(s) for the node:]
# scstat -D
  -- Device Group Servers --
                       Device Group  Primary        Secondary
                       ------------  -------        ---------
  Device group servers: dg-schost-1  phys-schost-1  phys-schost-2
[Become superuser.]
[Remove the hostname from all disk device groups:]
# metaset -s dg-schost-1 -d -h phys-schost-2
[Verify removal of the node:]
# scstat -D
  -- Device Group Servers --
                       Device Group  Primary       Secondary
                       ------------  -------       ---------
  Device group servers: dg-schost-1  phys-schost-1  -

如何从磁盘设备组 (VERITAS Volume Manager) 删除一个节点 (5/02)

使用以下过程可从 VERITAS Volume Manager (VxVM) 磁盘设备组(磁盘组)的潜在主节点列表中删除一个群集节点:

  1. 确定要删除该节点的 VxVM 磁盘设备组。

    设备组类型 VxVM 表示是


    # scconf -p | grep Device
    
    VxVM 磁盘设备组。

  2. 成为当前群集成员节点的超级用户。

  3. 执行 scsetup 实用程序。


    # scsetup
    

    显示 Main Menu。

  4. 要重新配置磁盘设备组,请键入 4(设备组和卷)。

  5. 要从 VxVM 磁盘设备组中删除该节点,请键入 5(从 VxVM 设备组删除节点)。

    根据提示从磁盘设备组中删除群集节点。 系统将提示您输入有关以下内容的信息:

    • VxVM 设备组

    • 节点名

  6. 检验是否已从 VxVM 磁盘设备组中删除了该节点。


    # scconf -p | grep Device
    

示例 - 从磁盘设备组 (VxVM) 中删除节点

此示例说明将名为 phys-schost-1 的节点从 dg1 VxVM 磁盘设备组中删除的过程。


[Determine the VxVM disk device group for the node:]
# scconf -p | grep Device
  Device group name:                 dg1
    Device group type:               VxVM
    Device group failback enabled:   no
    Device group node list:          phys-schost-1, phys-schost-2
    Device group diskset name:    	dg1
[Become superuser and execute the scsetup utility:]
# scsetup
 Select Device groups and volumes>Remove a node from a VxVM device group.
Answer the questions when prompted. 
You will need the following information.
  You Will Need:            Example:
  VxVM device group name    dg1
  node names                phys-schost-1
[Verify that the scconf command executed properly:]
 
scconf -r -D name=dg1,nodelist=phys-schost-1
 
    Command completed successfully.
Quit the scsetup Device Groups Menu and Main Menu.
[Verify that the node was removed:]
# scconf -p | grep Device
  Device group name:                 dg1
    Device group type:               VxVM
    Device group failback enabled:   no
    Device group node list:          phys-schost-2
    Device group diskset name:    	dg1

如何从原始磁盘设备组删除节点 (5/02)

使用以下过程可从原始磁盘设备组的潜在主节点列表中删除一个群集节点:

  1. 成为群集中其它节点(即不是要删除的节点)的超级用户。

  2. 标识与要删除的节点相连接的磁盘设备组。

    Device group node list 条目中查找该节点名。


    # scconf -pvv | grep nodename | grep 	
    

  3. 确定步骤 2 中标识的磁盘设备组中哪些是原始磁盘设备组。

    原始磁盘设备组所属设备组类型是 DiskLocal_Disk


    # scconf -pvv | grep 篓group typ毛
    

  4. 禁用每个 Local_Disk 原始磁盘设备组的 localonly 特性。


    # scconf -c -D name=rawdisk-device-group,localonly=false
    

    有关 localonly 特性的详细信息,请参阅 scconf_dg_rawdisk(1M) 手册页。

  5. 检验是否已禁用与要删除的节点相连接的所有原始磁盘设备组的 localonly 特性。

    Disk 设备组类型表示已对该原始磁盘设备组禁用 localonly 特性。


    # scconf -pvv | grep 篓group typ毛
    

  6. 步骤 2 中标识的所有原始磁盘设备组中删除该节点。

    必须为与要删除的节点相连接的每个原始磁盘设备组完成此步骤。


    # scconf -r -D name=rawdisk-device-group,nodelist=nodename
    

示例 - 从原始磁盘设备组删除节点

此示例显示从一个原始磁盘设备组删除节点 (phys-schost-2) 的过程。所有命令均是从该群集的另一节点 (phys-schost-1) 上运行的。标识与要删除的节点相连接的磁盘设备组。


[]
phys-schost-1# scconf -pvv | grep phys-schost-2 | grep 篓Device group node list篓	
	(dsk/d4) Device group node list:  phys-schost-2
	(dsk/d2) Device group node list:  phys-schost-1, phys-schost-2
	(dsk/d1) Device group node list:  phys-schost-1, phys-schost-2
[Identify the are raw disk device groups:]
phys-schost-1# scconf -pvv | grep 篓group typ毛
	(dsk/d4) Device group type:          Local_Disk
	(dsk/d8) Device group type:          Local_Disk
[Disable the localonly flag for each local disk on the node:]
phys-schost-1# scconf -c -D name=dsk/d4,localonly=false
[Verify that the localonly flag is disabled:]
phys-schost-1# scconf -pvv | grep 篓group typ毛
    (dsk/d4) Device group type:          Disk
    (dsk/d8) Device group type:          Local_Disk
[Remove the node from all raw disk device groups:]
phys-schost-1# scconf -r -D name=dsk/d4,nodelist=phys-schost-2
phys-schost-1# scconf -r -D name=dsk/d2,nodelist=phys-schost-2
phys-schost-1# scconf -r -D name=dsk/d1,nodelist=phys-schost-2

如何在一个群集中创建超过三个磁盘集 (5/02)

以下过程已引入 Sun Cluster 3.0 5/02 更新版中,并适用于 Sun Cluster 3.0 软件的此更新版和所有后续更新版。

如果要在群集中创建多于三个的磁盘集,则在创建这些磁盘集之前,请先执行以下步骤。无论您是第一次安装磁盘集,还是向已完全配置好的群集中添加更多的磁盘集,都请遵循这些步骤。

  1. 确保将 md_nsets 变量的值设置得足够高,可以满足要在群集中创建的磁盘集的总数。

    1. 在群集的任何节点上,检查 /kernel/drv/md.conf 文件中的 md_nsets 变量的值。

    2. 如果群集中磁盘集的总数大于 md_nsets 的现有值减一,则在每个节点上将 md_nsets 的值增加到所需的值。

      磁盘集的最大许可数为 md_nsets 的值减一。md_nsets 可能的最大值是 32。

    3. 确保 /kernel/drv/md.conf 文件在群集的每个节点上都完全相同。


      Caution - Caution -

      不按本指南操作可能会导致严重的 Solstice DiskSuite 错误,并且可能丢失数据。


    4. 从一个节点,关闭群集。


      # scshutdown -g0 -y
      

    5. 重新引导群集的每个节点。


      ok> boot
      

  2. 在群集的每个节点上,运行 devfsadm(1M) 命令。

    您可以同时在群集的所有节点上运行此命令。

  3. 从群集的一个节点上,运行 scgdevs(1M) 命令。

  4. 在试图在每个节点上创建任何磁盘集之前,都请先检验 scgdevs 命令已经完成。

    scgdevs 命令在所有节点上远程调用其自身,即使仅从一个节点运行该命令也是如此。要确定 scgdevs 命令是否已完成处理过程,请在群集的每个节点上运行以下命令。


    % ps -ef | grep scgdevs
    

群集文件系统管理概述

以下信息适用于本更新版和所有后续更新版。

支持 VxFS 的指导信息 (5/02)

以下信息已添加到 Sun Cluster 3.0 12/01 更新版中,并适用于 Sun Cluster 3.0 软件的此更新版和所有后续更新版。

Sun Cluster 3.0 配置中不支持以下 VxFS 功能:

群集配置中支持的所有其他 VxFS 功能和选项在 Sun Cluster 3.0 软件中都支持。要了解群集配置中支持或不支持哪些 VxFS 选项,请参阅 VxFS 文档和手册页。

以下有关如何使用 VxFS 来创建高可用性群集文件系统的指南是针对 Sun Cluster 3.0 配置的:

以下有关如何管理 VxFS 群集文件系统的指导信息并非只针对 Sun Cluster 3.0 软件:但是,它们与您管理 UFS 群集文件系统的方式会有所不同。

如何添加群集文件系统 (5/02)

以下注意事项已添加到 Sun Cluster 3.0 5/02 更新版中本过程的步骤 2 中,并适用于 Sun Cluster 3.0 软件的本更新版和所有后续更新版。


注意:

newfs(1M) 命令仅适用于创建新的 UFS 文件系统。要创建新的 VxFS 文件系统,请按 VxFS 文档中所述的过程进行操作。


添加和删除群集节点

以下信息适用于本更新版和所有后续更新版。

任务表:删除群集节点 (5/02)

Sun Cluster 3.0 5/02 更新版中对以下任务表进行了更改,这些更改适用于 Sun Cluster 3.0 软件的本更新版和所有后续更新版。有关该任务表中未列出的引用的过程,请参阅《Sun Cluster 3.0 12/01 系统管理指南》。

表 6-1 任务表:删除群集节点 (5/02)

任务 

有关说明,请转到 

从所有资源组中删除节点 

- 使用 scrgadm

Sun Cluster 3.0 12/01 Data Services Installation and Configuration Guide: 请参阅有关如何从现有资源组中删除节点的过程。

从所有磁盘设备组中删除节点 

- 使用 scconfmetasetscsetup

"如何从所有磁盘设备组删除节点 (5/02)"

使要删除的节点进入维护状态 

- 使用 scswitchshutdownscconf

"如何使节点进入维护状态" 

删除与所要删除的节点之间存在的所有逻辑传输连接 

- 使用 scsetup

"如何删除群集传输电缆、传输适配器和传输结点" 

 

删除与要删除的节点共享的所有定额设备 

- 使用 scsetup

"如何删除定额设备" 

或 

"如何从群集中删除最后一个定额设备" 

从群集软件配置中删除节点 

- 使用 scconf

"如何从群集软件配置中删除节点 (5/02)"

(可选)从被删除的节点中卸载 Sun Cluster 软件 

- 使用 scinstall

"如何从群集节点卸载 Sun Cluster 软件 (5/02)"

从节点和群集中断开连接所要求的共享存储器 

- 请遵照卷管理器文档和硬件指南中讲述的过程进行操作要从节点上拆除物理硬件,请参阅《Sun Cluster 3.0 12/01 Hardware Guide》中有关安装和维护群集互连和公共网络硬件的章节。

Solstice DiskSuite 或 VxVM 管理指南 

硬件文档 

Sun Cluster 3.0 12/01 Hardware Guide

如何从群集软件配置中删除节点 (5/02)

以下信息已在 Sun Cluster 3.0 5/02 更新版中进行更改,并适用于 Sun Cluster 3.0 软件的本更新版和所有后续更新版:

如何从群集节点卸载 Sun Cluster 软件 (5/02)

以下过程已添加到 Sun Cluster 3.0 5/02 更新版中,并适用于 Sun Cluster 3.0 软件的本更新版和所有后续更新版:

在从完全建好的群集配置中断开连接前,执行此过程从群集节点中卸载 Sun Cluster 软件。您可以使用此过程从群集中的其余最后一个节点中卸载软件。


注意:

如果要从尚未加入群集的节点或仍处于安装模式的节点中卸载 Sun Cluster 软件,请不要执行此过程。而应参阅《Sun Cluster 3.0 12/01 软件安装指南》中"如何卸载 Sun Cluster 软件以解决安装问题"。


  1. 确保您已正确完成任务表中有关删除群集节点的所有必须预先完成的任务。

    请参阅《Sun Cluster 3.0 12/01 系统管理指南》中的"添加和删除群集节点"。


    注意:

    在继续此过程前,请确保您已从所有资源组、设备组和定额设备配置中删除了该节点,并将其置于维护状态,然后从群集中删除该节点。


  2. 成为您要卸载的节点之外某个活动群集成员的超级用户。

  3. 从该活动的群集成员上,将您要卸载的节点添加到群集的节点验证列表中。


    # scconf -a -T node=nodename
    
    -a

    添加

    -T

    指定验证选项

    node=nodename

    指定要添加到验证列表中的节点的名称

    或者,您可以使用 scsetup(1M) 实用程序。有关相应过程的信息,请参阅《Sun Cluster 3.0 12/01 系统管理指南》中的"如何将群集节点添加到授权的节点列表中"。

  4. 成为要卸载的节点的超级用户。

  5. 将节点重新引导为非群集模式。


    # shutdown -g0 -y -i0
    ok boot -x
    

  6. /etc/vfstab 文件中,删除 /global/.devices 全局安装之外所有全局安装的文件系统条目。

  7. 从该节点中卸载 Sun Cluster 软件。


    # cd /
    # scinstall -r
    

    有关详细信息,请参阅 scinstall(1M) 手册页。如果 scinstall 返回错误消息,请参阅"有关节点卸载的疑难解答"

  8. 从其他群集设备中断开传输电缆和传输结点(如果有)的连接。

    1. 如果卸载的节点与使用并行 SCSI 接口的存储设备相连接,请在断开传输电缆的连接后将 SCSI 端接器安装到存储设备的开路 SCSI 连接器。

      如果卸载的节点与使用光纤通道接口的存储设备连接,则不需要端接器。

    2. 有关断开连接的过程,请按照随主机适配器和服务器提供的文档执行操作。

有关节点卸载的疑难解答

本节介绍在您运行 scinstall -r 命令时可能收到的错误消息以及相应的更正措施。

未删除的群集文件系统条目

以下错误消息表示被删除的节点在 vfstab 文件中仍引用了群集文件系统:


Verifying that no unexpected global mounts remain in /etc/vfstab ... failed
scinstall:  global-mount1 is still configured as a global mount.
scinstall:  global-mount1 is still configured as a global mount.
scinstall:  /global/dg1 is still configured as a global mount.
 
scinstall:  It is not safe to uninstall with these outstanding errors.          
scinstall:  Refer to the documentation for complete uninstall instructions.
scinstall:  Uninstall failed.

要更正此错误,请返回"如何从群集节点卸载 Sun Cluster 软件 (5/02)"并重复相应的过程。在重新运行 scinstall -r 命令前确保已成功完成此过程中的步骤 6

未从磁盘设备组的列表中删除

以下错误消息表示被删除的节点仍位于某个磁盘设备组的潜在主节点列表中:


Verifying that no device services still reference this node ... failed
scinstall:  This node is still configured to host device service "service".
scinstall:  This node is still configured to host device service "service2".
scinstall:  This node is still configured to host device service "service3".
scinstall:  This node is still configured to host device service "dg1".
 
scinstall:  It is not safe to uninstall with these outstanding errors.          
scinstall:  Refer to the documentation for complete uninstall instructions.
scinstall:  Uninstall failed.

要更正此错误,请执行以下步骤:

  1. 尝试使该节点重新加入群集。


    # boot
    

  2. 该节点是否成功加入群集?

    • 如果否,请继续步骤 3

    • 如果是,请执行以下步骤从磁盘设备组中删除该节点:

    1. 如果该节点成功加入群集,请从其余的磁盘设备组中删除该节点。

      "如何从所有磁盘设备组删除节点 (5/02)"中所述的过程进行操作。

    2. 从所有磁盘设备组中删除该节点后,返回"如何从群集节点卸载 Sun Cluster 软件 (5/02)"并重复相应过程。

  3. 如果该节点未能重新加入群集,请将该节点的 /etc/cluster/ccr 文件重命名为您所选的任何其它名称,例如 ccr.old


    # mv /etc/cluster/ccr /etc/cluster/ccr.old
    

  4. 返回"如何从群集节点卸载 Sun Cluster 软件 (5/02)"并重复相应过程。