Sun Cluster 3.0 U1 安装指南

第 3 章 升级 Sun 群集软件

本章逐步讲述如何将两个节点的 Sun Cluster 2.2 配置升级到 Sun Cluster 3.0 Update 1 (U1) 的过程。


注意:

如果您的群集已安装了 Sun Cluster 3.0 软件,请不要执行此过程。只需将您的 Sun Cluster 3.0 群集更新为 U1 版,具体步骤请遵循 SunCluster_3.0/Tools/Upgrade/README 文件中的说明。该文件位于 Sun Cluster 3.0 7/01 CD-ROM 上。


本章包含以下逐步说明。

有关规划 Sun Cluster 3.0 配置的概述性信息,请参阅第 1 章,规划 Sun Cluster 配置。有关本章中相关过程的详尽说明,请参阅"从 Sun Cluster 2.2 升级到 Sun Cluster 3.0 Update 1 软件"

从 Sun Cluster 2.2 升级到 Sun Cluster 3.0 Update 1 软件

要将两个节点的群集从 Sun Cluster 2.2 升级到 Sun Cluster 3.0 Update 1 (U1) 软件,请执行以下任务。

表 3-1 任务映射:从 Sun Cluster 2.2 升级到 Sun Cluster 3.0 U1 软件

任务 

有关说明,请转到... 

请阅读升级条件和限制,然后制定一个根磁盘分区计划方案来支持 Sun Cluster 3.0 U1 软件。 

"从 Sun Cluster 2.2 升级到 Sun Cluster 3.0 U1 软件的概述"

使群集脱离生产。对于 VERITAS Volume Manager (VxVM),还禁用共享的 CCD。 

"如何关闭群集"

如果您的群集使用是 VxVM,请导出磁盘组并删除 VxVM 软件包。 

"如何从 Sun Cluster 2.2 配置卸载 VERITAS Volume Manager 软件"

如有必要,请升级到 Solaris 8 操作环境,添加新的 /globaldevices 文件系统,然后更改文件系统分配以支持 Sun Cluster 3.0 U1 软件。如果您的群集使用的是 Solstice DiskSuite 软件,则还要删除介体并升级 Solstice DiskSuite 软件。

"如何升级 Solaris 操作环境"

升级到 Sun Cluster 3.0 U1 框架软件。如果您的群集使用的是 Solstice DiskSuite 软件,则还要重新创建介体。 

"如何升级群集软件包"

更新 PATHMANPATH

"如何更新根环境"

升级到 Sun Cluster 3.0 U1 数据服务软件。如果需要,则升级第三方应用程序。 

"如何升级数据服务软件包"

指定一个定额设备,完成群集软件的升级并且启动设备组和数据服务。如果群集使用 VERITAS Volume Manager (VxVM),则重新安装 VxVM 软件包并且导入并注册磁盘组。如果群集使用 Solstice DiskSuite 软件,则恢复调解器。 

"如何完成升级群集软件"

检验所有节点已加入群集。 

"如何检验群集成员关系"

从 Sun Cluster 2.2 升级到 Sun Cluster 3.0 U1 软件的概述

本节讲述任何从 Sun Cluster 2.2 升级到 Sun Cluster 3.0 U1 软件的条件、限制和规划指南。

条件和限制

要从 Sun Cluster 2.2 升级到 Sun Cluster 3.0 U1 软件,必须满足以下条件。

规划升级

要支持 Sun Cluster 3.0 U1 软件,可能需要更改当前的系统磁盘布局。在规划新的分区方案时请考虑:

有关 Sun Cluster 3.0 U1 软件对磁盘空间的要求的详细信息,请参阅"系统磁盘分区"

如何关闭群集

在升级软件之前,停止使用群集。

  1. 获取要升级的所有软件产品的 CD-ROM、文档和修补程序。

    • Solaris 8 操作环境

    • Solstice DiskSuite 软件或VERITAS Volume Manager

    • Sun Cluster 3.0 U1 框架

    • Sun Cluster 3.0 U1 数据服务(代理)

    • 第三方应用程序

    Solstice DiskSuite 软件和文档现在是 Solaris 8 产品的一部分。


    注意:

    以下是假定您从 CD-ROM 安装时执行的步骤。如果您是从网络安装,请确保在网络中装入了每种软件产品的 CD-ROM 映像。


    有关修补程序的位置和安装说明的信息,请参阅《Sun Cluster 3.0 U1 发行说明》。

  2. 通知用户群集将关闭。

  3. 成为群集的每个节点的超级用户。

  4. 搜索 /var/adm/messages 记录中未解决的错误或警告消息。

    改正所有问题。

  5. 检验没有任何逻辑主机处于维护状态。

    1. 成为群集中一个节点上的超级用户。

    2. 使用 hastat(1M) 命令显示群集的状态。


      # hastat
      HIGH AVAILABILITY CONFIGURATION AND STATUS
      -------------------------------------------
      ...
      LOGICAL HOSTS IN MAINTENANCE STATE

      如果屏幕输出显示 NONE,则表明没有任何逻辑主机处于维护状态。此时,请继续进行步骤 6

    3. 如果某台逻辑主机处于维护状态,请使用 haswitch(1M) 命令执行切换。


      # haswitch hostname logical-hostname
      
      <replaceable>hostname</replaceable>

      指定该逻辑主机所属的节点的名称

      logical-hostname

      指定该逻辑主机的名称

    4. 运行 hastat 命令以检验切换成功完成。

  6. 确保每台逻辑主机的管理文件系统的大小都至少为 10 兆字节。


    # df -k /logical-hostname
    

    如果某逻辑主机的管理文件系统的大小不足要求的最小大小 10 兆字节,则升级到 Sun Cluster 3.0 U1 后,该逻辑主机的管理文件系统将无法安装。如果逻辑主机管理文件系统小于 10 兆字节,则按照卷管理器文档过程来增大该文件系统。

  7. 备份系统。

    确保在对系统作备份之前所有用户都从系统中注销。

  8. (仅 VxVM)禁用共享的群集配置数据库 (CCD)。

    1. 从任一节点,创建共享的 CCD 的备份。


      # ccdadm -c backup-filename
      

      有关详细信息,请参阅 ccdadm(1M) 手册页。

    2. 在群集的每个节点上,删除共享的 CCD。


      # scconf clustername -S none 
      

    3. 在每个节点上,运行 mount(1M) 命令来确定 ccdvol 安装在哪个节点上。

      ccdvol 条目的输出类似于以下内容。


      # mount
      ...
      /dev/vx/dsk/sc_dg/ccdvol        /etc/opt/SUNWcluster/conf/
      ccdssa        ufs     suid,rw,largefiles,dev=27105b8  982479320

    4. 在每个节点上,运行 cksum(1) 命令来确保两个节点上的 ccd.database 文件完全一样。


      # cksum ccd.database
      

    5. 如果 ccd.database 文件不同,请从任一节点恢复在步骤 a 中创建的共享 CCD 的备份。


      # ccdadm -r backup-filename
      

    6. 在安装有 ccdvol 的节点上停止运行 Sun Cluster 2.2 软件。


      # scadmin stopnode
      

    7. 从同一节点,卸载 ccdvol


      # umount /etc/opt/SUNWcluster/conf/ccdssa 
      

  9. 在群集的每个节点上,停止运行 Sun Cluster 2.2 软件。


    # scadmin stopnode
    

  10. 运行 hastat 命令以检验群集中没有任何节点。

  11. 群集是否使用 VERITAS Volume Manager?

如何从 Sun Cluster 2.2 配置卸载 VERITAS Volume Manager 软件

如果群集使用 VERITAS Volume Manager (VxVM),则在群集的每个节点中执行该过程以卸装 VxVM 软件。现有磁盘组将保留并且在升级所有软件后自动重新调入。


注意:

要升级到 Sun Cluster 3.0 U1 软件,您必须删除 VxVM 软件,然后再重新安装它,而不管是否安装了 VxVM 的最新版本。


  1. 成为群集节点的超级用户。

  2. 卸载 VxVM。

    执行 VxVM 文档中的步骤。该进程包括以下任务。

    • 调出所有 VxVM 磁盘组。确保包含要保存的数据的磁盘在升级期间不用于其它用途。

    • 取消根磁盘的封装(如果它已封装)。

    • 关闭 VxVM

    • 删除所有安装的 VxVM 软件包。

  3. 删除 VxVM 设备名称空间。


    # rm -rf /dev/vx
    

  4. 对群集的其它节点重复执行步骤 1步骤 3

  5. 升级或准备 Solaris 操作环境,以便支持 Sun Cluster 3.0 U1 软件。

    转到"如何升级 Solaris 操作环境"

如何升级 Solaris 操作环境

在该群集中的每个节点上,执行此步骤来升级或准备 Solaris 操作环境,以便支持 Sun Cluster 3.0 U1 软件。

  1. 成为群集节点的超级用户。

  2. 如果卷管理器是 Solstice DiskSuite 并且正在使用调解器,则取消配置调解器。

    1. 运行以下命令来检验是否存在任何介体数据问题。


      # medstat -s setname
      
      -s setname

      指定磁盘集名称

      如果"状态"字段中的值是 Bad,请执行"如何修正错误的介体数据"过程来维修受影响的介体主机。

      有关详细信息,请参阅 medstat(1M) 手册页。

    2. 列出所有调解器。

      使用该信息来确定哪个节点(如果有)拥有您要从中删除介体的磁盘集。


      # metaset -s setname
      

      保存该信息,以供在执行"如何升级群集软件包"步骤期间恢复介体时使用。

    3. 如果任何节点都没有所有权,请获得该磁盘集的所有权。


      # metaset -s setname -t
      
      -t

      获取磁盘集的所有权

    4. 取消配置所有介体。


      # metaset -s setname -d -m mediator-host-list
      
      -s setname

      指定磁盘集名称

      -d

      从磁盘集中删除

      -m mediator-host-list

      指定将作为该磁盘集的介体主机删除的节点的名称

      有关 metaset 命令中特定介体的选项的详细信息,请参阅 mediator(7) 手册页。

    5. 删除介体软件。


      # pkgrm SUNWmdm
      

  3. 您的配置当前运行 Solaris 8 软件吗?

    • 如果否,则转到步骤 4

    • 如果是,

    1. 则创建一个大小至少为 100 兆字节的文件系统并将其安装点设置为 /globaldevices


      注意:

      要成功安装 Sun Cluster 3.0 U1 软件,必须有 /globaldevices 文件系统。


    2. 根据需要,在其他分区中重新分配空间,以便支持 Sun Cluster 3.0 U1 软件。

      有关指导信息,请参阅"系统磁盘分区"

    3. 转到步骤 6

  4. 确定用于升级到 Solaris 8 软件的过程。

    卷管理器 

    使用的过程 

    有关说明,请转到... 

    Solstice DiskSuite 

    升级 Solaris 和 Solstice DiskSuite 软件 

    Solstice DiskSuite 安装文档 

    VxVM 

    执行标准 Solaris 软件安装 

    Solaris 8 安装文档 

  5. 升级到 Solaris 8 软件时,请遵循您在步骤 4 中所选的步骤。

    在安装期间,对根磁盘分区方案作下列更改。

    • 创建一个大小至少为 100 兆字节的文件系统并将其安装点设置为 /globaldevices。要成功安装 Sun Cluster 3.0 U1 软件,必须有 /globaldevices 文件系统。

    • 根据需要,在其他分区中重新分配空间,以便支持 Sun Cluster 3.0 U1 软件。

    有关如何分区的指导信息,请参阅"系统磁盘分区"


    注意:

    在 Solaris 软件安装期间,缺省情况是禁用 Solaris 接口组功能。接口组在 Sun Cluster 配置中是不支持的并且不应启用。有关 Solaris 接口组的详细信息,请参阅 ifconfig(1M) 手册页。


  6. 安装 Solaris 软件修补程序。

    有关修补程序的位置和安装说明的信息,请参阅《Sun Cluster 3.0 U1 发行说明》。

  7. 安装与硬件相关的修补程序。

    有关修补程序的位置和安装说明的信息,请参阅《Sun Cluster 3.0 U1 发行说明》。

  8. 对于 Solstice DiskSuite 软件,安装所有 Solstice DiskSuite 软件修补程序。

    有关修补程序的位置和安装说明的信息,请参阅《Sun Cluster 3.0 U1 发行说明》。

  9. 升级到 Sun Cluster 3.0 U1 软件。

    转到"如何升级群集软件包"

示例 - 取消配置调解器

以下示例显示在升级到 Solaris 8 软件之前,如何从 Solstice DiskSuite 磁盘集 schost-1 取消配置介体主机 phys-schost-1


(检查介体的状态)
# medstat -s schost-1
 
(列出所有介体)
# metaset -s schost-1
 
(取消配置该介体)
# metaset -s schost-1 -d -m phys-schost-1
 
(删除介体软件)
# pkgrm SUNWmdm
 
(开始软件升级)

如何升级群集软件包

对每个节点执行该过程。您可以同时在两个节点上执行此过程,条件是您必须有 Sun Cluster 3.0 7/01 CD-ROM 的两个副本。


注意:

scinstall(1M) 升级命令分为两步 - -u begin 选项和-u finish 选项。该过程运行 begin 选项。而 finish 选项在"如何完成升级群集软件"中运行。


  1. 成为群集节点的超级用户。

  2. 如果卷管理器是 Solstice DiskSuite,则在每个节点中安装最新的 Solstice DiskSuite 调解器软件包 (SUNWmdm)。

    1. 如果您是从 CD-ROM 安装,请将 Sun Cluster 3.0 7/01 CD-ROM 插入节点上的 CD-ROM 驱动器。

      如果卷守护程序 vold (1M) 正在运行并且被配置为管理 CD-ROM 设备,则它会自动将 CD-ROM 安装在 /cdrom/suncluster_3_0u1 目录中。

    2. 转到 /cdrom/suncluster_3_0u1/SunCluster_3.0/Packages 目录。


      # cd /cdrom/suncluster_3_0u1/SunCluster_3.0/Packages
      

    3. 添加 SUNWmdm 软件包。


      # pkgadd -d 。 SUNWmdm
      

    4. 重新引导节点。


      # shutdown -g0 -y -i6
      

    5. 对其它节点重复这些操作。

  3. 重新配置调解器。

    1. 确定哪个节点对您将向其添加介体主机的磁盘集拥有所有权。


      # metaset -s setname
      
      -s setname

      指定磁盘集名称

    2. 如果任何节点都没有所有权,请获得该磁盘集的所有权。


      # metaset -s setname -t
      
      -t

      获取磁盘集的所有权

    3. 重新创建介体。


      # metaset -s setname -a -m mediator-host-list
      
      -a

      添加到磁盘集

      -m mediator-host-list

      指定将作为磁盘集的介体主机来添加的节点的名称

    4. 对每个磁盘集重复这些操作。

  4. 开始升级到 Sun Cluster 3.0 U1 软件。

    1. 在一个节点上,转到 /cdrom/suncluster_3_0u1/SunCluster_3.0/Tools 目录。


      # cd /cdrom/suncluster_3_0u1/SunCluster_3.0/Tools
      

    2. 升级群集软件框架。

      要升级的节点 

      要使用的命令 

      第一个节点 

      ./scinstall -u begin -F

      第二个节点 

      ./scinstall -u begin -N node1

      -F

      指定它是该群集中第一个安装好的节点

      -N node1

      指定该群集中第一个安装好的节点的名称,而不是要安装的第二个节点的名称。

      有关详细信息,请参阅 scinstall(1M) 手册页。

    3. 重新引导节点。


      # shutdown -g0 -y -i6
      

      当第一个节点重新引导到群集模式中时,它建立群集。如有必要,第二个节点需等待建立群集,然后完成其自己的进程并连接群集。

    4. 对其它群集节点重复这些操作。

  5. 在每个节点中,安装所有 Sun Cluster 修补程序。

    有关修补程序的位置和安装说明的信息,请参阅《Sun Cluster 3.0 U1 发行说明》。

  6. 更新目录路径。

    转到"如何更新根环境"

示例 - 从 Sun Cluster 2.2 升级到 Sun Cluster 3.0 U1 软件 - 开始进程

以下示例显示将两个节点的群集从 Sun Cluster 2.2 升级到 Sun Cluster 3.0 U1 软件的开始进程。群集节点的名称为 phys-schost-1phys-schost-2;前者为第一个安装好的节点,后者将加入 phys-schost-1 建立的群集。卷管理器是 Solstice DiskSuite,而且两个节点都用作磁盘集 schost-1 的介体主机。


(在每个节点上安装最新的 Solstice DiskSuite 介体软件包)
# cd /cdrom/suncluster_3_0u1/SunCluster_3.0/Packages
# pkgadd -d 。 SUNWmdm
 
(恢复介体)
# metaset -s schost-1 -t
# metaset -s schost-1 -a -m phys-schost-1 phys-schost-2
 
(开始在第一个节点上升级)
phys-schost-1# cd /cdrom/suncluster_3_0u1/SunCluster_3.0/Tools
phys-schost-1# ./scinstall -u begin -F
 
(开始在第二个节点上升级)
phys-schost-2# cd /cdrom/suncluster_3_0u1/SunCluster_3.0/Tools
phys-schost-2# ./scinstall -u begin -N phys-schost-1
 
(重新引导每个节点)
# shutdown -g0 -y -i6

如何更新根环境

对群集的每个节点执行下列任务。


注意:

在 Sun Cluster 配置中,用户初始化文件在试图输出到终端之前,必须检验这些shell 是通过交互式的shell 运行的。否则,数据服务可能出现意外的行为或遇到干扰。有关定制用户工作环境的详细信息,请参阅 Solaris 系统管理文档。


  1. 成为群集节点的超级用户。

  2. 修改 .cshrc 文件 PATHMANPATH 条目。

    1. 设置 PATH 以包含 /usr/sbin/usr/cluster/bin

      对于 VERITAS Volume Manager,还应设置 PATH,让它包含 /etc/vx/bin。如果安装了 VRTSvmsa 软件包,则还要将 /opt/VRTSvmsa/bin 添加到 PATH

    2. MANPATH 设置为包含 /usr/cluster/man。还应包含特定于卷管理器的路径。

      • 对于 Solstice DiskSuite 软件,还要将 MANPATH 也设置为包含 /usr/share/man

      • 对于 VERITAS Volume Manager,还要将 MANPATH 也设置为包含 /opt/VRTSvxvm/man。对于 &fmv250;,设置 MANPATH 以包含 /opt/VRTSvxvm/man。如果安装了 VRTSvmsa 软件包,还要将 <filename>/opt/VRTSvmsa/man</filename> 添加到 <literal>MANPATH</literal> 中。

  3. (可选的) 为了易于管理,请在每个节点中设置相同的超级用户口令(如果还未这样做)。

  4. 启动一个新的 shell 以激活环境更改。

  5. 对其他节点重复执行 步骤 1步骤 4

  6. 升级到 Sun Cluster 3.0 U1 数据服务软件。

    转到"如何升级数据服务软件包"

如何升级数据服务软件包

对每个群集节点执行该过程。

  1. 成为群集中一个节点上的超级用户。

  2. 升级应用程序并且按需要应用应用程序修补程序。

    有关安装说明,请参阅您的应用程序文档。


    注意:

    如果应用程序存储在共享磁盘中,则必须控制相关磁盘组并且手工安装相关的文件系统,然后再升级应用程序。


  3. 添加数据服务。

    1. 将 Sun Cluster 3.0 Agents 7/01 CD-ROM 插入该节点上的 CD-ROM 驱动器。

    2. 进入 scinstall(1M) 实用程序。


      # scinstall
      

      使用交互式的 scinstall 实用程序时,请遵照以下指导。

      • 交互式的 scinstall 允许您提前键入。因此,如果没有立即出现下一个屏幕,请不要多次按 Return键。

      • 除非另外指明,否则按 Control-D 将返回一系列相关问题的开始位置或者返回主菜单。

    3. 要添加数据服务,请键入 4(向此群集节点添加新数据服务的支持)。

      按提示添加数据服务。

    4. 弹出 CD-ROM。

  4. 安装所有 Sun Cluster 数据服务修补程序。

    有关修补程序的位置和安装说明的信息,请参阅《Sun Cluster 3.0 U1 发行说明》。

  5. 对群集的其它节点重复执行步骤 1步骤 4

  6. 关闭将升级到 Sun Cluster 3.0 U1 软件的第二个节点。


    phys-schost-2# shutdown -g0 -y -i0
    

    在重引导第一个安装好的节点前,始终让第二个节点处于关闭状态。

  7. 重引导该群集中第一个安装好的节点。

    重引导第一个安装好的节点前,确保第二个节点处于关闭状态。否则,第二个节点会因为尚未分配定额选票而处于应急状态。


    phys-schost-1# shutdown -g0 -y -i6
    

  8. 引导完第一个安装好的节点后,再引导第二个节点。


    ok boot
    

  9. 重引导完两个节点后,请从任一节点检验这两个节点是否都为群集成员。


    -- Cluster Nodes --
                       Node name      Status
                       ---------      ------
      Cluster node:    phys-schost-1  Online
      Cluster node:    phys-schost-2  Online

    有关显示群集状态的详细信息,请参阅 scstat(1M) 手册页。

  10. 分配定额设备,然后完成升级。

    转到"如何完成升级群集软件"

如何完成升级群集软件

该过程将完成在"如何升级群集软件包"中开始的 scinstall(1M) 升级进程。对群集的每个节点执行以下步骤。

  1. 成为群集的每个节点的超级用户。

  2. 选择一个要成为定额设备的共享磁盘。

    可以使用由两个节点共享的任一磁盘作为定额设备。从任一节点中,使用 scdidadm (1M) 命令确定共享磁盘的设备 ID(DID)名称。该设备名在以下步骤指定: 步骤 5,即 -q globaldev=DIDname option to scinstall.


    # scdidadm -L
    

  3. 如果您的卷管理器是 VxVM,请在群集的每个节点上重新安装并配置 VxVM 软件,包括所有修补程序。

    按照"安装并且配置 VxVM 软件"中的步骤执行。


    注意:

    如果必须重新引导第一个安装节点,则首先应使用 scshutdown(1M) 命令关闭该群集,然后进行重引导。只能等到群集关闭 之后才能重新引导群集中最先安装的节点。


    禁用群集安装模式前,只有建立群集的第一个安装节点才有定额选票。在仍处于安装模式的已建立的群集中,如果群集在重新引导第一个安装的节点之前不关闭,其余群集节点将无法获得定额,从而导致整个群集关闭。

    要确定哪个节点是第一个安装的节点,请查看定额选票的分配情况,方法是使用 scconf -p 命令。只有第一个安装的节点才有定额选票。

    执行完步骤 7 后,将分配定额选票,而且不再需要这种重新引导限制。

  4. 将 Sun Cluster 3.0 7/01 CD-ROM 插入节点上的 CD-ROM 驱动器。

    该步骤假定卷守护程序 vold(1M) 正在运行且已配置为管理 CD-ROM 设备。

  5. 完成节点的群集软件升级。


    # scinstall -u finish -q globaldev=DIDname \
    -d /cdrom/scdataservices_3_0 -s srvc[,srvc]
    -q globaldev=DIDname

    指定定额设备的设备 ID (DID) 名称

    -d /cdrom/scdataservices_3_0

    指定 CD-ROM 映像的目录位置

    -s srvc

    指定要配置的数据服务的名称


    注意:

    可能产生类似于下列的错误信息。您完全可以忽略它。


    ** Installing Sun Cluster - Highly Available NFS Server **
    Skipping "SUNWscnfs" - already installed


  6. 弹出 CD-ROM。

  7. 对其他节点重复执行 步骤 4步骤 6

    对两个节点执行完操作后,将禁用群集安装模式并分配所有定额选票。

  8. 如果卷管理器是 Solstice DiskSuite,则从任一节点将预先存在的磁盘设备组设置为联机模式。


    # scswitch -z -D disk-device-group -h 
    node
    
    -z

    进行切换

    -D disk-device-group

    指定磁盘设备组的名称,对于 Solstice DiskSuite 软件该名称与磁盘集名称相同

    -h node

    指定充当主要磁盘设备组的群集节点的名称

  9. 从任一节点中,启动预先存在的数据服务资源组。

    这时,会将 Sun Cluster 2.2 逻辑主机转换为 Sun Cluster 3.0 U1 资源组,且逻辑主机的名称附有后缀 -lh。例如,名为 lhost-1 的逻辑主机将升级到名为 lhost-1-lh 的资源组。在以下命令中使用这些已经过转换的资源组的名称。


    # scswitch -z -g resource-group -h 
    node
    
    -g resource-group

    指定要联机的资源组的名称

    您可以使用 scrgadm -p 命令来显示群集中所有资源类型和资源组的列表。scrgadm -pv 命令将更为详细地显示该列表。

  10. 如果您在使用 Sun Management Center 来监视 Sun Cluster 配置,请为 Sun Management Center 安装 Sun Cluster 模块。

    1. 确保您使用的是 Sun Management Center 的最新版本。

      有关安装或升级步骤的说明,请参阅 Sun Management Center 文档。

    2. 按照"Sun Cluster 监视的安装要求"中的指导和步骤,安装 Sun Cluster 模块软件包。

  11. 检验所有节点已加入群集。

    转到"如何检验群集成员关系"

示例 - 从 Sun Cluster 2.2 升级到 Sun Cluster 3.0 U1 软件 - 完成进程

以下示例显示将两个节点的群集从 Sun Cluster 2.2 升级到 Sun Cluster 3.0 U1 软件的完成进程。该群集节点名是 phys-schost-1phys-schost-2,设备组名是 dg-schost-1 和 dg-schost-2,数据服务资源组名是 lh-schost-1lh-schost-2


(确定共享定额设备的 DID)
phys-schost-1# scdidadm -L
 
(在每个节点上完成升级)
phys-schost-1# scinstall -u finish -q globaldev=d1 \
-d /cdrom/suncluster_3_0u1 -s nfs
phys-schost-2# scinstall -u finish -q globaldev=d1 \
-d /cdrom/suncluster_3_0u1 -s nfs
 
(将每个节点上的设备组和数据服务资源组设置为联机)
phys-schost-1# scswitch -z -D dg-schost-1 -h phys-schost-1
phys-schost-1# scswitch -z -g lh-schost-1 -h phys-schost-1
phys-schost-1# scswitch -z -D dg-schost-2 -h phys-schost-2 
phys-schost-1# scswitch -z -g lh-schost-2 -h phys-schost-2

如何检验群集成员关系

执行该过程来检验是否所有节点都已加入该群集。

  1. 成为群集中任一节点上的超级用户。

  2. 显示群集状态。

    检验群集节点是否处于联机状态以及定额设备、设备组和数据服务资源组是否经过配置并处于联机状态。


    # scstat
    

    有关显示群集状态的详细信息,请参阅 scstat(1M) 手册页。

  3. 在每个节点中,显示系统进行检查以检验其与群集节点连通性的所有设备的列表。

    每个节点上的输出应该是相同的。


    # scdidadm -L
    

群集升级完成。现在可以恢复群集的使用。