Sun Cluster 3.0 5/02 发行说明

第 1 章 Sun Cluster 3.0 5/02 发行说明

本文档提供了有关 SunTM Cluster 3.0 5/02 软件的以下信息。

本文档的附录中包含了安装 Sun Cluster 3.0 5/02 软件和数据服务时所使用的安装规划工作表以及示例。

新增功能

下表列出了一些需要更新到 Sun Cluster 文档中的新增功能。第二列标明所更新的文档。 请与 Sun 销售代表联系,以获取所支持的硬件和软件的完整列表。

表 1-1 新增功能

功能 

文档更新 

HAStoragePlus 

Sun Cluster 3.0 5/02 补编》中包含了对《Sun Cluster 3.0 12/01 Data Services Installation and Configuration Guide》和《Sun Cluster 3.0 12/01 Data Services Developer's Guide》的更新内容,用以支持 HAStoragePlus 资源类型。通过 HAStoragePlus 资源类型,可使本地文件系统在 Sun Cluster 环境中具有高可用性。《Sun Cluster 3.0 5/02 Error Messages Guide》中记录了新的 HAStoragePlus 错误信息。

Prioritized Service Management (RGOffload) 

Sun Cluster 3.0 5/02 补编》中包含了一些新过程以及对《Sun Cluster 3.0 12/01 Data Services Installation and Configuration Guide》的更新内容,用以支持 RGOffload 资源类型。RGOffload 通过删除包含非关键性数据服务的资源组,使群集可以自动释放节点的资源以供关键性数据服务使用。《Sun Cluster 3.0 5/02 Error Messages Guide》中记录了新的 RGOffload 错误信息。

为其他数据服务提供 Sun Cluster Security Hardening 支持 

Sun Cluster Security Hardening 文档可在以下站点获取:http://www.sun.com/security/blueprints。从该 URL 中,向下滚动到"Architecture"标题就可找到那篇有关 Sun Cluster Security Hardening 的文章。有关详细信息,请参阅"Sun Cluster Security Hardening"

SunPlex Agent Builder 增强功能 

Sun Cluster 3.0 5/02 补编》中包含了对《Sun Cluster 3.0 12/01 Data Services Developer's Guide》的更新内容。这些内容可帮助用户使用 SunPlex Agent Builder 来创建普通数据服务 (GDS),GDS 是单项预编译的数据服务。

卸载 Sun Cluster 软件 

Sun Cluster 3.0 5/02 补编》中包含了一些新的、用于卸载群集软件的过程,还包含对《Sun Cluster 3.0 12/01 软件安装指南》和《Sun Cluster 3.0 12/01 系统管理指南》中相关过程的更新。scinstall(1M) 命令的新 -r 选项可从节点上删除 Sun Cluster 软件。

从 Sun Cluster 3.0 软件的任何先前版本升级到 Sun Cluster 3.0 5/02 软件 

遵循《Sun Cluster 3.0 12/01 软件安装指南》中的"升级到 Sun Cluster 3.0 软件更新版"内的相关过程,从 Sun Cluster 3.0 软件的任一先前版本进行升级。有关 Solaris 8 升级说明的更正信息,请参阅"升级到 Sun Cluster 3.0 软件更新版"

有关新增功能的说明

本节包括有关新增功能的详细信息。

Sun Cluster Security Hardening

Sun Cluster Security Hardening 使用 Sun BluePrintsTM 程序所推荐的 Solaris 操作环境的强化技术来基本实现对群集安全性的强化。Solaris Security Toolkit(安全性工具箱)自动执行 Sun Cluster Security Hardening。

Sun Cluster Security Hardening 文档可在以下站点获取:http://www.sun.com/security/blueprints。从该 URL 中,向下滚动到"Architecture"标题就可找到那篇标题为"Securing the Sun Cluster 3.0 Software"的文章。本文档说明如何在 Solaris 8 环境中确保安全部署 Sun Cluster 3.0。该说明还提到要使用 Solaris Security Toolkit 以及其他由 Sun 安全专家推荐的、经实践证明为最佳的安全技术。

Sun Cluster Security Hardening 在 Solaris 8 环境中支持下表中列出的所有 Sun Cluster 3.0 5/02 数据服务。


注意:

Sun Cluster Security Hardening 只在 Solaris 8 上支持所有 Sun Cluster 3.0 5/02 数据服务。如果是在 Solaris 9 上,则 Security Hardening 不可用于 Sun Cluster 3.0 5/02。


表 1-2 Sun Cluster Security Hardening 所支持的数据服务

数据服务代理 

应用程序版本: 故障转移 

应用程序版本: 可缩放 

Sun Cluster HA for iPlanet Messaging Server 

6.0 

4.1 

Sun Cluster HA for iPlanet Web Server 

6.0 

4.1 

Sun Cluster HA for Apache 

1.3.9 

1.3.9 

Sun Cluster HA for SAP 

4.6D(32 位和 64 位) 

4.6D(32 位和 64 位) 

Sun Cluster HA for iPlanet Directory Server 

4.12 

N/A 

Sun Cluster HA for NetBackup 

3.4  

N/A 

Sun Cluster HA for Oracle  

8.1.7 和 9i(32 位和 64 位) 

N/A 

Sun Cluster HA for Sybase ASE  

12.0(32 位) 

N/A 

Sun Cluster Support for Oracle Parallel Server/Real Application Clusters 

8.1.7 和 9i(32 位和 64 位) 

N/A 

Sun Cluster HA for DNS 

取决于 OS 

N/A 

Sun Cluster HA for NFS 

取决于 OS 

N/A 

支持的产品

本节介绍 Sun Cluster 3.0 5/02 软件所支持的软件及内存要求。

即将失效的功能

下一个 Sun Cluster 功能发行版将不再支持公共网络管理 (PNM)。将由"Solaris IP 多路径传送"来为 Sun Cluster 监视网络适配器并进行故障转移。

公共网络管理 (PNM)

可以使用 PNM 来配置和管理对网络接口卡的监视与故障转移。但是,PNM 守护程序的用户界面和 PNM 管理命令均已过时,而且不再会出现在 Sun Cluster 的下一个功能发行版中。强烈建议用户不要开发依赖于这些界面的工具。 当前发行版还正式支持以下界面,但预计 Sun Cluster 的下一个功能发行版将删除它们,或对它们进行更改。

要为在 Sun Cluster 的下一个功能发行版中迁移到"IP 多路径传送"做好准备,请考虑以下问题。

安装 Sun Cluster AnswerBooks

Sun Cluster 3.0 5/02 用户文档是以 AnswerBook2TM 格式联机提供的,与 AnswerBook2 文档服务器配套使用。Sun Cluster 3.0 5/02 AnswerBook2 文档集包含下列集合。


注意:

Sun Cluster 3.0 5/02 补编》中包含了对 Sun Cluster 3.0 12/01 文档集的增补内容或更改内容。使用此增补内容时,请结合使用 Sun Cluster 3.0 5/02 集合中所提供的各 Sun Cluster 3.0 12/01 手册,以及 Sun Cluster 3.0 12/01 数据服务集合。


此外,通过 Web 站点 docs.sun.comSM,可以在 Web 上访问 Sun Cluster 文档。在下面的站点,您可以浏览 docs.sun.com 分类文档或搜索特定的书名或主题。

http://docs.sun.com

设置 AnswerBook2 文档服务器


注意:

Solaris 9 文档 CD-ROM 中未提供 AnswerBook2 文档服务器软件。如果您使用的是 Sun Cluster 3.0 5/02 软件的 Solaris 9 版本,但还没有获得 AnswerBook2 服务器软件,请访问 http://www.sun.com/software/ab2 以下载该 AnswerBook2 软件、安装说明以及发行说明。或者,也可以使用本文档的 PDF 版本。Sun Cluster 3.0 5/02 的 CD-ROM 中提供了这些版本。有关详细信息,请参阅"PDF 文件"


Solaris 8 操作环境发行版包括 AnswerBook2 文档服务器软件。Solaris 8 文档 CD-ROM(其内容独立于 Solaris 操作环境 CD-ROM)中包含该文档服务器软件。安装 AnswerBook2 文档服务器时需要使用 Solaris 8 文档 CD-ROM。

如果在您的工作地点已安装了 AnswerBook2 文档服务器,则可以将该服务器用于 Sun Cluster AnswerBooks。否则,将需要在您的工作地点的某台机器上安装文档服务器。 我们建议该文档服务器将管理控制台用做群集的管理界面。 请勿将某个群集节点用作 AnswerBook2 文档服务器。

要了解安装 AnswerBook2 文档服务器的有关信息,请在服务器上装入 Solaris 8 文档 CD-ROM,然后查看 README 文件。

查看 Sun Cluster AnswerBooks

如果已在一台服务器上安装了文档服务器,则将 Sun Cluster AnswerBook2 文档安装在该服务器的一个文件系统中。Sun Cluster AnswerBooks 中包含一个安装后脚本,它会自动将文档添加到现有的 AnswerBook 库中。

要安装 AnswerBook2 服务器,需要具备以下条件:

如何安装 Sun Cluster AnswerBooks

使用以下过程来为 Sun Cluster 3.0 5/02 集合和 Sun Cluster 3.0 12/01 数据服务集合安装 Sun Cluster AnswerBook 软件包。

  1. 成为安装了 AnswerBook2 文档服务器的那个服务器的超级用户。

  2. 如果以前安装过 Sun Cluster AnswerBooks,请删除旧的软件包。

    如果从未安装过 Sun Cluster AnswerBooks,请忽略此步骤。


    # pkgrm SUNWscfab SUNWscdab
    

  3. 将 Sun Cluster 3.0 5/02 CD-ROM 或 Sun Cluster 3.0 Agents 5/02 CD-ROM 放入与文档服务器相连的 CD-ROM 驱动器中。

    卷管理守护程序 vold(1M) 会自动安装该 CD-ROM。

  4. 转到该 CD-ROM 上包含有 Sun Cluster AnswerBook 软件包的那个目录下。

    AnswerBook 软件包位于以下位置。

    • Sun Cluster 3.0 5/02 CD-ROM

      /cdrom/suncluster_3_0_u3/SunCluster_3.0/Packages

    • Sun Cluster 3.0 Agents 5/02 CD-ROM

      /cdrom/scdataservices_3_0_u3/components/SunCluster_Data_Service_Answer_Book_3.0/Packages

  5. 使用 pkgadd(1) 命令来安装该软件包。


    # pkgadd -d .
    

  6. 选择要安装的 Sun Cluster 3.0 5/02 集合 (SUNWscfab) 软件包和 Sun Cluster 3.0 12/01 数据服务集合 (SUNWscdab) 软件包。

  7. pkgadd 安装选项菜单中,选择 heavy 以将完整的软件包添加到系统中,同时更新 AnswerBook2 目录。

    在 Sun Cluster 3.0 5/02 集合 (SUNWscfab) 或 Sun Cluster 3.0 12/01 数据服务集合 (SUNWscdab) 中任选一个。

每个 CD-ROM 上的文档集合软件包均包含一个安装后的脚本,它将集合添加到文档服务器的数据库中并重新启动该服务器。现在,您应该能够通过文档服务器来查看 Sun Cluster AnswerBooks 了。

PDF 文件

Sun Cluster CD-ROM 中为 Sun Cluster 文档集中的每本书都提供了一个 PDF 文件。

与 Sun Cluster AnswerBooks 类似,有七个 PDF 文件位于 Sun Cluster CD-ROM 上,而只有一个 PDF 文件位于 Sun Cluster Agents CD-ROM 上。每个 PDF 文件名都是所对应的书名的缩写(请参阅表 1-4)。

这些 PDF 文件位于以下位置。

表 1-4 PDF 缩写与书名对照表

CD-ROM 

PDF 缩写 

书名 

Sun Cluster 3.0 5/02 CD-ROM 

CLUSTSUPP

Sun Cluster 3.0 5/02 补编

CLUSTINSTALL

Sun Cluster 3.0 12/01 软件安装指南

CLUSTNETHW

Sun Cluster 3.0 12/01 Hardware Guide

CLUSTAPIPG

Sun Cluster 3.0 12/01 Data Services Developer's Guide

CLUSTSYSADMIN

Sun Cluster 3.0 12/01 系统管理指南

CLUSTCONCEPTS

Sun Cluster 3.0 12/01 概念

CLUSTERRMSG

Sun Cluster 3.0 5/02 Error Messages Guide

Sun Cluster 3.0 Agents 5/02 CD-ROM 

CLUSTDATASVC

Sun Cluster 3.0 12/01 Data Services Installation and Configuration Guide

局限性

以下局限性适用于 Sun Cluster 3.0 5/02 发行版:

服务和应用等方面的局限性

硬件局限性

卷管理器的局限性

群集文件系统的局限性

VxFS 的局限性

网络适配器故障转移 (NAFO) 的局限性

数据服务的局限性

本节讨论特定数据服务的局限性。本节不包括适用于所有数据服务的局限性。


注意:

以后的《Sun Cluster 发行说明》中将不再包含适用于特定数据服务的数据服务局限性。但是,《Sun Cluster 发行说明》中将包含适用于所有数据服务的数据服务局限性。


有关适用于特定数据服务的其他数据服务局限性,请参阅《Sun Cluster 3.0 12/01 Data Services Installation and Configuration Guide》。

Sun Cluster HA for Oracle

Sun Cluster 与 NetBackup 的局限性

Sun Cluster HA for NetBackup 的局限性

Sun Cluster 3.0 HA for NFS 的局限性

指南

以下指南适用于 Sun Cluster 3.0 5/02 发行版。

数据服务超时时间指南

以下指南解决"错误 4499573"中所报告的问题。前提是相关功能会按预期正常发挥作用。在这种情况下,《Sun Cluster 3.0 12/01 Data Services Installation and Configuration Guide》中需要反映以下指南。

如果使用的数据服务具有大量的 I/O 操作,并且已在群集中为其配置了大量磁盘,则在发生磁盘故障时,由于在 I/O 子系统中会进行多次重试,将导致应用程序出现延迟现象。I/O 子系统可能需要数分钟时间来重试和从磁盘故障中恢复。这种延迟可能导致 Sun Cluster 将应用程序故障转移到另一个节点,即使该磁盘最终会自行恢复也是如此。要避免在这些实例期间发生故障转移,请考虑增加数据服务的缺省探测超时时间。如果需要了解有关延长数据服务超时时间的详细信息或获取此方面的帮助,请与当地的支持工程师联系。

数据服务安装指南

在开始安装 Solaris 和 Sun Cluster 之前,请先确定所有数据服务的要求。如果您不了解这些要求,就可能会错误地执行安装进程,结果需要全部重新安装 Solaris 和 Sun Cluster 软件。

例如,Oracle Parallel Server/Real Application Clusters 的 Oracle Parallel Fail Safe/Real Application Clusters Guard 选项对于群集中所使用的主机名/节点名称就有特殊要求。由于在安装 Sun Cluster 软件之后就再也无法更改主机名,因此在安装 Sun Cluster 软件之前必须先满足这些要求。有关主机名/节点名称特殊要求的详细信息,请参阅 Oracle Parallel Fail Safe/Real Application Clusters Guard 文档。

修补程序和所需的固件级别

本节提供有关用于 Sun Cluster 配置的修补程序的信息。

PatchPro

Sun Cluster 软件较早采用 PatchPro。PatchPro 是由 Sun 开发的修补程序管理解决方案。此新工具旨在简化选择、下载那些在安装或维护 Sun Cluster 软件时所要求的修补程序的过程。PatchPro 提供了一个特定于 Sun Cluster 的"Interactive Mode"工具(该工具可简化修补程序的安装)和一个"Expert Mode"工具(该工具可使用最新的修补程序集来维护配置)。"Expert Mode"对于那些希望获得所有最新的修补程序(而不仅仅是高可用性和安全性修补程序)的人来说特别有用。


注意:

您必须先注册一个 SunSolveSM 帐户,然后才能查看和下载 Sun Cluster 产品所需的修补程序。如果您尚未注册帐户,请与 Sun 服务代表或销售工程师联系,也可以通过 SunSolve Online Web 站点进行注册。


要访问用于 Sun Cluster 软件的 PatchPro 工具,请转到 http://www.sun.com/PatchPro/、单击"Sun Cluster",然后选择"Interactive Mode"或"Expert Mode"。请遵循 PatchPro 工具中的说明来描述您的群集配置并下载修补程序。

SunSolve Online

SunSolve OnlineSM Web 站点使您可以全天候地访问有关 Sun 产品的修补程序、软件和固件等的最新信息。要获取所支持的软件、固件和修补程序修订版的最新列表,请通过 http://sunsolve.sun.com 访问 SunSolve Online 站点。


注意:

必须先注册一个 SunSolve 帐户,然后才能查看并下载 Sun Cluster 产品所需的修补程序。如果您尚未注册帐户,请与 Sun 服务代表或销售工程师联系,也可以通过 SunSolve Online Web 站点进行注册。


通过使用 SunSolve EarlyNotifierSM Service,可以找到有关 Sun Cluster 3.0 修补程序的信息。要查看 EarlyNotifier 信息,请登录到 SunSolve,并从主页的顶端访问"Simple Search"选项。 在"Simple Search"页中,单击"EarlyNotifier"框,然后在查找条件框中键入 Sun Cluster 3.0。此时会显示 Sun Cluster 3.0 软件的 EarlyNotifier 页。

在安装 Sun Cluster 3.0 软件以及将修补程序应用到群集组件(Solaris 操作系统、Sun Cluster 软件、卷管理器或数据服务软件或磁盘硬件)中之前,请查看 EarlyNotifier 信息以及修补程序附带的任何 README 文件。所有群集节点的修补程序级别必须相同,否则,群集将无法正常运行。

有关具体的修补过程及管理修补程序的技巧,请参阅《Sun Cluster 3.0 12/01 系统管理指南》。

mod_ssl 许可证条款

要查看有关 mod_ssl 的许可证条款、归属与版权声明,请参阅 Sun Cluster 3.0 5/02 CD-ROM 上的 Sun Cluster 3.0 README 文件。

Sun Management Center 软件升级

本节介绍如何在 Sun Cluster 3.0 5/02 配置中将 Sun Management Center 2.1.1 升级到 Sun Management Center 3.0 软件。

如何升级 Sun Management Center 软件

执行以下过程以在 Sun Cluster 3.0 5/02 配置中将 Sun Management Center 2.1.1 升级到 Sun Management Center 3.0 软件。

  1. 准备好以下各项。

    • Sun Cluster 3.0 5/02 CD-ROM 或到该 CD-ROM 映像的路径。 升级 Sun Management Center 软件之后,将使用该 CD-ROM 来重新安装 Sun Cluster 模块软件包。

    • Sun Management Center 3.0 文档。

    • Sun Management Center 3.0 修补程序和 Sun Cluster 模块修补程序(如果有)。有关修补程序的位置和安装说明的信息,请参阅"修补程序和所需的固件级别"

  2. 停止所有 Sun Management Center 进程。

    1. 如果 Sun Management Center 控制台正在运行,请退出该控制台。

      从控制台窗口的菜单条中,选择"File"(文件)>"Exit"(退出)。

    2. 在每个 Sun Management Center 代理机器(群集节点)上,停止 Sun Management Center 代理进程。


      # /opt/SUNWsymon/sbin/es-stop -a
      

    3. 在 Sun Management Center 服务器机器上,停止 Sun Management Center 服务器进程。


      # /opt/SUNWsymon/sbin/es-stop -S
      

  3. 作为超级用户,从表 1-5 中列出的位置删除 Sun Cluster 模块软件包。

    必须从所有位置删除所有的 Sun Cluster 模块软件包。否则,可能会因软件包相关性问题而导致 Sun Management Center 软件升级失败。在升级 Sun Management Center 软件之后,将步骤 5 中重新安装这些软件包。


    # pkgrm module-package
    

    表 1-5 要从中删除 Sun Cluster 模块软件包的位置

    位置 

    要删除的软件包 

    每个群集节点 

    SUNWscsamSUNWscsal

    Sun Management Center 控制台机器 

    SUNWscscn

    Sun Management Center 服务器机器 

    SUNWscssv

    Sun Management Center 帮助服务器机器 

    SUNWscshl

  4. 升级到 Sun Management Center 3.0 软件。

    按照 Sun Management Center 3.0 文档中的升级过程进行操作。

  5. 作为超级用户,将 Sun Cluster 模块软件包重新安装到表 1-6 中所列出的位置上。

    对于 Sun Management Center 3.0 软件,要将帮助服务器软件包 SUNWscshl 安装在控制台机器和帮助服务器机器上。


    # cd /cdrom/suncluster_3_0_u3/SunCluster_3.0/Packages
    # pkgadd module-package
    

    表 1-6 要安装 Sun Cluster 模块软件包的位置

    位置 

    要安装的软件包 

    每个群集节点 

    SUNWscsamSUNWscsal

    Sun Management Center 控制台机器 

    SUNWscscnSUNWscshl

    Sun Management Center 服务器机器 

    SUNWscssv

    Sun Management Center 帮助服务器机器 

    SUNWscshl

  6. 将任何 Sun Management Center 修补程序和任何 Sun Cluster 模块修补程序应用于群集中的每个节点。

  7. 在所有相关的机器上重新启动 Sun Management Center 代理、服务器和控制台进程。

    遵循《Sun Cluster 3.0 12/01 软件安装指南》的"如何启动 Sun Management Center"中所介绍的过程进行操作。

  8. 装入 Sun Cluster 模块。

    按照《Sun Cluster 3.0 12/01 软件安装指南》的"如何装入 Sun Cluster 模块"中所介绍的过程进行操作。

    如果此前已装入 Sun Cluster 模块,则卸下该模块,然后重新装入,以清除服务器上所有已被高速缓存的报警定义。要卸下该模块,请从控制台的"Details"(详细资料)窗口中选择"Module"(模块)>"Unload Module"(卸下模块)。

Sun Cluster 模块资源和资源组创建向导

本节介绍以前的相关文档中所未介绍的、有关 Sun Cluster 3.0(Sun Management Center 3.0 的一个模块)的一些信息。有关升级到 Sun Management Center 3.0 的信息,请参阅"Sun Management Center 软件升级"

通过 Sun Cluster 模块控制台,可以创建资源和资源组、更改它们的状态或删除它们。如果打开 Sun Cluster 的"Details"(详细资料)窗口并从分层结构(树)视图或拓扑视图中选择相应的选项,即可访问这些新的资源和资源组。

弹出式菜单中的菜单项和相关的表

从"Resource Group Status"(资源组状态)表和"Resource Group Properties"(资源组属性)表中访问:

  • Bring Online(使联机)

  • Take Offline(使脱机)

  • Delete Selected Resource Group(删除所选的资源组)

  • Create New Resource Group(创建新资源组)

  • Create New Resource(创建新资源)

从"Resource Status"(资源状态)表和"Resource Configuration"(资源配置)表访问:

  • Enable(启用)

  • Disable(禁止)

  • Delete Resource(删除资源)

  • Create New Resource Group(创建新资源组)

  • Create New Resource(创建新资源)

如何从树视图访问创建向导

执行以下步骤来访问用于创建资源或资源组的向导。

  1. 在分层结构(树)视图或拓扑视图中,双击"Operating System"(操作系统)>"Sun Cluster"。

  2. 在"Resource Groups"(资源组)项或"Resource Groups"(资源组)子树中的任何项上单击鼠标右键。

  3. 从弹出式菜单中选择"Create New Resource Group"(创建新资源组)或"Create New Resource"(创建新资源)。

如何创建资源和资源组

完成以下过程来使用弹出式菜单上的创建向导,这些弹出式菜单可以通过资源表或资源组表来进行访问。

  1. 显示资源表或资源组表。

  2. 将鼠标指向表中的任一单元项(标题行除外)。

  3. 单击鼠标右键。

  4. 从弹出式菜单中选择所需的操作。

如何删除或修改资源和资源组

执行以下步骤来更改资源的状态或删除资源或资源组。使用通过资源表和资源组表得到的弹出式菜单来启用或禁用资源,或使资源组联机或脱机。

  1. 显示资源表或资源组表。

  2. 选择所要修改的项。

    • 要删除某个项,请选择所要删除的那个资源或资源组。

    • 要更改某个项的状态,请选择所要更改的资源或资源组所在行中的状态单元。

  3. 单击鼠标右键。

  4. 从弹出式菜单中进行选择,以执行下列任务之一。

    • Bring Online(使联机)

    • Take Offline(使脱机)

    • Enable(启用)

    • Disable(禁用)

    • Delete Selected Resource Group(删除所选的资源组)

    • Delete Resource(删除资源)


注意:

当删除资源或资源组或编辑它们的状态时,该 Sun Cluster 模块将启动"Probe Viewer"(探测查看器)窗口。如果该 Sun Cluster 模块成功完成了您所选择的任务,"Probe Viewer"(探测查看器)窗口会显示以下信息:"Probe command returned no data"( 探测命令未返回数据)。否则,该窗口将显示一条错误信息。


有关 Sun Management Center 的详细信息,请参阅 Sun Management Center 文档和联机帮助。

已知问题

以下已知问题会影响 Sun Cluster 3.0 5/02 发行版的运行。有关已知问题的最新信息,请参阅 http://docs.sun.com 上的《Sun Cluster 3.0 5/02 Release Notes Supplement》联机版本。

BugId 4490386

问题摘要:如果在群集中使用 Sun Enterprise 10000 服务器,则当使用某种 I/O 卡配置时,这些服务器会进入应急状态。

解决方法:在群集的 Sun Enterprise 10000 服务器中,不要在其 SBus I/O 板的插槽 0 中安装 UDWIS I/O 卡。

BugId 4501655

问题摘要:如果所要锁定的设备是一个全局设备(例如 /dev/global/rdsk/d4s0),则记录锁定将在其他节点上不起作用。

如果在任何特定节点上多次在后台运行该程序,则记录锁定看上去可正常工作。预计将出现以下情况:在该程序的第一个副本锁定设备的一部分后,该程序的其他副本将发生阻塞,等待该设备被解除锁定。但是,如果从另一个节点上运行此程序,则该程序会成功地再次锁定该设备,尽管它应该发生阻塞以等待设备被解除锁定。

解决方法:没有解决方法。

BugId 4504311

问题摘要:将 Sun Cluster 配置升级到 Solaris 8 10/01 软件(升级到 Sun Cluster 3.0 12/01 时要求这样做)后,将恢复 Apache 应用程序的启动脚本和停止脚本。如果群集中已存在 Apache 数据服务 (Sun Cluster HA for Apache),并且它采用缺省配置(/etc/apache/httpd.conf 文件存在,但 /etc/rc3.d/S50apache 文件不存在),则 Apache 应用程序会独立于 Sun Cluster HA for Apache 数据服务而自行启动。这可避免启动该数据服务,因为 Apache 应用程序已在运行。

解决方法:在每个节点上执行以下操作。

  1. 在关闭节点进行升级之前,请先确定下列链接是否已经存在。如果存在,请确定文件名中是否包含大写字母 K 或 S。


    /etc/rc0.d/K16apache
    /etc/rc1.d/K16apache
    /etc/rc2.d/K16apache
    /etc/rc3.d/S50apache
    /etc/rcS.d/K16apache

    如果这些链接已存在,并且文件名中包含大写字母 K 或 S,则不需要采取进一步操作。否则,在将节点升级到 Solaris 8 10/01 软件之后,请执行下一步中的操作。

  2. 在将节点升级到 Solaris 8 10/01 软件之后,但在重新引导该节点之前,通过重命名文件(改用小写字母 k 或 s)来移除已恢复的 Apache 链接。


    # mv /a/etc/rc0.d/K16apache /a/etc/rc0.d/k16apache
    # mv /a/etc/rc1.d/K16apache /a/etc/rc1.d/k16apache
    # mv /a/etc/rc2.d/K16apache /a/etc/rc2.d/k16apache
    # mv /a/etc/rc3.d/S50apache /a/etc/rc3.d/s50apache
    # mv /a/etc/rcS.d/K16apache /a/etc/rcS.d/k16apache
    

BugId 4511699

问题摘要: Sun Cluster HA for NFS 要求将 files [SUCCESS=return] 用于 /etc/nsswitch.conf 文件中的 hosts 查找项,并要求所有群集节点上的 /etc/inet/hosts 文件中包含了所有的群集专用 IP 地址。

否则,在公共网络出现故障的情况下,Sun Cluster HA for NFS 将无法正常进行故障转移。

解决方法: 在群集的每个节点上执行以下步骤。

  1. 修改 /etc/nsswitch.conf 文件中的 hosts 项,以便在本地成功解析名称之后,它立即返回成功信息而不必联系 NIS 或 DNS。


    hosts:cluster files [SUCCESS=return] nis dns

  2. 将所有的群集专用 IP 地址的相关项均添加到 /etc/inet/hosts 文件中。

您只需在 /etc/nsswitch.conf 文件和 /etc/inet/hosts 文件中列出在各物理专用接口上探测到的 IP 地址。逻辑 IP 地址已可以通过群集 nsswitch 库进行解析。

要列出这些物理专用 IP 地址,请在任一群集节点上运行以下命令。


% grep ip_address /etc/cluster/ccr/infrastructure

此列表中的每个 IP 地址都必须分配一个唯一主机名,该主机名不会与域中的任何其他主机名产生冲突。


注意:

Sun Cluster 软件已要求任何 HA IP 地址 (LogicalHostname/SharedAddresses) 都必须出现在所有群集节点上的 /etc/inet/hosts 中,而且还要求 files 列在 nisdns 之前。本错误所强加的附加要求是:必须在 files 之后列出 [SUCCESS=return],而且必须在 /etc/inet/hosts 文件中列出所有的群集专用 IP 地址。


BugId 4526883

问题摘要:在极少数情况下,终点为 qfe 适配器的那个专用互连传输路径无法使用。

解决方法: 请执行以下步骤:

  1. 确定发生故障的适配器。

    Scstat -W 的输出中,所有将该适配器作为终点的传输路径都应显示在"faulted"或"waiting"状态中。

  2. 使用 scsetup(1M) 来从群集配置中删除所有与该适配器之间存在连接的电缆。

  3. 再次使用 scsetup 以从群集配置中删除此适配器。

  4. 将该适配器和上述电缆重新添加到群集配置中。

  5. 检验这些步骤是否已修复了这一问题,以及这些路径现在是否能够使用了。

如果删除电缆和适配器然后重新添加它们这一方法并不奏效,则请多次重复该过程。如果仍不奏效,则请重新引导带有该故障适配器的那个节点。引导该节点后,此问题很可能就消失了。在重新引导节点之前,请确保剩下的群集具有足够的定额选票,能够不受该节点重新引导所带来的影响。

BugId 4620185

问题摘要:如果 rpc.pmfd 守护程序监视一个进程,而该进程在处理某个信号之后又派生了一个新进程,则使用 pmfadm -k tag signal 可能会导致一个无限循环。由于 pmfadm(1M) 试图杀死标记 (tag) 的进程树中的所有进程,但同时派生出的新进程又不断地添加到该进程树中(每杀死一个旧进程就会向该进程树中添加一个派生进程),因此可能会发生上述这种情况。


注意:

使用 pmfadm -s tag signal 时应该不会出现此错误。


解决方法:请使用 pmfadm -s tag signal,而不要使用 pmfadm -k。使用 pmfadm-s 选项时,不会出现使用 -k 选项时所发生的循环情况。

BugId 4629536

问题摘要:同时使用 forcedirectio 安装选项和 mmap(2) 功能可能会导致数据损坏、系统挂起或出现应急状况。

解决方法: 请注意下列限制。

如果需要使用 directio,请使用 directio 选项来安装整个文件系统。

BugId 4634409

问题摘要: 如果试图在不同的安装点上安装同一设备,在大多数情况下,系统会发现此错误并使第二个安装无法进行。但是,在极少数情况下,系统可能无法发现此错误,从而可成功完成这两次安装。仅当以下四个条件全部得到满足后才会发生这种情况。

解决方法:系统管理员在群集中安装文件系统时,应特别注意这一点。

BugId 4638586

问题摘要:在某些情况下,scconf(1M) 命令不能给 VxVM 磁盘组重新分配次编号,并因此显示错误信息,说明设备已用于另一个设备组中

解决方法: 请执行以下步骤,以便给该磁盘组分配一个新的次编号。

  1. 查找已在使用的次编号。

    请注意已在使用的次编号,以及下列输出中所列出的主编号。


    % ls -l /dev/vx/rdsk/*/*
     
    crw-------   1 root     root     210,107000 Mar 11 18:18 /dev/vx/rdsk/fix/vol-01
    crw-------   1 root     root     210,88000 Mar 15 16:31 /dev/vx/rdsk/iidg/vol-01
    crw-------   1 root     root     210,88001 Mar 15 16:32 /dev/vx/rdsk/iidg/vol-02
    crw-------   1 root     root     210,88002 Mar 15 16:33 /dev/vx/rdsk/iidg/vol-03
    crw-------   1 root     root     210,88003 Mar 15 16:49 /dev/vx/rdsk/iidg/vol-04
    crw-------   1 root     root     210,13000 Mar 18 16:09 /dev/vx/rdsk/sndrdg/vol-01
    crw-------   1 root     root     210,13001 Mar 18 16:08 /dev/vx/rdsk/sndrdg/vol-02

  2. 选择当前尚未使用的、1000 的其他任何一个倍数作为该新磁盘组的基本次编号。

  3. 给出现错误的磁盘组分配一个未使用的次编号。

    使用 vxdg 命令的 reminor 选项。

  4. 重试上面那个失败了的 scconf 命令。

BugId 4644289

问题摘要:在 Solaris 9 上,当公共网络出现故障时,如果外部名称服务不可用,则 Sun Cluster HA for Oracle 数据服务的停止方法可能会超时。Sun Cluster HA for Oracle 数据服务使用 su(1M) 用户命令来启动和停止数据库。

解决方法:在每个可能成为 oracle_serveroracle_listener 资源的主节点的节点上,修改 /etc/nsswitch.conf 文件,以便在其中包含以下用于 passwdgrouppublickeyproject 等数据库的各项。


passwd:files
group:files
publickey:files
project:files

所做的这些修改可确保 su(1M) 命令不会引用 NIS/NIS+ 名称服务,同时还确保在出现网络故障的情况下,可以正确启动和停止数据服务。

BugId 4648767

问题摘要:使用 sendfile(3EXT) 将导致节点出现应急状况。

解决方法:对于这一问题,除了不使用 sendfile 之外,没有其他解决办法。

BugId 4651392

问题摘要: 在 Solaris 9 上,一个正在关闭的群集节点可能出现应急状况,并在其关闭过程中出现以下信息。


CMM:Shutdown timer expired.Halting

解决方法: 这一问题没有解决办法。这种节点应急状况没有其他的不良影响,因此可以当作无害情况处理。

BugId 4653151

问题摘要:如果在 FilesystemMountPoints 扩展特性中指定的文件系统安装点的顺序与在 /etc/vfstab 文件中指定的相应顺序不同,则无法创建 HAStoragePlus 资源。

解决方法:确保在 FilesystemMountPoints 扩展特性中指定的安装点列表与在 /etc/vfstab 文件中指定的顺序相匹配。例如,如果在 /etc/vfstab 文件中是按 /a/b/c 的顺序指定文件系统项,则 FilesystemMountPoints 中的相应顺序可以是"/a,/b,/c"或"/a,/b"或"/a,/c",但不能是"/a,/c,/b"。

BugId 4653788

问题摘要:如果 Failover_enabled 扩展特性设置为 FALSE,则意味着资源监视器无法启动资源组故障转移。

但是,如果该监视器正尝试重新启动某个资源,而 STARTSTOP 方法却失败或超时了,则不管 Failover_enabled 的设置如何,该监视器都将尝试进行故障转移。

解决方法: 这一错误没有解决办法。

BugId 4655194

问题摘要:如果发出设备组切换命令 (scswitch -D device-group),则于本地安装的 VxFS 上的、基于 Solstice DiskSuite 软分区的设备组可能会触发错误。

Solstice DiskSuite 内部执行镜像重新同步操作,这些操作可能会花费大量的时间。镜像重新同步操作会降低冗余级别。此时,VxFS 会报告错误,导致故障监视器/应用程序 IO 出现故障,从而使应用程序重新启动。

解决方法:对于任何已配置了 HAStoragePlus 的 Solstice DiskSuite 设备组,请勿手动切换设备组,而应切换资源组。之后,就将开始毫无故障的设备切换。

或者,也可以在 VxVM 磁盘组上配置本地安装的 VxFS 文件系统。

BugId 4656367

问题摘要: 有些错误信息未包含到 Sun Cluster 3.0 5/02 CD-ROM 中。

解决方法:这些错误信息可"新的错误信息"中找到。

BugId 4656391

问题摘要:如果从非主节点(辅助节点)上,对位于 Sun Cluster 全局 Solstice DiskSuite/VxVM 设备组上的文件系统执行 fsck(1M) 命令,此命令将会失败。在 Solaris 9 上已经发现这一问题,而在更早的 Solaris 发行版中也可能出现过该问题。

解决方法:只在主节点上调用 fsck 命令。

BugId 4656531

问题摘要: 如果将多个侦听程序资源配置为使用同一个侦听程序名称来启动多个侦听程序,则 Sun Cluster HA for Oracle 侦听程序资源不能正常工作。

解决方法:请勿让在群集中运行的多个侦听程序使用同一个侦听程序名称。

BugId 4657088

问题摘要: 如果在 Sun Cluster 下将一个丛与 VxVM 磁盘组断开连接,可能会使群集节点进入应急状态,而且显示以下表明应急状态的字符串。


  panic[cpu2]/thread=30002901460:BAD TRAP:type=31 rp=2a101b1d200 addr=40  
  mmu_fsr=0 occurred in module "vxfs" due to a NULL pointer dereference

解决方法: 在断开丛的连接之前,请先卸载相应的文件系统。

BugId 4657833

问题摘要:如果将资源组特性 auto_start_on_new_cluster 设置为 false,则不会发生故障转移。

解决方法:每次重新引导整个群集时,对于 auto_start_on_new_cluster 特性设置为 false 的资源组,请将 auto_start_on_new_cluster 特性设置为 true,然后将 auto_start_on_new_cluster 特性重置为 false


# scrgadm -c -g rgname -y auto_start_on_new_cluster=true
# scrgadm -c -g rgname -y auto_start_on_new_cluster=false

BugId 4659042

问题摘要:对于全局安装的 VxFS 文件系统,/etc/mnttab 文件可能不显示全局选项。

解决方法:如果在群集的所有节点上都找到了一个用于该给定文件系统的 /etc/mnttab 项,则说明该文件系统是全局安装的。

BugId 4659091

问题摘要:重新安装全局安装的文件系统后,没有更新 /etc/mnttab

解决方法:没有解决方法。

BugId 4660479

问题摘要:如果将 Sun Cluster HA for NFS 用于 HAStoragePlus,则在故障转移和切换期间不能恢复块锁定。结果,Sun Cluster HA for NFS 无法重新启动 lockd,从而导致 nfs_postnet_stop 方法失败,而这将使该群集节点崩溃。

解决方法:请勿在 HAStoragePlus 上使用 Sun Cluster HA for NFS。群集文件系统则不会出现该问题。因此,可以在群集文件系统上配置 Sun Cluster HA for NFS,从而解决这一问题。

BugId 4660521

问题摘要:在某个节点上停止 HTTP 服务器时,它将在该节点上留下一个 PID 文件。下一次启动该 HTTP 服务器时,它将检查此 PID 文件是否存在,并检查任何带有此 PID 的进程是否已在运行 (kill -0)。由于 PID 可重复使用,因此可能存在以下情况:即其他一些进程与最后那个 HTTP 服务器使用相同的 PID。这将导致 HTTP 服务器无法启动。

解决方法: 如果 HTTP 服务器无法启动并出现以下错误信息,则请手动删除其 PID 文件,以便正确重新启动该 HTTP 服务器。


Mar 27 17:47:58 ppups4 uxwdog[939]:could not log PID to PidLog 
/app/iws/https-schost-5.example.com/logs/pid, server already running (No such file or directory)

BugId 4662264

问题摘要: 在 Sun Cluster 软件中使用诸如 VxFS 之类的 VERITAS 产品时,为避免出现应急状况,需要增加线程栈的缺省大小。

解决方法:可通过在 /etc/system 文件中添加下列行来增加栈的大小。


set lwp_default_stksize=0x6000
set svc_default_stksize 0x8000

NFS 操作需要用到 svc_default_stksize 项。

在安装 VERITAS 软件包后,请检验 VERITAS 尚未向 /etc/system 文件中添加类似的语句。如果已添加了类似语句,请使用更高的值将这些语句融合为一条语句。

BugId 4663876

问题摘要:在多于两个节点、并带有节点顺序列表的设备组中,如果所要删除的节点不是顺序列表中最后那个节点,则 scconf 输出将显示有关该节点列表的部分信息。

解决方法:

BugId 4664510

问题摘要:如果在关闭其中一个 Sun StorEdge T3 Array 的电源之后又运行了 scshutdown,此时若重新引导这两个节点,则群集将进入非工作状态。

解决方法: 如果半数复本丢失,请执行下列步骤:

  1. 确保群集处在群集模式下。

  2. 强制导入磁盘集。


    # metaset -s set-name -f -C take
    

  3. 删除已破坏的复本。


    # metadb -s set-name -fd /dev/did/dsk/dNsX
    

  4. 释放该磁盘集。


    # metaset -s set-name -C release
    

    现在,就可以安装和使用文件系统了。但是,复本中的冗余并没有得到恢复。如果另一半复本丢失,则无法将镜像恢复到正常状态。

  5. 在执行了上述的修复过程后,请重新创建数据库。

已知的文档问题

本节讨论文档、联机帮助或手册页中的已知错误或遗漏之处,并提供了用于更正这些问题的步骤。

SunPlex Manager 联机帮助更正

SunPlex Manager 联机帮助中有一处说明不准确。可以在 Oracle 数据服务的安装过程中找到该说明。 更正如下。

错误说明

注意:安装 SunPlex Manager 软件包时,如果 /etc/system 文件中不存在变量 shmsyssemsys 的项,则自动将这两个变量的缺省值放入 /etc/system 文件中。之后必须重新引导系统。 检查 Oracle 安装文档,以检验这些值适用于您的数据库。

正确说明:

注意:在安装 Oracle 数据服务时,如果 /etc/system 文件中不存在变量 shmsyssemsys 的项,则自动将这两个变量的缺省值放入 /etc/system 文件中。之后必须重新引导系统。 检查 Oracle 安装文档,以检验这些值适用于您的数据库。

Sun Cluster HA for Oracle 软件包

Sun Cluster 3.0 12/01 Data Services Installation and Configuration Guide》中介绍"安装 Sun Cluster HA for Oracle 软件包"的段落中未讨论运行 Sun Cluster HA for Oracle(64 位 Oracle 软件)的群集用户所需的其他软件包。下面一节更正了《Sun Cluster 3.0 12/01 Data Services Installation and Configuration Guide》中介绍"安装 Sun Cluster HA for Oracle 软件包"的那个段落。

安装 Sun Cluster HA for Oracle 软件包

视您的配置而定,使用 scinstall(1M) 公用程序在群集中安装以下软件包(其一或两者都安装)。不要对非交互式 scinstall 使用 -s 选项,以安装所有数据服务软件包。


注意:

SUNWscorSUNWscorx 所必不可少的软件包。


如果您已将 SUNWscor 数据服务软件包作为 Sun Cluster 初始安装的一部分进行了安装,则继续执行第 30 页上的"注册和配置 Sun Cluster HA for Oracle"。否则,使用以下过程来安装 SUNWscorSUNWscorx 这两个软件包。

简单根磁盘组与 VERITAS Volume Manager

在 Sun Cluster 软件中,VERITAS Volume Manager 不支持简单根磁盘组这种磁盘类型。因此,如果您执行《Sun Cluster 3.0 12/01 系统管理指南》中的"如何恢复未封装的根 (/) 文件系统 (VERITAS Volume Manager)"这一过程,则应略过步骤 9。该步骤要求您确定根磁盘组 (rootdg) 是否位于根磁盘的单个片上。而应完成步骤 1 - 8、略过步骤 9,然后继续执行步骤 10,直至完成该过程。

升级到 Sun Cluster 3.0 软件更新版

下面对《Sun Cluster 3.0 12/01 软件安装指南》中的过程"如何升级到 Sun Cluster 3.0 软件更新版"的步骤 8 进行了更正。

    (可选的)

    (可选的) 升级 Solaris 8 软件。

    1. 暂时注释掉 /etc/vfstab 文件中的所有全局设备项。

      这样可防止 Solaris 升级程序安装全局设备。

    2. 关闭要升级的节点。


      # shutdown -y -g0
      ok

    3. 请遵循作为您升级目标的 Solaris 8 Maintenance Update 版本的安装指南中的说明进行操作。


      注意:

      当提示您重新引导节点时,请忽略该提示。


    4. 为您在步骤 a中对 /a/etc/vfstab 文件中进行过注释的所有全局设备项取消注释。

    5. 安装任何 Solaris 软件修补程序和与硬件相关的修补程序,并下载硬件修补程序中所包含的任何所需固件。

      如果有任何修补程序要求重新引导,请按步骤 f中所述以非群集模式重新引导该节点。

    6. 将节点重新引导为非群集模式。

      在命令中包含双破折号 (--) 和两个引号 (")。


      # reboot -- "-x"
      

从 Sun Cluster 2.2 升级到 Sun Cluster 3.0 软件

以下升级过程中包含了自《Sun Cluster 3.0 12/01 软件安装指南》发行以来对其中升级过程所做的修改和更正。

要从 Sun Cluster 2.2 升级到 Sun Cluster 3.0 5/02 软件,请执行以下过程,而不执行《Sun Cluster 3.0 12/01 软件安装指南》中介绍的相关过程。

如何升级群集软件包

  1. 成为群集节点的超级用户。

  2. 如果从 CD-ROM 进行安装,请将 Sun Cluster 3.0 5/02 CD-ROM 放入某个节点的 CD-ROM 驱动器中。

    如果卷守护程序 vold(1M) 正在运行并配置成管理 CD-ROM 设备,它会自动将该 CD-ROM 安装到 /cdrom/suncluster_3_0_u3 目录下。

  3. 转到 /cdrom/suncluster_3_0_u3/SunCluster_3.0/Packages 目录。


    # cd /cdrom/suncluster_3_0_u3/SunCluster_3.0/Packages
    

  4. 如果卷管理器是 Solstice DiskSuite,则在每个节点上安装最新的 Solstice DiskSuite 调解器软件包 (SUNWmdm)。

    1. 添加 SUNWmdm 软件包。


      # pkgadd -d . SUNWmdm
      

    2. 重新引导该节点。


      # shutdown -g0 -y -i6
      

    3. 对其他节点重复这些操作。

  5. 重新配置调解器。

    1. 确定哪个节点对您将向其添加调解器主机的磁盘集拥有所有权。


      # metaset -s setname
      
      -s setname

      指定磁盘集名称

    2. 如果没有节点具有所有权,则获取磁盘集的所有权。


      # metaset -s setname -t
      
      -t

      获取磁盘集的所有权

    3. 重新创建调解器。


      # metaset -s setname -a -m mediator-host-list
      
      -a

      添加到磁盘集

      -m mediator-host-list

      指定将作为磁盘集的调解器主机来添加的节点的名称

    4. 对每个磁盘集重复这些操作。

  6. 在每个节点上,关闭 rpc.pfmd 守护程序。


    # /etc/init.d/initpmf stop
    

  7. 将第一个节点升级到 Sun Cluster 3.0 5/02 软件。

    这些过程将把该节点当作第一个安装节点。

    1. 在要进行升级的第一个节点上,转到 /cdrom/suncluster_3_0_u3/SunCluster_3.0/Tools 目录。


      # cd /cdrom/suncluster_3_0_u3/SunCluster_3.0/Tools
      

    2. 升级群集软件框架。


      # ./scinstall -u begin -F
      
      -F

      指定它是该群集中第一个安装好的节点

      有关详细信息,请参阅 scinstall(1M) 手册页。

    3. 在第一个节点上安装所有 Sun Cluster 修补程序。

      有关修补程序的位置和安装说明,请参阅《Sun Cluster 3.0 5/02 发行说明》。

    4. 重新引导该节点。


      # shutdown -g0 -y -i6
      

      当第一个节点重新引导到群集模式中时,它就建立了群集。

  8. 将第二个节点升级到 Sun Cluster 3.0 5/02 软件。

    1. 在要进行升级的第二个节点上,转到 /cdrom/suncluster_3_0_u3/SunCluster_3.0/Tools 目录。


      # cd /cdrom/suncluster_3_0_u3/SunCluster_3.0/Tools
      

    2. 升级群集软件框架。


      # ./scinstall -u begin -N node1
      
      -N node1

      指定群集中第一个安装好的节点的名称,而不是将要安装的第二个节点的名称

      有关详细信息,请参阅 scinstall(1M) 手册页。

    3. 在第二个节点上安装所有 Sun Cluster 修补程序。

      有关修补程序的位置和安装说明,请参阅《Sun Cluster 3.0 5/02 发行说明》。

    4. 重新引导该节点。


      # shutdown -g0 -y -i6
      

  9. 两个节点都重新引导后,请从任一节点检验这两个节点是否都为群集成员。


    -- Cluster Nodes --
                       Node name      Status
                       ---------      ------
      Cluster node:    phys-schost-1  Online
      Cluster node:    phys-schost-2  Online

    有关显示群集状态的详细信息,请参阅 scstat(1M) 手册页。

  10. 选择一个要成为定额设备的共享磁盘。

    可以使用由两个节点共享的任一磁盘作为定额设备。 从任一节点,使用 scdidadm(1M) 命令确定共享磁盘的设备 ID (DID) 名称。请按步骤 5 中所述,在 scinstall 命令的 -q globaldev=DIDname 选项中指定此设备名称。


    # scdidadm -L
    

  11. 配置共享定额设备。

    1. 启动 scsetup(1M) 公用程序。


      # scsetup
      

      此时会显示 "Initial Cluster Setup" 屏幕。

      如果定额设置过程中断或未能成功完成,请重新运行 scsetup

    2. 当提示"Do you want to add any quorum disks?"时,请配置共享定额设备。

      在配置共享定额设备之前,双节点群集将始终处于安装模式。 在 scsetup 公用程序配置了定额设备之后,会显示"Command completed successfully"的消息。

    3. 当提示"Is it okay to reset "installmode"?" 时,回答"Yes"。

      scsetup 公用程序为该群集设置了定额配置和选票数后,会显示"Cluster initialization is complete"的消息,同时公用程序将使您返回到"Main Menu"。

    4. 退出 scsetup 公用程序。

  12. 从任何节点检验设备和节点的定额配置。

    您不必成为超级用户就可运行此命令。


    % scstat -q
    

  13. 从任何节点中,检验群集安装模式是禁用的。

    您不必成为超级用户就可运行此命令。


    % scconf -p | grep "Cluster install mode:"
    Cluster install mode:                                  disabled

  14. 更新目录路径。

    请转到《Sun Cluster 3.0 12/01 软件安装指南》中的"如何更新根环境"。

示例 - 从 Sun Cluster 2.2 升级到 Sun Cluster 3.0 5/02 软件 - 开始进程

以下示例说明了将双节点群集从 Sun Cluster 2.2 升级到 Sun Cluster 3.0 5/02 软件的开始进程。这两个群集节点的名称为 phys-schost-1phys-schost-2。前者为第一个安装好的节点,而后者则加入 phys-schost-1 所建立的群集中。卷管理器为 Solstice DiskSuite,而且这两个节点都用作磁盘集 schost-1 的调解器主机。


(Install the latest Solstice DiskSuite mediator package
on each node)
# cd /cdrom/suncluster_3_0_u3/SunCluster_3.0/Packages
# pkgadd -d . SUNWmdm
 
(Restore the mediator)
# metaset -s schost-1 -t
# metaset -s schost-1 -a -m phys-schost-1 phys-schost-2
 
(Shut down the rpc.pmfd daemon)
# /etc/init.d/initpmf stop
 
(Begin upgrade on the first node and reboot it)
phys-schost-1# cd /cdrom/suncluster_3_0_u3/SunCluster_3.0/Tools
phys-schost-1# ./scinstall -u begin -F
phys-schost-1# shutdown -g0 -y -i6
 
(Begin upgrade on the second node and reboot it)
phys-schost-2# cd /cdrom/suncluster_3_0_u3/SunCluster_3.0/Tools
phys-schost-2# ./scinstall -u begin -N phys-schost-1
phys-schost-2# shutdown -g0 -y -i6
 
(Verify cluster membership)
# scstat
 
(Choose a shared disk and configure it as the quorum
device)
# scdidadm -L
# scsetup
Select Quorum>Add a quorum disk
 
(Verify that the quorum device is configured)
# scstat -q
 
(Verify that the cluster is no longer in install
mode)
% scconf -p | grep "Cluster install mode:"
Cluster install mode:                                  disabled

如何完成群集软件升级

该过程将完成"如何升级群集软件包"中开始的 scinstall(1M) 升级进程。对群集的每个节点执行以下步骤。

  1. 成为群集的每个节点的超级用户。

  2. 您所使用的卷管理器是 VxVM 吗?

    • 如果否,则转到步骤 3

    • 如果是,则安装 VxVM 以及任何 VxVM 修补程序,并按照进行新的安装时的惯常做法,来创建根磁盘组 (rootdg)。

      • 要安装 VxVM 并封装根磁盘,请执行《Sun Cluster 3.0 12/01 软件安装指南》的"如何安装 VERITAS Volume Manager 软件和封装根磁盘"中的过程。要镜像根磁盘,请执行《Sun Cluster 3.0 12/01 软件安装指南》的"如何镜像已封装的根磁盘"中的过程。

      • 要安装 VxVM 并在本地非根磁盘上创建 rootdg,请执行《Sun Cluster 3.0 12/01 软件安装指南》的"如何只安装 VERITAS Volume Manager 软件"和"如何在非根磁盘上创建 rootdg 磁盘组"中的过程。

  3. 您要升级 Sun Cluster HA for NFS 吗?

    如果是,则转到步骤 4

    如果否,则转到步骤 5

  4. 完成 Sun Cluster 3.0 软件的升级并转换 Sun Cluster HA for NFS 的配置。

    如何您不升级 Sun Cluster HA for NFS,则请执行步骤 5

    1. 将 Sun Cluster 3.0 Agents 5/02 CD-ROM 放入某个节点的 CD-ROM 驱动器中。

      该步骤假定卷守护程序 vold(1M) 正在运行且已配置为管理 CD-ROM 设备。

    2. 完成节点的群集软件升级。


      # scinstall -u finish -q globaldev=DIDname \
      -d /cdrom/scdataservices_3_0_u3 -s nfs
      
      -q globaldev=DIDname

      指定定额设备的设备 ID (DID) 名称

      -d /cdrom/scdataservices_3_0_u3

      指定 CD-ROM 映像的目录位置

      -s nfs

      指定要配置的 Sun Cluster HA for NFS 数据服务的名称


      注意:

      可能产生类似于下列的错误信息。 您可以忽略它,而不会有任何风险。


      ** Installing Sun Cluster - Highly Available NFS Server **
      Skipping "SUNWscnfs" - already installed


    3. 弹出 CD-ROM。

    4. 在另一个节点上重复步骤 a步骤 c

      对两个节点都执行完操作后,将禁用群集安装模式并分配所有定额选票。

    5. 此时请跳到步骤 6

  5. 在每个节点上完成 Sun Cluster 3.0 软件的升级。

    如何要升级 Sun Cluster HA for NFS,则请执行步骤 4


    # scinstall -u finish -q globaldev=DIDname
    
    -q globaldev=DIDname

    指定定额设备的设备 ID (DID) 名称

  6. 如果要升级的数据服务不是 Sun Cluster HA for NFS 数据服务,请按照进行新的安装时的惯常做法,为这些数据服务配置资源。

    有关过程,请参阅《Sun Cluster 3.0 12/01 Data Services Installation and Configuration Guide》。

  7. 如果卷管理器是 Solstice DiskSuite,则从任一节点上使预先存在的磁盘设备组处于联机状态。


    # scswitch -z -D disk-device-group -h node
    
    -z

    进行切换

    -D disk-device-group

    指定磁盘设备组的名称,对于 Solstice DiskSuite 软件,该名称与磁盘集名称相同

    -h node

    指定充当主要磁盘设备组的群集节点的名称

  8. 从任一节点中,启动预先存在的数据服务资源组。

    此时,Sun Cluster 2.2 逻辑主机将转换为 Sun Cluster 3.0 5/02 资源组,且逻辑主机的名称都附加有后缀 -lh。例如,一个名为 lhost-1 的逻辑主机将升级为一个名为 lhost-1-lh 的资源组。在以下命令中使用这些已转换的资源组名称。


    # scswitch -z -g resource-group -h node
    
    -g resource-group

    指定要联机的资源组的名称

    可以使用 scrgadm -p 命令来显示群集中所有资源类型和资源组的列表。scrgadm -pv 命令显示该列表的详细信息。

  9. 如果您要使用 Sun Management Center 来监视 Sun Cluster 配置,则请为 Sun Management Center 安装 Sun Cluster 模块。

    1. 确保您使用的是 Sun Management Center 的最新版本。

      有关的安装过程或升级过程,请参阅 Sun Management Center 文档。

    2. 按照《Sun Cluster 3.0 12/01 软件安装指南》的"Sun Cluster 监视的安装要求"中的指导和过程,以安装 Sun Cluster 模块软件包。

  10. 检验所有节点已加入群集。

    转到《Sun Cluster 3.0 12/01 软件安装指南》中的"如何检验群集成员关系"。

示例 - 从 Sun Cluster 2.2 升级到 Sun Cluster 3.0 5/02 软件 - 结束进程

以下示例说明了将双节点群集从 Sun Cluster 2.2 升级到 Sun Cluster 3.0 5/02 软件的结束进程。群集节点的名称分别为 phys-schost-1phys-schost-2,设备组的名称为 dg-schost-1 和 dg-schost-2,数据服务资源组的名称为 lh-schost-1lh-schost-2scinstall 命令将自动转换 Sun Cluster HA for NFS 配置。


(Finish upgrade on each node)
phys-schost-1# scinstall -u finish -q globaldev=d1 \
-d /cdrom/scdataservices_3_0_u3 -s nfs
phys-schost-2# scinstall -u finish -q globaldev=d1 \
-d /cdrom/scdataservices_3_0_u3 -s nfs
 
(Bring device groups and data service resource groups
on each node online)
phys-schost-1# scswitch -z -D dg-schost-1 -h phys-schost-1
phys-schost-1# scswitch -z -g lh-schost-1 -h phys-schost-1
phys-schost-1# scswitch -z -D dg-schost-2 -h phys-schost-2 
phys-schost-1# scswitch -z -g lh-schost-2 -h phys-schost-2

使节点脱离维护状态

Sun Cluster 3.0 12/01 系统管理指南》中的"如何使节点脱离维护状态"过程并不适用于双节点群集。在下一发行版中将考虑为双节点群集增添相关的过程。

手册页

scgdevs(1M) 手册页

下面的段落阐明了 scgdevs 命令的行为。目前 scgdevs(1M) 手册页中尚未包含此信息。

新信息:

如果从本地节点调用 scgdevs(1M) 命令,则会在远程节点上异步执行其操作。因此,即使该命令在本地节点上完成了其操作,但也并不一定表明它完成了在整个群集范围内的操作。

SUNW.sap_ci(5) 手册页

SUNW.sap_as(5) 手册页

rg_properties(5) 手册页

应将以下的新资源组特性添加到 rg_properties(5) 手册页中。

Auto_start_on_new_cluster

在形成一个新的群集时,此特性可控制"资源组管理器"是否自动启动资源组。

缺省值为 TRUE。如果将其设置为 TRUE,则当同时重新引导群集中的所有节点时,"资源组管理器"将试图自动启动资源组,以实现 Desired_primaries。如果设置为 FALSE,则重新引导群集时"资源组"将不会自动启动。

类别: 可选 缺省值: True 可调: 任何时候

新的错误信息

Sun Cluster 3.0 5/02 CD-ROM 中未包含以下错误信息。


360600:Oracle UDLM 软件包的指令集体系结构不正确。

描述:

对于节点当前的引导模式而言,当前所安装的 Oracle UDLM 软件包的指令集体系结构不正确。例如,Oracle UDLM 为 64 位 (sparc9) 体系结构,而节点当前却是以 32 位模式 (sparc) 引导的。

解决办法:

请从 Oracle 公司获取正确的、适合于该系统的指令集体系结构的 Oracle UDLM 软件包并加以安装,或者采用与 Oracle UDLM 的当前版本兼容的指令集体系结构来引导节点。


800320:将 %s 与共享磁盘设备进行隔离。

描述:

已采取相应保护措施,将非群集节点与各群集节点所共享的磁盘进行隔离。

解决办法:

无。


558777:在所有共享磁盘设备上启用 failfast(快速故障报警)。

描述:

将采取一种保护性 failfast(快速故障报警)措施,这样,如果共享这些磁盘组的一些节点被其他节点隔离,则将关闭这些被隔离的节点。

解决办法:

无。


309875:启用 failfast(快速故障报警)时发生错误。

描述:

在试图对由其他节点所共享的磁盘启用保护性 failfast(快速故障报警)功能时,发生了一个错误。

解决办法:

该错误为内部错误。请保存所有节点上的 /var/adm/messages/var/cluster/ucmm/ucmm_reconf.log/var/cluster/ucmm/dlm*/logs/* 中的内容,并与 Sun 服务代表联系。