本章提供安装 Sun Cluster 配置的规划信息和指导。
本章提供以下概述信息:
下表说明在何处查找各种 Sun Cluster 软件安装任务的指导信息,以及执行这些任务的顺序。
表 1–1 Sun Cluster 软件安装任务信息
任务 |
指导 |
---|---|
设置群集硬件。 |
《Sun Cluster 3.1 - 3.2 Hardware Administration Manual for Solaris OS》 服务器和存储设备附带的文档 |
规划全局群集软件安装。 | |
安装软件包。(可选)安装并配置 Sun StorageTekTM QFS 软件。 |
《Sun StorageTek QFS Installation and Upgrade Guide, Version 4, Update 6》 |
建立新的全局群集或全局群集节点。 | |
配置 Solaris Volume Manager 软件。 |
Solaris Volume Manager 文档 |
安装和配置 Veritas Volume Manager (VxVM) 软件。 |
VxVM 文档 |
配置群集文件系统(如果用到)。 | |
(可选)在 Solaris 10 OS 上创建非全局区域。 | |
(可选)在 Solaris 10 OS 上创建区域群集。 | |
(可选) SPARC:安装和配置用于 Sun Management Center 的 Sun Cluster 模块。 |
SPARC: 为 Sun Management Center 安装 Sun Cluster 模块 Sun Management Center 文档 |
规划、安装和配置资源组和数据服务。创建具有高可用性的本地文件系统(如果用到)。 |
《Sun Cluster Data Services Planning and Administration Guide for Solaris OS 》 |
开发定制数据服务。 |
《Sun Cluster Data Services Developer’s Guide for Solaris OS 》 |
本节针对在群集配置中规划 Solaris 软件安装提供了以下指导信息。
有关 Solaris 软件的详细信息,请参阅 Solaris 安装文档。
您可以使用 JumpStartTM 安装方法,从本地 DVD-ROM 或网络安装服务器安装 Solaris 软件。另外,Sun Cluster 软件还提供一种使用 JumpStart 安装方法安装 Solaris OS 和 Sun Cluster 软件的自定义方法。如果要安装若干个群集节点,请考虑网络安装。
有关 scinstall JumpStart 安装方法的详细信息,请参见如何安装 Solaris 和 Sun Cluster 软件 (JumpStart)。有关标准 Solaris 安装方法的详细信息,请参阅 Solaris 安装文档。
对 Solaris OS 在 Sun Cluster 配置中的使用进行规划时,请考虑以下几点:
Solaris 10 Zones-将 Sun Cluster 框架软件仅安装在全局区域中。
要确定是否可以直接在非全局区域中安装某个 Sun Cluster 数据服务,请参见该数据服务的文档。
如果要在全局群集节点上配置非全局区域,必须启用回送文件系统 (Loopback File System, LOFS)。有关其他注意事项,请参见 LOFS 的相关信息。
回送文件系统 (Loopback File System, LOFS)-使用 Solaris 9 版本的 Sun Cluster 软件创建群集期间,默认情况下会禁用 LOFS 功能。使用 Solaris 10 版本的 Sun Cluster 软件创建群集期间,默认情况下则不会禁用 LOFS 功能。
如果群集满足以下两个条件,您必须禁用 LOFS 以避免出现切换问题或其他故障:
如果群集仅满足其中一个条件,您便可以安全地启用 LOFS。
如果需要启用 LOFS 和 automountd 守护进程,请从自动安装程序映射中排除所有符合以下条件的文件:属于由 Sun Cluster HA for NFS 导出的高可用性本地文件系统。
接口组-Sun Cluster 配置不支持 Solaris 接口组。在 Solaris 软件安装期间,默认情况下会禁用 Solaris 接口组功能。请勿重新启用 Solaris 接口组。有关 Solaris 接口组的更多信息,请参见 ifconfig(1M) 手册页。
节电关机-Sun Cluster 配置不支持自动节电关机,不应启用该功能。有关更多信息,请参见 pmconfig(1M) 手册页和 power.conf(4) 手册页。
IP 过滤器-Sun Cluster 软件不支持可伸缩服务的 Solaris IP 过滤器功能,但支持故障转移服务的 Solaris IP 过滤器功能。
fssnap-Sun Cluster 软件不支持 fssnap 命令,这是 UFS 的一个功能。但是,您可以在不受 Sun Cluster 软件控制的本地系统中使用 fssnap 命令。以下限制适用于 fssnap 支持:
不受 Sun Cluster 软件管理的本地文件系统支持 fssnap 命令。
群集文件系统不支持 fssnap 命令。
受 HAStoragePlus 控制的本地文件系统不支持 fssnap 命令。
Sun Cluster 3.2 1/09 软件至少需要最终用户 Solaris 软件组 (SUNWCuser)。然而,群集配置中的其它组件可能也有其自己的 Solaris 软件要求。当您决定要安装 Solaris 软件组时,请考虑以下信息。
服务器-查看服务器文档中是否有 Solaris 软件方面的任何要求。例如,Sun EnterpriseTM 10000 服务器要求完整 Solaris 软件组加 OEM 支持。
SCI-PCI 适配器-要使用 SCI-PCI 适配器(仅适用于基于 SPARC 的群集)或 远程共享内存应用程序编程接口 (Remote Shared Memory Application Programming Interface, RSMAPI),请确保安装 RSMAPI 软件包(即 SUNWrsm 和 SUNWrsmo);对于基于 SPARC 的平台上的 Solaris 9 OS,还应安装 SUNWrsmx 和 SUNWrsmox。仅在一些 Solaris 软件组中包含有 RSMAPI 软件包。例如,开发者 Solaris 软件组包含 RSMAPI 软件包,但最终用户 Solaris 软件组不包含这些软件包。
如果您安装的软件组不包含 RSMAPI 软件包,请在安装 Sun Cluster 软件之前手动安装 RSMAPI 软件包。可以使用 pkgadd(1M) 命令手动安装这些软件包。有关使用 RSMAPI 的信息,请参见 (3RSM) 部分的手册页。
附加的 Solaris 软件包-您可能需要安装不属于最终用户 Solaris 软件组的其他 Solaris 软件包。Apache HTTP 服务器软件包就是其中一个。第三方软件(如 ORACLE®)可能还需要其他 Solaris 软件包。有关任何 Solaris 软件要求,请参阅第三方文档。
为了避免需要手动安装 Solaris 软件包,请安装完整 Solaris 软件组加 OEM 支持。
将该信息添加至相应的本地文件系统布局工作单。
安装 Solaris OS 时,请确保创建必需的 Sun Cluster 分区,并且所有分区都满足最低空间需求。
交换-分配给 Solaris 和 Sun Cluster 软件的交换空间总量不得少于 750 MB。要获得最佳效果,至少应添加 512 MB 的空间供 Sun Cluster 软件使用,才能满足 Solaris OS 对空间的需要。另外,还应为将在 Solaris 主机上运行的应用程序分配所需的所有额外交换空间。
如果创建附加交换文件,请勿在全局设备上创建交换文件。只能使用本地磁盘作为主机的交换设备。
/globaldevices -创建一个大小至少为 512 MB 的文件系统,以供全局设备的 scinstall(1M) 实用程序使用。
卷管理器-在分片 7 上创建一个 20 MB 的分区供卷管理器使用。如果群集使用 Veritas Volume Manager (VxVM) 并且您要封装根磁盘,则需要有两个未使用的分片以供 VxVM 使用。
如果您正在执行 Solaris OS 的交互式安装,则必须定制分区才能满足这些要求。
有关分区规划的其他信息,请参阅下列指南:
与运行 Solaris OS 的任何其他系统相同,您可以将根 (/)、/var、/usr 和 /opt 目录配置为单独的文件系统。或者,还可以在根 (/) 文件系统中包含所有目录。
对于根 (/) 文件系统,只有 UFS 文件系统类型是有效的。在创建根 (/) 文件系统之后,请勿尝试更改文件系统类型。
下面介绍 Sun Cluster 配置中根目录 (/)、/var、/usr 和 /opt 等目录的软件内容。规划分区方案时,请考虑该信息。
根 (/)-Sun Cluster 软件本身在根 (/) 文件系统中占用不超过 40 MB 的空间。Solaris Volume Manager 软件需要小于 5 MB 的空间,VxVM 软件需要小于 15 MB 的空间。要配置足够大的额外空间和 inode 容量,请在为根 (/) 文件系统正常分配的空间基础上至少再添加 100 MB。此空间用于创建卷管理软件所使用的块特殊设备和字符特殊设备。如果群集中存在大量共享磁盘,分配此附加空间则尤其必要。
/var-安装时,Sun Cluster 软件在 /var 文件系统中占用的空间量微不足道。但是,需要为日志文件设置充足的空间。而且,与典型的独立服务器相比,在群集节点上可记录更多的消息。因此,请至少为/var 文件系统分配 100 MB 的空间。
/usr-Sun Cluster 软件在 /usr 文件系统中占用的空间不到 25 MB。Solaris Volume Manager 和 VxVM 软件各需要不到 15 MB 的空间。
/opt-Sun Cluster 框架软件在 /opt 文件系统中使用的空间不到 2 MB。但是,每个 Sun Cluster 数据服务都可能使用 1 到 5 MB 的空间。Solaris Volume Manager 软件不使用 /opt 文件系统中的任何空间。如果安装了 VxVM 软件的所有软件包和工具,则此软件所占用的空间将超过 40 MB。
另外,大多数数据库和应用程序软件都安装在 /opt 文件系统中。
SPARC:如果使用 Sun Management Center 软件来监视群集,则每个 Solaris 主机都需要 25 MB 的额外空间以支持 Sun Management Center 代理和 Sun Cluster 模块软件包。
Sun Cluster 软件要求您在其中一个本地磁盘上另外设置一个专用文件系统,用于管理全局设备。该文件系统通常位于根磁盘中。但是,如果使用其他存储器(如逻辑卷管理器卷)来放置全局设备文件系统,那么该存储器不得是 Solaris Volume Manager 共享磁盘集的一部分或 VxVM 磁盘组(根磁盘组除外)的一部分。此文件系统以后将作为 UFS 群集 文件系统挂载。请将此文件系统命名为 /globaldevices,这是可由 scinstall(1M) 命令识别的默认名称。
对于全局设备文件系统,只有 UFS 文件系统类型是有效的。在创建全局设备文件系统之后,请勿尝试更改文件系统类型。
scinstall 命令以后将对文件系统 /global/.devices/node@nodeid 进行重命名,其中 nodeid 表示 Solaris 主机在成为全局群集成员时由系统指定给它的编号。原先的 /globaldevices 挂载点将被删除。
/globaldevices 文件系统必须具有足够的空间和 inode 容量来创建块特殊设备和字符特殊设备。如果群集中存在大量磁盘,本指南则尤其重要。对于大多数群集配置而言,512 MB 大小的文件系统应该能够满足需要。
如果使用 Solaris Volume Manager 软件,则必须在根磁盘中另外设置一个分片,用于创建状态数据库副本。特别在每个本地磁盘中设置一个该用途的分片。但是,如果 Solaris 主机上只有一个本地磁盘,则可能需要在同一分片中创建三个状态数据库副本,Solaris Volume Manager 软件才能正常工作。有关详细信息,请参阅 Solaris Volume Manager 文档。
如果使用 Veritas Volume Manager (VxVM) 并且要封装根磁盘,则需要有两个未使用的分片可供 VxVM 使用。另外,磁盘开始或结尾还需要一些附加的未指定可用空间。有关根磁盘封装的更多信息,请参见 VxVM 文档。
表 1–2 显示了物理内存小于 750 MB 的 Solaris 主机的一种分区方案。此方案将用于安装最终用户 Solaris 软件组、Sun Cluster 软件和 Sun Cluster HA for NFS 数据服务。为磁盘的最后一个分片(即分片 7)分配了少量的空间以供卷管理器使用。
此布局允许使用 Solaris Volume Manager 软件或 VxVM 软件。如果使用 Solaris Volume Manager 软件,状态数据库副本应使用分片 7。如果使用 VxVM,则可以在以后通过为分片 7 指定零长度来释放该分片。该布局提供两个必需的空闲分片 4 和 7,并且在磁盘末尾提供未使用的空间。
表 1–2 文件系统分配示例
片 |
目录 |
分配的大小 |
描述 |
---|---|---|---|
0 |
/ |
6.75GB |
为分片 1 至 7 分配空间后磁盘中剩余的空闲空间。可供 Solaris OS、Sun Cluster 软件、数据服务软件、卷管理器软件、Sun Management Center 代理和 Sun Cluster 模块代理软件包、根文件系统以及数据库和应用程序软件使用。 |
1 |
swap |
1GB |
512 MB 用于 Solaris OS。 512 MB 用于 Sun Cluster 软件。 |
2 |
overlap |
8.43 GB |
整个磁盘。 |
3 |
/globaldevices |
512 MB |
Sun Cluster 软件稍后会给该分片指定一个不同的挂载点并将它安装为一个群集文件系统。 |
4 |
未使用 |
- |
可作为空闲分片用于在 VxVM 下封装根磁盘。 |
5 |
未使用 |
- |
- |
6 |
未使用 |
- |
- |
7 |
卷管理器 |
20 MB |
由 Solaris Volume Manager 软件用于状态数据库副本,或 VxVM 软件用于在释放分片之后的安装。 |
有关群集中的 Solaris 10 Zones 的用途和功能的信息,请参见《Sun Cluster Concepts Guide for Solaris OS》中的“Support for Solaris Zones”。
有关配置非全局区域的群集的指导,请参见区域群集。
在全局群集节点上创建 Solaris 10 非全局区域(简称为“区域”)时,请考虑以下几点。
在多个节点上重用区域名称-为了简化群集管理,对于每个节点上要使其中的资源组联机的某一区域,可为其指定相同的名称。
专用 IP 地址-请勿尝试使用超过群集中可用数量的专用 IP 地址数。
挂载-请勿在区域定义中包含全局挂载。只可包含回送挂载。
故障转移服务-在多主机群集中,尽管 Sun Cluster 软件允许您在故障转移资源组的节点列表中指定同一 Solaris 主机上的多个不同区域,但这样做仅在测试时才有用。如果节点列表中的所有区域都位于单个主机上,则该节点就会成为资源组的单一故障点。为了实现最高可用性,故障转移资源组节点列表中的区域应位于不同主机上。
在单主机群集中,在一个故障转移资源组节点列表中指定多个区域不会带来任何功能隐患。
可伸缩服务-请勿在同一 Solaris 主机上创建多个非全局区域来用于同一可伸缩服务。每个可伸缩服务实例必须分别在不同的主机上运行。
群集文件系统-请勿将全局区域中的群集文件系统直接添加到非全局区域。而应该将全局区域中的群集文件系统的回送挂载添加到非全局区域。此限制不适用于 QFS 共享文件系统。
LOFS-Solaris Zones 要求启用回送文件系统 (Loopback File System, LOFS)。但 Sun Cluster HA for NFS 数据服务却为了避免切换问题或其他故障而要求禁用 LOFS。如果您在群集中同时配置了非全局区域和 Sun Cluster HA for NFS,请执行以下操作之一,以防止数据服务中可能发生问题:
禁用 automountd 守护进程。
从自动安装程序映射中排除属于由 Sun Cluster HA for NFS 导出的具有高可用性的本地文件系统的所有文件。
独占 IP 区域-以下指导特别适用于独占 IP 非全局区域:
逻辑主机名资源组-在包含 LogicalHostname 资源的资源组中,如果节点列表中包含 ip-type 属性设置为 exclusive 的非全局区域,该节点列表中所有区域的该属性都必须设置为 exclusive。请注意,全局区域的 ip-type 属性始终设置为 shared,因此,全局区域不能与 ip-type=exclusive 的区域在节点列表中共存。此限制仅适用于 Solaris OS 的使用 Solaris Zones ip-type 属性的版本。
IPMP 组-对于所有用于非全局区域中的数据服务通信的公共网络适配器,必须在该区域上的所有 /etc/hostname.adapter 文件中手动配置 IPMP 组。此信息不是从全局区域继承的。有关配置 IPMP 组的指导和说明,请按照《System Administration Guide: IP Services》中的第 VI 部分, “IPMP”中的过程操作。
专用主机名依赖性-独占 IP 区域不能依赖于群集的专用主机名和专用地址。
共享地址资源-共享地址资源不能使用独占 IP 区域。
在支持 SPARC 虚拟机管理程序的物理群集计算机上创建 Sun Logical Domains (LDoms) I/O 域或来宾域时,请考虑以下几点:
SCSI LUN 要求-Sun LDoms 来宾域的虚拟共享存储设备或虚拟磁盘后端必须是 I/O 域中的完整 SCSI LUN。并非任意虚拟设备都能够使用。
隔离-请勿将存储 LUN 导出到同一台物理计算机上的多个来宾域,除非您还对该设备禁用了隔离功能。或者,如果同一台计算机上的两个不同来宾域对于某个设备均可见,那么,只要其中的一个来宾域停止工作,该设备就将被隔离。设备隔离会使得后来尝试访问该设备的任何其他来宾域进入应急状态。
网络隔离-位于同一台物理计算机上但在不同群集中配置的来宾域,其网络必须是相互隔离的。请使用以下方法之一:
对群集进行配置,以便对专用网络使用 I/O 域中的不同网络接口。
对每个群集使用不同的网络地址。
来宾域中的联网-进出来宾域的网络包必须遍历服务域才能通过虚拟交换机到达网络驱动程序。虚拟交换机使用以系统优先级运行的内核线程。虚拟交换机线程必须能够获取必需的 CPU 资源才能执行关键的群集操作(包括心跳、成员、检查点等)。为虚拟交换机配置 mode=sc 设置可加速处理群集心跳包。但是,在下列工作负荷下,通过向服务域添加更多 CPU 资源,可以提高其他关键群集操作的可靠性:
高中断负荷(例如,由网络或磁盘 I/O 引起)。在极高的负荷下,虚拟交换机可能会长时间阻止系统线程(包括虚拟交换机线程)运行。
在保留 CPU 资源方面过于主动的实时线程。以高于虚拟交换机线程的优先级运行的实时线程,它们会长时间地限制虚拟交换机线程的 CPU 资源。
从 I/O 域导出存储-如果配置的群集由 Sun Logical Domains I/O 域组成,请勿将它的存储设备导出到也运行 Sun Cluster 软件的其他来宾域。
Solaris I/O 多路径-请勿从来宾域运行 Solaris I/O 多路径软件 (MPxIO)。而应当在 I/O 域中运行 Solaris I/O 多路径软件并将它导出到来宾域。
专用互连 IP 地址范围-专用网络由同一物理计算机上创建的所有来宾域共享,而且对于所有这些域都是可见的。在为 scinstall 实用程序指定供来宾域群集使用的专用网络 IP 地址范围之前,请确保该地址范围尚未由同一物理计算机上的其他来宾域使用。
有关 Sun Logical Domains 的更多信息,请参见《Logical Domains (LDoms) 1.0.3 管理指南》。
本节提供了为 Sun Cluster 软件安装和配置进行规划和准备下列组件的指南:
有关 Sun Cluster 组件的详细信息,请参见《Sun Cluster Overview for Solaris OS》和《Sun Cluster Concepts Guide for Solaris OS》。
在开始安装软件之前,确保您具有所有必需的许可证书。Sun Cluster 软件不需要许可证书,但安装 Sun Cluster 软件的每个节点都必须受 Sun Cluster 软件许可证协议的约束。
有关卷管理器软件和应用程序软件的许可要求,请参阅这些产品的安装文档。
安装每个软件产品后,还必须安装所有必要的修补程序。为了使群集能够正常运行,请确保所有的群集节点保持相同的修补程序级别。
有关最新的必需修补程序的信息,请参见 Sun Cluster 发行说明中的“修补程序和必需的固件级别”或者咨询 Sun 服务提供商。
有关应用修补程序的一般指导和过程,请参见《Sun Cluster 系统管理指南(适用于 Solaris OS)》中的第 10 章 “修补 Sun Cluster 软件和固件”。
有关群集使用公共网络的信息,请参见《Sun Cluster Concepts Guide for Solaris OS》中的“Public Network Adapters and IP Network Multipathing”。
必须为 Sun Cluster 的各种组件设置多个公共网络 IP 地址,具体取决于群集配置。群集配置中的每个 Solaris 主机都必须至少有一个到同一组公共子网的公共网络连接。
下表列出了需要为其指定公共网络 IP 地址的组件。将这些 IP 地址添加至以下位置:
所有使用的命名服务
安装 Solaris 软件后,每个全局群集节点上的本地 /etc/inet/hosts 文件
对于 Solaris 9 OS 上的 IPv6 IP 地址,每个全局群集节点上的本地 /etc/inet/ipnodes 文件(在安装 Solaris 软件之后)
任何独占 IP 非全局区域上的本地 /etc/inet/hosts 文件
组件 |
所需的 IP 地址数 |
---|---|
每个子网 1 个 IP 地址。 |
|
每个子网、每个节点 1 个 IP 地址。 |
|
每个子网、每个节点 1 个 IP 地址。 |
|
每个域 1 个 IP 地址。 |
|
(可选)非全局区域 |
每个子网 1 个 IP 地址。 |
1 个 IP 地址。 |
|
逻辑地址 |
每个子网、每个逻辑主机资源 1 个 IP 地址。 |
法定服务器 |
1 个 IP 地址。 |
有关规划 IP 地址的更多信息,请参见 《System Administration Guide: IP Services》中的第 3 章 “Planning Your TCP/IP Network (Task)” (Solaris 9) 或《系统管理指南:IP 服务》中的第 2 章 “规划 TCP/IP 网络(任务)” (Solaris 10)。
您必须能对所有群集节点进行控制台访问。如果在管理控制台上安装 Cluster Control Panel 软件,您必须提供用来与群集节点通信的控制台访问设备的主机名和端口号。
终端集中器用于管理控制台与全局群集节点控制台之间的通信。
Sun Enterprise 10000 服务器使用系统服务处理器 (System Service Processor, SSP) 代替终端集中器。
Sun Fire 服务器使用系统控制器而不是终端集中器。
有关控制台访问的更多信息,请参见《Sun Cluster Concepts Guide for Solaris OS》。
或者,如果您将管理控制台直接连接到或通过管理网络连接到群集节点,则必须提供每个全局群集节点的主机名以及它们用来连接到管理控制台或管理网络的串行端口号。
每个使用逻辑地址的数据服务资源组必须为用于访问逻辑地址的每个公共网络指定一个主机名。
有关更多信息,请参见《Sun Cluster Data Services Planning and Administration Guide for Solaris OS》。有关数据服务和资源的其他信息,另请参见《Sun Cluster Overview for Solaris OS》和《Sun Cluster Concepts Guide for Solaris OS》。
公共网络与群集外部进行通信。规划公共网络配置时请考虑以下几点:
区别对待公共网络和专用网络-公共网络和专用网络(群集互连)必须使用不同的适配器,或者必须在支持标记 VLAN 的适配器和支持 VLAN 的交换机上配置标记的 VLAN,以便对专用互连和公共网络使用同一个适配器。
最低配置- 所有群集节点都必须与至少一个公共网络相连接。公共网络连接可针对不同的节点使用不同的子网。
可伸缩服务-运行可伸缩服务的所有节点都必须使用同一个子网或同一组子网,或者使用彼此之间可以路由的不同子网。
IPv4-Sun Cluster 软件支持在公共网络上使用 IPv4 地址。
IPv6-Sun Cluster 软件支持在公共网络上使用 IPv6 地址,但这受到以下条件或限制的约束:
如果专用互连使用 SCI 适配器,则 Sun Cluster 软件不支持公共网络上的 IPv6 地址。
Sun Cluster 软件支持将 IPv6 地址用于故障转移和可伸缩数据服务。
IPMP 组-每个公共网络适配器 数据服务通信所用到的每个公共网络适配器都必须属于 IP 网络多路径 (IP Network Multipathing, IPMP) 组。如果某个公共网络适配器在数据服务通信中未用到,便不必将它配置到 IPMP 组中。
在 Sun Cluster 3.2 1/09 发行版中,在创建 Sun Cluster 期间,scinstall 实用程序将不再为每个未经配置的公共网络适配器自动配置一个只包含单个适配器的 IPMP 组。相反,scinstall 实用程序会为群集中使用同一子网的每一组公共网络适配器自动配置一个包含多个适配器的 IPMP 组。在 Solaris 10 OS 上,虽然这些组是在探测的基础上配置而成的;
scinstall 实用程序忽略 IPMP 组中已经配置的适配器。您可以在群集中使用基于探测的 IPMP 组或基于链路的 IPMP 组。但是,基于探测的 IPMP 组(用于测试目标 IP 地址)通过识别更多可能危及可用性的情况来提供最强的保护。
因此,如果 scinstall 实用程序所配置的 IPMP 组中有任何适配器在数据服务通信时不会被用到,您完全可以将该适配器从组中删除。
有关配置 IPMP 组的指导和说明,请按照《System Administration Guide: IP Services》中的第 VI 部分, “IPMP”中的过程操作。要在安装群集后修改 IPMP 组,请遵循《Sun Cluster 系统管理指南(适用于 Solaris OS)》中的“如何在群集中管理 IP 网络多路径组”中的指导,以及《System Administration Guide: IP Services》中的第 28 章 “Administering Network Multipathing (Task)”的第 28 章“Administering Network Multipathing (Task)” (Solaris 9) 或《System Administration Guide: IP Services》中的第 31 章 “Administering IPMP (Tasks)” (Solaris 10) 中的过程。
本地 MAC 地址支持-所有公共网络适配器都必须使用支持本地 MAC 地址分配的网络接口卡 (Network Interface Card, NIC)。本地 MAC 地址分配是 IPMP 的一项要求。
local-mac-address 设置-对于 Ethernet 适配器,local-mac-address? 变量必须使用默认值 true。对于以太网适配器,Sun Cluster 软件不支持将 local-mac-address? 的值设置为 false。此要求与 Sun Cluster 3.0 不同,Sun Cluster 3.0 要求 local-mac-address? 的值为 false。
有关公共网络接口的更多信息,请参见《Sun Cluster Concepts Guide for Solaris OS》。
您可以使用 Sun Cluster Quorum Server 软件将一台计算机配置为法定服务器,然后将该法定服务器配置为群集的法定设备。您可以使用法定服务器来代替共享磁盘和 NAS 文件管理器或作为这些设备的补充。
对法定服务器在 Sun Cluster 配置中的使用进行规划时,请考虑以下几点:
网络连接-法定服务器计算机通过公共网络连接到群集。
支持的硬件-法定服务器支持的硬件平台与全局群集节点支持的平台相同。
操作系统-Sun Cluster 软件对 Solaris 软件的要求同样适用于法定服务器软件。
为多个群集提供服务-可以将一台法定服务器配置为多个群集的法定设备。
混合的硬件和软件-法定服务器以及它为之提供法定设备的群集不必配置在相同的软硬件平台上。例如,可将基于 SPARC 且运行 Solaris 9 OS 的计算机配置为基于 x86 且运行 Solaris 10 OS 的群集的法定服务器。
将群集节点用作法定服务器-可以在群集节点上配置法定服务器来为节点所属群集之外的其他群集提供法定设备。但是,在群集节点上配置的法定服务器不具有高可用性。
要在 Sun Cluster 配置中使用网络文件系统 (NFS),请注意以下几点。
NFS 客户机-任何 Sun Cluster 节点都不能作为同一群集中某个节点上被控制的 Sun Cluster HA for NFS 导出文件系统的 NFS 客户机。禁止以这种方式交叉安装 Sun Cluster HA for NFS。可以使用群集文件系统来在各全局群集节点间共享文件。
NFSv3 协议-如果要从外部 NFS 服务器(如 NAS 文件管理器)在群集节点上挂载文件系统,并且使用的是 NFSv3 协议,则不能在同一群集节点上运行 NFS 客户机挂载和 Sun Cluster HA for NFS 数据服务。如果这样做,则某些 Sun Cluster HA for NFS 数据服务活动可能会导致 NFS 守护进程停止并重新启动,从而中断 NFS 服务。但是,如果您使用 NFSv4 协议在群集节点上挂载外部 NFS 文件系统,Sun Cluster HA for NFS 数据服务就可以安全地运行。
锁定-在群集本地运行的应用程序不得锁定通过 NFS 导出的文件系统上的文件。否则,本地阻塞(例如 flock(3UCB) 或 fcntl(2)))可能会妨碍重新启动锁定管理器 (lockd(1M)) 的能力。在重新启动期间,可能会为被阻塞的本地进程授予一个锁,该锁可能会由远程客户机回收。这可能会产生无法预料的后果。
NFS 安全性功能-Sun Cluster 软件不支持 share_nfs(1M) 命令的以下选项:
secure
sec=dh
然而,Sun Cluster 软件支持 NFS 的下列安全性功能:
NFS 的安全端口的使用。通过将条目设置 nfssrv:nfs_portmon=1 添加至群集节点上的 /etc/system 文件中,可以启用 NFS 的安全端口。
将 Kerberos 同 NFS 一起使用。有关更多信息,请参见《Sun Cluster Data Service for NFS Guide for Solaris OS》中的“Securing Sun Cluster HA for NFS With Kerberos V5”。
对于非全局区域中的 NAS 设备,不支持隔离-对于以 NFS 格式从 NAS 设备导出且在非全局区域(包括区域群集节点)中使用的文件系统,Sun Cluster 软件不提供隔离支持。该软件仅对全局区域中以 NFS 格式导出的文件系统提供隔离支持。
请注意下列针对 Sun Cluster 配置的服务限制:
NIS+ 服务器-请勿将群集节点配置为 NIS 或 NIS+ 服务器。没有用于 NIS 或 NIS+ 的数据服务。但群集节点可以是 NIS 或 NIS+ 客户机。
引导和安装服务器-请勿使用 Sun Cluster 配置在客户机系统上提供具有高可用性的引导或安装服务。
RPC 程序编号-如果在群集上安装 RPC 服务,该服务不得使用以下任何程序编号:
100141
100142
100248
这些编号分别为 Sun Cluster 守护进程 rgmd_receptionist、fed 和 pmfd 保留。
如果您安装的 RPC 服务也使用这些程序编号之一,则必须将该 RPC 服务更改为使用其他程序编号。
调度类-Sun Cluster 软件不支持在群集节点上运行高优先级进程调度类。请勿在群集节点上运行以下任一类型的进程:
在具有高优先级的分时调度类中运行的进程
在实时调度类中运行的进程
Sun Cluster 软件依靠的是不在实时调度类中运行的内核线程。其他以高于正常优先级运行的分时进程或实时进程可能会妨碍 Sun Cluster 内核线程获取所需的 CPU 周期。
本节提供配置下列 Sun Cluster 组件的指南:
将该信息添加至相应的配置规划工作单。
在 Sun Cluster 配置期间,可为全局群集指定一个名称。全局群集名称应当在整个企业中是唯一的。
有关命名区域群集的信息,请参见区域群集。
全局群集中投票节点的名称就是您在物理或虚拟主机上安装 Solaris OS 时指定给该主机的名称。有关命名要求的信息,请参见 hosts(4) 手册页。
在 Sun Cluster 配置期间,您需要指定要在全局群集中安装的所有投票节点的名称。
有关区域群集中节点名称的信息,请参见区域群集。
在支持 Solaris 标记的 Solaris 10 OS 版本中,标记为 native 的非全局区域是资源组节点列表的有效潜在节点。在 Sun Cluster 命令中指定非全局区域时,请遵循命名约定 nodename:zonename。
nodename 是 Solaris 主机的名称。
zonename 是您在投票节点上创建非全局区域时指定给该区域的名称。区域名称必须在节点上是唯一的。但是,可以在不同投票节点上使用同一区域名称。nodename:zonename 中的不同节点名称使得完整的非全局区域名称在群集中是唯一的。
指定全局区域时,只需指定投票节点名称。
有关非全局区域群集的信息,请参见区域群集。
您无需为单主机全局群集配置专用网络。即使该群集不使用任何专用网络,scinstall 实用程序也会为其自动指定默认的专用网络地址和网络掩码。
Sun Cluster 软件使用专用网络在各节点之间以及受管于 Sun Cluster 软件的各个非全局区域之间进行内部通信。Sun Cluster 配置要求专用网与群集至少互连有两个连接。在群集的第一个节点上配置 Sun Cluster 软件时,可以使用以下方式之一指定专用网络地址和网络掩码:
接受默认的专用网络地址 (172.16.0.0) 和默认的网络掩码。
在 Solaris 10 OS 上,默认网络掩码为 255.255.240.0。此 IP 地址范围最多可支持 12 个区域群集和 10 个专用网络,以及数量相加后总数不超过 64 的投票节点与非全局区域。
在 Solaris 9 OS 上,默认网络掩码为 255.255.248.0。此 IP 地址范围最多可支持 10 个专用网络,以及总数不超过 64 的节点。
IP 地址范围可支持的最大投票节点数并不反映硬件或软件配置当前可支持的最大投票节点数。
另指定一个允许的专用网络地址,接受默认的网络掩码。
接受默认的专用网络地址,另指定一个网络掩码。
另指定一个专用网络地址和一个网络掩码。
如果您选择指定另一个网络掩码,scinstall 实用程序将提示您输入您希望该 IP 地址范围支持的节点数和专用网络数。在 Solaris 10 OS 上,该实用程序还提示您输入您希望支持的区域群集数。您所指定的全局群集节点数还应包括将使用专用网络的非群集化非全局区域的预期数量。
该实用程序将计算可支持所指定的节点数、区域群集数和专用网络数的最小 IP 地址范围的网络掩码。计算出的网络掩码支持的节点(包括非全局区域)数、区域群集数和专用网络数可能会大于提供的值。scinstall 实用程序还会计算第二个网络掩码,该网络掩码至少支持两倍于指定值的节点数、区域群集数和专用网络数。如果使用第二个网络掩码,则无需重新配置群集的 IP 地址范围就可以适应未来的增长。
接下来,该实用程序将询问您要选择哪个网络掩码。您可以指定任意一个计算所得的网络掩码,也可以提供其他网络掩码。所指定的网络掩码必须至少支持您在该实用程序中指定的节点数和专用网络数。
可能需要更改群集的专用 IP 地址范围,以支持添加投票节点、非全局区域、区域群集或专用网络。
要在建立群集之后更改其专用网络地址和网络掩码,请参见《Sun Cluster 系统管理指南(适用于 Solaris OS)》中的“如何更改现有群集的专用网络地址或地址范围”。您必须关闭群集才能进行这些更改。
但是,在 Solaris 10 OS 上,如果使用 cluster set-netprops 命令仅更改网络掩码,群集可以保持在群集模式。 对于群集中已经配置的任何区域群集,专用 IP 子网以及为该区域群集分配的相应专用 IP 地址也将更新。
如果指定默认值以外的专用网地址,此地址必须满足下列要求:
地址和网络掩码的大小-专用网络地址不能小于网络掩码。例如,如果网络掩码为 255.255.255.0,则可以使用专用网络地址 172.16.10.0。但是,如果网络掩码为 255.255.0.0,您就不能使用专用网络地址 172.16.10.0。
可接受的地址-地址必须包含在 RFC 1918 保留给专用网络使用的地址块中。您可以与 InterNIC 联系以获取 RFC 的副本,也可以在 http://www.rfcs.org 上查看 RFC 联机文档。
在多个群集中使用-可以在多个群集中使用相同的专用网络地址,但前提是这些群集位于不同的专用网络上。不能从物理群集外部访问专用 IP 网络地址。
对于在同一物理计算机上创建的 Sun Logical Domains (LDoms) 来宾域以及连接到同一个虚拟交换机的 Sun Logical Domains (LDoms) 来宾域,专用网络由此类来宾域共享,并且对所有这些域都可见。在向 scinstall 实用程序指定供来宾域群集使用的专用网络 IP 地址范围之前,请务必小心。请确保还没有同一物理计算机上且共享其虚拟交换机的其他来宾域使用该地址范围。
IPv6-Sun Cluster 软件不支持将 IPv6 地址用于专用互连。系统在专用网络适配器上配置 IPv6 地址以支持使用 IPv6 地址的可伸缩服务。但是专用网络上的节点间通信不使用这些 IPv6 地址。
有关专用网络的更多信息,请参见《系统管理指南:IP 服务》(Solaris 9 或 Solaris 10)中的“规划 TCP/IP 网络(任务)”。
专用主机名是用于专用网接口上节点间通信的名称。在全局群集或区域群集的 Sun Cluster 配置期间,会自动创建专用主机名。这些专用主机名遵循命名约定 clusternodenodeid -priv,其中 nodeid 是内部节点 ID 的数字编号。在 Sun Cluster 配置期间,当某个节点成为群集成员时,会自动将该节点的 ID 号指定给每个投票节点。全局群集的投票节点和区域群集的节点可以具有相同的专用主机名,但是,每个主机名都解析为不同的专用网络 IP 地址。
在配置全局群集之后,可以使用 clsetup(1CL) 实用程序来重命名该群集的专用主机名。目前,您不能重命名区域群集节点的专用主机名。
对于 Solaris 10 OS 而言,为非全局区域创建专用主机名是可选操作。非全局区域的专用主机名没有必须遵循的命名约定。
群集互连为群集节点之间的专用网通信提供了硬件通道。每个互连都由一根电缆组成,连接对象可以是:
两个传输适配器
传输适配器与传输交换机
有关群集互连的用途和功能的信息,请参见《Sun Cluster Concepts Guide for Solaris OS》中的“Cluster Interconnect”。
您不需要为单主机群集配置群集互连。但是,如果您预期最终会向单主机群集配置中添加更多的投票节点,则可能需要配置群集互连以供将来使用。
在 Sun Cluster 配置期间,您需要为一个或两个群集互连 指定配置信息。
如果可用的适配器端口数目有限,可以利用标记 VLAN 使专用网络和公共网络共享同一个适配器。有关更多信息,请参见传输适配器中有关标记 VLAN 适配器的指导信息。
在一个群集中可以设置一到六个群集互连。尽管单个群集互连减少了用于专用互连的适配器端口数,但是它不提供冗余功能,而且可用性较低。如果单个互连失败,则群集面临较大的必须执行自动恢复的风险。请尽可能安装两个或多个群集互连以提供冗余和可伸缩性,从而通过避免单点故障来提高可用性。
在使用 clsetup(1CL) 实用程序建立群集之后,可以配置其他群集互连(最多可配置六个群集互连)。
有关群集互连硬件的指导,请参见《Sun Cluster 3.1 - 3.2 Hardware Administration Manual for Solaris OS》中的“Interconnect Requirements and Restrictions”。有关群集互连的一般信息,请参见《Sun Cluster Overview for Solaris OS》中的“Cluster-Interconnect Components”以及《Sun Cluster Concepts Guide for Solaris OS》。
对于传输适配器(如网络接口中的端口),请指定传输适配器名称和传输类型。如果配置的是一个双主机群集,则还需指定互连是点对点连接(适配器到适配器)还是使用传输交换机。
请注意以下指导信息和限制:
本地 MAC 地址分配-所有专用网络适配器都必须使用支持本地 MAC 地址分配的网络接口卡 (Network Interface Card, NIC)。链路本地 IPv6 地址(专用网络适配器上需要这些地址以支持 IPv6 公共网络地址)根据本地 MAC 地址得出。
标记的 VLAN-Sun Cluster 软件支持标记的虚拟局域网 (Virtual Local Area Network, VLAN) ,以便在专用群集互连与公共网络之间共享适配器。要为群集互连配置标记 VLAN 适配器,请以下列方法之一指定适配器的名称及其 VLAN ID (VID):
指定普通的适配器名,即设备名加上实例编号或物理接点 (Physical Point of Attachment, PPA)。例如,Cassini Gigabit Ethernet 适配器的实例 2 的名称将为 ce2。如果 scinstall 实用程序询问适配器是否为共享虚拟 LAN 的一部分,请回答是并指定适配器的 VID 编号。
通过适配器的 VLAN 虚拟设备名称指定适配器名称。该名称由适配器名称和 VLAN 实例编号组成。VLAN 实例编号根据公式 (1000*V)+N 得出,其中 V 是 VID 编号,N 是 PPA。
例如,如果适配器 ce2 上的 VID 为 73,则应按 (1000*73)+2 来计算出其 VLAN 实例编号。因此,应将适配器名称指定为 ce73002,以表明该适配器属于共享虚拟 LAN。
有关在群集中配置 VLAN 的信息,请参见《Sun Cluster 3.1 - 3.2 Hardware Administration Manual for Solaris OS》中的“Configuring VLANs as Private Interconnect Networks”。有关 VLAN 的一般信息,请参见《系统管理指南:IP 服务》中的“管理虚拟局域网”。
SPARC:Sun LDoms 来宾域-请按照适配器的虚拟名称 vnetN(例如,vnet 和 vnet1)指定其名称。虚拟适配器名称记录在 /etc/path_to_inst 文件中。
SBus SCI 适配器-不支持使用 SBus 可伸缩相关接口 (Scalable Coherent Interface, SCI) 作为群集互连。但支持 SCI-PCI 接口。
有关特定传输适配器的信息,请参见 scconf_trans_adap_*(1M) 系列的手册页。
如果使用传输交换机(例如,网络交换机),请为每个互连指定传输交换机名称。可以使用默认名称 switchN(其中 N 是在配置期间自动指定的数字),也可以创建其他名称。
还应指定交换机的端口名称或接受其默认名称。默认端口名称与用于托管电缆适配器端的那个 Solaris 主机的内部节点 ID 号相同。但是,某些适配器类型(如 SCI-PCI)不能使用默认端口名。
具有三个或更多投票节点的群集必须使用传输交换机。投票群集节点之间的直接连接只能用于双主机群集。
如果双主机群集采用的是直接连接,您仍可以为该互连指定一个传输交换机。
如果指定了传输交换机,将来就可以更轻松地向群集中添加其他投票节点。
隔离是一种由群集用来在记忆分裂期间保护共享磁盘数据完整性的机制。默认情况下,处于“典型”模式的 scinstall 实用程序会使全局隔离功能保持启用状态,配置中的每个共享磁盘都使用默认的全局隔离设置 pathcount。使用 pathcount 设置,可基于附加到该磁盘的 DID 路径数为每个共享磁盘选择隔离协议。
在自定义模式下,scinstall 实用程序会提示您是否禁用全局隔离。多数情况下,请回答 No 使全局隔离保持启用状态。但是,为了支持以下情况,您可以禁用全局隔离:
如果您不是在以下情况下禁用隔离,您的数据很容易在应用程序故障转移期间发生损坏。在考虑关闭隔离功能时,请认真检查出现这种数据损坏的可能性。
共享存储不支持 SCSI 保留。
如果对共享磁盘关闭隔离功能,之后又将该磁盘配置为法定设备,该设备将使用软件定额协议。无论该磁盘是支持 SCSI-2 协议还是 SCSI-3 协议,都是这样。软件定额是 Sun Cluster 软件中的一种协议,用来模拟某种形式的 SCSI 永久组保留 (Persistent Group Reservation, PGR)。
您希望使群集外部的系统能够访问连接到群集的存储设备。
如果您在群集配置期间禁用全局隔离,群集中所有共享磁盘的隔离功能都将被关闭。在配置了群集之后,可以更改全局隔离协议或者覆盖个别共享磁盘的隔离协议。但是,要更改法定设备的隔离协议,必须首先取消法定设备的配置。然后设置磁盘的新隔离协议,并将其重新配置为法定设备。
有关隔离行为的更多信息,请参见《Sun Cluster Concepts Guide for Solaris OS》中的“Failfast Mechanism”。有关为个别共享磁盘设置隔离协议的更多信息,请参见 cldevice(1CL) 手册页。有关全局隔离设置的更多信息,请参见 cluster(1CL) 手册页。
Sun Cluster 配置使用定额设备来维护数据和资源的完整性。如果群集暂时失去与投票节点的连接,则法定设备可防止在投票群集节点试图重新加入群集时出现失忆或记忆分裂问题。有关法定设备的用途和功能的更多信息,请参见《Sun Cluster Concepts Guide for Solaris OS》中的“Quorum and Quorum Devices”。
在 Sun Cluster 安装双主机群集期间,您可以选择让 scinstall 实用程序将法定设备自动配置为配置中的可用共享磁盘。共享磁盘包括所有经过配置以用作共享磁盘的 Sun NAS 设备。scinstall 实用程序假定所有可用的共享磁盘都可以作为法定设备。
如果您希望使用法定服务器或 Network Appliance NAS 设备作为法定设备,请在完成 scinstall 的安装过程后对其进行配置。
完成安装后,您还可以使用 clsetup(1CL) 实用程序配置更多的法定设备。
您不需要为单主机群集配置法定设备。
如果群集配置中包括无法用作法定设备的第三方共享存储设备,您必须使用 clsetup 实用程序手动配置法定设备。
规划定额设备时请考虑以下几点。
最低配置-双主机群集必须至少具有一个法定设备,该设备可以是共享磁盘、法定服务器或 NAS 设备。对于其它拓扑,定额设备是可选的。
奇数规则-如果在双主机群集或直接连接到法定设备的主机对上配置多个法定设备,请配置奇数个法定设备。此配置用于确保法定设备完全独立于故障通道。
法定投票的分配-为使群集具有最高可用性,应确保法定设备提供的总投票数少于投票节点提供的总投票数。否则,节点无法在所有法定设备都不可用时形成群集,即便所有节点都在正常运行也是如此。
连接-必须将法定设备连接到至少两个投票节点。
SCSI 隔离协议-如果配置了 SCSI 共享磁盘法定设备,它的隔离协议会自动设置为 SCSI-2(在双主机群集中)或 SCSI-3(在包含三个或更多个投票节点的群集中)。
更改法定设备的隔离协议-对于配置为法定设备的 SCSI 磁盘,必须取消法定设备配置才能启用或禁用它的 SCSI 隔离协议。
软件定额协议-可以将不支持 SCSI 协议的受支持共享磁盘(如 SATA 磁盘)配置为法定设备。对于这样的磁盘,必须禁用隔离功能。这些磁盘随后将使用软件定额协议来模拟 SCSI PGR。
软件定额协议还可以由 SCSI 共享磁盘使用,但前提是对这样的磁盘禁用了隔离功能。
ZFS 存储池-请勿将已配置的法定设备添加到 ZFS 存储池中。如果将一个已配置了的法定设备添加到 ZFS 存储池中,该磁盘将被重新标为 EFI 磁盘,并因此失去法定配置信息。该磁盘此后便不会再为群集提供法定投票。
在磁盘处于存储池中之后,可以将该磁盘配置为法定设备。这就是说,您可以先取消法定设备的配置,将其添加到存储池中,然后再将相应磁盘重新配置为法定设备。
有关法定设备的更多信息,请参见《Sun Cluster Concepts Guide for Solaris OS》中的“Quorum and Quorum Devices”和《Sun Cluster Overview for Solaris OS》中的“Quorum Devices”。
在 Solaris 10 OS 上,区域群集是由多个非全局区域组成的群集。区域群集的所有节点都配置为 cluster 标记的非全局区域。在区域群集中不允许使用任何其他标记类型。您可以使用 Solaris Zones 所提供的隔离,在类似于全局群集的区域群集上运行支持的服务。
在对区域群集的创建进行规划时,请考虑以下几点:
全局群集-必须在全局 Sun Cluster 配置上配置区域群集。如果没有底层全局群集,就无法配置区域群集。
最低 Solaris OS 配置-全局群集必须至少运行 Solaris 10 5/08 OS。
群集模式-从中创建或修改区域群集的全局群集投票节点必须处于群集模式。当您管理区域群集时,如果任何其他投票节点处于非群集模式,那么,所做的更改将在这些节点返回到群集模式时传播到这些节点上。
足够的专用 IP 地址-全局群集的专用 IP 地址范围必须具有足够的空闲 IP 地址子网供新的区域群集使用。 如果可用子网的数量不够,则区域群集的创建会失败。
更改专用 IP 地址范围-如果更改了全局群集的专用 IP 地址范围,区域群集可用的专用 IP 子网和相应的专用 IP 地址将自动更新。如果删除了某个区域群集,群集基础结构会释放由该区域群集使用的专用 IP 地址,以便这些地址可在全局群集中用于其他用途或者供依赖全局群集的任何其他区域群集使用。
支持的设备-Solaris Zones 支持的设备可导出到区域群集。这样的设备包括:
Solaris 磁盘设备 (cNtXdYsZ)
DID 设备 (/dev/did/*dsk/dN)
Solaris Volume Manager 和 Solaris Volume Manager for Sun Cluster 多所有者磁盘集 (/dev/md/setname/*dsk/dN)
节点分布-不能将同一个区域群集的多个节点托管在全局群集的同一个节点上。一个全局群集节点可以托管多个区域群集节点,但前提是每个节点是不同区域群集的成员。
节点创建-在创建区域群集时,必须至少创建一个区域群集节点。节点的名称必须在区域群集中保持唯一。基础结构会自动在可托管区域群集的每个全局群集节点上创建一个底层非全局区域。每个非全局区域都被赋予相同的区域名称,该名称与在创建群集时指定给区域群集的名称完全相同。例如,如果您创建一个名为 zc1 的区域群集,则可托管区域群集的每个全局群集节点上相应的非全局区域名称也为 zc1。
群集名称-区域群集的名称在整个全局群集中必须是唯一的。群集名称不能同时由全局群集中其他位置的非全局区域使用,也不能与全局群集节点的名称相同。不能使用 "all" 或 "global" 作为区域群集名称,因为这些名称是保留名称。
公共网络 IP 地址-可以为每个区域群集节点指定特定的公共网络 IP 地址。
专用主机名-在创建区域群集过程中,会按照在全局群集中创建主机名的相同方式,为区域群集的每个节点自动创建专用主机名。目前,您不能重命名区域群集节点的专用主机名。有关专用主机名的更多信息,请参见专用主机名。
Solaris Zones 标记-区域群集的所有节点都配置为 cluster 标记的非全局区域。在区域群集中,不允许使用任何其他标记类型。
转换到区域群集节点的-不能将现有的非全局区域添加到区域群集中。
文件系统-可以使用 clzonecluster 命令仅添加以下类型的文件系统供区域群集使用:
高可用性的本地文件系统
支持以供 Oracle Real Application Clusters 使用的 QFS 共享文件系统
请勿将全局区域中的群集文件系统直接添加到区域群集节点。而应该将全局区域中的群集文件系统的回送挂载添加到非全局区域。
要将本地文件系统添加到区域群集,必须改用 zonecfg 命令,就像通常在独立系统中那样。
对于非全局区域中的 NAS 设备,不支持隔离-对于以 NFS 格式从 NAS 设备导出且在非全局区域(包括区域群集节点)中使用的文件系统,Sun Cluster 软件不提供隔离支持。该软件仅对全局区域中以 NFS 格式导出的文件系统提供隔离支持。
本节为规划全局设备和规划群集文件系统提供以下指导信息:
有关全局设备的用途和功能的信息,请参见《Sun Cluster Overview for Solaris OS》中的“Global Devices, Local Devices, and Device Groups”和《Sun Cluster Concepts Guide for Solaris OS》中的“Global Devices”。
Sun Cluster 软件不要求任何特定磁盘布局或文件系统大小。规划全局设备的布局时请考虑以下几点:
镜像-必须镜像所有全局设备,以便将全局设备当作高可用性设备。如果存储设备提供了硬件 RAID 及到磁盘的冗余通道,则不需要使用软件镜像。
磁盘-镜像时,请对文件系统进行布局,以便跨磁盘阵列镜像文件系统。
可用性-必须将全局设备物理连接至群集中的多个投票节点,以便将该全局设备当作高可用性设备。具有多个物理连接的全局设备能够在单个节点发生故障的情况下实现容错。可以支持只有一个物理连接的全局设备,但如果与之连接的那个节点关闭,将无法从其他投票节点访问该设备。
交换设备-请勿在全局设备上创建交换文件。
非全局区域-无法从非全局区域直接访问全局设备,只能从非全局区域访问群集文件系统数据。
有关设备组的用途和功能的信息,请参见《Sun Cluster Overview for Solaris OS》中的“Global Devices, Local Devices, and Device Groups”和《Sun Cluster Concepts Guide for Solaris OS》中的“Device Groups”。
请将此规划信息添加到设备组配置工作单中。
规划设备组时请考虑以下几点。
故障转移-可以将多主机磁盘和正确配置的卷管理器设备配置为故障转移设备。正确配置的卷管理器设备包括多主机磁盘和正确设置的卷管理器本身。此配置用于确保多个投票节点能够托管导出的设备。不能将磁带机、CD-ROM、DVD-ROM 或单端口设备配置为故障转移设备。
镜像-必须镜像磁盘以保护数据免受磁盘故障的影响。有关其他指导信息,请参见镜像指导。有关镜像的说明,请参见配置 Solaris Volume Manager 软件或安装和配置 VxVM 软件以及相应的卷管理器文档。
有关群集文件系统的用途和功能的信息,请参见《Sun Cluster Overview for Solaris OS》中的“Cluster File Systems”和《Sun Cluster Concepts Guide for Solaris OS》中的“Cluster File Systems”。
还可以配置高可用性本地文件系统。这可以提高系统性能,从而使数据服务具有较高的 I/O 速率或可以使用群集文件系统中不支持的某些文件系统功能。有关更多信息,请参见《Sun Cluster Data Services Planning and Administration Guide for Solaris OS》中的“Enabling Highly Available Local File Systems”。
规划群集文件系统时请注意以下几点。
非全局区域-如果要从非全局区域访问某个群集文件系统,必须先将该文件系统挂载到全局区域中。然后再使用回送挂载将它挂载到非全局区域中。由此可见,必须在包含非全局区域的群集中启用回送文件系统 (Loopback File System, LOFS)。
区域群集-不能配置要在区域群集中使用的群集文件系统。请改用高可用性的本地文件系统。如果区域群集是用 Oracle Real Application Clusters (RAC) 配置的,则可以在该区域群集中使用共享 QFS 来支持 Oracle RAC。
回送文件系统 (Loopback File System, LOFS)-使用 Solaris 9 版本的 Sun Cluster 软件创建群集期间,默认情况下会禁用 LOFS 功能。使用 Solaris 10 版本的 Sun Cluster 软件创建群集期间,默认情况下则会启用 LOFS。
如果群集同时满足以下两个条件,您必须在每个投票群集节点上手动禁用 LOFS:
在高可用性本地文件系统中配置 Sun Cluster HA for NFS。
正在运行 automountd 守护进程。
如果群集满足上述两个条件,就必须禁用 LOFS 以避免出现切换问题或其他故障。如果群集仅满足其中一个条件,您便可以安全地启用 LOFS。
如果需要启用 LOFS 和 automountd 守护进程,请从自动安装程序映射中排除所有符合以下条件的文件:属于由 Sun Cluster HA for NFS 导出的高可用性本地文件系统。
进程记帐日志文件-请勿将进程记帐日志文件放在群集文件系统或高可用性本地文件系统中。向日志文件的写入操作将阻碍切换转移,这将导致节点挂起。请仅使用本地文件系统包含进程记帐日志文件。
通信端点-对于 Solaris 软件提供的、用于将通信端点置于文件系统名称空间内的任何文件系统功能,群集文件系统均不提供支持。
虽然您可以创建一个路径名直接指向群集文件系统的 UNIX 域套接字,但是在进行节点故障转移之后,该套接字将不复存在。
将无法全局访问群集文件系统上的任何 FIFO 或创建的已命名的传输。
因此,请勿尝试在除本地节点之外的任何节点上使用 fattach 命令。
设备特殊文件-群集文件系统中既不支持块特殊文件也不支持字符特殊文件。要为群集文件系统中的某个设备节点指定路径名,请在 /dev 目录下创建一个指向该设备名称的符号链接。请勿使用 mknod 命令来实现此目的。
atime-群集文件系统不维护 atime。
ctime-访问群集文件系统中的某个文件时,该文件的 ctime 更新可能会延迟。
安装应用程序-如果希望具有高可用性的应用程序二进制文件驻留在某一群集文件系统中,请等到配置完该群集文件系统之后再安装该应用程序。另外,如果该应用程序是用 Sun Java System 的 installer 程序安装的,并且依赖于所有的共享组件,请将那些未随该应用程序一同安装的共享组件安装到群集中的所有节点上。
本节介绍了以下几种群集文件系统的相关要求与限制:
您也可以将这些类型和其他类型的文件系统配置为具有高可用性的本地文件系统。有关更多信息,请参见《Sun Cluster Data Services Planning and Administration Guide for Solaris OS》中的“Enabling Highly Available Local File Systems”。
请遵循以下指导信息来确定在创建群集文件系统时要使用哪些挂载选项。
有关 UFS 挂载选项的更多信息,请参见 mount_ufs(1M) 手册页。
装载选项 |
用法 |
描述 |
---|---|---|
global |
必需 |
此选项使文件系统对于群集中的各节点均为全局可见的。 |
log |
必需 |
此选项用于启用日志。 |
有关 VxFS 挂载选项的更多信息,请参见 VxFS mount_vxfs 手册页以及《Sun Cluster 系统管理指南(适用于 Solaris OS)》中的“管理群集文件系统概述”。
规划群集文件系统的挂载点时请考虑以下几点。
挂载点位置-除非被其他软件产品禁止,否则请在 /global 目录中创建群集文件系统的挂载点。使用 /global 目录能够更容易地将在全局范围内可用的群集文件系统与本地文件系统区分开来。
SPARC:VxFS 挂载要求-如果使用 Veritas 文件系统 (VxFS),请从主节点全局挂载和卸载 VxFS 文件系统。主节点是用于控制 VxFS 文件系统所在磁盘的 Solaris 主机。此方法可确保装载或卸载操作成功完成。如果从辅助节点上装载或卸载 VxFS 文件系统,则操作可能会失败。
SPARC:VxFS 功能限制-
Sun Cluster 3.2 群集文件系统不支持以下 VxFS 功能。但是本地文件系统支持这些功能。
快速 I/O
快照
存储检查点
特定于 VxFS 的安装选项:
convosync(转换 O_SYNC)
mincache
qlog、delaylog、tmplog
Veritas 群集文件系统(需要 VxVM 群集功能和 Veritas Cluster Server)
高速缓存顾问可以使用,但只能在给定的节点上观察到其效果。
对于在群集文件系统中支持的其他所有 VxFS 功能和选项,在 Sun Cluster 3.2 软件中同样受支持。有关群集配置中支持的 VxFS 选项的详细信息,请参见 VxFS 文档。
嵌套挂载点-通常情况下,不应为群集文件系统嵌套挂载点。例如,不要将一个文件系统设置为挂载于 /global/a,而将另一个文件系统设置为挂载于 /global/a/b。忽略此规则可能会导致可用性和节点引导顺序出现问题。如果系统在尝试挂载该文件系统的子挂载点时,父挂载点不存在,则会出现这些问题。此规则的唯一例外是两个文件系统的设备具有相同的物理主机连通性。例如,同一磁盘上的不同分片。
forcedirectio-Sun Cluster 软件不支持从通过使用 forcedirectio 挂载选项挂载的群集文件系统执行二进制文件。
请将此规划信息添加到设备组配置工作单和卷管理器配置工作单中。如果使用的是 Solaris Volume Manager,还需将此规划信息添加到卷工作单 (Solaris Volume Manager) 中。
本节为规划群集配置的卷管理提供以下指导信息。
Sun Cluster 软件使用卷管理器软件将各磁盘分成设备组,从而可以将设备组作为一个单元加以管理。Sun Cluster 软件支持通过以下方式安装或使用 Solaris Volume Manager 软件和 Veritas Volume Manager (VxVM) 软件。
表 1–4 支持使用的 Sun Cluster 卷管理器软件
卷管理器软件 |
要求 |
---|---|
Solaris Volume Manager |
无论是否使用某些节点上的 VxVM 来管理磁盘,都必须在群集的所有投票节点上安装 Solaris Volume Manager 软件。 |
必须在群集的所有投票节点上安装和许可具有群集功能的 VxVM。 |
|
不具有群集功能的 VxVM |
只需在连接到 VxVM 所管理的存储设备的投票节点上安装和许可 VxVM。 |
如果在同一投票节点上同时安装这两个卷管理器,则必须使用 Solaris Volume Manager 软件来管理每个节点的本地磁盘。本地磁盘包括根磁盘。使用 VxVM 管理所有共享的磁盘。 |
有关如何安装和配置卷管理器软件的说明,请参见相应的卷管理器文档以及配置 Solaris Volume Manager 软件或安装和配置 VxVM 软件。有关在群集配置中使用卷管理的更多信息,请参见《Sun Cluster Concepts Guide for Solaris OS》中的“Multihost Devices”和《Sun Cluster Concepts Guide for Solaris OS》中的“Device Groups”。
使用卷管理器软件配置磁盘时,请考虑以下一般原则:
镜像的多主机磁盘-您必须跨磁盘扩展单元镜像所有多主机磁盘。有关镜像多主机磁盘的指导信息,请参见多主机磁盘镜像指导。如果存储设备提供了硬件 RAID 及到设备的冗余路径,则不需要使用软件镜像。
镜像的根-镜像根磁盘可确保高可用性,但这种镜像不是必需的。有关决定是否镜像根磁盘的指导信息,请参见镜像指导。
唯一命名-您可能具有本地 Solaris Volume Manager 或 VxVM 卷,它们用作在其上挂载 /global/.devices/node@nodeid 文件系统的设备。如果是这样,在其上挂载 /global/.devices/node@nodeid 文件系统的每个本地卷的名称在整个群集中都必须是唯一的。
节点列表-为确保设备组的高可用性,该设备组与任何关联资源组的潜在主节点的节点列表和故障恢复策略必须完全相同。或者,如果可伸缩资源组使用的节点多于与它相关联的设备组,则应使可伸缩资源组的节点列表成为设备组节点列表的超集。有关节点列表的信息,请参见《Sun Cluster Data Services Planning and Administration Guide for Solaris OS》中的资源组规划信息。
多主机磁盘-您必须将用于构造设备组的所有设备连接到在该设备组的节点列表中配置的所有节点。当设备被添加到磁盘集时,Solaris Volume Manager 软件会自动检查此连接。但是,配置的 VxVM 磁盘组与任何特定的节点集都没有关联。
有关磁盘布局建议和附加限制的信息,请参阅卷管理器文档。
规划 Solaris Volume Manager 配置时请考虑以下几点:
本地卷名-在其上安装全局设备文件系统 /global/.devices/node@ nodeid 的每个本地 Solaris Volume Manager 卷的名称在整个群集中都必须是唯一的。而且该名称不能与任何设备 ID 名称相同。
双串介体-对于每个正好配置了两个磁盘串并且正好由两个 Solaris 主机控制的磁盘集,均必须配置 Solaris Volume Manager 介体。磁盘串由一个磁盘盒、所含物理磁盘、磁盘盒与主机之间的电缆以及接口适配卡组成。遵守以下规则配置双串介体:
您必须为每个磁盘集正好配置两个充当介体主机的主机。
所有需要介体的磁盘集都必须使用这两个主机。这两个主机必须控制这些磁盘集。
不能为不满足双串和双主机要求的磁盘集配置介体。
有关详细信息,请参见 mediator(7D) 手册页。
/kernel/drv/md.conf 设置 – SPARC:在 Solaris 9 OS 上,每个磁盘集使用的所有Solaris Volume Manager 卷都已在重新配置引导时事先创建。此重新配置基于 /kernel/drv/md.conf 文件中已有的配置参数。
在 Solaris 10 版本中,Solaris Volume Manager 的功能已得到增强,它可以动态配置卷。不再需要编辑 /kernel/drv/md.conf 文件中的 nmd 和 md_nsets 参数。根据需要动态创建新卷。
必须按如下方式修改 nmd 和 md_nsets 字段才能支持 Solaris 9 OS 上的 Sun Cluster 配置:
所有的投票群集节点必须有完全相同的 /kernel/drv/md.conf ,而不管每个节点为多少个磁盘集提供服务。不按本指南操作可能会导致严重的 Solaris Volume Manager 错误,并且可能丢失数据。
md_nsets-md_nsets 字段定义了为满足整个群集的需要可以为系统创建的磁盘集总数。将 md_nsets 的值设置为群集中需要的磁盘集数量加上一个附加磁盘集。Solaris Volume Manager 软件使用该附加磁盘集管理本地主机上的专用磁盘。
每个群集最多可以包含 32 个磁盘集,这样,可以将 31 个磁盘集用于一般用途,而将另一个磁盘集用于专用磁盘管理。md_nsets 的默认值为 4。
nmd-nmd 字段定义了群集中将存在的所有卷名称的最大预测值。例如,如果在群集的前 15 个磁盘集中使用的卷名称的最大值为 10,但是在第 16 个磁盘集中使用的卷名称的最大值为 1000,请将 nmd 的值至少设置为 1000。而且,nmd 的值必须足够大,以确保对于每个设备 ID 名称都存在足够的数量。该数字还必须足够大,以确保每个本地卷名称在整个群集中都是唯一的。
每个磁盘集允许的卷名称的最大值为 8192。nmd 的默认值为 128。
在安装时设置这些字段,以便将来可以对群集进行扩展。群集生成后增大这些字段的值会耗费很多时间。如果更改该值,则需要对每个投票节点进行重新配置重新引导。如果以后增大这些值,还会增大因根 (/) 文件系统的空间分配不足而无法创建请求的所有设备的可能性。
同时,应尽可能使 nmd 字段和 md_nsets 字段的值保持最低。所有可能设备的内存结构由 nmd 和 md_nsets 确定,即使这些设备尚未创建也是如此。为了获得最佳性能,请使 nmd 和 md_nsets 的值仅比要使用的卷数略高一点。
有关 md.conf 文件的更多信息,请参见《Solaris Volume Manager 管理指南》(Solaris 9 或 Solaris 10)中的“系统文件和启动文件”。
规划 Veritas Volume Manager (VxVM) 配置时,请考虑以下几点:
节点的可访问性-必须将所有卷管理器磁盘组配置为 Sun Cluster 设备组或仅限本地的磁盘组。如果不按这两种方式之一配置磁盘组,则群集中的任何节点都将无法访问该磁盘组中的设备。
设备组可使辅助节点在主节点发生故障时接管多主机磁盘。
仅限本地的磁盘组的运行不受 Sun Cluster 软件的控制,并且一次只能从一个节点访问。
基于附件的命名-如果使用基于附件的设备命名,请确保在共享同一存储器的所有群集节点上使用一致的设备名称。VxVM 不会使这些名称协调一致,因此,管理员必须确保 VxVM 将相同名称分配给不同节点上的相同设备。指定的名称不一致不会影响正确的群集操作。但是,名称不一致会大大增加群集管理的复杂性和出现配置错误的可能性,并可能导致数据丢失。
可以在以下磁盘上创建根磁盘组:
根磁盘,它必须是封装的
一个或多个可以封装或初始化的本地非根磁盘
根磁盘和本地非根磁盘的组合
根磁盘组必须位于 Solaris 主机本地。
简单根磁盘组-Sun Cluster 软件不支持将在根磁盘的单个分片上创建的简单根磁盘组作为 VxVM 的磁盘类型。这是 VxVM 软件的一般限制。
卷数-在创建任一给定设备组时,请估算该设备组可能会使用的最大卷数。
如果卷数小于 1000,则可以使用默认从设备号。
如果卷数大于等于 1000,则必须仔细规划为设备组中各卷分配从设备号的方式。不能为任何两个设备组分配重复的从设备号。
脏区记录 -使用脏区日志记录 (Dirty Region Logging, DRL) 可以缩短节点发生故障后的卷恢复时间。使用 DRL 可能减少 I/O 吞吐量。
动态多路径 (Dynamic Multipathing, DMP)-不支持单独使用 DMP 来管理每个 Solaris 主机上连接到共享存储的多个 I/O 路径。仅在以下配置中支持使用 DMP:
在群集的共享存储上,为每个主机配置了单个 I/O 路径。
使用支持的多路径解决方案(如 Solaris I/O 多路径 软件 (MPxIO)、EMC PowerPath 或 Hitachi HDLM)管理每个主机上连接到共享群集存储设备的多个 I/O 路径。
有关其他信息,请参见 VxVM 安装文档。
需要对 UFS 和 VxFS 群集文件系统进行日志记录。Sun Cluster 软件支持以下文件系统记录选项:
Solaris UFS 日志记录-有关更多信息,请参见 mount_ufs(1M) 手册页。
SPARC:Veritas 文件系统 (VxFS) 日志记录-有关更多信息,请参见 VxFS 软件附带的 mount_vxfs 手册页。
Solaris Volume Manager 和 Veritas Volume Manager 均支持这两种类型的文件系统日志记录。
本节为规划群集配置的镜像提供以下指导信息。
镜像 Sun Cluster 配置中的所有多主机磁盘,使得此配置可以允许单个设备发生故障。Sun Cluster 软件要求镜像跨扩展单元的所有多主机磁盘。如果存储设备提供了硬件 RAID 及到设备的冗余路径,则不需要使用软件镜像。
镜像多主机磁盘时请考虑以下几点:
单独的磁盘扩展单元-给定镜像或丛的每个子镜像应位于不同的多主机扩展单元中。
磁盘空间-镜像使必需的磁盘空间量增加一倍。
三路镜像-Solaris Volume Manager 软件和 Veritas Volume Manager (VxVM) 软件支持三路镜像。但是,Sun Cluster 软件只要求两路镜像。
有关多主机磁盘的更多信息,请参见《Sun Cluster Overview for Solaris OS》中的“Multihost Disk Storage”以及《Sun Cluster Concepts Guide for Solaris OS》。
请将该规划信息添加到本地文件系统布局工作单中。
为了实现最大可用性,请镜像本地磁盘上的根 (/)、/usr、/var、/opt 和 swap。在 VxVM 中,封装根磁盘并且镜像所生成的子磁盘。但是,Sun Cluster 软件不要求镜像根磁盘。
在决定是否镜像根磁盘之前,请考虑关于根磁盘的各种备用方法的风险、复杂性、成本以及服务时间。一个镜像策略不可能适用于所有配置。在决定是否要镜像根时,可能要考虑本地 Sun 服务代表的首选解决方案。
有关如何镜像根磁盘的说明,请参见相应的卷管理器文档以及配置 Solaris Volume Manager 软件或安装和配置 VxVM 软件。
在决定是否要镜像根磁盘时,请考虑以下几点。
引导磁盘-可以将镜像设置为可引导的根磁盘。然后可以在主引导磁盘出现故障时从镜像进行引导。
复杂性-镜像根磁盘会增加系统管理的复杂性。在单用户模式中进行引导的复杂性。
备份-不管是否镜像根磁盘,都应该定期执行根备份。单独镜像不能避免管理错误。只有备份计划才能使您恢复被误改或误删的文件。
定额-在 Solaris Volume Manager 软件中,如果发生状态数据库定额丢失的故障,则必须先进行维护,然后才能重新引导系统。有关状态数据库和状态数据库副本的信息,请参见 Solaris Volume Manager 文档。
单独的控制器-最高可用性包括在一个单独的控制器上镜像根磁盘。
辅助根磁盘-通过所镜像的根磁盘,即使主根磁盘出现故障,仍可以在辅助(镜像)根磁盘中继续工作。稍后,主根磁盘可以返回到服务,例如,在关开机循环或瞬态 I/O 错误之后。如果是这样,则执行后续的引导操作时将会使用 eeprom(1M) boot-device 参数中指定的主根磁盘。在这种情况下,不需要执行任何手动修复任务,只需要正常启动驱动器即可进行引导。使用 Solaris Volume Manager 软件时会发生再同步。在驱动器返回维修时,需要手动进行重新同步。
如果对辅助(镜像)根磁盘上的任何文件进行更改,引导时这些更改不会反映在主根磁盘中。此条件会导致子镜像无效。例如,将会丢失对 /etc/system 文件进行的更改。使用 Solaris Volume Manager 软件时,某些管理命令可能会在主根磁盘不可用时更改 /etc/system 文件。
引导程序不会检查系统是从镜像还是基础物理设备进行引导。在装入卷后的引导过程中,镜像将被部分激活。因此在此之前,系统容易发生子镜像无效问题。