本节提供了配置群集上安装的软件的信息和过程。
下表列出配置群集所执行的任务。 开始执行这些任务之前,确保您已完成以下任务:
按照安装软件 中的说明安装群集框架
按照安装和配置 Solstice DiskSuite/Solaris Volume Manager 软件 或SPARC: 安装和配置 VxVM 软件 中的说明安装并配置卷管理器
任务 |
说明 |
---|---|
创建并装载群集文件系统。 | |
配置 IP Network Multipathing 组。 | |
(可选)更改节点的专用主机名。 | |
创建或修改 NTP 配置文件。 | |
(可选) SPARC: 将 Sun Cluster 模块安装到 Sun Management Center 软件。 |
SPARC: 为 Sun Management Center 安装 Sun Cluster 模块 Sun Management Center 文档 |
安装第三方应用程序并且配置应用程序、数据服务以及资源组。 |
《Sun Cluster 数据服务规划和管理指南(适用于 Solaris OS)》 第三方应用程序文档 |
对添加的每个群集文件系统执行该过程。 从群集的任一节点均可访问群集文件系统。
创建文件系统时,会毁坏该磁盘上的所有数据。 请确保指定了正确的磁盘设备名称。 如果指定的设备名称不正确,则会删除您可能并不打算删除的数据。
如果使用了 SunPlex Manager 安装数据服务,则 SunPlex Manager 可能已创建一个或多个群集文件系统。
请确保已安装并配置了卷管理器软件。
有关卷管理器的安装过程,请参阅安装和配置 Solstice DiskSuite/Solaris Volume Manager 软件 或SPARC: 安装和配置 VxVM 软件 。
成为群集中任一节点上的超级用户。
要更快地创建文件系统,请成为为其创建文件系统的全局设备的当前主节点上的超级用户。
创建文件系统。
要创建 UFS 文件系统,请使用 newfs(1M) 命令。
# newfs raw-disk-device |
SPARC: 要创建 xVxFS 文件系统,请按照 xVxFS 文档中提供的过程进行。
下表显示了 raw-disk-device 变量名称的示例。 请注意,卷管理器的命名规则各不相同。
卷管理器 |
磁盘设备名称样例 |
说明 |
---|---|---|
Solstice DiskSuite 或 Solaris Volume Manager |
/dev/md/nfs/rdsk/d1 |
nfs 磁盘集中的原始磁盘设备 d1 |
SPARC: VERITAS Volume Manager |
/dev/vx/rdsk/oradg/vol01 |
oradg 磁盘组中的原始磁盘设备 vol01 |
无 |
/dev/global/rdsk/d1s3 |
原始磁盘设备 d1s3 |
在群集中的每一节点上创建群集文件系统的安装点目录。
每个节点均需要使用装载点,即使在该节点上无法访问群集文件系统。
为便于管理,请在 /global/device-group 目录中创建装载点。 该位置允许您很容易地区别群集文件系统,这些文件系统从本地文件系统中全局可用。
# mkdir -p /global/device-group/mountpoint |
目录名,此名称与该设备所在的设备组的名称相对应
目录名,群集文件系统将装在该目录中
在群集中的每个节点上为装载点向 /etc/vfstab 文件中添加一个项。
有关详细信息,请参阅 vfstab(4) 手册页。
在每一项中指定使用的文件系统的类型所需的安装选项。 有关需要的装载选项的列表,请参阅表 2–11 或表 2–12。
对于所有群集文件系统,记录是必需的。 但是,对于 Solstice DiskSuite trans 元设备或 Solaris Volume Manager 事务卷,则不要使用 logging 装载选项。 Trans 元设备和事务卷提供了各自的记录。
另外, 以后的 Solaris 版本中的 Solaris 操作环境里将删除 Solaris Volume Manager transactional-volume logging(以前称为 Solstice DiskSuite trans-metadevice logging)。 Solaris UFS logging提供的功能与以前相同,但性能更加优异,并且系统管理要求和系统开销更低。
装载选项 |
说明 |
---|---|
global |
必需。 此选项使文件系统对于群集中的各节点均为全局可视。 |
logging |
必需。 此选项用于启用记录。 |
forcedirectio |
对于保存 Oracle Parallel Server/Real Application Clusters RDBMS 数据文件、日志文件和控制文件的群集文件系统,此选项为必需。 注意: 仅在基于 SPARC 的群集中支持使用 Oracle Parallel Server/Real Application Clusters。 |
syncdir |
可选。 如果指定 syncdir,则对于 write() 系统调用,可以保证符合 POSIX 的文件系统行为。 如果 write() 成功,则此装载选项可以确保磁盘上拥有足够的空间。 如果未指定 syncdir,会发生相同的行为(可使用 UFS 文件系统查看), 如果未指定 syncdir,则可以显著改善分配磁盘块(如向文件中附加数据时)的写入性能。 但是,在某些情况下,如果未指定 syncdir,就只有在关闭文件后才会发现空间不足 (ENOSPC)。 您会在故障切换后非常短的一段时间内看到 ENOSPC 为关闭状态。 如果具有 syncdir 以及 POSIX 行为,空间不足的情况在文件关闭之前就可以发现。 |
请不要使用 onerror=umount 或 onerror=lock 装载选项。 由于以下原因,群集文件系统不支持这些装载选项:
使用 onerror=umount 或 onerror=lock 装载选项可能导致群集文件系统锁定或无法访问群集文件系统。 如果群集文件系统的文件被损坏,可能出现此情况。
onerror=umount 或 onerror=lock 装载选项可能导致无法装载群集文件系统。 这种状况可能由此导致使用此群集文件系统的应用程序挂起或无法终止应用程序。
可能需要重新引导节点才能从这些状态中恢复。
Sun Cluster 软件只支持 onerror=panic 装载选项。 无需在 /etc/vfstab 文件中指定 onerror=panic 装载选项。 如果未指定其它 onerror 装载选项,此装载选项已为缺省值。
有关 UFS 装载选项的详细信息,请参阅 mount_ufs(1M) 手册页。
表 2–12 SPARC: VxFS 群集文件系统的装载选项
装载选项 |
说明 |
---|---|
global |
必需。 此选项使文件系统对于群集中的各节点均为全局可视。 |
log |
必需。 此选项用于启用记录。 |
有关 VxFS 装载选项的详细信息,请参阅 VxFS mount_vxfs 手册页和《Sun Cluster 系统管理指南(适用于 Solaris OS)》中的“管理群集文件系统概述”。
要自动装载群集文件系统,请将 mount at boot 字段设置为 yes。
请确保对于每个群集文件系统,其 /etc/vfstab 条目中的信息在每个节点上是完全相同的。
请确保每个节点的 /etc/vfstab 文件中的条目都以相同顺序列出设备。
检查文件系统的引导顺序相关性。
例如,假定出现以下情况:phys-schost-1 将磁盘设备 d0 装载于 /global/oracle 上,而 phys-schost-2 将磁盘设备 d1 装载在 /global/oracle/logs 上。 此时,只有在 phys-schost-1 引导并装载了 /global/oracle 之后,phys-schost-2 才能引导并装载 /global/oracle/logs。
在群集的所有节点上,运行 sccheck (1M) 公用程序。
sccheck 公用程序检验装载点是否存在。 该公用程序还将检验群集的所有节点上的 /etc/vfstab 文件项是否正确。
# sccheck |
如果不出现错误,则不返回任何内容。
装载群集文件系统。
# mount /global/device-group/mountpoint |
在群集的每个节点上检验是否已装载群集文件系统。
配置 IP Network Multipathing 组。
以下示例在 Solstice DiskSuite 元设备 /dev/md/oracle/rdsk/d1 上创建 UFS 群集文件系统。
# newfs /dev/md/oracle/rdsk/d1 … (在每个节点上) # mkdir -p /global/oracle/d1 # vi /etc/vfstab #device device mount FS fsck mount mount #to mount to fsck point type ; pass at boot options # /dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs 2 yes global,logging (保存并退出) (在一个节点上) # sccheck # mount /global/oracle/d1 # mount … /global/oracle/d1 on /dev/md/oracle/dsk/d1 read/write/setuid/global/logging/largefiles on Sun Oct 3 08:56:16 2000 |
对群集的每个节点执行该任务。 如果使用了 SunPlex Manager 安装 Sun Cluster HA for Apache 或 Sun Cluster HA for NFS,则 SunPlex Manager 为那些数据服务使用的公共网适配器配置了 IP Network Multipathing 组。 必须为其余的公共网适配器配置 IP Network Multipathing 组。
所有公共网适配器必须属于 IP Network Multipathing 组。
准备好完成的公共网络工作表。
为 IPv4 地址执行 IP Network Multipathing Administration Guide (Solaris 8) 中的 “Deploying Network Multipathing” 或 System Administration Guide: IP Services (Solaris 9) 中的 “Administering Network Multipathing (Task)” 中的过程。
按照这些附加要求在 Sun Cluster 配置中配置 IP Network Multipathing 组:
每个公共网络适配器必须属于多路径组。
对于包含两个或多个适配器的多路径组,必须为组中的每个适配器配置测试 IP 地址。 如果多路径组只包含一个适配器,则无需配置测试 IP 地址。
同一个多路径组中的所有适配器的测试 IP 地址必须属于一个 IP 子网。
正常的应用程序不可以使用测试 IP 地址,因为它们属于高度不可用地址。
在 /etc/default/mpathd 文件中,请不要将 TRACK_INTERFACES_ONLY_WITH_GROUPS 的值从 yes 改为 no。
多路径组名称没有要求或限制。
您是否打算更改任何专用主机名?
在安装 Sun Cluster 软件之前,是否已安装了您自己的 /etc/inet/ntp.conf 文件?
如果是,请继续执行步骤 5。
否则,请转到如何配置网络时间协议 (NTP) 安装或创建 NTP 配置文件。
您是否在基于 SPARC 的系统上使用 Sun Cluster,是否要使用 Sun Management Center 来监视群集?
否则,请安装第三方应用程序,注册资源类型,设置资源组并配置数据服务。 按照 《Sun Cluster 数据服务规划和管理指南(适用于 Solaris OS)》 和应用程序软件附带的文档中的过程进行操作。
如果不希望使用在 Sun Cluster 软件安装期间分配的缺省专用主机名 (clusternodenodeid-priv),则执行该任务。
在配置并启动了应用程序和数据服务后,请不要执行该过程。 否则,在重命名旧的专用主机名后,应用程序或数据服务可能仍使用旧的专用主机名,从而造成主机名冲突。 如果有一些应用程序或数据服务正在运行,则停止它们,然后再执行该过程。
成为群集中一个节点上的超级用户。
启动 scsetup(1M) 公用程序。
# scsetup |
从“Main Menu”中选择“Private hostnames”。
从“Private Hostname Menu”中选择“Change a private hostname”。
按照提示更改专用主机名。
对于每个要更改的专用主机名,请重复该过程。
# scconf -pv | grep "private hostname" (phys-schost-1) Node private hostname: phys-schost-1-priv (phys-schost-3) Node private hostname: phys-schost-3-priv (phys-schost-2) Node private hostname: phys-schost-2-priv |
在安装 Sun Cluster 软件之前,是否已安装了您自己的 /etc/inet/ntp.conf 文件?
否则,请转到如何配置网络时间协议 (NTP) 安装或创建 NTP 配置文件。
如果是,请继续执行步骤 8。
您是否在基于 SPARC 的系统上使用 Sun Cluster,是否要使用 Sun Management Center 来监视群集?
否则,请安装第三方应用程序,注册资源类型,设置资源组并配置数据服务。 请参阅应用程序软件附带的文档以及 《Sun Cluster 数据服务规划和管理指南(适用于 Solaris OS)》。
安装 Sun Cluster 软件后,执行此任务以创建或修改 NTP 配置文件。 在向现有群集中添加节点或更改群集中某个节点的专用主机名时,也必须修改 NTP 配置文件。
在群集内配置 NTP 或任何时间同步设备时,首要条件是必须将所有群集节点同步为同一时间。 除了同步节点之间的时间之外,其次还要考虑单个节点上的时间准确性。 如果满足该基本同步要求,则可以自由配置 NTP,最大限度地满足您个人的需要。
有关群集时间的详细信息,请参阅《Sun Cluster 概念指南(适用于 Solaris OS)》。 有关如何配置 NTP 以用于 Sun Cluster 配置的详细指南,请参阅 /etc/inet/ntp.cluster 模板文件。
在安装 Sun Cluster 软件之前,是否已安装了您自己的 /etc/inet/ntp.conf 文件?
成为群集节点的超级用户。
是否要在群集节点上安装您自己的 /etc/inet/ntp.conf 文件?
在群集的一个节点上,编辑 /etc/inet/ntp.conf.cluster 文件中的专用主机名。
请不要将 ntp.conf.cluster 文件重命名为 ntp.conf。
如果该节点上没有 /etc/inet/ntp.conf.cluster 文件,则可能在以前安装 Sun Cluster 软件时创建了 /etc/inet/ntp.conf 文件。 如果该节点上没有 /etc/inet/ntp.conf 文件,Sun Cluster 软件会将 /etc/inet/ntp.conf.cluster 文件创建为 NTP 配置文件。 如果是这样,则进而对该 ntp.conf 文件执行以下编辑。
将 NTP 配置文件复制到群集中的所有节点上。
所有群集节点上的 NTP 配置文件的内容必须相同。
停止每个节点上的 NTP 守护程序。
等待停止命令在每个节点上成功完成,然后转到步骤 7。
# /etc/init.d/xntpd stop |
在每个节点上重新启动 NTP 守护程序。
您是否在基于 SPARC 的系统上使用 Sun Cluster 并要使用 Sun Management Center 来监视群集?
否则,请安装第三方应用程序,注册资源类型,设置资源组并配置数据服务。 请参阅应用程序软件附带的文档以及 《Sun Cluster 数据服务规划和管理指南(适用于 Solaris OS)》。