Sun Cluster 软件安装指南(适用于 Solaris OS)

配置群集

本节提供了配置群集上安装的软件的信息和过程。

如何创建群集文件系统

执行此过程可以创建群集文件系统。与本地文件系统不同,群集文件系统可以从群集中的任何节点进行访问。如果已使用 SunPlex Installer 安装数据服务,SunPlex Installer 可能已创建一个或多个群集文件系统。


Caution – Caution –

创建文件系统时,会毁坏该磁盘上的所有数据。请确保指定的磁盘设备名称是正确的。如果指定的设备名称不正确,可能会删除不打算删除的数据。


对要创建的每个群集文件系统执行此过程。

  1. 请确保已安装并配置了卷管理器软件。

    有关卷管理器的安装过程,请参见安装和配置 Solstice DiskSuite 或 Solaris Volume Manager 软件SPARC: 安装和配置 VxVM 软件

  2. 成为群集中任一节点上的超级用户。


    提示 –

    要更快地创建文件系统,请成为为其创建文件系统的全局设备的当前主节点上的超级用户。


  3. 创建文件系统。

    • 对于 UFS 文件系统,请使用 newfs(1M) 命令。


      # newfs raw-disk-device
      

      下表显示了 raw-disk-device 参数的名称示例。请注意,卷管理器的命名规则各不相同。

      卷管理器 

      磁盘设备名称样例 

      说明 

      Solstice DiskSuite 或 Solaris Volume Manager 

      /dev/md/nfs/rdsk/d1

      nfs 磁盘集中的原始磁盘设备 d1

      SPARC:VERITAS Volume Manager 

      /dev/vx/rdsk/oradg/vol01

      oradg 磁盘组中的原始磁盘设备 vol01

      无 

      /dev/global/rdsk/d1s3

      原始磁盘设备 d1s3

    • 对于 Sun StorEdge QFS 文件系统,请按照Sun StorEdge QFS and Sun StorEdge SAM-FS Software Installation and Configuration Guide中定义配置的过程进行操作。

    • SPARC:对于 VERITAS 文件系统 (VxFS) 文件系统,请按照 VxFS 文档中提供的过程进行操作。

  4. 在群集中的每一节点上创建群集文件系统的安装点目录。

    每个节点上都需要一个装载点,即使不在该节点上访问群集文件系统也是如此。


    提示 –

    为了便于管理,请在 /global/device-group/ 目录中创建安装点。该位置允许您很容易地区别群集文件系统,这些文件系统从本地文件系统中全局可用。



    # mkdir -p /global/device-group/mountpoint/
    
    device-group

    目录名,此名称与该设备所在的设备组的名称相对应

    mountpoint

    目录名,群集文件系统将装在该目录中

  5. 在群集中的每个节点上,为安装点的 /etc/vfstab 文件添加一个条目。

    有关详细信息,请参见 vfstab(4) 手册页。

    1. 在每个条目中,指定所用文件系统类型所需的安装选项。有关所需安装选项的列表,请参见表 2–10表 2–11表 2–12


      注意 –

      请勿使用 Solstice DiskSuite Trans 元设备或 Solaris Volume Manager 事务卷的 logging 安装选项。Trans 元设备和事务卷提供了各自的日志。

      另外, 计划从未来的 Solaris 版本的 Solaris OS 中删除 Solaris Volume Manager 事务卷记录(以前称为 Solstice DiskSuite trans 元设备记录)。Solaris UFS 记录提供的功能与以前相同,但性能更加优异,并且系统管理要求和系统开销更低。


      表 2–10 UFS 群集文件系统的装载选项

      装载选项 

      说明 

      global

      必需。此选项使文件系统对于群集中的各节点均为全局可视。

      logging

      必需。此选项用于启用日志。

      forcedirectio

      对于保存 Oracle Real Application Clusters RDBMS 数据文件、日志文件和控制文件的群集文件系统,此选项为必需


      注意 –

      仅在基于 SPARC 的群集中支持使用 Oracle Real Application Clusters。


      onerror=panic

      必需。无需在 /etc/vfstab 文件中明确指定 onerror=panic 安装选项。如果未指定其他 onerror 装载选项,将使用此安装选项的缺省值。


      注意 –

      Sun Cluster 软件只支持 onerror=panic 装载选项。请不要使用 onerror=umountonerror=lock 装载选项。由于以下原因,群集文件系统不支持这些装载选项:

      • 使用 onerror=umountonerror=lock 安装选项可能导致群集文件系统被锁定或无法访问。如果群集文件系统的文件被损坏,可能出现此情况。

      • onerror=umountonerror=lock 安装选项可能会导致无法安装群集文件系统。这种状况可能由此导致使用此群集文件系统的应用程序挂起或无法终止应用程序。

      可能需要重新引导节点才能从这些状态中恢复。


      syncdir

      可选。如果指定 syncdir,则对于 write() 系统调用,可以保证符合 POSIX 的文件系统行为。如果 write() 成功,则此装载选项可以确保磁盘上拥有足够的空间。

      如果不指定 syncdir,所发生的行为与处理 UFS 文件系统时的行为相同。此时,可以显著改善分配磁盘块(如向文件附加数据时)的写入性能。但是,在某些情况下,如果未指定 syncdir,就只有在关闭文件后才会发现空间不足 (ENOSPC)。

      您会在故障转移后非常短的一段时间内看到 ENOSPC 为关闭状态。如果具有 syncdir 以及 POSIX 行为,空间不足的情况在文件关闭之前就可以发现。

      有关 UFS 安装选项的更多信息,请参见 mount_ufs(1M) 手册页。

      表 2–11 SPARC: Sun StorEdge QFS 共享文件系统的安装参数

      安装参数 

      说明 

      shared

      必需。此选项指定此为共享文件系统,因此对于群集中的所有节点均为全局可视。


      注意 – 注意 –

      请确保 /etc/vfstab 文件中的设置与 /etc/opt/SUNWsamfs/samfs.cmd 文件中的设置不冲突。/etc/vfstab 文件中的设置将覆盖 /etc/opt/SUNWsamfs/samfs.cmd 文件中的设置。


      某些数据服务(例如 Sun Cluster Support for Oracle Real Application Clusters)对 QFS 安装参数具有附加的要求和指南。有关任何附加要求,请参见数据服务手册。

      有关 QFS 安装参数的更多信息,请参见 mount_samfs(1M) 手册页。


      注意 –

      /etc/vfstab 安装参数无法启用日志。要启用日志,请按照Sun StorEdge QFS and Sun StorEdge SAM-FS Software Installation and Configuration Guide中的过程进行操作。


      表 2–12 SPARC: VxFS 群集文件系统的装载选项

      装载选项 

      说明 

      global

      必需。此选项使文件系统对于群集中的各节点均为全局可视。

      log

      必需。此选项用于启用日志。

      有关 VxFS 安装选项的更多信息,请参见 VxFS mount_vxfs 手册页和Sun Cluster 系统管理指南(适用于 Solaris OS)》中的“群集文件系统管理概述”

    2. 要自动安装群集文件系统,请将 mount at boot 字段设置为 yes

    3. 请确保对于每个群集文件系统,其 /etc/vfstab 条目中的信息在各个节点上是完全相同的。

    4. 请确保每个节点的 /etc/vfstab 文件中的条目都以相同顺序列出设备。

    5. 检查文件系统的引导顺序依赖性。

      例如,假定出现以下情况:phys-schost-1 将磁盘设备 d0 安装在 /global/oracle/ 上,而 phys-schost-2 将磁盘设备 d1 安装在 /global/oracle/logs/ 上。此时,仅当 phys-schost-1 引导和安装 /global/oracle/ 之后,phys-schost-2 才能引导和安装 /global/oracle/logs/

  6. 在群集中的任意节点上,运行 sccheck (1M) 实用程序。

    sccheck 实用程序检验装载点是否存在。该实用程序还将检验群集的所有节点上的 /etc/vfstab 文件条目是否正确。


    # sccheck
    

    如果不出现错误,则不返回任何内容。

  7. 装载群集文件系统。


    # mount /global/device-group/mountpoint/
    

    • 对于 UFS 和 QFS,从群集的任何节点中安装群集文件系统。

    • SPARC:对于 VxFS,从 device-group 的当前主设备中安装群集文件系统,以确保成功安装文件系统。此外,从 device-group 的当前主设备中卸载 VxFS 文件系统,以确保成功卸载文件系统。


      注意 –

      要在 Sun Cluster 环境下管理 xVxFS 群集文件系统,必须从装载 xVxFS 群集文件系统的主节点运行管理命令。


  8. 在群集的每个节点上检验是否已装载群集文件系统。

    可以使用 df(1M)mount(1M) 命令列出已安装的文件系统。

  9. 配置 IP 网络多路径处理 组。

    转到如何配置 Internet 协议 (IP) 网络多路径 组

示例 – 创建群集文件系统

以下示例在 Solstice DiskSuite 元设备 /dev/md/oracle/rdsk/d1 上创建 UFS 群集文件系统。


# newfs /dev/md/oracle/rdsk/d1
…
 
(on each node)
# mkdir -p /global/oracle/d1
# vi /etc/vfstab
#device           device        mount   FS      fsck    mount   mount
#to mount         to fsck       point   type   ; pass    at boot options
#                     
/dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs 2 yes global,logging
(save and exit)
 
(on one node)
# sccheck
# mount /global/oracle/d1
# mount
…
/global/oracle/d1 on /dev/md/oracle/dsk/d1 read/write/setuid/global/logging/largefiles
on Sun Oct 3 08:56:16 2000

如何配置 Internet 协议 (IP) 网络多路径 组

对群集的每个节点执行该任务。如果已使用 SunPlex Installer 安装 Sun Cluster HA for Apache 或 Sun Cluster HA for NFS,SunPlex Installer 会为数据服务使用的那些公共网络适配器配置 IP 网络多路径处理 组。必须为其余的公共网适配器配置 IP 网络多路径处理 组。


注意 –

所有公共网适配器必须属于 IP 网络多路径处理 组。


  1. 准备好完成的公共网络工作表

  2. 配置 IP 网络多路径处理 组。

    对 IPv4 地址执行《IP Network Multipathing Administration Guide》中的 “Deploying Network Multipathing” (Solaris 8) 或System Administration Guide: IP Services》中的 “Administering Network Multipathing (Task)” (Solaris 9) 中的过程。

    按照这些附加要求在 Sun Cluster 配置中配置 IP 网络多路径处理 组:

    • 每个公共网络适配器必须属于多路径组。

    • 如果多路径包括两个或多个适配器,则必须为组中的每个适配器配置测试 IP 地址。如果多路径组仅包括一个适配器,则无需配置测试 IP 地址。

    • 同一个多路径组中的所有适配器的测试 IP 地址必须属于一个 IP 子网。

    • 正常的应用程序不可以使用测试 IP 地址,因为它们属于高度不可用地址。

    • /etc/default/mpathd 文件中,TRACK_INTERFACES_ONLY_WITH_GROUPS 的值必须为 yes

    • 多路径组名称没有要求或限制。

  3. 如果要更改任何专用主机名,请转到如何更改专用主机名

  4. 如果安装 Sun Cluster 软件之前未安装自己的 /etc/inet/ntp.conf 文件,请安装或创建 NTP 配置文件。

    转到如何配置网络时间协议 (NTP)

  5. 如果在基于 SPARC 的系统上使用 Sun Cluster,并且要使用 Sun Management Center 来监视群集,请安装用于 Sun Management Center 的 Sun Cluster 模块。

    转到SPARC: 为 Sun Management Center 安装 Sun Cluster 模块

  6. 请安装第三方应用程序、注册资源类型、设置资源组并配置数据服务。

    按照Sun Cluster 数据服务规划和管理指南(适用于 Solaris OS)以及应用程序软件附带的文档中的过程进行操作。

如何更改专用主机名

如果不希望使用安装 Sun Cluster 软件期间指定的缺省专用主机名 clusternodenodeid-priv,请执行此任务。


注意 –

在配置并启动了应用程序和数据服务后,请不要执行该过程。否则,在重命名旧的专用主机名后,应用程序或数据服务可能仍使用旧的专用主机名,从而造成主机名冲突。如果有一些应用程序或数据服务正在运行,则停止它们,然后再执行该过程。


请在一个活动的群集节点上执行此过程。

  1. 成为群集中一个节点上的超级用户。

  2. 启动 scsetup(1M) 实用程序。


    # scsetup
    

  3. 从“主菜单”中选择菜单项“专用主机名”。

  4. 从“专用主机名菜单”中选择菜单项“更改专用主机名”。

  5. 按照提示更改专用主机名。

    对于每个要更改的专用主机名,请重复该过程。

  6. 检验新的专用主机名。


    # scconf -pv | grep "private hostname"
    (phys-schost-1) Node private hostname:      phys-schost-1-priv
    (phys-schost-3) Node private hostname:      phys-schost-3-priv
    (phys-schost-2) Node private hostname:      phys-schost-2-priv

  7. 如果安装 Sun Cluster 软件之前未安装自己的 /etc/inet/ntp.conf 文件,请安装或创建 NTP 配置文件。

    转到如何配置网络时间协议 (NTP)

  8. (可选的) SPARC:配置 Sun Management Center 以监视群集。

    转到SPARC: 为 Sun Management Center 安装 Sun Cluster 模块

  9. 请安装第三方应用程序、注册资源类型、设置资源组并配置数据服务。

    请参见应用程序软件附带的文档以及Sun Cluster 数据服务规划和管理指南(适用于 Solaris OS)

如何配置网络时间协议 (NTP)

安装 Sun Cluster 软件后,执行此任务以创建或修改 NTP 配置文件。在向现有群集中添加节点或更改群集中某个节点的专用主机名时,也必须修改 NTP 配置文件。如果将节点添加到单节点群集,请务必将所用 NTP 配置文件复制到原群集节点。

在群集内配置 NTP 或任何时间同步设备时,首要条件是必须将所有群集节点同步为同一时间。除了同步节点之间的时间之外,其次还要考虑单个节点上的时间准确性。如果满足该基本同步要求,则可以自由配置 NTP,最大限度地满足您个人的需要。

有关群集时间的详细信息,请参见Sun Cluster 概念指南(适用于 Solaris OS)。有关如何配置 NTP 以用于 Sun Cluster 配置的详细指南,请参阅 /etc/inet/ntp.cluster 模板文件。

  1. 如果安装 Sun Cluster 软件之前安装了自己的 /etc/inet/ntp.conf 文件,则无需修改自己的 ntp.conf 文件。

    此时请跳到步骤 8

  2. 成为群集节点的超级用户。

  3. 如果有自己的文件,请将该文件复制到每个群集节点。

  4. 如果没有自己的 /etc/inet/ntp.conf 文件可以安装,请使用 /etc/inet/ntp.conf.cluster 文件作为 NTP 配置文件,


    注意 –

    但不要将 ntp.conf.cluster 文件重命名为 ntp.conf


    如果该节点上没有 /etc/inet/ntp.conf.cluster 文件,则可能在以前安装 Sun Cluster 软件时创建了 /etc/inet/ntp.conf 文件。如果该节点上没有 /etc/inet/ntp.conf 文件,Sun Cluster 软件会将 /etc/inet/ntp.conf.cluster 文件创建为 NTP 配置文件。如果是这样,则进而对该 ntp.conf 文件执行以下编辑。

    1. 使用首选文本编辑器打开一个群集节点上的 /etc/inet/ntp.conf.cluster 文件,以便编辑。

    2. 确保每个群集节点的专用主机名都存在一个条目。

      如果更改了任何节点的专用主机名,请确保 NTP 配置文件中包含该节点的新专用主机名。

    3. 删除任何不使用的专用主机名。

      ntp.conf.cluster 文件可能包含不存在的专用主机名。重新引导节点时,如果该节点试图联系那些不存在的专用主机名,系统将生成错误消息。

    4. 如果需要,可进行一些其他修改来满足 NTP 要求。

  5. 将 NTP 配置文件复制到群集中的所有节点上。

    所有群集节点上的 NTP 配置文件的内容必须相同。

  6. 停止每个节点上的 NTP 守护程序。

    等待停止命令在每个节点上成功完成,然后转到步骤 7


    # /etc/init.d/xntpd stop
    

  7. 在每个节点上重新启动 NTP 守护程序。

    • 如果使用 ntp.conf.cluster 文件,请运行以下命令:


      # /etc/init.d/xntpd.cluster start
      

      xntpd.cluster 启动脚本首先查找 /etc/inet/ntp.conf 文件。如果找到该文件,此脚本立即退出,而不启动 NTP 守护程序。如果 ntp.conf 文件不存在,而 ntp.conf.cluster 文件存在,脚本将启动 NTP 守护程序。在这种情况下,该脚本会将 ntp.conf.cluster 文件用作 NTP 配置文件。

    • 如果使用 ntp.conf 文件,请运行以下命令:


      # /etc/init.d/xntpd start
      
  8. (可选的) SPARC:配置 Sun Management Center 以监视群集。

    转到SPARC: 为 Sun Management Center 安装 Sun Cluster 模块

  9. 请安装第三方应用程序、注册资源类型、设置资源组并配置数据服务。

    请参见应用程序软件附带的文档以及Sun Cluster 数据服务规划和管理指南(适用于 Solaris OS)