Sun Cluster 软件安装指南(适用于 Solaris OS)

配置群集

本节提供了配置群集上安装的软件的信息和过程。

任务表: 配置群集

下表列出配置群集所执行的任务。 开始执行这些任务之前,确保您已完成以下任务:

表 2–10 任务对应关系: 配置群集

任务 

说明 

创建并装载群集文件系统。 

如何添加群集文件系统

配置 IP Network Multipathing 组。 

如何配置 Internet Protocol (IP) Network Multipathing 组

(可选)更改节点的专用主机名。

如何更改专用主机名

创建或修改 NTP 配置文件。 

如何配置网络时间协议 (NTP)

(可选) SPARC: 将 Sun Cluster 模块安装到 Sun Management Center 软件。

SPARC: 为 Sun Management Center 安装 Sun Cluster 模块

Sun Management Center 文档 

安装第三方应用程序并且配置应用程序、数据服务以及资源组。 

Sun Cluster 数据服务规划和管理指南(适用于 Solaris OS)

第三方应用程序文档 

如何添加群集文件系统

对添加的每个群集文件系统执行该过程。 从群集的任一节点均可访问群集文件系统。


Caution – Caution –

创建文件系统时,会毁坏该磁盘上的所有数据。 请确保指定了正确的磁盘设备名称。 如果指定的设备名称不正确,则会删除您可能并不打算删除的数据。


如果使用了 SunPlex Manager 安装数据服务,则 SunPlex Manager 可能已创建一个或多个群集文件系统。

  1. 请确保已安装并配置了卷管理器软件。

    有关卷管理器的安装过程,请参阅安装和配置 Solstice DiskSuite/Solaris Volume Manager 软件 SPARC: 安装和配置 VxVM 软件

  2. 成为群集中任一节点上的超级用户。


    提示:

    要更快地创建文件系统,请成为为其创建文件系统的全局设备的当前主节点上的超级用户。


  3. 创建文件系统。

    • 要创建 UFS 文件系统,请使用 newfs(1M) 命令。


      # newfs raw-disk-device
      

    • SPARC: 要创建 xVxFS 文件系统,请按照 xVxFS 文档中提供的过程进行。

    下表显示了 raw-disk-device 变量名称的示例。 请注意,卷管理器的命名规则各不相同。

    卷管理器 

    磁盘设备名称样例 

    说明 

    Solstice DiskSuite 或 Solaris Volume Manager 

    /dev/md/nfs/rdsk/d1

    nfs 磁盘集中的原始磁盘设备 d1

    SPARC: VERITAS Volume Manager 

    /dev/vx/rdsk/oradg/vol01

    oradg 磁盘组中的原始磁盘设备 vol01

    无 

    /dev/global/rdsk/d1s3

    原始磁盘设备 d1s3

  4. 在群集中的每一节点上创建群集文件系统的安装点目录。

    每个节点均需要使用装载点,即使在该节点上无法访问群集文件系统。


    提示:

    为便于管理,请在 /global/device-group 目录中创建装载点。 该位置允许您很容易地区别群集文件系统,这些文件系统从本地文件系统中全局可用。



    # mkdir -p /global/device-group/mountpoint
    
    device-group

    目录名,此名称与该设备所在的设备组的名称相对应

    mountpoint

    目录名,群集文件系统将装在该目录中

  5. 在群集中的每个节点上为装载点向 /etc/vfstab 文件中添加一个项。

    有关详细信息,请参阅 vfstab(4) 手册页。

    1. 在每一项中指定使用的文件系统的类型所需的安装选项。 有关需要的装载选项的列表,请参阅表 2–11表 2–12


      注意:

      对于所有群集文件系统,记录是必需的。 但是,对于 Solstice DiskSuite trans 元设备或 Solaris Volume Manager 事务卷,则不要使用 logging 装载选项。 Trans 元设备和事务卷提供了各自的记录。

      另外, 以后的 Solaris 版本中的 Solaris 操作环境里将删除 Solaris Volume Manager transactional-volume logging(以前称为 Solstice DiskSuite trans-metadevice logging)。 Solaris UFS logging提供的功能与以前相同,但性能更加优异,并且系统管理要求和系统开销更低。


      表 2–11 UFS 群集文件系统的装载选项

      装载选项 

      说明 

      global

      必需。 此选项使文件系统对于群集中的各节点均为全局可视。

      logging

      必需。 此选项用于启用记录。

      forcedirectio

      对于保存 Oracle Parallel Server/Real Application Clusters RDBMS 数据文件、日志文件和控制文件的群集文件系统,此选项为必需


      注意:

      仅在基于 SPARC 的群集中支持使用 Oracle Parallel Server/Real Application Clusters。


      syncdir

      可选。 如果指定 syncdir,则对于 write() 系统调用,可以保证符合 POSIX 的文件系统行为。 如果 write() 成功,则此装载选项可以确保磁盘上拥有足够的空间。

      如果未指定 syncdir,会发生相同的行为(可使用 UFS 文件系统查看), 如果未指定 syncdir,则可以显著改善分配磁盘块(如向文件中附加数据时)的写入性能。 但是,在某些情况下,如果未指定 syncdir,就只有在关闭文件后才会发现空间不足 (ENOSPC)。

      您会在故障切换后非常短的一段时间内看到 ENOSPC 为关闭状态。 如果具有 syncdir 以及 POSIX 行为,空间不足的情况在文件关闭之前就可以发现。


      注意:

      请不要使用 onerror=umountonerror=lock 装载选项。 由于以下原因,群集文件系统不支持这些装载选项:

      • 使用 onerror=umountonerror=lock 装载选项可能导致群集文件系统锁定或无法访问群集文件系统。 如果群集文件系统的文件被损坏,可能出现此情况。

      • onerror=umountonerror=lock 装载选项可能导致无法装载群集文件系统。 这种状况可能由此导致使用此群集文件系统的应用程序挂起或无法终止应用程序。

      可能需要重新引导节点才能从这些状态中恢复。

      Sun Cluster 软件只支持 onerror=panic 装载选项。 无需在 /etc/vfstab 文件中指定 onerror=panic 装载选项。 如果未指定其它 onerror 装载选项,此装载选项已为缺省值。


      有关 UFS 装载选项的详细信息,请参阅 mount_ufs(1M) 手册页。

      表 2–12 SPARC: VxFS 群集文件系统的装载选项

      装载选项 

      说明 

      global

      必需。 此选项使文件系统对于群集中的各节点均为全局可视。

      log

      必需。 此选项用于启用记录。

      有关 VxFS 装载选项的详细信息,请参阅 VxFS mount_vxfs 手册页和Sun Cluster 系统管理指南(适用于 Solaris OS)》中的“管理群集文件系统概述”

    2. 要自动装载群集文件系统,请将 mount at boot 字段设置为 yes

    3. 请确保对于每个群集文件系统,其 /etc/vfstab 条目中的信息在每个节点上是完全相同的。

    4. 请确保每个节点的 /etc/vfstab 文件中的条目都以相同顺序列出设备。

    5. 检查文件系统的引导顺序相关性。

      例如,假定出现以下情况:phys-schost-1 将磁盘设备 d0 装载于 /global/oracle 上,而 phys-schost-2 将磁盘设备 d1 装载在 /global/oracle/logs 上。 此时,只有在 phys-schost-1 引导并装载了 /global/oracle 之后,phys-schost-2 才能引导并装载 /global/oracle/logs

  6. 在群集的所有节点上,运行 sccheck (1M) 公用程序。

    sccheck 公用程序检验装载点是否存在。 该公用程序还将检验群集的所有节点上的 /etc/vfstab 文件项是否正确。


     # sccheck
    

    如果不出现错误,则不返回任何内容。

  7. 装载群集文件系统。


    # mount /global/device-group/mountpoint
    

    • 对于 UFS,从群集的任何节点装载群集文件系统。

    • SPARC: 对于 VERITAS File System (VxFS),从 device-group 的当前主设备装载群集文件系统,以确保成功装载文件系统。 此外,需要从 device-group 的当前主设备上卸载 VxFS 文件系统,以确保成功卸载文件系统。


      注意:

      要在 Sun Cluster 环境下管理 xVxFS 群集文件系统,必须从装载 xVxFS 群集文件系统的主节点运行管理命令。


  8. 在群集的每个节点上检验是否已装载群集文件系统。

    可以使用 df(1M)mount(1M) 命令来列出已安装的文件系统。

  9. 配置 IP Network Multipathing 组。

    转到如何配置 Internet Protocol (IP) Network Multipathing 组

示例 – 创建群集文件系统

以下示例在 Solstice DiskSuite 元设备 /dev/md/oracle/rdsk/d1 上创建 UFS 群集文件系统。


# newfs /dev/md/oracle/rdsk/d1
…
 
(在每个节点上)
# mkdir -p /global/oracle/d1
# vi /etc/vfstab
#device           device        mount   FS      fsck    mount   mount
#to mount         to fsck       point   type   ; pass    at boot options
#                     
/dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs 2 yes global,logging
(保存并退出)
 
(在一个节点上)
# sccheck
# mount /global/oracle/d1
# mount
…
/global/oracle/d1 on /dev/md/oracle/dsk/d1 read/write/setuid/global/logging/largefiles
on Sun Oct 3 08:56:16 2000

如何配置 Internet Protocol (IP) Network Multipathing 组

对群集的每个节点执行该任务。 如果使用了 SunPlex Manager 安装 Sun Cluster HA for Apache 或 Sun Cluster HA for NFS,则 SunPlex Manager 为那些数据服务使用的公共网适配器配置了 IP Network Multipathing 组。 必须为其余的公共网适配器配置 IP Network Multipathing 组。


注意:

所有公共网适配器必须属于 IP Network Multipathing 组。


  1. 准备好完成的公共网络工作表

  2. 配置 IP Network Multipathing 组。

    为 IPv4 地址执行 IP Network Multipathing Administration Guide (Solaris 8) 中的 “Deploying Network Multipathing” 或 System Administration Guide: IP Services (Solaris 9) 中的 “Administering Network Multipathing (Task)” 中的过程。

    按照这些附加要求在 Sun Cluster 配置中配置 IP Network Multipathing 组:

    • 每个公共网络适配器必须属于多路径组。

    • 对于包含两个或多个适配器的多路径组,必须为组中的每个适配器配置测试 IP 地址。 如果多路径组只包含一个适配器,则无需配置测试 IP 地址。

    • 同一个多路径组中的所有适配器的测试 IP 地址必须属于一个 IP 子网。

    • 正常的应用程序不可以使用测试 IP 地址,因为它们属于高度不可用地址。

    • /etc/default/mpathd 文件中,请不要将 TRACK_INTERFACES_ONLY_WITH_GROUPS 的值从 yes 改为 no

    • 多路径组名称没有要求或限制。

  3. 您是否打算更改任何专用主机名?

  4. 在安装 Sun Cluster 软件之前,是否已安装了您自己的 /etc/inet/ntp.conf 文件?

  5. 您是否在基于 SPARC 的系统上使用 Sun Cluster,是否要使用 Sun Management Center 来监视群集?

如何更改专用主机名

如果不希望使用在 Sun Cluster 软件安装期间分配的缺省专用主机名 (clusternodenodeid-priv),则执行该任务。


注意:

在配置并启动了应用程序和数据服务后,请不要执行该过程。 否则,在重命名旧的专用主机名后,应用程序或数据服务可能仍使用旧的专用主机名,从而造成主机名冲突。 如果有一些应用程序或数据服务正在运行,则停止它们,然后再执行该过程。


  1. 成为群集中一个节点上的超级用户。

  2. 启动 scsetup(1M) 公用程序。


    # scsetup
    

  3. 从“Main Menu”中选择“Private hostnames”。

  4. 从“Private Hostname Menu”中选择“Change a private hostname”。

  5. 按照提示更改专用主机名。

    对于每个要更改的专用主机名,请重复该过程。

  6. 检验新的专用主机名。


    # scconf -pv | grep "private hostname"
    (phys-schost-1) Node private hostname:      phys-schost-1-priv
    (phys-schost-3) Node private hostname:      phys-schost-3-priv
    (phys-schost-2) Node private hostname:      phys-schost-2-priv

  7. 在安装 Sun Cluster 软件之前,是否已安装了您自己的 /etc/inet/ntp.conf 文件?

  8. 您是否在基于 SPARC 的系统上使用 Sun Cluster,是否要使用 Sun Management Center 来监视群集?

如何配置网络时间协议 (NTP)

安装 Sun Cluster 软件后,执行此任务以创建或修改 NTP 配置文件。 在向现有群集中添加节点或更改群集中某个节点的专用主机名时,也必须修改 NTP 配置文件。

在群集内配置 NTP 或任何时间同步设备时,首要条件是必须将所有群集节点同步为同一时间。 除了同步节点之间的时间之外,其次还要考虑单个节点上的时间准确性。 如果满足该基本同步要求,则可以自由配置 NTP,最大限度地满足您个人的需要。

有关群集时间的详细信息,请参阅Sun Cluster 概念指南(适用于 Solaris OS)。 有关如何配置 NTP 以用于 Sun Cluster 配置的详细指南,请参阅 /etc/inet/ntp.cluster 模板文件。

  1. 在安装 Sun Cluster 软件之前,是否已安装了您自己的 /etc/inet/ntp.conf 文件?

    • 如果是,则不需要修改 ntp.conf 文件。 此时请跳到步骤 8

    • 如果否,请继续执行步骤 2

  2. 成为群集节点的超级用户。

  3. 是否要在群集节点上安装您自己的 /etc/inet/ntp.conf 文件?

    • 如果否,请继续执行步骤 4

    • 如果是,请将您的 /etc/inet/ntp.conf 文件复制到群集中的每个节点上,然后跳到步骤 6

  4. 在群集的一个节点上,编辑 /etc/inet/ntp.conf.cluster 文件中的专用主机名。


    注意:

    请不要将 ntp.conf.cluster 文件重命名为 ntp.conf


    如果该节点上没有 /etc/inet/ntp.conf.cluster 文件,则可能在以前安装 Sun Cluster 软件时创建了 /etc/inet/ntp.conf 文件。 如果该节点上没有 /etc/inet/ntp.conf 文件,Sun Cluster 软件会将 /etc/inet/ntp.conf.cluster 文件创建为 NTP 配置文件。 如果是这样,则进而对该 ntp.conf 文件执行以下编辑。

    1. 确保每个群集节点的专用主机名都存在一个条目。

      如果更改了任何节点的专用主机名,请确保 NTP 配置文件中包含该节点的新专用主机名。

    2. 删除任何不使用的专用主机名。

      ntp.conf.cluster 文件可能包含不存在的专用主机名。 重新引导节点时,如果该节点试图联系那些不存在的专用主机名,系统将生成错误消息。

    3. 如果需要,可进行一些其它修改来满足 NTP 要求。

  5. 将 NTP 配置文件复制到群集中的所有节点上。

    所有群集节点上的 NTP 配置文件的内容必须相同。

  6. 停止每个节点上的 NTP 守护程序。

    等待停止命令在每个节点上成功完成,然后转到步骤 7


    # /etc/init.d/xntpd stop
    

  7. 在每个节点上重新启动 NTP 守护程序。

    • 如果使用 ntp.conf.cluster 文件,请运行以下命令:


      # /etc/init.d/xntpd.cluster start
      

      xntpd.cluster 启动脚本首先查找 /etc/inet/ntp.conf 文件。 如果找到该文件,此脚本立即退出,而不启动 NTP 守护程序。 如果 ntp.conf 文件不存在而 ntp.conf.cluster 文件存在,该脚本将启动 NTP 守护程序。 在这种情况下,该脚本会将 ntp.conf.cluster 文件用作 NTP 配置文件。

    • 如果使用 ntp.conf 文件,请运行以下命令:


      # /etc/init.d/xntpd start
      
  8. 您是否在基于 SPARC 的系统上使用 Sun Cluster 并要使用 Sun Management Center 来监视群集?