Sun Cluster 3.0 5/02 补编

配置群集

以下信息适用于本更新版和所有后续更新版。

如何添加群集文件系统 (5/02)

Sun Cluster 3.0 5/02 更新版中新增了对步骤 2步骤 4步骤 8所作的以下更改,它们适用于本更新版和 Sun Cluster 3.0 软件的所有后续更新版。

对您添加的每个群集文件系统执行该过程。


Caution - Caution -

创建文件系统时,会毁坏该磁盘上的所有数据。 请确保指定了正确的磁盘设备名称。 如果指定的设备名称不正确,则会擦除您可能并不打算删除的数据。


当使用 SunPlex Manager 安装数据服务时,如果要创建群集文件系统的共享磁盘上有足够的空间,则预先就已存在一个或多个群集文件系统。

  1. 请确保已安装和配置卷管理器软件。

    有关卷管理器安装过程的信息,请参阅《Sun Cluster 3.0 12/01 软件安装指南》中的"安装和配置 Solstice DiskSuite 软件"或"安装和配置 VxVM 软件"。

  2. 是否要安装 VERITAS File System (VxFS) 软件?

    • 如果否,则转到步骤 3

    • 如果是,则执行以下步骤。

    1. 请遵循 VxFS 安装文档中的过程在群集的每个节点上安装 VxFS 软件。

    2. 在各个节点上的 /etc/system 文件中,将以下条目的设置值从 0x4000 更改为 0x6000


      set rpcmod:svc_default_stksize=0x6000

      Sun Cluster 软件所需的缺省堆栈大小设置至少应为 0x6000。由于安装 VxFS 时会将此设置更改为 0x4000,因此,在完成 VxFS 的安装之后,必须手动将其更改回 0x6000

  3. 成为群集中任一节点上的超级用户。


    提示:

    为了加快文件系统的创建速度,可成为要为其创建文件系统的当前主要全局设备的超级用户。


  4. 创建文件系统。

    • 要创建 VxFS 文件系统,请遵循您的 VxFS 文档中提供的过程。

    • 要创建 UFS 文件系统,请使用 newfs(1M) 命令。


      # newfs raw-disk-device
      

    下表显示 raw-disk-device 变量的名称示例。请注意,卷管理器的命名惯例各不相同。

    表 4-3 原始磁盘设备名样例

    卷管理器 

    磁盘设备名称样例 

    说明 

    Solstice DiskSuite 

    /dev/md/oracle/rdsk/d1

    oracle 磁盘集中的原始磁盘设备 d1

    VERITAS Volume Manager 

    /dev/vx/rdsk/oradg/vol01

    oradg 磁盘组中的原始磁盘设备 vol01

    无 

    /dev/global/rdsk/d1s3

    原始磁盘设备 d1s3

  5. 在群集中的每个节点中,为群集文件系统创建一个安装点目录。

    每个节点上都需要一个安装点;即使不在该节点上访问群集文件系统,也是如此。


    提示:

    为便于管理,请在 /global/device-group 目录中创建安装点。该位置允许您很容易地区别群集文件系统,这些文件系统从本地文件系统中全局可用。



    # mkdir -p /global/device-group/mountpoint
    
    device-group

    目录名,此名称与该设备所在的设备组的名称相对应

    mountpoint

    目录名,群集文件系统将装在该目录中

  6. 在群集中的每个节点上,为安装点的 /etc/vfstab 文件添加一个条目。

    1. 使用下列必需的安装选项。

      对于所有群集文件系统,记录是必需的。

      • Solaris UFS logging - 使用 global,logging 安装选项。 有关 UFS 安装选项的详细信息,请参阅 mount_ufs(1M) 手册页。


        注意:

        对于 UFS 群集文件系统,不需要 syncdir 安装选项。如果指定 syncdir,则可以确保 write() 系统调用可以获得符合 POSIX 的文件系统行为,也就是说,如果 write() 成功,则可确保磁盘上具有可用空间。如果未指定 syncdir,则会获得与使用 UFS 文件系统相同的行为。如果未指定 syncdir,则可以显著改善分配磁盘块(如向文件附加数据时)的写入性能。但是,在某些情况下,如果未指定 syncdir,就只有在关闭文件后才会发现空间不足 (ENOSPC)。只有在发生故障转移后很短的时间内,才能看到关闭时的 ENOSPC 情形。如果具有 syncdir(和 POSIX 行为),空间不足的情况在文件关闭前就可以发现。


      • Solstice DiskSuite trans 元设备 - 使用 global 安装选项(而不使用 logging 安装选项)。 有关设置 trans 元设备的信息,请参阅 Solstice DiskSuite 文档。

      • VxFS logging - 使用 global, log 安装选项。 有关 VxFS 安装选项的详细信息,请参阅 mount_vxfs(1M) 手册页。

    2. 要自动安装群集文件系统,请将 mount at boot 字段设置为 yes

    3. 请确保对于每个群集文件系统,其 /etc/vfstab 条目中的信息在每个节点上是完全相同的。

    4. 请确保每个节点的 /etc/vfstab 文件中的条目都以相同顺序列出设备。

    5. 检查文件系统的引导顺序相关性。

      例如,假定出现以下情况:phys-schost-1 将磁盘设备 d0 安装于 /global/oracle 上,而 phys-schost-2 将磁盘设备 d1 安装在 /global/oracle/logs 上。此时,只有在 phys-schost-1 引导并安装了 /global/oracle 之后,phys-schost-2 才能引导并安装 /global/oracle/logs

    有关详细信息,请参阅 vfstab(4) 手册页。

  7. 在群集的每个节点上,检验是否存在安装点以及群集的所有节点上的 /etc/vfstab 文件条目是否正确。


    # sccheck
    

    如果不出现错误,则不返回任何内容。

  8. 从群集中的任一节点,安装群集文件系统。


    # mount /global/device-group/mountpoint
    


    注意:

    对于 VERITAS File System (VxFS),请从 device-group 的当前主设备上安装文件系统,以确保成功安装文件系统。此外,需要从 device-group 的当前主设备上卸载 VxFS 文件系统,以确保成功卸载文件系统。


  9. 在群集的每个节点上检验是否已安装群集文件系统。

    可以使用 df(1M) 或 mount(1M) 命令来列出安装的文件系统。

    要在 Sun Cluster 环境中管理 VxFS 群集文件系统,请只从安装 VxFS 群集文件系统的主节点上运行管理命令。

  10. 您的群集节点是否与多个公共子网相连?

    • 如果是,则转到《Sun Cluster 3.0 12/01 软件安装指南》中的"如何配置其他公共网络适配器",以配置其他公共网络适配器。

    • 否则转到《Sun Cluster 3.0 12/01 软件安装指南》中的"如何配置公共网络管理 (PNM)",以配置 PNM 和设置 NAFO 组。

示例 - 创建群集文件系统

以下示例在 Solstice DiskSuite 元设备 /dev/md/oracle/rdsk/d1 上创建 UFS 群集文件系统。


# newfs /dev/md/oracle/rdsk/d1
...
 
(on each node)
# mkdir -p /global/oracle/d1
# vi /etc/vfstab
#device           device        mount   FS      fsck    mount   mount
#to mount         to fsck       point   type    pass    at boot options
#                       
/dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs 2 yes global,logging
(save and exit)
 
(on one node)
# sccheck
# mount /global/oracle/d1
# mount
...
/global/oracle/d1 on /dev/md/oracle/dsk/d1 read/write/setuid/global/logging/
largefiles on Sun Oct 3 08:56:16 2000

如何更新网络时间协议 (NTP) (5/02)

Sun Cluster 3.0 5/02 更新版中新增了以下更改,它适用于本更新版和 Sun Cluster 3.0 软件的所有后续更新版。

安装 Sun Cluster 软件后,执行此任务以创建或修改 NTP 配置文件。在向现有群集中添加节点,以及更改群集中某个节点的专用主机名时,也必须修改 NTP 配置文件。


注意:

在群集内配置 NTP 或任何时间同步设备时,首要条件是必须将所有群集节点同步为同一时间。除了同步节点之间的时间之外,其次还要考虑单个节点上的时间准确性。只要满足该基本同步要求,您可以按最大程度满足您个人需要的方式来自由配置 NTP。 有关群集时间的详细信息,请参阅《Sun Cluster 3.0 12/01 概念》。有关如何配置 NTP 以用于 Sun Cluster 配置的详细指南,请参阅 /etc/inet/ntp.cluster 模板文件。


  1. 在安装 Sun Cluster 软件之前,是否已安装了您自己的 /etc/inet/ntp.conf 文件?

    • 如果是,则不需要修改 ntp.conf 文件。此时请跳到步骤 8

    • 如果否,则转到步骤 2

  2. 成为群集节点的超级用户。

  3. 是否要在群集节点上安装您自己的 /etc/inet/ntp.conf 文件?

    • 如果是,请将您的 /etc/inet/ntp.conf 文件复制到群集中的每个节点上,然后跳到步骤 6


      注意:

      所有群集节点必须同步为同一时间。


    • 如果否,则转到步骤 4以编辑 /etc/inet/ntp.conf.cluster 文件。如果在安装 Sun Cluster 时未找到 /etc/inet/ntp.conf 文件,Sun Cluster 软件将创建前一个文件来作为 NTP 配置文件。请不要将 ntp.conf.cluster 文件重命名为 ntp.conf

  4. 在群集的一个节点上,编辑 /etc/inet/ntp.conf.cluster 文件中的专用主机名。

    如果该节点上没有 /etc/inet/ntp.conf.cluster,则可能在以前安装 Sun Cluster 软件时创建了 /etc/inet/ntp.conf 文件。如果是这样,则对该 ntp.conf 文件进行以下编辑。

    1. 确保每个群集节点的专用主机名都存在一个条目。

    2. 删除任何不使用的专用主机名。

      如果 ntp.conf.cluster 文件中包含不存在的专用主机名,则重新引导某个节点后,当该节点试图联系那些不存在的专用主机名时,系统将会生成错误消息。

    3. 如果您更改了某个节点的专用主机名,请确保 NTP 配置文件中包含该节点的新专用主机名。

    4. 如果需要,可进行一些其他修改来满足 NTP 要求。

  5. 将 NTP 配置文件复制到群集中的所有节点上。

    所有群集节点上的 ntp.conf.cluster 文件必须完全相同。

  6. 停止每个节点上的 NTP 守护程序。

    等待停止命令在每个节点上成功完成,然后转到步骤 7


    # /etc/init.d/xntpd stop
    

  7. 在每个节点上重新启动 NTP 守护程序。

    • 对于 ntp.conf.cluster,请运行以下命令。


      # /etc/init.d/xntpd.cluster start
      

      xntpd.cluster 启动脚本首先查找 /etc/inet/ntp.conf 文件。如果找到该文件,此脚本立即退出,而不启动 NTP 守护程序。如果 ntp.conf 不存在,但 ntp.conf.cluster 存在,则此脚本将使用 ntp.conf.cluster 作为 NTP 配置文件来启动 NTP 守护程序。

    • 对于 ntp.conf,请运行以下命令。


      # /etc/init.d/xntpd start
      

  8. 是否要使用 Sun Management Center 来配置资源组或监视群集?

    • 如果是,则转到《Sun Cluster 3.0 12/01 软件安装指南》中的"为 Sun Management Center 安装 Sun Cluster 模块"。

    • 否则,请安装第三方应用程序,注册资源类型,设置资源组并配置数据服务。 请参阅随应用程序软件提供的文档和《Sun Cluster 3.0 12/01 Data Services Installation and Configuration Guide》。

如何启动 Sun Management Center (5/02)

Sun Cluster 3.0 5/02 更新版中新增了以下更改,它适用于本更新版和 Sun Cluster 3.0 软件的所有后续更新版。

完成步骤 2 后- 完成步骤 2 后,请执行以下步骤作为新的步骤 3。原先的步骤 3 变为新的步骤 4。

    每台 Sun Management Center 代理计算机(群集节点)上,确保 scsymon_srv 守护程序正在运行。


    # ps -ef | grep scsymon_srv
    

    如果任一群集节点上尚未运行 scsymon_srv 守护程序,请在该节点上启动此守护程序。


    # /usr/cluster/lib/scsymon/scsymon_srv