Sun Cluster 3.0 安装指南

配置群集

下表列出配置群集所执行的任务。

表 2-2 任务图:配置群集

任务 

要获取有关说明,请转到 ... 

执行后安装设置 

"如何执行后安装设置"

配置 Solstice DiskSuite 或 VERITAS 卷管理器 卷管理器和设备组。 

"如何配置卷管理器软件",和卷管理器文档

创建并安装群集文件系统。 

"如何添加群集文件系统"

(可选的) 配置附加公共网络适配器。

"如何配置附加公共网络适配器"

配置公共网络管理(PNM)并且设置 NAFO 组 

"如何配置“公共网络管理”(PNM)"

(可选的) 更改节点的专用主机名。

"如何更改专用主机名"

编辑 /etc/inet/ntp.conf 文件以更新节点名称项。

"如何更新网络时间协议(NTP)"

(可选的) 将 Sun Cluster 模块安装到 Sun Management Center 软件。

"用于 Sun Cluster 监视的 Sun Management Center 软件的安装要求" 和 Sun Management Center 文档

安装第三方应用程序并且应用程序、数据服务以及资源组。 

Sun Cluster 3.0 Data Services Installation and Configuration Guide,和第三方应用程序文档

如何执行后安装设置

在完全形成群集后只执行一次该过程。

  1. 验证所有节点已加入群集。

    1. 从一个节点中,显示群集节点的一个列表以检验所有节点已连接群集。

      不需要作为超级用户注册以运行该命令。


      % scstat -n
      

      输出类似于下面的内容:


      -- Cluster Nodes --
                         Node name      Status
                         ---------      ------
        Cluster node:    phys-schost-1  Online
        Cluster node:    phys-schost-2  Online
    2. 在每个节点中,显示系统检查以检验其与群集节点连通性的所有设备的列表。

      不需要作为超级用户注册以运行该命令。


      % scdidadm -L
      

      每个节点的列表应相同。输出类似于下面的内容:


      1       phys-schost-1:/dev/rdsk/c0t0d0 /dev/did/rdsk/d1
      2       phys-schost-1:/dev/rdsk/c1t1d0 /dev/did/rdsk/d2
      2       phys-schost-2:/dev/rdsk/c1t1d0 /dev/did/rdsk/d2
      3       phys-schost-1:/dev/rdsk/c1t2d0 /dev/did/rdsk/d3
      3       phys-schost-2:/dev/rdsk/c1t2d0 /dev/did/rdsk/d3
      ...
    3. scdidadm 输出中标识将配置为一个 quorum 设备的每个共享磁盘的全局设备 ID(DID)名称。

      例如,先前子步骤中的输出显示全局设备 d2phys-schost-1phys-schost-2共享。在步骤 4中需要该信息。有关规划 quorum 设备的详细信息,请参阅"Quorum 设备"

  2. 成为群集的一个节点的超级用户。

  3. 启动 scsetup(1M) 实用程序。


    # scsetup
    

    显示“初始群集设置”屏幕。


    注意:

    如果显示的是“主菜单”,则已成功执行该过程。


  4. 响应提示。

    1. 在提示 Do you want to add any quorum disks? 中,如果群集是一个两个节点的群集,则至少配置一个共享的 quorum 设备。

      两个节点的群集将保持在安装模式下,直到配置一个共享的 quorum 设备。在 scsetup 公用程序配置 quorum 设备后,显示消息 Command completed successfully。如果群集有三个或以上的节点,则配置 quorum 设备是可选的。

    2. 在提示 Is it okay to reset "installmode"? 下,回答 Yes

      scsetup 公用程序设置 quorum 配置并且表决群集的计数后,显示消息 Clusterinitializationiscomplete,并且公用程序将您返回主菜单。


    注意:

    如果 quorum 安装过程中断或未能成功完成,则重新运行 步骤 3步骤 4


  5. 从任何节点中,验证群集安装模式是禁用的。


    # scconf -p | grep 'Cluster install mode:'
    Cluster install mode:                                  disabled

从此处可转到何处

要配置卷管理器软件,请转到"如何配置卷管理器软件"

如何配置卷管理器软件

  1. 获取下列信息:

    • 存储磁盘驱动器的映射

    • Sun Cluster 3.0 发行说明获得下列完成的配置规划工作表

      • "本地文件系统布局工作表"

      • "磁盘设备组配置工作表"

      • "卷管理器配置工作表"

      • "元设备工作表(Solstice DiskSuite)"

      请参见第 1 章,规划 Sun Cluster 配置以获取规划指南。

  2. 按照卷管理器的适当配置过程操作。

    卷管理器 

    文档 

    Solstice DiskSuite 

    附录 A,配置 Solstice DiskSuite 软件

    Solstice DiskSuite 文档 

    VERITAS 卷管理器 

    附录 B,配置 VERITAS 卷管理器

    VERITAS 卷管理器 文档 

从此处可转到何处

在配置卷管理器后,要创建群集文件系统,请转到"如何添加群集文件系统"

如何添加群集文件系统

为添加的每个群集文件系统执行该任务。


小心:小心:

创建文件系统会破坏磁盘中的数据。确认指定了正确的磁盘设备名称。如果指定了错误的设备名称,则当创建新文件系统时删除其内容。


  1. 成为群集中任一节点的超级用户。


    提示:

    为了快速创建文件系统,可成为正在为其创建文件系统的当前主要全局设备的超级用户。


  2. 使用 newfs(1M)命令创建一个文件系统。


    # newfs raw-disk-device
    

    下表显示 raw-disk-device 变量的名称的示例。注意:每个卷管理器的命名惯例是不同的。

    表 2-3 样本原始磁盘设备名称

    卷管理器 

    样本磁盘设备名称 

    描述 

    Solstice DiskSuite 

    /dev/md/oracle/rdsk/d1

    oracle 磁盘集中的原始磁盘设备 d1

    VERITAS 卷管理器 

    /dev/vx/rdsk/oradg/vol01

    oradg 磁盘组中的原始磁盘设备 vol01

    无 

    /dev/global/rdsk/d1s3

    原始磁盘设备 d1s3

  3. 在群集中的每个节点中,为群集文件系统创建一个安装点目录。

    在每个节点中都必须要有一个安装点,即使将不在节点中访问群集文件系统。


    # mkdir -p /global/device-group/mount-point
    
    device-group

    对应于包含该设备的设备组的名称的目录的名称

    mount-point

    在其中安装群集文件系统的目录的名称


    提示:

    为了易于管理,在 /global/device-group 目录中创建安装点。该位置允许您很容易地区别群集文件系统,这些文件系统从本地文件系统中全局可用。


  4. 在群集中的每个节点上,在安装点的 /etc/vfstab 文件中添加一项。


    注意:

    syncdir 安装选项不是群集文件系统必需的。如果指定了 syncdir,就可以保证 POSIX-compliant 相容文件系统的行为。如果不指定,您会看到与 UFS 文件系统一样的行为。不指定 syncdir 可以显著改善分配磁盘块(如向文件中添加数据时)的写入的性能。但是,在某些情况下,如果不指定 syncdir,就只能在关闭一个文件后才发现空间不足。在不指定 syncdir 时出现问题的情形是很少见的。如果有 syncdir(和 POSIX 行为),空间不够的情况应该在关闭前就 已发现了。


    1. 要自动安装群集文件系统,请将在引导时安装字段设置为

    2. 使用下列必需的安装选项。

      • 如果正在使用 Solaris UFS logging,可使用全局,登录安装选项。

      • 如果群集文件系统使用一个 Solstice DiskSuite trans 元设备,则使用 globle 安装选项(不要使用 logging 安装选项)。有关设置 trans 元设备的信息,请参阅 Solstice DiskSuite 文档。


      注意:

      登录对于所有群集文件系统是必需的。


    3. 请确保对于每个群集文件系统,其 /etc/vfstab 项中的信息在每个节点中是完全相同的。

    4. 检查文件系统的引导顺序相关性。

      例如,考虑 phys-schost-q/global/oracle 中安装磁盘设备 d0,以及 phys-schost-2/global/oracle/logs中安装磁盘设备 d1 的情形。通过该配置,phys-schost-2 只能在 phys-schost-1 引导和安装/global/oracle 后引导和安装/global/oracle/logs

    5. 确认每个的 /etc/vfstab 文件中的项以相同的顺序列出设备。

    有关详细信息,请参阅 vfstab(4) 手册页。

  5. 在群集中的任一节点中,验证安装点存在并且 /etc/vfstab 文件项在群集的所有节点上都正确。


    # sccheck
    

    如果不出现错误,则不返回任何内容。

  6. 从群集中的任一节点中,安装群集文件系统。


    # mount /global/device-group/mount-point
    
  7. 在群集的每个节点中,验证已安装群集文件系统。

    可以使用 df(1M) 或 mount(1M)命令列出已安装的文件系统。

示例-创建一个群集文件系统

下面的示例在 Solstice DiskSuite 元设备 /dev/md/oracle/rdsk/d1 中创建 UFS 群集文件系统。


# newfs /dev/md/oracle/rdsk/d1
...
 
(on each node:)
# mkdir -p /global/oracle/d1
# vi /etc/vfstab
#device           device        mount   FS      fsck    mount   mount
#to mount         to fsck       point   type    pass    at boot options
#                       
/dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs 2 yes global,logging
(save and exit)
 
(on one node:)
# sccheck
# mount /global/oracle/d1
# mount
...
/global/oracle/d1 on /dev/md/oracle/dsk/d1 read/write/setuid/global/logging/
largefiles on Sun Oct 3 08:56:16 1999

从此处可转到何处

如果群集节点与多个公共子网连接,要配置附加公共网络适配器,请转到"如何配置附加公共网络适配器"

否则,要配置 PNM 并且设置 NAFO 组,请转到"如何配置“公共网络管理”(PNM)"

如何配置附加公共网络适配器

如果群集中的节点与多个公共子网连接,则可以为次级子网配置附加公共网络适配器。但是,配置次级子网不是必需的。


注意:

只配置公共网络适配器,而不是专用网适配器。


  1. Sun Cluster 3.0 发行说明获取可用的已完成的"公共网络工作表"。

  2. 成为正在配置用于附加公共网络适配器的节点的超级用户。

  3. 创建一个名为 /etc/hostname.adapter 的文件,其中 adapter 是适配器名称。


    注意:

    在每个 NAFO 组中,对于组中的一个适配器,应只存在一个 /etc/hostname.adapter 文件。


  4. 输入 /etc/hostname.adapter 文件中公共网络适配器 IP 地址的主机名。

    例如,下面显示为适配器 hme3 创建的文件 /etc/hostname.hme3,它包含主机名 phys-schost-1


    # vi /etc/hostname.hme3
    phys-schost-1 
  5. 在每个群集节点中,确保 /etc/inet/hosts 文件包含分配给公共网络适配器的 IP 地址和对应的主机名。

    例如,下面显示 phys-schost-1 的项。


    # vi /etc/inet/hosts
    ...
    192.29.75.101 phys-schost-1
    ...


    注意:

    如果使用命名服务,则该信息还应存在于命名服务数据库中。


  6. 在每个群集节点中,打开适配器。


    # ifconfig adapter plumb
    # ifconfig adapter hostname netmask + broadcast + -trailers up
    

  7. 验证正确配置了适配器。


    # ifconfig adapter
    

    输出应包含适配器的正确 IP 地址。

从此处可转到何处

要由“资源组管理器”(RGM)管理的每个公共网络适配器必须属于一个 NAFO 组。要配置 PNM 并且设置 NAFO 组,请转到"如何配置“公共网络管理”(PNM)"

如何配置“公共网络管理”(PNM)

对群集的每个节点执行该任务。


注意:

所有公共网络适配器必须属于一个“网络适配器失败”(NAFO)组。而且,对于每个子网,每个节点只能有一个 NAFO 组。


  1. Sun Cluster 3.0 发行说明获取可用的已完成的"公共网络工作表"。

  2. 成为正在配置用于 NAFO 组的节点的超级用户。

  3. 创建 NAFO 组。


    # pnmset -c nafo_group -o create adapter [adapter ...]
    -c nafo_group

    配置 NAFO 组nafo_group

    -o create adapter

    创建包含一个或多个公共网络适配器的新的 NAFO 组

    有关详细信息,请参阅 pnmset(1M) 手册页。

  4. 验证 NAFO 组的状态。


    # pnmstat -l
    

    有关详细信息,请参阅 pnmstat(1M) 手册页。

示例-配置 PNM

下面的示例创建 NAFO 组 nafo0,该组使用公共网络适配器 qfe1qfe5


# pnmset -c nafo0 -o create qfe1 qfe5
# pnmstat -l
group  adapters       status  fo_time    act_adp
nafo0  qfe1:qfe5      OK      NEVER      qfe5
nafo1  qfe6           OK      NEVER      qfe6

从此处可转到何处

如果要更改专用主机名,请转到"如何更改专用主机名"。否则,要更新 /etc/inet/ntp.conf 文件,请转到"如何更新网络时间协议(NTP)"

如何更改专用主机名

如果不希望使用在 Sun Cluster 软件安装期间分配的缺省专用主机名(clusternodenodeid-priv),则执行该任务。


注意:

该过程应在配置和启动了应用程序和数据服务之后执行。否则,某个应用程序或者数据服务可能在重新命名后继续使用旧的专用主机名,从而导致主机名冲突。如果有一些应用程序或数据服务正在运行,则停止它们,然后再执行该过程。


  1. 成为群集中节点的超级用户。

  2. 启动 scsetup(1M) 实用程序。


    # scsetup
    
  3. 要处理专用主机名,请输入 4 (专用主机名)。

  4. 要更改专用主机名,请输入 1 (更改专用主机名)。

    按照提示更改专用主机名。对要更改的每个专用主机名重复操作。

  5. 验证新的专用主机名。


    # scconf -pv | grep 'private hostname'
    (phys-schost-1) Node private hostname:      phys-schost-1-priv
    (phys-schost-3) Node private hostname:      phys-schost-3-priv
    (phys-schost-2) Node private hostname:      phys-schost-2-priv

从此处可转到何处

要更新 /etc/inet/ntp.conf 文件,请转到"如何更新网络时间协议(NTP)"

如何更新网络时间协议(NTP)

对每个节点执行该任务。

  1. 成为群集节点的超级用户。

  2. 编辑 /etc/inet/ntp.conf 文件。

    作为标准群集安装的一部分,scinstall(1M) 命令将一个模板文件 ntp.cluster 复制到 /etc/inet/ntp.conf。如果安装 Sun Cluster 软件之前存在一个 ntp.conf 文件,则该现有文件将保持不变。如果通过其它方式安装群集软件包(如直接使用 pkgadd(1M)),则需要配置 NTP。

    1. 删除不由群集使用的专用主机名的所有项。

      如果 ntp.conf 文件包含不存在的专用主机名,则重新引导节点时,在节点尝试联系这些专用主机名时将出现一些错误消息。

    2. 如果在 Sun Cluster 软件安装后更改了专用主机名,请通过新的专用主机名来更新每个文件项。

    3. 如果需要,可进行一些其它修改以满足 NTP 要求。

      群集内配置 NTP 时或任何时间同步工具的主要要求,是所有群集节点同步为相同的时间。考虑在节点之间同步时间的辅助单独节点的时间准确性。只要满足该基本同步要求,您可以按最大程度满足您个人需要的方式来自由配置 NTP。

      有关群集时间的详细信息,请参阅Sun Cluster 3.0 概念,有关为 Sun Cluster 配置配置 NTP 的指南,请参见 ntp.cluster 模板。

  3. 重新启动 NTP 守护程序。


    # /etc/init.d/xntpd stop
    # /etc/init.d/xntpd start
    

从此处可转到何处

如果要使用 Sun Management Center 产品配置资源组或监视群集,请转到"用于 Sun Cluster 监视的 Sun Management Center 软件的安装要求"

否则,要安装第三方应用程序,请参阅随应用程序软件提供的文档以及Sun Cluster 3.0 Data Services Installation and Configuration Guide。要注册资源类型、设置资源组以及配置数据服务,请参阅Sun Cluster 3.0 Data Services Installation and Configuration Guide