JavaScript is required to for searching.
跳过导航链接
退出打印视图
Oracle Solaris Cluster 软件安装指南     Oracle Solaris Cluster 4.1 (简体中文)
search filter icon
search icon

文档信息

前言

1.  规划 Oracle Solaris Cluster 配置

2.  在全局群集节点上安装软件

3.  建立全局群集

建立新的群集或群集节点概述

建立新的全局群集或新的全局群集节点

在所有节点上配置 Oracle Solaris Cluster 软件 (scinstall)

如何在所有节点上配置 Oracle Solaris Cluster 软件 (scinstall)

如何在所有节点上配置 Oracle Solaris Cluster 软件 (XML)

安装和配置 Oracle Solaris 和 Oracle Solaris Cluster 软件(自动化安装程序)

如何安装和配置 Oracle Solaris 和 Oracle Solaris Cluster 软件(自动化安装程序)

如何在添加全局群集节点之前做好群集准备工作

如何在添加节点或专用网络时更改专用网络配置

在其他全局群集节点上配置 Oracle Solaris Cluster 软件 (scinstall)

如何在附加全局群集节点上配置 Oracle Solaris Cluster 软件 (scinstall)

如何在其他全局群集节点上配置 Oracle Solaris Cluster 软件(XML 文件)

如何在向全局群集中添加节点后更新法定设备

如何配置法定设备

如何检验法定配置和安装模式

如何更改专用主机名

配置网络时间协议 (Network Time Protocol, NTP)

如何使用自己的 /etc/inet/ntp.conf 文件

如何在将节点添加到单节点群集后安装 NTP

如何在更改专用主机名后更新 NTP

如何验证群集

如何记录群集配置的诊断数据

4.  配置 Solaris Volume Manager 软件

5.  创建群集文件系统

6.  创建区域群集

7.  从群集中卸载软件

索引

建立新的全局群集或新的全局群集节点

本节介绍了如何建立新的全局群集或向现有群集中添加节点。全局群集节点可以是物理计算机、Oracle VM Server for SPARC I/O 域或 Oracle VM Server for SPARC 来宾域。一个群集可以包含上述任意节点类型的组合。开始执行这些任务之前,请确保您已按照安装软件所述安装了 Oracle Solaris OS、Oracle Solaris Cluster 框架及其他产品的软件包。

本节包含以下信息和过程:

在所有节点上配置 Oracle Solaris Cluster 软件 (scinstall)

scinstall 实用程序可在“典型”和“定制”这两种模式下运行。对于 Oracle Solaris Cluster 软件的“典型”安装,scinstall 将自动指定以下配置默认值。

专用网络地址

172.16.0.0

专用网络网络掩码

255.255.240.0

群集传输适配器

恰好两个适配器

群集传输交换机

switch1switch2

全局隔离

已启用

安装安全性 (DES)

已限制

填写以下群集配置工作单之一,完成“典型”模式或“定制”模式安装:

如何在所有节点上配置 Oracle Solaris Cluster 软件 (scinstall)

请从全局群集的一个节点中执行此过程,以便在群集的所有节点上配置 Oracle Solaris Cluster 软件。


注 - 此过程使用的是 scinstall 命令的交互形式。有关如何使用 scinstall 命令的非交互形式(例如在开发安装脚本时)的信息,请参见 scinstall(1M) 手册页。


按照以下准则在此过程中使用交互式的 scinstall 实用程序:

开始之前

执行以下任务:

  1. 如果要在新群集的专用互连中使用交换机,请确保邻居发现协议 (Neighbor Discovery Protocol, NDP) 处于禁用状态。

    请按照交换机文档中的过程来确定 NDP 是否处于启用状态,如果是,则禁用 NDP。

    在配置群集期间,软件将检查专用互连中是否不存在通信流量。如果在检查专用互连通信流量时,NDP 向专用适配器发送任何软件包,则该软件将认为此互连不是专用的,并且将中断群集配置。因此,在创建群集期间,必须禁用 NDP。

    建立群集后,如果要使用该功能,可以对专用互连交换机重新启用 NDP 。

  2. 在要配置到群集中的每个节点上承担 root 角色。

    或者,如果为您的用户帐户指定了 System Administrator(系统管理员)配置文件,则通过配置文件 shell 作为非 root 用户发出命令,或使用 pfexec 命令给该命令加上前缀。

  3. 确保在群集的所有节点上禁用了针对 RPC 的 TCP 包装。

    针对 RPC 的 Oracle Solaris TCP 包装功能阻止群集配置所必需的节点间通信。

    1. 在每个节点上,显示针对 RPC 的 TCP 包装的状态。

      如果 config/enable_tcpwrappers 设置为 true,则 TCP 包装处于启用状态,如以下示例命令输出中所示。

      # svccfg -s rpc/bind listprop config/enable_tcpwrappers
      config/enable_tcpwrappers  boolean true
    2. 如果针对 RPC 的 TCP 包装在某个节点上处于启用状态,请禁用 TCP 包装并刷新 RPC 绑定设备。
      # svccfg -s rpc/bind setprop config/enable_tcpwrappers = false
      # svcadm refresh rpc/bind
      # svcadm restart rpc/bindEntry 2
  4. 准备公共网络接口。
    1. 为每个公共网络接口创建静态 IP 地址。
      # ipadm create-ip interface
      # ipadm create-addr -T static -a local=address/prefix-length addrobj

      有关更多信息,请参见《在 Oracle Solaris 11.1 中使用固定网络配置连接系统》中的"如何配置 IP 接口"

    2. 可选为公共网络接口创建 IPMP 组。

      在初始群集配置期间,除非群集中存在非链路本地 IPv6 公共网络接口,否则不会根据匹配的子网自动创建 IPMP 组。这些组使用传递式探测器进行接口监视,因此无需任何测试地址。

      如果这些自动创建的 IPMP 组不能满足您的需求,或者由于您的配置包含一个或多个非链路本地 IPv6 公共网络接口而导致无法创建 IPMP 组时,请执行以下操作之一:

      • 在建立群集之前创建您需要的 IPMP 组。
      • 在建立群集之后,使用 ipadm 命令编辑 IPMP 组。

      有关更多信息,请参见《管理 Oracle Solaris 11.1 网络性能》中的"配置 IPMP 组"

  5. 从一个群集节点启动 scinstall 实用程序。
    phys-schost# scinstall
  6. 键入“创建新群集或添加群集节点”所对应的选项号并按回车键。
     *** Main Menu ***
    
        Please select from one of the following (*) options:
    
          * 1) Create a new cluster or add a cluster node
          * 2) Print release information for this cluster node
     
          * ?) Help with menu options
          * q) Quit
    
        Option:  1

    将显示“新建群集和群集节点”菜单。

  7. 键入“创建新群集”所对应的选项号并按回车键。

    将显示“典型模式或定制模式”菜单。

  8. 键入与“典型”或“定制”相对应的选项号并按回车键。

    将显示“创建新群集”屏幕。阅读相关要求,然后按 Ctrl-D 组合键继续。

  9. 按照菜单提示给出您的答案 ,所做回答应依据于您在配置规划工作单中填写的内容。

    scinstall 实用程序用于安装和配置所有群集节点并重新引导群集。将所有节点成功引导到群集中之后,即建立了群集。安装 Oracle Solaris Cluster 时的输出信息记录在 /var/cluster/logs/install/scinstall.log.N 文件中。

  10. 在每个节点上验证服务管理工具 (Service Management Facility, SMF) 的多用户服务是否处于联机状态。

    如果某个节点上的服务尚未处于联机状态,请等待直到状态变为联机后,再继续执行下一步。

    phys-schost# svcs multi-user-server node
    STATE          STIME    FMRI
    online         17:52:55 svc:/milestone/multi-user-server:default
  11. 从一个节点上,验证是否所有节点都已加入群集。
    phys-schost# clnode status

    输出类似于以下内容。

    === Cluster Nodes ===
    
    --- Node Status ---
    
    Node Name                                       Status
    ---------                                       ------
    phys-schost-1                                   Online
    phys-schost-2                                   Online
    phys-schost-3                                   Online

    有关更多信息,请参见 clnode(1CL) 手册页。

  12. 使群集脱离 installmode
    phys-schost# clquorum reset
  13. 可选启用自动节点重新引导功能。

    当所有受监视的共享磁盘路径都发生故障时,如果至少有一个磁盘可从群集中的另一节点访问,则此功能会自动重新引导节点。


    注 - 在初始配置时,默认对搜索到的所有设备启用磁盘路径监视。


    1. 启用自动重新引导。
      phys-schost# clnode set -p reboot_on_path_failure=enabled
      -p

      指定要设置的属性

      reboot_on_path_failure=enable

      如果所有监视的共享磁盘路径发生故障,则启用自动节点重新引导。

    2. 检验是否启用了磁盘路径发生故障时的自动重新引导功能。
      phys-schost# clnode show
      === Cluster Nodes ===                          
      
      Node Name:                                      node
      …
        reboot_on_path_failure:                          enabled
      …
  14. 如果您计划为 RPC 启用 TCP 包装,请在每个群集节点上将所有 clprivnet0 IP 地址添加到 /etc/hosts.allow 文件。

    如果未向 /etc/hosts.allow 文件执行此添加,TCP 包装将阻止群集管理实用程序通过 RPC 进行节点间通信。

    1. 在每个节点上,显示节点上的所有 clprivnet0 设备的 IP 地址。
      # /usr/sbin/ipadm show-addr
      ADDROBJ           TYPE     STATE        ADDR
      clprivnet0/N      static   ok           ip-address/netmask-length
    2. 在每个群集节点上,将群集中所有 clprivnet0 设备的 IP 地址添加到 /etc/hosts.allow 文件中。
  15. 如果您打算在高可用性本地文件系统上使用 HA for NFS 数据服务 (HA for NFS),请从自动挂载程序映射中排除属于由 HA for NFS 导出的高可用性本地文件系统一部分的所有共享。

    有关修改自动挂载程序映射的更多信息,请参见《在 Oracle Solaris 11.1 中管理网络文件系统》中的"涉及映射的管理任务"

示例 3-1 在所有节点上配置 Oracle Solaris Cluster 软件

以下示例显示了当 scinstall 在双节点群集 schost 上完成配置任务时记录的 scinstall 进度消息。该群集是在“典型”模式下使用 scinstall 实用程序从 phys-schost-1 安装的。另一个群集节点为 phys-schost-2。适配器名称为 net2net3。法定设备的自动选择已启用。

    Log file - /var/cluster/logs/install/scinstall.log.24747

   Configuring global device using lofi on pred1: done
    Starting discovery of the cluster transport configuration.

    The following connections were discovered:

        phys-schost-1:net2  switch1  phys-schost-2:net2
        phys-schost-1:net3  switch2  phys-schost-2:net3

    Completed discovery of the cluster transport configuration.

    Started cluster check on "phys-schost-1".
    Started cluster check on "phys-schost-2".

    cluster check completed with no errors or warnings for "phys-schost-1".
    cluster check completed with no errors or warnings for "phys-schost-2".

    Configuring "phys-schost-2" … done
    Rebooting "phys-schost-2" … done

    Configuring "phys-schost-1" … done
    Rebooting "phys-schost-1" …

Log file - /var/cluster/logs/install/scinstall.log.24747

故障排除

不成功的配置-如果一个或多个节点无法加入群集,或者指定了错误的配置信息,请首先尝试重新执行此过程。如果不能解决问题,请在每个配置有误的节点上执行如何取消 Oracle Solaris Cluster 软件的配置以更正安装问题过程,以将该节点从群集配置中删除。无需卸载 Oracle Solaris Cluster 软件包。然后再次执行此过程。

接下来的步骤

如果要在群集中配置任何法定设备,请转至如何配置法定设备

否则,请转至如何检验法定配置和安装模式

如何在所有节点上配置 Oracle Solaris Cluster 软件 (XML)

要使用 XML 群集配置文件来配置新全局群集,请执行以下过程。新群集可以是某个运行 Oracle Solaris Cluster 4.1 软件的现有群集的副本。

此过程将对群集中的以下组成部分进行配置:

开始之前

执行以下任务:

  1. 确保每个潜在群集节点上尚未配置 Oracle Solaris Cluster 4.1 软件。
    1. 在要配置到新群集中的潜在节点上承担 root 角色。
    2. 确定潜在节点上是否已配置了 Oracle Solaris Cluster 软件。
      phys-schost# /usr/sbin/clinfo -n
      • 如果该命令返回以下消息,请继续执行步骤 c。
        clinfo: node is not configured as part of acluster: Operation not applicable

        此消息表明潜在节点上尚未配置 Oracle Solaris Cluster 软件。

      • 如果命令返回节点 ID 编号,请不要执行此过程。

        返回某个节点 ID 表明该节点上已配置了 Oracle Solaris Cluster 软件。

        如果群集中运行着旧版本的 Oracle Solaris Cluster 软件,而您希望安装 Oracle Solaris Cluster 4.1 软件,请改为执行《Oracle Solaris Cluster Upgrade Guide》中所述的升级过程。

    3. 在要配置到新群集中的其余每个潜在节点上,重复执行步骤 a 和步骤 b。

      如果所有的潜在群集节点上都尚未配置 Oracle Solaris Cluster 软件,请继续执行步骤 2。

  2. 确保在群集的所有节点上禁用了针对 RPC 的 TCP 包装。

    针对 RPC 的 Oracle Solaris TCP 包装功能阻止群集配置所必需的节点间通信。

    1. 在每个节点上,显示针对 RPC 的 TCP 包装的状态。

      如果 config/enable_tcpwrappers 设置为 true,则 TCP 包装处于启用状态,如以下示例命令输出中所示。

      # svccfg -s rpc/bind listprop config/enable_tcpwrappers
      config/enable_tcpwrappers  boolean true
    2. 如果针对 RPC 的 TCP 包装在某个节点上处于启用状态,请禁用 TCP 包装并刷新 RPC 绑定设备。
      # svccfg -s rpc/bind setprop config/enable_tcpwrappers = false
      # svcadm refresh rpc/bind
      # svcadm restart rpc/bindEntry 2
  3. 如果要在新群集的专用互连中使用交换机,请确保邻居发现协议 (Neighbor Discovery Protocol, NDP) 处于禁用状态。

    请按照交换机文档中的过程来确定 NDP 是否处于启用状态,如果是,则禁用 NDP。

    在配置群集期间,软件将检查专用互连中是否不存在通信流量。如果在检查专用互连通信流量时,NDP 向专用适配器发送任何软件包,则该软件将认为此互连不是专用的,并且将中断群集配置。因此,在创建群集期间,必须禁用 NDP。

    建立群集后,如果要使用该功能,可以对专用互连交换机重新启用 NDP 。

  4. 如果要复制某个运行 Oracle Solaris Cluster 4.1 软件的现有群集,请使用该群集中的某一节点创建一个群集配置 XML 文件。
    1. 在要复制的群集中的某个活动成员上,承担 root 角色。
    2. 将现有群集的配置信息导出到一个文件中。
      phys-schost# cluster export -o clconfigfile
      -o

      指定输出目标。

      clconfigfile

      群集配置 XML 文件的名称。所指定的文件名可以是一个现有文件,也可以是一个将使用上述命令创建的新文件。

      有关更多信息,请参见 cluster(1CL) 手册页。

    3. 将配置文件复制到将用来配置新群集的潜在节点上。

      您可以将该文件存储到要配置为群集节点的其他主机所能访问的任一目录下。

  5. 在要用来配置新群集的潜在节点上承担 root 角色。
  6. 根据需要修改或创建群集配置 XML 文件。

    提供或修改 XML 元素的值,以反映您要创建的群集配置。

    • 如果要复制现有群集,请打开借助于 cluster export 命令创建的文件。

    • 如果不打算复制现有群集,请创建一个新文件。

      请基于 clconfiguration(5CL) 手册页中显示的元素分层结构来编辑该文件。您可以将该文件存储到要配置为群集节点的其他主机所能访问的任一目录下。

    • 为了能建立群集,群集配置 XML 文件中的以下组成部分必须具有有效值:

      • 群集名称

      • 群集节点

      • 群集传输

    • 如果您正在修改从现有群集中导出的配置信息,则必须更改某些值(如节点名称)以反映新群集的情况,这些值会用于多个群集对象的定义中。

    有关群集配置 XML 文件在结构和内容方面的详细信息,请参见 clconfiguration(5CL) 手册页。

  7. 验证群集配置 XML 文件。
    phys-schost# /usr/share/src/xmllint --valid --noout clconfigfile

    有关更多信息,请参见 xmllint(1) 手册页。

  8. 从包含群集配置 XML 文件的潜在节点上创建群集。
    phys-schost# cluster create -i clconfigfile
    -i clconfigfile

    指定要用作输入源的群集配置 XML 文件的名称。

  9. 在每个节点上验证服务管理工具 (Service Management Facility, SMF) 的多用户服务是否处于联机状态。

    如果某个节点上的服务尚未处于联机状态,请等待直到状态变为联机后,再继续执行下一步。

    phys-schost# svcs multi-user-server node
    STATE          STIME    FMRI
    online         17:52:55 svc:/milestone/multi-user-server:default
  10. 从一个节点上,验证是否所有节点都已加入群集。
    phys-schost# clnode status

    输出类似于以下内容。

    === Cluster Nodes ===
    
    --- Node Status ---
    
    Node Name                                       Status
    ---------                                       ------
    phys-schost-1                                   Online
    phys-schost-2                                   Online
    phys-schost-3                                   Online

    有关更多信息,请参见 clnode(1CL) 手册页。

  11. 对 Oracle Solaris Cluster 软件执行必要的更新。

    有关安装说明,请参见《Oracle Solaris Cluster 系统管理指南》中的第 11  章 "更新您的软件"

  12. 如果您计划为 RPC 启用 TCP 包装,请在每个群集节点上将所有 clprivnet0 IP 地址添加到 /etc/hosts.allow 文件。

    如果未向 /etc/hosts.allow 文件执行此添加,TCP 包装将阻止群集管理实用程序通过 RPC 进行节点间通信。

    1. 在每个节点上,显示节点上的所有 clprivnet0 设备的 IP 地址。
      # /usr/sbin/ipadm show-addr
      ADDROBJ           TYPE     STATE        ADDR
      clprivnet0/N      static   ok           ip-address/netmask-length
    2. 在每个群集节点上,将群集中所有 clprivnet0 设备的 IP 地址添加到 /etc/hosts.allow 文件中。
  13. 如果您打算在高可用性本地文件系统上使用 HA for NFS 数据服务 (HA for NFS),请从自动挂载程序映射中排除属于由 HA for NFS 导出的高可用性本地文件系统一部分的所有共享。

    有关修改自动挂载程序映射的更多信息,请参见《在 Oracle Solaris 11.1 中管理网络文件系统》中的"涉及映射的管理任务"

  14. 要从现有群集中复制法定信息,请使用群集配置 XML 文件配置法定设备。

    如果创建了双节点群集,则必须配置一个法定设备。如果您选择不使用群集配置 XML 文件来创建所需的法定设备,请转至如何配置法定设备

    1. 如果要将法定服务器用作法定设备,请确保法定服务器已经过设置并且正在运行。

      按照如何安装和配置 Oracle Solaris Cluster 法定服务器软件中的说明进行操作。

    2. 如果要将 NAS 设备用作法定设备,请确保 NAS 设备已经过设置并且正在运行。
      1. 请遵循将 NAS 设备用作法定设备方面的相关要求。

        请参见《Oracle Solaris Cluster With Network-Attached Storage Device Manual》

      2. 请按照设备文档中的说明来设置 NAS 设备。
    3. 确保群集配置 XML 文件中的法定配置信息反映的是所创建群集的有效值。
    4. 如果对群集配置 XML 文件进行过更改,请验证该文件。
      phys-schost# xmllint --valid --noout clconfigfile
    5. 配置法定设备。
      phys-schost# clquorum add -i clconfigfile device-name
      device-name

      指定要配置为法定设备的设备的名称。

  15. 使群集脱离安装模式。
    phys-schost# clquorum reset
  16. 停止未配置群集成员的计算机对群集配置的访问。
    phys-schost# claccess deny-all
  17. 可选启用当所有受监视的共享磁盘路径都发生故障时的节点自动重新引导功能。

    注 - 在初始配置时,默认对搜索到的所有设备启用磁盘路径监视。


    1. 启用自动重新引导。
      phys-schost# clnode set -p reboot_on_path_failure=enabled
      -p

      指定要设置的属性

      reboot_on_path_failure=enable

      如果所有监视的共享磁盘路径发生故障,则启用自动节点重新引导。

    2. 检验是否启用了磁盘路径发生故障时的自动重新引导功能。
      phys-schost# clnode show
      === Cluster Nodes ===                          
      
      Node Name:                                      node
      …
        reboot_on_path_failure:                          enabled
      …

示例 3-2 使用 XML 文件在所有节点上配置 Oracle Solaris Cluster 软件

以下示例将一个现有双节点群集的群集配置和法定配置复制到了一个新的双节点群集中。新群集安装有 Solaris 11.1 OS。群集配置将从现有群集节点 phys-oldhost-1 导出到群集配置 XML 文件 clusterconf.xml 中。新群集的节点名称为 phys-newhost-1phys-newhost-2。在新群集中被配置为法定设备的设备是 d3

此示例中的提示符名称 phys-newhost-N 表示应在这两个群集节点上执行相应的命令。

phys-newhost-N# /usr/sbin/clinfo -n
clinfo: node is not configured as part of a cluster: Operation not applicable
 
phys-oldhost-1# cluster export -o clusterconf.xml
Copy clusterconf.xml to phys-newhost-1 and modify the file with valid values
 
phys-newhost-1# xmllint --valid --noout clusterconf.xml
No errors are reported
 
phys-newhost-1# cluster create -i clusterconf.xml
phys-newhost-N# svcs multi-user-server
STATE          STIME    FMRI
online         17:52:55 svc:/milestone/multi-user-server:default
phys-newhost-1# clnode status
Output shows that both nodes are online
 
phys-newhost-1# clquorum add -i clusterconf.xml d3
phys-newhost-1# clquorum reset
配置其他组件

完全建立了群集之后,您可以从现有群集中复制其他群集组成部分的配置。如果尚未这样做,请修改要复制的 XML 元素的值,以反映要将该组件添加到其中的群集配置。例如,如果要复制资源组,请确保 <resourcegroupNodeList> 条目包含的是对新群集而言有效的节点名称,而不是所复制的群集中的节点名称,除非这些节点名称与新群集中的节点名称相同。

要复制群集组件,请对要复制的群集组件运行面向对象命令的 export 子命令。有关面向对象命令的语法和选项的更多信息,请参见要复制的群集对象所对应的手册页。

下面介绍了在建立群集之后可以通过群集配置 XML 文件创建的群集组件的列表。此列表包括了用来复制组件的命令的手册页:

故障排除

不成功的配置-如果一个或多个节点无法加入群集,或者指定了错误的配置信息,请首先尝试重新执行此过程。如果不能解决问题,请在每个配置有误的节点上执行如何取消 Oracle Solaris Cluster 软件的配置以更正安装问题过程,以将该节点从群集配置中删除。无需卸载 Oracle Solaris Cluster 软件包。然后再次执行此过程。

接下来的步骤

请转至如何检验法定配置和安装模式

安装和配置 Oracle Solaris 和 Oracle Solaris Cluster 软件(自动化安装程序)

在群集的 scinstall 自动化安装程序 (Automated Installer, AI) 安装过程中,选择以下列方式之一运行 Oracle Solaris 软件的安装:

有关 Oracle Solaris 软件交互式安装的更多信息,请参见《安装 Oracle Solaris 11.1 系统》中的"使用文本安装程序安装"

scinstall 实用程序可在“典型”和“定制”这两种模式下运行。对于 Oracle Solaris Cluster 软件的“典型”安装,scinstall 将自动指定以下配置默认值。

专用网络地址

172.16.0.0

专用网络网络掩码

255.255.240.0

群集传输适配器

恰好两个适配器

群集传输交换机

switch1switch2

全局隔离

已启用

安装安全性 (DES)

已限制

填写以下群集配置工作单之一,完成“典型”模式或“定制”模式安装:

如何安装和配置 Oracle Solaris 和 Oracle Solaris Cluster 软件(自动化安装程序)

此过程介绍了如何设置和使用 scinstall(1M) 定制自动化安装程序安装方法。此方法可一次性在所有全局群集节点上安装 Oracle Solaris OS 与 Oracle Solaris Cluster 框架和数据服务,并建立群集。这些节点可以是物理计算机或(仅限 SPARC)Oracle VM Server for SPARC I/O 域或来宾域,也可以是这些类型的节点的任意组合。


注 - 如果为物理群集计算机配置了 Oracle VM Server for SPARC,请将 Oracle Solaris Cluster 软件仅安装在 I/O 域或来宾域中。


按照以下准则在此过程中使用交互式的 scinstall 实用程序:

开始之前

执行以下任务:

  1. 设置您的自动化安装程序 (Automated Installer, AI) 安装服务器和 DHCP 服务器。

    确保 AI 安装服务器符合下列要求。

    • 安装服务器与群集节点位于同一子网中。

    • 安装服务器本身不是群集节点。

    • 安装服务器运行着 Oracle Solaris Cluster 软件支持的某个 Oracle Solaris OS 发行版。

    • 每个新的群集节点都配置为一个定制的 AI 安装客户机,该客户机使用您为 Oracle Solaris Cluster 安装设置的定制 AI 目录。

    按照与您的软件平台和 OS 版本相应的说明来设置 AI 安装服务器和 DHCP 服务器。请参见《安装 Oracle Solaris 11.1 系统》中的第 8  章 "设置安装服务器"《在 Oracle Solaris 11.1 中使用 DHCP》

  2. 在 AI 安装服务器上承担 root 角色。
  3. 在 AI 安装服务器上安装 Oracle Solaris Cluster AI 支持软件包。
    1. 确保 solarisha-cluster 发布者有效。
      installserver# pkg publisher
      PUBLISHER        TYPE     STATUS   URI
      solaris          origin   online   solaris-repository
      ha-cluster       origin   online   ha-cluster-repository
    2. 安装群集 AI 支持软件包。
      installserver# pkg install ha-cluster/system/install
  4. 在 AI 安装服务器上启动 scinstall 实用程序。
    installserver# /usr/cluster/bin/scinstall

    将显示 scinstall 的主菜单。

  5. 选择“从此自动化安装程序安装服务器中安装和配置群集”菜单项。
     *** Main Menu ***
     
        Please select from one of the following (*) options:
    
          * 1) Install and configure a cluster from this Automated Installer install server
          * 2) Print release information for this Automated Installer install server 
    
          * ?) Help with menu options
          * q) Quit
     
        Option:  1
  6. 按照菜单提示给出您的答案 ,所做回答应依据于您在配置规划工作单中填写的内容。
  7. 要执行任何其他安装后任务,请设置您自己的 AI 清单。

    请参见《安装 Oracle Solaris 11.1 系统》中的第 13  章 "在首次引导期间运行定制脚本"

  8. 从 AI 安装服务器退出。
  9. 如果使用的是群集管理控制台,请为群集中的每个节点显示一个控制台屏幕。
    • 如果您的管理控制台上安装并配置了 pconsole 软件,则可使用 pconsole 实用程序显示各个控制台屏幕。

      root 角色使用以下命令启动 pconsole 实用程序:

      adminconsole# pconsole host[:port] […]  &

      pconsole 实用程序还将打开一个主窗口,您可以从该主窗口将您输入的内容同时发送到每个控制台窗口。

    • 如果未使用 pconsole 实用程序,请分别连接到每个节点的控制台。
  10. 确保在群集的所有节点上禁用了针对 RPC 的 TCP 包装。

    针对 RPC 的 Oracle Solaris TCP 包装功能阻止群集配置所必需的节点间通信。

    1. 在每个节点上,显示针对 RPC 的 TCP 包装的状态。

      如果 config/enable_tcpwrappers 设置为 true,则 TCP 包装处于启用状态,如以下示例命令输出中所示。

      # svccfg -s rpc/bind listprop config/enable_tcpwrappers
      config/enable_tcpwrappers  boolean true
    2. 如果针对 RPC 的 TCP 包装在某个节点上处于启用状态,请禁用 TCP 包装并刷新 RPC 绑定设备。
      # svccfg -s rpc/bind setprop config/enable_tcpwrappers = false
      # svcadm refresh rpc/bind
      # svcadm restart rpc/bindEntry 2
  11. 关闭然后引导各个节点以启动 AI 安装。

    这将以默认配置安装 Oracle Solaris 软件。


    注 - 如果要定制 Oracle Solaris 安装,不能使用此方法。如果您选择 Oracle Solaris 交互式安装,则会绕过自动化安装程序并且不会安装和配置 Oracle Solaris Cluster 软件。要在安装过程中定制 Oracle Solaris,请按照如何安装 Oracle Solaris 软件中的说明进行操作,然后按照如何安装 Oracle Solaris Cluster 框架和数据服务软件包中的说明安装并配置群集。


    • SPARC:
      1. 关闭各个节点。
        phys-schost# shutdown -g0 -y -i0
      2. 使用以下命令引导节点
        ok boot net:dhcp - install

        注 - 命令中破折号 (-) 的两端需加空格。


    • x86:
      1. 重新引导该节点。
        # reboot -p
      2. 在 PXE 引导期间,按下 Ctrl-N 组合键。

        此时将显示 "GRUB" 菜单。

      3. 立即选择“自动安装”项并按回车键。

        注 - 如果在 20 秒内没有选择“自动安装”项,系统将使用默认的交互式文本安装程序方法继续进行安装,此方法不会安装和配置 Oracle Solaris Cluster 软件。


        在每个节点上,将创建一个新的引导环境 (Boot Environment, BE),并且自动化安装程序会安装 Oracle Solaris OS 和 Oracle Solaris Cluster 软件。当安装成功完成时,每个节点被完全安装为一个新的群集节点。安装 Oracle Solaris Cluster 时的输出信息记录在每个节点上的 /var/cluster/logs/install/scinstall.log. N 文件中。

  12. 在每个节点上验证服务管理工具 (Service Management Facility, SMF) 的多用户服务是否处于联机状态。

    如果某个节点上的服务尚未处于联机状态,请等待直到状态变为联机后,再继续执行下一步。

    phys-schost# svcs multi-user-server node
    STATE          STIME    FMRI
    online         17:52:55 svc:/milestone/multi-user-server:default
  13. 在每个节点上,激活已安装的 BE 并引导至群集模式。
    1. 激活已安装的 BE。
      # beadm activate BE-name
    2. 关闭该节点。
      # shutdown -y -g0 -i0

      注 - 不要使用 reboothalt 命令。这些命令不会激活新的 BE。


    3. 将节点引导到群集模式下。
  14. 如果您打算在高可用性本地文件系统上使用 HA for NFS 数据服务 (HA for NFS),请从自动挂载程序映射中排除属于由 HA for NFS 导出的高可用性本地文件系统一部分的所有共享。

    有关修改自动挂载程序映射的更多信息,请参见《在 Oracle Solaris 11.1 中管理网络文件系统》中的"涉及映射的管理任务"

  15. x86: 设置默认的引导文件。

    如果无法访问登录提示,该值的设置使您能够重新引导节点。

    grub edit> kernel /platform/i86pc/kernel/amd64/unix -B $ZFS-BOOTFS -k

    有关更多信息,请参见《在 x86 平台上引导和关闭 Oracle Solaris》中的"如何在启用内核调试器 (kmdb) 的情况下引导系统"

  16. 如果您执行了要求重新引导群集的任务,请重新引导群集。

    以下任务要求重新引导:

    • 安装要求重新引导节点或群集的软件更新

    • 对配置进行需要重新引导以便激活的更改

    1. 在一个节点上承担 root 角色。
    2. 关闭群集。
      phys-schost-1# cluster shutdown -y -g0 cluster-name

      注 - 只有等到群集关闭之后,才能重新引导群集中第一个安装的节点。禁用群集安装模式前,只有建立群集的第一个安装节点才有法定选票。在所建立的、仍处于安装模式的群集中,如果在重新引导第一个安装的节点前未关闭群集,则其余群集节点将无法获得法定投票。然后整个群集将关闭。

      这些群集节点会一直处在安装模式下,直到您首次运行 clsetup 命令为止。您将在执行如何配置法定设备过程期间运行此命令。


    3. 重新引导群集中的每个节点。

    将所有节点成功引导到群集中之后,即建立了群集。安装 Oracle Solaris Cluster 时的输出信息记录在 /var/cluster/logs/install/scinstall.log.N 文件中。

  17. 从一个节点上,验证是否所有节点都已加入群集。
    phys-schost# clnode status

    输出类似于以下内容。

    === Cluster Nodes ===
    
    --- Node Status ---
    
    Node Name                                       Status
    ---------                                       ------
    phys-schost-1                                   Online
    phys-schost-2                                   Online
    phys-schost-3                                   Online

    有关更多信息,请参见 clnode(1CL) 手册页。

  18. 如果您计划为 RPC 启用 TCP 包装,请在每个群集节点上将所有 clprivnet0 IP 地址添加到 /etc/hosts.allow 文件。

    如果未向 /etc/hosts.allow 文件执行此添加,TCP 包装将阻止群集管理实用程序通过 RPC 进行节点间通信。

    1. 在每个节点上,显示节点上的所有 clprivnet0 设备的 IP 地址。
      # /usr/sbin/ipadm show-addr
      ADDROBJ           TYPE     STATE        ADDR
      clprivnet0/N      static   ok           ip-address/netmask-length
    2. 在每个群集节点上,将群集中所有 clprivnet0 设备的 IP 地址添加到 /etc/hosts.allow 文件中。
  19. 可选在每个节点上,启用当所有受监视的共享磁盘路径都发生故障时的节点自动重新引导功能。

    注 - 在初始配置时,默认对搜索到的所有设备启用磁盘路径监视。


    1. 启用自动重新引导。
      phys-schost# clnode set -p reboot_on_path_failure=enabled
      -p
      指定要设置的属性
      reboot_on_path_failure=enable

      如果所有监视的共享磁盘路径发生故障,则启用自动节点重新引导。

    2. 检验是否启用了磁盘路径发生故障时的自动重新引导功能。
      phys-schost# clnode show
      === Cluster Nodes ===                          
      
      Node Name:                                      node
      …
        reboot_on_path_failure:                          enabled
      …

接下来的步骤

1. 执行下列过程中适用于您的群集配置的所有过程。

2. 配置法定设置(如果尚未配置)并执行安装后任务。

故障排除

已禁用 scinstall 选项-如果 scinstall 命令的 AI 选项前面没有星号,则说明该选项处于禁用状态。这种情况表明 AI 设置未完成或设置出错。要纠正这种情况,请首先退出 scinstall 实用程序。重新执行步骤 1步骤 7 以更正 AI 设置,然后重新启动 scinstall 实用程序。

如何在添加全局群集节点之前做好群集准备工作

要在添加新的群集节点之前做好群集准备工作,请在现有的全局群集节点上执行以下过程。

开始之前

执行以下任务:

  1. 将新节点的名称添加到群集的授权节点列表中。
    1. 在任一节点上承担 root 角色。
    2. 启动 clsetup 实用程序。
      phys-schost# clsetup

      这时将显示主菜单。

    3. 选择“新节点”菜单项。
    4. 选择“指定可以添加自己的计算机的名称”菜单项。
    5. 按照提示操作,将节点名称添加到验证过的机器列表中。

      如果任务已完成而没有出现错误,则 clsetup 实用程序将显示消息 "Command completed successfully"。

    6. 退出 clsetup 实用程序。
  2. 如果要向单节点群集中添加节点,请通过显示互连配置确保已存在两个群集互连。
    phys-schost# clinterconnect show

    添加节点之前,必须具有已配置的至少两条电缆或两个适配器。

    • 如果输出中显示了两根电缆或两个适配器的配置信息,请继续执行步骤 3
    • 如果输出中没有显示电缆或适配器的配置信息,或者只显示了一根电缆或一个适配器的配置信息,请配置新的群集互连。
      1. 在一个节点上启动 clsetup 实用程序。
        phys-schost# clsetup
      2. 选择“群集互连”菜单项。
      3. 选择“添加传输电缆”菜单项。

        按照说明指定要添加到群集中的节点的名称、传输适配器的名称以及是否使用传输交换机。

      4. 如有必要,请重复执行步骤 c 以便再配置一个群集互连。
      5. 完成后,退出 clsetup 实用程序。
      6. 验证群集现在是否已配置两个群集互连。
        phys-schost# clinterconnect show

        命令输出结果应该显示至少两个群集互连的配置信息。

  3. 确保专用网络配置可支持要添加的节点和专用网络。
    1. 显示当前专用网络配置支持的最大节点数、最大专用网络数和最大区域群集数。
      phys-schost# cluster show-netprops

      输出类似于以下内容:

      === Private Network ===                        
      
      private_netaddr:                                172.16.0.0
        private_netmask:                                255.255.240.0
        max_nodes:                                      64
        max_privatenets:                                10
        max_zoneclusters:                               12
    2. 确定当前的专用网络配置能否支持增加的节点数(包括非全局区域数)和专用网络数。

接下来的步骤

在新群集节点上配置 Oracle Solaris Cluster 软件。转至如何在附加全局群集节点上配置 Oracle Solaris Cluster 软件 (scinstall)如何在其他全局群集节点上配置 Oracle Solaris Cluster 软件(XML 文件)

如何在添加节点或专用网络时更改专用网络配置

执行此任务可更改全局群集的专用 IP 地址范围,以适应下列一个或多个群集组件数量的增加:

此过程也可以用来缩小专用 IP 地址范围。


注 - 该过程需要关闭整个群集。如果只需要更改网络掩码(例如,为了添加区域群集支持),请勿执行此过程。而应改而从在群集模式下运行的全局群集节点中运行以下命令,以指定预期的区域群集数量:

phys-schost# cluster set-netprops num_zoneclusters=N

该命令无需关闭群集。


  1. 在群集中的某个节点上承担 root 角色。
  2. 从一个节点启动 clsetup 实用程序。
    phys-schost# clsetup

    屏幕上将显示 clsetup 主菜单。

  3. 使每个资源组脱机。
    1. 选择“资源组”菜单项。

      将显示“资源组”菜单。

    2. 选择“使资源组处于联机/脱机状况或在两种状态间切换”菜单项。
    3. 按照提示使所有资源组脱机并将其置于不受管理状态。
    4. 所有资源组都脱机后,键入 q 返回到“资源组”菜单。
  4. 禁用群集中的所有资源。
    1. 选择“启用/禁用资源”菜单项。
    2. 选择要禁用的资源,然后按照提示进行操作。
    3. 对每个要禁用的资源重复执行上一步骤。
    4. 所有资源都禁用后,键入 q 返回到“资源组”菜单。
  5. 退出 clsetup 实用程序。
  6. 检验是否所有节点上的所有资源都处于 Offline 状态,以及是否所有资源组都处于 Unmanaged 状态。
    # cluster status -t resource,resourcegroup
    -t

    限定为仅输出指定的群集对象

    resource

    指定资源

    resourcegroup

    指定资源组

  7. 从一个节点,关闭群集。
    # cluster shutdown -g0 -y
    -g

    指定等待时间(以秒为单位)

    -y

    禁止发出用于询问您是否确认要关闭的提示

  8. 将各个节点都引导成非群集模式。
    • SPARC:
      ok boot -x
    • x86:
      1. 在 GRUB 菜单中,使用方向键选择适当的 Oracle Solaris 条目,然后键入 e 编辑其命令。

        有关基于 GRUB 的引导的更多信息,请参见《引导和关闭 Oracle Solaris 11.1 系统》中的"引导系统"

      2. 在引导参数屏幕中,使用方向键选择 kernel 条目,然后键入 e 以编辑该条目。
      3. 在命令中添加 -x 以指定将系统引导至非群集模式。
      4. 按 Enter 键接受更改,并返回到引导参数屏幕。

        屏幕将显示编辑后的命令。

      5. 键入 b 将节点引导至非群集模式。

        注 - 对内核引导参数命令所做的这一更改在系统引导后将失效。下次重新引导节点时,系统将引导至群集模式。如果希望引导至非群集模式,请执行上述步骤以再次将 -x 选项添加到内核引导参数命令中。


  9. 从一个节点启动 clsetup 实用程序。

    在非群集模式下运行时,clsetup 实用程序会为非群集模式操作显示主菜单。

  10. 选择“更改群集传输的网络寻址和范围”菜单项。

    clsetup 实用程序显示当前的专用网络配置,然后询问您是否要更改此配置。

  11. 要更改专用网络 IP 地址或 IP 地址范围,请键入 yes,然后按回车键。

    clsetup 实用程序将显示默认的专用网络 IP 地址 172.16.0.0,并询问您是否接受此默认值。

  12. 更改或接受此专用网络 IP 地址。
    • 要接受默认的专用网络 IP 地址并继续进行 IP 地址范围更改,请键入 yes,然后按回车键。
    • 要更改默认的专用网络 IP 地址,请执行以下步骤:
      1. 对于 clsetup 实用程序询问的是否接受默认地址的问题,键入 no 作为响应,然后按回车键。

        clsetup 实用程序将提示您输入新的专用网络 IP 地址。

      2. 键入新的 IP 地址,然后按回车键。

        clsetup 实用程序显示默认网络掩码,然后询问您是否接受该默认网络掩码。

  13. 更改或接受默认的专用网络 IP 地址。

    默认网络掩码为 255.255.240.0。此默认 IP 地址范围支持在群集中包含最多 64 个节点、12 个区域群集和 10 个专用网络。

    • 要接受该默认 IP 地址范围,请键入 yes,然后按回车键。
    • 要更改 IP 地址范围,请执行以下步骤:
      1. 对于 clsetup 实用程序询问的是否接受默认地址范围的问题,键入 no 作为响应,然后按回车键。

        当您拒绝默认网络掩码时,clsetup 实用程序将提示您输入要在群集中配置的节点、专用网络和区域群集的数量。

      2. 提供您期望在群集中配置的节点、专用网络和区域群集的数目。

        clsetup 实用程序将根据这些数字计算出两个网络掩码供选择:

        • 第一个网络掩码是支持指定节点、专用网络和区域群集数目的最小网络掩码。

        • 第二个网络掩码可支持两倍于指定值的节点、专用网络和区域群集数目,从而适应未来可能出现的增长情况。

      3. 指定上述任一网络掩码,或另外指定一个可支持预期节点、专用网络和区域群集数目的网络掩码。
  14. 对于 clsetup 实用程序询问的是否继续进行更新的问题,键入 yes 作为响应。
  15. 完成后,退出 clsetup 实用程序。
  16. 将每个节点重新引导回群集模式。
    1. 关闭各个节点。
      # shutdown -g0 -y
    2. 将每个节点都引导到群集模式下。
  17. 从一个节点启动 clsetup 实用程序。
    # clsetup

    屏幕上将显示 clsetup 主菜单。

  18. 重新启用所有禁用的资源。
    1. 选择“资源组”菜单项。

      将显示“资源组”菜单。

    2. 选择“启用/禁用资源”菜单项。
    3. 选择要启用的资源,然后按照提示操作。
    4. 对每个禁用的资源重复上述步骤。
    5. 所有资源都重新启用之后,键入 q 返回到“资源组”菜单。
  19. 使每个资源组重新联机。

    如果节点包含非全局区域,还应使这些区域内的所有资源组联机。

    1. 选择“使资源组处于联机/脱机状况或在两种状态间切换”菜单项。
    2. 按照提示将各个资源组置入被管理状态,然后使资源组联机。
  20. 在所有资源组都重新联机之后,退出 clsetup 实用程序。

    键入 q 退出每个子菜单,或者按 Ctrl-C。

接下来的步骤

要向现有的群集中添加节点,请转至以下过程之一:

在其他全局群集节点上配置 Oracle Solaris Cluster 软件 (scinstall)

scinstall 实用程序可在“典型”和“定制”这两种模式下运行。对于 Oracle Solaris Cluster 软件的“典型”安装,scinstall 会自动将群集传输交换机指定为 switch1switch2

完成以下配置规划工作单之一。有关规划准则,请参见规划 Oracle Solaris OS规划 Oracle Solaris Cluster 环境

如何在附加全局群集节点上配置 Oracle Solaris Cluster 软件 (scinstall)

执行此过程,向现有全局群集中添加新节点。要使用自动化安装程序添加新节点,请按照如何安装和配置 Oracle Solaris 和 Oracle Solaris Cluster 软件(自动化安装程序)中的说明执行操作。


注 - 此过程使用的是 scinstall 命令的交互形式。有关如何使用 scinstall 命令的非交互形式(例如在开发安装脚本时)的信息,请参见 scinstall(1M) 手册页。


按照以下准则在此过程中使用交互式的 scinstall 实用程序:

开始之前

执行以下任务:

  1. 在要配置的群集节点上承担 root 角色。
  2. 确保在群集的所有节点上禁用了针对 RPC 的 TCP 包装。

    针对 RPC 的 Oracle Solaris TCP 包装功能阻止群集配置所必需的节点间通信。

    1. 在每个节点上,显示针对 RPC 的 TCP 包装的状态。

      如果 config/enable_tcpwrappers 设置为 true,则 TCP 包装处于启用状态,如以下示例命令输出中所示。

      # svccfg -s rpc/bind listprop config/enable_tcpwrappers
      config/enable_tcpwrappers  boolean true
    2. 如果针对 RPC 的 TCP 包装在某个节点上处于启用状态,请禁用 TCP 包装并刷新 RPC 绑定设备。
      # svccfg -s rpc/bind setprop config/enable_tcpwrappers = false
      # svcadm refresh rpc/bind
      # svcadm restart rpc/bindEntry 2
  3. 准备公共网络接口。
    1. 为每个公共网络接口创建静态 IP 地址。
      # ipadm create-ip interface
      # ipadm create-addr -T static -a local=address/prefix-length addrobj

      有关更多信息,请参见《在 Oracle Solaris 11.1 中使用固定网络配置连接系统》中的"如何配置 IP 接口"

    2. 可选为公共网络接口创建 IPMP 组。

      在初始群集配置期间,除非群集中存在非链路本地 IPv6 公共网络接口,否则不会根据匹配的子网自动创建 IPMP 组。这些组使用传递式探测器进行接口监视,因此无需任何测试地址。

      如果这些自动创建的 IPMP 组不能满足您的需求,或者由于您的配置包含一个或多个非链路本地 IPv6 公共网络接口而导致无法创建 IPMP 组时,请执行以下操作之一:

      • 在建立群集之前创建您需要的 IPMP 组。
      • 在建立群集之后,使用 ipadm 命令编辑 IPMP 组。

      有关更多信息,请参见《管理 Oracle Solaris 11.1 网络性能》中的"配置 IPMP 组"

  4. 启动 scinstall 实用程序。
    phys-schost-new# /usr/cluster/bin/scinstall

    将显示 scinstall 的主菜单。

  5. 键入“创建新群集或添加群集节点”所对应的选项号并按回车键。
      *** Main Menu ***
    
        Please select from one of the following (*) options:
    
          * 1) Create a new cluster or add a cluster node
          * 2) Print release information for this cluster node
    
          * ?) Help with menu options
          * q) Quit
    
        Option:  1

    将显示“新建群集和群集节点”菜单。

  6. 键入“将此计算机添加为现有群集中的节点”所对应的选项号并按回车键。
  7. 按照菜单提示给出您的答案 ,所做回答应依据于您在配置规划工作单中填写的内容。

    scinstall 实用程序可配置节点并将该节点引导到群集中。

  8. 在所有其他节点上重复此过程以将其添加到群集中,直到完全配置了这些节点。
  9. 在每个节点上验证服务管理工具 (Service Management Facility, SMF) 的多用户服务是否处于联机状态。

    如果某个节点上的服务尚未处于联机状态,请等待直到状态变为联机后,再继续执行下一步。

    phys-schost# svcs multi-user-server node
    STATE          STIME    FMRI
    online         17:52:55 svc:/milestone/multi-user-server:default
  10. 在活动的群集成员中,禁止任何其他节点加入该群集。
    phys-schost# claccess deny-all

    或者,您也可以使用 clsetup 实用程序。有关过程,请参见《Oracle Solaris Cluster 系统管理指南》中的"如何向现有群集添加节点"

  11. 从一个节点上,验证是否所有节点都已加入群集。
    phys-schost# clnode status

    输出类似于以下内容。

    === Cluster Nodes ===
    
    --- Node Status ---
    
    Node Name                                       Status
    ---------                                       ------
    phys-schost-1                                   Online
    phys-schost-2                                   Online
    phys-schost-3                                   Online

    有关更多信息,请参见 clnode(1CL) 手册页。

  12. 如果群集中使用了 TCP 包装,请确保将所有已添加的节点的 clprivnet0 IP 地址添加到每个群集节点上的 /etc/hosts.allow 文件中。

    如果未向 /etc/hosts.allow 文件执行此添加,TCP 包装将阻止群集管理实用程序通过 RPC 进行节点间通信。

    1. 在每个节点上,显示所有 clprivnet0 设备的 IP 地址。
      # /usr/sbin/ipadm show-addr
      ADDROBJ           TYPE     STATE        ADDR
      clprivnet0/N      static   ok           ip-address/netmask-length
    2. 在每个节点上,编辑 /etc/hosts.allow 文件,使其包含群集中所有 clprivnet0 设备的 IP 地址。
  13. 验证是否安装了所有必需的软件更新。
    phys-schost# pkg list
  14. 可选启用当所有受监视的共享磁盘路径都发生故障时的节点自动重新引导功能。

    注 - 在初始配置时,默认对搜索到的所有设备启用磁盘路径监视。


    1. 启用自动重新引导。
      phys-schost# clnode set -p reboot_on_path_failure=enabled
      -p

      指定要设置的属性

      reboot_on_path_failure=enable

      如果所有监视的共享磁盘路径发生故障,则启用自动节点重新引导。

    2. 检验是否启用了磁盘路径发生故障时的自动重新引导功能。
      phys-schost# clnode show
      === Cluster Nodes ===                          
      
      Node Name:                                      node
      …
        reboot_on_path_failure:                          enabled
      …
  15. 如果您打算在高可用性本地文件系统上使用 HA for NFS 数据服务 (HA for NFS),请从自动挂载程序映射中排除属于由 HA for NFS 导出的高可用性本地文件系统一部分的所有共享。

    有关修改自动挂载程序映射的更多信息,请参见《在 Oracle Solaris 11.1 中管理网络文件系统》中的"涉及映射的管理任务"

示例 3-3 在新增的节点上配置 Oracle Solaris Cluster 软件

以下示例显示了如何将节点 phys-schost-3 添加到群集 schost 中。发起节点为 phys-schost-1

Adding node "phys-schost-3" to the cluster configuration ... done
Adding adapter "net2" to the cluster configuration ... done
Adding adapter "net3" to the cluster configuration ... done
Adding cable to the cluster configuration ... done
Adding cable to the cluster configuration ... done

Copying the config from "phys-schost-1" ... done

Copying the postconfig file from "phys-schost-1" if it exists ... done
Setting the node ID for "phys-schost-3" ... done (id=1)

Verifying the major number for the "did" driver from "phys-schost-1" ... done
Initializing NTP configuration ... done

Updating nsswitch.conf ... done

Adding cluster node entries to /etc/inet/hosts ... done


Configuring IP Multipathing groups in "/etc/hostname.<adapter>" files

Updating "/etc/hostname.hme0".

Verifying that power management is NOT configured ... done

Ensure that the EEPROM parameter "local-mac-address?" is set to "true" ... done

Ensure network routing is disabled ... done
Network routing has been disabled on this node by creating /etc/notrouter.
Having a cluster node act as a router is not supported by Oracle Solaris Cluster.
Please do not re-enable network routing.
Updating file ("ntp.conf.cluster") on node phys-schost-1 ... done
Updating file ("hosts") on node phys-schost-1 ... done

Log file - /var/cluster/logs/install/scinstall.log.6952

Rebooting ... 

故障排除

不成功的配置-如果一个或多个节点无法加入群集,或者指定了错误的配置信息,请首先尝试重新执行此过程。如果不能解决问题,请在每个配置有误的节点上执行如何取消 Oracle Solaris Cluster 软件的配置以更正安装问题过程,以将该节点从群集配置中删除。无需卸载 Oracle Solaris Cluster 软件包。然后再次执行此过程。

接下来的步骤

如果向使用法定设备的现有群集中添加了节点,请转至如何在向全局群集中添加节点后更新法定设备

否则,请转至如何检验法定配置和安装模式

如何在其他全局群集节点上配置 Oracle Solaris Cluster 软件(XML 文件)

请执行以下过程,以便使用 XML 群集配置文件来配置新的全局群集节点。新节点可以是某个运行 Oracle Solaris Cluster 4.1 软件的现有群集节点的副本。

此过程将对新节点上的下列群集组成部分进行配置:

开始之前

执行以下任务:

  1. 确保要添加到群集中的潜在节点上尚未配置 Oracle Solaris Cluster 软件。
    1. 在潜在节点上承担 root 角色。
    2. 确定潜在节点上是否配置了 Oracle Solaris Cluster 软件。
      phys-schost-new# /usr/sbin/clinfo -n
      • 如果该命令失败,请转至步骤 2

        节点上尚未配置 Oracle Solaris Cluster 软件。可以将潜在节点添加到群集中。

      • 如果该命令返回了某个节点 ID 号,则表明该节点上已配置了 Oracle Solaris Cluster 软件。

        必须先删除现有的群集配置信息,然后才能将节点添加到其他群集中。

    3. 引导潜在节点进入非群集模式。
      • SPARC:
        ok boot -x
      • x86:
        1. 在 GRUB 菜单中,使用方向键选择适当的 Oracle Solaris 条目,然后键入 e 编辑其命令。

          有关基于 GRUB 的引导的更多信息,请参见《引导和关闭 Oracle Solaris 11.1 系统》中的"引导系统"

        2. 在引导参数屏幕中,使用方向键选择 kernel 条目,然后键入 e 以编辑该条目。
        3. 在命令中添加 -x 以指定将系统引导至非群集模式。
        4. 按 Enter 键接受更改,并返回到引导参数屏幕。

          屏幕将显示编辑后的命令。

        5. 键入 b 将节点引导至非群集模式。

          注 - 对内核引导参数命令所做的这一更改在系统引导后将失效。下次重新引导节点时,系统将引导至群集模式。如果希望引导至非群集模式,请执行上述步骤以再次将 -x 选项添加到内核引导参数命令中。


    4. 在潜在节点上取消对 Oracle Solaris Cluster 软件的配置。
      phys-schost-new# /usr/cluster/bin/clnode remove
  2. 如果要复制某个运行 Oracle Solaris Cluster 4.1 软件的节点,请创建一个群集配置 XML 文件。
    1. 在要复制的群集节点上承担 root 角色。
    2. 将现有节点的配置信息导出到一个文件中。
      phys-schost# clnode export -o clconfigfile
      -o

      指定输出目标。

      clconfigfile

      群集配置 XML 文件的名称。所指定的文件名可以是一个现有文件,也可以是一个将使用上述命令创建的新文件。

      有关更多信息,请参见 clnode(1CL) 手册页。

    3. 将群集配置 XML 文件复制到要配置为新群集节点的潜在节点上。
  3. 在潜在节点上承担 root 角色。
  4. 确保在群集的所有节点上禁用了针对 RPC 的 TCP 包装。

    针对 RPC 的 Oracle Solaris TCP 包装功能阻止群集配置所必需的节点间通信。

    1. 在每个节点上,显示针对 RPC 的 TCP 包装的状态。

      如果 config/enable_tcpwrappers 设置为 true,则 TCP 包装处于启用状态,如以下示例命令输出中所示。

      # svccfg -s rpc/bind listprop config/enable_tcpwrappers
      config/enable_tcpwrappers  boolean true
    2. 如果针对 RPC 的 TCP 包装在某个节点上处于启用状态,请禁用 TCP 包装并刷新 RPC 绑定设备。
      # svccfg -s rpc/bind setprop config/enable_tcpwrappers = false
      # svcadm refresh rpc/bind
      # svcadm restart rpc/bindEntry 2
  5. 根据需要修改或创建群集配置 XML 文件。
    • 如果要复制现有的群集节点,请打开借助于 clnode export 命令创建的文件。

    • 如果不打算复制现有的群集节点,请创建一个新文件。

      请基于 clconfiguration(5CL) 手册页中显示的元素分层结构来编辑该文件。可将该文件存储到任意目录下。

    • 修改 XML 元素的值,以反映要创建的节点配置。

      有关群集配置 XML 文件在结构和内容方面的详细信息,请参见 clconfiguration(5CL) 手册页。

  6. 验证群集配置 XML 文件。
    phys-schost-new# xmllint --valid --noout clconfigfile
  7. 配置新群集节点。
    phys-schost-new# clnode add -n sponsor-node -i clconfigfile
    -n sponsor-node

    指定一个现有群集成员的名称,该成员将作为新节点的发起节点。

    -i clconfigfile

    指定要用作输入源的群集配置 XML 文件的名称。

  8. 如果群集中使用了 TCP 包装,请确保将所有已添加的节点的 clprivnet0 IP 地址添加到每个群集节点上的 /etc/hosts.allow 文件中。

    如果未向 /etc/hosts.allow 文件执行此添加,TCP 包装将阻止群集管理实用程序通过 RPC 进行节点间通信。

    1. 在每个节点上,显示所有 clprivnet0 设备的 IP 地址。
      # /usr/sbin/ipadm show-addr
      ADDROBJ           TYPE     STATE        ADDR
      clprivnet0/N      static   ok           ip-address/netmask-length
    2. 在每个节点上,编辑 /etc/hosts.allow 文件,使其包含群集中所有 clprivnet0 设备的 IP 地址。
  9. 可选启用当所有受监视的共享磁盘路径都发生故障时的节点自动重新引导功能。

    注 - 在初始配置时,默认对搜索到的所有设备启用磁盘路径监视。


    1. 启用自动重新引导。
      phys-schost# clnode set -p reboot_on_path_failure=enabled
      -p

      指定要设置的属性

      reboot_on_path_failure=enable

      如果所有监视的共享磁盘路径发生故障,则启用自动节点重新引导。

    2. 检验是否启用了磁盘路径发生故障时的自动重新引导功能。
      phys-schost# clnode show
      === Cluster Nodes ===                          
      
      Node Name:                                      node
      …
        reboot_on_path_failure:                          enabled
      …

故障排除

不成功的配置-如果一个或多个节点无法加入群集,或者指定了错误的配置信息,请首先尝试重新执行此过程。如果不能解决问题,请在每个配置有误的节点上执行如何取消 Oracle Solaris Cluster 软件的配置以更正安装问题过程,以将该节点从群集配置中删除。无需卸载 Oracle Solaris Cluster 软件包。然后再次执行此过程。

接下来的步骤

如果已经向某个使用法定设备的群集中添加了节点,请转至如何在向全局群集中添加节点后更新法定设备

否则,请转至如何检验法定配置和安装模式

如何在向全局群集中添加节点后更新法定设备

如果向全局群集中添加了节点,那么,无论您使用的是共享磁盘、NAS 设备、法定服务器还是它们的组合,您都必须更新法定设备的配置信息。为此,您应删除所有的法定设备并更新全局设备名称空间。您可以重新配置仍要使用的任何法定设备(可选操作)。此更新将向每个法定设备注册新节点,从而使法定设备能够根据群集中节点的新数量重新计算其选票计数。

任何新配置的 SCSI 法定设备都会被设置为 SCSI-3 预留空间。

开始之前

确保在添加的节点上已经完成了 Oracle Solaris Cluster 软件的安装。

  1. 在群集的任一节点上承担 root 角色。
  2. 确保所有群集节点均联机。
    phys-schost# cluster status -t node
  3. 查看当前的法定配置。

    命令输出中将列出每个法定设备和每个节点。以下输出示例中显示出了当前的 SCSI 法定设备 d3

    phys-schost# clquorum list
    d3
    …
  4. 记下列出的每个法定设备的名称。
  5. 删除原始法定设备。

    对已配置的每个法定设备执行此步骤。

    phys-schost# clquorum remove device-name
    device-name

    指定法定设备的名称。

  6. 检验是否删除了所有原始法定设备。

    如果法定设备删除成功,将不会列出任何法定设备。

    phys-schost# clquorum status
  7. 更新全局设备名称空间。
    phys-schost# cldevice populate

    注 - 必须执行此步骤以防止可能发生的节点紊乱。


  8. 尝试添加法定设备之前,请先在每个节点上检验 cldevice populate 命令是否已完成处理。

    即使仅从一个节点中发出 cldevice populate 命令,该命令也会以远程方式在所有节点上执行。要确定 cldevice populate 命令是否已完成处理,请在群集的每个节点上运行以下命令:

    phys-schost# ps -ef | grep scgdevs
  9. 可选添加法定设备。

    可以对原来配置为法定设备的同一台设备进行配置,也可以选择新的共享设备进行配置。

    1. 可选如果您希望选择新的共享设备以将其配置为法定设备,请显示系统检测到的所有设备并从输出中选择共享设备。
      phys-schost# cldevice list -v

      输出类似于以下内容:

      DID Device          Full Device Path
      ----------          ----------------
      d1                  phys-schost-1:/dev/rdsk/c0t0d0
      d2                  phys-schost-1:/dev/rdsk/c0t6d0
      d3                  phys-schost-2:/dev/rdsk/c1t1d0
      d3                  phys-schost-1:/dev/rdsk/c1t1d0 
      …
    2. 将共享设备配置为法定设备。
      phys-schost# clquorum add -t type device-name
      -t type

      指定法定设备的类型。如果未指定此选项,将使用默认类型 shared_disk

    3. 对需要配置的每个法定设备重复执行上述操作。
    4. 检验新的法定配置。
      phys-schost# clquorum list

      输出结果中应列出每个法定设备和每个节点。

示例 3-4 向双节点群集中添加节点后更新 SCSI 法定设备

下面的示例依次执行了以下操作:确定原始 SCSI 法定设备 d2;删除该法定设备;列出可用的共享设备;更新全局设备名称空间;将 d3 配置为新的 SCSI 法定设备;检验新设备。

phys-schost# clquorum list
d2
phys-schost-1
phys-schost-2

phys-schost# clquorum remove d2
phys-schost# clquorum status
…
--- Quorum Votes by Device ---

Device Name       Present      Possible      Status
-----------       -------      --------      ------

phys-schost# cldevice list -v
DID Device          Full Device Path
----------          ----------------
…
d3                  phys-schost-2:/dev/rdsk/c1t1d0
d3                  phys-schost-1:/dev/rdsk/c1t1d0
…
phys-schost# cldevice populate
phys-schost# ps -ef - grep scgdevs
phys-schost# clquorum add d3
phys-schost# clquorum list
d3
phys-schost-1
phys-schost-2

接下来的步骤

请转至如何检验法定配置和安装模式

如何配置法定设备


注 - 在以下几种情况下不需要配置法定设备:

如果在建立群集时选择了自动法定配置,则不要执行此步骤。应继续执行如何检验法定配置和安装模式中的过程。


仅在完全形成新群集后执行一次该过程。使用此过程以指定法定选票并使群集脱离安装模式。

开始之前

  1. 如果以下两种情况全部属实,请确保为公共网络地址设置了正确的前缀长度。
    • 准备使用法定服务器。

    • 公共网络使用长度可变的子网掩码,也称为无类域间路由 (Classless Inter Domain Routing, CIDR)。

    # ipadm show-addr
        ADDROBJ           TYPE     STATE        ADDR
        lo0/v4            static   ok           127.0.0.1/8
        ipmp0/v4          static   ok           10.134.94.58/24 

    注 - 如果您使用了法定服务器,但是公共网络使用了有类子网(如 RFC 791 中所定义),则无需执行本步骤。


  2. 在一个节点上承担 root 角色。

    或者,如果为您的用户帐户指定了 System Administrator(系统管理员)配置文件,则通过配置文件 shell 作为非 root 用户发出命令,或使用 pfexec 命令给该命令加上前缀。

  3. 确保所有群集节点均联机。
    phys-schost# cluster status -t node
  4. 要将共享磁盘用作法定设备,请检验设备与群集节点是否已连接并选择要配置的设备。
    1. 在群集的一个节点中,显示系统所检查的全部设备的列表。

      无需以 root 角色登录即可运行此命令。

      phys-schost-1# cldevice list -v

      输出类似于以下内容:

      DID Device          Full Device Path
      ----------          ----------------
      d1                  phys-schost-1:/dev/rdsk/c0t0d0
      d2                  phys-schost-1:/dev/rdsk/c0t6d0
      d3                  phys-schost-2:/dev/rdsk/c1t1d0
      d3                  phys-schost-1:/dev/rdsk/c1t1d0
      …
    2. 确保输出信息显示了群集节点与存储设备之间的所有连接。
    3. 确定要配置为法定设备的每个共享磁盘的全局设备 ID。

      注 - 所选的任何共享磁盘都必须能够用作法定设备。有关选择法定设备的更多信息,请参见法定设备


      使用步骤 a 中的 cldevice 输出信息来识别配置为法定设备的每个共享磁盘的设备 ID。例如,步骤 a 中的输出信息显示全局设备 d3 是由 phys-schost-1phys-schost-2 共享的。

  5. 要使用不支持 SCSI 协议的共享磁盘,请确保对该共享磁盘禁用隔离功能。
    1. 显示单个磁盘的隔离设置。
      phys-schost# cldevice show device
      
      === DID Device Instances ===
      DID Device Name:                                      /dev/did/rdsk/dN
      …
        default_fencing:                                     nofencing
      • 如果磁盘的隔离功能设置为 nofencingnofencing-noscrub,则说明对该磁盘禁用隔离功能。请转至步骤 6
      • 如果磁盘的隔离功能设置为 pathcountscsi,请对该磁盘禁用隔离功能。请跳至步骤 c
      • 如果磁盘的隔离功能设置为 global,请确定是否还全局禁用了隔离功能。前进到步骤 b

        或者,可以只对单个磁盘禁用隔离功能,这会覆盖该磁盘的 global_fencing 属性所设置的任何值。请跳至步骤 c 以对单个磁盘禁用隔离功能。

    2. 确定是否全局禁用了隔离功能。
      phys-schost# cluster show -t global
      
      === Cluster ===
      Cluster name:                                         cluster
      …
         global_fencing:                                      nofencing
      • 如果全局隔离功能设置为 nofencingnofencing-noscrub,则说明对其 default_fencing 属性设置为 global 的共享磁盘禁用隔离功能。请转至步骤 6
      • 如果全局隔离功能设置为 pathcountprefer3,请对共享磁盘禁用隔离功能。请继续执行步骤 c

      注 - 如果单个磁盘的 default_fencing 属性设置为 global,则仅在群集范围的 global_fencing 属性设置为 nofencingnofencing-noscrub 时对该单个磁盘禁用隔离功能。如果将 global_fencing 属性更改为可启用隔离功能的值,则其 default_fencing 属性设置为 global 的所有磁盘的隔离功能会变为启用状态。


    3. 对共享磁盘禁用隔离功能。
      phys-schost# cldevice set \
      -p default_fencing=nofencing-noscrub device
    4. 检验现在是否对该共享磁盘禁用了隔离功能。
      phys-schost# cldevice show device
  6. 启动 clsetup 实用程序。
    phys-schost# clsetup

    将显示“初始群集设置”屏幕。


    注 - 如果实际显示的是主菜单,则说明初始群集设置已成功执行。请跳至步骤 11


  7. 指示是否要添加任何法定磁盘。
    • 如果群集是双节点群集,必须配置至少一个共享法定设备。键入 Yes 可配置一个或多个法定设备。
    • 如果群集由三个以上的节点组成,则法定设备的配置可根据您自己的需要而定。
      • 如果不需要配置其他法定设备,请键入 No。然后,请跳至步骤 10
      • 键入 Yes 可配置其他法定设备。
  8. 指定要将哪类设备配置为法定设备。
    法定设备类型
    描述
    shared_disk
    以下各项中的共享 LUN:
    • 共享 SCSI 磁盘

    • 串行连接技术附件 (Serial Attached Technology Attachment, SATA) 存储

    • Sun ZFS Storage Appliance

    quorum_server
    法定服务器
  9. 指定要配置为法定设备的设备的名称并提供任何所需的其他信息。
    • 对于法定服务器,还需指定以下信息:

      • 法定服务器主机的 IP 地址

      • 法定服务器用来与群集节点进行通信的端口号

  10. 键入 Yes 以验证是否可以重置 installmode

    clsetup 实用程序在为群集设置了法定配置和选票计数后,将显示消息 "Cluster initialization is complete"。该实用程序将于此时返回到主菜单。

  11. 退出 clsetup 实用程序。

接下来的步骤

检验是否已禁用法定配置及安装模式。请转至如何检验法定配置和安装模式

故障排除

中断的 clsetup 处理-如果法定设备设置过程被中断或无法成功完成,请重新运行 clsetup

对法定选票计数的更改-如果以后增加或减少了连接到法定设备的节点数,法定选票计数不会自动重新计算。通过删除各个法定设备,然后将其添加回配置中(一次对一个法定设备进行操作),可以重新建立正确的法定选票。对于双节点群集,请临时添加一个新的法定设备,然后删除原法定设备并将其添加回配置。然后,删除临时法定设备。请参见《Oracle Solaris Cluster 系统管理指南》中的第 6  章 "管理法定"中的“如何修改法定设备节点列表”过程。

无法访问的法定设备-如果在群集节点上看到无法访问法定设备的消息,或者如果群集节点出现故障并显示消息 CMM: Unable to acquire the quorum device,则法定设备或其路径可能存在问题。检查法定设备及其路径是否正常。

如果该问题仍然存在,请使用其他法定设备。或者,如果仍要使用该法定设备,请将法定超时增大为较高的值,如下所述:


注 - 对于 Oracle Real Application Clusters (Oracle RAC),请勿更改默认的 25 秒法定超时时间。在某些记忆分裂方案中,较长的超时周期可能会导致 Oracle RAC VIP 故障转移因 VIP 资源超时而失败。如果所用法定设备不适合使用默认的 25 秒超时,请使用其他法定设备。


如何检验法定配置和安装模式

执行该过程以验证法定配置是否已成功完成,并验证群集安装模式是否已被禁用。

无需成为 root 角色即可运行这些命令。

  1. 从任一全局群集节点中检验设备和节点的法定配置。
    phys-schost$ clquorum list

    输出结果中将列出每个法定设备和每个节点。

  2. 从任一节点中,检验群集安装模式是否处于禁用状态。
    phys-schost$ cluster show -t global | grep installmode
      installmode:                                    disabled

    群集安装和创建已完成。

接下来的步骤

查看以下列表以确定下一项要执行的任务(该任务应适用于您的群集配置)。如果需要执行此列表中的多项任务,请转至其中在列表中排在最前面的那项任务。

另请参见

创建群集配置的备份。

对群集配置的归档备份有助于您更方便地恢复群集配置。有关更多信息,请参见《Oracle Solaris Cluster 系统管理指南》中的"如何备份群集配置"

如何更改专用主机名

如果不希望使用默认的专用主机名 clusternodenodeID-priv(该主机名是在安装 Oracle Solaris Cluster 软件的过程中指定的),请执行此任务。


注 - 在配置并启动应用程序和数据服务后,请不要执行此过程。否则,在重命名旧的专用主机名后,应用程序或数据服务可能仍使用旧的专用主机名,从而造成主机名冲突。如果有一些应用程序或数据服务正在运行,则停止它们,然后再执行该过程。


请在一个活动的群集节点上执行此过程。

  1. 在全局群集节点上承担 root 角色。
  2. 启动 clsetup 实用程序。
    phys-schost# clsetup

    屏幕上将显示 clsetup 主菜单。

  3. 输入“专用主机名”所对应的选项号并按回车键。

    将显示“专用主机名”菜单。

  4. 键入“更改节点专用主机名”对应的选项编号并按回车键。
  5. 按照提示更改专用主机名。

    对于每个要更改的专用主机名,请重复该过程。

  6. 检验新的专用主机名。
    phys-schost# clnode show -t node | grep privatehostname
      privatehostname:                                clusternode1-priv
      privatehostname:                                clusternode2-priv
      privatehostname:                                clusternode3-priv

接下来的步骤

使用已更改的专用主机名更新 NTP 配置。转至如何在更改专用主机名后更新 NTP

配置网络时间协议 (Network Time Protocol, NTP)

本节包含以下过程:

如何使用自己的 /etc/inet/ntp.conf 文件


注 - 如果您在安装 Oracle Solaris Cluster 软件之前安装了您自己的 /etc/inet/ntp.conf 文件,则不需要执行此过程。前进到如何验证群集


  1. 在某个群集节点上承担 root 角色。
  2. 将您的 /etc/inet/ntp.conf 文件添加到群集的每个节点中。
  3. 在每个节点上,确定 NTP 服务的状态。
    phys-schost# svcs svc:/network/ntp:default
  4. 在每个节点上启动 NTP 守护进程。
    • 如果 NTP 服务的状态为 disabled,请启用此服务。
      phys-schost# svcadm enable svc:/network/ntp:default
    • 如果 NTP 服务的状态为 online,请重新启动此服务。
      phys-schost# svcadm restart svc:/network/ntp:default

接下来的步骤

查看以下列表以确定下一项要执行的任务(该任务应适用于您的群集配置)。如果需要执行此列表中的多项任务,请转至其中在列表中排在最前面的那项任务。

如何在将节点添加到单节点群集后安装 NTP

将节点添加到单节点群集中时,必须确保将所使用的 NTP 配置文件复制到原始群集节点以及新节点中。

  1. 在某个群集节点上承担 root 角色。
  2. /etc/inet/ntp.conf/etc/inet/ntp.conf.sc 文件从已添加的节点复制到原始群集节点中。

    这些文件是在群集中配置已添加节点时在该节点上创建的。

  3. 在原始群集节点上创建名为 /etc/inet/ntp.conf.include 且指向 /etc/inet/ntp.conf.sc 文件的符号链接。
    phys-schost# ln -s /etc/inet/ntp.conf.sc /etc/inet/ntp.conf.include
  4. 在每个节点上,确定 NTP 服务的状态。
    phys-schost# svcs svc:/network/ntp:default
  5. 在每个节点上启动 NTP 守护进程。
    • 如果 NTP 服务的状态为 disabled,请启用此服务。
      phys-schost# svcadm enable svc:/network/ntp:default
    • 如果 NTP 服务的状态为 online,请重新启动此服务。
      phys-schost# svcadm restart svc:/network/ntp:default

接下来的步骤

查看以下列表以确定下一项要执行的任务(该任务应适用于您的群集配置)。如果需要执行此列表中的多项任务,请转至其中在列表中排在最前面的那项任务。

如何在更改专用主机名后更新 NTP

  1. 在某个群集节点上承担 root 角色。
  2. 在群集的每个节点上,使用已更改的专用主机名更新 /etc/inet/ntp.conf.sc 文件。
  3. 在每个节点上,确定 NTP 服务的状态。
    phys-schost# svcs svc:/network/ntp:default
  4. 在每个节点上启动 NTP 守护进程。
    • 如果 NTP 服务的状态为 disabled,请启用此服务。
      phys-schost# svcadm enable svc:/network/ntp:default
    • 如果 NTP 服务的状态为 online,请重新启动此服务。
      phys-schost# svcadm restart svc:/network/ntp:default

接下来的步骤

查看以下列表以确定下一项要执行的任务(该任务应适用于您的群集配置)。如果需要执行此列表中的多项任务,请转至其中在列表中排在最前面的那项任务。

如何验证群集

完成所有群集配置之后,使用 cluster check 命令验证群集配置和功能。有关更多信息,请参见 cluster(1CL) 手册页。


提示 - 为了便于将来参考或故障排除,对于运行的每个验证,请使用 -o outputdir 选项为日志文件指定子目录。重用现有的子目录名称将删除子目录中的所有现有文件。因此,为确保日志文件可供将来参考之用,请为运行的每个群集检查指定唯一的子目录名称。


开始之前

确保已在群集中完成所有硬件和软件组件(包括固件和软件更新)的安装和配置。

  1. 在群集中的某个节点上承担 root 角色。
  2. 确保您具有最新的检查。
    1. 转到 My Oracle Support 的 "Patches & Updates"(修补程序和更新)选项卡。
    2. 在 "Advanced Search"(高级搜索)中,选择 Solaris Cluster 作为 "Product"(产品),并在 "Description"(描述)字段中键入 check

      该搜索将找到包含 check 的 Oracle Solaris Cluster 软件更新。

    3. 应用任何尚未安装在群集上的软件更新。
  3. 运行基本验证检查。
    phys-schost# cluster check -v -o outputdir
    -v

    详细模式。

    -o outputdir

    将输出重定向到 outputdir 子目录。

    该命令会运行所有可用的基本检查。不会影响任何群集功能。

  4. 运行交互式验证检查。
    phys-schost# cluster check -v -k interactive -o outputdir
    -k interactive

    指定运行交互式验证检查

    该命令会运行所有可用的交互式检查并提示您提供所需的群集相关信息。不会影响任何群集功能。

  5. 运行功能验证检查。
    1. 以非详细模式列出所有可用的功能检查。
      phys-schost# cluster list-checks -k functional
    2. 确定哪些功能检查执行的操作会干扰生产环境中的群集可用性或服务。

      例如,功能检查可能会引起节点出现紧急情况或故障转移到其他节点。

      phys-schost# cluster list-checks -v -C check-ID
      -C check-ID

      指定特定检查。

    3. 如果要执行的功能检查可能会中断群集的正常工作,请确保群集不在生产环境中。
    4. 启动功能检查。
      phys-schost# cluster check -v -k functional -C check-ID -o outputdir
      -k functional

      指定运行功能验证检查

      响应来自检查的提示,确认应运行该检查以及必须执行的任何信息或操作。

    5. 对于要运行的其余每个功能检查,重复执行步骤 c步骤 d

      注 - 为了进行记录,请为所运行的每个检查指定唯一 outputdir 子目录名称。如果重用 outputdir 名称,则新检查的输出将覆盖重用的 outputdir 子目录的现有内容。


示例 3-5 列出交互式验证检查

以下示例列出了可用于在群集上运行的所有交互式检查。示例输出显示了可能的检查样例;实际的可用检查因各配置而异

# cluster list-checks -k interactive
 Some checks might take a few moments to run (use -v to see progress)...
 I6994574  :   (Moderate)   Fix for GLDv3 interfaces on cluster transport vulnerability applied?

示例 3-6 运行功能验证检查

以下示例首先显示了功能检查的详细列表。随后列出了检查 F6968101 的详细描述,指出该检查会中断群集服务。群集将脱离生产环境。然后将运行功能检查,且详细输出会记录到 funct.test.F6968101.12Jan2011 子目录中。示例输出显示了可能的检查样例;实际的可用检查因各配置而异。

# cluster list-checks -k functional
 F6968101  :   (Critical)   Perform resource group switchover
 F6984120  :   (Critical)   Induce cluster transport network failure - single adapter.
 F6984121  :   (Critical)   Perform cluster shutdown
 F6984140  :   (Critical)   Induce node panic
…

# cluster list-checks -v -C F6968101
 F6968101: (Critical) Perform resource group switchover
Keywords: SolarisCluster3.x, functional
Applicability: Applicable if multi-node cluster running live.
Check Logic: Select a resource group and destination node. Perform 
'/usr/cluster/bin/clresourcegroup switch' on specified resource group 
either to specified node or to all nodes in succession.
Version: 1.2
Revision Date: 12/10/10 

Take the cluster out of production

# cluster check -k functional -C F6968101 -o funct.test.F6968101.12Jan2011
F6968101 
  initializing...
  initializing xml output...
  loading auxiliary data...
  starting check run...
     pschost1, pschost2, pschost3, pschost4:     F6968101.... starting:  
Perform resource group switchover           


  ============================================================

   >>> Functional Check <<<

    'Functional' checks exercise cluster behavior. It is recommended that you
    do not run this check on a cluster in production mode.' It is recommended
    that you have access to the system console for each cluster node and
    observe any output on the consoles while the check is executed.

    If the node running this check is brought down during execution the check
    must be rerun from this same node after it is rebooted into the cluster in
    order for the check to be completed.

    Select 'continue' for more details on this check.

          1) continue
          2) exit

          choice: 1


  ============================================================

   >>> Check Description <<<
…
Follow onscreen directions

接下来的步骤

将群集投入生产之前,请记录群集配置的基本信息以供将来进行诊断时使用。请转至如何记录群集配置的诊断数据

如何记录群集配置的诊断数据

在完成全局群集配置之后且将其投入生产之前,请使用 Oracle Explorer 实用程序记录有关该群集的基本信息。如果将来需要排除群集故障,可以使用该数据。

  1. 承担 root 角色。
  2. 安装 Oracle Explorer 软件(如果尚未安装)。

    服务工具包 (Services Tools Bundle) 中包含 Oracle Explorer 软件包 SUNWexploSUNWexplu。有关软件下载和安装的信息,请参见 http://www.oracle.com/us/support/systems/premier/services-tools-bundle-sun-systems-163717.html

  3. 在群集中的每个节点上,运行 explorer 实用程序。

    针对您的平台使用相应的命令。例如,要收集关于 Oracle 的 Sun Fire T1000 服务器的信息,请运行以下命令:

    # explorer -i -w default,Tx000

    有关更多信息,请参见 /opt/SUNWexplo/man/man1m/ 目录下的 explorer(1M) 手册页以及《Oracle Explorer Data Collector User Guide》(本指南可通过 My Oracle Support 上的“说明 1153444.1”获取):

    https://support.oracle.com

    explorer 输出文件以 explorer.hostid.hostname-date.tar.gz 形式保存到 /opt/SUNWexplo/output/ 目录下。

  4. 将该文件保存到当整个群集停机时可以访问的位置。
  5. 将所有 explorer 文件发送到您所处地理位置的 Oracle Explorer 数据库下。

    按《Oracle Explorer Data Collector User's Guide》中介绍的过程使用 FTP 或 HTTPS 来提交 Oracle Explorer 文件。

    如果在对群集的技术问题进行诊断时需要 explorer 输出数据,Oracle Explorer 数据库可使 Oracle 技术支持人员获取这些数据。