JavaScript is required to for searching.
跳过导航链接
退出打印视图
Oracle Solaris Cluster 软件安装指南     Oracle Solaris Cluster 3.3 3/13 (简体中文)
search filter icon
search icon

文档信息

前言

1.  规划 Oracle Solaris Cluster 配置

2.  在全局群集节点上安装软件

3.  建立全局群集

建立新的全局群集或新的全局群集节点

如何在所有节点上配置 Oracle Solaris Cluster 软件 (scinstall)

如何在所有节点上配置 Oracle Solaris Cluster 软件 (XML)

如何安装 Oracle Solaris 和 Oracle Solaris Cluster 软件 (JumpStart)

如何在添加全局群集节点之前做好群集准备工作

如何在添加节点或专用网络时更改专用网络配置

如何在附加全局群集节点上配置 Oracle Solaris Cluster 软件 (scinstall)

如何在附加全局群集节点上配置 Oracle Solaris Cluster 软件 (XML)

如何在向全局群集中添加节点后更新法定设备

如何配置法定设备

如何检验法定配置和安装模式

如何更改专用主机名

配置资源组负载在各节点间的分配

如何为节点配置负载限制

如何为资源组设置优先级

如何为资源组设置负载因子

如何为资源组设置抢占模式

如何在群集中将负载集中到少量节点

如何配置网络时间协议 (Network Time Protocol, NTP)

如何在群集专用互连上配置 IP 安全体系结构 (IPsec)

如何验证群集

如何记录群集配置的诊断数据

4.  配置 Solaris Volume Manager 软件

5.  创建群集文件系统

6.  创建非全局区域和区域群集

7.  从群集中卸载软件

索引

建立新的全局群集或新的全局群集节点

本节介绍了建立新的全局群集或向现有群集中添加节点的相关信息和过程。全局群集节点可以是物理计算机、(仅 SPARC)Oracle VM Server for SPARC I/O 域或(仅 SPARC)Oracle VM Server for SPARC 来宾域。一个群集可以包含上述任意节点类型的组合。开始执行这些任务之前,请确保您已按照安装软件所述安装了 Oracle Solaris OS、Oracle Solaris Cluster 框架及其他产品的软件包。

下面的任务列表分别列出了建立新的全局群集时以及向现有全局群集中添加节点时要执行的任务。按照以下顺序完成操作。

表 3-1 任务列表:建立新的全局群集

方法
指导
使用以下方法之一建立新的全局群集:
  • 使用 scinstall 实用程序建立群集。
  • 使用 XML 配置文件建立群集。
  • 设置 JumpStart 安装服务器。然后创建已安装系统的 flash 归档文件。最后,使用 scinstall JumpStart 选项在每个节点上安装 flash 归档文件并建立群集。
指定法定投票并使群集脱离安装模式(如果尚未执行此操作)。
验证法定配置。
(可选)更改节点的专用主机名。
创建或修改 NTP 配置文件(如果尚未配置)。
(可选)配置 IPsec 以确保专用互连的安全性。
如果使用的是 Solaris Volume Manager,配置卷管理软件。
根据需要创建群集文件系统或高可用性本地文件系统。
请安装第三方应用程序、注册资源类型、设置资源组并配置数据服务。
验证群集。
记录已完成群集配置的基准线信息。

表 3-2 任务列表:向现有全局群集中添加节点

方法
指导
使用 clsetup 命令向群集授权节点列表中添加新节点。如有必要,还应配置群集互连并重新配置专用网络地址范围。
根据需要重新配置群集互连和专用网络地址范围,以适应所添加的节点。
使用以下方法之一向现有全局群集中添加节点:
  • 设置 JumpStart 安装服务器。然后创建已安装系统的 flash 归档文件。最后,使用 scinstall JumpStart 选项在要添加到群集的节点上安装 falsh 归档。
  • 使用 scinstall 实用程序在新节点上配置 Oracle Solaris Cluster 软件。
  • 使用 XML 配置文件在新节点上配置 Oracle Solaris Cluster 软件。
更新法定配置信息。
验证法定配置。
(可选)更改节点的专用主机名。
修改 NTP 配置。
如果群集中配置了 IPsec,请在添加的节点上配置 IPsec。
如果使用的是 Solaris Volume Manager,配置卷管理软件。
根据需要创建群集文件系统或高可用性本地文件系统。
请安装第三方应用程序、注册资源类型、设置资源组并配置数据服务。
验证群集。
记录已完成群集配置的基准线信息。

如何在所有节点上配置 Oracle Solaris Cluster 软件 (scinstall)

请从全局群集的一个节点中执行此过程,以便在群集的所有节点上配置 Oracle Solaris Cluster 软件。


注 - 此过程使用的是 scinstall 命令的交互形式。要使用 scinstall 命令的非交互形式(例如在开发安装脚本时),请参见 scinstall(1M) 手册页。

确保在运行 scinstall 命令之前,在节点上安装了 Oracle Solaris Cluster 软件包(无论是通过手动形式还是使用 installer 程序的无提示模式)。有关从安装脚本运行 installer 程序的信息,请参见《Sun Java Enterprise System 5 Update 1 Installation Guide for UNIX》中的第 5  章 "Installing in Silent Mode"


开始之前

执行以下任务:

按照以下准则在此过程中使用交互式的 scinstall 实用程序:

  1. 如果在 Oracle Solaris Cluster 软件安装期间禁用了远程配置,请重新启用远程配置。

    对所有群集节点启用 超级用户的远程 shell (rsh(1M)) 或安全 shell (ssh(1)) 访问权限 。

  2. 如果要在新群集的专用互连中使用交换机,请确保邻居发现协议 (Neighbor Discovery Protocol, NDP) 处于禁用状态。

    请按照交换机文档中的过程来确定 NDP 是否处于启用状态,如果是,则禁用 NDP。

    在配置群集期间,软件将检查专用互连中是否不存在通信流量。如果在检查专用互连通信流量时,NDP 向专用适配器发送任何软件包,则该软件将认为此互连不是专用的,并且将中断群集配置。因此,在创建群集期间,必须禁用 NDP。

    建立群集后,如果要使用该功能,可以对专用互连交换机重新启用 NDP 。

  3. 从一个群集节点启动 scinstall 实用程序。
    phys-schost# /usr/cluster/bin/scinstall
  4. 键入 "Create a New Cluster or Add a Cluster Node"(创建新群集或添加群集节点)所对应的选项号并按回车键。
     *** Main Menu ***
    
        Please select from one of the following (*) options:
    
          * 1) Create a new cluster or add a cluster node
          * 2) Configure a cluster to be JumpStarted from this install server
            3) Manage a dual-partition upgrade
            4) Upgrade this cluster node
          * 5) Print release information for this cluster node
     
          * ?) Help with menu options
          * q) Quit
    
        Option:  1

    将显示 "New Cluster and Cluster Node"(新建群集和群集节点)菜单。

  5. 键入 "Create a New Cluster"(创建新群集)所对应的选项号并按回车键。

    将显示 "Typical or Custom Mode"(典型模式或定制模式)菜单。

  6. 键入与 "Typical"(典型)或 "Custom"(定制)相对应的选项号并按回车键。

    将显示 "Create a New Cluster"(创建新群集)屏幕。阅读相关要求,然后按 Ctrl-D 组合键继续。

  7. 按照菜单提示给出您的答案 ,所做回答应依据于您在配置规划工作单中填写的内容。

    scinstall 实用程序用于安装和配置所有群集节点并重新引导群集。将所有节点成功引导到群集中之后,即建立了群集。安装 Oracle Solaris Cluster 时的输出信息记录在 /var/cluster/logs/install/scinstall.log.N 文件中。

  8. 在每个节点上检验服务管理工具 (Service Management Facility, SMF) 的多用户服务是否处于联机状态。

    如果某个节点上的服务尚未处于联机状态,请等待直到状态变为联机后,再继续执行下一步。

    phys-schost# svcs multi-user-server node
    STATE          STIME    FMRI
    online         17:52:55 svc:/milestone/multi-user-server:default
  9. 从一个节点上,检验是否所有节点都已加入群集。
    phys-schost# clnode status

    输出类似于以下内容。

    === Cluster Nodes ===
    
    --- Node Status ---
    
    Node Name                                       Status
    ---------                                       ------
    phys-schost-1                                   Online
    phys-schost-2                                   Online
    phys-schost-3                                   Online

    有关更多信息,请参见 clnode(1CL) 手册页。

  10. 可选启用自动节点重新引导功能。

    当所有受监视的共享磁盘路径都发生故障时,如果至少有一个磁盘可从群集中的另一节点访问,则此功能会自动重新引导节点。


    注 - 在初始配置时,默认对搜索到的所有设备启用磁盘路径监视。


    1. 启用自动重新引导。
      phys-schost# clnode set -p reboot_on_path_failure=enabled
      -p

      指定要设置的属性

      reboot_on_path_failure=enable

      如果所有监视的共享磁盘路径发生故障,则启用自动节点重新引导。

    2. 检验是否启用了磁盘路径发生故障时的自动重新引导功能。
      phys-schost# clnode show
      === Cluster Nodes ===                          
      
      Node Name:                                      node
      …
        reboot_on_path_failure:                          enabled
      …
  11. 如果要在具有高可用性的本地文件系统上使用 Oracle Solaris Cluster HA for NFS (HA for NFS),请确保禁用了回送文件系统 (Loopback File System, LOFS)。

    要禁用 LOFS,请将以下条目添加到群集每个节点上的 /etc/system 文件中。

    exclude:lofs

    系统下次重新引导后对 /etc/system 文件的更改才生效。


    注 - 如果在具有高可用性的本地文件系统上使用 HA for NFS 运行 automountd,则不能启用 LOFS。LOFS 会导致 HA for NFS 出现切换问题。如果选择在具有高可用性的本地文件系统上添加 HA for NFS,您必须执行下面的其中一项配置更改。

    但是,如果在群集中配置非全局区域,则必须在所有群集节点上都启用 LOFS。如果具有高可用性的本地文件系统上的 HA for NFS 必须与 LOFS 共存,则可以使用其他解决方案来代替禁用 LOFS。

    • 禁用 LOFS。

    • 禁用 automountd 守护进程。

    • 从自动安装程序映射中排除属于由 HA for NFS 导出的具有高可用性的本地文件系统的所有文件。利用此选项可以让 LOFS 和 automountd 守护进程同时处于启用状态。


    有关回送文件系统的更多信息,请参见《System Administration Guide: Devices and File Systems》中的"The Loopback File System"

示例 3-1 在所有节点上配置 Oracle Solaris Cluster 软件

以下示例显示了当 scinstall 在双节点群集 schost 上完成配置任务时记录的 scinstall 进度消息。该群集是在 "Typical"(典型)模式下使用 scinstall 实用程序从 phys-schost-1 安装的。另一个群集节点为 phys-schost-2。适配器名称为 bge2bge3。法定设备的自动选择已启用。

  Installation and Configuration

    Log file - /var/cluster/logs/install/scinstall.log.24747

    Configuring global device using lofi on phys-schost-1: done
    Starting discovery of the cluster transport configuration.
    The Oracle Solaris Cluster software is already installed on "phys-schost-1".
    The Oracle Solaris Cluster software is already installed on "phys-schost-2".
    Starting discovery of the cluster transport configuration.

    The following connections were discovered:

        phys-schost-1:bge2  switch1  phys-schost-2:bge2
        phys-schost-1:bge3  switch2  phys-schost-2:bge3

    Completed discovery of the cluster transport configuration.

    Started cluster check on "phys-schost-1".
    Started cluster check on "phys-schost-2".

    cluster check completed with no errors or warnings for "phys-schost-1".
    cluster check completed with no errors or warnings for "phys-schost-2".

    Removing the downloaded files … done

    Configuring "phys-schost-2" … done
    Rebooting "phys-schost-2" … done

    Configuring "phys-schost-1" … done
    Rebooting "phys-schost-1" …

Log file - /var/cluster/logs/install/scinstall.log.24747

Rebooting …

故障排除

不成功的配置-如果一个或多个节点无法加入群集,或者指定了错误的配置信息,请首先尝试返回此过程。如果不能解决问题,请在每个配置有误的节点上执行如何取消 Oracle Solaris Cluster 软件的配置以更正安装问题过程,以将该节点从群集配置中删除。无需卸载 Oracle Solaris Cluster 软件包。然后重新运行此过程。

接下来的步骤

如果要在群集中配置任何法定设备,请转至如何配置法定设备

否则,请转至如何检验法定配置和安装模式

如何在所有节点上配置 Oracle Solaris Cluster 软件 (XML)

要使用 XML 群集配置文件来配置新全局群集,请执行以下过程。新群集可以是某个运行 Oracle Solaris Cluster 3.3 3/13 软件的现有群集的副本。

此过程将对群集中的以下组成部分进行配置:

开始之前

执行以下任务:

  1. 确保每个潜在群集节点上尚未配置 Oracle Solaris Cluster 3.3 3/13 软件。
    1. 在要配置到新群集中的潜在节点上成为超级用户。
    2. 确定潜在节点上是否已配置了 Oracle Solaris Cluster 软件。
      phys-schost# /usr/sbin/clinfo -n
      • 如果该命令返回以下消息,请继续执行步骤 c。
        clinfo: node is not configured as part of acluster: Operation not applicable

        此消息表明潜在节点上尚未配置 Oracle Solaris Cluster 软件。

      • 如果命令返回节点 ID 号,请不要执行此过程。

        返回某个节点 ID 表明该节点上已配置了 Oracle Solaris Cluster 软件。

        如果群集中运行着旧版本的 Oracle Solaris Cluster 软件,而您希望安装 Oracle Solaris Cluster 3.3 3/13 软件,请改为执行《Oracle Solaris Cluster Upgrade Guide》中所述的升级过程。

    3. 在要配置到新群集中的其余每个潜在节点上,重复执行步骤 a 和步骤 b。

      如果所有潜在群集节点上均未配置 Oracle Solaris Cluster 软件,请继续执行步骤 2。

  2. 如果要在新群集的专用互连中使用交换机,请确保邻居发现协议 (Neighbor Discovery Protocol, NDP) 处于禁用状态。

    请按照交换机文档中的过程来确定 NDP 是否处于启用状态,如果是,则禁用 NDP。

    在配置群集期间,软件将检查专用互连中是否不存在通信流量。如果在检查专用互连通信流量时,NDP 向专用适配器发送任何软件包,则该软件将认为此互连不是专用的,并且将中断群集配置。因此,在创建群集期间,必须禁用 NDP。

    建立群集后,如果要使用该功能,可以对专用互连交换机重新启用 NDP 。

  3. 如果要复制运行 Oracle Solaris Cluster 3.3 3/13 软件的某个现有群集,请使用该群集中的某一节点创建一个群集配置 XML 文件。
    1. 对于要复制的群集,在该群集中的某个活动成员上成为超级用户。
    2. 将现有群集的配置信息导出到一个文件中。
      phys-schost# cluster export -o clconfigfile
      -o

      指定输出目标。

      clconfigfile

      群集配置 XML 文件的名称。所指定的文件名可以是一个现有文件,也可以是一个将使用上述命令创建的新文件。

      有关更多信息,请参见 cluster(1CL) 手册页。

    3. 将配置文件复制到将用来配置新群集的潜在节点上。

      您可以将该文件存储到要配置为群集节点的其他主机所能访问的任一目录下。

  4. 在将用来配置新群集的潜在节点上成为超级用户。
  5. 根据需要修改群集配置 XML 文件。
    1. 打开群集配置 XML 文件进行编辑。
      • 如果要复制现有群集,请打开借助于 cluster export 命令创建的文件。
      • 如果不打算复制现有群集,请创建一个新文件。

        请基于 clconfiguration(5CL) 手册页中显示的元素分层结构来编辑该文件。您可以将该文件存储到要配置为群集节点的其他主机所能访问的任一目录下。

    2. 修改 XML 元素的值,以反映要创建的群集配置。
      • 为了能建立群集,群集配置 XML 文件中的以下组成部分必须具有有效值:

        • 群集名称

        • 群集节点

        • 群集传输

      • 默认情况下,使用在 lofi 设备上配置的全局设备名称空间创建群集。如果您需要使用用于创建全局设备的专用文件系统,对于将要使用分区而非 lofi 设备的每个节点,请将以下属性添加到 <propertyList> 元素。

        …
          <nodeList>
            <node name="node" id="N">
              <propertyList>
        …
                <property name="globaldevfs" value="/filesystem-name">
        …
              </propertyList>
            </node>
        …
      • 如果您正在修改从现有群集中导出的配置信息,则必须更改某些值(如节点名称)以反映新群集的情况,这些值会用于多个群集对象的定义中。

      有关群集配置 XML 文件在结构和内容方面的详细信息,请参见 clconfiguration(5CL) 手册页。

  6. 验证群集配置 XML 文件。
    phys-schost# /usr/share/src/xmllint --valid --noout clconfigfile

    有关更多信息,请参见 xmllint(1) 手册页。

  7. 从包含群集配置 XML 文件的潜在节点上创建群集。
    phys-schost# cluster create -i clconfigfile
    -i clconfigfile

    指定要用作输入源的群集配置 XML 文件的名称。

  8. 在每个节点上检验服务管理工具 (Service Management Facility, SMF) 的多用户服务是否处于联机状态。

    如果某个节点上的服务尚未处于联机状态,请等待直到状态变为联机后,再继续执行下一步。

    phys-schost# svcs multi-user-server node
    STATE          STIME    FMRI
    online         17:52:55 svc:/milestone/multi-user-server:default
  9. 从一个节点上,检验是否所有节点都已加入群集。
    phys-schost# clnode status

    输出类似于以下内容。

    === Cluster Nodes ===
    
    --- Node Status ---
    
    Node Name                                       Status
    ---------                                       ------
    phys-schost-1                                   Online
    phys-schost-2                                   Online
    phys-schost-3                                   Online

    有关更多信息,请参见 clnode(1CL) 手册页。

  10. 如果尚未安装支持 Oracle Solaris Cluster 软件所必需的修补程序,请进行安装。

    有关修补程序位置和安装说明,请参见《Oracle Solaris Cluster 3.3 3/13 发行说明》中的"修补程序和所需的固件级别"

  11. 如果要在具有高可用性的本地文件系统上使用 Oracle Solaris Cluster HA for NFS (HA for NFS),请确保禁用了回送文件系统 (Loopback File System, LOFS)。

    要禁用 LOFS,请将以下条目添加到群集每个节点上的 /etc/system 文件中。

    exclude:lofs

    系统下次重新引导后对 /etc/system 文件的更改才生效。


    注 - 如果在具有高可用性的本地文件系统上使用 HA for NFS 运行 automountd,则不能启用 LOFS。LOFS 会导致 HA for NFS 出现切换问题。如果选择在具有高可用性的本地文件系统上添加 HA for NFS,您必须执行下面的其中一项配置更改。

    但是,如果在群集中配置非全局区域,则必须在所有群集节点上都启用 LOFS。如果具有高可用性的本地文件系统上的 HA for NFS 必须与 LOFS 共存,则可以使用其他解决方案来代替禁用 LOFS。

    • 禁用 LOFS。

    • 禁用 automountd 守护进程。

    • 从自动安装程序映射中排除属于由 HA for NFS 导出的具有高可用性的本地文件系统的所有文件。利用此选项可以让 LOFS 和 automountd 守护进程同时处于启用状态。


    有关回送文件系统的更多信息,请参见《System Administration Guide: Devices and File Systems》中的"The Loopback File System"

  12. 要从现有群集中复制法定信息,请使用群集配置 XML 文件配置法定设备。

    如果创建了双节点群集,则必须配置一个法定设备。如果您选择不使用群集配置 XML 文件来创建所需的法定设备,请转至如何配置法定设备

    1. 如果要将法定服务器用作法定设备,请确保法定服务器已经过设置并且正在运行。

      按照如何安装和配置 法定服务器软件中的说明进行操作。

    2. 如果要将 NAS 设备用作法定设备,请确保 NAS 设备已经过设置并且正在运行。
      1. 请遵循将 NAS 设备用作法定设备方面的相关要求。

        请参见《Oracle Solaris Cluster 3.3 3/13 With Network-Attached Storage Device Manual 》

      2. 请按照设备文档中的说明来设置 NAS 设备。
    3. 确保群集配置 XML 文件中的法定配置信息反映的是所创建群集的有效值。
    4. 如果对群集配置 XML 文件进行过更改,请验证该文件。
      phys-schost# xmllint --valid --noout clconfigfile
    5. 配置法定设备。
      phys-schost# clquorum add -i clconfigfile devicename
      devicename

      指定要配置为法定设备的设备的名称。

  13. 使群集脱离安装模式。
    phys-schost# clquorum reset
  14. 停止未配置群集成员的计算机对群集配置的访问。
    phys-schost# claccess deny-all
  15. 可选启用当所有受监视的共享磁盘路径都发生故障时的节点自动重新引导功能。

    注 - 在初始配置时,默认对搜索到的所有设备启用磁盘路径监视。


    1. 启用自动重新引导。
      phys-schost# clnode set -p reboot_on_path_failure=enabled
      -p

      指定要设置的属性

      reboot_on_path_failure=enable

      如果所有监视的共享磁盘路径发生故障,则启用自动节点重新引导。

    2. 检验是否启用了磁盘路径发生故障时的自动重新引导功能。
      phys-schost# clnode show
      === Cluster Nodes ===                          
      
      Node Name:                                      node
      …
        reboot_on_path_failure:                          enabled
      …

示例 3-2 使用 XML 文件在所有节点上配置 Oracle Solaris Cluster 软件

以下示例将一个现有双节点群集的群集配置和法定配置复制到了一个新的双节点群集中。该新群集随 Oracle Solaris 10 OS 一起安装,但未配置非全局区域。群集配置将从现有群集节点 phys-oldhost-1 导出到群集配置 XML 文件 clusterconf.xml 中。新群集的节点名称为 phys-newhost-1phys-newhost-2。在新群集中被配置为法定设备的设备是 d3

此示例中的提示符名称 phys-newhost-N 表示应在这两个群集节点上执行相应的命令。

phys-newhost-N# /usr/sbin/clinfo -n
clinfo: node is not configured as part of acluster: Operation not applicable
 
phys-oldhost-1# cluster export -o clusterconf.xml
Copy clusterconf.xml to phys-newhost-1 and modify the file with valid values
 
phys-newhost-1# xmllint --valid --noout clusterconf.xml
No errors are reported
 
phys-newhost-1# cluster create -i clusterconf.xml
phys-newhost-N# svcs multi-user-server
STATE          STIME    FMRI
online         17:52:55 svc:/milestone/multi-user-server:default
phys-newhost-1# clnode status
Output shows that both nodes are online
 
phys-newhost-1# clquorum add -i clusterconf.xml d3
phys-newhost-1# clquorum reset

故障排除

不成功的配置-如果一个或多个节点无法加入群集,或者指定了错误的配置信息,请首先尝试返回此过程。如果不能解决问题,请在每个配置有误的节点上执行如何取消 Oracle Solaris Cluster 软件的配置以更正安装问题过程,以将该节点从群集配置中删除。无需卸载 Oracle Solaris Cluster 软件包。然后重新运行此过程。

接下来的步骤

请转至如何检验法定配置和安装模式

另请参见

完全建立了群集之后,您可以从现有群集中复制其他群集组成部分的配置。如果尚未这样做,请修改要复制的 XML 元素的值,以反映要将该组件添加到其中的群集配置。例如,如果要复制资源组,请确保 <resourcegroupNodeList> 条目包含的是对新群集而言有效的节点名称,而不是所复制的群集中的节点名称,除非这些节点名称与新群集中的节点名称相同。

要复制群集组件,请对要复制的群集组件运行面向对象命令的 export 子命令。有关面向对象命令的语法和选项的更多信息,请参见要复制的群集对象所对应的手册页。下表列出了在建立群集之后可以通过群集配置 XML 文件创建的群集组件以及复制组件时所用命令的手册页。

群集组件
手册页
特殊说明
磁盘组:Solaris Volume Manager
对于 Solaris Volume Manager,应首先创建您在群集配置 XML 文件中指定的磁盘集。
资源
使用 clresourceclressharedaddressclreslogicalhostname 命令的 -a 选项,还可以在复制资源的同时复制与之相关联的资源类型和资源组。

如果不使用该选项,则在添加资源之前必须先将其资源类型和资源组添加到群集中。

共享地址资源
逻辑主机名资源
资源类型
资源组
NAS 设备
必须首先按照 NAS 设备文档中的介绍设置此类设备。
SNMP 主机
clsnmphost create -i 命令要求您用 -f 选项指定用户密码文件。
SNMP 用户
用于监视群集对象上系统资源的阈值

如何安装 Oracle Solaris 和 Oracle Solaris Cluster 软件 (JumpStart)

此过程介绍了如何设置和使用 scinstall(1M) 定制 JumpStart 安装方法。此方法将在所有全局群集节点上安装 Oracle Solaris OS 和 Oracle Solaris Cluster 软件,并建立群集。您还可以使用此过程向现有群集添加新节点。

开始之前

执行以下任务:

按照以下准则在此过程中使用交互式的 scinstall 实用程序:

  1. 设置 JumpStart 安装服务器。

    确保 JumpStart 安装服务器符合下列要求。

    • 安装服务器在群集节点所在的同一子网中,或者在群集节点所使用的子网的 Oracle Solaris 根服务器上。

    • 安装服务器本身不是群集节点。

    • 安装服务器安装了 Oracle Solaris Cluster 软件支持的某个 Oracle Solaris OS 发行版。

    • 对于 Oracle Solaris Cluster 软件的 JumpStart 安装,存在一个定制 JumpStart 目录。此 jumpstart-dir 目录必须满足以下要求:

      • 含有 check 实用程序的副本。

      • 是导出供 JumpStart 安装服务器读取的 NFS。

    • 每个新的群集节点都配置为一个定制的 JumpStart 安装客户机,该客户机使用您为 Oracle Solaris Cluster 安装设置的定制 JumpStart 目录。

    按照与您的软件平台和 OS 版本相应的说明来设置 JumpStart 安装服务器。请参见《Oracle Solaris 10 1/13 安装指南:JumpStart 安装》中的"为联网系统创建配置文件服务器"

    另请参见 setup_install_server(1M)add_install_client(1M) 手册页。

  2. 如果要将新节点安装到现有群集,请将该节点添加到授权群集节点列表。
    1. 切换到处于活动状态的另一群集节点并启动 clsetup 实用程序。
    2. 使用 clsetup 实用程序将新节点的名称添加到授权群集节点列表。

    有关更多信息,请参见《Oracle Solaris Cluster 系统管理指南》中的"如何向现有群集添加节点"

  3. 在同一服务器平台的群集节点或另一计算机上,如果尚未安装 Oracle Solaris OS 及必需的修补程序,请进行安装。

    如果服务器上已安装了 Oracle Solaris 软件,必须确保 Oracle Solaris 安装满足 Oracle Solaris Cluster 软件和您打算在群集中安装的任何其他软件的要求。有关安装 Oracle Solaris 软件以满足 Oracle Solaris Cluster 软件要求的更多信息,请参见如何安装 Oracle Solaris 软件

    请按照如何安装 Oracle Solaris 软件中的过程操作。

  4. 可选SPARC: 在已安装系统上,如果尚未安装 Oracle VM Server for SPARC 软件和创建域,请执行这些操作。

    请按照SPARC: 如何安装 Oracle VM Server for SPARC 软件和创建域中的过程操作。

  5. 在已安装系统上,如果尚未安装 Oracle Solaris Cluster 软件及必需的修补程序,请进行安装。

    请按照如何安装 Oracle Solaris Cluster 框架和数据服务软件包中的过程操作。

    有关修补程序位置和安装说明,请参见《Oracle Solaris Cluster 3.3 3/13 发行说明》中的"修补程序和所需的固件级别"

  6. 启用 公共代理容器 守护进程以在系统引导期间自动启动。
    machine# cacaoadm enable
  7. 在已安装系统上,用群集中使用的所有公共 IP 地址来更新 /etc/inet/hosts 文件。

    执行此步骤,无论是否正在使用命名服务。有关必须添加其 IP 地址的 Oracle Solaris Cluster 组件的列表,请参见公共网络 IP 地址

  8. 在已安装系统上,将 Oracle Java Web Console 重置为其初始未配置状态。

    以下命令将从 Web 控制台中删除配置信息。其中的部分配置信息是特定于已安装系统的。在创建 flash 归档文件之前,必须将这些信息删除。否则,传输到群集节点的配置信息可能会阻止 Web 控制台启动或阻止其与群集节点的正确交互。

    # /usr/share/webconsole/private/bin/wcremove -i console

    在群集节点上安装未配置 Web 控制台后,首次启动 Web 控制台时,Web 控制台会自动运行其初始配置并使用群集节点中的信息。

    有关 wcremove 命令的更多信息,请参见《Oracle Solaris 管理:基本管理》中的"Oracle Java Web Console 用户身份"

  9. 创建已安装系统的 flash 归档文件。

    执行《Oracle Solaris 10 1/13 安装指南:Flash 归档文件(创建和安装)》中的第 3  章 "创建 Flash 归档文件(任务)"中的过程。

    machine# flarcreate -n name archive
    -n name

    为 flash 归档文件指定的名称。

    archive

    为 flash 归档文件指定的文件名,带完整路径。按照约定,文件名以 .flar 结尾。

  10. 确保 flash 归档文件是导出供 JumpStart 安装服务器读取的 NFS。

    有关自动文件共享的更多信息,请参见《系统管理指南:网络服务》中的第 4  章 "管理网络文件系统(概述)"

    另请参见 share(1M)dfstab(4) 手册页。

  11. 在 JumpStart 安装服务器上成为超级用户。
  12. 从 JumpStart 安装服务器,启动 scinstall(1M) 实用程序。

    在介质路径中,用 sparcx86 替换 arch,用 10 替换 ver,以代表 Oracle Solaris 10。

    installserver# cd /cdrom/cdrom0/Solaris_arch/Product/sun_cluster/ \
    Solaris_ver/Tools/
    
    installserver# ./scinstall

    将显示 scinstall 的主菜单。

  13. 选择 "Configure a Cluster to be JumpStarted From This Install Server"(将群集配置为从此安装服务器中快速启动)菜单项。

    此选项用于配置定制 JumpStart 结束脚本。JumpStart 使用这些结束脚本安装 Oracle Solaris Cluster 软件。

     *** Main Menu ***
     
        Please select from one of the following (*) options:
    
          * 1) Create a new cluster or add a cluster node
          * 2) Configure a cluster to be JumpStarted from this install server
            3) Manage a dual-partition upgrade
            4) Upgrade this cluster node
          * 5) Print release information for this cluster node 
    
          * ?) Help with menu options
          * q) Quit
     
        Option:  2
  14. 按照菜单提示给出您的答案 ,所做回答应依据于您在配置规划工作单中填写的内容。

    scinstall 命令用于存储您的配置信息以及复制 /jumpstart-dir /autoscinstall.d/3.2/ 目录中的 autoscinstall.class 默认 class 文件。此文件类似于以下示例。

    install_type    initial_install
    system_type     standalone
    partitioning    explicit
    filesys         rootdisk.s0 free /
    filesys         rootdisk.s1 750  swap
    filesys         rootdisk.s3 512  /globaldevices
    filesys         rootdisk.s7 20
    cluster         SUNWCuser        add
    package         SUNWman          add
  15. 如必要,对 autoscinstall.class 文件进行调整,配置 JumpStart 以安装 flash 归档文件。

    根据需要修改条目,以便与您在 flash 归档文件计算机上安装 Oracle Solaris OS 或运行 scinstall 实用程序时做出的配置选择相匹配。

    1. 要对全局设备名称空间使用 lofi 设备,请删除 /globaldevices 分区的 filesys 条目。
    2. 更改 autoscinstall.class 文件中的下列条目。
      要替换的现有条目
      要添加的新条目
      install_type
      initial_install
      install_type
      flash_install
      system_type
      standalone
      archive_location
      retrieval_type location

      有关与 archive_location 关键字一起使用时 retrieval_typelocation 有效值的信息,请参见《Oracle Solaris 10 1/13 安装指南:JumpStart 安装》中的"archive_location 关键字"

    3. 删除将会安装特定软件包的所有条目,如以下条目。
      cluster         SUNWCuser        add
      package         SUNWman          add
    4. 如果您的配置有其他 Oracle Solaris 软件要求,请相应更改 autoscinstall.class 文件。

      autoscinstall.class 文件将安装“最终用户 Solaris 软件组”(SUNWCuser)。

    5. 如果安装“最终用户 Solaris 软件组”(SUNWCuser),请向 autoscinstall.class 文件添加您可能需要的任何其他 Oracle Solaris 软件包。

      下表列出了支持某些 Oracle Solaris Cluster 功能所必需的 Oracle Solaris 软件包。这些软件包不在“最终用户 Solaris 软件组”中。有关更多信息,请参见Oracle Solaris 软件组注意事项


      功能
      必需的 Oracle Solaris 软件包
      scsnapshot
      SUNWp15u SUNWp15v SUNWp15p
      Oracle Solaris Cluster Manager
      SUNWapchr SUNWapchu

    可通过以下方法之一来更改默认 class 文件:

    • 直接编辑 autoscinstall.class 文件。这些更改将应用于使用此定制 JumpStart 目录的所有群集中的所有节点。

    • rules 文件更新为指向其他配置文件,然后运行 check 实用程序以验证 rules 文件。

    只要 Oracle Solaris OS 安装配置文件满足最低的 Oracle Solaris Cluster 文件系统分配要求,则对于对安装配置文件的其他更改,Oracle Solaris Cluster 软件不施加任何限制。有关用以支持 Oracle Solaris Cluster 软件的分区准则和要求,请参见系统磁盘分区

    有关 JumpStart 配置文件的更多信息,请参见《Oracle Solaris 10 1/13 安装指南:JumpStart 安装》中的第 3  章 "准备 JumpStart 安装(任务)"

  16. 要执行任何其他安装后任务,请设置您自己的结束脚本。

    您自己的结束脚本将在 scinstall 命令所安装的标准结束脚本之后运行。有关创建 JumpStart 结束脚本的信息,请参见《Oracle Solaris 10 1/13 安装指南:JumpStart 安装》中的第 3  章 "准备 JumpStart 安装(任务)"

    1. 确保默认的 class 文件会安装所有需要的 Oracle Solaris 软件包。

      请参见步骤 15

    2. 将您的结束脚本命名为 finish
    3. 对您希望 finish 脚本执行的安装后任务进行修改。
    4. 将您的 finish 脚本复制到每个 jumpstart-dir/autoscinstall.d/nodes/ node 目录。

      为群集中的每个节点创建一个 node 目录。或者,使用此命名约定创建指向共享 finish 脚本的符号链接。

  17. 从 JumpStart 安装服务器退出。
  18. 如果要在新群集的专用互连中使用交换机,请确保邻居发现协议 (Neighbor Discovery Protocol, NDP) 处于禁用状态。

    请按照交换机文档中的过程来确定 NDP 是否处于启用状态,如果是,则禁用 NDP。

    在配置群集期间,软件将检查专用互连中是否不存在通信流量。如果在检查专用互连通信流量时,NDP 向专用适配器发送任何软件包,则该软件将认为此互连不是专用的,并且将中断群集配置。因此,在创建群集期间,必须禁用 NDP。

    建立群集后,如果要使用该功能,可以对专用互连交换机重新启用 NDP 。

  19. 如果使用的是群集管理控制台,请为群集中的每个节点显示一个控制台屏幕。
    • 如果您的管理控制台上安装并配置了群集控制面板 (Cluster Control Panel, CCP) 软件,则可使用 cconsole(1M) 实用程序显示各个控制台屏幕。

      以超级用户身份使用以下命令启动 cconsole 实用程序:

      adminconsole# /opt/SUNWcluster/bin/cconsole clustername &

      cconsole 实用程序还将打开一个主窗口,您可以从该主窗口将您输入的内容同时发送到每个控制台窗口。

    • 如果未使用 cconsole 实用程序,请分别连接到每个节点的控制台。
  20. 关闭各个节点。
    phys-schost# shutdown -g0 -y -i0
  21. 引导每个节点以启动 JumpStart 安装。
    • 在基于 SPARC 的系统上,执行以下命令:
      ok boot net - install

      注 - 命令中破折号 (-) 的两端需加空格。


    • 在基于 x86 的系统上,执行以下命令:
      1. 按任意键开始引导序列。
        Press any key to reboot.
        keystroke
      2. 一旦出现 BIOS 信息屏幕,立即按下 Esc+2 或 F2 键。

        初始化序列完成后,将出现 BIOS 设置实用程序屏幕。

      3. 在 "BIOS Setup Utility" 菜单栏中,导航到 "Boot" 菜单项。

        此时将显示引导设备列表。

      4. 导航到与 JumpStart PXE 安装服务器连接到同一网络的列出的 IBA,然后将其移动到引导顺序的第一位。

        IBA 引导选项右侧的最小数对应于较低的 Ethernet 端口号。IBA 引导选项右侧的较高数对应于较高的 Ethernet 端口号。

      5. 保存更改,然后退出 BIOS。

        引导序列重新开始。执行进一步处理后,显示 GRUB 菜单。

      6. 立即选择 Oracle Solaris JumpStart 条目,然后按 Enter 键。

        注 - 如果 Oracle Solaris JumpStart 条目是列出的唯一条目,可以选择等待选择屏幕超时。如果您在 30 秒内未响应,系统将自动继续引导序列。


        执行进一步处理后,显示安装类型菜单。

      7. 从安装类型菜单,直接键入 "Custom JumpStart"(定制 JumpStart)的菜单编号。

        注 - 如果在 30 秒超时期结束之前,您未键入 "Custom JumpStart"(定制 JumpStart)的编号,系统将自动开始 Oracle Solaris 交互式安装。


        JumpStart 将在每个节点上安装 Oracle Solaris OS 和 Oracle Solaris Cluster 软件。当安装成功完成后,每个节点将被完全安装为一个新的群集节点。安装 Oracle Solaris Cluster 时的输出信息记录在/var/cluster/logs/install/scinstall.log. N 文件中。

      8. 再次出现 BIOS 屏幕时,立即按下 Esc+2 或 F2 键。

        注 - 如果此时未中断 BIOS,它将自动返回安装类型菜单。如果在 30 秒内未键入选择,系统将自动开始交互式安装。


        执行进一步处理后,显示 BIOS 设置实用程序。

      9. 在菜单栏中,导航到 "Boot" 菜单。

        此时将显示引导设备列表。

      10. 导航到 "Hard Drive" 条目,并将其移回引导顺序的第一位。
      11. 保存更改,然后退出 BIOS。

        引导序列重新开始。无需与 GRUB 菜单进一步交互便可结束引导进入群集模式。

  22. 在每个节点上检验服务管理工具 (Service Management Facility, SMF) 的多用户服务是否处于联机状态。

    如果某个节点上的服务尚未处于联机状态,请等待直到状态变为联机后,再继续执行下一步。

    phys-schost# svcs multi-user-server node
    STATE          STIME    FMRI
    online         17:52:55 svc:/milestone/multi-user-server:default
  23. 如果要将新节点安装到现有群集,请针对所有现有群集文件系统,在该新节点上创建挂载点。
    1. 从另一活动群集节点中显示所有群集文件系统的名称。
      phys-schost# mount | grep global | egrep -v node@ | awk '{print $1}'
    2. 在添加到群集的节点上,为群集中的每个群集文件系统创建一个挂载点。
      phys-schost-new# mkdir -p mountpoint

      例如,如果 mount 命令返回的文件系统名称为 /global/dg-schost-1,请在即将添加到群集的节点上运行 mkdir - p /global/dg-schost-1


      注 - 当您在步骤 27 中重新引导群集后,这些挂载点将成为活动状态。


  24. 如果要在具有高可用性的本地文件系统上使用 Oracle Solaris Cluster HA for NFS (HA for NFS),请确保禁用了回送文件系统 (Loopback File System, LOFS)。

    要禁用 LOFS,请将以下条目添加到群集每个节点上的 /etc/system 文件中。

    exclude:lofs

    系统下次重新引导后对 /etc/system 文件的更改才生效。


    注 - 如果在具有高可用性的本地文件系统上使用 HA for NFS 运行 automountd,则不能启用 LOFS。LOFS 会导致 HA for NFS 出现切换问题。如果选择在具有高可用性的本地文件系统上添加 HA for NFS,您必须执行下面的其中一项配置更改。

    但是,如果在群集中配置非全局区域,则必须在所有群集节点上都启用 LOFS。如果具有高可用性的本地文件系统上的 HA for NFS 必须与 LOFS 共存,则可以使用其他解决方案来代替禁用 LOFS。

    • 禁用 LOFS。

    • 禁用 automountd 守护进程。

    • 从自动安装程序映射中排除属于由 HA for NFS 导出的具有高可用性的本地文件系统的所有文件。利用此选项可以让 LOFS 和 automountd 守护进程同时处于启用状态。


    有关回送文件系统的更多信息,请参见《System Administration Guide: Devices and File Systems》中的"The Loopback File System"

  25. 如果将以下任何适配器用于群集互连,则需要在每个节点上取消注释 /etc/system 文件中的相关条目。
    适配器
    条目
    ipge
    set ipge:ipge_taskq_disable=1
    ixge
    set ixge:ixge_taskq_disable=1

    此条目在下次重新引导系统后生效。

  26. x86: 设置默认的引导文件。

    如果无法访问登录提示,该值的设置使您能够重新引导节点。

    grub edit> kernel /platform/i86pc/multiboot kmdb
  27. 如果您执行了要求重新引导群集的任务,请按照以下步骤重新引导群集。

    下面是一些需要重新引导的任务:

    • 向现有群集中添加新节点

    • 安装要求重新引导节点或群集的修补程序

    • 对配置进行需要重新引导以便激活的更改

    1. 在一个节点上成为超级用户。
    2. 关闭群集。
      phys-schost-1# cluster shutdown -y -g0 clustername

      注 - 只有等到群集关闭之后,才能重新引导群集中第一个安装的节点。禁用群集安装模式前,只有建立群集的第一个安装节点才有法定选票。在所建立的、仍处于安装模式的群集中,如果在重新引导第一个安装的节点前未关闭群集,则其余群集节点将无法获得法定投票。然后整个群集将关闭。

      这些群集节点会一直处在安装模式下,直到您首次运行 clsetup 命令为止。您将在执行如何配置法定设备过程期间运行此命令。


    3. 重新引导群集中的每个节点。

    scinstall 实用程序用于安装和配置所有群集节点并重新引导群集。将所有节点成功引导到群集中之后,即建立了群集。安装 Oracle Solaris Cluster 时的输出信息记录在 /var/cluster/logs/install/scinstall.log.N 文件中。

  28. 可选如果您未执行步骤 27 来重新引导节点,请手动在每个节点上启动 Oracle Java Web Console Web 服务器。
    phys-schost# smcwebserver start

    有关更多信息,请参见 smcwebserver(1M) 手册页。

  29. 从一个节点上,检验是否所有节点都已加入群集。
    phys-schost# clnode status

    输出类似于以下内容。

    === Cluster Nodes ===
    
    --- Node Status ---
    
    Node Name                                       Status
    ---------                                       ------
    phys-schost-1                                   Online
    phys-schost-2                                   Online
    phys-schost-3                                   Online

    有关更多信息,请参见 clnode(1CL) 手册页。

  30. 可选在每个节点上,启用当所有受监视的共享磁盘路径都发生故障时的节点自动重新引导功能。

    注 - 在初始配置时,默认对搜索到的所有设备启用磁盘路径监视。


    1. 启用自动重新引导。
      phys-schost# clnode set -p reboot_on_path_failure=enabled
      -p

      指定要设置的属性

      reboot_on_path_failure=enable

      如果所有监视的共享磁盘路径发生故障,则启用自动节点重新引导。

    2. 检验是否启用了磁盘路径发生故障时的自动重新引导功能。
      phys-schost# clnode show
      === Cluster Nodes ===                          
      
      Node Name:                                      node
      …
        reboot_on_path_failure:                          enabled
      …

接下来的步骤

如果向一个双节点群集中添加了节点,请转至如何在向全局群集中添加节点后更新法定设备

否则,转至下一个相应过程:

故障排除

已禁用 scinstall 选项-如果 scinstall 命令的 JumpStart 选项前面没有星号,则该选项处于禁用状态。这种情况表明 JumpStart 设置未完成或设置出错。要纠正这种情况,请首先退出 scinstall 实用程序。重新执行步骤 1步骤 16 以更正 JumpStart 设置,然后重新启动 scinstall 实用程序。

如何在添加全局群集节点之前做好群集准备工作

要在添加新的群集节点之前做好群集准备工作,请在现有的全局群集节点上执行以下过程。

开始之前

执行以下任务:

  1. 如果您使用群集控制面板 (Cluster Control Panel, CCP),请在管理控制台上更新配置文件。
    1. 将您要添加的节点的名称添加到 /etc/clusters 文件中的群集条目。
    2. 将具有新节点名称、节点控制台访问设备主机名和端口号的条目添加到 /etc/serialports 文件。
  2. 将新节点的名称添加到群集的授权节点列表中。
    1. 在任一节点上成为超级用户。
    2. 启动 clsetup 实用程序。
      phys-schost# clsetup

      这时将显示主菜单。

    3. 选择 "New Nodes"(新节点)菜单项。
    4. 选择 "Specify the Name of a Machine Which May Add Itself"(指定可以添加自己的计算机的名称)菜单项。
    5. 按照提示操作,将节点名称添加到验证过的机器列表中。

      如果任务已完成而没有出现错误,则 clsetup 实用程序将显示消息 "Command completed successfully"。

    6. 退出 clsetup 实用程序。
  3. 如果要向单节点群集中添加节点,请通过显示互连配置确保已存在两个群集互连。
    phys-schost# clinterconnect show

    添加节点之前,必须具有已配置的至少两条电缆或两个适配器。

    • 如果输出中显示了两根电缆或两个适配器的配置信息,请继续执行步骤 4
    • 如果输出中没有显示电缆或适配器的配置信息,或者只显示了一根电缆或一个适配器的配置信息,请配置新的群集互连。
      1. 在一个节点上启动 clsetup 实用程序。
        phys-schost# clsetup
      2. 选择 "Cluster Interconnect"(群集互连)菜单项。
      3. 选择 "Add a Transport Cable"(添加传输电缆)菜单项。

        按照说明指定要添加到群集中的节点的名称、传输适配器的名称以及是否使用传输交换机。

      4. 如有必要,请重复执行步骤 c 以便再配置一个群集互连。
      5. 完成后,退出 clsetup 实用程序。
      6. 验证群集现在是否已配置两个群集互连。
        phys-schost# clinterconnect show

        命令输出结果应该显示至少两个群集互连的配置信息。

  4. 确保专用网络配置可支持要添加的节点和专用网络。
    1. 显示当前专用网络配置支持的最大节点数、最大专用网络数和最大区域群集数。
      phys-schost# cluster show-netprops

      输出类似于以下内容:

      === Private Network ===                        
      
      private_netaddr:                                172.16.0.0
        private_netmask:                                255.255.240.0
        max_nodes:                                      64
        max_privatenets:                                10
        max_zoneclusters:                               12
    2. 确定当前的专用网络配置能否支持增加的节点数(包括非全局区域数)和专用网络数。

接下来的步骤

在新群集节点上配置 Oracle Solaris Cluster 软件。转至如何在附加全局群集节点上配置 Oracle Solaris Cluster 软件 (scinstall)如何在附加全局群集节点上配置 Oracle Solaris Cluster 软件 (XML)

如何在添加节点或专用网络时更改专用网络配置

执行此任务可更改全局群集的专用 IP 地址范围,以适应下列一个或多个群集组件数量的增加:

此过程也可以用来缩小专用 IP 地址范围。


注 - 该过程需要关闭整个群集。如果只需要更改网络掩码(例如,为了添加区域群集支持),请勿执行此过程。而应改而从在群集模式下运行的全局群集节点中运行以下命令,以指定预期的区域群集数量:

phys-schost# cluster set-netprops num_zoneclusters=N

该命令无需关闭群集。


开始之前

确保对所有群集节点启用了 超级用户的远程 shell (rsh(1M)) 或安全 shell (ssh(1)) 访问权限 。

  1. 成为群集中一个节点上的超级用户。
  2. 从一个节点启动 clsetup 实用程序。
    # clsetup

    屏幕上将显示 clsetup 主菜单。

  3. 使每个资源组脱机。

    如果节点包含非全局区域,则这些区域中的所有资源组也被切换到脱机状态。

    1. 键入与 "Resource groups"(资源组)选项对应的编号,然后按回车键。

      将显示 "Resource Group"(资源组)菜单。

    2. 键入与 "Online/Offline or Switchover a resource group"(使资源组处于联机/脱机状况或在两种状态间切换)选项对应的编号,然后按回车键。
    3. 按照提示使所有资源组脱机并将其置于不受管理状态。
    4. 所有资源组都脱机后,键入 q 返回到 "Resource Group"(资源组)菜单。
  4. 禁用群集中的所有资源。
    1. 键入与 "Enable/Disable a resource"(启用/禁用资源)选项对应的编号,然后按回车键。
    2. 选择要禁用的资源,然后按照提示进行操作。
    3. 对每个要禁用的资源重复执行上一步骤。
    4. 所有资源都禁用后,键入 q 返回到 "Resource Group"(资源组)菜单。
  5. 退出 clsetup 实用程序。
  6. 检验是否所有节点上的所有资源都处于 Offline 状态,以及是否所有资源组都处于 Unmanaged 状态。
    # cluster status -t resource,resourcegroup
    -t

    限定为仅输出指定的群集对象

    resource

    指定资源

    resourcegroup

    指定资源组

  7. 从一个节点,关闭群集。
    # cluster shutdown -g0 -y
    -g

    指定等待时间(以秒为单位)

    -y

    禁止发出用于询问您是否确认要关闭的提示

  8. 将各个节点都引导成非群集模式。
    • 在基于 SPARC 的系统上,执行以下命令:
      ok boot -x
    • 在基于 x86 的系统上,执行以下命令:
      1. 在 GRUB 菜单中,使用方向键选择适当的 Oracle Solaris 条目,然后键入 e 编辑其命令。

        有关基于 GRUB 的引导的更多信息,请参见《Oracle Solaris 管理:基本管理》中的"使用 GRUB 引导基于 x86 的系统(任务列表)"

      2. 在引导参数屏幕中,使用方向键选择 kernel 项,然后键入 e 以编辑该项。
      3. 在命令中添加 -x 以指定将系统引导至非群集模式。
      4. 按 Enter 键接受更改,并返回到引导参数屏幕。

        屏幕将显示编辑后的命令。

      5. 键入 b 将节点引导至非群集模式。

        注 - 对内核引导参数命令所做的这一更改在系统引导后将失效。下次重新引导节点时,系统将引导至群集模式。如果希望引导至非群集模式,请执行上述步骤以再次将 -x 选项添加到内核引导参数命令中。


  9. 从一个节点启动 clsetup 实用程序。

    在非群集模式下运行时,clsetup 实用程序会为非群集模式操作显示主菜单。

  10. 键入与 "Change Network Addressing and Ranges for the Cluster Transport"(更改群集传输的网络寻址和范围)选项对应的编号,然后按回车键。

    clsetup 实用程序显示当前的专用网络配置,然后询问您是否要更改此配置。

  11. 要更改专用网络 IP 地址或 IP 地址范围,请键入 yes,然后按回车键。

    clsetup 实用程序将显示默认的专用网络 IP 地址 172.16.0.0,并询问您是否接受此默认值。

  12. 更改或接受此专用网络 IP 地址。
    • 要接受默认的专用网络 IP 地址并继续进行 IP 地址范围更改,请键入 yes,然后按回车键。

      clsetup 实用程序将询问您是否接受默认网络掩码。请跳至下一步输入您的响应。

    • 要更改默认专用网络 IP 地址,请执行以下子步骤。
      1. 对于 clsetup 实用程序询问的是否接受默认地址的问题,键入 no 作为响应,然后按回车键。

        clsetup 实用程序将提示您输入新的专用网络 IP 地址。

      2. 键入新的 IP 地址,然后按回车键。

        clsetup 实用程序会显示默认网络掩码,然后询问您是否接受该默认网络掩码。

  13. 更改或接受默认的专用网络 IP 地址范围。

    默认网络掩码为 255.255.240.0。此默认 IP 地址范围支持在群集中包含最多 64 个节点、12 个区域群集和 10 个专用网络。

    • 要接受该默认 IP 地址范围,请键入 yes,然后按回车键。

      然后跳至下一步。

    • 要更改 IP 地址范围,请执行以下子步骤。
      1. 对于 clsetup 实用程序询问的是否接受默认地址范围的问题,键入 no 作为响应,然后按回车键。

        当您拒绝默认网络掩码时,clsetup 实用程序将提示您输入要在群集中配置的节点、专用网络和区域群集的数量。

      2. 输入您期望在群集中配置的节点、专用网络和区域群集的数目。

        clsetup 实用程序将根据这些数字计算出两个网络掩码供选择:

        • 第一个网络掩码是支持指定节点、专用网络和区域群集数目的最小网络掩码。

        • 第二个网络掩码可支持两倍于指定值的节点、专用网络和区域群集数目,从而适应未来可能出现的增长情况。

      3. 指定上述任一网络掩码,或另外指定一个可支持预期节点、专用网络和区域群集数目的网络掩码。
  14. 对于 clsetup 实用程序询问的是否继续进行更新的问题,键入 yes 作为响应。
  15. 完成后,退出 clsetup 实用程序。
  16. 将每个节点重新引导回群集模式。
    1. 关闭各个节点。
      # shutdown -g0 -y
    2. 将每个节点都引导到群集模式下。
  17. 从一个节点启动 clsetup 实用程序。
    # clsetup

    屏幕上将显示 clsetup 主菜单。

  18. 重新启用所有禁用的资源。
    1. 键入与 "Resource groups"(资源组)选项对应的编号,然后按回车键。

      将显示 "Resource Group"(资源组)菜单。

    2. 键入与 "Enable/Disable a resource"(启用/禁用资源)选项对应的编号,然后按回车键。
    3. 选择要启用的资源,然后按照提示操作。
    4. 对每个禁用的资源重复上述步骤。
    5. 所有资源都重新启用之后,键入 q 返回到 "Resource Group"(资源组)菜单。
  19. 使每个资源组重新联机。

    如果节点包含非全局区域,还应使这些区域内的所有资源组联机。

    1. 键入与 "Online/Offline or Switchover a resource group"(使资源组处于联机/脱机状况或在两种状态间切换)选项对应的编号,然后按回车键。
    2. 按照提示将各个资源组置入被管理状态,然后使资源组联机。
  20. 在所有资源组都重新联机之后,退出 clsetup 实用程序。

    键入 q 退出每个子菜单,或者按 Ctrl-C。

接下来的步骤

要向现有的群集中添加节点,请转至以下过程之一:

要在群集节点上创建非全局区域,请转至在全局群集节点上配置非全局区域

如何在附加全局群集节点上配置 Oracle Solaris Cluster 软件 (scinstall)

执行此过程,向现有全局群集中添加新节点。要使用 JumpStart 添加新节点,请改为遵循如何安装 Oracle Solaris 和 Oracle Solaris Cluster 软件 (JumpStart)中的过程。


注 - 此过程使用的是 scinstall 命令的交互形式。要使用 scinstall 命令的非交互形式(例如在开发安装脚本时),请参见 scinstall(1M) 手册页。

确保在运行 scinstall 命令之前,在节点上安装了 Oracle Solaris Cluster 软件包(无论是通过手动形式还是使用 installer 程序的无提示模式)。有关从安装脚本运行 installer 程序的信息,请参见《Sun Java Enterprise System 5 Update 1 Installation Guide for UNIX》中的第 5  章 "Installing in Silent Mode"


开始之前

执行以下任务:

按照以下准则在此过程中使用交互式的 scinstall 实用程序:

  1. 在要进行配置的群集节点上成为超级用户。
  2. 启动 scinstall 实用程序。
    phys-schost-new# /usr/cluster/bin/scinstall

    将显示 scinstall 的主菜单。

  3. 键入 "Create a New Cluster or Add a Cluster Node"(创建新群集或添加群集节点)所对应的选项号并按回车键。
      *** Main Menu ***
    
        Please select from one of the following (*) options:
    
          * 1) Create a new cluster or add a cluster node
            2) Configure a cluster to be JumpStarted from this install server
            3) Manage a dual-partition upgrade
            4) Upgrade this cluster node
          * 5) Print release information for this cluster node
    
          * ?) Help with menu options
          * q) Quit
    
        Option:  1

    将显示 "New Cluster and Cluster Node"(新建群集和群集节点)菜单。

  4. 键入 "Add This Machine as a Node in an Existing Cluster"(将此计算机添加为现有群集中的节点)所对应的选项号并按回车键。
  5. 按照菜单提示给出您的答案 ,所做回答应依据于您在配置规划工作单中填写的内容。

    scinstall 实用程序可配置节点并将该节点引导到群集中。

  6. 从 DVD-ROM 驱动器中取出 DVD-ROM。
    1. 为了确保 DVD-ROM 未在使用,请转到在 DVD-ROM 上的目录。
    2. 弹出 DVD-ROM。
      phys-schost# eject cdrom
  7. 在所有其他节点上重复此过程以将其添加到群集中,直到完全配置了这些节点。
  8. 在每个节点上检验服务管理工具 (Service Management Facility, SMF) 的多用户服务是否处于联机状态。

    如果某个节点上的服务尚未处于联机状态,请等待直到状态变为联机后,再继续执行下一步。

    phys-schost# svcs multi-user-server node
    STATE          STIME    FMRI
    online         17:52:55 svc:/milestone/multi-user-server:default
  9. 在活动的群集成员中,禁止任何其他节点加入该群集。
    phys-schost# claccess deny-all

    或者,您也可以使用 clsetup 实用程序。有关过程,请参见《Oracle Solaris Cluster 系统管理指南》中的"如何向现有群集添加节点"

  10. 从一个节点上,检验是否所有节点都已加入群集。
    phys-schost# clnode status

    输出类似于以下内容。

    === Cluster Nodes ===
    
    --- Node Status ---
    
    Node Name                                       Status
    ---------                                       ------
    phys-schost-1                                   Online
    phys-schost-2                                   Online
    phys-schost-3                                   Online

    有关更多信息,请参见 clnode(1CL) 手册页。

  11. 验证是否安装了所有必需的修补程序。
    phys-schost# showrev -p
  12. 可选启用当所有受监视的共享磁盘路径都发生故障时的节点自动重新引导功能。

    注 - 在初始配置时,默认对搜索到的所有设备启用磁盘路径监视。


    1. 启用自动重新引导。
      phys-schost# clnode set -p reboot_on_path_failure=enabled
      -p

      指定要设置的属性

      reboot_on_path_failure=enable

      如果所有监视的共享磁盘路径发生故障,则启用自动节点重新引导。

    2. 检验是否启用了磁盘路径发生故障时的自动重新引导功能。
      phys-schost# clnode show
      === Cluster Nodes ===                          
      
      Node Name:                                      node
      …
        reboot_on_path_failure:                          enabled
      …
  13. 如果要在具有高可用性的本地文件系统上使用 Oracle Solaris Cluster HA for NFS (HA for NFS),请确保禁用了回送文件系统 (Loopback File System, LOFS)。

    要禁用 LOFS,请将以下条目添加到群集每个节点上的 /etc/system 文件中。

    exclude:lofs

    系统下次重新引导后对 /etc/system 文件的更改才生效。


    注 - 如果在具有高可用性的本地文件系统上使用 HA for NFS 运行 automountd,则不能启用 LOFS。LOFS 会导致 HA for NFS 出现切换问题。如果选择在具有高可用性的本地文件系统上添加 HA for NFS,您必须执行下面的其中一项配置更改。

    但是,如果在群集中配置非全局区域,则必须在所有群集节点上都启用 LOFS。如果具有高可用性的本地文件系统上的 HA for NFS 必须与 LOFS 共存,则可以使用其他解决方案来代替禁用 LOFS。

    • 禁用 LOFS。

    • 禁用 automountd 守护进程。

    • 从自动安装程序映射中排除属于由 HA for NFS 导出的具有高可用性的本地文件系统的所有文件。利用此选项可以让 LOFS 和 automountd 守护进程同时处于启用状态。


    有关回送文件系统的更多信息,请参见《System Administration Guide: Devices and File Systems》中的"The Loopback File System"

示例 3-3 在新增的节点上配置 Oracle Solaris Cluster 软件

以下示例显示了如何将节点 phys-schost-3 添加到群集 schost 中。发起节点为 phys-schost-1

*** Adding a Node to an Existing Cluster ***
Fri Feb  4 10:17:53 PST 2005


scinstall -ik -C schost -N phys-schost-1 -A trtype=dlpi,name=bge2 -A trtype=dlpi,name=bge3 
-m endpoint=:bge2,endpoint=switch1 -m endpoint=:bge3,endpoint=switch2


Checking device to use for global devices file system ... done

Adding node "phys-schost-3" to the cluster configuration ... done
Adding adapter "bge2" to the cluster configuration ... done
Adding adapter "bge3" to the cluster configuration ... done
Adding cable to the cluster configuration ... done
Adding cable to the cluster configuration ... done

Copying the config from "phys-schost-1" ... done

Copying the postconfig file from "phys-schost-1" if it exists ... done
Copying the Common Agent Container keys from "phys-schost-1" ... done


Setting the node ID for "phys-schost-3" ... done (id=1)

Setting the major number for the "did" driver ... 
Obtaining the major number for the "did" driver from "phys-schost-1" ... done
"did" driver major number set to 300

Checking for global devices global file system ... done
Updating vfstab ... done

Verifying that NTP is configured ... done
Initializing NTP configuration ... done

Updating nsswitch.conf ... 
done

Adding clusternode entries to /etc/inet/hosts ... done


Configuring IP Multipathing groups in "/etc/hostname.<adapter>" files

Updating "/etc/hostname.hme0".

Verifying that power management is NOT configured ... done

Ensure that the EEPROM parameter "local-mac-address?" is set to "true" ... done
The "local-mac-address?" parameter setting has been changed to "true".

Ensure network routing is disabled ... done

Updating file ("ntp.conf.cluster") on node phys-schost-1 ... done
Updating file ("hosts") on node phys-schost-1 ... done

Rebooting ... 

故障排除

不成功的配置-如果一个或多个节点无法加入群集,或者指定了错误的配置信息,请首先尝试返回此过程。如果不能解决问题,请在每个配置有误的节点上执行如何取消 Oracle Solaris Cluster 软件的配置以更正安装问题过程,以将该节点从群集配置中删除。无需卸载 Oracle Solaris Cluster 软件包。然后重新运行此过程。

接下来的步骤

如果向使用法定设备的现有群集中添加了节点,请转至如何在向全局群集中添加节点后更新法定设备

否则,请转至如何检验法定配置和安装模式

如何在附加全局群集节点上配置 Oracle Solaris Cluster 软件 (XML)

请执行以下过程,以便使用 XML 群集配置文件来配置新的全局群集节点。新节点可以是运行 Oracle Solaris Cluster 3.3 3/13 软件的某个现有群集节点的副本。

此过程将对新节点上的下列群集组成部分进行配置:

开始之前

执行以下任务:

  1. 确保要添加到群集中的潜在节点上尚未配置 Oracle Solaris Cluster 软件。
    1. 在潜在节点上成为超级用户。
    2. 确定潜在节点上是否配置了 Oracle Solaris Cluster 软件。
      phys-schost-new# /usr/sbin/clinfo -n
      • 如果该命令失败,请转至步骤 2

        节点上尚未配置 Oracle Solaris Cluster 软件。可以将潜在节点添加到群集中。

      • 如果命令返回节点 ID 号,请继续执行步骤 c

        已在该节点上配置 Oracle Solaris Cluster 软件。必须先删除现有的群集配置信息,然后才能将节点添加到其他群集中。

    3. 引导潜在节点进入非群集模式。
      • 在基于 SPARC 的系统上,执行以下命令:
        ok boot -x
      • 在基于 x86 的系统上,执行以下命令:
        1. 在 GRUB 菜单中,使用方向键选择适当的 Oracle Solaris 条目,然后键入 e 编辑其命令。

          有关基于 GRUB 的引导的更多信息,请参见《Oracle Solaris 管理:基本管理》中的"使用 GRUB 引导基于 x86 的系统(任务列表)"

        2. 在引导参数屏幕中,使用方向键选择 kernel 项,然后键入 e 以编辑该项。
        3. 在命令中添加 -x 以指定将系统引导至非群集模式。
        4. 按 Enter 键接受更改,并返回到引导参数屏幕。

          屏幕将显示编辑后的命令。

        5. 键入 b 将节点引导至非群集模式。

          注 - 对内核引导参数命令所做的这一更改在系统引导后将失效。下次重新引导节点时,系统将引导至群集模式。如果希望引导至非群集模式,请执行上述步骤以再次将 -x 选项添加到内核引导参数命令中。


    4. 在潜在节点上取消对 Oracle Solaris Cluster 软件的配置。
      phys-schost-new# /usr/cluster/bin/clnode remove
  2. 如果要复制运行 Oracle Solaris Cluster 3.3 3/13 软件的某个节点,请创建一个群集配置 XML 文件。
    1. 在要复制的群集节点上成为超级用户。
    2. 将现有节点的配置信息导出到一个文件中。
      phys-schost# clnode export -o clconfigfile
      -o

      指定输出目标。

      clconfigfile

      群集配置 XML 文件的名称。所指定的文件名可以是一个现有文件,也可以是一个将使用上述命令创建的新文件。

      有关更多信息,请参见 clnode(1CL) 手册页。

    3. 将群集配置 XML 文件复制到要配置为新群集节点的潜在节点上。
  3. 在潜在节点上成为超级用户。
  4. 根据需要修改群集配置 XML 文件。
    1. 打开群集配置 XML 文件进行编辑。
      • 如果要复制现有的群集节点,请打开借助于 clnode export 命令创建的文件。
      • 如果不打算复制现有的群集节点,请创建一个新文件。

        请基于 clconfiguration(5CL) 手册页中显示的元素分层结构来编辑该文件。可将该文件存储到任意目录下。

    2. 修改 XML 元素的值,以反映要创建的节点配置。

      有关群集配置 XML 文件在结构和内容方面的详细信息,请参见 clconfiguration(5CL) 手册页。

  5. 验证群集配置 XML 文件。
    phys-schost-new# xmllint --valid --noout clconfigfile
  6. 配置新群集节点。
    phys-schost-new# clnode add -n sponsornode -i clconfigfile
    -n sponsornode

    指定一个现有群集成员的名称,该成员将作为新节点的发起节点。

    -i clconfigfile

    指定要用作输入源的群集配置 XML 文件的名称。

  7. 可选启用当所有受监视的共享磁盘路径都发生故障时的节点自动重新引导功能。

    注 - 在初始配置时,默认对搜索到的所有设备启用磁盘路径监视。


    1. 启用自动重新引导。
      phys-schost# clnode set -p reboot_on_path_failure=enabled
      -p

      指定要设置的属性

      reboot_on_path_failure=enable

      如果所有监视的共享磁盘路径发生故障,则启用自动节点重新引导。

    2. 检验是否启用了磁盘路径发生故障时的自动重新引导功能。
      phys-schost# clnode show
      === Cluster Nodes ===                          
      
      Node Name:                                      node
      …
        reboot_on_path_failure:                          enabled
      …

故障排除

不成功的配置-如果一个或多个节点无法加入群集,或者指定了错误的配置信息,请首先尝试返回此过程。如果不能解决问题,请在每个配置有误的节点上执行如何取消 Oracle Solaris Cluster 软件的配置以更正安装问题过程,以将该节点从群集配置中删除。无需卸载 Oracle Solaris Cluster 软件包。然后重新运行此过程。

接下来的步骤

如果已经向某个使用法定设备的群集中添加了节点,请转至如何在向全局群集中添加节点后更新法定设备

否则,请转至如何检验法定配置和安装模式

如何在向全局群集中添加节点后更新法定设备

如果向全局群集中添加了节点,那么,无论您使用的是共享磁盘、NAS 设备、法定服务器还是它们的组合,您都必须更新法定设备的配置信息。为此,您应删除所有的法定设备并更新全局设备名称空间。您可以重新配置仍要使用的任何法定设备(可选操作)。此更新将向每个法定设备注册新节点,从而使法定设备能够根据群集中节点的新数量重新计算其选票计数。

任何新配置的 SCSI 法定设备都会被设置为 SCSI-3 预留空间。

开始之前

确保在添加的节点上已经完成了 Oracle Solaris Cluster 软件的安装。

  1. 在群集中的任一节点上成为超级用户。
  2. 确保所有群集节点均联机。
    phys-schost# cluster status -t node
  3. 查看当前的法定配置。

    命令输出中将列出每个法定设备和每个节点。以下输出示例中显示出了当前的 SCSI 法定设备 d3

    phys-schost# clquorum list
    d3
    …
  4. 记下列出的每个法定设备的名称。
  5. 删除原始法定设备。

    对已配置的每个法定设备执行此步骤。

    phys-schost# clquorum remove devicename
    devicename

    指定法定设备的名称。

  6. 检验是否删除了所有原始法定设备。

    如果法定设备删除成功,将不会列出任何法定设备。

    phys-schost# clquorum status
  7. 更新全局设备名称空间。
    phys-schost# cldevice populate

    注 - 必须执行此步骤以防止可能发生的节点紊乱。


  8. 尝试添加法定设备之前,请先在每个节点上检验 cldevice populate 命令是否已完成处理。

    即使仅从一个节点中发出 cldevice populate 命令,该命令也会以远程方式在所有节点上执行。要确定 cldevice populate 命令是否已完成处理过程,请在群集的每个节点上运行以下命令。

    phys-schost# ps -ef | grep scgdevs
  9. 可选添加法定设备。

    可以对原来配置为法定设备的同一台设备进行配置,也可以选择新的共享设备进行配置。

    1. 可选如果您希望选择新的共享设备以将其配置为法定设备,请显示系统检查到的所有设备。

      否则,请跳至步骤 c

      phys-schost# cldevice list -v

      输出类似于以下内容:

      DID Device          Full Device Path
      ----------          ----------------
      d1                  phys-schost-1:/dev/rdsk/c0t0d0
      d2                  phys-schost-1:/dev/rdsk/c0t6d0
      d3                  phys-schost-2:/dev/rdsk/c1t1d0
      d3                  phys-schost-1:/dev/rdsk/c1t1d0 
      …
    2. 从输出中,选择一个共享设备将其配置为法定设备。
    3. 将共享设备配置为法定设备。
      phys-schost# clquorum add -t type devicename
      -t type

      指定法定设备的类型。如果未指定此选项,将使用默认类型 shared_disk

    4. 对需要配置的每个法定设备重复执行上述操作。
    5. 检验新的法定配置。
      phys-schost# clquorum list

      输出结果中应列出每个法定设备和每个节点。

示例 3-4 向双节点群集中添加节点后更新 SCSI 法定设备

下面的示例依次执行了以下操作:确定原始 SCSI 法定设备 d2;删除该法定设备;列出可用的共享设备;更新全局设备名称空间;将 d3 配置为新的 SCSI 法定设备;检验新设备。

phys-schost# clquorum list
d2
phys-schost-1
phys-schost-2

phys-schost# clquorum remove d2
phys-schost# clquorum status
…
--- Quorum Votes by Device ---

Device Name       Present      Possible      Status
-----------       -------      --------      ------

phys-schost# cldevice list -v
DID Device          Full Device Path
----------          ----------------
…
d3                  phys-schost-2:/dev/rdsk/c1t1d0
d3                  phys-schost-1:/dev/rdsk/c1t1d0
…
phys-schost# cldevice populate
phys-schost# ps -ef - grep scgdevs
phys-schost# clquorum add d3
phys-schost# clquorum list
d3
phys-schost-1
phys-schost-2

接下来的步骤

请转至如何检验法定配置和安装模式

如何配置法定设备


注 - 在以下几种情况下不需要配置法定设备:

应继续执行如何检验法定配置和安装模式中的过程。


仅在完全形成新群集后执行一次该过程。使用此过程以指定法定选票并使群集脱离安装模式。

开始之前

  1. 如果满足以下两个条件,请在每个群集节点上修改公共网络的网络掩码文件条目。
    • 准备使用法定服务器。

    • 公共网络使用长度可变的子网掩码,也称为无类域间路由 (Classless Inter Domain Routing, CIDR)。

    如果您使用了法定服务器,但是公共网络使用了有类子网(如 RFC 791 中所定义),则无需执行本步骤。

    1. /etc/inet/netmasks 文件中,为群集所使用的每个公共子网添加一个相应的条目。

      以下是一个包含公共网络 IP 地址和网络掩码的条目示例:

      10.11.30.0    255.255.255.0
    2. netmask + broadcast + 添加到每个 /etc/hostname.adapter 文件中主机名条目的后面。
      nodename netmask + broadcast +
  2. 在一个节点上成为超级用户。
  3. 确保所有群集节点均联机。
    phys-schost# cluster status -t node
  4. 要将共享磁盘用作法定设备,请检验设备与群集节点是否已连接并选择要配置的设备。
    1. 在群集的一个节点中,显示系统所检查的全部设备的列表。

      运行此命令无需超级用户身份。

      phys-schost-1# cldevice list -v

      输出类似于以下内容:

      DID Device          Full Device Path
      ----------          ----------------
      d1                  phys-schost-1:/dev/rdsk/c0t0d0
      d2                  phys-schost-1:/dev/rdsk/c0t6d0
      d3                  phys-schost-2:/dev/rdsk/c1t1d0
      d3                  phys-schost-1:/dev/rdsk/c1t1d0
      …
    2. 确保输出信息显示了群集节点与存储设备之间的所有连接。
    3. 确定要配置为法定设备的每个共享磁盘的全局设备 ID 名称。

      注 - 所选的任何共享磁盘都必须能够用作法定设备。有关选择法定设备的更多信息,请参见法定设备


      使用步骤 a 中的 scdidadm 输出信息来识别配置为法定设备的每个共享磁盘的设备 ID 名称。例如,步骤 a 中的输出信息显示全局设备 d3 是由 phys-schost-1phys-schost-2 共享的。

  5. 要使用不支持 SCSI 协议的共享磁盘,请确保对该共享磁盘禁用隔离功能。
    1. 显示单个磁盘的隔离设置。
      phys-schost# cldevice show device
      
      === DID Device Instances ===
      DID Device Name:                                      /dev/did/rdsk/dN
      …
        default_fencing:                                     nofencing
      • 如果磁盘的隔离功能设置为 nofencingnofencing-noscrub,则说明对该磁盘禁用隔离功能。请转至步骤 6
      • 如果磁盘的隔离功能设置为 pathcountscsi,请对该磁盘禁用隔离功能。请跳至步骤 c
      • 如果磁盘的隔离功能设置为 global,请确定是否还全局禁用了隔离功能。前进到步骤 b

        或者,可以只对单个磁盘禁用隔离功能,这会覆盖该磁盘的 global_fencing 属性所设置的任何值。请跳至步骤 c 以对单个磁盘禁用隔离功能。

    2. 确定是否全局禁用了隔离功能。
      phys-schost# cluster show -t global
      
      === Cluster ===
      Cluster name:                                         cluster
      …
         global_fencing:                                      nofencing
      • 如果全局隔离功能设置为 nofencingnofencing-noscrub,则说明对其 default_fencing 属性设置为 global 的共享磁盘禁用隔离功能。请转至步骤 6
      • 如果全局隔离功能设置为 pathcountprefer3,请对共享磁盘禁用隔离功能。请继续执行步骤 c

      注 - 如果单个磁盘的 default_fencing 属性设置为 global,则仅在群集范围的 global_fencing 属性设置为 nofencingnofencing-noscrub 时对该单个磁盘禁用隔离功能。如果将 global_fencing 属性更改为可启用隔离功能的值,则其 default_fencing 属性设置为 global 的所有磁盘的隔离功能会变为启用状态。


    3. 对共享磁盘禁用隔离功能。
      phys-schost# cldevice set \
      -p default_fencing=nofencing-noscrub device
    4. 检验现在是否对该共享磁盘禁用了隔离功能。
      phys-schost# cldevice show device
  6. 启动 clsetup 实用程序。
    phys-schost# clsetup

    将显示 "Initial Cluster Setup"(初始群集设置)屏幕。


    注 - 如果实际显示的是主菜单,则说明初始群集设置已成功执行。请跳至步骤 11


  7. 回答提示 Do you want to add any quorum devices?
    • 如果群集是双节点群集,必须配置至少一个共享法定设备。键入 Yes 可配置一个或多个法定设备。
    • 如果群集由三个以上的节点组成,则法定设备的配置可根据您自己的需要而定。
      • 如果不需要配置其他法定设备,请键入 No。然后,请跳至步骤 10
      • 键入 Yes 可配置其他法定设备。然后,请继续执行步骤 8
  8. 指定要将哪类设备配置为法定设备。
    法定设备类型
    说明
    shared_disk
    以下各项中的共享 LUN:
    • 共享 SCSI 磁盘

    • 串行连接技术附件 (Serial Attached Technology Attachment, SATA) 存储

    • Sun NAS

    • Sun ZFS Storage Appliance

    quorum_server
    法定服务器
  9. 指定要配置为法定设备的设备的名称。

    对于法定服务器,还需指定以下信息:

    • 法定服务器主机的 IP 地址

    • 法定服务器用来与群集节点进行通信的端口号

  10. 看到提示 Is it okay to reset "installmode"? 时,键入 Yes

    clsetup 实用程序在为群集设置了法定配置和投票计数后,将显示消息 "Cluster initialization is complete"。该实用程序将于此时返回到主菜单。

  11. 退出 clsetup 实用程序。

接下来的步骤

检验是否已禁用法定配置及安装模式。请转至如何检验法定配置和安装模式

故障排除

中断的 clsetup 处理-如果法定设备设置过程被中断或无法成功完成,请重新运行 clsetup

对法定选票计数的更改-如果以后增加或减少了连接到法定设备的节点数,法定选票计数不会自动重新计算。通过删除各个法定设备,然后将其添加回配置中(一次对一个法定设备进行操作),可以重新建立正确的法定选票。对于双节点群集,请临时添加一个新的法定设备,然后删除原法定设备并将其添加回配置。然后,删除临时法定设备。请参见《Oracle Solaris Cluster 系统管理指南》中的第 6  章 "管理法定"中的“如何修改法定设备节点列表”过程。

无法访问的法定设备-如果在群集节点上看到无法访问法定设备的消息,或者如果群集节点出现故障并显示消息 CMM: Unable to acquire the quorum device,则法定设备或其路径可能存在问题。检查法定设备及其路径是否正常。

如果该问题仍然存在,请使用其他法定设备。或者,如果仍要使用该法定设备,请将法定超时增大为较高的值,如下所述:


注 - 对于 Oracle Real Application Clusters (Oracle RAC),请勿更改默认的 25 秒法定超时时间。在某些记忆分裂方案中,较长的超时周期可能会导致 Oracle RAC VIP 故障转移因 VIP 资源超时而失败。如果所用法定设备不适合使用默认的 25 秒超时,请使用其他法定设备。


如何检验法定配置和安装模式

执行该过程以检验法定配置是否已成功完成,如果已配置法定设备,检验群集安装模式是否已被禁用。

您不必成为超级用户就可以运行这些命令。

  1. 从任一全局群集节点中检验设备和节点的法定配置。
    phys-schost% clquorum list

    输出结果中将列出每个法定设备和每个节点。

  2. 从任一节点中,检验群集安装模式是否处于禁用状态。
    phys-schost% cluster show -t global | grep installmode
      installmode:                                    disabled

    群集安装和创建已完成。

接下来的步骤

查看以下列表以确定下一项要执行的任务(该任务应适用于您的群集配置)。如果需要执行此列表中的多项任务,请转至其中在列表中排在最前面的那项任务。

另请参见

创建群集配置的备份。

对群集配置的归档备份有助于您更方便地恢复群集配置。有关更多信息,请参见《Oracle Solaris Cluster 系统管理指南》中的"如何备份群集配置"

如何更改专用主机名

如果不希望使用默认的专用主机名 clusternodenodeid-priv(该主机名是在安装 Oracle Solaris Cluster 软件的过程中指定的),请执行此任务。


注 - 在配置并启动应用程序和数据服务后,请不要执行此过程。否则,在重命名旧的专用主机名后,应用程序或数据服务可能仍使用旧的专用主机名,从而造成主机名冲突。如果有一些应用程序或数据服务正在运行,则停止它们,然后再执行该过程。


请在一个活动的群集节点上执行此过程。

  1. 成为全局群集节点上的超级用户。
  2. 启动 clsetup 实用程序。
    phys-schost# clsetup

    屏幕上将显示 clsetup 主菜单。

  3. 输入 "Private Hostnames"(专用主机名)所对应的选项号并按回车键。

    将显示 "Private Hostnames"(专用主机名)菜单。

  4. 键入 "Change a Private Hostname"(更改专用主机名)对应的选项编号并按回车键。
  5. 按照提示更改专用主机名。

    对于每个要更改的专用主机名,请重复该过程。

  6. 检验新的专用主机名。
    phys-schost# clnode show -t node | grep privatehostname
      privatehostname:                                clusternode1-priv
      privatehostname:                                clusternode2-priv
      privatehostname:                                clusternode3-priv

接下来的步骤

查看以下列表以确定下一项要执行的任务(该任务应适用于您的群集配置)。如果需要执行此列表中的多项任务,请转至其中在列表中排在最前面的那项任务。

配置资源组负载在各节点间的分配

可以通过设置负载限制来启用资源组负载在各节点或区域间的自动分配。将负载因子分配给资源组,负载因子与已定义的节点负载限制相对应。

默认行为是在所有可用节点之间均匀分配资源组负载。每个资源组都在其节点列表中的某个节点上启动。资源组管理器 (Resource Group Manager, RGM) 会选择一个最符合所配置的负载分配策略的节点。在资源组由 RGM 分配给节点后,每个节点上资源组的负载因子将会汇总来提供总负载。然后总负载会与该节点的负载限制相比较。

您可以在全局群集或区域群集中配置负载限制。

您设置的用以控制每个节点上负载分配的因子包括负载限制、资源组优先级和抢占模式。在全局群集中,您可设置 Concentrate_load 属性以选择首选负载分配策略:在不超过负载限制的情况下将资源组负载集中分配给尽可能少的节点,或者在所有可用节点之间尽可能均匀地分配负载。默认行为是分散资源组负载。每个资源组仍限定为仅在其节点列表中的节点上运行,不管负载因子和负载限制设置为何。


注 - 可以使用命令行、Oracle Solaris Cluster 管理器界面或 clsetup 实用程序配置资源组的负载分配。以下过程说明如何使用 clsetup 实用程序配置资源组的负载分配。有关使用命令行执行这些过程的说明,请参见《Oracle Solaris Cluster 系统管理指南》中的"配置负载限制"


本节包含以下过程:

如何为节点配置负载限制

每个群集节点或区域都可以有自己的一组负载限制。将负载因子分配给资源组,负载因子与已定义的节点负载限制相对应。您可以设置软负载限制(可超出此限制)或硬负载限制(不得超过此限制)。

  1. 成为群集中一个活动节点上的超级用户。
  2. 启动 clsetup 实用程序。
    phys-schost# clsetup

    此时将显示 clsetup 菜单。

  3. 选择菜单项 "Other Cluster Tasks"(其他群集任务)。

    此时将显示 "Other Cluster Tasks"(其他群集任务)菜单。

  4. 选择菜单项 "Manage Resource Group Load Distribution"(管理资源组负载分配)。

    此时将显示 "Manage Resource Group Load Distribution"(管理资源组负载分配)菜单。

  5. 选择菜单项 "Manage Load Limits"(管理负载限制)。

    此时将显示 "Manage Load Limits"(管理负载限制)菜单。

  6. 键入 yes 并按回车键继续。
  7. 键入与要执行的操作对应的选项编号,然后按回车键。

    您可以创建负载限制、修改负载限制或删除负载限制。

  8. 如果您选择创建负载限制,请选择与要设置负载限制的节点相对应的选项编号。

    如果要对另一节点设置负载限制,请选择与该节点对应的选项编号,然后按回车键。选择了要配置负载限制的所有节点后,键入 q 并按回车键。

  9. 键入 yes 并按回车键确认您在步骤 8 中选择的节点。
  10. 键入负载限制的名称并按回车键。

    例如,键入 mem_load 作为负载限制的名称。

  11. 键入 yesno 指定软限制值,并按回车键。

    如果键入了 yes,请键入软限制值并按 Enter 键。

  12. 键入 yesno 指定硬限制值,并按回车键。

    如果键入了 yes,请键入硬限制值并按 Enter 键。

  13. 键入 yes 并按回车键继续创建负载限制。
  14. 键入 yes 继续进行更新,然后按回车键。

    此时将显示 Command completed successfully(已成功完成命令)消息以及针对您所选节点的软负载限制和硬负载限制。按回车键继续。

  15. 您可以按 clsetup 实用程序中的提示来修改或删除负载限制。

    通过键入 q 并按回车键,返回上一菜单。

如何为资源组设置优先级

可以将某个资源组配置为具有较高优先级,以减小其从特定节点被替换的可能性。如果超出负载限制,可能会强制低优先级资源组脱机。

  1. 成为群集中一个活动节点上的超级用户。
  2. 启动 clsetup 实用程序。
    phys-schost# clsetup

    此时将显示 clsetup 菜单。

  3. 选择菜单项 "Other Cluster Tasks"(其他群集任务)。

    此时将显示 "Other Cluster Tasks"(其他群集任务)菜单。

  4. 选择菜单项 "Manage Resource Group Load Distribution"(管理资源组负载分配)。

    此时将显示 "Manage Resource Group Load Distribution"(管理资源组负载分配)菜单。

  5. 选择 "Set Priority Per Resource Group"(根据资源组设置优先级)。

    此时将显示 "Set the Priority of a Resource Group"(设置资源组的优先级)菜单。

  6. 键入 yes 并按回车键。
  7. 键入与资源组对应的选项,然后按回车键。

    此时将显示现有优先级值。默认优先级值为 500。

  8. 键入新的优先级值,然后按回车键。
  9. 键入 yes 确认您的输入,然后按回车键。
  10. 按回车键返回上一菜单。

    此时将显示 "Manage Resource Group Load Distribution"(管理资源组负载分配)菜单。

如何为资源组设置负载因子

负载因子是您基于负载限制分配给负载的值。负载因子分配给某个资源组,这些负载因子对应于节点的已定义负载限制。

  1. 成为群集中一个活动节点上的超级用户。
  2. 启动 clsetup 实用程序。
    phys-schost# clsetup

    此时将显示 clsetup 菜单。

  3. 选择菜单项 "Other Cluster Tasks"(其他群集任务)。

    此时将显示 "Other Cluster Tasks"(其他群集任务)菜单。

  4. 选择菜单项 "Manage Resource Group Load Distribution"(管理资源组负载分配)。

    此时将显示 "Manage Resource Group Load Distribution"(管理资源组负载分配)菜单。

  5. 选择菜单项 "Set Load Factors Per Resource Group"(根据资源组设置负载因子)。

    此时将显示 "Set the load factors of a Resource Group"(设置资源组的负载因子)菜单。

  6. 键入 yes 并按回车键。
  7. 键入资源组对应的选项编号并按回车键。
  8. 键入所需的负载因子。

    例如,键入 mem_load@50,可对所选的资源组设置负载因子 mem_load。完成后按 Ctrl-D

  9. 按回车键继续进行更新。
  10. 按回车键返回上一菜单。

    此时将显示 "Manage Resource Group Load Distribution"(管理资源组负载分配)菜单。

如何为资源组设置抢占模式

preemption_mode 属性确定某个资源组是否因节点过载而被优先级较高的资源组从节点中抢占。该属性指示将一个资源组从一个节点移到另一节点的成本。

  1. 成为群集中一个活动节点上的超级用户。
  2. 启动 clsetup 实用程序。
    phys-schost# clsetup

    此时将显示 clsetup 菜单。

  3. 选择菜单项 "Other Cluster Tasks"(其他群集任务)。

    此时将显示 "Other Cluster Tasks"(其他群集任务)菜单。

  4. 选择菜单项 "Manage Resource Group Load Distribution"(管理资源组负载分配)。

    此时将显示 "Manage Resource Group Load Distribution"(管理资源组负载分配)菜单。

  5. 选择 "Set Preemption Mode per Resource Group"(根据资源组设置抢占模式)菜单项。

    此时将显示 "Set the Preemption Mode of a Resource Group"(设置资源组的抢占模式)菜单。

  6. 键入 yes 并按回车键继续。
  7. 键入资源组对应的选项编号并按回车键。

    如果为资源组设置了抢占模式,显示将如下所示:

    The preemption mode property of "rg11" is currently set to the following: preemption mode:  Has_Cost
  8. 键入与您需要的抢占模式对应的选项编号,然后按回车键。

    三个选项分别为 Has_costNo_costNever

  9. 键入 yes 继续进行更新,然后按回车键。
  10. 按回车键返回上一菜单。

    此时将显示 "Manage Resource Group Load Distribution"(管理资源组负载分配)菜单。

如何在群集中将负载集中到少量节点

Concentrate_load 属性设置为 false,群集会在所有可用节点中均匀分配资源组负载。如果将此属性设置为 True,群集会尝试在不超出负载限制的情况下将资源组负载集中到尽可能少的节点上。默认情况下,Concentrate_load 属性设置为 False。您只能在全局群集中设置 Concentrate_load 属性,不能在区域群集中设置此属性。在区域群集中,默认设置始终为 False

  1. 成为群集中一个活动节点上的超级用户。
  2. 启动 clsetup 实用程序。
    phys-schost# clsetup

    此时将显示 clsetup 菜单。

  3. 选择菜单项 "Other Cluster Tasks"(其他群集任务)。

    此时将显示 "Other Cluster Tasks"(其他群集任务)菜单。

  4. 选择 "Set the concentrate_load Property of the Cluster"(设置群集的 concentrate_load 属性)菜单项。

    此时将显示 "Set the Concentrate Load Property of the Cluster"(设置群集的集中负载属性)菜单。

  5. 键入 yes 并按回车键。

    此时将显示当前值 TRUEFALSE

  6. 键入 yes 更改该值,然后按回车键。
  7. 键入 yes 继续进行更新,然后按回车键。
  8. 按回车键返回上一菜单。

    此时将显示 "Other Cluster Tasks"(其他群集任务)菜单。

如何配置网络时间协议 (Network Time Protocol, NTP)


注 - 如果您在安装 Oracle Solaris Cluster 软件之前安装了您自己的 /etc/inet/ntp.conf 文件,则不需要执行此过程。确定下一个步骤:


在您执行以下任何任务后,执行此任务来创建或修改 NTP 配置文件:

将节点添加到单节点群集中时,必须确保将所使用的 NTP 配置文件复制到原始群集节点以及新节点中。

  1. 成为群集节点的超级用户。
  2. 如果您有自己的 /etc/inet/ntp.conf 文件,请将您的文件复制到群集的每个节点。
  3. 如果您没有自己的 /etc/inet/ntp.conf 文件用来安装,请使用 /etc/inet/ntp.conf.cluster 文件作为您的 NTP 配置文件。

    注 - 请勿将 ntp.conf.cluster 文件重命名为 ntp.conf


    如果节点上不存在 /etc/inet/ntp.conf.cluster 文件,可能有一个以前安装 Oracle Solaris Cluster 软件时产生的 /etc/inet/ntp.conf 文件。如果节点上不存在 /etc/inet/ntp.conf 文件,Oracle Solaris Cluster 软件将创建 /etc/inet/ntp.conf.cluster 文件作为 NTP 配置文件。如果节点上存在 ntp.conf 文件,请改为对该文件执行以下编辑。

    1. 在群集的一个节点上,使用您的首选文本编辑器打开 NTP 配置文件进行编辑。
    2. 确保每个群集节点的专用主机名都存在一个条目。

      如果更改了任何节点的专用主机名,请确保 NTP 配置文件包含新的专用主机名。

    3. 如必要,执行其他修改以满足您的 NTP 要求。
    4. 将 NTP 配置文件复制到群集中的所有节点。

      NTP 配置文件的内容在所有群集节点上必须相同。

  4. 在每个节点上停止 NTP 守护进程。

    请等待每个节点上的命令成功完成,然后再继续执行步骤 5

    phys-schost# svcadm disable ntp
  5. 在每个节点上重新启动 NTP 守护进程。
    • 如果使用 ntp.conf.cluster 文件,请运行以下命令:
      phys-schost# /etc/init.d/xntpd.cluster start

      xntpd.cluster 启动脚本首先查找 /etc/inet/ntp.conf 文件。

      • 如果 ntp.conf 文件存在,脚本将立即退出,而不启动 NTP 守护进程。

      • 如果 ntp.conf 文件不存在,但 ntp.conf.cluster 文件存在,脚本将启动 NTP 守护进程。此时,脚本将 ntp.conf.cluster 文件用作 NTP 配置文件。

    • 如果使用 ntp.conf 文件,请运行以下命令:
      phys-schost# svcadm enable ntp

接下来的步骤

查看以下列表以确定下一项要执行的任务(该任务应适用于您的群集配置)。如果需要执行此列表中的多项任务,请转至其中在列表中排在最前面的那项任务。

如何在群集专用互连上配置 IP 安全体系结构 (IPsec)

您可以为 clprivnet 接口配置 IP 安全体系结构 (IPsec),以便在群集互连上提供安全的 TCP/IP 通信。

有关 IPsec 的信息,请参见《Oracle Solaris 管理:IP 服务》中的第 IV 部分, "IP 安全性"ipsecconf(1M) 手册页。有关 clprivnet 接口的信息,请参见 clprivnet(7) 手册页。

请在您想要配置为使用 IPsec 的每个全局群集投票节点上执行此过程。

  1. 成为超级用户。
  2. 在每个节点上,确定节点 clprivnet 接口的 IP 地址。
    phys-schost# ifconfig clprivnet0
  3. 在每个节点上,配置 /etc/inet/ipsecinit.conf 策略文件,并在您想要使用 IPsec 的每对专用互连 IP 地址之间添加安全关联 (Security Associations, SA)。

    请遵循《Oracle Solaris 管理:IP 服务》中的"如何使用 IPsec 保证两个系统之间的通信安全"中的说明。此外,请遵循以下准则:

    • 确保这些地址的配置参数值在所有伙伴节点上均一致。

    • 在配置文件中将每个策略配置为单独一行。

    • 要实现 IPsec 而不重新引导,请遵循过程示例“"在不重新引导的情况下使用 IPsec 保证通信安全"”中的说明。

    有关 sa unique 策略的更多信息,请参见 ipsecconf(1M) 手册页。

    1. 在每个文件中,为群集中要使用 IPsec 的每个 clprivnet IP 地址添加一个条目。

      包括本地节点的 clprivnet IP 地址。

    2. 如果使用 VNIC,还要为 VNIC 使用的每个物理接口的 IP 地址添加一个条目。
    3. 可选要在所有链接上启用数据条带化,请在条目中加入 sa unique 策略。

      此功能将帮助驱动程序最好地利用群集专用网络的带宽,从而提供高分配粒度和更好的吞吐量。clprivnet 接口使用包的安全参数索引 (Security Parameter Index, SPI) 来条带化流量。

  4. 在每个节点上,编辑 /etc/inet/ike/config 文件以设置 p2_idletime_secs 参数。

    将此条目添加到为群集传输配置的策略规则。此设置为重新引导群集节点时重新生成安全关联提供了时间,并限制了重新引导节点可重新加入群集的时间范围。值为 30 秒便可。

    phys-schost# vi /etc/inet/ike/config
    …
    {
        label "clust-priv-interconnect1-clust-priv-interconnect2"
    …
    p2_idletime_secs 30
    }
    …

接下来的步骤

查看以下列表以确定下一项要执行的任务(该任务应适用于您的群集配置)。如果需要执行此列表中的多项任务,请转至其中在列表中排在最前面的那项任务。

否则,如果您完成了所有硬件和软件安装和配置任务,请验证群集。转至如何验证群集

如何验证群集

完成所有群集配置之后,使用 cluster check 命令验证群集配置和功能。有关更多信息,请参见 cluster(1CL) 手册页。


提示 - 为了便于将来参考或故障排除,对于运行的每个验证,请使用 -o outputdir 选项为日志文件指定子目录。重用现有的子目录名称将删除子目录中的所有现有文件。因此,为确保日志文件可供将来参考之用,请为运行的每个群集检查指定唯一的子目录名称。


开始之前

确保已在群集中完成所有硬件和软件组件(包括固件和修补程序)的安装和配置。

  1. 成为群集中一个节点上的超级用户。
  2. 确保您具有最新的检查。

    转到 My Oracle Support 的 "Patches & Updates"(修补程序和更新)选项卡。使用 "Advanced Search"(高级搜索),选择 "Solaris Cluster" 作为 "Product"(产品),并在 "Description"(描述)字段中指定 "check"(检查)来查找包含检查的 Oracle Solaris Cluster 修补程序。应用任何尚未安装在群集上的修补程序。

  3. 运行基本验证检查。
    # cluster check -v -o outputdir
    -v

    详细模式

    -o outputdir

    将输出重定向到 outputdir 子目录。

    该命令会运行所有可用的基本检查。不会影响任何群集功能。

  4. 运行交互式验证检查。
    # cluster check -v -k interactive -o outputdir
    -k interactive

    指定运行交互式验证检查

    该命令会运行所有可用的交互式检查并提示您提供所需的群集相关信息。不会影响任何群集功能。

  5. 运行功能验证检查。
    1. 以非详细模式列出所有可用的功能检查。
      # cluster list-checks -k functional
    2. 确定哪些功能检查执行的操作会干扰生产环境中的群集可用性或服务。

      例如,功能检查可能会引起节点出现紧急情况或故障转移到其他节点。

      # cluster list-checks -v -C checkID
      -C checkID

      指定特定检查。

    3. 如果要执行的功能检查可能会中断群集的正常工作,请确保群集不在生产环境中。
    4. 启动功能检查。
      # cluster check -v -k functional -C checkid -o outputdir
      -k functional

      指定运行功能验证检查

      响应来自检查的提示,确认应运行该检查以及必须执行的任何信息或操作。

    5. 对于要运行的其余每个功能检查,重复执行步骤 c步骤 d

      注 - 为了进行记录,请为所运行的每个检查指定唯一 outputdir 子目录名称。如果重用 outputdir 名称,则新检查的输出将覆写重用的 outputdir 子目录的现有内容。


示例 3-5 列出交互式验证检查

以下示例列出了可用于在群集上运行的所有交互式检查。示例输出显示了可能的检查样例;实际的可用检查因各配置而异

# cluster list-checks -k interactive
 Some checks might take a few moments to run (use -v to see progress)...
 I6994574  :   (Moderate)   Fix for GLDv3 interfaces on cluster transport vulnerability applied?

示例 3-6 运行功能验证检查

以下示例首先显示了功能检查的详细列表。随后列出了检查 F6968101 的详细描述,指出该检查会中断群集服务。群集将脱离生产环境。然后将运行功能检查,且详细输出会记录到 funct.test.F6968101.12Jan2011 子目录中。示例输出显示了可能的检查样例;实际的可用检查因各配置而异。

# cluster list-checks -k functional
 F6968101  :   (Critical)   Perform resource group switchover
 F6984120  :   (Critical)   Induce cluster transport network failure - single adapter.
 F6984121  :   (Critical)   Perform cluster shutdown
 F6984140  :   (Critical)   Induce node panic
…

# cluster list-checks -v -C F6968101
 F6968101: (Critical) Perform resource group switchover
Keywords: SolarisCluster3.x, functional
Applicability: Applicable if multi-node cluster running live.
Check Logic: Select a resource group and destination node. Perform 
'/usr/cluster/bin/clresourcegroup switch' on specified resource group 
either to specified node or to all nodes in succession.
Version: 1.2
Revision Date: 12/10/10 

Take the cluster out of production

# cluster check -k functional -C F6968101 -o funct.test.F6968101.12Jan2011
F6968101 
  initializing...
  initializing xml output...
  loading auxiliary data...
  starting check run...
     pschost1, pschost2, pschost3, pschost4:     F6968101.... starting:  
Perform resource group switchover           


  ============================================================

   >>> Functional Check <<<

    'Functional' checks exercise cluster behavior. It is recommended that you
    do not run this check on a cluster in production mode.' It is recommended
    that you have access to the system console for each cluster node and
    observe any output on the consoles while the check is executed.

    If the node running this check is brought down during execution the check
    must be rerun from this same node after it is rebooted into the cluster in
    order for the check to be completed.

    Select 'continue' for more details on this check.

          1) continue
          2) exit

          choice: 1


  ============================================================

   >>> Check Description <<<
…
Follow onscreen directions

接下来的步骤

将群集投入生产之前,请记录群集配置的基本信息以供将来进行诊断时使用。请转至如何记录群集配置的诊断数据

如何记录群集配置的诊断数据

在完成全局群集配置之后且将其投入生产之前,请使用 Oracle Explorer 实用程序记录有关该群集的基本信息。如果将来需要排除群集故障,可以使用该数据。

  1. 成为超级用户。
  2. 安装 Oracle Explorer 软件(如果尚未安装)。

    服务工具包 (Services Tools Bundle) 中包含 Oracle Explorer 软件包 SUNWexploSUNWexplu。有关软件下载和安装的信息,请参见 http://www.oracle.com/us/support/systems/premier/services-tools-bundle-sun-systems-163717.html

  3. 在群集中的每个节点上,运行 explorer 实用程序。

    针对您的平台使用相应的命令。例如,要收集关于 Oracle 的 Sun Fire T1000 服务器的信息,请运行以下命令:

    # explorer -i -w default,Tx000

    有关更多信息,请参见 /opt/SUNWexplo/man/man1m/ 目录下的 explorer(1M) 手册页以及《Oracle Explorer Data Collector User’s Guide》(本指南可通过 My Oracle Support 上的“说明 1153444.1”获取):

    https://support.oracle.com

    explorer 输出文件以 explorer.hostid.hostname-date.tar.gz 形式保存到 /opt/SUNWexplo/output/ 目录下。

  4. 将该文件保存到当整个群集停机时可以访问的位置。
  5. 将所有 explorer 文件通过电子邮件发送到您所处地理位置的 Oracle Explorer 数据库别名。

    按《Oracle Explorer Data Collector User's Guide》中介绍的过程使用 FTP 或 HTTPS 来提交 Oracle Explorer 文件。

    如果在对群集的技术问题进行诊断时需要 explorer 输出数据,Oracle Explorer 数据库可使 Oracle 技术支持人员获取这些数据。