Sun Cluster 软件安装指南(适用于 Solaris OS)

Procedure如何在附加全局群集节点上配置 Sun Cluster 软件 (scinstall)

执行此过程,向现有全局群集中添加新节点。要使用 JumpStart 添加新节点,请改为执行如何安装 Solaris 和 Sun Cluster 软件 (JumpStart)中的过程。


注 –

此过程使用的是 scinstall 命令的交互形式。要使用 scinstall 命令的非交互形式(如在开发安装脚本时),请参见 scinstall(1M) 手册页。

在运行 scinstall 命令之前,请确保已在节点上安装了 Sun Cluster 软件包,手动或使用 Java ES installer 程序的无提示模式均可。有关通过安装脚本运行 Java ES installer 程序的信息,请参见《适用于 UNIX 的 Sun Java Enterprise System 5 安装指南》中的第 5  章 “以无提示模式安装”


开始之前

执行以下任务:

按照以下指导信息在此过程中使用交互式的 scinstall 实用程序:

  1. 在要进行配置的群集节点上成为超级用户。

  2. 启动 scinstall 实用程序。


    phys-schost-new# /usr/cluster/bin/scinstall
    

    将显示 scinstall 的主菜单。

  3. 键入 "Create a New Cluster or Add a Cluster Node" 所对应的选项号并按回车键。


      *** Main Menu ***
    
        Please select from one of the following (*) options:
    
          * 1) Create a new cluster or add a cluster node
            2) Configure a cluster to be JumpStarted from this install server
            3) Manage a dual-partition upgrade
            4) Upgrade this cluster node
          * 5) Print release information for this cluster node
    
          * ?) Help with menu options
          * q) Quit
    
        Option:  1
    

    将显示 "New Cluster and Cluster Node" 菜单。

  4. 键入 "Add This Machine as a Node in an Existing Cluster" 所对应的选项号并按回车键。

  5. 按照菜单提示给出您的答案 ,所做回答应依据于您在配置规划工作单中填写的内容。

    scinstall 实用程序可配置节点并将该节点引导到群集中。

  6. 从 DVD-ROM 驱动器中取出 Sun Java Availability Suite DVD-ROM。

    1. 为了确保 DVD-ROM 未在使用,请转到在 DVD-ROM 上的目录。

    2. 弹出 DVD-ROM。


      phys-schost# eject cdrom
      
  7. 在所有其他节点上重复此过程以将其添加到群集中,直到完全配置了这些节点。

  8. 对于 Solaris 10 OS,在每个节点上检验服务管理工具 (Service Management Facility, SMF) 的多用户服务是否处于联机状态。

    如果某个节点上的服务尚未处于联机状态,请等到状态变为联机后再继续执行下一步。


    phys-schost# svcs multi-user-server node
    STATE          STIME    FMRI
    online         17:52:55 svc:/milestone/multi-user-server:default
  9. 在活动的群集成员中,禁止任何其他节点加入该群集。


    phys-schost# claccess deny-all
    

    或者,您也可以使用 clsetup 实用程序。有关过程,请参见《Sun Cluster 系统管理指南(适用于 Solaris OS)》中的“如何向授权节点列表添加节点”

  10. 在一个节点上成为超级用户。

  11. 检验是否所有节点都已加入群集。


    phys-schost# clnode status
    

    输出类似于以下内容。


    === Cluster Nodes ===
    
    --- Node Status ---
    
    Node Name                                       Status
    ---------                                       ------
    phys-schost-1                                   Online
    phys-schost-2                                   Online
    phys-schost-3                                   Online

    有关更多信息,请参见 clnode(1CL) 手册页。

  12. 检验是否已安装了所有必要的修补程序。


    phys-schost# showrev -p
    
  13. (可选的)启用当所有受监视的磁盘路径都发生故障时的节点自动重新引导功能。

    1. 启用自动重新引导功能。


      phys-schost# clnode set -p reboot_on_path_failure=enabled
      
      -p

      指定要设置的属性

      reboot_on_path_failure=enable

      指定当所有受监视的磁盘路径都发生故障时,如果至少有一个磁盘可从群集中的另一节点访问,则节点将重新引导。

    2. 检验是否启用了磁盘路径发生故障时的自动重新引导功能。


      phys-schost# clnode show
      === Cluster Nodes ===                          
      
      Node Name:                                      node
      …
        reboot_on_path_failure:                          enabled
      …
  14. 如果要在高可用性本地文件系统上使用 Sun Cluster HA for NFS,请确保禁用回送文件系统 (Loopback File System, LOFS)。

    要禁用 LOFS,请将以下条目添加到群集的每个节点上的 /etc/system 文件中。


    exclude:lofs

    /etc/system 文件所做的更改将在下次重新引导系统后生效。


    注 –

    如果在具有高可用性的本地文件系统中使用 Sun Cluster HA for NFS 并且 automountd 正在运行,则不能启用 LOFS。LOFS 会导致 Sun Cluster HA for NFS 出现切换转移问题。如果选择在具有高可用性的本地文件系统上添加 Sun Cluster HA for NFS,则必须进行以下配置更改之一。

    但是,如果要在群集中配置非全局区域,则必须在所有的群集节点上启用 LOFS。如果高可用本地文件系统上的 Sun Cluster HA for NFS 必须与 LOFS 共存,则只能放弃对 LOFS 的禁用改用他法。

    • 禁用 LOFS。

    • 禁用 automountd 守护进程。

    • 从自动安装程序映射中排除属于由 Sun Cluster HA for NFS 导出的具有高可用性的本地文件系统的所有文件。这样做可以使 LOFS 和 automountd 守护进程都保持启用状态。


    有关回送文件系统的更多信息,请参见《系统管理指南:设备和文件系统》Solaris 9Solaris 10)中的“回送文件系统”


示例 3–3 在新增的节点上配置 Sun Cluster 软件

以下示例显示了如何将节点 phys-schost-3 添加到群集 schost 中。发起节点为 phys-schost-1


*** Adding a Node to an Existing Cluster ***
Fri Feb  4 10:17:53 PST 2005


scinstall -ik -C schost -N phys-schost-1 -A trtype=dlpi,name=qfe2 -A trtype=dlpi,name=qfe3 
-m endpoint=:qfe2,endpoint=switch1 -m endpoint=:qfe3,endpoint=switch2


Checking device to use for global devices file system ... done

Adding node "phys-schost-3" to the cluster configuration ... done
Adding adapter "qfe2" to the cluster configuration ... done
Adding adapter "qfe3" to the cluster configuration ... done
Adding cable to the cluster configuration ... done
Adding cable to the cluster configuration ... done

Copying the config from "phys-schost-1" ... done

Copying the postconfig file from "phys-schost-1" if it exists ... done
Copying the Common Agent Container keys from "phys-schost-1" ... done


Setting the node ID for "phys-schost-3" ... done (id=1)

Setting the major number for the "did" driver ... 
Obtaining the major number for the "did" driver from "phys-schost-1" ... done
"did" driver major number set to 300

Checking for global devices global file system ... done
Updating vfstab ... done

Verifying that NTP is configured ... done
Initializing NTP configuration ... done

Updating nsswitch.conf ... 
done

Adding clusternode entries to /etc/inet/hosts ... done


Configuring IP Multipathing groups in "/etc/hostname.<adapter>" files

Updating "/etc/hostname.hme0".

Verifying that power management is NOT configured ... done

Ensure that the EEPROM parameter "local-mac-address?" is set to "true" ... done
The "local-mac-address?" parameter setting has been changed to "true".

Ensure network routing is disabled ... done

Updating file ("ntp.conf.cluster") on node phys-schost-1 ... done
Updating file ("hosts") on node phys-schost-1 ... done

Rebooting ... 

故障排除

配置不成功-如果有一个或多个节点无法加入群集,或者指定了错误的配置信息,请首先尝试重新执行此过程。如果不能解决问题,请在每个配置有误的节点上执行如何取消 Sun Cluster 软件的配置以更正安装问题过程,以将该节点从群集配置中删除。无需卸载 Sun Cluster 软件包。然后重新执行此过程。

接下来的操作

如果向使用法定设备的现有群集中添加了节点,请转至如何在向全局群集中添加节点后更新法定设备

否则,请转至如何检验定额配置和安装模式