Sun Cluster 软件安装指南(适用于 Solaris OS)

在全局群集节点上配置非全局区域

本节介绍了以下在全局群集节点上创建非全局区域的过程。

Procedure如何在全局群集节点上创建非全局区域

对于要在全局群集中创建的每个非全局区域,请执行以下过程。


注 –

有关安装区域的完整信息,请参阅《系统管理指南:Solaris Containers-资源管理和 Solaris Zones》


以群集模式或非群集模式引导群集节点后,可以在该节点上配置 Solaris 10 非全局区域(简称区域)。

开始之前

执行以下任务:

有关其他信息,请参见《系统管理指南:Solaris Containers-资源管理和 Solaris Zones》中的“区域组件”

  1. 在要创建非投票节点的全局群集节点上成为超级用户。

    您必须在全局区域中工作。

  2. 对于 Solaris 10 OS,请在每个节点上检验服务管理工具 (Service Management Facility, SMF) 的多用户服务是否联机。

    如果某个节点上的服务尚未处于联机状态,请等待直到状态变为联机后,再继续执行下一步。


    phys-schost# svcs multi-user-server node
    STATE          STIME    FMRI
    online         17:52:55 svc:/milestone/multi-user-server:default
  3. 配置、安装和引导新区域。


    注 –

    您必须将 autoboot 属性设置为 true,以便在全局群集中的非投票节点中支持资源组功能。


    请按照 Solaris 文档中的过程操作:

    1. 执行《系统管理指南:Solaris Containers-资源管理和 Solaris Zones》中的第 18  章 “规划和配置非全局区域(任务)”中所述的过程。

    2. 执行《系统管理指南:Solaris Containers-资源管理和 Solaris Zones》中的“安装和引导区域”中所述的过程。

    3. 执行《系统管理指南:Solaris Containers-资源管理和 Solaris Zones》中的“如何引导区域”中所述的过程。

  4. 检验区域是否处于 ready 状态。


    phys-schost# zoneadm list -v
    ID  NAME     STATUS       PATH
     0  global   running      /
     1  my-zone  ready        /zone-path
    
  5. 对于 ip-type 属性设置为 exclusive 的完全根区域:如果该区域可能托管逻辑主机名资源,应配置从全局区域挂载方法目录的文件系统资源。


    phys-schost# zonecfg -z sczone
    zonecfg:sczone> add fs
    zonecfg:sczone:fs> set dir=/usr/cluster/lib/rgm
    zonecfg:sczone:fs> set special=/usr/cluster/lib/rgm
    zonecfg:sczone:fs> set type=lofs
    zonecfg:sczone:fs> end
    zonecfg:sczone> exit
    
  6. (可选的)对于共享 IP 区域,请为该区域指定一个专用 IP 地址和一个专用主机名。

    以下命令从群集的专用 IP 地址范围中选择一个可用 IP 地址并进行指定。此外,该命令还将一个指定的专用主机名(或主机别名)指定给区域,并将其映射到已指定的专用 IP 地址。


    phys-schost# clnode set -p zprivatehostname=hostalias node:zone
    
    -p

    指定一个属性。

    zprivatehostname=hostalias

    指定区域专用主机名(或主机别名)。

    node

    节点名称。

    zone

    全局群集非投票节点的名称。

  7. 执行初始的内部区域配置。

    请按照《系统管理指南:Solaris Containers-资源管理和 Solaris Zones》中的“执行初始内部区域配置”中的过程操作。从以下方法中任选其一:

    • 登录到区域。

    • 使用 /etc/sysidcfg 文件。

  8. 在非投票节点中,修改 nsswitch.conf 文件。

    通过进行这些更改,可以使区域能够解析对群集特定主机名和 IP 地址的搜索。

    1. 登录到区域。


      phys-schost# zlogin -c zonename
      
    2. 打开 /etc/nsswitch.conf 文件以进行编辑。


      sczone# vi /etc/nsswitch.conf
      
    3. hostsnetmasks 条目的查找语句的开头添加 cluster 开关,后面跟 files 开关。

      修改后的条目应显示如下:


      …
      hosts:      cluster files nis [NOTFOUND=return]
      …
      netmasks:   cluster files nis [NOTFOUND=return]
      …
    4. 对于所有其他条目,确保 files 开关是该条目中列出的第一个开关。

    5. 退出区域。

  9. 如果您创建了一个独占 IP 区域,请在该区域中的每个 /etc/hostname.interface 文件中配置 IPMP 组。

    对于区域中的数据服务通信所使用的每个公共网络适配器,都必须配置一个 IPMP 组。此信息不是从全局区域继承的。有关在群集中配置 IPMP 组的更多信息,请参见公共网络

  10. 为该区域使用的所有逻辑主机名资源设置名称-地址映射。

    1. 向该区域上的 /etc/inet/hosts 文件中添加名称-地址映射。

      此信息不是从全局区域继承的。

    2. 如果使用名称服务器,应添加名称-地址映射。

接下来的操作

要在非全局区域中安装应用程序,请使用与独立系统相同的过程。有关在非全局区域中安装软件的过程,请参见应用程序的安装文档。另请参见《系统管理指南:Solaris Containers-资源管理和 Solaris Zones》中的“在安装了区域的 Solaris 系统上添加和删除软件包和修补程序(任务图)”

要在非全局区域中安装和配置数据服务,请参见各个数据服务对应的 Sun Cluster 手册。

Procedure如何对非全局区域使用的群集文件系统配置 HAStoragePlus 资源

使用该过程让群集文件系统可供在群集节点上配置的 native 标记非全局区域使用。


注 –

只将该过程用于非全局区域的 native 标记。不能使用其他任何非全局区域的标记(例如 solaris8 标记或用于区域群集的 cluster 标记)执行该任务。


  1. 在全局群集的一个节点上,成为超级用户或使用一个可提供 solaris.cluster.modify RBAC 授权的角色。

  2. 使用 native 标记非全局区域的节点列表创建资源组。

    • 使用以下命令创建故障转移资源组:


      phys-schost# clresourcegroup create -n node:zone[,…] resource-group
      
      -n node:zone

      在资源组节点列表中指定非全局区域的名称。

      resource-group

      您创建的资源组的名称。

    • 使用以下命令创建可伸缩资源组:


      phys-schost# clresourcegroup create -S -n node:zone[,…] resource-group
      
      -S

      指定资源组是可伸缩的。

  3. 注册 HAStoragePlus 资源类型。


    phys-schost# clresourcetype register SUNW.HAStoragePlus
    
  4. 在驻留节点列表中的非全局区域的每个全局群集节点上,将群集文件系统条目添加至 /etc/vfstab 文件。

    群集文件系统的 /etc/vfstab 文件中的条目必须在挂载选项中包含 global 关键字。

    请参见《Sun Cluster Data Services Planning and Administration Guide for Solaris OS》中的“Sample Entries in /etc/vfstab for Cluster File Systems”

  5. 创建 HAStoragePlus 资源并定义文件系统挂载点。


    phys-schost# clresource create -g resource-group -t SUNW.HAStoragePlus \
    -p FileSystemMountPoints="mount-point-list" hasp-resource
    
    -g resource-group

    指定要添加新资源的资源组的名称。

    -p FileSystemMountPoints="mount-point-list"

    为资源指定一个或多个文件系统挂载点。

    hasp-resource

    您创建的 HAStoragePlus 资源的名称。

    已用已启用状态创建资源。

  6. resource-group 添加资源并为 hasp-resource 上的资源设置依赖性。

    如果要将多个资源添加至资源组,可对每个资源使用单独的命令。


    phys-schost# clresource create -g resource-group -t resource-type \
    -p Network_resources_used=hasp-resource resource
    
    -t resource-type

    指定为其创建的资源的资源类型。

    -p Network_resources_used=hasp-resource

    指定在 HAStoragePlus 资源 hasp-resource 上有依赖性的资源。

    resource

    您创建的资源的名称。

  7. 将包含 HAStoragePlus 资源的资源组置于联机状况并使其处于受管理状态。


    phys-schost# clresourcegroup online -M resource-group
    
    -M

    指定资源组是受管理的。


示例 7–1 对非全局区域使用的群集文件系统配置 HAStoragePlus 资源

以下示例创建故障转移资源组 cfs-rg 以管理 HA-Apache 数据服务。资源组节点列表包含两个非全局区域:phys-schost-1 上的 sczone1phys-schost-2 上的 sczone1。资源组包含 HAStoragePlus 资源 hasp-rs 以及数据服务资源 apache-rs。文件系统挂载点为 /global/local-fs/apache


phys-schost-1# clresourcegroup create -n phys-schost-1:sczone1,phys-schost-2:sczone1 cfs-rg
phys-schost-1# clresourcetype register SUNW.HAStoragePlus

Add the cluster file system entry to the /etc/vfstab file on phys-schost-1
phys-schost-1# vi /etc/vfstab
#device            device         mount          FS    fsck    mount    mount
#to mount          to fsck        point          type  pass    at boot  options
#
/dev/md/kappa-1/dsk/d0 /dev/md/kappa-1/rdsk/d0 /global/local-fs/apache ufs 5 yes logging,global
Add the cluster file system entry to the /etc/vfstab file on phys-schost-2
phys-schost-2# vi /etc/vfstab

…
phys-schost-1# clresource create -g cfs-rg -t SUNW.HAStoragePlus \
-p FileSystemMountPoints="/global/local-fs/apache" hasp-rs
phys-schost-1# clresource create -g cfs-rg -t SUNW.apache \
-p Network_resources_used=hasp-rs apache-rs
phys-schost-1# clresourcegroup online -M cfs-rg