JavaScript is required to for searching.
跳过导航链接
退出打印视图
Oracle Solaris Cluster 软件安装指南     Oracle Solaris Cluster 3.3 3/13 (简体中文)
search filter icon
search icon

文档信息

前言

1.  规划 Oracle Solaris Cluster 配置

2.  在全局群集节点上安装软件

3.  建立全局群集

4.  配置 Solaris Volume Manager 软件

5.  创建群集文件系统

6.  创建非全局区域和区域群集

在全局群集节点上配置非全局区域

如何在全局群集节点上配置非全局区域

如何为非全局区域使用的群集文件系统配置 HAStoragePlus 资源

配置区域群集

clzonecluster 实用程序概述

建立区域群集

如何为 Trusted Extensions 与区域群集搭配使用做好准备

如何创建区域群集

向区域群集中添加文件系统

如何向区域群集添加高可用性本地文件系统

如何向区域群集中添加 ZFS 存储池

如何向区域群集中添加群集文件系统

向特定区域群集节点添加本地文件系统

如何向特定区域群集节点添加本地文件系统

如何向特定区域群集节点添加本地 ZFS 存储池

向区域群集中添加存储设备

如何向区域群集中添加全局存储设备

如何向特定区域群集节点添加原始磁盘设备

7.  从群集中卸载软件

索引

在全局群集节点上配置非全局区域

本节介绍了在全局群集节点上创建非全局区域的过程。

如何在全局群集节点上配置非全局区域

请为您在全局群集中创建的每个非全局区域执行此过程。


注 - 有关安装区域的完整信息,请参阅《系统管理指南:Oracle Solaris Containers-资源管理和 Oracle Solaris Zones》


如果某个群集节点是在群集模式或非群集模式下引导的,则可在该节点上配置 Oracle Solaris Containers 非全局区域(简称为区域)。

开始之前

执行以下任务:


注 - 您可以关闭所选非全局区域的群集功能,这样,登录到其中一个区域的 root 用户将无法搜索或破坏群集的操作。有关说明,请参见《Oracle Solaris Cluster Data Services Planning and Administration Guide》中的"How to Deny Cluster Services For a Non-Global Zone"《Oracle Solaris Cluster Data Services Planning and Administration Guide》中的"How to Allow Cluster Services For a Non-Global Zone"


有关其他信息,请参见《系统管理指南:Oracle Solaris Containers-资源管理和 Oracle Solaris Zones》中的"区域组件"

  1. 在要创建非投票节点的全局群集节点上成为超级用户。

    您必须在全局区域中工作。

  2. 在每个节点上检验服务管理工具 (Service Management Facility, SMF) 的多用户服务是否处于联机状态。

    如果某个节点上的服务尚未处于联机状态,请等待直到状态变为联机后,再继续执行下一步。

    phys-schost# svcs multi-user-server node
    STATE          STIME    FMRI
    online         17:52:55 svc:/milestone/multi-user-server:default
  3. 配置、安装和引导新区域。

    注 - 您必须将 autoboot 属性设置为 true 以便在全局群集上的非投票节点中支持资源组功能。


    请按照 Oracle Solaris 文档中的过程操作:

    1. 执行《系统管理指南:Oracle Solaris Containers-资源管理和 Oracle Solaris Zones》中的第 18  章 "规划和配置非全局区域(任务)"中的过程。
    2. 执行《系统管理指南:Oracle Solaris Containers-资源管理和 Oracle Solaris Zones》中的"安装和引导区域"中的过程。
    3. 执行《系统管理指南:Oracle Solaris Containers-资源管理和 Oracle Solaris Zones》中的"如何引导区域"中的过程。
  4. 检验区域是否处于 ready 状态。
    phys-schost# zoneadm list -v
    ID  NAME     STATUS       PATH
     0  global   running      /
     1  my-zone  ready        /zone-path
  5. 可选对于共享 IP 区域,为区域分配专用 IP 地址和专用主机名。

    以下命令从群集的专用 IP 地址范围中选择一个可用 IP 地址并进行指定。此外,该命令还将一个指定的专用主机名(或主机别名)分配给区域,并将其映射到已分配的专用 IP 地址。

    phys-schost# clnode set -p zprivatehostname=hostalias node:zone
    -p

    指定一个属性。

    zprivatehostname=hostalias

    指定区域专用主机名(或主机别名)。

    node

    节点名称。

    zone

    全局群集非投票节点的名称。

  6. 执行初始的内部区域配置。

    按照《系统管理指南:Oracle Solaris Containers-资源管理和 Oracle Solaris Zones》中的"执行初始内部区域配置"中的过程操作。从以下方法中任选其一:

    • 登录到区域。

    • 使用 /etc/sysidcfg 文件。

  7. 在非投票节点中,修改 nsswitch.conf 文件。

    通过进行这些更改,可以使区域能够解析对群集特定主机名和 IP 地址的搜索。

    1. 登录到区域。
      phys-schost# zlogin -c zonename
    2. 打开 /etc/nsswitch.conf 文件进行编辑。
      sczone# vi /etc/nsswitch.conf
    3. cluster 开关添加到 hostsnetmasks 条目查找的开头,后跟 files 开关。

      修改后的条目应类似于以下内容:

      …
      hosts:      cluster files nis [NOTFOUND=return]
      …
      netmasks:   cluster files nis [NOTFOUND=return]
      …
    4. 对于所有其他条目,请确保 files 开关是条目中列出的第一个开关。
    5. 退出区域。
  8. 如果您创建了一个专用 IP 区域,请在该区域上的每个 /etc/hostname. interface 文件中配置 IPMP 组。

    对于区域中的数据服务通信所使用的每个公共网络适配器,都必须配置一个 IPMP 组。此信息不是从全局区域继承的。有关在群集中配置 IPMP 组的更多信息,请参见公共网络

  9. 为该区域使用的所有逻辑主机名资源设置名称-地址映射。
    1. 将名称-地址映射添加到区域上的 /etc/inet/hosts 文件。

      此信息不是从全局区域继承的。

    2. 如果使用名称服务器,应添加名称-地址映射。

接下来的步骤

要在非全局区域中安装应用程序,可使用与独立系统相同的过程。请参见应用程序的安装文档,了解在非全局区域中安装软件的过程。另请参见《系统管理指南:Oracle Solaris Containers-资源管理和 Oracle Solaris Zones》中的"在安装了区域的 Oracle Solaris 系统上添加和删除软件包和修补程序(任务列表)"

要在非全局区域中安装和配置数据服务,请参见各数据服务的 Oracle Solaris Cluster 手册。

如何为非全局区域使用的群集文件系统配置 HAStoragePlus 资源

使用此过程将群集文件系统设置为可供群集节点上所配置的 native 标记非全局区域使用。


注 - 此过程仅适用于 native 标记非全局区域。不能对任何其他标记(如,用于区域群集的 solaris8 标记或 cluster 标记)的非全局区域执行此任务。


  1. 在全局群集的一个节点上,成为超级用户或承担可提供 solaris.cluster.modify RBAC 授权的角色。
  2. 使用 native 标记非全局区域的节点列表创建一个资源组。
    • 使用以下命令创建故障转移资源组:
      phys-schost# clresourcegroup create -n node:zone[,…] resource-group
      -n node: zone

      指定资源组节点列表中非全局区域的名称。

      resource-group

      您创建的资源组的名称。

    • 使用以下命令创建可伸缩资源组:
      phys-schost# clresourcegroup create -S -n node:zone[,…] resource-group
      -S

      指定资源组可伸缩。

  3. 注册 HAStoragePlus 资源类型。
    phys-schost# clresourcetype register SUNW.HAStoragePlus
  4. 在节点列表中的非全局区域所在的每个全局群集节点上,将群集文件系统条目添加到 /etc/vfstab 文件中。

    群集文件系统的 /etc/vfstab 文件中的条目必须在挂载选项中包含 global 关键字。

    请参见《Oracle Solaris Cluster Data Services Planning and Administration Guide》中的"Sample Entries in /etc/vfstab for Cluster File Systems"

  5. 创建 HAStoragePlus 资源并定义文件系统挂载点。
    phys-schost# clresource create -g resource-group -t SUNW.HAStoragePlus \
    -p FileSystemMountPoints="mount-point-list" hasp-resource
    -g resource-group

    指定要在其中添加新资源的资源组的名称。

    -p FileSystemMountPoints="mount-point-list "

    为资源指定一个或多个文件系统挂载点。

    hasp-resource

    您创建的 HAStoragePlus 资源的名称。

    资源在启用状态下创建。

  6. 将资源添加到 resource-group 并设置该资源对 hasp-resource 的依赖性。

    如果要将多个资源添加到资源组,请对每个资源使用单独的命令。

    phys-schost# clresource create -g resource-group -t resource-type \
    -p Network_resources_used=hasp-resource resource
    -t resource-type

    指定要创建的资源的资源类型。

    -p Network_resources_used= hasp-resource

    指定该资源对 HAStoragePlus 资源 hasp-resource 具有依赖性。

    resource

    您创建的资源的名称。

  7. 使包含 HAStoragePlus 资源的资源组联机并处于受管状态。
    phys-schost# clresourcegroup online -eM resource-group
    -M

    指定资源组受管理。

示例 6-1 为非全局区域使用的群集文件系统配置 HAStoragePlus 资源

以下示例将创建一个故障转移资源组 cfs-rg 来管理 HA-Apache 数据服务。资源组节点列表包含两个非全局区域,即 phys-schost-1 上的 sczone1phys-schost-2 上的 sczone1。资源组包含一个 HAStoragePlus 资源 hasp-rs 和一个数据服务资源 apache-rs。文件系统挂载点为 /global/local-fs/apache

phys-schost-1# clresourcegroup create -n phys-schost-1:sczone1,phys-schost-2:sczone1 cfs-rg
phys-schost-1# clresourcetype register SUNW.HAStoragePlus

Add the cluster file system entry to the /etc/vfstab file on phys-schost-1
phys-schost-1# vi /etc/vfstab
#device            device         mount          FS    fsck    mount    mount
#to mount          to fsck        point          type  pass    at boot  options
#
/dev/md/kappa-1/dsk/d0 /dev/md/kappa-1/rdsk/d0 /global/local-fs/apache ufs 5 yes logging,global
Add the cluster file system entry to the /etc/vfstab file on phys-schost-2
phys-schost-2# vi /etc/vfstab

…
phys-schost-1# clresource create -g cfs-rg -t SUNW.HAStoragePlus \
-p FileSystemMountPoints="/global/local-fs/apache" hasp-rs
phys-schost-1# clresource create -g cfs-rg -t SUNW.apache \
-p Network_resources_used=hasp-rs apache-rs
phys-schost-1# clresourcegroup online -eM cfs-rg