JavaScript is required to for searching.
跳过导航链接
退出打印视图
Oracle Solaris Cluster 软件安装指南
search filter icon
search icon

文档信息

前言

1.  规划 Oracle Solaris Cluster 配置

2.  在全局群集节点上安装软件

3.  建立全局群集

4.  配置 Solaris Volume Manager 软件

5.  安装和配置 Veritas Volume Manager

6.  创建群集文件系统

7.  创建非全局区域和区域群集

在全局群集节点上配置非全局区域

如何在全局群集节点上创建非全局区域

如何对非全局区域使用的群集文件系统配置 HAStoragePlus 资源

配置区域群集

clzonecluster 实用程序概述

建立区域群集

如何准备将 Trusted Extensions 用于区域群集

如何创建区域群集

向区域群集中添加文件系统

如何向区域群集中添加本地文件系统

如何向区域群集中添加 ZFS 存储池

如何向区域群集中添加 QFS 共享文件系统

如何向区域群集中添加群集文件系统

向区域群集中添加存储设备

如何向区域群集中添加单个元设备 (Solaris Volume Manager)

如何向区域群集中添加磁盘集 (Solaris Volume Manager)

如何向区域群集中添加 DID 设备

如何向区域群集中添加原始磁盘设备

8.  将 Oracle Solaris Cluster 模块安装到 Sun Management Center

9.  从群集中卸载软件

A.  Oracle Solaris Cluster 安装和配置工作单

索引

在全局群集节点上配置非全局区域

本节介绍了以下在全局群集节点上创建非全局区域的过程。

如何在全局群集节点上创建非全局区域

对于要在全局群集中创建的每个非全局区域,请执行以下过程。


注 - 有关安装区域的完整信息,请参阅《系统管理指南:Oracle Solaris Containers-资源管理和 Oracle Solaris Zones》


无论以群集模式或非群集模式引导群集节点后,都可以在该节点上配置 Solaris Container 非全局区域(简称区域)。

开始之前

执行以下任务:


注 - 可以关闭选定非全局区域的群集功能,这样登录到这些区域之一的 root 用户便无法搜索或中断群集操作。有关说明,请参见《Oracle Solaris Cluster Data Services Planning and Administration Guide》中的"How to Deny Cluster Services For a Non-Global Zone"《Oracle Solaris Cluster Data Services Planning and Administration Guide》中的"How to Allow Cluster Services For a Non-Global Zone"


有关其他信息,请参见《系统管理指南:Oracle Solaris Containers-资源管理和 Oracle Solaris Zones》中的"区域组件"

  1. 在要创建非投票节点的全局群集节点上成为超级用户。

    您必须在全局区域中工作。

  2. 在每个节点上检验服务管理工具 (Service Management Facility, SMF) 的多用户服务是否处于联机状态。

    如果某个节点上的服务尚未处于联机状态,请等待直到状态变为联机后,再继续执行下一步。

    phys-schost# svcs multi-user-server node
    STATE          STIME    FMRI
    online         17:52:55 svc:/milestone/multi-user-server:default
  3. 配置、安装和引导新区域。

    注 - 必须将 autoboot 属性设置为 true,以便在全局群集中的非投票节点中支持资源组功能。


    请按照 Solaris 文档中的过程操作:

    1. 执行《系统管理指南:Oracle Solaris Containers-资源管理和 Oracle Solaris Zones》中的第 18  章 "规划和配置非全局区域(任务)"中所述的过程。
    2. 执行《系统管理指南:Oracle Solaris Containers-资源管理和 Oracle Solaris Zones》中的"安装和引导区域"中所述的过程。
    3. 执行《系统管理指南:Oracle Solaris Containers-资源管理和 Oracle Solaris Zones》中的"如何引导区域"中所述的过程。
  4. 检验区域是否处于 ready 状态。
    phys-schost# zoneadm list -v
    ID  NAME     STATUS       PATH
     0  global   running      /
     1  my-zone  ready        /zone-path
  5. (可选的)对于共享 IP 区域,为区域分配专用 IP 地址和专用主机名。

    以下命令从群集的专用 IP 地址范围中选择一个可用 IP 地址并进行指定。此外,该命令还将一个指定的专用主机名(或主机别名)分配给区域,并将其映射到已分配的专用 IP 地址。

    phys-schost# clnode set -p zprivatehostname=hostalias node:zone
    -p

    指定一个属性。

    zprivatehostname=hostalias

    指定区域专用主机名(或主机别名)。

    node

    节点名称。

    zone

    全局群集非投票节点的名称。

  6. 执行初始的内部区域配置。

    请按照《系统管理指南:Oracle Solaris Containers-资源管理和 Oracle Solaris Zones》中的"执行初始内部区域配置"中的过程操作。从以下方法中任选其一:

    • 登录到区域。

    • 使用 /etc/sysidcfg 文件。

  7. 在非投票节点中,修改 nsswitch.conf 文件。

    通过进行这些更改,可以使区域能够解析对群集特定主机名和 IP 地址的搜索。

    1. 登录到区域。
      phys-schost# zlogin -c zonename
    2. 打开 /etc/nsswitch.conf 文件以进行编辑。
      sczone# vi /etc/nsswitch.conf
    3. hostsnetmasks 条目的查找语句的开头添加 cluster 开关,后面跟 files 开关。

      修改后的条目应显示如下:

      …
      hosts:      cluster files nis [NOTFOUND=return]
      …
      netmasks:   cluster files nis [NOTFOUND=return]
      …
    4. 对于所有其他条目,确保 files 开关是该条目中列出的第一个开关。
    5. 退出区域。
  8. 如果创建了独占 IP 区域,请在区域中的每个 /etc/hostname.interface 文件中配置 IPMP 组。

    对于区域中的数据服务通信所使用的每个公共网络适配器,都必须配置一个 IPMP 组。此信息不是从全局区域继承的。有关在群集中配置 IPMP 组的更多信息,请参见公共网络

  9. 为该区域使用的所有逻辑主机名资源设置名称-地址映射。
    1. 将名称-地址映射添加到区域中的 /etc/inet/hosts 文件。

      此信息不是从全局区域继承的。

    2. 如果使用名称服务器,应添加名称-地址映射。
接下来的操作

要在非全局区域中安装应用程序,请使用与独立系统相同的过程。有关在非全局区域中安装软件的过程,请参见应用程序的安装文档。另请参见《系统管理指南:Oracle Solaris Containers-资源管理和 Oracle Solaris Zones》中的"在安装了区域的 Solaris 系统上添加和删除软件包和修补程序(任务图)"

要在非全局区域中安装和配置数据服务,请参见各个数据服务对应的 Oracle Solaris Cluster 手册。

如何对非全局区域使用的群集文件系统配置 HAStoragePlus 资源

使用该过程让群集文件系统可供在群集节点上配置的 native 标记非全局区域使用。


注 - 只将该过程用于非全局区域的 native 标记。不能使用其他任何非全局区域的标记(例如 solaris8 标记或用于区域群集的 cluster 标记)执行该任务。


  1. 在全局群集的一个节点上,成为超级用户或使用一个可提供 solaris.cluster.modify RBAC 授权的角色。
  2. 使用 native 标记非全局区域的节点列表创建资源组。
    • 使用以下命令创建故障转移资源组:
      phys-schost# clresourcegroup create -n node:zone[,…] resource-group
      -n node:zone

      在资源组节点列表中指定非全局区域的名称。

      resource-group

      您创建的资源组的名称。

    • 使用以下命令创建可伸缩资源组:
      phys-schost# clresourcegroup create -S -n node:zone[,…] resource-group
      -S

      指定资源组是可伸缩的。

  3. 注册 HAStoragePlus 资源类型。
    phys-schost# clresourcetype register SUNW.HAStoragePlus
  4. 在驻留节点列表中的非全局区域的每个全局群集节点上,将群集文件系统条目添加至 /etc/vfstab 文件。

    群集文件系统的 /etc/vfstab 文件中的条目必须在挂载选项中包含 global 关键字。

    请参见《Oracle Solaris Cluster Data Services Planning and Administration Guide》中的"Sample Entries in /etc/vfstab for Cluster File Systems"

  5. 创建 HAStoragePlus 资源并定义文件系统挂载点。
    phys-schost# clresource create -g resource-group -t SUNW.HAStoragePlus \
    -p FileSystemMountPoints="mount-point-list" hasp-resource
    -g resource-group

    指定要添加新资源的资源组的名称。

    -p FileSystemMountPoints="mount-point-list"

    为资源指定一个或多个文件系统挂载点。

    hasp-resource

    您创建的 HAStoragePlus 资源的名称。

    已用已启用状态创建资源。

  6. resource-group 添加资源并为 hasp-resource 上的资源设置依赖性。

    如果要将多个资源添加至资源组,可对每个资源使用单独的命令。

    phys-schost# clresource create -g resource-group -t resource-type \
    -p Network_resources_used=hasp-resource resource
    -t resource-type

    指定为其创建的资源的资源类型。

    -p Network_resources_used=hasp-resource

    指定在 HAStoragePlus 资源 hasp-resource 上有依赖性的资源。

    resource

    您创建的资源的名称。

  7. 将包含 HAStoragePlus 资源的资源组置于联机状况并使其处于受管理状态。
    phys-schost# clresourcegroup online -M resource-group
    -M

    指定资源组是受管理的。

示例 7-1 对非全局区域使用的群集文件系统配置 HAStoragePlus 资源

以下示例创建故障转移资源组 cfs-rg 以管理 HA-Apache 数据服务。资源组节点列表包含两个非全局区域:phys-schost-1 上的 sczone1phys-schost-2 上的 sczone1。资源组包含 HAStoragePlus 资源 hasp-rs 以及数据服务资源 apache-rs。文件系统挂载点为 /global/local-fs/apache

phys-schost-1# clresourcegroup create -n phys-schost-1:sczone1,phys-schost-2:sczone1 cfs-rg
phys-schost-1# clresourcetype register SUNW.HAStoragePlus

Add the cluster file system entry to the /etc/vfstab file on phys-schost-1
phys-schost-1# vi /etc/vfstab
#device            device         mount          FS    fsck    mount    mount
#to mount          to fsck        point          type  pass    at boot  options
#
/dev/md/kappa-1/dsk/d0 /dev/md/kappa-1/rdsk/d0 /global/local-fs/apache ufs 5 yes logging,global
Add the cluster file system entry to the /etc/vfstab file on phys-schost-2
phys-schost-2# vi /etc/vfstab

…
phys-schost-1# clresource create -g cfs-rg -t SUNW.HAStoragePlus \
-p FileSystemMountPoints="/global/local-fs/apache" hasp-rs
phys-schost-1# clresource create -g cfs-rg -t SUNW.apache \
-p Network_resources_used=hasp-rs apache-rs
phys-schost-1# clresourcegroup online -M cfs-rg