JavaScript is required to for searching.
跳过导航链接
退出打印视图
Oracle Solaris Cluster 软件安装指南     Oracle Solaris Cluster 3.3 3/13 (简体中文)
search filter icon
search icon

文档信息

前言

1.  规划 Oracle Solaris Cluster 配置

2.  在全局群集节点上安装软件

3.  建立全局群集

4.  配置 Solaris Volume Manager 软件

5.  创建群集文件系统

6.  创建非全局区域和区域群集

在全局群集节点上配置非全局区域

如何在全局群集节点上配置非全局区域

如何为非全局区域使用的群集文件系统配置 HAStoragePlus 资源

配置区域群集

clzonecluster 实用程序概述

建立区域群集

如何为 Trusted Extensions 与区域群集搭配使用做好准备

如何创建区域群集

向区域群集中添加文件系统

如何向区域群集添加高可用性本地文件系统

如何向区域群集中添加 ZFS 存储池

如何向区域群集中添加群集文件系统

向特定区域群集节点添加本地文件系统

如何向特定区域群集节点添加本地文件系统

如何向特定区域群集节点添加本地 ZFS 存储池

向区域群集中添加存储设备

如何向区域群集中添加全局存储设备

如何向特定区域群集节点添加原始磁盘设备

7.  从群集中卸载软件

索引

配置区域群集

本节提供了用于配置 Oracle Solaris Container 非全局区域的群集(称为区域群集)的过程。

clzonecluster 实用程序概述

clzonecluster 实用程序可用来创建、修改和删除区域群集。clzonecluster 实用程序主动管理区域群集。例如,clzonecluster 实用程序既可以引导区域群集,又可以停止区域群集。clzonecluster 实用程序的进度消息输出到控制台,而不是保存在日志文件中。

zonecfg 实用程序类似,该实用程序在以下范围级别运行:

建立区域群集

本节介绍了如何配置非全局区域的群集。

如何为 Trusted Extensions 与区域群集搭配使用做好准备

此过程对全局群集进行准备,以便将 Oracle Solaris 软件的 Trusted Extensions 功能与区域群集搭配使用并启用 Trusted Extensions 功能。

如果不打算启用 Trusted Extensions,请转至如何创建区域群集

请对全局群集中的每个节点执行该过程。

开始之前

执行以下任务:

  1. 成为全局群集中某个节点上的超级用户。
  2. 禁用 Trusted Extensions zonesharezoneunshare 脚本。

    Trusted Extensions zonesharezoneunshare 脚本支持导出系统上主目录的功能。Oracle Solaris Cluster 配置不支持此功能。

    通过将每个脚本替换为指向 /bin/true 实用程序的符号链接禁用此功能。在每个全局群集节点上执行此操作。

    phys-schost# ln -s /usr/lib/zones/zoneshare /bin/true
    phys-schost# ln -s /usr/lib/zones/zoneunshare /bin/true
  3. 配置全局群集中的所有逻辑主机名共享 IP 地址。

    请参见《Oracle Solaris Trusted Extensions 配置指南》中的"运行 txzonemgr 脚本"

  4. 确保在 /etc/security/tsol/tnrhdb 文件中将管理控制台定义为 admin_low
    ipaddress:admin_low
  5. 确保 /etc/hostname.interface 文件的条目中不包含 -failover 选项。

    从包含 -failover 选项的所有条目中删除该选项。

  6. /etc/security/tsol/tnrhdb 文件修改为授权与全局群集组件的通信。

    按照《Trusted Extensions 管理员规程》中的"如何构造远程主机模板"中所述,在 Solaris Management Console 中使用 "Security Templates"(安全模板)向导执行以下任务。

    • 为群集组件所使用的各 IP 地址创建一个新条目,并为每个条目分配一个 CIPSO 模板。

      为全局群集节点 /etc/inet/hosts 文件中存在的以下每个 IP 地址添加条目:

      • 每个全局群集节点专用 IP 地址

      • 全局群集中的所有 cl_privnet IP 地址

      • 全局群集的每个逻辑主机名公共 IP 地址

      • 全局群集每个共享地址资源的公共 IP 地址

      条目应类似于以下内容。

      127.0.0.1:cipso
      172.16.4.1:cipso
      172.16.4.2:cipso
      …
    • 添加一个条目,使默认模板成为内部模板。

      0.0.0.0:internal

    有关 CIPSO 模板的更多信息,请参见《Oracle Solaris Trusted Extensions 配置指南》中的"配置系统解释域"

  7. 启用 Trusted Extensions SMF 服务并重新引导全局群集节点。
    phys-schost# svcadm enable -s svc:/system/labeld:default
    phys-schost# shutdown -g0 -y -i6

    有关更多信息,请参见《Oracle Solaris Trusted Extensions 配置指南》中的"启用 Trusted Extensions"

  8. 检验是否已启用 Trusted Extensions SMF 服务。
    phys-schost# svcs labeld
    STATE          STIME    FMRI
    online         17:52:55 svc:/system/labeld:default
  9. 对全局群集的每个剩余节点,重复执行步骤 1步骤 8

    在所有全局群集节点上完成所有步骤后,请对全局群集的每个节点执行此过程中剩余的步骤。

  10. 将启用 Trusted Extensions 的 LDAP 服务器的 IP 地址添加到每个全局群集节点上的 /etc/inet/hosts 文件中。

    全局区域和区域群集的节点将使用 LDAP 服务器。

  11. 启用 LDAP 服务器到全局群集节点的远程登录。
    1. /etc/default/login 文件中,注释掉 CONSOLE 项。
    2. 启用远程登录。
      phys-schost# svcadm enable rlogin
    3. 修改 /etc/pam.conf 文件。

      通过附加 Tab 并分别键入 allow_remoteallow_unlabeled 来修改帐户管理条目,如下所示。

      other   account requisite       pam_roles.so.1        Tab  allow_remote
      other   account required        pam_unix_account.so.1 Tab  allow_unlabeled
  12. 修改 /etc/nsswitch.ldap 文件。
    • 确保 passwdgroup 查找条目将 files 列在查找顺序的首位。

      …
      passwd:      files ldap
      group:       files ldap
      …
    • 确保 hostsnetmasks 查找条目将 cluster 列在查找顺序的首位。

      …
      hosts:       cluster files ldap
      …
      netmasks:    cluster files ldap
      …
  13. 使全局群集节点成为 LDAP 客户端。

    请参见《Oracle Solaris Trusted Extensions 配置指南》中的"使全局区域成为 Trusted Extensions 中的客户机"

  14. 将 Trusted Extensions 用户添加到 /etc/security/tsol/tnzonecfg 文件中。

    《Oracle Solaris Trusted Extensions 配置指南》中的"在 Trusted Extensions 中创建角色和用户"中所述,在 Solaris Management Console 中使用 "Add User Wizard"(添加用户向导)。

接下来的步骤

创建区域群集。请转至如何创建区域群集

如何创建区域群集

执行此过程可创建非全局区域的群集。

要在安装区域群集后进行修改,请参见《Oracle Solaris Cluster 系统管理指南》中的"执行区域群集管理任务"clzonecluster(1CL) 手册页。

开始之前

  1. 成为全局群集的某个活动成员节点上的超级用户。

    注 - 从全局群集的节点执行此过程中的所有步骤。


  2. 确保全局群集的节点处于群集模式。

    如果任一节点处于非群集模式,当该节点返回到群集模式时,所做的更改将进行传播。因此,即使某些全局群集节点处于非群集模式,您也可以创建区域群集。当这些节点返回到群集模式时,系统会对它们执行区域群集创建任务。

    phys-schost# clnode status
    === Cluster Nodes ===
    
    --- Node Status ---
    
    Node Name                                       Status
    ---------                                       ------
    phys-schost-2                                   Online
    phys-schost-1                                   Online
  3. 启动 clsetup 实用程序。
    phys-schost# clsetup

    这时将显示主菜单。

  4. 选择 "Zone Cluster"(区域群集)菜单项。
  5. 选择 "Create Zone Cluster"(创建区域群集)菜单项。
  6. 键入您要添加的区域群集名称。

    区域群集名称可包含 ASCII 字母(a-z 和 A-Z)、数字、短划线或下划线。名称的最大长度为 20 个字符。

  7. 选择您要更改的属性。

    注 - brandip-type 属性采用默认设置,不能更改。


    您可以设置以下属性:


    属性
    说明
    zonepath= zone-cluster-node-path
    指定区域群集节点的路径。例如,/zones/sczone
    enable_priv_net= value
    设置为 true 时,在区域群集的节点之间将启用 Oracle Solaris Cluster 专用网络通信。区域群集节点的 Oracle Solaris Cluster 专用主机名和 IP 地址是由系统自动生成的。如果该值设置为 false,将禁用专用网络通信。默认值为 true
    limitpriv= privilege[,…]
    指定此区域中的任何进程可以获得的最大权限集。有关更多信息,请参见 zonecfg(1M) 手册页。
  8. 可选选择您要更改的区域系统资源控制属性。

    您可以设置以下属性:


    属性
    说明
    max-lwps=value
    指定该区域群集可同时使用的轻量级进程 (lightweight process, LWP) 的最大数量。
    max-shm-memory=value
    指定该区域群集允许的最大共享内存量(以 GB 为单位)。
    max-shm-ids=value
    指定该区域群集允许的最多共享内存 ID 数目。
    max-msg-ids=value
    指定该区域群集允许的最多消息队列 ID 数目。
    max-sem-ids= value
    指定该区域群集允许的最多信号量 ID 数目。
    cpu-shares=value
    指定分配给该区域群集的公平份额调度程序 (Fair Share Scheduler, FSS) 份额数量。
  9. 可选选择您要更改的区域 CPU 资源控制属性。

    您可以设置以下属性:


    属性
    说明
    scope= scope-type
    指定区域群集中使用的 ncpus 属性是 dedicated-cpu 还是 capped-cpu
    ncpus= value
    指定范围类型的限制。
    • 如果 scope 属性设置为 dedicated-cpu,则 ncpus 属性将对应当指定给该区域专用使用的 CPU 数量设置限制。该区域引导时,将创建池和处理器集。有关资源池的更多信息,请参见 pooladm(1M)poolcfg(1M) 手册页。

    • 如果 scope 属性设置为 capped-cpu,则 ncpus 属性将对区域群集可使用的 CPU 时间设置限制。使用量将转换为可由区域中所有用户线程使用的单个 CPU 的百分比,表示为分数(例如 .75)或带分数(整数加分数,例如 1.25)。ncpus 值 1 表示 100% 的 CPU。有关资源池的更多信息,请参见 pooladm(1M)pooladm(1M)poolcfg(1M) 手册页。

  10. 可选选择您要更改的上限内存 (capped-memory) 属性。

    您可以设置以下属性:


    属性
    说明
    physical= value
    指定物理内存限制 (GB)。
    swap=value
    指定交换内存限制 (GB)。
    locked= value
    指定锁定内存限制 (GB)。
  11. 从可用物理主机列表中选择物理主机。

    您可以选择一个或所有可用物理节点(或主机),然后每次配置一个区域群集节点。

    您可以设置以下属性:


    属性
    说明
    hostname= hostname
    指定区域群集节点主机名。例如,zc-host-1
    address= public-network-address
    指定共享 IP 类型区域群集上区域群集节点的公共网络地址。例如,172.1.1.1
    physical= physical-interface
    从物理节点上搜索到的可用网络接口中指定公共网络的网络物理接口,例如 bge0
    defrouter= default-router
    如果在其他子网中配置了您的区域,则指定网络地址的默认路由器。使用不同的 defrouter 设置的每个区域或区域集必须处于不同的子网中,例如 192.168.0.1。有关 defrouter 属性的更多信息,请参见 zonecfg(1M) 手册页。
  12. 指定用于区域群集的网络地址。

    网络地址可用于在区域群集中配置逻辑主机名或共享 IP 群集资源。网络地址在区域群集全局范围中。

  13. 在 "Review Configuration"(查看配置)屏幕中按回车键继续,然后键入 c 创建区域群集。

    将会显示配置更改结果,类似于以下内容:

     >>> Result of the Creation for the Zone Cluster(sczone) <<<
    
        The zone cluster is being created with the following configuration
    
            /usr/cluster/bin/clzonecluster configure sczone
            create
            set brand=cluster
            set zonepath=/zones/sczone
            set ip-type=shared
            set enable_priv_net=true
            add capped-memory
            set physical=2G
            end
            add node
            set physical-host=phys-schost-1
            set hostname=zc-host-1
            add net
            set address=172.1.1.1
            set physical=net0
            end
            end
            add net
            set address=172.1.1.2
                  end
    
        Zone cluster, zc2 has been created and configured successfully.
    
        Continue to install the zone cluster(yes/no) ?
  14. 键入 yes 继续。

    clsetup 实用程序将执行区域群集的标准安装,您无法指定任何选项。

  15. 完成后,退出 clsetup 实用程序。
  16. 检验区域群集配置。

    verify 子命令用于检查指定资源的可用性。如果 clzonecluster verify 命令成功,则没有任何输出。

    phys-schost-1# clzonecluster verify zoneclustername
    phys-schost-1# clzonecluster status zoneclustername
    === Zone Clusters ===
    
    --- Zone Cluster Status ---
    
    Name      Node Name   Zone HostName   Status    Zone Status
    ----      ---------   -------------   ------    -----------
    zone      basenode1    zone-1        Offline   Configured
              basenode2    zone-2        Offline   Configured
  17. 对于 Trusted Extensions,使密码文件在每个区域群集节点上都可写。

    从全局区域中,启动 txzonemgr GUI。

    phys-schost# txzonemgr

    选择全局区域,然后选择 "Configure per-zone name service"(配置每区域命名服务)项。

  18. 安装区域群集。
    phys-schost-1# clzonecluster install [-c config-profile.xml] zoneclustername
    Waiting for zone install commands to complete on all the nodes 
    of the zone cluster "zoneclustername"...

    -c config-profile.xml 选项为区域群集的所有非全局区域指定配置文件。使用该选项仅更改区域的主机名,该主机名对区域群集中的每个区域是唯一的。所有配置文件都必须有 .xml 扩展名。

  19. 引导区域群集。
    Installation of the zone cluster might take several minutes
    phys-schost-1# clzonecluster boot zoneclustername
    Waiting for zone boot commands to complete on all the nodes of 
    the zone cluster "zoneclustername"...
  20. 如果安装区域群集时使用 -c config-profile.xml 选项,请执行 sysid 配置。

    对每个区域群集节点执行以下步骤。


    注 - 在以下步骤中,非全局区域 zcnodezone-cluster-name 共享相同的名称。


    1. 取消配置 Oracle Solaris 实例并重新引导区域。
      phys-schost# zlogin zcnode
      zcnode# sysconfig unconfigure
      zcnode# reboot

      重新引导期间 zlogin 会话将终止。

    2. 发出 zlogin 命令并通过交互式屏幕跟踪进度。
      phys-schost# zlogin -C zcnode
    3. 完成后,退出区域控制台。

      有关从非全局区域中退出的方法的信息,请参见《系统管理指南:Oracle Solaris Containers-资源管理和 Oracle Solaris Zones》中的"如何退出非全局区域"

    4. 对每个剩余的区域群集节点重复这些步骤。
  21. 如果使用 Trusted Extensions,请完成区域群集的 IP 地址映射。

    请在区域群集的每个节点上执行此步骤。

    1. 从全局群集的节点中,显示节点 ID。
      phys-schost# cat /etc/cluster/nodeid
      N
    2. 登录到同一全局群集节点上的区域群集节点。

      在登录前确保已导入 SMF 服务,且所有服务都处于启动状态。

    3. 确定该区域群集节点用于专用互连的 IP 地址。

      当群集软件配置区域群集时,将自动分配这些 IP 地址。

      ifconfig -a 输出中,找到属于区域群集的 clprivnet0 逻辑接口。inet 的值是分配的 IP 地址,用于支持该区域群集使用群集专用互连。

      zc1# ifconfig -a
      lo0:3: flags=20010008c9<UP,LOOPBACK,RUNNING,NOARP,MULTICAST,IPv4,VIRTUAL> mtu 8232 index 1
              zone zc1
              inet 127.0.0.1 netmask ff000000
      bge0: flags=1000843<UP,BROADCAST,RUNNING,MULTICAST,IPv4> mtu 1500 index 2
              inet 10.11.166.105 netmask ffffff00 broadcast 10.11.166.255
              groupname sc_ipmp0
              ether 0:3:ba:19:fa:b7
      ce0: flags=9040843<UP,BROADCAST,RUNNING,MULTICAST,DEPRECATED,IPv4,NOFAILOVER> mtu 1500 index 4
              inet 10.11.166.109 netmask ffffff00 broadcast 10.11.166.255
              groupname sc_ipmp0
              ether 0:14:4f:24:74:d8
      ce0:3: flags=1000843<UP,BROADCAST,RUNNING,MULTICAST,IPv4> mtu 1500 index 4
              zone zc1
              inet 10.11.166.160 netmask ffffff00 broadcast 10.11.166.255
      clprivnet0: flags=1009843<UP,BROADCAST,RUNNING,MULTICAST,MULTI_BCAST,PRIVATE,IPv4> mtu 1500 index 7
              inet 172.16.0.18 netmask fffffff8 broadcast 172.16.0.23
              ether 0:0:0:0:0:2
      clprivnet0:3: flags=1009843<UP,BROADCAST,RUNNING,MULTICAST,MULTI_BCAST,PRIVATE,IPv4> mtu 1500 index 7
              zone zc1
              inet 172.16.0.22 netmask fffffffc broadcast 172.16.0.23
    4. 将区域群集节点的 IP 地址添加到区域群集节点的 /etc/inet/hosts 文件中。
      • 专用互连的主机名 clusternodeN-priv,其中 N 是全局群集节点 ID

        172.16.0.22    clusternodeN-priv 
      • 创建区域群集时指定给 clzonecluster 命令的 net 资源

    5. 对剩余的区域群集节点重复这些步骤。
  22. /etc/security/tsol/tnrhdb 文件修改为授权与区域群集组件的通信。

    按照《Trusted Extensions 管理员规程》中的"如何构造远程主机模板"中所述,在 Solaris Management Console 中使用 "Security Templates"(安全模板)向导执行以下任务。

    • 为区域群集组件所使用的各 IP 地址创建一个新条目,并为每个条目分配一个 CIPSO 模板。

      为区域群集节点 /etc/inet/hosts 文件中存在的以下每个 IP 地址添加条目:

      • 每个区域群集节点的专用 IP 地址

      • 区域群集中的所有 cl_privnet IP 地址

      • 区域群集的每个逻辑主机名公共 IP 地址

      • 区域群集每个共享地址资源的公共 IP 地址

      条目应类似于以下内容。

      127.0.0.1:cipso
      172.16.4.1:cipso
      172.16.4.2:cipso
      …
    • 添加一个条目,使默认模板成为内部模板。

      0.0.0.0:internal

    有关 CIPSO 模板的更多信息,请参见《Oracle Solaris Trusted Extensions 配置指南》中的"配置系统解释域"

  23. 启用 DNS 和对区域群集节点的 rlogin 访问。

    对区域群集的每个节点执行以下命令。

    phys-schost# zlogin zcnode
    zcnode# svcadm enable svc:/network/dns/client:default
    zcnode# svcadm enable svc:/network/login:rlogin
    zcnode# reboot

示例 6-2 用来创建区域群集的配置文件

以下示例显示了可以与 clzonecluster 实用程序一起用来创建区域群集的命令文件的内容。该文件包含一系列需要您手动输入的 clzonecluster 命令。

在下面的配置中,将在全局群集节点 phys-schost-1 上创建区域群集 sczone。区域群集使用 /zones/sczone 作为区域路径,并使用公共 IP 地址 172.16.2.2。区域群集的第一个节点被指定了主机名 zc-host-1,并且使用网络地址 172.16.0.1bge0 适配器。区域群集的第二个节点在全局群集节点 phys-schost-2 上进行创建。第二个区域群集节点被指定了主机名 zc-host-2,并且使用网络地址 172.16.0.2bge1 适配器。

create
set zonepath=/zones/sczone
add net
set address=172.16.2.2
end
add node
set physical-host=phys-schost-1
set hostname=zc-host-1
add net
set address=172.16.0.1
set physical=bge0
end
end
add sysid
set root_password=encrypted_password
end
add node
set physical-host=phys-schost-2
set hostname=zc-host-2
add net
set address=172.16.0.2
set physical=bge1
end
end
commit
exit

接下来的步骤

要向区域群集中添加文件系统,请转至向区域群集中添加文件系统

要向区域群集中添加全局存储设备,请转至向区域群集中添加存储设备

另请参见

要对区域群集进行修补,请按《Oracle Solaris Cluster 系统管理指南》中的第 11  章 "修补 Oracle Solaris Cluster 软件和固件"中的过程操作。这些过程包括有关区域群集的特殊说明(如有需要)。

向区域群集中添加文件系统

本节介绍了添加供区域群集使用的文件系统的过程。

在将某个文件系统添加到区域群集并使其联机之后,将授权在该区域群集中使用文件系统。要挂载文件系统以供使用,可通过使用群集资源(例如 SUNW.HAStoragePlusSUNW.ScalMountPoint)来配置文件系统。

本节包含以下过程:

此外,要将 ZFS 存储池配置为在区域群集中具有高可用性,请参见《Oracle Solaris Cluster Data Services Planning and Administration Guide》中的"How to Set Up the HAStoragePlus Resource Type to Make a Local Solaris ZFS Highly Available"

如何向区域群集添加高可用性本地文件系统

执行此过程可在全局群集上配置高可用性本地文件系统,供区域群集使用。此文件系统添加到区域群集,并为其配置 HAStoragePlus 资源,以实现本地文件系统的高可用性。

请从全局群集的节点上执行此过程中的所有步骤。

  1. 成为可托管区域群集的全局群集节点上的超级用户。

    注 - 请从全局群集的节点上执行此过程中的所有步骤。


  2. 启动 clsetup 实用程序。
    phys-schost# clsetup

    这时将显示主菜单。


    提示 - 要返回到上一个屏幕,请键入 < 键,然后按回车键。


  3. 选择 "Zone Cluster"(区域群集)菜单项。

    此时将显示 "Zone Cluster Tasks"(区域群集任务)菜单。

  4. 选择 "Add File System/Storage Device to a Zone Cluster"(向区域群集添加文件系统/存储设备)菜单项。

    此时将显示 "Select Zone Cluster"(选择区域群集)菜单。

  5. 选择您要添加文件系统的区域群集。

    此时将显示 "Storage Type Selection"(存储类型选择)菜单。

  6. 选择 "File System"(文件系统)菜单项。

    此时将显示 "File System Selection for the Zone Cluster"(区域群集的文件系统选择)菜单。

  7. 选择您要添加到区域群集的文件系统。

    列表中的文件系统是在共享磁盘上配置的,可由配置有区域群集的节点进行访问。还可以键入 e 手动指定文件系统的所有属性。

    此时将显示 "Mount Type Selection"(挂载类型选择)菜单。

  8. 选择 "Loopback"(回送)挂载类型。

    此时将显示 "File System Properties for the Zone Cluster"(区域群集的文件系统属性)菜单。

  9. 为要添加的文件系统更改允许您更改的属性。

    注 - 对于 UFS 文件系统,启用日志记录功能。


    完成后,键入 d 并按回车键。

  10. 键入 c 以保存配置更改。

    将会显示配置更改结果。

  11. 完成后,退出 clsetup 实用程序。
  12. 检验是否添加了该文件系统。
    phys-schost# clzonecluster show -v zoneclustername

示例 6-3 向区域群集中添加高可用性本地文件系统

此示例将添加供 sczone 区域群集使用的本地文件系统 /global/oracle/d1

phys-schost-1# clzonecluster configure sczone
clzc:sczone> add fs
clzc:sczone:fs> set dir=/global/oracle/d1
clzc:sczone:fs> set special=/dev/md/oracle/dsk/d1
clzc:sczone:fs> set raw=/dev/md/oracle/rdsk/d1
clzc:sczone:fs> set type=ufs
clzc:sczone:fs> add options [logging]
clzc:sczone:fs> end
clzc:sczone> verify
clzc:sczone> commit
clzc:sczone> exit

phys-schost-1# clzonecluster show -v sczone
…
  Resource Name:                            fs
    dir:                                       /global/oracle/d1
    special:                                   /dev/md/oracle/dsk/d1
    raw:                                       /dev/md/oracle/rdsk/d1
    type:                                      ufs
    options:                                   [logging]
    cluster-control:                           [true]
…

接下来的步骤

通过使用 HAStoragePlus 资源将文件系统配置为具有高可用性。HAStoragePlus 资源管理区域群集节点上文件系统的挂载,该节点当前托管配置为使用该文件系统的应用程序。请参见《Oracle Solaris Cluster Data Services Planning and Administration Guide》中的"Enabling Highly Available Local File Systems"

如何向区域群集中添加 ZFS 存储池

执行此过程可添加供区域群集使用的 ZFS 存储池。该池可以是单个区域群集节点的本地池,或通过 HAStoragePlus 配置为高可用性池。

clsetup 实用程序将搜索并显示共享磁盘上所有已配置的 ZFS 池,这些共享磁盘可由配置有选定区域群集的节点访问。当您使用 clsetup 实用程序向现有区域群集添加群集范围的 ZFS 存储池后,可以使用 clzonecluster 命令修改配置或在节点范围内添加 ZFS 存储池。

开始之前

请确保该 ZFS 池连接到与区域群集的所有节点相连的共享磁盘。有关创建 ZFS 池的过程,请参见《Oracle Solaris ZFS 管理指南》

  1. 成为可托管区域群集的全局群集节点上的超级用户。

    注 - 从全局区域的节点执行此过程中的所有步骤。


  2. 启动 clsetup 实用程序。
    phys-schost# clsetup

    这时将显示主菜单。


    提示 - 要返回到上一个屏幕,请键入 < 键,然后按回车键。


  3. 选择 "Zone Cluster"(区域群集)菜单项。

    此时将显示 "Zone Cluster Tasks"(区域群集任务)菜单。

  4. 选择 "Add File System/Storage Device to a Zone Cluster"(向区域群集添加文件系统/存储设备)菜单项。

    此时将显示 "Select Zone Cluster"(选择区域群集)菜单。

  5. 选择您要添加 ZFS 存储池的区域群集。

    此时将显示 "Storage Type Selection"(存储类型选择)菜单。

  6. 选择 "ZFS" 菜单项。

    此时将显示 "ZFS Pool Selection for the Zone Cluster"(区域群集的 ZFS 池选择)菜单。

  7. 选择您要添加到区域群集的 ZFS 池。

    列表中的 ZFS 池是在共享磁盘上配置的,可由配置有区域群集的节点进行访问。还可以键入 e 手动指定 ZFS 池的属性。

    此时将显示 "ZFS Pool Dataset Property for the Zone Cluster"(区域群集的 ZFS 池数据集属性)菜单。向选定的 ZFS 池指定了 name 属性。

  8. 键入 d 并按回车键。

    此时将显示 "Review File Systems/Storage Devices for the Zone Cluster"(查看区域群集的文件系统/存储设备)菜单。

  9. 键入 c 以保存配置更改。

    将会显示配置更改结果。例如:

     >>> Result of Configuration Change to the Zone Cluster(sczone) <<<
    
        Adding file systems or storage devices to sczone zone cluster...
    
        The zone cluster is being created with the following configuration
    
            /usr/cluster/bin/clzonecluster configure sczone
            add dataset
            set name=myzpool5
            end
    
        Configuration change to sczone zone cluster succeeded.
  10. 完成后,退出 clsetup 实用程序。
  11. 检验是否添加了该文件系统。
    phys-schost# clzonecluster show -v zoneclustername

示例 6-4 向区域群集中添加 ZFS 存储池

以下示例显示了将 ZFS 存储池 zpool1 添加到区域群集 sczone 中的过程。

phys-schost-1# clzonecluster configure sczone
clzc:sczone> add dataset
clzc:sczone:dataset> set name=zpool1
clzc:sczone:dataset> end
clzc:sczone> verify
clzc:sczone> commit
clzc:sczone> exit

phys-schost-1# clzonecluster show -v sczone
…
  Resource Name:                                dataset
    name:                                          zpool1
…

接下来的步骤

通过使用 HAStoragePlus 资源将 ZFS 存储池配置为具有高可用性。在配置为使用文件系统的应用程序当前所在的区域群集节点上,HAStoragePlus 资源在池中管理文件系统的挂载。请参见《Oracle Solaris Cluster Data Services Planning and Administration Guide》中的"Enabling Highly Available Local File Systems"

如何向区域群集中添加群集文件系统

clsetup 实用程序将搜索并显示可用的文件系统,这些文件系统是在配置有选定区域群集的群集节点上配置的。当您使用 clsetup 实用程序添加文件系统时,文件系统是在群集范围内添加的。

您可以向区域群集添加以下类型的群集文件系统:

开始之前

请确保配置了您要添加到区域群集的群集文件系统。请参见规划群集文件系统第 5 章

  1. 成为可托管区域群集的全局群集节点上的超级用户。

    注 - 请从全局群集的一个投票节点中执行此过程的所有步骤。


  2. 在托管区域群集节点的全局群集的每个节点上,向要在区域群集上挂载的文件系统的 /etc/vfstab 文件添加条目。
    phys-schost# vi /etc/vfstab
    • 对于 UFS 条目,包括 global 挂载选项,类似于以下示例:
      /dev/md/datadg/dsk/d0 /dev/md/datadg/rdsk/d0 /global/fs ufs 2 no global, logging
    • 对于共享 QFS 条目,包括 shared 挂载选项,类似于以下示例:
      Data-cz1    -    /db_qfs/Data1 samfs - no shared,notrace
  3. 在全局群集上,启动 clsetup 实用程序。
    phys-schost# clsetup

    这时将显示主菜单。


    提示 - 要返回到上一个屏幕,请键入 < 键,然后按回车键。


  4. 选择 "Zone Cluster"(区域群集)菜单项。

    此时将显示 "Zone Cluster Tasks"(区域群集任务)菜单。

  5. 选择 "Add File System/Storage Device to a Zone Cluster"(向区域群集添加文件系统/存储设备)菜单项。

    此时将显示 "Select Zone Cluster"(选择区域群集)菜单。

  6. 选择您要添加文件系统的区域群集。

    此时将显示 "Storage Type Selection"(存储类型选择)菜单。

  7. 选择 "File System"(文件系统)菜单项。

    此时将显示 "File System Selection for the Zone Cluster"(区域群集的文件系统选择)菜单。

  8. 从列表中选择文件系统。

    此时将显示 "Mount Type Selection"(挂载类型选择)菜单。

    还可以键入 e 手动指定文件系统的所有属性。


    注 - 如果使用 ACFS 文件系统,请键入 a 以选择 Discover ACFS,然后指定 ORACLE_HOME 目录。


  9. 选择区域群集的回送文件系统挂载类型。

    注 - 如果在步骤 8 中选择了 ACFS 文件系统,则 clsetup 实用程序会跳过此步骤,因为 ACFS 仅支持直接挂载类型。


    有关创建回送文件系统的更多信息,请参见《System Administration Guide: Devices and File Systems》中的"How to Create and Mount an LOFS File System"

    此时将显示 "File System Properties for the Zone Cluster"(区域群集的文件系统属性)菜单。

  10. 指定挂载点目录。

    键入 dir 属性的编号,然后按回车键。在 "New Value"(新值)字段中键入 LOFS 挂载点目录名称,然后按回车键。

    完成后,键入 d 并按回车键。此时将显示 "Review File Systems/Storage Devices for the Zone Cluster"(查看区域群集的文件系统/存储设备)菜单。

  11. 键入 c 以保存配置更改。

    将会显示配置更改结果。例如:

      >>> Result of Configuration Change to the Zone Cluster(sczone) <<<
    
        Adding file systems or storage devices to sczone zone cluster...
    
        The zone cluster is being created with the following configuration
    
            /usr/cluster/bin/clzonecluster configure sczone
            add fs
            set dir=/dev/md/ddg/dsk/d9
            set special=/dev/md/ddg/dsk/d10
            set raw=/dev/md/ddg/rdsk/d10
            set type=lofs
            end
    
        Configuration change to sczone zone cluster succeeded.
  12. 完成后,退出 clsetup 实用程序。
  13. 检验是否添加了 LOFS 文件系统。
    phys-schost# clzonecluster show -v zoneclustername

接下来的步骤

(可选)配置由 HAStoragePlus 资源管理的群集文件系统。HAStoragePlus 资源的管理方法是,在全局群集中挂载文件系统,并稍后在配置为使用该文件系统的应用程序当前所在的区域群集节点上执行回送挂载。有关更多信息,请参见《Oracle Solaris Cluster Data Services Planning and Administration Guide》中的"Configuring an HAStoragePlus Resource for Cluster File Systems"

向特定区域群集节点添加本地文件系统

本节介绍了如何添加专用于单个区域群集节点的文件系统。要配置供整个区域群集使用的文件系统,请转至向区域群集中添加文件系统

本节包含以下过程:

如何向特定区域群集节点添加本地文件系统

执行此过程可向特定区域群集的某个特定区域群集节点添加本地文件系统。该文件系统不是由 Oracle Solaris Cluster 软件进行管理,而是传送到底层 Oracle Solaris 区域。


注 - 要向区域群集添加具有高可用性的本地文件系统,请执行如何向区域群集添加高可用性本地文件系统中的过程。


  1. 成为可托管区域群集的全局群集节点上的超级用户。

    注 - 请从全局群集的节点上执行此过程中的所有步骤。


  2. 创建您要为特定区域群集节点配置的本地文件系统。

    使用要配置的区域群集节点所在的全局群集节点的本地磁盘。

  3. 在节点范围内将该文件系统添加到区域群集配置中。
    phys-schost# clzonecluster configure zoneclustername
    clzc:zoneclustername> select node physical-host=baseclusternode
    clzc:zoneclustername:node> add fs
    clzc:zoneclustername:node:fs> set dir=mountpoint
    clzc:zoneclustername:node:fs> set special=disk-device-name
    clzc:zoneclustername:node:fs> set raw=raw-disk-device-name
    clzc:zoneclustername:node:fs> set type=FS-type
    clzc:zoneclustername:node:fs> end
    clzc:zoneclustername:node> end
    clzc:zoneclustername> verify
    clzc:zoneclustername> commit
    clzc:zoneclustername> exit
    dir=mountpoint

    指定文件系统挂载点

    special=disk-device-name

    指定磁盘设备的名称

    raw=raw-disk-device-name

    指定原始磁盘设备的名称

    type=FS-type

    指定文件系统的类型


    注 - 启用 UFS 文件系统的日志记录功能。


  4. 检验是否添加了该文件系统。
    phys-schost# clzonecluster show -v zoneclustername

示例 6-5 向区域群集节点添加本地文件系统

此示例将添加本地 UFS 文件系统 /local/data,供区域群集 sczone 的节点使用。该区域群集节点位于全局群集节点 phys-schost-1 上。

phys-schost-1# clzonecluster configure sczone
clzc:sczone> select node physical-host=phys-schost-1
clzc:sczone:node> add fs
clzc:sczone:node:fs> set dir=/local/data
clzc:sczone:node:fs> set special=/dev/md/localdg/dsk/d1
clzc:sczone:node:fs> set raw=/dev/md/localdg/rdsk/d1
clzc:sczone:node:fs> set type=ufs
clzc:sczone:node:fs> add options [logging]
clzc:sczone:node:fs> end
clzc:sczone:node> end
clzc:sczone> verify
clzc:sczone> commit
clzc:sczone> exit

phys-schost-1# clzonecluster show -v sczone
…
     --- Solaris Resources for phys-schost-1 --- 
…
   Resource Name:                                fs
     dir:                                           /local/data
     special:                                       /dev/md/localdg/dsk/d1
     raw:                                           /dev/md/localdg/rdsk/d1
     type:                                          ufs
     options:                                       [logging]
     cluster-control:                               false ...

如何向特定区域群集节点添加本地 ZFS 存储池

执行此过程可向特定区域群集节点添加本地 ZFS 存储池。本地 ZFS 池不是由 Oracle Solaris Cluster 软件进行管理,而是传送到底层 Oracle Solaris 区域。


注 - 要向区域群集添加具有高可用性的本地 ZFS 池,请参见如何向区域群集添加高可用性本地文件系统


请从全局群集的节点上执行此过程中的所有步骤。

  1. 成为可托管区域群集的全局群集节点上的超级用户。

    注 - 请从全局群集的节点上执行此过程中的所有步骤。


  2. 创建您要为特定区域群集节点配置的本地 ZFS 池。

    使用要配置的区域群集节点所在的全局群集节点的本地磁盘。

  3. 在节点范围内将该池添加到区域群集配置中。
    phys-schost# clzonecluster configure zoneclustername
    clzc:zoneclustername> select node physical-host=baseclusternode
    clzc:zoneclustername:node> add dataset
    clzc:zoneclustername:node:dataset> set name=localZFSpoolname
    clzc:zoneclustername:node:dataset> end
    clzc:zoneclustername:node> end
    clzc:zoneclustername> verify
    clzc:zoneclustername> commit
    clzc:zoneclustername> exit
    set name=localZFSpoolname

    指定本地 ZFS 池的名称

  4. 检验是否添加了 ZFS 池。
    phys-schost# clzonecluster show -v zoneclustername

示例 6-6 向区域群集节点添加本地 ZFS 池

此示例将添加本地 ZFS 池 local_pool,供区域群集 sczone 的一个节点使用。该区域群集节点位于全局群集节点 phys-schost-1 上。

phys-schost-1# clzonecluster configure sczone
clzc:sczone> select node physical-host=phys-schost-1
clzc:sczone:node> add dataset
clzc:sczone:node:dataset> set name=local_pool
clzc:sczone:node:dataset> end
clzc:sczone:node> end
clzc:sczone> verify
clzc:sczone> commit
clzc:sczone> exit

phys-schost-1# clzonecluster show -v sczone
…
     --- Solaris Resources for phys-schost-1 --- 
…
   Resource Name:                                dataset
     name:                                          local_pool

向区域群集中添加存储设备

本节介绍如何添加供区域群集直接使用的全局存储设备,或添加专用于单个区域群集节点的存储设备。全局设备是指可以由群集中的多个节点访问(可以一次只供一个节点访问,也可以同时供多个节点访问)的设备。

在将某个设备添加到区域群集中之后,此设备将在该区域群集中可见。

本节包含以下过程:

如何向区域群集中添加全局存储设备

执行此过程可在群集范围内添加以下类型之一的存储设备:


注 - 要向特定区域群集节点添加原始磁盘设备,请改为转至如何向特定区域群集节点添加原始磁盘设备


clsetup 实用程序将搜索并显示可用的存储设备,这些存储设备是在配置有选定区域群集的群集节点上配置的。使用 clsetup 实用程序向现有区域群集添加存储设备后,可使用 clzonecluster 命令修改配置。有关使用 clzonecluster 命令从区域群集中删除存储设备的说明,请参见《Oracle Solaris Cluster 系统管理指南》中的"如何从区域群集中删除存储设备"

  1. 成为可托管区域群集的全局群集节点上的超级用户。

    注 - 请从全局群集的节点上执行此过程中的所有步骤。


  2. 确定要添加到区域群集中的设备,并确定其是否处于联机状态。
    phys-schost# cldevicegroup status
  3. 如果要添加的设备未处于联机状态,请使其联机。
    phys-schost# cldevicegroup online device
  4. 启动 clsetup 实用程序。
    phys-schost# clsetup

    这时将显示主菜单。


    提示 - 要返回到上一个屏幕,请键入 < 键,然后按回车键。


  5. 选择 "Zone Cluster"(区域群集)菜单项。

    此时将显示 "Zone Cluster Tasks"(区域群集任务)菜单。

  6. 选择 "Add File System/Storage Device to a Zone Cluster"(向区域群集添加文件系统/存储设备)菜单项。

    此时将显示 "Select Zone Cluster"(选择区域群集)菜单。

  7. 选择您要添加存储设备的区域群集。

    此时将显示 "Storage Type Selection"(存储类型选择)菜单。

  8. 选择 "Device"(设备)菜单项。

    此时将显示可用设备的列表。

  9. 从列表中选择存储设备。

    还可以键入 e,以手动指定存储设备的属性。

    此时将显示 "Storage Device Property for the Zone Cluster"(区域群集的存储设备属性)菜单。

  10. 添加或更改您要添加的存储设备的任意属性。

    注 - 在路径名称中使用星号 (*) 作为通配符。


    完成后,键入 d 并按回车键。此时将显示 "Review File Systems/Storage Devices for the Zone Cluster"(查看区域群集的文件系统/存储设备)菜单。

  11. 键入 c 以保存配置更改。

    将会显示配置更改结果。例如:

     >>> Result of Configuration Change to the Zone Cluster(sczone) <<<
    
        Adding file systems or storage devices to sczone zone cluster...
    
        The zone cluster is being created with the following configuration
    
            /usr/cluster/bin/clzonecluster configure sczone
            add device
            set match=/dev/md/ddg/*dsk/*
            end
            add device
            set match=/dev/md/shared/1/*dsk/*
            end
    
        Configuration change to sczone zone cluster succeeded.
        The change will become effective after the zone cluster reboots.
  12. 完成后,退出 clsetup 实用程序。
  13. 检验是否添加了设备。
    phys-schost# clzonecluster show -v zoneclustername

如何向特定区域群集节点添加原始磁盘设备

执行此过程可向特定区域群集节点添加原始磁盘设备。此设备将不受 Oracle Solaris Cluster 控制。请从全局群集的节点上执行此过程中的所有步骤。


注 - 要添加供整个区域群集使用的原始磁盘设备,请转至如何向区域群集中添加全局存储设备


  1. 成为可托管区域群集的全局群集节点上的超级用户。

    注 - 请从全局群集的节点上执行此过程中的所有步骤。


  2. 确定要添加到区域群集中的设备 (cNtXdYsZ),并确定其是否处于联机状态。
  3. 在节点范围内将该设备添加到区域群集配置中。

    注 - 在路径名称中使用星号 (*) 作为通配符。


    phys-schost# clzonecluster configure zone-cluster-name
    clzc:zone-cluster-name> select node physical-host=baseclusternode
    clzc:zone-cluster-name:node> add device
    clzc:zone-cluster-name:node:device> set match=/dev/*dsk/cNtXdYs*
    clzc:zone-cluster-name:node:device> end
    clzc:zone-cluster-name:node> end
    clzc:zone-cluster-name> verify
    clzc:zone-cluster-name> commit
    clzc:zone-cluster-name> exit
    match=/dev/*dsk/cNt XdYs*

    指定原始磁盘设备的完整设备路径

  4. 检验是否添加了设备。
    phys-schost# clzonecluster show -v zoneclustername

示例 6-7 向特定区域群集节点添加原始磁盘设备

以下示例将添加原始磁盘设备 c1t1d0s0 ,供区域群集 sczone 的某个节点使用。该区域群集节点位于全局群集节点 phys-schost-1 上。

phys-schost-1# clzonecluster configure sczone
clzc:sczone> select node physical-host=phys-schost-1
clzc:sczone:node> add device
clzc:sczone:node:device> set match=/dev/*dsk/c1t1d0s0
clzc:sczone:node:device> end
clzc:sczone:node> end
clzc:sczone> verify
clzc:sczone> commit
clzc:sczone> exit

phys-schost-1# clzonecluster show -v sczone
…
     --- Solaris Resources for phys-schost-1 --- 
…
   Resource Name:                                device
     name:                                          /dev/*dsk/c1t1d0s0