JavaScript is required to for searching.
跳过导航链接
退出打印视图
Oracle Solaris Cluster 软件安装指南     Oracle Solaris Cluster 4.1 (简体中文)
search filter icon
search icon

文档信息

前言

1.  规划 Oracle Solaris Cluster 配置

2.  在全局群集节点上安装软件

3.  建立全局群集

4.  配置 Solaris Volume Manager 软件

5.  创建群集文件系统

6.  创建区域群集

创建和配置区域群集概述

创建和配置区域群集

创建区域群集

如何安装和配置 Trusted Extensions

如何创建区域群集

如何配置区域群集以使用 Trusted Extensions

向区域群集中添加文件系统

如何向区域群集添加高可用性本地文件系统

如何向区域群集中添加 ZFS 存储池

如何向区域群集中添加群集文件系统

向特定区域群集节点添加本地文件系统

如何向特定区域群集节点添加本地文件系统

如何向特定区域群集节点添加本地 ZFS 存储池

向区域群集中添加存储设备

如何向区域群集中添加全局存储设备

如何向特定区域群集节点添加原始磁盘设备

7.  从群集中卸载软件

索引

创建和配置区域群集

本节提供了用于创建和配置区域群集的以下信息和过程。

创建区域群集

本节提供了有关如何使用 clsetup 实用程序来创建区域群集,以及向新的区域群集添加网络地址、文件系统、ZFS 存储池和存储设备的过程。

如果任一节点处于非群集模式,当该节点返回到群集模式时,所做的更改将进行传播。因此,即使某些全局群集节点处于非群集模式,您也可以创建区域群集。当这些节点返回到群集模式时,系统会对它们执行区域群集创建任务。

您还可以使用 clzonecluster 实用程序创建和配置群集。有关更多信息,请参见 clzonecluster(1CL) 手册页。

本节包含以下过程:

如何安装和配置 Trusted Extensions

此过程对全局群集进行准备,以在区域群集中使用 Oracle Solaris 的 Trusted Extensions 功能。如果不打算启用 Trusted Extensions,请继续创建区域群集中的操作。

请对全局群集中的每个节点执行该过程。

开始之前

执行以下任务:

  1. 在全局群集中的某个节点上承担 root 角色。
  2. 安装和配置 Trusted Extensions 软件。

    执行《Trusted Extensions 配置和管理》中的第 3  章 "将 Trusted Extensions 功能添加到 Oracle Solaris(任务)"中的过程。

  3. 禁用 Trusted Extensions zonesharezoneunshare 脚本。

    Trusted Extensions zonesharezoneunshare 脚本支持导出系统上主目录的功能。Oracle Solaris Cluster 配置不支持此功能。

    通过将每个脚本替换为指向 /bin/true 实用程序的符号链接禁用此功能。

    phys-schost# ln -s /usr/lib/zones/zoneshare /bin/true
    phys-schost# ln -s /usr/lib/zones/zoneunshare /bin/true
  4. 配置将在区域群集中使用的所有逻辑主机名和共享 IP 地址。

    请参见《Trusted Extensions 配置和管理》中的"如何创建缺省 Trusted Extensions 系统"

  5. 可选启用 LDAP 服务器向全局群集节点的远程登录。
    1. /etc/default/login 文件中,注释掉 CONSOLE 项。
    2. 启用远程登录。
      phys-schost# svcadm enable rlogin
    3. 修改 /etc/pam.conf 文件。

      通过附加 Tab 并分别键入 allow_remoteallow_unlabeled 来修改帐户管理条目,如下所示。

      other   account requisite       pam_roles.so.1        Tab  allow_remote
      other   account required        pam_unix_account.so.1 Tab  allow_unlabeled
  6. 修改 admin_low 模板。
    1. admin_low 模板指定给属于全局区域使用的 Trusted Extensions 计算机的每个 IP 地址。
      # tncfg -t admin_low
      tncfg:admin_low> add host=ip-address1
      tncfg:admin_low> add host=ip-address2
      …
      tncfg:admin_low> exit
    2. tncfg 模板中删除通配符地址 0.0.0.0/32
      # tncfg -t admin_low remove host=0.0.0.0
  7. cipso 模板指定给属于全局区域使用的 Trusted Extensions 计算机的每个 IP 地址。
    # tncfg -t cipso
    tncfg:cipso> add host=ip-address1
    tncfg:cipso> add host=ip-address2
    …
    tncfg:cipso> exit
  8. 对全局群集的每个剩余节点,重复执行步骤 1步骤 7

    在所有全局群集节点上完成所有步骤后,请对全局群集的每个节点执行此过程中剩余的步骤。

  9. 在每个全局群集节点上,将启用 Trusted Extensions 的 LDAP 服务器的 IP 地址添加到 /etc/inet/hosts 文件中。

    全局区域和区域群集的节点将使用 LDAP 服务器。

  10. 可选使全局群集节点成为 LDAP 客户机。

    请参见《Trusted Extensions 配置和管理》中的"使全局区域成为 Trusted Extensions 中的客户机"

  11. 添加 Trusted Extensions 用户。

    请参见《Trusted Extensions 配置和管理》中的"在 Trusted Extensions 中创建角色和用户"

接下来的步骤

创建区域群集。请转至创建区域群集

如何创建区域群集

执行此过程可创建区域群集。

要在安装区域群集后进行修改,请参见《Oracle Solaris Cluster 系统管理指南》中的"执行区域群集管理任务"clzonecluster(1CL) 手册页。

开始之前


提示 - clsetup 实用程序中,您可以按 < 键返回上一个屏幕。


  1. 在全局群集的某个活动成员节点上承担 root 角色。

    请从全局群集的一个节点中执行此过程的所有步骤。

  2. 确保全局群集的节点处于群集模式。
    phys-schost# clnode status
    === Cluster Nodes ===
    
    --- Node Status ---
    
    Node Name                                       Status
    ---------                                       ------
    phys-schost-2                                   Online
    phys-schost-1                                   Online
  3. 启动 clsetup 实用程序。
    phys-schost# clsetup

    这时将显示主菜单。

  4. 选择 "Zone Cluster"(区域群集)菜单项。
  5. 选择 "Create Zone Cluster"(创建区域群集)菜单项。
  6. 键入您要添加的区域群集名称。

    区域群集名称可包含 ASCII 字母(a-z 和 A-Z)、数字、短划线或下划线。名称的最大长度为 20 个字符。

  7. 选择您要更改的属性。

    您可以设置以下属性:


    属性
    描述
    zonepath= zone-cluster-node-path
    指定区域群集节点的路径。例如,/zones/sczone
    brand= brand-type
    指定区域群集中使用的 solarissolaris10labeled 区域标记。

    注 - 要使用 Trusted Extensions,只能使用 labeled 标记。要创建专用 IP 区域群集,只能使用 solaris 标记。


    ip-type= value
    指定区域群集使用的网络 IP 地址类型。有效的 ip-type 值是 sharedexclusive

    专用 IP 区域群集的最大数量由 cluster 属性 num_xip_zoneclusters 限制,可在首次安装群集时设置该数量。该值默认为三。有关更多信息,请参见 cluster(1CL) 手册页。

    enable_priv_net= value
    设置为 true 时,在区域群集的节点之间将启用 Oracle Solaris Cluster 专用网络通信。区域群集节点的 Oracle Solaris Cluster 专用主机名和 IP 地址是由系统自动生成的。如果该值设置为 false,将禁用专用网络通信。默认值为 true

    enable_priv_net 属性设置为 true 并设置了以下属性时,将以下列方式进行专用通信:

    • ip-type=shared-区域群集节点之间的通信使用全局群集的专用网络。

    • ip-type=exclusive(仅限于 solaris 标记)-区域群集节点之间的通信使用指定的 privnet 资源。privnet 资源是适用于以太网类型的专用网络适配器的虚拟网络接口 (Virtual Network Interface, VNIC),或适用于 IB 类型的专用网络适配器的 InfiniBand (IB) 分区。VNIC 或 IB 分区是由向导在全局群集的每个专用网络适配器上自动创建的,用于配置区域群集。

    向导生成的 VNIC 或 IB 分区使用以下命名约定:

    对于以太网类型:private-network-interface-name_zone-cluster-name_vnic0

    对于 IB 类型:private-network-interface-name_zone-cluster-name_ibp0

    例如,全局群集的专用网络接口是 net2net3,区域群集名称是 zone1。如果 net2net3 是以太网类型的网络接口,则为区域群集创建的两个 VNIC 的名称为 net2_zone1_vnic0net3_zone1_vnic0

    如果 net2net3 是 IB 类型的网络接口,则为区域群集创建的两个 IB 分区的名称为 net2_zone1_ibp0net3_zone1_ibp0

  8. 对于 solaris10 标记区域群集,请输入区域 root 密码。

    solaris10 标记区域需要 root 帐户密码。

  9. 可选选择您要更改的区域系统资源控制属性。

    您可以设置以下属性:


    属性
    描述
    max-lwps=value
    指定该区域群集可同时使用的轻量级进程 (lightweight process, LWP) 的最大数量。
    max-shm-memory=value
    指定该区域群集允许的最大共享内存量(以 GB 为单位)。
    max-shm-ids=value
    指定该区域群集允许的最多共享内存 ID 数目。
    max-msg-ids=value
    指定该区域群集允许的最多消息队列 ID 数目。
    max-sem-ids= value
    指定该区域群集允许的最多信号量 ID 数目。
    cpu-shares=value
    指定分配给该区域群集的公平份额调度程序 (Fair Share Scheduler, FSS) 份额数量。
  10. 可选选择您要更改的区域 CPU 资源控制属性。

    您可以设置以下属性:


    属性
    描述
    scope= scope-type
    指定区域群集中使用的 ncpus 属性是 dedicated-cpu 还是 capped-cpu
    ncpus= value
    指定范围类型的限制。
    • 如果 scope 属性设置为 dedicated-cpu,则 ncpus 属性将对应当指定给该区域专用使用的 CPU 数量设置限制。该区域引导时,将创建池和处理器集。有关资源池的更多信息,请参见 pooladm(1M)poolcfg(1M) 手册页。

    • 如果 scope 属性设置为 capped-cpu,则 ncpus 属性将对区域群集可使用的 CPU 时间设置限制。使用量将转换为可由区域中所有用户线程使用的单个 CPU 的百分比,表示为分数(例如 .75)或带分数(整数加分数,例如 1.25)。ncpus 值 1 表示 100% 的 CPU。有关资源池的更多信息,请参见 pooladm(1M)pooladm(1M)poolcfg(1M) 手册页。

  11. 可选选择您要更改的上限内存 (capped-memory) 属性。

    您可以设置以下属性:


    属性
    描述
    physical= value
    指定物理内存限制 (GB)。
    swap=value
    指定交换内存限制 (GB)。
    locked= value
    指定锁定内存限制 (GB)。
  12. 从可用物理主机列表中选择物理主机。

    您可以选择一个或所有可用物理节点(或主机),然后每次配置一个区域群集节点。

    您可以设置以下属性:


    属性
    描述
    hostname= hostname
    指定区域群集节点主机名。例如,zc-host-1
    address= public-network-address
    指定共享 IP 类型区域群集上区域群集节点的公共网络地址。例如,172.1.1.1
    physical= physical-interface
    从物理节点上搜索到的可用网络接口中指定公共网络的网络物理接口。例如,sc_ipmp0net0
    defrouter= default-router
    如果在其他子网中配置了您的区域,则指定网络地址的默认路由器。使用不同的 defrouter 设置的每个区域或区域集必须处于不同的子网中,例如 192.168.0.1。有关 defrouter 属性的更多信息,请参见 zonecfg(1M) 手册页。
  13. 指定用于区域群集的网络地址。

    网络地址可用于在区域群集中配置逻辑主机名或共享 IP 群集资源。网络地址在区域群集全局范围中。

  14. 在 "Review Configuration"(查看配置)屏幕中按回车键继续,然后键入 c 创建区域群集。

    将会显示配置更改结果,类似于以下内容:

     >>> Result of the Creation for the Zone Cluster(sczone) <<<
    
        The zone cluster is being created with the following configuration
    
            /usr/cluster/bin/clzonecluster configure sczone
            create
            set brand=solaris
            set zonepath=/zones/sczone
            set ip-type=shared
            set enable_priv_net=true
            add capped-memory
            set physical=2G
            end
            add node
            set physical-host=phys-schost-1
            set hostname=zc-host-1
            add net
            set address=172.1.1.1
            set physical=net0
            end
            end
            add net
            set address=172.1.1.2
                  end
    
        Zone cluster, zc2 has been created and configured successfully.
    
        Continue to install the zone cluster(yes/no) ?
  15. 键入 yes 继续。

    clsetup 实用程序将执行区域群集的标准安装,您无法指定任何选项。

  16. 完成后,退出 clsetup 实用程序。
  17. 检验区域群集配置。

    verify 子命令用于检查指定资源的可用性。如果 clzonecluster verify 命令成功,则不会显示任何输出。

    phys-schost-1# clzonecluster verify zone-cluster-name
    phys-schost-1# clzonecluster status zone-cluster-name
    === Zone Clusters ===
    
    --- Zone Cluster Status ---
    
    Name      Node Name   Zone HostName   Status    Zone Status
    ----      ---------   -------------   ------    -----------
    zone       basenode1     zone-1           Offline   Configured
              basenode2     zone-2           Offline   Configured
  18. 对于 Trusted Extensions,使密码文件在每个区域群集节点上都可写。

    从全局区域中,启动 txzonemgr GUI。

    phys-schost# txzonemgr

    选择全局区域,然后选择 "Configure per-zone name service"(配置每区域名称服务)项。

  19. 安装区域群集。
    phys-schost-1# clzonecluster install options zone-cluster-name
    Waiting for zone install commands to complete on all the nodes 
    of the zone cluster "zone-cluster-name"...
    • 对于 solarislabeled 标记区域群集,以下选项有效。
      选项
      描述
      -c config-profile.xml
      包括系统配置信息。-c config-profile.xml 选项为区域群集的所有非全局区域提供配置文件。使用该选项仅更改区域的主机名,该主机名对区域群集中的每个区域是唯一的。所有配置文件都必须有 .xml 扩展名。
      -M manifest.xml
      指定您要配置用来在所有区域群集节点上安装必要软件包的定制自动化安装程序清单。如果区域群集的基础全局群集节点不是都安装有相同的 Oracle Solaris Cluster 软件包,但是您不想更改哪些软件包将安装在基础节点上,请使用此选项。如果运行 clzonecluster install 命令时未使用 -M 选项,当某个基础节点上缺少在发出命令的基础节点上安装的某个软件包时,在该基础节点上的区域群集安装将失败。
    • 对于 solaris10 标记区域群集,以下选项有效。

      使用 -a-d 选项来安装区域群集中支持的 Geographic Edition 软件、核心软件包和代理:


      注 - 有关 solaris10 标记区域群集中当前支持的代理列表,请参见《Oracle Solaris Cluster 4 Compatibility Guide》(《Oracle Solaris Cluster 4 兼容性指南》)。



      选项
      描述
      必需-Oracle Solaris Cluster 修补程序 145333-15(适用于 SPARC)和 145334–15(适用于 x86)
      在安装 solaris10 标记区域群集之前,必须至少安装 Oracle Solaris Cluster 3.3 修补程序 145333–15(适用于 SPARC)或 145334–15(适用于 x86)。登录到 My Oracle Support 检索修补程序。然后从全局区域使用 -p 选项来安装修补程序:
      # clzonecluster install-cluster \
      -p patchdir=patchdir[,patchlistfile=filename] \
      [-n phys-schost-1[,…]] \
      [-v] \
      zone-cluster-name

      有关安装修补程序的其他说明,请登录到 My Oracle Support,搜索 ID 为 1278636.1 的文档:《How to Find and Download any Revision of a Solaris Patch》(《如何查找和下载任何修订版的 Solaris 修补程序》)。

      -a absolute_path_to_archive zone-cluster-name
      指定将用作源映像的映像归档的绝对路径。
      # clzonecluster install \
      [-n nodename] \
      -a absolute_path_to_archive \
      zone-cluster-name
      -d dvd-image zone-cluster-name
      指定已安装的 solaris10 非全局区域的根目录的完整目录路径。必须能够从运行该命令的节点的全局区域中访问该群集软件 DVD 目录。
      # clzonecluster install-cluster \
      -d dvd-image \
      zoneclustername

    有关更多信息,请参见 clzonecluster(1CL) 手册页。

  20. 如果安装区域群集时使用 -c config-profile.xml 选项,请执行 sysid 配置。

    否则,请跳至步骤 21


    注 - 在以下步骤中,非全局区域 zcnodezone-cluster-name 共享相同的名称。


    • 对于专用 IP 的 labeled 标记区域群集,请执行以下步骤。

      每次仅配置一个区域群集节点。

      1. 引导一个区域群集节点的非全局区域。
        phys-schost# zoneadm -z zcnode boot
      2. 取消配置 Oracle Solaris 实例并重新引导区域。
        phys-schost# zlogin zcnode
        zcnode# sysconfig unconfigure
        zcnode# reboot

        重新引导期间 zlogin 会话将终止。

      3. 发出 zlogin 命令并通过交互式屏幕跟踪进度。
        phys-schost# zlogin -C zcnode
      4. 完成后,退出区域控制台。

        有关从非全局区域中退出的方法的信息,请参见《Oracle Solaris 11.1 管理:Oracle Solaris Zones、Oracle Solaris 10 Zones 和资源管理》中的"如何退出非全局区域"

      5. 从全局区域中,停止区域群集节点。
        phys-schost# zoneadm -z zcnode halt
      6. 为每个剩余区域群集节点重复前面的步骤。
    • 对于共享 IP 的 labeled 标记区域群集,请在每个区域群集节点上执行以下步骤。
      1. 从一个全局群集节点中引导区域群集。
        phys-schost# clzonecluster boot zone-cluster-name
      2. 取消配置 Oracle Solaris 实例并重新引导区域。
        phys-schost# zlogin zcnode
        zcnode# sysconfig unconfigure
        zcnode# reboot

        重新引导期间 zlogin 会话将终止。

      3. 发出 zlogin 命令并通过交互式屏幕跟踪进度。
        phys-schost# zlogin -C zcnode
      4. 完成后,退出区域控制台。

        有关从非全局区域中退出的方法的信息,请参见《Oracle Solaris 11.1 管理:Oracle Solaris Zones、Oracle Solaris 10 Zones 和资源管理》中的"如何退出非全局区域"

      5. 对剩余的每个区域群集节点,重复执行步骤 b步骤 d
    • 对于 solarissolaris10 标记区域群集,请在每个区域群集节点上执行以下步骤。
      1. 从一个全局群集节点中引导区域群集。
        phys-schost# clzonecluster boot zone-cluster-name
      2. 发出 zlogin 命令并通过交互式屏幕跟踪进度。
        phys-schost# zlogin -C zcnode
      3. 完成后,退出区域控制台。

        有关从非全局区域中退出的方法的信息,请参见《Oracle Solaris 11.1 管理:Oracle Solaris Zones、Oracle Solaris 10 Zones 和资源管理》中的"如何退出非全局区域"

      4. 对剩余的每个区域群集节点,重复执行步骤 b步骤 c
  21. 引导区域群集

    安装区域群集可能需要几分钟时间。

    phys-schost# clzonecluster boot zone-cluster-name
  22. (专用 IP 区域群集)手动配置 IPMP 组。

    clsetup 实用程序不会为专用 IP 区域群集自动配置 IPMP 组。在创建逻辑主机名或共享地址资源之前,必须手动创建 IPMP 组。

    phys-schost# ipadm create-ipmp -i interface sc_ipmp0
    phys-schost# ipadm delete-addr interface/name
    phys-schost# ipadm create-addr -T static -a IPaddress/prefix sc_ipmp0/name

接下来的步骤

要配置您在 solaris10 标记区域群集中安装的 Oracle Solaris Cluster 3.3 数据服务,请遵循相应数据服务手册中适用于区域群集的过程。请参见 Oracle Solaris Cluster 3.3 Documentation(Oracle Solaris Cluster 3.3 文档)。

要完成 Trusted Extensions 配置,请转至如何配置区域群集以使用 Trusted Extensions

此外,再向区域群集添加文件系统或存储设备。请参见以下各节:

如何配置区域群集以使用 Trusted Extensions

创建 labeled 标记区域群集后,请执行以下步骤完成配置以便使用 Trusted Extensions。

  1. 完成区域群集的 IP 地址映射。

    请在区域群集的每个节点上执行此步骤。

    1. 从全局群集的节点中,显示节点 ID。
      phys-schost# cat /etc/cluster/nodeid
      N
    2. 登录到同一全局群集节点上的区域群集节点。

      在登录前确保已导入 SMF 服务,且所有服务都处于启动状态。

    3. 确定该区域群集节点用于专用互连的 IP 地址。

      当群集软件配置区域群集时,将自动分配这些 IP 地址。

      ifconfig -a 输出中,找到属于区域群集的 clprivnet0 逻辑接口。inet 的值是分配的 IP 地址,用于支持该区域群集使用群集专用互连。

      zc1# ifconfig -a
      lo0:3: flags=20010008c9<UP,LOOPBACK,RUNNING,NOARP,MULTICAST,IPv4,VIRTUAL> mtu 8232 index 1
              zone zc1
              inet 127.0.0.1 netmask ff000000
      net0: flags=1000843<UP,BROADCAST,RUNNING,MULTICAST,IPv4> mtu 1500 index 2
              inet 10.11.166.105 netmask ffffff00 broadcast 10.11.166.255
              groupname sc_ipmp0
              ether 0:3:ba:19:fa:b7
      ce0: flags=9040843<UP,BROADCAST,RUNNING,MULTICAST,DEPRECATED,IPv4,NOFAILOVER> mtu 1500 index 4
              inet 10.11.166.109 netmask ffffff00 broadcast 10.11.166.255
              groupname sc_ipmp0
              ether 0:14:4f:24:74:d8
      ce0:3: flags=1000843<UP,BROADCAST,RUNNING,MULTICAST,IPv4> mtu 1500 index 4
              zone zc1
              inet 10.11.166.160 netmask ffffff00 broadcast 10.11.166.255
      clprivnet0: flags=1009843<UP,BROADCAST,RUNNING,MULTICAST,MULTI_BCAST,PRIVATE,IPv4> mtu 1500 index 7
              inet 172.16.0.18 netmask fffffff8 broadcast 172.16.0.23
              ether 0:0:0:0:0:2
      clprivnet0:3: flags=1009843<UP,BROADCAST,RUNNING,MULTICAST,MULTI_BCAST,PRIVATE,IPv4> mtu 1500 index 7
              zone zc1
              inet 172.16.0.22 netmask fffffffc broadcast 172.16.0.23
    4. 将区域群集节点的以下地址添加到区域群集节点的 /etc/inet/hosts 文件中。
      • 专用互连的主机名 clusternodeN-priv,其中 N 是全局群集节点 ID

        172.16.0.22    clusternodeN-priv 
      • 创建区域群集时指定给 clzonecluster 命令的 net 资源

    5. 对剩余的区域群集节点重复这些步骤。
  2. 授权与区域群集组件进行通信。

    创建区域群集组件所使用的 IP 地址的新条目,并为每个条目指定 CIPSO 模板。这些 IP 地址包含在区域群集节点的 /etc/inet/hosts 文件中,如下所示:

    • 每个区域群集节点的专用 IP 地址

    • 区域群集中的所有 cl_privnet IP 地址

    • 区域群集的每个逻辑主机名公共 IP 地址

    • 区域群集每个共享地址资源的公共 IP 地址

    phys-schost# tncfg -t cipso
    tncfg:cipso> add host=ipaddress1
    tncfg:cipso> add host=ipaddress2
    …
    tncfg:cipso> exit

    有关 CIPSO 模板的更多信息,请参见《Trusted Extensions 配置和管理》中的"如何配置其他系统解释域"

  3. 将 IP 严格多宿主设置为 weak

    对区域群集的每个节点执行以下命令。

    phys-schost# ipadm set-prop -p hostmodel=weak ipv4
    phys-schost# ipadm set-prop -p hostmodel=weak ipv6

    有关 hostmodel 属性的更多信息,请参见《Oracle Solaris 11.1 可调参数参考手册》中的"hostmodel(ipv4 或 ipv6)"

接下来的步骤

向区域群集添加文件系统或存储设备。请参见以下各节:

另请参见

如果要在区域群集上更新软件,请执行《Oracle Solaris Cluster 系统管理指南》中的第 11  章 "更新您的软件"中的过程。这些过程包括有关区域群集的特殊说明(如有需要)。

向区域群集中添加文件系统

在将某个文件系统添加到区域群集并使其联机之后,将授权在该区域群集中使用文件系统。要挂载文件系统以供使用,可通过使用群集资源(例如 SUNW.HAStoragePlusSUNW.ScalMountPoint)来配置文件系统。


注 - 要添加仅限于单个区域群集节点上使用的文件系统,请参见向特定区域群集节点添加本地文件系统


本节介绍了添加供区域群集使用的文件系统的以下过程:

如何向区域群集添加高可用性本地文件系统

执行此过程可在全局群集上配置高可用性本地文件系统,供区域群集使用。此文件系统添加到区域群集,并为其配置 HAStoragePlus 资源,以实现本地文件系统的高可用性。

请从全局群集的节点上执行此过程中的所有步骤。

  1. 在托管区域群集的全局群集的某个节点上承担 root 角色。
  2. 在全局群集上,创建要在区域群集中使用的文件系统。

    确保在共享磁盘上创建了文件系统。

  3. 启动 clsetup 实用程序。
    phys-schost# clsetup

    这时将显示主菜单。


    提示 - 要返回到上一个屏幕,请键入 < 键,然后按回车键。


  4. 选择 "Zone Cluster"(区域群集)菜单项。

    此时将显示 "Zone Cluster Tasks"(区域群集任务)菜单。

  5. 选择 "Add File System/Storage Device to a Zone Cluster"(向区域群集添加文件系统/存储设备)菜单项。

    此时将显示 "Select Zone Cluster"(选择区域群集)菜单。

  6. 选择您要添加文件系统的区域群集。

    此时将显示 "Storage Type Selection"(存储类型选择)菜单。

  7. 选择 "File System"(文件系统)菜单项。

    此时将显示 "File System Selection for the Zone Cluster"(区域群集的文件系统选择)菜单。

  8. 选择您要添加到区域群集的文件系统。

    列表中的文件系统是在共享磁盘上配置的,可由配置有区域群集的节点进行访问。还可以键入 e 手动指定文件系统的所有属性。

    此时将显示 "Mount Type Selection"(挂载类型选择)菜单。

  9. 选择 "Loopback"(回送)挂载类型。

    此时将显示 "File System Properties for the Zone Cluster"(区域群集的文件系统属性)菜单。

  10. 为要添加的文件系统更改允许您更改的属性。

    注 - 对于 UFS 文件系统,启用日志记录功能。


    完成后,键入 d 并按回车键。

  11. 键入 c 以保存配置更改。

    将会显示配置更改结果。

  12. 完成后,退出 clsetup 实用程序。
  13. 检验是否添加了该文件系统。
    phys-schost# clzonecluster show -v zone-cluster-name

示例 6-1 向区域群集中添加高可用性本地文件系统

此示例将添加供 sczone 区域群集使用的本地文件系统 /global/oracle/d1

phys-schost-1# clzonecluster configure sczone
clzc:sczone> add fs
clzc:sczone:fs> set dir=/global/oracle/d1
clzc:sczone:fs> set special=/dev/md/oracle/dsk/d1
clzc:sczone:fs> set raw=/dev/md/oracle/rdsk/d1
clzc:sczone:fs> set type=ufs
clzc:sczone:fs> add options [logging]
clzc:sczone:fs> end
clzc:sczone> verify
clzc:sczone> commit
clzc:sczone> exit

phys-schost-1# clzonecluster show -v sczone
…
  Resource Name:                            fs
    dir:                                       /global/oracle/d1
    special:                                   /dev/md/oracle/dsk/d1
    raw:                                       /dev/md/oracle/rdsk/d1
    type:                                      ufs
    options:                                   [logging]
    cluster-control:                           [true]
…

接下来的步骤

通过使用 HAStoragePlus 资源将文件系统配置为具有高可用性。HAStoragePlus 资源管理区域群集节点上文件系统的挂载,该节点当前托管配置为使用该文件系统的应用程序。请参见《Oracle Solaris Cluster Data Services Planning and Administration Guide》中的"Enabling Highly Available Local File Systems"

如何向区域群集中添加 ZFS 存储池

执行此过程可向区域群集中添加 ZFS 存储池。该池可以是单个区域群集节点的本地池,或通过 HAStoragePlus 配置为高可用性池。

clsetup 实用程序将搜索并显示共享磁盘上所有已配置的 ZFS 池,这些共享磁盘可由配置有选定区域群集的节点访问。当您使用 clsetup 实用程序向现有区域群集添加群集范围的 ZFS 存储池后,可以使用 clzonecluster 命令修改配置或在节点范围内添加 ZFS 存储池。

开始之前

请确保该 ZFS 池连接到与区域群集的所有节点相连的共享磁盘。有关创建 ZFS 池的过程,请参见《Oracle Solaris 11.1 管理:ZFS 文件系统》

  1. 在托管区域群集的全局群集的某个节点上承担 root 角色。

    请从全局群集的一个节点中执行此过程的所有步骤。

  2. 启动 clsetup 实用程序。
    phys-schost# clsetup

    这时将显示主菜单。


    提示 - 要返回到上一个屏幕,请键入 < 键,然后按回车键。


  3. 选择 "Zone Cluster"(区域群集)菜单项。

    此时将显示 "Zone Cluster Tasks"(区域群集任务)菜单。

  4. 选择 "Add File System/Storage Device to a Zone Cluster"(向区域群集添加文件系统/存储设备)菜单项。

    此时将显示 "Select Zone Cluster"(选择区域群集)菜单。

  5. 选择您要添加 ZFS 存储池的区域群集。

    此时将显示 "Storage Type Selection"(存储类型选择)菜单。

  6. 选择 "ZFS" 菜单项。

    此时将显示 "ZFS Pool Selection for the Zone Cluster"(区域群集的 ZFS 池选择)菜单。

  7. 选择您要添加到区域群集的 ZFS 池。

    列表中的 ZFS 池是在共享磁盘上配置的,可由配置有区域群集的节点进行访问。还可以键入 e 手动指定 ZFS 池的属性。

    此时将显示 "ZFS Pool Dataset Property for the Zone Cluster"(区域群集的 ZFS 池数据集属性)菜单。向选定的 ZFS 池指定了 name 属性。

  8. 键入 d 并按回车键。

    此时将显示 "Review File Systems/Storage Devices for the Zone Cluster"(查看区域群集的文件系统/存储设备)菜单。

  9. 键入 c 以保存配置更改。

    将会显示配置更改结果。例如:

     >>> Result of Configuration Change to the Zone Cluster(sczone) <<<
    
        Adding file systems or storage devices to sczone zone cluster...
    
        The zone cluster is being created with the following configuration
    
            /usr/cluster/bin/clzonecluster configure sczone
            add dataset
            set name=myzpool5
            end
    
        Configuration change to sczone zone cluster succeeded.
  10. 完成后,退出 clsetup 实用程序。
  11. 检验是否添加了该文件系统。
    phys-schost# clzonecluster show -v zoneclustername
  12. 要实现 ZFS 存储池的高可用性,请为该池配置 HAStoragePlus 资源。

    在配置为使用文件系统的应用程序当前所在的区域群集节点上,HAStoragePlus 资源在池中管理文件系统的挂载。请参见《Oracle Solaris Cluster Data Services Planning and Administration Guide》中的"Enabling Highly Available Local File Systems"

如何向区域群集中添加群集文件系统

clsetup 实用程序将搜索并显示可用的文件系统,这些文件系统是在配置有选定区域群集的群集节点上配置的。当您使用 clsetup 实用程序添加文件系统时,文件系统是在群集范围内添加的。

您可以向区域群集添加以下类型的群集文件系统:

开始之前

请确保配置了您要添加到区域群集的群集文件系统。请参见规划群集文件系统第 5 章

  1. 在托管区域群集的全局群集的某个节点上承担 root 角色。

    请从全局群集的一个节点中执行此过程的所有步骤。

  2. 在托管区域群集节点的全局群集的每个节点上,向要在区域群集上挂载的文件系统的 /etc/vfstab 文件添加条目。
    phys-schost# vi /etc/vfstab
    • 对于 UFS 条目,包括 global 挂载选项,类似于以下示例:
      /dev/md/datadg/dsk/d0 /dev/md/datadg/rdsk/d0 /global/fs ufs 2 no global, logging
  3. 在全局群集上,启动 clsetup 实用程序。
    phys-schost# clsetup

    这时将显示主菜单。


    提示 - 要返回到上一个屏幕,请键入 < 键,然后按回车键。


  4. 选择 "Zone Cluster"(区域群集)菜单项。

    此时将显示 "Zone Cluster Tasks"(区域群集任务)菜单。

  5. 选择 "Add File System/Storage Device to a Zone Cluster"(向区域群集添加文件系统/存储设备)菜单项。

    此时将显示 "Select Zone Cluster"(选择区域群集)菜单。

  6. 选择您要添加文件系统的区域群集。

    此时将显示 "Storage Type Selection"(存储类型选择)菜单。

  7. 选择 "File System"(文件系统)菜单项。

    此时将显示 "File System Selection for the Zone Cluster"(区域群集的文件系统选择)菜单。

  8. 从列表中选择文件系统。

    还可以键入 e 手动指定文件系统的所有属性。

    此时将显示 "Mount Type Selection"(挂载类型选择)菜单。

  9. 选择区域群集的回送文件系统挂载类型。

    有关创建回送文件系统的更多信息,请参见《Oracle Solaris 11.1 Administration: Devices and File Systems》中的"How to Create and Mount an LOFS File System"

    此时将显示 "File System Properties for the Zone Cluster"(区域群集的文件系统属性)菜单。

  10. 指定挂载点目录。

    键入 dir 属性的编号,然后按回车键。在 "New Value"(新值)字段中键入 LOFS 挂载点目录名称,然后按回车键。

    完成后,键入 d 并按回车键。此时将显示 "Review File Systems/Storage Devices for the Zone Cluster"(查看区域群集的文件系统/存储设备)菜单。

  11. 键入 c 以保存配置更改。

    将会显示配置更改结果。例如:

      >>> Result of Configuration Change to the Zone Cluster(sczone) <<<
    
        Adding file systems or storage devices to sczone zone cluster...
    
        The zone cluster is being created with the following configuration
    
            /usr/cluster/bin/clzonecluster configure sczone
            add fs
            set dir=/dev/md/ddg/dsk/d9
            set special=/dev/md/ddg/dsk/d10
            set raw=/dev/md/ddg/rdsk/d10
            set type=lofs
            end
    
        Configuration change to sczone zone cluster succeeded.
  12. 完成后,退出 clsetup 实用程序。
  13. 检验是否添加了 LOFS 文件系统。
    phys-schost# clzonecluster show -v zone-cluster-name

接下来的步骤

(可选)配置由 HAStoragePlus 资源管理的群集文件系统。HAStoragePlus 资源管理全局群集中文件系统的挂载,并稍后在配置为使用该文件系统的应用程序当前所在的区域群集节点上执行回送挂载。有关更多信息,请参见《Oracle Solaris Cluster Data Services Planning and Administration Guide》中的"Configuring an HAStoragePlus Resource for Cluster File Systems"

向特定区域群集节点添加本地文件系统

本节介绍了如何添加专用于单个区域群集节点的文件系统。要配置供整个区域群集使用的文件系统,请转至向区域群集中添加文件系统

本节包含以下过程:

如何向特定区域群集节点添加本地文件系统

执行此过程可向特定区域群集的某个特定区域群集节点添加本地文件系统。该文件系统不是由 Oracle Solaris Cluster 软件进行管理,而是传送到底层 Oracle Solaris 区域。


注 - 要向区域群集添加具有高可用性的本地文件系统,请执行如何向区域群集添加高可用性本地文件系统中的过程。


  1. 在托管区域群集的全局群集的某个节点上承担 root 角色。

    注 - 从全局群集的节点执行此过程中的所有步骤。


  2. 创建您要为特定区域群集节点配置的本地文件系统。

    使用要配置的区域群集节点所在的全局群集节点的本地磁盘。

  3. 在节点范围内将该文件系统添加到区域群集配置中。
    phys-schost# clzonecluster configure zoneclustername
    clzc:zoneclustername> select node physical-host=baseclusternode
    clzc:zoneclustername:node> add fs
    clzc:zoneclustername:node:fs> set dir=mountpoint
    clzc:zoneclustername:node:fs> set special=disk-device-name
    clzc:zoneclustername:node:fs> set raw=raw-disk-device-name
    clzc:zoneclustername:node:fs> set type=FS-type
    clzc:zoneclustername:node:fs> end
    clzc:zoneclustername:node> end
    clzc:zoneclustername> verify
    clzc:zoneclustername> commit
    clzc:zoneclustername> exit
    dir=mountpoint

    指定文件系统挂载点

    special=disk-device-name

    指定磁盘设备的名称

    raw=raw-disk-device-name

    指定原始磁盘设备的名称

    type=FS-type

    指定文件系统的类型


    注 - 启用 UFS 文件系统的日志记录功能。


  4. 检验是否添加了该文件系统。
    phys-schost# clzonecluster show -v zoneclustername

示例 6-2 向区域群集节点添加本地文件系统

此示例将添加本地 UFS 文件系统 /local/data,供区域群集 sczone 的节点使用。该区域群集节点位于全局群集节点 phys-schost-1 上。

phys-schost-1# clzonecluster configure sczone
clzc:sczone> select node physical-host=phys-schost-1
clzc:sczone:node> add fs
clzc:sczone:node:fs> set dir=/local/data
clzc:sczone:node:fs> set special=/dev/md/localdg/dsk/d1
clzc:sczone:node:fs> set raw=/dev/md/localdg/rdsk/d1
clzc:sczone:node:fs> set type=ufs
clzc:sczone:node:fs> add options [logging]
clzc:sczone:node:fs> end
clzc:sczone:node> end
clzc:sczone> verify
clzc:sczone> commit
clzc:sczone> exit

phys-schost-1# clzonecluster show -v sczone
…
     --- Solaris Resources for phys-schost-1 --- 
…
   Resource Name:                                fs
     dir:                                           /local/data
     special:                                       /dev/md/localdg/dsk/d1
     raw:                                           /dev/md/localdg/rdsk/d1
     type:                                          ufs
     options:                                       [logging]
     cluster-control:                               false ...

如何向特定区域群集节点添加本地 ZFS 存储池

执行此过程可向特定区域群集节点添加本地 ZFS 存储池。本地 ZFS 池不是由 Oracle Solaris Cluster 软件进行管理,而是传送到底层 Oracle Solaris 区域。


注 - 要向区域群集添加具有高可用性的本地 ZFS 池,请参见如何向区域群集添加高可用性本地文件系统


请从全局群集的节点上执行此过程中的所有步骤。

  1. 在托管区域群集的全局群集的某个节点上承担 root 角色。
  2. 创建您要为特定区域群集节点配置的本地 ZFS 池。

    使用要配置的区域群集节点所在的全局群集节点的本地磁盘。

  3. 在节点范围内将该池添加到区域群集配置中。
    phys-schost# clzonecluster configure zoneclustername
    clzc:zoneclustername> select node physical-host=baseclusternode
    clzc:zoneclustername:node> add dataset
    clzc:zoneclustername:node:dataset> set name=localZFSpoolname
    clzc:zoneclustername:node:dataset> end
    clzc:zoneclustername:node> end
    clzc:zoneclustername> verify
    clzc:zoneclustername> commit
    clzc:zoneclustername> exit
    set name=localZFSpoolname

    指定本地 ZFS 池的名称

  4. 检验是否添加了 ZFS 池。
    phys-schost# clzonecluster show -v zoneclustername

示例 6-3 向区域群集节点添加本地 ZFS 池

此示例将添加本地 ZFS 池 local_pool,供区域群集 sczone 的一个节点使用。该区域群集节点位于全局群集节点 phys-schost-1 上。

phys-schost-1# clzonecluster configure sczone
clzc:sczone> select node physical-host=phys-schost-1
clzc:sczone:node> add dataset
clzc:sczone:node:dataset> set name=local_pool
clzc:sczone:node:dataset> end
clzc:sczone:node> end
clzc:sczone> verify
clzc:sczone> commit
clzc:sczone> exit

phys-schost-1# clzonecluster show -v sczone
…
     --- Solaris Resources for phys-schost-1 --- 
…
   Resource Name:                                dataset
     name:                                          local_pool

向区域群集中添加存储设备

本节介绍如何添加供区域群集直接使用的全局存储设备,或添加专用于单个区域群集节点的存储设备。全局设备是指可以由群集中的多个节点访问(可以一次只供一个节点访问,也可以同时供多个节点访问)的设备。

在将某个设备添加到区域群集中之后,此设备将在该区域群集中可见。

本节包含以下过程:

如何向区域群集中添加全局存储设备

执行此过程可在群集范围内添加以下类型之一的存储设备:


注 - 要向特定区域群集节点添加原始磁盘设备,请转至如何向特定区域群集节点添加原始磁盘设备


clsetup 实用程序将搜索并显示可用的存储设备,这些存储设备是在配置有选定区域群集的群集节点上配置的。使用 clsetup 实用程序向现有区域群集添加存储设备后,可使用 clzonecluster 命令修改配置。有关使用 clzonecluster 命令从区域群集中删除存储设备的说明,请参见《Oracle Solaris Cluster 系统管理指南》中的"如何从区域群集中删除存储设备"

  1. 在托管区域群集的全局群集的某个节点上承担 root 角色。

    请从全局群集的一个节点中执行此过程的所有步骤。

  2. 确定要添加到区域群集中的设备,并确定其是否处于联机状态。
    phys-schost# cldevicegroup status
  3. 如果要添加的设备未处于联机状态,请使其联机。
    phys-schost# cldevicegroup online device
  4. 启动 clsetup 实用程序。
    phys-schost# clsetup

    这时将显示主菜单。


    提示 - 要返回到上一个屏幕,请键入 < 键,然后按回车键。


  5. 选择 "Zone Cluster"(区域群集)菜单项。

    此时将显示 "Zone Cluster Tasks"(区域群集任务)菜单。

  6. 选择 "Add File System/Storage Device to a Zone Cluster"(向区域群集添加文件系统/存储设备)菜单项。

    此时将显示 "Select Zone Cluster"(选择区域群集)菜单。

  7. 选择您要添加存储设备的区域群集。

    此时将显示 "Storage Type Selection"(存储类型选择)菜单。

  8. 选择 "Device"(设备)菜单项。

    此时将显示可用设备的列表。

  9. 从列表中选择存储设备。

    还可以键入 e 手动指定存储设备的属性。

    此时将显示 "Storage Device Property for the Zone Cluster"(区域群集的存储设备属性)菜单。

  10. 添加或更改您要添加的存储设备的任意属性。

    注 - 在路径名称中使用星号 (*) 作为通配符。


    完成后,键入 d 并按回车键。此时将显示 "Review File Systems/Storage Devices for the Zone Cluster"(查看区域群集的文件系统/存储设备)菜单。

  11. 键入 c 以保存配置更改。

    将会显示配置更改结果。例如:

     >>> Result of Configuration Change to the Zone Cluster(sczone) <<<
    
        Adding file systems or storage devices to sczone zone cluster...
    
        The zone cluster is being created with the following configuration
    
            /usr/cluster/bin/clzonecluster configure sczone
            add device
            set match=/dev/md/ddg/*dsk/*
            end
            add device
            set match=/dev/md/shared/1/*dsk/*
            end
    
        Configuration change to sczone zone cluster succeeded.
        The change will become effective after the zone cluster reboots.
  12. 完成后,退出 clsetup 实用程序。
  13. 检验是否添加了设备。
    phys-schost# clzonecluster show -v zoneclustername

如何向特定区域群集节点添加原始磁盘设备

执行此过程可向特定区域群集节点添加原始磁盘设备。此设备将不受 Oracle Solaris Cluster 控制。请从全局群集的节点上执行此过程中的所有步骤。


注 - 要添加供整个区域群集使用的原始磁盘设备,请转至如何向区域群集中添加全局存储设备


  1. 在托管区域群集的全局群集的某个节点上承担 root 角色。

    请从全局群集的一个节点中执行此过程的所有步骤。

  2. 确定要添加到区域群集中的设备 (cNtXdYsZ),并确定其是否处于联机状态。
  3. 在节点范围内将该设备添加到区域群集配置中。

    注 - 在路径名称中使用星号 (*) 作为通配符。


    phys-schost# clzonecluster configure zone-cluster-name
    clzc:zone-cluster-name> select node physical-host=baseclusternode
    clzc:zone-cluster-name:node> add device
    clzc:zone-cluster-name:node:device> set match=/dev/*dsk/cNtXdYs*
    clzc:zone-cluster-name:node:device> end
    clzc:zone-cluster-name:node> end
    clzc:zone-cluster-name> verify
    clzc:zone-cluster-name> commit
    clzc:zone-cluster-name> exit
    match=/dev/*dsk/cNt XdYs*

    指定原始磁盘设备的完整设备路径

  4. 检验是否添加了设备。
    phys-schost# clzonecluster show -v zoneclustername

示例 6-4 向特定区域群集节点添加原始磁盘设备

以下示例将添加原始磁盘设备 c1t1d0s0 ,供区域群集 sczone 的某个节点使用。该区域群集节点位于全局群集节点 phys-schost-1 上。

phys-schost-1# clzonecluster configure sczone
clzc:sczone> select node physical-host=phys-schost-1
clzc:sczone:node> add device
clzc:sczone:node:device> set match=/dev/*dsk/c1t1d0s0
clzc:sczone:node:device> end
clzc:sczone:node> end
clzc:sczone> verify
clzc:sczone> commit
clzc:sczone> exit

phys-schost-1# clzonecluster show -v sczone
…
     --- Solaris Resources for phys-schost-1 --- 
…
   Resource Name:                                device
     name:                                          /dev/*dsk/c1t1d0s0