Sun Cluster 软件安装指南(适用于 Solaris OS)

第 6 章 创建群集文件系统、非全局区域和区域群集

本章介绍以下主题:

创建群集文件系统

本节介绍了创建群集文件系统以支持数据服务的过程。

Procedure如何创建群集文件系统

请对要创建的每个群集文件系统执行以下过程。与本地文件系统不同,群集文件系统可以从全局群集中的任何节点进行访问。


注 –

此外,您也可以使用具有高可用性的本地文件系统来支持数据服务。有关选择创建群集文件系统还是创建具有高可用性的本地文件系统来支持特定数据服务的信息,请参见该数据服务的相关手册。有关创建具有高可用性的本地文件系统的一般信息,请参见《Sun Cluster Data Services Planning and Administration Guide for Solaris OS》中的“Enabling Highly Available Local File Systems”

您不能向区域群集中添加群集文件系统。


开始之前

执行以下任务:

  1. 成为群集中任一节点上的超级用户。

    对于 Solaris,如果群集中配置有非全局区域,您必须从全局区域中执行此过程。


    提示 –

    要更快地创建文件系统,请成为为其创建文件系统的全局设备的当前主节点上的超级用户。


  2. 创建文件系统。


    注意 – 注意 –

    创建文件系统时,会毁坏该磁盘上的所有数据。请确保指定的磁盘设备名称是正确的。如果指定的设备名称不正确,可能会删除不打算删除的数据。


    • 对于 UFS 文件系统,请使用 newfs(1M) 命令。


      phys-schost# newfs raw-disk-device
      

      下表显示了 raw-disk-device 参数名称的示例。请注意,卷管理器的命名规则各不相同。

      卷管理器 

      磁盘设备名称样例 

      描述 

      Solaris Volume Manager 

      /dev/md/nfs/rdsk/d1

      nfs 磁盘集中的原始磁盘设备 d1

      Veritas Volume Manager 

      /dev/vx/rdsk/oradg/vol01

      oradg 磁盘组中的原始磁盘设备 vol01

      无 

      /dev/global/rdsk/d1s3

      原始磁盘设备 d1s3

    • SPARC:对于 Veritas 文件系统 (VxFS) 文件系统,请按照 VxFS 文档中提供的过程进行操作。

  3. 在群集中的每个节点上,为群集文件系统创建一个挂载点目录。

    每个节点上都需要一个挂载点,即使不在该节点上访问群集文件系统也是如此。


    提示 –

    为了便于管理,请在 /global/device-group/ 目录中创建挂载点。该位置允许您很容易地区别群集文件系统,这些文件系统从本地文件系统中全局可用。



    phys-schost# mkdir -p /global/device-group/mountpoint/
    
    device-group

    与包含该设备的设备组的名称相对应的目录名。

    mountpoint

    要在其上挂载群集文件系统的目录的名称。

  4. 在群集中的每个节点上,在 /etc/vfstab 文件中为挂载点添加一个条目。

    有关详细信息,请参见 vfstab(4) 手册页。


    注 –

    如果群集内配置有非全局区域,请确保从全局区域根目录下的某一路径上将群集文件系统挂载到全局区域中。


    1. 在每个条目中,指定所用文件系统类型所需的挂载选项。


      注 –

      对于 Solaris Volume Manager 事务卷,请不要使用 logging 挂载选项。事务卷提供其自己的日志记录。

      另外,Solaris Volume Manager 事务卷日志记录已从 Solaris 10 OS 中删除。


    2. 要自动挂载群集文件系统,请将 mount at boot 字段设置为 yes

    3. 请确保对于每个群集文件系统,其 /etc/vfstab 条目中的信息在每个节点上是完全相同的。

    4. 请确保每个节点的 /etc/vfstab 文件中的条目都以相同顺序列出设备。

    5. 检查文件系统的引导顺序依赖性。

      例如,考虑如下情形:phys-schost-1 将磁盘设备 d0 挂载到 /global/oracle/ 上,phys-schost-2 将磁盘设备 d1 挂载到 /global/oracle/logs/ 上。根据此配置,只有在 phys-schost-1 引导并挂载了 /global/oracle/ 之后,phys-schost-2 才能引导并挂载 /global/oracle/logs/

  5. 在群集中的任何节点上,运行配置检查实用程序。


    phys-schost# sccheck
    

    配置检查实用程序将检验挂载点是否存在。该实用程序还将检验群集的所有节点上的 /etc/vfstab 文件条目是否正确。如果不出现错误,则不返回任何内容。

    有关更多信息,请参见 sccheck(1M) 手册页。

  6. 挂载群集文件系统。


    phys-schost# mount /global/device-group/mountpoint/
    
    • 对于 UFS,请从群集中的任何节点挂载群集文件系统。

    • SPARC:对于 VxFS,请从 device-group 的当前主节点挂载群集文件系统,以确保成功挂载文件系统。

      另外,还需要从 device-group 的当前主节点卸载 VxFS 文件系统,以确保成功卸载文件系统。


      注 –

      要在 Sun Cluster 环境下管理 VxFS 群集文件系统,只应从挂载了 VxFS 群集文件系统的主节点运行管理命令。


  7. 在群集的每个节点上检验是否已挂载群集文件系统。

    可以使用 df 命令或 mount 命令列出已挂载的文件系统。有关更多信息,请参见 df(1M) 手册页或 mount(1M) 手册页。

    对于 Solaris 10 OS,从全局区域和非全局区域都可以访问群集文件系统。


示例 6–1 创建群集文件系统

以下示例将在 Solaris Volume Manager 卷 /dev/md/oracle/rdsk/d1 上创建一个 UFS 群集文件系统。在每个节点上的 vfstab 文件中,都将添加一个与该群集文件系统对应的条目。随后,将从一个节点运行 sccheck 命令。在配置检查过程成功完成之后,从一个节点上挂载该群集文件系统并在所有节点上对其进行检验。


phys-schost# newfs /dev/md/oracle/rdsk/d1
…
phys-schost# mkdir -p /global/oracle/d1
phys-schost# vi /etc/vfstab
#device           device        mount   FS      fsck    mount   mount
#to mount         to fsck       point   type    pass    at boot options
#                     
/dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs 2 yes global,logging
…
phys-schost# sccheck
phys-schost# mount /global/oracle/d1
phys-schost# mount
…
/global/oracle/d1 on /dev/md/oracle/dsk/d1 read/write/setuid/global/logging/largefiles
on Sun Oct 3 08:56:16 2005

接下来的操作

查看以下列表以确定下一项要执行的任务(该任务应适用于您的群集配置)。如果需要执行此列表中的多项任务,请转至其中在列表中排在最前面的那项任务。

在全局群集节点上配置非全局区域

本节介绍了在全局群集节点上创建非全局区域的过程。

Procedure如何在全局群集节点上创建非全局区域

对于要在全局群集中创建的每个非全局区域,请执行以下过程。


注 –

有关安装区域的完整信息,请参阅《系统管理指南:Solaris Containers-资源管理和 Solaris Zones》


以群集模式或非群集模式引导群集节点后,可以在该节点上配置 Solaris 10 非全局区域(简称区域)。

开始之前

执行以下任务:

有关其他信息,请参见《系统管理指南:Solaris Containers-资源管理和 Solaris Zones》中的“区域组件”

  1. 在要创建非投票节点的全局群集节点上成为超级用户。

    您必须在全局区域中工作。

  2. 对于 Solaris 10 OS,在每个节点上检验服务管理工具 (Service Management Facility, SMF) 的多用户服务是否处于联机状态。

    如果某个节点上的服务尚未处于联机状态,请等到状态变为联机后再继续执行下一步。


    phys-schost# svcs multi-user-server node
    STATE          STIME    FMRI
    online         17:52:55 svc:/milestone/multi-user-server:default
  3. 配置、安装和引导新区域。


    注 –

    您必须将 autoboot 属性设置为 true,以便在全局群集中的非投票节点中支持资源组功能。


    请按照 Solaris 文档中的过程操作:

    1. 执行《系统管理指南:Solaris Containers-资源管理和 Solaris Zones》中的第 18  章 “规划和配置非全局区域(任务)”中所述的过程。

    2. 执行《系统管理指南:Solaris Containers-资源管理和 Solaris Zones》中的“安装和引导区域”中所述的过程。

    3. 执行《系统管理指南:Solaris Containers-资源管理和 Solaris Zones》中的“如何引导区域”中所述的过程。

  4. 检验区域是否处于 ready 状态。


    phys-schost# zoneadm list -v
    ID  NAME     STATUS       PATH
     0  global   running      /
     1  my-zone  ready        /zone-path
    
  5. 对于 ip-type 属性设置为 exclusive 的完全根区域,如果该区域可能托管逻辑主机名资源,请配置一个从全局区域挂载方法目录的文件系统资源。


    phys-schost# zonecfg -z sczone
    zonecfg:sczone> add fs
    zonecfg:sczone:fs> set dir=/usr/cluster/lib/rgm
    zonecfg:sczone:fs> set special=/usr/cluster/lib/rgm
    zonecfg:sczone:fs> set type=lofs
    zonecfg:sczone:fs> end
    zonecfg:sczone> exit
    
  6. (可选的)对于共享 IP 区域,请为该区域指定一个专用 IP 地址和一个专用主机名。

    以下命令从群集的专用 IP 地址范围中选择并指定了一个可用 IP 地址。此外,该命令还将一个指定的专用主机名(或主机别名)分配给区域,并将其映射到已分配的专用 IP 地址。


    phys-schost# clnode set -p zprivatehostname=hostalias node:zone
    
    -p

    指定一个属性。

    zprivatehostname=hostalias

    指定区域专用主机名(或主机别名)。

    node

    节点名称。

    zone

    全局群集非投票节点的名称。

  7. 执行初始的内部区域配置。

    请按照《系统管理指南:Solaris Containers-资源管理和 Solaris Zones》中的“执行初始内部区域配置”中的过程操作。从以下方法中任选其一:

    • 登录到区域。

    • 使用 /etc/sysidcfg 文件。

  8. 在非投票节点中,修改 nsswitch.conf 文件。

    进行这些更改后,区域能够解析针对群集特定主机名和 IP 地址的搜索。

    1. 登录到区域。


      phys-schost# zlogin -c zonename
      
    2. 打开 /etc/nsswitch.conf 文件以进行编辑。


      sczone# vi /etc/nsswitch.conf
      
    3. hostsnetmasks 条目的查找语句的开头添加 cluster 开关,后面跟 files 开关。

      修改后的条目应类似于以下内容:


      …
      hosts:      cluster files nis [NOTFOUND=return]
      …
      netmasks:   cluster files nis [NOTFOUND=return]
      …
    4. 对于所有其他条目,确保 files 开关是该条目中列出的第一个开关。

    5. 退出区域。

  9. 如果创建了一个独占 IP 区域,请在该区域上的每个 /etc/hostname.interface 文件中配置 IPMP 组。

    对于区域中的数据服务通信所使用的每个公共网络适配器,都必须配置一个 IPMP 组。此信息不是从全局区域继承的。有关在群集中配置 IPMP 组的更多信息,请参见公共网络

  10. 为区域使用的所有逻辑主机名资源设置名称-地址映射。

    1. 向该区域上的 /etc/inet/hosts 文件中添加名称-地址映射。

      此信息不是从全局区域继承的。

    2. 如果使用名称服务器,请添加名称-地址映射。

接下来的操作

要在非全局区域中安装应用程序,请使用与独立系统相同的过程。有关在非全局区域中安装软件的过程,请参见应用程序的安装文档。另请参见《系统管理指南:Solaris Containers-资源管理和 Solaris Zones》中的“在安装了区域的 Solaris 系统上添加和删除软件包和修补程序(任务图)”

要在非全局区域中安装和配置数据服务,请参见各个数据服务对应的 Sun Cluster 手册。

配置区域群集

本节介绍了配置非全局区域的群集的过程。

clzonecluster 实用程序概述

clzonecluster 实用程序可用来创建、修改和删除区域群集。clzonecluster 实用程序主动管理区域群集。例如,clzonecluster 实用程序既可以引导区域群集,又可以停止区域群集。clzonecluster 实用程序的进度消息输出到控制台,而不是保存在日志文件中。

zonecfg 实用程序类似,该实用程序在以下范围级别运行:

建立区域群集

本节介绍了如何配置非全局区域的群集。

Procedure如何创建区域群集

执行此过程可创建非全局区域的群集。

开始之前
  1. 成为全局群集的某个活动成员节点上的超级用户。

    请从全局群集的某个节点中执行此过程的所有步骤。

  2. 确保全局群集的节点处于群集模式。

    如果任一节点处于非群集模式,当该节点返回到群集模式时,所做的更改将进行传播。因此,即使某些全局群集节点处于非群集模式,您也可以创建区域群集。当这些节点返回到群集模式时,系统会对它们执行区域群集创建任务。


    phys-schost# clnode status
    === Cluster Nodes ===
    
    --- Node Status ---
    
    Node Name                                       Status
    ---------                                       ------
    phys-schost-2                                   Online
    phys-schost-1                                   Online
  3. 创建区域群集。


    注 –

    默认情况下,将创建稀疏根区域 (sparse root zone)。要创建整个根区域,请为 create 命令添加 -b 选项。



    phys-schost-1# clzonecluster configure zoneclustername
    clzc:zoneclustername> create
    
    Set the zone path for the entire zone cluster
    clzc:zoneclustername> set zonepath=/zones/zoneclustername
    
    Add the first node and specify node-specific settings
    clzc:zoneclustername> add node
    clzc:zoneclustername:node> set physical-host=baseclusternode1
    clzc:zoneclustername:node> set hostname=hostname1
    clzc:zoneclustername:node> add net
    clzc:zoneclustername:node:net> set address=public_netaddr
    clzc:zoneclustername:node:net> set physical=adapter
    clzc:zoneclustername:node:net> end
    clzc:zoneclustername:node> end
    
    Set the root password globally for all nodes in the zone cluster
    clzc:zoneclustername> add sysid
    clzc:zoneclustername:sysid> set root_password=encrypted_password
    clzc:zoneclustername:sysid> end
    
    Save the configuration and exit the utility
    clzc:zoneclustername> commit
    clzc:zoneclustername> exit
    
  4. (可选的)向区域群集中添加一个或多个附加节点。


    phys-schost-1# clzonecluster configure zoneclustername
    clzc:zoneclustername> add node
    clzc:zoneclustername:node> set physical-host=baseclusternode2
    clzc:zoneclustername:node> set hostname=hostname2
    clzc:zoneclustername:node> add net
    clzc:zoneclustername:node:net> set address=public_netaddr
    clzc:zoneclustername:node:net> set physical=adapter
    clzc:zoneclustername:node:net> end
    clzc:zoneclustername:node> end
    clzc:zoneclustername> exit
    
  5. 检验区域群集配置。

    verify 子命令用于检查指定资源的可用性。如果 clzonecluster verify 命令成功,则不会输出任何内容。


    phys-schost-1# clzonecluster verify zoneclustername
    phys-schost-1# clzonecluster status zoneclustername
    === Zone Clusters ===
    
    --- Zone Cluster Status ---
    
    Name      Node Name   Zone HostName   Status    Zone Status
    ----      ---------   -------------   ------    -----------
    zone      basenode1    zone-1        Offline   Running
              basenode2    zone-2        Offline   Running
  6. 安装和引导群集。


    phys-schost-1# clzonecluster install zoneclustername
    Waiting for zone install commands to complete on all the nodes 
    of the zone cluster "zoneclustername"...
    
    Installation of the zone cluster might take several minutes
    phys-schost-1# clzonecluster boot zoneclustername
    Waiting for zone boot commands to complete on all the nodes of 
    the zone cluster "zoneclustername"...

示例 6–2 用来创建区域群集的配置文件

以下示例显示了可以与 clzonecluster 实用程序一起用来创建区域群集的命令文件的内容。该文件包含一系列需要您手动输入的 clzonecluster 命令。

在下面的配置中,将在全局群集节点 phys-schost-1 上创建区域群集 sczone。区域群集使用 /zones/sczone 作为区域路径。区域群集的第一个节点被指定主机名 zc-host-1,并且使用公共网络地址 172.16.0.1bge0 适配器。区域群集的第二个节点是在全局群集节点 phys-schost-2 上创建的。第二个区域群集节点被指定主机名 zc-host-2,并且使用公共网络地址 172.16.0.2bge1 适配器。

create
set zonepath=/zones/sczone
add node
set physical-host=phys-schost-1
set hostname=zc-host-1
add net
set address=172.16.0.1
set physical=bge0
end
end
add sysid
set root_password=encrypted_password
end
add node
set physical-host=phys-schost-2
set hostname=zc-host-2
add net
set address=172.16.0.2
set physical=bge1
end
end
commit
exit


示例 6–3 使用配置文件创建区域群集

以下示例显示了使用配置文件 sczone-config 在全局群集节点 phys-schost-1 上创建新的区域群集 sczone 时所用的命令。区域群集节点的主机名为 zc-host-1zc-host-2


phys-schost-1# clzonecluster configure -f sczone-config sczone
phys-schost-1# clzonecluster verify sczone
phys-schost-1# clzonecluster install sczone
Waiting for zone install commands to complete on all the nodes of the 
zone cluster "sczone"...
phys-schost-1# clzonecluster boot sczone
Waiting for zone boot commands to complete on all the nodes of the 
zone cluster "sczone"...
phys-schost-1# clzonecluster status sczone
=== Zone Clusters ===

--- Zone Cluster Status ---

Name      Node Name        Zone HostName    Status    Zone Status
----      ---------        -------------    ------    -----------
sczone    phys-schost-1    zc-host-1        Offline   Running
          phys-schost-2    zc-host-2        Offline   Running

接下来的操作

要向区域群集中添加文件系统,请转至向区域群集中添加文件系统

要向区域群集中添加全局存储设备,请转至向区域群集中添加存储设备

向区域群集中添加文件系统

本节介绍了添加供区域群集使用的文件系统的过程。

在将某个文件系统添加到区域群集并使其联机之后,此文件系统将在该区域群集中可见。


注 –

不能使用 clzonecluster 命令将挂载到单个全局群集节点上的本地文件系统添加到区域群集中,而是应当像在独立系统中通常那样使用 zonecfg 命令。本地文件系统将不受群集控制。

您不能向区域群集中添加群集文件系统。


本节包含以下过程:

Procedure如何向区域群集中添加高可用性本地文件系统

执行此过程可在全局群集上添加供区域群集使用的高可用性本地文件系统。


注 –

要向区域群集中添加 ZFS 池,请改为执行如何向区域群集中添加 ZFS 存储池中的过程。


  1. 在全局群集上,配置要在区域群集中使用的高可用性本地文件系统。

    请参见《Sun Cluster Data Services Planning and Administration Guide for Solaris OS》中的“Enabling Highly Available Local File Systems”

  2. 成为可托管区域群集的全局群集节点上的超级用户。

    请从全局群集的一个节点中执行此过程的所有步骤。

  3. 显示与要挂载到区域群集上的文件系统相对应的 /etc/vfstab 条目。


    phys-schost# vi /etc/vfstab
    
  4. 将该文件系统添加到区域群集配置中。


    phys-schost# clzonecluster configure zoneclustername
    clzc:zoneclustername> add fs
    clzc:zoneclustername:fs> set dir=mountpoint
    clzc:zoneclustername:fs> set special=disk-device-name
    clzc:zoneclustername:fs> set raw=raw-disk-device-name
    clzc:zoneclustername:fs> set type=FS-type
    clzc:zoneclustername:fs> end
    clzc:zoneclustername> exit
    
    dir=mountpoint

    指定文件系统挂载点

    special=disk-device-name

    指定磁盘设备的名称

    raw=raw-disk-device-name

    指定原始磁盘设备的名称

    type=FS-type

    指定文件系统的类型

  5. 检验是否添加了该文件系统。


    phys-schost# clzonecluster show -v zoneclustername
    

示例 6–4 向区域群集中添加高可用性本地文件系统

此示例将添加供 sczone 区域群集使用的高可用性本地文件系统 /global/oracle/d1


phys-schost-1# vi /etc/vfstab
#device           device        mount   FS      fsck    mount   mount
#to mount         to fsck       point   type    pass    at boot options
#                     
/dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs 5 no logging

phys-schost-1# clzonecluster configure sczone
clzc:sczone> add fs
clzc:sczone:fs> set dir=/global/oracle/d1
clzc:sczone:fs> set special=/dev/md/oracle/dsk/d1
clzc:sczone:fs> set raw=/dev/md/oracle/rdsk/d1
clzc:sczone:fs> set type=ufs
clzc:sczone:fs> end
clzc:sczone> exit

phys-schost-1# clzonecluster show -v sczone
…
  Resource Name:                            fs
    dir:                                       /global/oracle/d1
    special:                                   /dev/md/oracle/dsk/d1
    raw:                                       /dev/md/oracle/rdsk/d1
    type:                                      ufs
    options:                                   []
…

Procedure如何向区域群集中添加 ZFS 存储池

执行此过程可添加供区域群集使用的 ZFS 存储池。

  1. 在全局群集上配置 ZFS 存储池。


    注 –

    请确保该池连接到与区域群集的所有节点相连的共享磁盘。


    有关创建 ZFS 池的过程,请参见《Solaris ZFS 管理指南》

  2. 成为可托管区域群集的全局群集节点上的超级用户。

  3. 将该池添加到区域群集配置中。


    phys-schost# clzonecluster configure zoneclustername
    clzc:zoneclustername> add dataset
    clzc:zoneclustername:dataset> set name=ZFSpoolname
    clzc:zoneclustername:dataset> end
    clzc:zoneclustername> exit
    
  4. 检验是否添加了该文件系统。


    phys-schost# clzonecluster show -v zoneclustername
    

示例 6–5 向区域群集中添加 ZFS 存储池

以下示例显示了将 ZFS 存储池 zpool1 添加到区域群集 sczone 中的过程。


phys-schost-1# clzonecluster configure sczone
clzc:sczone> add dataset
clzc:sczone:dataset> set name=zpool1
clzc:sczone:dataset> end
clzc:sczone> exit

phys-schost-1# clzonecluster show -v sczone
…
  Resource Name:                                dataset
    name:                                          zpool1
…

Procedure如何向区域群集中添加 QFS 共享文件系统

执行此过程可添加供区域群集使用的 Sun StorageTek QFS 共享文件系统。


注 –

目前,仅支持在通过 Oracle Real Application Clusters (RAC) 配置的群集中使用 QFS 共享文件系统。在不是通过 Oracle RAC 配置的群集上,可以使用配置为高可用性本地文件系统的单机 QFS 文件系统。


  1. 在全局群集上,配置要在区域群集中使用的 QFS 共享文件系统。

    请按照《Sun Cluster Data Service for Oracle RAC Guide for Solaris OS》中的“Tasks for Configuring the Sun StorEdge QFS Shared File System for Oracle Files”中的过程操作。

  2. 成为可托管区域群集的全局群集投票节点上的超级用户。

    请从全局群集的某个投票节点中执行此过程的所有其余步骤。

  3. 显示与要挂载到区域群集上的文件系统相对应的 /etc/vfstab 条目。

    您将使用该条目中的信息指定要添加到区域群集配置中的文件系统。


    phys-schost# vi /etc/vfstab
    
  4. 将该文件系统添加到区域群集配置中。


    phys-schost# clzonecluster configure zoneclustername
    clzc:zoneclustername> add fs
    clzc:zoneclustername:fs> set dir=mountpoint
    clzc:zoneclustername:fs> set special=QFSfilesystemname
    clzc:zoneclustername:fs> set type=samfs
    clzc:zoneclustername:fs> end
    clzc:zoneclustername> exit
    
  5. 检验是否添加了该文件系统。


    phys-schost# clzonecluster show -v zoneclustername
    

示例 6–6 向区域群集中添加 QFS 共享文件系统

以下示例显示了将 QFS 共享文件系统 Data-cz1 添加到区域群集 sczone 中的过程。在全局群集中,该文件系统的挂载点为 /zones/sczone/root/db_qfs/Data1,其中 /zones/sczone/root/ 是区域的根路径。在区域群集节点内,该文件系统的挂载点为 db_qfs/Data1


phys-schost-1# vi /etc/vfstab
#device           device        mount   FS      fsck    mount     mount
#to mount         to fsck       point   type    pass    at boot   options
#                     
Data-cz1          -            /zones/sczone/root/db_qfs/Data1 samfs - no shared,notrace

phys-schost-1# clzonecluster configure sczone
clzc:sczone> add fs
clzc:sczone:fs> set dir=/db_qfs/Data1
clzc:sczone:fs> set special=Data-cz1
clzc:sczone:fs> set type=samfs
clzc:sczone:fs> end
clzc:sczone> exit

phys-schost-1# clzonecluster show -v sczone
…
  Resource Name:                            fs
    dir:                                       /db_qfs/Data1
    special:                                   Data-cz1
    raw:                                       
    type:                                      samfs
    options:                                   []
…

向区域群集中添加存储设备

本节介绍了如何添加供区域群集直接使用的全局存储设备。全局设备是指可以由群集中的多个节点访问(可以一次只供一个节点访问,也可以同时供多个节点访问)的设备。

在将某个设备添加到区域群集中之后,此设备将在该区域群集中可见。

本节包含以下过程:

Procedure如何向区域群集中添加单个元设备 (Solaris Volume Manager)

执行此过程可将 Solaris Volume Manager 磁盘集的单个元设备添加到区域群集中。

  1. 成为可托管区域群集的全局群集节点上的超级用户。

    请从全局群集的一个节点中执行此过程的所有步骤。

  2. 确定要添加到区域群集中的元设备所在的磁盘集,并确定该磁盘集是否处于联机状态。


    phys-schost# cldevicegroup status
    
  3. 如果要添加的磁盘集未处于联机状态,请将它置于联机状态。


    phys-schost# cldevicegroup online diskset
    
  4. 确定与要添加的磁盘集相对应的磁盘集编号。


    phys-schost# ls -l /dev/md/diskset
    lrwxrwxrwx  1 root root  8 Jul 22 23:11 /dev/md/diskset -> shared/setnumber 
    
  5. 添加供区域群集使用的元设备。

    您必须对每个 set match= 条目使用单独的 add device 会话。


    注 –

    在路径名称中使用星号 (*) 作为通配符。



    phys-schost# clzonecluster configure zoneclustername
    clzc:zoneclustername> add device
    clzc:zoneclustername:device> set match=/dev/md/diskset/*dsk/metadevice
    clzc:zoneclustername:device> end
    clzc:zoneclustername> add device
    clzc:zoneclustername:device> set match=/dev/md/shared/setnumber/*dsk/metadevice
    clzc:zoneclustername:device> end
    clzc:zoneclustername:> exit
    
    match=/dev/md/diskset/*dsk/metadevice

    指定元设备的完整逻辑设备路径

    match=/dev/md/shared/N/*dsk/metadevice

    指定磁盘集编号的完整物理设备路径

  6. 重新引导区域群集。

    所做的更改将在区域群集重新引导之后生效。


    phys-schost# clzonecluster reboot zoneclustername
    

示例 6–7 向区域群集中添加元设备

以下示例显示了如何将磁盘集 oraset 中的元设备 d1 添加到 sczone 区域群集中。该磁盘集的编号为 3


phys-schost-1# clzonecluster configure sczone
clzc:sczone> add device
clzc:sczone:device> set match=/dev/md/oraset/*dsk/d1
clzc:sczone:device> end
clzc:sczone> add device
clzc:sczone:device> set match=/dev/md/shared/3/*dsk/d1
clzc:sczone:device> end
clzc:sczone:> exit

phys-schost-1# clzonecluster reboot sczone

Procedure如何向区域群集中添加磁盘集 (Solaris Volume Manager)

执行此过程可将整个 Solaris Volume Manager 磁盘集添加到区域群集中。

  1. 成为可托管区域群集的全局群集节点上的超级用户。

    请从全局群集的一个节点中执行此过程的所有步骤。

  2. 确定要添加到区域群集中的磁盘集,并确定它是否处于联机状态。


    phys-schost# cldevicegroup status
    
  3. 如果要添加的磁盘集未处于联机状态,请将它置于联机状态。


    phys-schost# cldevicegroup online diskset
    
  4. 确定与要添加的磁盘集相对应的磁盘集编号。


    phys-schost# ls -l /dev/md/diskset
    lrwxrwxrwx  1 root root  8 Jul 22 23:11 /dev/md/diskset -> shared/setnumber 
    
  5. 添加供区域群集使用的磁盘集。

    您必须对每个 set match= 条目使用单独的 add device 会话。


    注 –

    在路径名称中使用星号 (*) 作为通配符。



    phys-schost# clzonecluster configure zoneclustername
    clzc:zoneclustername> add device
    clzc:zoneclustername:device> set match=/dev/md/diskset/*dsk/*
    clzc:zoneclustername:device> end
    clzc:zoneclustername> add device
    clzc:zoneclustername:device> set match=/dev/md/shared/setnumber/*dsk/*
    clzc:zoneclustername:device> end
    clzc:zoneclustername:> exit
    
    match=/dev/md/diskset/*dsk/*

    指定磁盘集的完整逻辑设备路径

    match=/dev/md/shared/N/*dsk/*

    指定磁盘集编号的完整物理设备路径

  6. 重新引导区域群集。

    所做的更改将在区域群集重新引导之后生效。


    phys-schost# clzonecluster reboot zoneclustername
    

示例 6–8 向区域群集中添加磁盘集

以下示例显示了如何将磁盘集 oraset 添加到 sczone 区域群集中。该磁盘集的编号为 3


phys-schost-1# clzonecluster configure sczone
clzc:sczone> add device
clzc:sczone:device> set match=/dev/md/oraset/*dsk/*
clzc:sczone:device> end
clzc:sczone> add device
clzc:sczone:device> set match=/dev/md/shared/3/*dsk/*
clzc:sczone:device> end
clzc:sczone:> exit

phys-schost-1# clzonecluster reboot sczone

Procedure如何向区域群集中添加 DID 设备

执行此过程可向区域群集中添加 DID 设备。

  1. 成为可托管区域群集的全局群集节点上的超级用户。

    请从全局群集的一个节点中执行此过程的所有步骤。

  2. 确定要添加到区域群集中的 DID 设备。

    要添加的设备必须连接到区域群集的所有节点。


    phys-schost# cldevice list -v
    
  3. 添加供区域群集使用的 DID 设备。


    注 –

    在路径名称中使用星号 (*) 作为通配符。



    phys-schost# clzonecluster configure zoneclustername
    clzc:zoneclustername> add device
    clzc:zoneclustername:device> set match=/dev/did/*dsk/dNs*
    clzc:zoneclustername:device> end
    clzc:zoneclustername:> exit
    
    match=/dev/did/*dsk/dNs*

    指定 DID 设备的完整设备路径

  4. 重新引导区域群集。

    所做的更改将在区域群集重新引导之后生效。


    phys-schost# clzonecluster reboot zoneclustername
    

示例 6–9 向区域群集中添加 DID 设备

以下示例显示了如何将 DID 设备 d10 添加到 sczone 区域群集中。


phys-schost-1# clzonecluster configure sczone
clzc:sczone> add device
clzc:sczone:device> set match=/dev/did/*dsk/d10s*
clzc:sczone:device> end
clzc:sczone:> exit

phys-schost-1# clzonecluster reboot sczone

Procedure如何向区域群集中添加原始磁盘设备

  1. 使用 zonecfg 命令将原始磁盘设备 (cNtXdYsZ) 导出到区域群集节点,就像对其他标记的非全局区域通常所做的那样。

    此类设备不会受 clzonecluster 命令的控制,而是会视为节点的本地设备。有关将原始磁盘设备导出到非全局区域的更多信息,请参见《系统管理指南:Solaris Containers-资源管理和 Solaris Zones》中的“如何使用 zonecfg 导入原始设备和块设备”