本章介绍以下主题:
本节介绍了以下在全局群集节点上创建非全局区域的过程。
对于要在全局群集中创建的每个非全局区域,请执行以下过程。
有关安装区域的完整信息,请参阅《系统管理指南:Solaris Containers-资源管理和 Solaris Zones》。
以群集模式或非群集模式引导群集节点后,可以在该节点上配置 Solaris 10 非全局区域(简称区域)。
如果在以非群集模式引导节点之后创建了一个区域,则群集软件将在节点加入群集时发现该区域。
如果在节点处于群集模式时创建或删除了一个区域,则群集软件将动态更改其可控制资源组的区域列表。
执行以下任务:
规划非全局区域配置。请遵循有关全局群集中的非全局区域的指导中的要求和限制。
获取以下信息:
将创建的非全局区域的总数。
每个区域将使用的公共适配器和公共 IP 地址。
每个区域的区域路径。此路径必须是本地文件系统,而非群集文件系统或具有高可用性的本地文件系统。
每个区域中应出现的一个或多个设备。
(可选)将为每个区域指定的名称。
如果将为区域指定专用 IP 地址,请确保群集 IP 地址范围能够支持将配置的附加专用 IP 地址。使用 cluster show-netprops 命令可显示当前的专用网络配置。
如果当前 IP 地址范围不足以支持将要配置的附加专用 IP 地址,请按照如何在添加节点或专用网络时更改专用网络配置中的过程重新配置专用 IP 地址范围。
有关其他信息,请参见《系统管理指南:Solaris Containers-资源管理和 Solaris Zones》中的“区域组件”。
在要创建非投票节点的全局群集节点上成为超级用户。
您必须在全局区域中工作。
对于 Solaris 10 OS,请在每个节点上检验服务管理工具 (Service Management Facility, SMF) 的多用户服务是否联机。
如果某个节点上的服务尚未处于联机状态,请等待直到状态变为联机后,再继续执行下一步。
phys-schost# svcs multi-user-server node STATE STIME FMRI online 17:52:55 svc:/milestone/multi-user-server:default |
配置、安装和引导新区域。
您必须将 autoboot 属性设置为 true,以便在全局群集中的非投票节点中支持资源组功能。
请按照 Solaris 文档中的过程操作:
检验区域是否处于 ready 状态。
phys-schost# zoneadm list -v ID NAME STATUS PATH 0 global running / 1 my-zone ready /zone-path |
对于 ip-type 属性设置为 exclusive 的完全根区域:如果该区域可能托管逻辑主机名资源,应配置从全局区域挂载方法目录的文件系统资源。
phys-schost# zonecfg -z sczone zonecfg:sczone> add fs zonecfg:sczone:fs> set dir=/usr/cluster/lib/rgm zonecfg:sczone:fs> set special=/usr/cluster/lib/rgm zonecfg:sczone:fs> set type=lofs zonecfg:sczone:fs> end zonecfg:sczone> exit |
(可选的)对于共享 IP 区域,请为该区域指定一个专用 IP 地址和一个专用主机名。
以下命令从群集的专用 IP 地址范围中选择一个可用 IP 地址并进行指定。此外,该命令还将一个指定的专用主机名(或主机别名)指定给区域,并将其映射到已指定的专用 IP 地址。
phys-schost# clnode set -p zprivatehostname=hostalias node:zone |
指定一个属性。
指定区域专用主机名(或主机别名)。
节点名称。
全局群集非投票节点的名称。
执行初始的内部区域配置。
请按照《系统管理指南:Solaris Containers-资源管理和 Solaris Zones》中的“执行初始内部区域配置”中的过程操作。从以下方法中任选其一:
登录到区域。
使用 /etc/sysidcfg 文件。
通过进行这些更改,可以使区域能够解析对群集特定主机名和 IP 地址的搜索。
登录到区域。
phys-schost# zlogin -c zonename |
打开 /etc/nsswitch.conf 文件以进行编辑。
sczone# vi /etc/nsswitch.conf |
向 hosts 和 netmasks 条目的查找语句的开头添加 cluster 开关,后面跟 files 开关。
修改后的条目应显示如下:
… hosts: cluster files nis [NOTFOUND=return] … netmasks: cluster files nis [NOTFOUND=return] … |
对于所有其他条目,确保 files 开关是该条目中列出的第一个开关。
退出区域。
如果您创建了一个独占 IP 区域,请在该区域中的每个 /etc/hostname.interface 文件中配置 IPMP 组。
对于区域中的数据服务通信所使用的每个公共网络适配器,都必须配置一个 IPMP 组。此信息不是从全局区域继承的。有关在群集中配置 IPMP 组的更多信息,请参见公共网络。
为该区域使用的所有逻辑主机名资源设置名称-地址映射。
要在非全局区域中安装应用程序,请使用与独立系统相同的过程。有关在非全局区域中安装软件的过程,请参见应用程序的安装文档。另请参见《系统管理指南:Solaris Containers-资源管理和 Solaris Zones》中的“在安装了区域的 Solaris 系统上添加和删除软件包和修补程序(任务图)”。
要在非全局区域中安装和配置数据服务,请参见各个数据服务对应的 Sun Cluster 手册。
使用该过程让群集文件系统可供在群集节点上配置的 native 标记非全局区域使用。
只将该过程用于非全局区域的 native 标记。不能使用其他任何非全局区域的标记(例如 solaris8 标记或用于区域群集的 cluster 标记)执行该任务。
在全局群集的一个节点上,成为超级用户或使用一个可提供 solaris.cluster.modify RBAC 授权的角色。
使用 native 标记非全局区域的节点列表创建资源组。
注册 HAStoragePlus 资源类型。
phys-schost# clresourcetype register SUNW.HAStoragePlus |
在驻留节点列表中的非全局区域的每个全局群集节点上,将群集文件系统条目添加至 /etc/vfstab 文件。
群集文件系统的 /etc/vfstab 文件中的条目必须在挂载选项中包含 global 关键字。
创建 HAStoragePlus 资源并定义文件系统挂载点。
phys-schost# clresource create -g resource-group -t SUNW.HAStoragePlus \ -p FileSystemMountPoints="mount-point-list" hasp-resource |
指定要添加新资源的资源组的名称。
为资源指定一个或多个文件系统挂载点。
您创建的 HAStoragePlus 资源的名称。
已用已启用状态创建资源。
向 resource-group 添加资源并为 hasp-resource 上的资源设置依赖性。
如果要将多个资源添加至资源组,可对每个资源使用单独的命令。
phys-schost# clresource create -g resource-group -t resource-type \ -p Network_resources_used=hasp-resource resource |
指定为其创建的资源的资源类型。
指定在 HAStoragePlus 资源 hasp-resource 上有依赖性的资源。
您创建的资源的名称。
将包含 HAStoragePlus 资源的资源组置于联机状况并使其处于受管理状态。
phys-schost# clresourcegroup online -M resource-group |
指定资源组是受管理的。
以下示例创建故障转移资源组 cfs-rg 以管理 HA-Apache 数据服务。资源组节点列表包含两个非全局区域:phys-schost-1 上的 sczone1 和 phys-schost-2 上的 sczone1。资源组包含 HAStoragePlus 资源 hasp-rs 以及数据服务资源 apache-rs。文件系统挂载点为 /global/local-fs/apache。
phys-schost-1# clresourcegroup create -n phys-schost-1:sczone1,phys-schost-2:sczone1 cfs-rg phys-schost-1# clresourcetype register SUNW.HAStoragePlus Add the cluster file system entry to the /etc/vfstab file on phys-schost-1 phys-schost-1# vi /etc/vfstab #device device mount FS fsck mount mount #to mount to fsck point type pass at boot options # /dev/md/kappa-1/dsk/d0 /dev/md/kappa-1/rdsk/d0 /global/local-fs/apache ufs 5 yes logging,global Add the cluster file system entry to the /etc/vfstab file on phys-schost-2 phys-schost-2# vi /etc/vfstab … phys-schost-1# clresource create -g cfs-rg -t SUNW.HAStoragePlus \ -p FileSystemMountPoints="/global/local-fs/apache" hasp-rs phys-schost-1# clresource create -g cfs-rg -t SUNW.apache \ -p Network_resources_used=hasp-rs apache-rs phys-schost-1# clresourcegroup online -M cfs-rg |
|
本节介绍了配置非全局区域的群集的过程。
clzonecluster 实用程序可用来创建、修改和删除区域群集。clzonecluster 实用程序主动管理区域群集。例如,clzonecluster 实用程序既可以引导区域群集,又可以停止区域群集。clzonecluster 实用程序的进度消息输出到控制台,而不是保存在日志文件中。
与 zonecfg 实用程序类似,该实用程序在以下范围级别运行:
群集范围影响整个区域群集。
节点范围仅影响指定的一个区域群集节点。
资源范围影响特定节点或整个区域群集,具体取决于您从哪个范围进入资源范围。大多数资源只能从节点范围进入。资源范围由以下提示符标识:
clzc:zoneclustername:resource> cluster-wide setting clzc:zoneclustername:node:resource> node-specific setting |
您可以使用 clzonecluster 实用程序指定任何 Solaris Zones 资源参数以及特定于区域群集的参数。有关可以在区域群集中设置的参数的信息,请参见 clzonecluster(1CL) 手册页。有关 Solaris Zones 资源参数的其他信息,请参见 zonecfg(1M) 手册页。
本节介绍了如何配置非全局区域的群集。
执行此过程可创建非全局区域的群集。
创建全局群集。请参见第 3 章。
阅读有关创建区域群集的指导和要求。请参见区域群集。
获取以下信息:
要指定给区域群集的唯一名称。
区域群集的节点将使用的区域路径。有关更多信息,请参见《系统管理指南:Solaris Containers-资源管理和 Solaris Zones》中的“资源和属性类型”中的 zonepath 属性描述。
要在其上创建区域群集节点的全局群集中每个节点的名称。
要指定给每个区域群集节点的区域公共主机名或主机别名。
每个区域群集节点使用的公共网络 IP 地址。
每个区域群集节点用来连接到公共网络的公共网络适配器的名称。
成为全局群集的某个活动成员节点上的超级用户。
从全局群集的节点执行此过程中的所有步骤。
确保全局群集的节点处于群集模式。
如果任一节点处于非群集模式,当该节点返回到群集模式时,所做的更改将进行传播。因此,即使某些全局群集节点处于非群集模式,您也可以创建区域群集。当这些节点返回到群集模式时,系统会对它们执行区域群集创建任务。
phys-schost# clnode status === Cluster Nodes === --- Node Status --- Node Name Status --------- ------ phys-schost-2 Online phys-schost-1 Online |
默认情况下,将创建稀疏根区域 (sparse root zone)。要创建整个根区域,请为 create 命令添加 -b 选项。
phys-schost-1# clzonecluster configure zoneclustername clzc:zoneclustername> create Set the zone path for the entire zone cluster clzc:zoneclustername> set zonepath=/zones/zoneclustername Add the first node and specify node-specific settings clzc:zoneclustername> add node clzc:zoneclustername:node> set physical-host=baseclusternode1 clzc:zoneclustername:node> set hostname=hostname1 clzc:zoneclustername:node> add net clzc:zoneclustername:node:net> set address=public_netaddr clzc:zoneclustername:node:net> set physical=adapter clzc:zoneclustername:node:net> end clzc:zoneclustername:node> end Add authorization for the public-network addresses that the zone cluster is allowed to use clzc: zoneclustername> add net clzc: zoneclustername:net> set address=ipaddress1 clzc: zoneclustername:net> end Set the root password globally for all nodes in the zone cluster clzc:zoneclustername> add sysid clzc:zoneclustername:sysid> set root_password=encrypted_password clzc:zoneclustername:sysid> end Save the configuration and exit the utility clzc:zoneclustername> commit clzc:zoneclustername> exit |
(可选的)向区域群集中添加一个或多个附加节点。
phys-schost-1# clzonecluster configure zoneclustername clzc:zoneclustername> add node clzc:zoneclustername:node> set physical-host=baseclusternode2 clzc:zoneclustername:node> set hostname=hostname2 clzc:zoneclustername:node> add net clzc:zoneclustername:node:net> set address=public_netaddr clzc:zoneclustername:node:net> set physical=adapter clzc:zoneclustername:node:net> end clzc:zoneclustername:node> end clzc:zoneclustername> commit clzc:zoneclustername> exit |
检验区域群集配置。
verify 子命令用于检查指定资源的可用性。如果 clzonecluster verify 命令成功,则不会输出任何内容。
phys-schost-1# clzonecluster verify zoneclustername phys-schost-1# clzonecluster status zoneclustername === Zone Clusters === --- Zone Cluster Status --- Name Node Name Zone HostName Status Zone Status ---- --------- ------------- ------ ----------- zone basenode1 zone-1 Offline Configured basenode2 zone-2 Offline Configured |
phys-schost-1# clzonecluster install zoneclustername Waiting for zone install commands to complete on all the nodes of the zone cluster "zoneclustername"... Installation of the zone cluster might take several minutes phys-schost-1# clzonecluster boot zoneclustername Waiting for zone boot commands to complete on all the nodes of the zone cluster "zoneclustername"... |
以下示例显示了可以与 clzonecluster 实用程序一起用来创建区域群集的命令文件的内容。该文件包含一系列需要您手动输入的 clzonecluster 命令。
在下面的配置中,将在全局群集节点 phys-schost-1 上创建区域群集 sczone。区域群集将 /zones/sczone 用作区域路径以及公共 IP 地址 172.16.2.2。区域群集的第一个节点被指定主机名 zc-host-1,并使用网络地址 172.16.0.1 和 bge0 适配器。区域群集的第二个节点是在全局群集节点 phys-schost-2 上创建的。第二个区域群集节点被指定主机名 zc-host-2,并且使用网络地址 172.16.0.2 和 bge1 适配器。
create set zonepath=/zones/sczone add net set address=172.16.2.2 end add node set physical-host=phys-schost-1 set hostname=zc-host-1 add net set address=172.16.0.1 set physical=bge0 end end add sysid set root_password=encrypted_password end add node set physical-host=phys-schost-2 set hostname=zc-host-2 add net set address=172.16.0.2 set physical=bge1 end end commit exit
以下示例显示了使用配置文件 sczone-config 在全局群集节点 phys-schost-1 上创建新的区域群集 sczone 时所用的命令。区域群集节点的主机名为 zc-host-1 和 zc-host-2。
phys-schost-1# clzonecluster configure -f sczone-config sczone phys-schost-1# clzonecluster verify sczone phys-schost-1# clzonecluster install sczone Waiting for zone install commands to complete on all the nodes of the zone cluster "sczone"... phys-schost-1# clzonecluster boot sczone Waiting for zone boot commands to complete on all the nodes of the zone cluster "sczone"... phys-schost-1# clzonecluster status sczone === Zone Clusters === --- Zone Cluster Status --- Name Node Name Zone HostName Status Zone Status ---- --------- ------------- ------ ----------- sczone phys-schost-1 zc-host-1 Offline Running phys-schost-2 zc-host-2 Offline Running |
要向区域群集中添加文件系统,请转至向区域群集中添加文件系统。
要向区域群集中添加全局存储设备,请转至向区域群集中添加存储设备。
本节介绍了添加供区域群集使用的文件系统的过程。
在将某个文件系统添加到区域群集并使其联机之后,将授权在该区域群集中使用文件系统。要挂载文件系统以供使用,可通过使用群集资源(例如 SUNW.HAStoragePlus 或 SUNW.ScalMountPoint)来配置文件系统。
不能使用 clzonecluster 命令将挂载到单个全局群集节点上的本地文件系统添加到区域群集中,而是应当像在独立系统中通常那样使用 zonecfg 命令。本地文件系统将不受群集控制。
您不能向区域群集中添加群集文件系统。
本节包含以下过程:
此外,要将 ZFS 存储池配置为在区域群集中具有高可用性,请参见《Sun Cluster Data Services Planning and Administration Guide for Solaris OS》中的“How to Set Up the HAStoragePlus Resource Type to Make a Local Solaris ZFS Highly Available”。
执行此过程可在全局群集上添加供区域群集使用的本地文件系统。
要向区域群集中添加 ZFS 池,请改为执行如何向区域群集中添加 ZFS 存储池中的过程。
此外,要将 ZFS 存储池配置为在区域群集中具有高可用性,请参见《Sun Cluster Data Services Planning and Administration Guide for Solaris OS》中的“How to Set Up the HAStoragePlus Resource Type to Make a Local Solaris ZFS Highly Available”。
成为可托管区域群集的全局群集节点上的超级用户。
请从全局群集的某个节点执行此过程的所有步骤。
在全局群集上,创建要在区域群集中使用的文件系统。
确保在共享磁盘上创建了文件系统。
在托管区域群集节点的全局群集的每个节点上,向要在区域群集上挂载的文件系统的 /etc/vfstab 文件添加条目。
phys-schost# vi /etc/vfstab |
将该文件系统添加到区域群集配置中。
phys-schost# clzonecluster configure zoneclustername clzc:zoneclustername> add fs clzc:zoneclustername:fs> set dir=mountpoint clzc:zoneclustername:fs> set special=disk-device-name clzc:zoneclustername:fs> set raw=raw-disk-device-name clzc:zoneclustername:fs> set type=FS-type clzc:zoneclustername:fs> end clzc:zoneclustername> verify clzc:zoneclustername> commit clzc:zoneclustername> exit |
指定文件系统挂载点
指定磁盘设备的名称
指定原始磁盘设备的名称
指定文件系统的类型
检验是否添加了该文件系统。
phys-schost# clzonecluster show -v zoneclustername |
此示例将添加供 sczone 区域群集使用的本地文件系统 /global/oracle/d1。
phys-schost-1# vi /etc/vfstab #device device mount FS fsck mount mount #to mount to fsck point type pass at boot options # /dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs 5 no logging phys-schost-1# clzonecluster configure sczone clzc:sczone> add fs clzc:sczone:fs> set dir=/global/oracle/d1 clzc:sczone:fs> set special=/dev/md/oracle/dsk/d1 clzc:sczone:fs> set raw=/dev/md/oracle/rdsk/d1 clzc:sczone:fs> set type=ufs clzc:sczone:fs> end clzc:sczone> verify clzc:sczone> commit clzc:sczone> exit phys-schost-1# clzonecluster show -v sczone … Resource Name: fs dir: /global/oracle/d1 special: /dev/md/oracle/dsk/d1 raw: /dev/md/oracle/rdsk/d1 type: ufs options: [] … |
通过使用 HAStoragePlus 资源将文件系统配置为具有高可用性。HAStoragePlus 资源管理区域群集节点上文件系统的挂载,该节点当前托管配置为使用该文件系统的应用程序。请参见《Sun Cluster Data Services Planning and Administration Guide for Solaris OS》中的“Enabling Highly Available Local File Systems”。
执行此过程可添加供区域群集使用的 ZFS 存储池。
要将 ZFS 存储池配置为在区域群集中具有高可用性,请参见《Sun Cluster Data Services Planning and Administration Guide for Solaris OS》中的“How to Set Up the HAStoragePlus Resource Type to Make a Local Solaris ZFS Highly Available”。
成为可托管区域群集的全局群集节点上的超级用户。
从全局区域的节点执行此过程的所有步骤。
在全局群集上创建 ZFS 存储池。
请确保该池连接到与区域群集的所有节点相连的共享磁盘。
有关创建 ZFS 池的过程,请参见《Solaris ZFS 管理指南》。
将该池添加到区域群集配置中。
phys-schost# clzonecluster configure zoneclustername clzc:zoneclustername> add dataset clzc:zoneclustername:dataset> set name=ZFSpoolname clzc:zoneclustername:dataset> end clzc:zoneclustername> verify clzc:zoneclustername> commit clzc:zoneclustername> exit |
检验是否添加了该文件系统。
phys-schost# clzonecluster show -v zoneclustername |
以下示例显示了将 ZFS 存储池 zpool1 添加到区域群集 sczone 中的过程。
phys-schost-1# clzonecluster configure sczone clzc:sczone> add dataset clzc:sczone:dataset> set name=zpool1 clzc:sczone:dataset> end clzc:sczone> verify clzc:sczone> commit clzc:sczone> exit phys-schost-1# clzonecluster show -v sczone … Resource Name: dataset name: zpool1 … |
通过使用 HAStoragePlus 资源将 ZFS 存储池配置为具有高可用性。HAStoragePlus 资源管理区域群集节点上的池中的文件系统的挂载,该节点当前托管配置为使用该文件系统的应用程序。请参见《Sun Cluster Data Services Planning and Administration Guide for Solaris OS》中的“Enabling Highly Available Local File Systems”。
执行此过程可添加供区域群集使用的 Sun QFS 共享文件系统。
目前,仅支持在通过 Oracle Real Application Clusters (RAC) 配置的群集中使用 QFS 共享文件系统。在不是通过 Oracle RAC 配置的群集上,可以使用配置为高可用性本地文件系统的单机 QFS 文件系统。
成为可托管区域群集的全局群集投票节点上的超级用户。
从全局群集的投票节点执行此过程的所有步骤。
在全局群集上,配置要在区域群集中使用的 QFS 共享文件系统。
请遵循使用 Sun Cluster 配置 Sun QFS 文件系统中用于共享文件系统的过程。
在托管区域群集节点的全局群集的每个节点上,向要在区域群集上挂载的文件系统的 /etc/vfstab 文件添加条目。
phys-schost# vi /etc/vfstab |
将该文件系统添加到区域群集配置中。
phys-schost# clzonecluster configure zoneclustername clzc:zoneclustername> add fs clzc:zoneclustername:fs> set dir=mountpoint clzc:zoneclustername:fs> set special=QFSfilesystemname clzc:zoneclustername:fs> set type=samfs clzc:zoneclustername:fs> end clzc:zoneclustername> verify clzc:zoneclustername> commit clzc:zoneclustername> exit |
检验是否添加了该文件系统。
phys-schost# clzonecluster show -v zoneclustername |
以下示例显示了将 QFS 共享文件系统 Data-cz1 添加到区域群集 sczone 中的过程。在全局群集中,该文件系统的挂载点为 /zones/sczone/root/db_qfs/Data1,其中 /zones/sczone/root/ 是区域的根路径。在区域群集节点内,该文件系统的挂载点为 /db_qfs/Data1。
phys-schost-1# vi /etc/vfstab #device device mount FS fsck mount mount #to mount to fsck point type pass at boot options # Data-cz1 - /zones/sczone/root/db_qfs/Data1 samfs - no shared,notrace phys-schost-1# clzonecluster configure sczone clzc:sczone> add fs clzc:sczone:fs> set dir=/db_qfs/Data1 clzc:sczone:fs> set special=Data-cz1 clzc:sczone:fs> set type=samfs clzc:sczone:fs> end clzc:sczone> verify clzc:sczone> commit clzc:sczone> exit phys-schost-1# clzonecluster show -v sczone … Resource Name: fs dir: /db_qfs/Data1 special: Data-cz1 raw: type: samfs options: [] … |
本节介绍了如何添加供区域群集直接使用的全局存储设备。全局设备是指可以由群集中的多个节点访问(可以一次只供一个节点访问,也可以同时供多个节点访问)的设备。
在将某个设备添加到区域群集中之后,此设备将在该区域群集中可见。
本节包含以下过程:
执行此过程可将 Solaris Volume Manager 磁盘集的单个元设备添加到区域群集中。
成为可托管区域群集的全局群集节点上的超级用户。
请从全局群集的一个节点中执行此过程的所有步骤。
确定要添加到区域群集中的元设备所在的磁盘集,并确定该磁盘集是否处于联机状态。
phys-schost# cldevicegroup status |
如果要添加的磁盘集未处于联机状态,请将它置于联机状态。
phys-schost# cldevicegroup online diskset |
确定与要添加的磁盘集相对应的磁盘集编号。
phys-schost# ls -l /dev/md/diskset lrwxrwxrwx 1 root root 8 Jul 22 23:11 /dev/md/diskset -> shared/setnumber |
添加供区域群集使用的元设备。
您必须对每个 set match= 条目使用单独的 add device 会话。
在路径名称中使用星号 (*) 作为通配符。
phys-schost# clzonecluster configure zoneclustername clzc:zoneclustername> add device clzc:zoneclustername:device> set match=/dev/md/diskset/*dsk/metadevice clzc:zoneclustername:device> end clzc:zoneclustername> add device clzc:zoneclustername:device> set match=/dev/md/shared/setnumber/*dsk/metadevice clzc:zoneclustername:device> end clzc:zoneclustername> verify clzc:zoneclustername> commit clzc:zoneclustername> exit |
指定元设备的完整逻辑设备路径
指定磁盘集编号的完整物理设备路径
重新引导区域群集。
所做的更改将在区域群集重新引导之后生效。
phys-schost# clzonecluster reboot zoneclustername |
以下示例显示了如何将磁盘集 oraset 中的元设备 d1 添加到 sczone 区域群集中。该磁盘集的编号为 3。
phys-schost-1# clzonecluster configure sczone clzc:sczone> add device clzc:sczone:device> set match=/dev/md/oraset/*dsk/d1 clzc:sczone:device> end clzc:sczone> add device clzc:sczone:device> set match=/dev/md/shared/3/*dsk/d1 clzc:sczone:device> end clzc:sczone> verify clzc:sczone> commit clzc:sczone> exit phys-schost-1# clzonecluster reboot sczone |
执行此过程可将整个 Solaris Volume Manager 磁盘集添加到区域群集中。
成为可托管区域群集的全局群集节点上的超级用户。
请从全局群集的一个节点中执行此过程的所有步骤。
确定要添加到区域群集中的磁盘集,并确定它是否处于联机状态。
phys-schost# cldevicegroup status |
如果要添加的磁盘集未处于联机状态,请将它置于联机状态。
phys-schost# cldevicegroup online diskset |
确定与要添加的磁盘集相对应的磁盘集编号。
phys-schost# ls -l /dev/md/diskset lrwxrwxrwx 1 root root 8 Jul 22 23:11 /dev/md/diskset -> shared/setnumber |
添加供区域群集使用的磁盘集。
您必须对每个 set match= 条目使用单独的 add device 会话。
在路径名称中使用星号 (*) 作为通配符。
phys-schost# clzonecluster configure zoneclustername clzc:zoneclustername> add device clzc:zoneclustername:device> set match=/dev/md/diskset/*dsk/* clzc:zoneclustername:device> end clzc:zoneclustername> add device clzc:zoneclustername:device> set match=/dev/md/shared/setnumber/*dsk/* clzc:zoneclustername:device> end clzc:zoneclustername> verify clzc:zoneclustername> commit clzc:zoneclustername> exit |
指定磁盘集的完整逻辑设备路径
指定磁盘集编号的完整物理设备路径
重新引导区域群集。
所做的更改将在区域群集重新引导之后生效。
phys-schost# clzonecluster reboot zoneclustername |
以下示例显示了如何将磁盘集 oraset 添加到 sczone 区域群集中。该磁盘集的编号为 3。
phys-schost-1# clzonecluster configure sczone clzc:sczone> add device clzc:sczone:device> set match=/dev/md/oraset/*dsk/* clzc:sczone:device> end clzc:sczone> add device clzc:sczone:device> set match=/dev/md/shared/3/*dsk/* clzc:sczone:device> end clzc:sczone> verify clzc:sczone> commit clzc:sczone> exit phys-schost-1# clzonecluster reboot sczone |
执行此过程可向区域群集中添加 DID 设备。
成为可托管区域群集的全局群集节点上的超级用户。
请从全局群集的一个节点中执行此过程的所有步骤。
确定要添加到区域群集中的 DID 设备。
要添加的设备必须连接到区域群集的所有节点。
phys-schost# cldevice list -v |
添加供区域群集使用的 DID 设备。
在路径名称中使用星号 (*) 作为通配符。
phys-schost# clzonecluster configure zoneclustername clzc:zoneclustername> add device clzc:zoneclustername:device> set match=/dev/did/*dsk/dNs* clzc:zoneclustername:device> end clzc:zoneclustername> verify clzc:zoneclustername> commit clzc:zoneclustername> exit |
指定 DID 设备的完整设备路径
重新引导区域群集。
所做的更改将在区域群集重新引导之后生效。
phys-schost# clzonecluster reboot zoneclustername |
以下示例显示了如何将 DID 设备 d10 添加到 sczone 区域群集中。
phys-schost-1# clzonecluster configure sczone clzc:sczone> add device clzc:sczone:device> set match=/dev/did/*dsk/d10s* clzc:sczone:device> end clzc:sczone> verify clzc:sczone> commit clzc:sczone> exit phys-schost-1# clzonecluster reboot sczone |
使用 zonecfg 命令将原始磁盘设备 (cNtXdYsZ) 导出到区域群集节点,就像对其他标记的非全局区域通常所做的那样。
此类设备不会受 clzonecluster 命令的控制,而是会视为节点的本地设备。有关将原始磁盘设备导出到非全局区域的更多信息,请参见《系统管理指南:Solaris Containers-资源管理和 Solaris Zones》中的“如何使用 zonecfg 导入原始设备和块设备”。