本章介绍以下主题:
本节介绍了创建群集文件系统以支持数据服务的过程。
请对要创建的每个群集文件系统执行以下过程。与本地文件系统不同,群集文件系统可以从全局群集中的任何节点进行访问。
此外,您也可以使用具有高可用性的本地文件系统来支持数据服务。有关选择创建群集文件系统还是创建具有高可用性的本地文件系统来支持特定数据服务的信息,请参见该数据服务的相关手册。有关创建具有高可用性的本地文件系统的一般信息,请参见《Sun Cluster Data Services Planning and Administration Guide for Solaris OS》中的“Enabling Highly Available Local File Systems”。
您不能向区域群集中添加群集文件系统。
执行以下任务:
确保已按照安装软件所述安装了 Solaris OS、Sun Cluster 框架和其他产品的软件包。
确保已按照建立新的全局群集或新的全局群集节点所述建立了新群集或新的群集节点。
如果将使用卷管理器,请确保已安装并配置了卷管理软件。有关卷管理器的安装过程,请参见配置 Solaris Volume Manager 软件或安装和配置 VxVM 软件。
如果向使用 VxVM 的群集中添加了新节点,则必须执行以下任务之一:
在该节点上安装 VxVM。
修改该节点的 /etc/name_to_major 文件,以支持与 VxVM 的共存。
请按照如何安装 Veritas Volume Manager 软件中的过程执行要求完成的上述任务之一。
确定要创建的每个群集文件系统所使用的挂载选项。请参见选择针对群集文件系统的挂载选项。
成为群集中任一节点上的超级用户。
对于 Solaris,如果群集中配置有非全局区域,您必须从全局区域中执行此过程。
要更快地创建文件系统,请成为为其创建文件系统的全局设备的当前主节点上的超级用户。
创建文件系统。
创建文件系统时,会毁坏该磁盘上的所有数据。请确保指定的磁盘设备名称是正确的。如果指定的设备名称不正确,可能会删除不打算删除的数据。
对于 UFS 文件系统,请使用 newfs(1M) 命令。
phys-schost# newfs raw-disk-device |
下表显示了 raw-disk-device 参数名称的示例。请注意,卷管理器的命名规则各不相同。
卷管理器 |
磁盘设备名称样例 |
描述 |
---|---|---|
Solaris Volume Manager |
/dev/md/nfs/rdsk/d1 |
nfs 磁盘集中的原始磁盘设备 d1 |
Veritas Volume Manager |
/dev/vx/rdsk/oradg/vol01 |
oradg 磁盘组中的原始磁盘设备 vol01 |
无 |
/dev/global/rdsk/d1s3 |
原始磁盘设备 d1s3 |
SPARC:对于 Veritas 文件系统 (VxFS) 文件系统,请按照 VxFS 文档中提供的过程进行操作。
每个节点上都需要一个挂载点,即使不在该节点上访问群集文件系统也是如此。
为了便于管理,请在 /global/device-group/ 目录中创建挂载点。该位置允许您很容易地区别群集文件系统,这些文件系统从本地文件系统中全局可用。
phys-schost# mkdir -p /global/device-group/mountpoint/ |
与包含该设备的设备组的名称相对应的目录名。
要在其上挂载群集文件系统的目录的名称。
在群集中的每个节点上,在 /etc/vfstab 文件中为挂载点添加一个条目。
如果群集内配置有非全局区域,请确保从全局区域根目录下的某一路径上将群集文件系统挂载到全局区域中。
在每个条目中,指定所用文件系统类型所需的挂载选项。
对于 Solaris Volume Manager 事务卷,请不要使用 logging 挂载选项。事务卷提供其自己的日志记录。
另外,Solaris Volume Manager 事务卷日志记录已从 Solaris 10 OS 中删除。
要自动挂载群集文件系统,请将 mount at boot 字段设置为 yes。
请确保对于每个群集文件系统,其 /etc/vfstab 条目中的信息在每个节点上是完全相同的。
请确保每个节点的 /etc/vfstab 文件中的条目都以相同顺序列出设备。
检查文件系统的引导顺序依赖性。
例如,考虑如下情形:phys-schost-1 将磁盘设备 d0 挂载到 /global/oracle/ 上,phys-schost-2 将磁盘设备 d1 挂载到 /global/oracle/logs/ 上。根据此配置,只有在 phys-schost-1 引导并挂载了 /global/oracle/ 之后,phys-schost-2 才能引导并挂载 /global/oracle/logs/。
phys-schost# sccheck |
配置检查实用程序将检验挂载点是否存在。该实用程序还将检验群集的所有节点上的 /etc/vfstab 文件条目是否正确。如果不出现错误,则不返回任何内容。
有关更多信息,请参见 sccheck(1M) 手册页。
挂载群集文件系统。
phys-schost# mount /global/device-group/mountpoint/ |
在群集的每个节点上检验是否已挂载群集文件系统。
可以使用 df 命令或 mount 命令列出已挂载的文件系统。有关更多信息,请参见 df(1M) 手册页或 mount(1M) 手册页。
对于 Solaris 10 OS,从全局区域和非全局区域都可以访问群集文件系统。
以下示例将在 Solaris Volume Manager 卷 /dev/md/oracle/rdsk/d1 上创建一个 UFS 群集文件系统。在每个节点上的 vfstab 文件中,都将添加一个与该群集文件系统对应的条目。随后,将从一个节点运行 sccheck 命令。在配置检查过程成功完成之后,从一个节点上挂载该群集文件系统并在所有节点上对其进行检验。
phys-schost# newfs /dev/md/oracle/rdsk/d1 … phys-schost# mkdir -p /global/oracle/d1 phys-schost# vi /etc/vfstab #device device mount FS fsck mount mount #to mount to fsck point type pass at boot options # /dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs 2 yes global,logging … phys-schost# sccheck phys-schost# mount /global/oracle/d1 phys-schost# mount … /global/oracle/d1 on /dev/md/oracle/dsk/d1 read/write/setuid/global/logging/largefiles on Sun Oct 3 08:56:16 2005 |
查看以下列表以确定下一项要执行的任务(该任务应适用于您的群集配置)。如果需要执行此列表中的多项任务,请转至其中在列表中排在最前面的那项任务。
要在节点上创建非全局区域,请转至如何在全局群集节点上创建非全局区域。
SPARC:要配置 Sun Management Center 以监视群集,请转至SPARC: 为 Sun Management Center 安装 Sun Cluster 模块。
请安装第三方应用程序、注册资源类型、设置资源组并配置数据服务。请参见应用程序软件随附的文档以及《Sun Cluster Data Services Planning and Administration Guide for Solaris OS》。
本节介绍了在全局群集节点上创建非全局区域的过程。
对于要在全局群集中创建的每个非全局区域,请执行以下过程。
有关安装区域的完整信息,请参阅《系统管理指南:Solaris Containers-资源管理和 Solaris Zones》。
以群集模式或非群集模式引导群集节点后,可以在该节点上配置 Solaris 10 非全局区域(简称区域)。
如果在以非群集模式引导节点之后创建了一个区域,则群集软件将在节点加入群集时发现该区域。
如果在节点处于群集模式时创建或删除了一个区域,则群集软件将动态更改其可控制资源组的区域列表。
执行以下任务:
规划非全局区域配置。请遵循有关全局群集中的非全局区域的指导中的要求和限制。
获取以下信息:
将创建的非全局区域的总数。
每个区域将使用的公共适配器和公共 IP 地址。
每个区域的区域路径。此路径必须是本地文件系统,而非群集文件系统或具有高可用性的本地文件系统。
每个区域中应出现的一个或多个设备。
(可选)将为每个区域分配的名称。
如果将为区域分配专用 IP 地址,请确保群集 IP 地址范围能够支持将配置的附加专用 IP 地址。使用 cluster show-netprops 命令可显示当前的专用网络配置。
如果当前 IP 地址范围不足以支持将要配置的附加专用 IP 地址,请按照如何在添加节点或专用网络时更改专用网络配置中的过程重新配置专用 IP 地址范围。
有关其他信息,请参见《系统管理指南:Solaris Containers-资源管理和 Solaris Zones》中的“区域组件”。
在要创建非投票节点的全局群集节点上成为超级用户。
您必须在全局区域中工作。
对于 Solaris 10 OS,在每个节点上检验服务管理工具 (Service Management Facility, SMF) 的多用户服务是否处于联机状态。
如果某个节点上的服务尚未处于联机状态,请等到状态变为联机后再继续执行下一步。
phys-schost# svcs multi-user-server node STATE STIME FMRI online 17:52:55 svc:/milestone/multi-user-server:default |
配置、安装和引导新区域。
您必须将 autoboot 属性设置为 true,以便在全局群集中的非投票节点中支持资源组功能。
请按照 Solaris 文档中的过程操作:
检验区域是否处于 ready 状态。
phys-schost# zoneadm list -v ID NAME STATUS PATH 0 global running / 1 my-zone ready /zone-path |
对于 ip-type 属性设置为 exclusive 的完全根区域,如果该区域可能托管逻辑主机名资源,请配置一个从全局区域挂载方法目录的文件系统资源。
phys-schost# zonecfg -z sczone zonecfg:sczone> add fs zonecfg:sczone:fs> set dir=/usr/cluster/lib/rgm zonecfg:sczone:fs> set special=/usr/cluster/lib/rgm zonecfg:sczone:fs> set type=lofs zonecfg:sczone:fs> end zonecfg:sczone> exit |
(可选的)对于共享 IP 区域,请为该区域指定一个专用 IP 地址和一个专用主机名。
以下命令从群集的专用 IP 地址范围中选择并指定了一个可用 IP 地址。此外,该命令还将一个指定的专用主机名(或主机别名)分配给区域,并将其映射到已分配的专用 IP 地址。
phys-schost# clnode set -p zprivatehostname=hostalias node:zone |
指定一个属性。
指定区域专用主机名(或主机别名)。
节点名称。
全局群集非投票节点的名称。
执行初始的内部区域配置。
请按照《系统管理指南:Solaris Containers-资源管理和 Solaris Zones》中的“执行初始内部区域配置”中的过程操作。从以下方法中任选其一:
登录到区域。
使用 /etc/sysidcfg 文件。
进行这些更改后,区域能够解析针对群集特定主机名和 IP 地址的搜索。
登录到区域。
phys-schost# zlogin -c zonename |
打开 /etc/nsswitch.conf 文件以进行编辑。
sczone# vi /etc/nsswitch.conf |
向 hosts 和 netmasks 条目的查找语句的开头添加 cluster 开关,后面跟 files 开关。
修改后的条目应类似于以下内容:
… hosts: cluster files nis [NOTFOUND=return] … netmasks: cluster files nis [NOTFOUND=return] … |
对于所有其他条目,确保 files 开关是该条目中列出的第一个开关。
退出区域。
如果创建了一个独占 IP 区域,请在该区域上的每个 /etc/hostname.interface 文件中配置 IPMP 组。
对于区域中的数据服务通信所使用的每个公共网络适配器,都必须配置一个 IPMP 组。此信息不是从全局区域继承的。有关在群集中配置 IPMP 组的更多信息,请参见公共网络。
为区域使用的所有逻辑主机名资源设置名称-地址映射。
要在非全局区域中安装应用程序,请使用与独立系统相同的过程。有关在非全局区域中安装软件的过程,请参见应用程序的安装文档。另请参见《系统管理指南:Solaris Containers-资源管理和 Solaris Zones》中的“在安装了区域的 Solaris 系统上添加和删除软件包和修补程序(任务图)”。
要在非全局区域中安装和配置数据服务,请参见各个数据服务对应的 Sun Cluster 手册。
本节介绍了配置非全局区域的群集的过程。
clzonecluster 实用程序可用来创建、修改和删除区域群集。clzonecluster 实用程序主动管理区域群集。例如,clzonecluster 实用程序既可以引导区域群集,又可以停止区域群集。clzonecluster 实用程序的进度消息输出到控制台,而不是保存在日志文件中。
与 zonecfg 实用程序类似,该实用程序在以下范围级别运行:
群集范围影响整个区域群集。
节点范围仅影响指定的一个区域群集节点。
资源范围影响特定节点或整个区域群集,具体取决于您从哪个范围进入资源范围。大多数资源只能从节点范围进入。资源范围由以下提示符标识:
clzc:zoneclustername:resource> cluster-wide setting clzc:zoneclustername:node:resource> node-specific setting |
您可以使用 clzonecluster 实用程序指定任何 Solaris Zones 资源参数以及特定于区域群集的参数。有关可以在区域群集中设置的参数的信息,请参见 clzonecluster(1CL) 手册页。有关 Solaris Zones 资源参数的其他信息,请参见 zonecfg(1M) 手册页。
本节介绍了如何配置非全局区域的群集。
执行此过程可创建非全局区域的群集。
创建全局群集。请参见第 3 章。
阅读有关创建区域群集的指导和要求。请参见区域群集。
获取以下信息:
要指定给区域群集的唯一名称。
区域群集的节点将使用的区域路径。有关更多信息,请参见《系统管理指南:Solaris Containers-资源管理和 Solaris Zones》中的“资源和属性类型”中的 zonepath 属性描述。
要在其上创建区域群集节点的全局群集中每个节点的名称。
要指定给每个区域群集节点的区域公共主机名或主机别名。
每个区域群集节点使用的公共网络 IP 地址。
每个区域群集节点用来连接到公共网络的公共网络适配器的名称。
成为全局群集的某个活动成员节点上的超级用户。
请从全局群集的某个节点中执行此过程的所有步骤。
确保全局群集的节点处于群集模式。
如果任一节点处于非群集模式,当该节点返回到群集模式时,所做的更改将进行传播。因此,即使某些全局群集节点处于非群集模式,您也可以创建区域群集。当这些节点返回到群集模式时,系统会对它们执行区域群集创建任务。
phys-schost# clnode status === Cluster Nodes === --- Node Status --- Node Name Status --------- ------ phys-schost-2 Online phys-schost-1 Online |
默认情况下,将创建稀疏根区域 (sparse root zone)。要创建整个根区域,请为 create 命令添加 -b 选项。
phys-schost-1# clzonecluster configure zoneclustername clzc:zoneclustername> create Set the zone path for the entire zone cluster clzc:zoneclustername> set zonepath=/zones/zoneclustername Add the first node and specify node-specific settings clzc:zoneclustername> add node clzc:zoneclustername:node> set physical-host=baseclusternode1 clzc:zoneclustername:node> set hostname=hostname1 clzc:zoneclustername:node> add net clzc:zoneclustername:node:net> set address=public_netaddr clzc:zoneclustername:node:net> set physical=adapter clzc:zoneclustername:node:net> end clzc:zoneclustername:node> end Set the root password globally for all nodes in the zone cluster clzc:zoneclustername> add sysid clzc:zoneclustername:sysid> set root_password=encrypted_password clzc:zoneclustername:sysid> end Save the configuration and exit the utility clzc:zoneclustername> commit clzc:zoneclustername> exit |
(可选的)向区域群集中添加一个或多个附加节点。
phys-schost-1# clzonecluster configure zoneclustername clzc:zoneclustername> add node clzc:zoneclustername:node> set physical-host=baseclusternode2 clzc:zoneclustername:node> set hostname=hostname2 clzc:zoneclustername:node> add net clzc:zoneclustername:node:net> set address=public_netaddr clzc:zoneclustername:node:net> set physical=adapter clzc:zoneclustername:node:net> end clzc:zoneclustername:node> end clzc:zoneclustername> exit |
检验区域群集配置。
verify 子命令用于检查指定资源的可用性。如果 clzonecluster verify 命令成功,则不会输出任何内容。
phys-schost-1# clzonecluster verify zoneclustername phys-schost-1# clzonecluster status zoneclustername === Zone Clusters === --- Zone Cluster Status --- Name Node Name Zone HostName Status Zone Status ---- --------- ------------- ------ ----------- zone basenode1 zone-1 Offline Running basenode2 zone-2 Offline Running |
phys-schost-1# clzonecluster install zoneclustername Waiting for zone install commands to complete on all the nodes of the zone cluster "zoneclustername"... Installation of the zone cluster might take several minutes phys-schost-1# clzonecluster boot zoneclustername Waiting for zone boot commands to complete on all the nodes of the zone cluster "zoneclustername"... |
以下示例显示了可以与 clzonecluster 实用程序一起用来创建区域群集的命令文件的内容。该文件包含一系列需要您手动输入的 clzonecluster 命令。
在下面的配置中,将在全局群集节点 phys-schost-1 上创建区域群集 sczone。区域群集使用 /zones/sczone 作为区域路径。区域群集的第一个节点被指定主机名 zc-host-1,并且使用公共网络地址 172.16.0.1 和 bge0 适配器。区域群集的第二个节点是在全局群集节点 phys-schost-2 上创建的。第二个区域群集节点被指定主机名 zc-host-2,并且使用公共网络地址 172.16.0.2 和 bge1 适配器。
create set zonepath=/zones/sczone add node set physical-host=phys-schost-1 set hostname=zc-host-1 add net set address=172.16.0.1 set physical=bge0 end end add sysid set root_password=encrypted_password end add node set physical-host=phys-schost-2 set hostname=zc-host-2 add net set address=172.16.0.2 set physical=bge1 end end commit exit
以下示例显示了使用配置文件 sczone-config 在全局群集节点 phys-schost-1 上创建新的区域群集 sczone 时所用的命令。区域群集节点的主机名为 zc-host-1 和 zc-host-2。
phys-schost-1# clzonecluster configure -f sczone-config sczone phys-schost-1# clzonecluster verify sczone phys-schost-1# clzonecluster install sczone Waiting for zone install commands to complete on all the nodes of the zone cluster "sczone"... phys-schost-1# clzonecluster boot sczone Waiting for zone boot commands to complete on all the nodes of the zone cluster "sczone"... phys-schost-1# clzonecluster status sczone === Zone Clusters === --- Zone Cluster Status --- Name Node Name Zone HostName Status Zone Status ---- --------- ------------- ------ ----------- sczone phys-schost-1 zc-host-1 Offline Running phys-schost-2 zc-host-2 Offline Running |
要向区域群集中添加文件系统,请转至向区域群集中添加文件系统。
要向区域群集中添加全局存储设备,请转至向区域群集中添加存储设备。
本节介绍了添加供区域群集使用的文件系统的过程。
在将某个文件系统添加到区域群集并使其联机之后,此文件系统将在该区域群集中可见。
不能使用 clzonecluster 命令将挂载到单个全局群集节点上的本地文件系统添加到区域群集中,而是应当像在独立系统中通常那样使用 zonecfg 命令。本地文件系统将不受群集控制。
您不能向区域群集中添加群集文件系统。
本节包含以下过程:
执行此过程可在全局群集上添加供区域群集使用的高可用性本地文件系统。
要向区域群集中添加 ZFS 池,请改为执行如何向区域群集中添加 ZFS 存储池中的过程。
在全局群集上,配置要在区域群集中使用的高可用性本地文件系统。
成为可托管区域群集的全局群集节点上的超级用户。
请从全局群集的一个节点中执行此过程的所有步骤。
显示与要挂载到区域群集上的文件系统相对应的 /etc/vfstab 条目。
phys-schost# vi /etc/vfstab |
将该文件系统添加到区域群集配置中。
phys-schost# clzonecluster configure zoneclustername clzc:zoneclustername> add fs clzc:zoneclustername:fs> set dir=mountpoint clzc:zoneclustername:fs> set special=disk-device-name clzc:zoneclustername:fs> set raw=raw-disk-device-name clzc:zoneclustername:fs> set type=FS-type clzc:zoneclustername:fs> end clzc:zoneclustername> exit |
指定文件系统挂载点
指定磁盘设备的名称
指定原始磁盘设备的名称
指定文件系统的类型
检验是否添加了该文件系统。
phys-schost# clzonecluster show -v zoneclustername |
此示例将添加供 sczone 区域群集使用的高可用性本地文件系统 /global/oracle/d1。
phys-schost-1# vi /etc/vfstab #device device mount FS fsck mount mount #to mount to fsck point type pass at boot options # /dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs 5 no logging phys-schost-1# clzonecluster configure sczone clzc:sczone> add fs clzc:sczone:fs> set dir=/global/oracle/d1 clzc:sczone:fs> set special=/dev/md/oracle/dsk/d1 clzc:sczone:fs> set raw=/dev/md/oracle/rdsk/d1 clzc:sczone:fs> set type=ufs clzc:sczone:fs> end clzc:sczone> exit phys-schost-1# clzonecluster show -v sczone … Resource Name: fs dir: /global/oracle/d1 special: /dev/md/oracle/dsk/d1 raw: /dev/md/oracle/rdsk/d1 type: ufs options: [] … |
执行此过程可添加供区域群集使用的 ZFS 存储池。
在全局群集上配置 ZFS 存储池。
请确保该池连接到与区域群集的所有节点相连的共享磁盘。
有关创建 ZFS 池的过程,请参见《Solaris ZFS 管理指南》。
成为可托管区域群集的全局群集节点上的超级用户。
将该池添加到区域群集配置中。
phys-schost# clzonecluster configure zoneclustername clzc:zoneclustername> add dataset clzc:zoneclustername:dataset> set name=ZFSpoolname clzc:zoneclustername:dataset> end clzc:zoneclustername> exit |
检验是否添加了该文件系统。
phys-schost# clzonecluster show -v zoneclustername |
以下示例显示了将 ZFS 存储池 zpool1 添加到区域群集 sczone 中的过程。
phys-schost-1# clzonecluster configure sczone clzc:sczone> add dataset clzc:sczone:dataset> set name=zpool1 clzc:sczone:dataset> end clzc:sczone> exit phys-schost-1# clzonecluster show -v sczone … Resource Name: dataset name: zpool1 … |
执行此过程可添加供区域群集使用的 Sun StorageTek QFS 共享文件系统。
目前,仅支持在通过 Oracle Real Application Clusters (RAC) 配置的群集中使用 QFS 共享文件系统。在不是通过 Oracle RAC 配置的群集上,可以使用配置为高可用性本地文件系统的单机 QFS 文件系统。
在全局群集上,配置要在区域群集中使用的 QFS 共享文件系统。
成为可托管区域群集的全局群集投票节点上的超级用户。
请从全局群集的某个投票节点中执行此过程的所有其余步骤。
显示与要挂载到区域群集上的文件系统相对应的 /etc/vfstab 条目。
您将使用该条目中的信息指定要添加到区域群集配置中的文件系统。
phys-schost# vi /etc/vfstab |
将该文件系统添加到区域群集配置中。
phys-schost# clzonecluster configure zoneclustername clzc:zoneclustername> add fs clzc:zoneclustername:fs> set dir=mountpoint clzc:zoneclustername:fs> set special=QFSfilesystemname clzc:zoneclustername:fs> set type=samfs clzc:zoneclustername:fs> end clzc:zoneclustername> exit |
检验是否添加了该文件系统。
phys-schost# clzonecluster show -v zoneclustername |
以下示例显示了将 QFS 共享文件系统 Data-cz1 添加到区域群集 sczone 中的过程。在全局群集中,该文件系统的挂载点为 /zones/sczone/root/db_qfs/Data1,其中 /zones/sczone/root/ 是区域的根路径。在区域群集节点内,该文件系统的挂载点为 db_qfs/Data1。
phys-schost-1# vi /etc/vfstab #device device mount FS fsck mount mount #to mount to fsck point type pass at boot options # Data-cz1 - /zones/sczone/root/db_qfs/Data1 samfs - no shared,notrace phys-schost-1# clzonecluster configure sczone clzc:sczone> add fs clzc:sczone:fs> set dir=/db_qfs/Data1 clzc:sczone:fs> set special=Data-cz1 clzc:sczone:fs> set type=samfs clzc:sczone:fs> end clzc:sczone> exit phys-schost-1# clzonecluster show -v sczone … Resource Name: fs dir: /db_qfs/Data1 special: Data-cz1 raw: type: samfs options: [] … |
本节介绍了如何添加供区域群集直接使用的全局存储设备。全局设备是指可以由群集中的多个节点访问(可以一次只供一个节点访问,也可以同时供多个节点访问)的设备。
在将某个设备添加到区域群集中之后,此设备将在该区域群集中可见。
本节包含以下过程:
执行此过程可将 Solaris Volume Manager 磁盘集的单个元设备添加到区域群集中。
成为可托管区域群集的全局群集节点上的超级用户。
请从全局群集的一个节点中执行此过程的所有步骤。
确定要添加到区域群集中的元设备所在的磁盘集,并确定该磁盘集是否处于联机状态。
phys-schost# cldevicegroup status |
如果要添加的磁盘集未处于联机状态,请将它置于联机状态。
phys-schost# cldevicegroup online diskset |
确定与要添加的磁盘集相对应的磁盘集编号。
phys-schost# ls -l /dev/md/diskset lrwxrwxrwx 1 root root 8 Jul 22 23:11 /dev/md/diskset -> shared/setnumber |
添加供区域群集使用的元设备。
您必须对每个 set match= 条目使用单独的 add device 会话。
在路径名称中使用星号 (*) 作为通配符。
phys-schost# clzonecluster configure zoneclustername clzc:zoneclustername> add device clzc:zoneclustername:device> set match=/dev/md/diskset/*dsk/metadevice clzc:zoneclustername:device> end clzc:zoneclustername> add device clzc:zoneclustername:device> set match=/dev/md/shared/setnumber/*dsk/metadevice clzc:zoneclustername:device> end clzc:zoneclustername:> exit |
指定元设备的完整逻辑设备路径
指定磁盘集编号的完整物理设备路径
重新引导区域群集。
所做的更改将在区域群集重新引导之后生效。
phys-schost# clzonecluster reboot zoneclustername |
以下示例显示了如何将磁盘集 oraset 中的元设备 d1 添加到 sczone 区域群集中。该磁盘集的编号为 3。
phys-schost-1# clzonecluster configure sczone clzc:sczone> add device clzc:sczone:device> set match=/dev/md/oraset/*dsk/d1 clzc:sczone:device> end clzc:sczone> add device clzc:sczone:device> set match=/dev/md/shared/3/*dsk/d1 clzc:sczone:device> end clzc:sczone:> exit phys-schost-1# clzonecluster reboot sczone |
执行此过程可将整个 Solaris Volume Manager 磁盘集添加到区域群集中。
成为可托管区域群集的全局群集节点上的超级用户。
请从全局群集的一个节点中执行此过程的所有步骤。
确定要添加到区域群集中的磁盘集,并确定它是否处于联机状态。
phys-schost# cldevicegroup status |
如果要添加的磁盘集未处于联机状态,请将它置于联机状态。
phys-schost# cldevicegroup online diskset |
确定与要添加的磁盘集相对应的磁盘集编号。
phys-schost# ls -l /dev/md/diskset lrwxrwxrwx 1 root root 8 Jul 22 23:11 /dev/md/diskset -> shared/setnumber |
添加供区域群集使用的磁盘集。
您必须对每个 set match= 条目使用单独的 add device 会话。
在路径名称中使用星号 (*) 作为通配符。
phys-schost# clzonecluster configure zoneclustername clzc:zoneclustername> add device clzc:zoneclustername:device> set match=/dev/md/diskset/*dsk/* clzc:zoneclustername:device> end clzc:zoneclustername> add device clzc:zoneclustername:device> set match=/dev/md/shared/setnumber/*dsk/* clzc:zoneclustername:device> end clzc:zoneclustername:> exit |
指定磁盘集的完整逻辑设备路径
指定磁盘集编号的完整物理设备路径
重新引导区域群集。
所做的更改将在区域群集重新引导之后生效。
phys-schost# clzonecluster reboot zoneclustername |
以下示例显示了如何将磁盘集 oraset 添加到 sczone 区域群集中。该磁盘集的编号为 3。
phys-schost-1# clzonecluster configure sczone clzc:sczone> add device clzc:sczone:device> set match=/dev/md/oraset/*dsk/* clzc:sczone:device> end clzc:sczone> add device clzc:sczone:device> set match=/dev/md/shared/3/*dsk/* clzc:sczone:device> end clzc:sczone:> exit phys-schost-1# clzonecluster reboot sczone |
执行此过程可向区域群集中添加 DID 设备。
成为可托管区域群集的全局群集节点上的超级用户。
请从全局群集的一个节点中执行此过程的所有步骤。
确定要添加到区域群集中的 DID 设备。
要添加的设备必须连接到区域群集的所有节点。
phys-schost# cldevice list -v |
添加供区域群集使用的 DID 设备。
在路径名称中使用星号 (*) 作为通配符。
phys-schost# clzonecluster configure zoneclustername clzc:zoneclustername> add device clzc:zoneclustername:device> set match=/dev/did/*dsk/dNs* clzc:zoneclustername:device> end clzc:zoneclustername:> exit |
指定 DID 设备的完整设备路径
重新引导区域群集。
所做的更改将在区域群集重新引导之后生效。
phys-schost# clzonecluster reboot zoneclustername |
以下示例显示了如何将 DID 设备 d10 添加到 sczone 区域群集中。
phys-schost-1# clzonecluster configure sczone clzc:sczone> add device clzc:sczone:device> set match=/dev/did/*dsk/d10s* clzc:sczone:device> end clzc:sczone:> exit phys-schost-1# clzonecluster reboot sczone |
使用 zonecfg 命令将原始磁盘设备 (cNtXdYsZ) 导出到区域群集节点,就像对其他标记的非全局区域通常所做的那样。
此类设备不会受 clzonecluster 命令的控制,而是会视为节点的本地设备。有关将原始磁盘设备导出到非全局区域的更多信息,请参见《系统管理指南:Solaris Containers-资源管理和 Solaris Zones》中的“如何使用 zonecfg 导入原始设备和块设备”。