跳过导航链接 | |
退出打印视图 | |
Oracle Solaris Cluster 软件安装指南 Oracle Solaris Cluster (简体中文) |
1. 规划 Oracle Solaris Cluster 配置
4. 配置 Solaris Volume Manager 软件
5. 安装和配置 Veritas Volume Manager(Veritas 卷管理器)
如何对非全局区域使用的群集文件系统配置 HAStoragePlus 资源
如何准备将 Trusted Extensions 用于区域群集
如何向区域群集中添加单个元设备 (Solaris Volume Manager)
8. 将 Oracle Solaris Cluster 模块安装到 Sun Management Center
本节提供了配置 Solaris Container 非全局区域群集(称为区域群集)的过程。
clzonecluster 实用程序可用来创建、修改和删除区域群集。clzonecluster 实用程序主动管理区域群集。例如,clzonecluster 实用程序既可以引导区域群集,又可以停止区域群集。clzonecluster 实用程序的进度消息输出到控制台,而不是保存在日志文件中。
与 zonecfg 实用程序类似,该实用程序在以下范围级别运行:
群集范围影响整个区域群集。
节点范围仅影响指定的一个区域群集节点。
资源范围影响特定节点或整个区域群集,具体取决于您从哪个范围进入资源范围。大多数资源只能从节点范围进入。资源范围由以下提示符标识:
clzc:zoneclustername:resource> cluster-wide setting clzc:zoneclustername:node:resource> node-specific setting
您可以使用 clzonecluster 实用程序指定任何 Solaris Zones 资源参数以及特定于区域群集的参数。有关可以在区域群集中设置的参数的信息,请参见 clzonecluster(1CL) 手册页。有关 Solaris Zones 资源参数的其他信息,请参见 zonecfg(1M) 手册页。
本节介绍了如何配置非全局区域的群集。
本过程准备全局群集以将 Oracle Solaris 的 Trusted Extensions 功能用于区域群集并启用 Trusted Extensions 功能。
如果不打算启用 Trusted Extensions,请转至如何创建区域群集。
请对全局群集中的每个节点执行该过程。
开始之前
执行以下任务:
确保已安装了支持 Oracle Solaris Cluster 和 Trusted Extensions 软件的 Solaris OS。
如果节点上已安装了 Solaris 软件,必须确保 Solaris 安装满足 Oracle Solaris Cluster 软件和任何其他要在群集中安装的软件的要求。Solaris 最终用户软件组中不包含 Trusted Extensions 软件。
有关如何安装符合 Oracle Solaris Cluster 软件要求的 Solaris 软件的更多信息,请参见如何安装 Solaris 软件。
确保已配置 LDAP 命名服务以供 Trusted Extensions 使用。请参见《Oracle Solaris Trusted Extensions 配置指南》中的第 5 章 "为 Trusted Extensions (任务) 配置 LDAP"。
查看有关区域群集中 Trusted Extensions 的指导。请参见有关区域群集中 Trusted Extensions 的指导。
Trusted Extensions zoneshare 和 zoneunshare 脚本支持在系统上导出主目录的功能。Oracle Solaris Cluster 配置不支持此功能。
通过用 /bin/true 实用程序的符号链接替换各个脚本可禁用此功能。在每个全局群集节点上执行此操作。
phys-schost# ln -s /usr/lib/zones/zoneshare /bin/true phys-schost# ln -x /usr/lib/zones/zoneunshare /bin/true
请参见《Oracle Solaris Trusted Extensions 配置指南》中的 "运行 txzonemgr 脚本"。
ipaddress:admin_low
从包含 -failover 选项的任何条目中删除该选项。
按照《Oracle Solaris Trusted Extensions 管理员操作过程》中的 "构建远程主机模板的过程" 所述,使用 Solaris Management Console 中的安全模板向导执行以下任务。
为群集组件使用的 IP 地址创建新条目并为每个条目分配一个 CIPSO 模板。
为全局群集节点的 /etc/inet/hosts 文件中存在的以下各个 IP 地址添加条目:
每个全局群集节点专用 IP 地址
全局群集中的所有 cl_privnet IP 地址
全局群集的每个逻辑主机名公共 IP 地址
全局群集的每个共享地址公共 IP 地址
相应条目应类似如下。
127.0.0.1:cipso 172.16.4.1:cipso 172.16.4.2:cipso …
添加一个条目,使默认模板成为内部模板。
0.0.0.0:internal
有关 CIPSO 模板的更多信息,请参见《Oracle Solaris Trusted Extensions 配置指南》中的 "配置解释域"。
phys-schost# svcadm enable -s svc:/system/labeld:default phys-schost# shutdown -g0 -y -i6
有关更多信息,请参见《Oracle Solaris Trusted Extensions 配置指南》中的 "启用 Trusted Extensions"。
phys-schost# svcs labeld STATE STIME FMRI online 17:52:55 svc:/system/labeld:default
在所有全局群集节点上启用 SMF 服务后,对全局群集的每个节点执行此过程的其余步骤。
全局区域和区域群集的节点均使用 LDAP 服务器。
phys-schost# svcadm enable rlogin
通过附加 Tab 并分别键入 allow_remote 或 allow_unlabeled 来修改帐户管理条目,如下所示。
other account requisite pam_roles.so.1 Tab allow_remote other account required pam_unix_account.so.1 Tab allow_unlabeled
确保 passwd 和 group 查找条目在查找顺序中首先列出 files。
… passwd: files ldap group: files ldap …
确保 hosts 和 netmasks 查找条目在查找顺序中首先列出 cluster。
… hosts: cluster files ldap … netmasks: cluster files ldap …
请参见《Oracle Solaris Trusted Extensions 配置指南》中的 "在 Trusted Extensions 中使全局区域成为LDAP 客户端"。
按照《Solaris Trusted Extensions Installation and Configuration for Solaris 10 11/06 and Solaris 10 8/07 Releases》中的"Creating Roles and Users in Trusted Extensions"中所述,使用 Solaris Management Console 中的添加用户向导。
接下来的步骤
创建区域群集。转到如何创建区域群集。
执行此过程可创建非全局区域的群集。
开始之前
创建全局群集。请参见第 3 章。
阅读有关创建区域群集的指导和要求。请参见区域群集。
如果区域群集将使用 Trusted Extensions,请确保已按如何准备将 Trusted Extensions 用于区域群集中所述配置并启用 Trusted Extensions。
获取以下信息:
要指定给区域群集的唯一名称。
注 - 要在启用了 Trusted Extensions 时配置区域群集,必须将区域群集要使用的 Trusted Extensions 安全标签的名称用作区域群集本身的名称。为要使用的每个 Trusted Extensions 安全标签创建单独的区域群集。
区域群集的节点将使用的区域路径。有关更多信息,请参见《系统管理指南:Oracle Solaris Containers-资源管理和 Oracle Solaris Zones》中的"资源和属性类型"中对 zonepath 属性的说明。
要在其上创建区域群集节点的全局群集中每个节点的名称。
要指定给每个区域群集节点的区域公共主机名或主机别名。
每个区域群集节点使用的公共网络 IP 地址(如果适用)。
每个区域群集节点用来连接到公共网络的公共网络适配器的名称(如果适用)。
注 - 如果不为每个区域群集节点配置 IP 地址,将出现以下两种情况:
该特定区域群集将无法配置要在区域群集中使用的 NAS 设备。群集在与 NAS 设备通信时将使用区域群集节点的 IP 地址,所以缺失 IP 地址会阻止对隔离 NAS 设备的群集支持。
群集软件将激活所有 NIC 上的所有逻辑主机 IP 地址。
注 - 从全局群集的节点执行此过程中的所有步骤。
如果任一节点处于非群集模式,当该节点返回到群集模式时,所做的更改将进行传播。因此,即使某些全局群集节点处于非群集模式,您也可以创建区域群集。当这些节点返回到群集模式时,系统会对它们执行区域群集创建任务。
phys-schost# clnode status === Cluster Nodes === --- Node Status --- Node Name Status --------- ------ phys-schost-2 Online phys-schost-1 Online
请遵循以下特殊说明:
如果启用 Trusted Extensions,则 zoneclustername 必须与具有要分配给区域群集的安全级别的 Trusted Extensions 安全标签名称相同。这些安全标签在全局群集的 /etc/security/tsol/tnrhtp 文件中进行配置。
默认情况下,将创建稀疏根区域 (sparse root zone)。要创建整个根区域,请为 create 命令添加 -b 选项。
为每个区域群集节点指定 IP 地址和 NIC 是可选的。
phys-schost-1# clzonecluster configure zoneclustername clzc:zoneclustername> create Set the zone path for the entire zone cluster clzc:zoneclustername> set zonepath=/zones/zoneclustername Add the first node and specify node-specific settings clzc:zoneclustername> add node clzc:zoneclustername:node> set physical-host=baseclusternode1 clzc:zoneclustername:node> set hostname=hostname1 clzc:zoneclustername:node> add net clzc:zoneclustername:node:net> set address=public_netaddr clzc:zoneclustername:node:net> set physical=adapter clzc:zoneclustername:node:net> end clzc:zoneclustername:node> end Add authorization for the public-network addresses that the zone cluster is allowed to use clzc: zoneclustername> add net clzc: zoneclustername:net> set address=ipaddress1 clzc: zoneclustername:net> end Set the root password globally for all nodes in the zone cluster clzc:zoneclustername> add sysid clzc:zoneclustername:sysid> set root_password=encrypted_password clzc:zoneclustername:sysid> end Save the configuration and exit the utility clzc:zoneclustername> commit clzc:zoneclustername> exit
phys-schost-1# clzonecluster configure zoneclustername clzc:zoneclustername> add fs clzc:zoneclustername:fs> set dir=/var/tsol/doors clzc:zoneclustername:fs> set special=/var/tsol/doors clzc:zoneclustername:fs> set type=lofs clzc:zoneclustername:fs> add options ro clzc:zoneclustername:fs> end clzc:zoneclustername> commit clzc:zoneclustername> exit
phys-schost-1# clzonecluster configure zoneclustername clzc:zoneclustername> add node clzc:zoneclustername:node> set physical-host=baseclusternode2 clzc:zoneclustername:node> set hostname=hostname2 clzc:zoneclustername:node> add net clzc:zoneclustername:node:net> set address=public_netaddr clzc:zoneclustername:node:net> set physical=adapter clzc:zoneclustername:node:net> end clzc:zoneclustername:node> end clzc:zoneclustername> commit clzc:zoneclustername> exit
phys-schost-1# clzonecluster configure zoneclustername clzc:zoneclustername> add sysid clzc:zoneclustername:sysid> set name_service=LDAP clzc:zoneclustername:sysid> set domain_name=domainorg.domainsuffix clzc:zoneclustername:sysid> set proxy_dn="cn=proxyagent,ou=profile,dc=domainorg,dc=domainsuffix" clzc:zoneclustername:sysid> set proxy_password="proxypassword" clzc:zoneclustername:sysid> set profile=ldap-server clzc:zoneclustername:sysid> set profile_server=txldapserver_ipaddress clzc:zoneclustername:sysid> end clzc:zoneclustername> commit clzc:zoneclustername> exit
verify 子命令用于检查指定资源的可用性。如果 clzonecluster verify 命令成功,则不会输出任何内容。
phys-schost-1# clzonecluster verify zoneclustername phys-schost-1# clzonecluster status zoneclustername === Zone Clusters === --- Zone Cluster Status --- Name Node Name Zone HostName Status Zone Status ---- --------- ------------- ------ ----------- zone basenode1 zone-1 Offline Configured basenode2 zone-2 Offline Configured
phys-schost-1# clzonecluster install zoneclustername Waiting for zone install commands to complete on all the nodes of the zone cluster "zoneclustername"...
Installation of the zone cluster might take several minutes phys-schost-1# clzonecluster boot zoneclustername Waiting for zone boot commands to complete on all the nodes of the zone cluster "zoneclustername"...
对区域群集的每个节点执行本步骤。
phys-schost# cat /etc/cluster/nodeid N
在登录前,确保已导入 SMF 服务且所有服务已启动。
群集软件在配置区域群集时会自动分配这些 IP 地址。
在 ifconfig -a 输出中,找到属于区域群集的 clprivnet0 逻辑接口。inet 的值是此区域群集为支持群集专用互连的使用而分配的 IP 地址。
zc1# ifconfig -a lo0:3: flags=20010008c9<UP,LOOPBACK,RUNNING,NOARP,MULTICAST,IPv4,VIRTUAL> mtu 8232 index 1 zone zc1 inet 127.0.0.1 netmask ff000000 bge0: flags=1000843<UP,BROADCAST,RUNNING,MULTICAST,IPv4> mtu 1500 index 2 inet 10.11.166.105 netmask ffffff00 broadcast 10.11.166.255 groupname sc_ipmp0 ether 0:3:ba:19:fa:b7 ce0: flags=9040843<UP,BROADCAST,RUNNING,MULTICAST,DEPRECATED,IPv4,NOFAILOVER> mtu 1500 index 4 inet 10.11.166.109 netmask ffffff00 broadcast 10.11.166.255 groupname sc_ipmp0 ether 0:14:4f:24:74:d8 ce0:3: flags=1000843<UP,BROADCAST,RUNNING,MULTICAST,IPv4> mtu 1500 index 4 zone zc1 inet 10.11.166.160 netmask ffffff00 broadcast 10.11.166.255 clprivnet0: flags=1009843<UP,BROADCAST,RUNNING,MULTICAST,MULTI_BCAST,PRIVATE,IPv4> mtu 1500 index 7 inet 172.16.0.18 netmask fffffff8 broadcast 172.16.0.23 ether 0:0:0:0:0:2 clprivnet0:3: flags=1009843<UP,BROADCAST,RUNNING,MULTICAST,MULTI_BCAST,PRIVATE,IPv4> mtu 1500 index 7 zone zc1 inet 172.16.0.22 netmask fffffffc broadcast 172.16.0.23
用于专用互连的主机名 clusternodeN-priv,其中 N 是全局群集节点 ID
172.16.0.22 clusternodeN-priv
在创建区域群集时在 clzonecluster 命令中指定的每个 net 资源
按照《Oracle Solaris Trusted Extensions 管理员操作过程》中的 "构建远程主机模板的过程" 所述,使用 Solaris Management Console 中的安全模板向导执行以下任务。
为区域群集组件使用的 IP 地址创建新条目并为每个条目分配一个 CIPSO 模板。
为区域群集节点的 /etc/inet/hosts 文件中存在的以下各个 IP 地址添加条目:
每个区域群集节点专用 IP 地址
区域群集中的所有 cl_privnet IP 地址
区域群集的每个逻辑主机名公共 IP 地址
区域群集的每个共享地址公共 IP 地址
相应条目应类似如下。
127.0.0.1:cipso 172.16.4.1:cipso 172.16.4.2:cipso …
添加一个条目,使默认模板成为内部模板。
0.0.0.0:internal
有关 CIPSO 模板的更多信息,请参见《Oracle Solaris Trusted Extensions 配置指南》中的 "配置解释域"。
phys-schost# init -g0 -y -i6
对区域群集的每个节点执行以下命令。
phys-schost# zlogin zcnode zcnode# svcadm enable svc:/network/dns/client:default zcnode# svcadm enable svc:/network/login:rlogin zcnode# reboot
示例 7-2 用来创建区域群集的配置文件
以下示例显示了可以与 clzonecluster 实用程序一起用来创建区域群集的命令文件的内容。该文件包含一系列需要您手动输入的 clzonecluster 命令。
在下面的配置中,将在全局群集节点 phys-schost-1 上创建区域群集 sczone。区域群集将 /zones/sczone 用作区域路径以及公共 IP 地址 172.16.2.2。区域群集的第一个节点被指定主机名 zc-host-1,并使用网络地址 172.16.0.1 和 bge0 适配器。区域群集的第二个节点是在全局群集节点 phys-schost-2 上创建的。第二个区域群集节点被指定主机名 zc-host-2,并且使用网络地址 172.16.0.2 和 bge1 适配器。
create set zonepath=/zones/sczone add net set address=172.16.2.2 end add node set physical-host=phys-schost-1 set hostname=zc-host-1 add net set address=172.16.0.1 set physical=bge0 end end add sysid set root_password=encrypted_password end add node set physical-host=phys-schost-2 set hostname=zc-host-2 add net set address=172.16.0.2 set physical=bge1 end end commit exit
示例 7-3 使用配置文件创建区域群集
以下示例显示了使用配置文件 sczone-config 在全局群集节点 phys-schost-1 上创建新的区域群集 sczone 时所用的命令。区域群集节点的主机名为 zc-host-1 和 zc-host-2。
phys-schost-1# clzonecluster configure -f sczone-config sczone phys-schost-1# clzonecluster verify sczone phys-schost-1# clzonecluster install sczone Waiting for zone install commands to complete on all the nodes of the zone cluster "sczone"... phys-schost-1# clzonecluster boot sczone Waiting for zone boot commands to complete on all the nodes of the zone cluster "sczone"... phys-schost-1# clzonecluster status sczone === Zone Clusters === --- Zone Cluster Status --- Name Node Name Zone HostName Status Zone Status ---- --------- ------------- ------ ----------- sczone phys-schost-1 zc-host-1 Offline Running phys-schost-2 zc-host-2 Offline Running
接下来的步骤
要向区域群集中添加文件系统,请转至向区域群集中添加文件系统。
要向区域群集中添加全局存储设备,请转至向区域群集中添加存储设备。
另请参见
要修补区域群集,请按照《Oracle Solaris Cluster 系统管理指南》中的第 11 章 "修补 Oracle Solaris Cluster 软件和固件"中的过程操作。这些过程包括有关区域群集的特殊说明(如有需要)。
本节介绍了添加供区域群集使用的文件系统的过程。
在将某个文件系统添加到区域群集并使其联机之后,将授权在该区域群集中使用文件系统。要挂载文件系统以供使用,可通过使用群集资源(例如 SUNW.HAStoragePlus 或 SUNW.ScalMountPoint)来配置文件系统。
本节包含以下过程:
此外,要将 ZFS 存储池配置为在区域群集中具有高可用性,请参见《Oracle Solaris Cluster Data Services Planning and Administration Guide》中的"How to Set Up the HAStoragePlus Resource Type to Make a Local Solaris ZFS Highly Available"。
执行此过程可在全局群集上添加供区域群集使用的本地文件系统。
注 - 要向区域群集中添加 ZFS 池,请改为执行如何向区域群集中添加 ZFS 存储池中的过程。
或者,要将 ZFS 存储池配置为在区域群集中具有高可用性,请参见《Oracle Solaris Cluster Data Services Planning and Administration Guide》中的"How to Set Up the HAStoragePlus Resource Type to Make a Local Solaris ZFS Highly Available"。
注 - 请从全局群集的某个节点执行此过程的所有步骤。
确保在共享磁盘上创建了文件系统。
phys-schost# clzonecluster configure zoneclustername clzc:zoneclustername> add fs clzc:zoneclustername:fs> set dir=mountpoint clzc:zoneclustername:fs> set special=disk-device-name clzc:zoneclustername:fs> set raw=raw-disk-device-name clzc:zoneclustername:fs> set type=FS-type clzc:zoneclustername:fs> end clzc:zoneclustername> verify clzc:zoneclustername> commit clzc:zoneclustername> exit
指定文件系统挂载点
指定磁盘设备的名称
指定原始磁盘设备的名称
指定文件系统的类型
注 - 启用 UFS 和 VxFS 文件系统的日志记录功能。
phys-schost# clzonecluster show -v zoneclustername
示例 7-4 向区域群集中添加本地文件系统
此示例将添加供 sczone 区域群集使用的本地文件系统 /global/oracle/d1。
phys-schost-1# clzonecluster configure sczone clzc:sczone> add fs clzc:sczone:fs> set dir=/global/oracle/d1 clzc:sczone:fs> set special=/dev/md/oracle/dsk/d1 clzc:sczone:fs> set raw=/dev/md/oracle/rdsk/d1 clzc:sczone:fs> set type=ufs clzc:sczone:fs> add options [logging] clzc:sczone:fs> end clzc:sczone> verify clzc:sczone> commit clzc:sczone> exit phys-schost-1# clzonecluster show -v sczone … Resource Name: fs dir: /global/oracle/d1 special: /dev/md/oracle/dsk/d1 raw: /dev/md/oracle/rdsk/d1 type: ufs options: [logging] cluster-control: [true] …
接下来的步骤
通过使用 HAStoragePlus 资源将文件系统配置为具有高可用性。HAStoragePlus 资源管理区域群集节点上文件系统的挂载,该节点当前托管配置为使用该文件系统的应用程序。请参见《Oracle Solaris Cluster Data Services Planning and Administration Guide》中的"Enabling Highly Available Local File Systems"。
执行此过程可添加供区域群集使用的 ZFS 存储池。
注 - 要将 ZFS 存储池配置为在区域群集中具有高可用性,请参见《Oracle Solaris Cluster Data Services Planning and Administration Guide》中的"How to Set Up the HAStoragePlus Resource Type to Make a Local Solaris ZFS Highly Available"。
注 - 从全局区域的节点执行此过程的所有步骤。
注 - 请确保该池连接到与区域群集的所有节点相连的共享磁盘。
有关创建 ZFS 池的过程,请参见《Oracle Solaris ZFS 管理指南》。
phys-schost# clzonecluster configure zoneclustername clzc:zoneclustername> add dataset clzc:zoneclustername:dataset> set name=ZFSpoolname clzc:zoneclustername:dataset> end clzc:zoneclustername> verify clzc:zoneclustername> commit clzc:zoneclustername> exit
phys-schost# clzonecluster show -v zoneclustername
示例 7-5 向区域群集中添加 ZFS 存储池
以下示例显示了将 ZFS 存储池 zpool1 添加到区域群集 sczone 中的过程。
phys-schost-1# clzonecluster configure sczone clzc:sczone> add dataset clzc:sczone:dataset> set name=zpool1 clzc:sczone:dataset> end clzc:sczone> verify clzc:sczone> commit clzc:sczone> exit phys-schost-1# clzonecluster show -v sczone … Resource Name: dataset name: zpool1 …
接下来的步骤
通过使用 HAStoragePlus 资源将 ZFS 存储池配置为具有高可用性。HAStoragePlus 资源管理区域群集节点上的池中的文件系统的挂载,该节点当前托管配置为使用该文件系统的应用程序。请参见《Oracle Solaris Cluster Data Services Planning and Administration Guide》中的"Enabling Highly Available Local File Systems"。
执行此过程可添加供区域群集使用的 Sun QFS 共享文件系统。
注 - 目前,仅支持在通过 Oracle Real Application Clusters (RAC) 配置的群集中使用 QFS 共享文件系统。在不是通过 Oracle RAC 配置的群集上,可以使用配置为高可用性本地文件系统的单机 QFS 文件系统。
注 - 从全局群集的投票节点执行此过程的所有步骤。
请遵循使用 Sun Cluster 配置 Sun QFS 文件系统中用于共享文件系统的过程。
phys-schost# vi /etc/vfstab
phys-schost# clzonecluster configure zoneclustername clzc:zoneclustername> add fs clzc:zoneclustername:fs> set dir=mountpoint clzc:zoneclustername:fs> set special=QFSfilesystemname clzc:zoneclustername:fs> set type=samfs clzc:zoneclustername:fs> end clzc:zoneclustername> verify clzc:zoneclustername> commit clzc:zoneclustername> exit
请转至步骤 7。
phys-schost# clzonecluster configure zoneclustername clzc:zoneclustername> add fs clzc:zoneclustername:fs> set dir=lofs-mountpoint clzc:zoneclustername:fs> set special=QFS-mountpoint clzc:zoneclustername:fs> set type=lofs clzc:zoneclustername:fs> end clzc:zoneclustername> verify clzc:zoneclustername> commit clzc:zoneclustername> exit
phys-schost# clzonecluster show -v zoneclustername
示例 7-6 将 QFS 共享文件系统以直接挂载形式添加到区域群集
以下示例显示了将 QFS 共享文件系统 Data-cz1 添加到区域群集 sczone 中的过程。在全局群集中,该文件系统的挂载点为 /zones/sczone/root/db_qfs/Data1,其中 /zones/sczone/root/ 是区域的根路径。在区域群集节点内,该文件系统的挂载点为 /db_qfs/Data1。
phys-schost-1# vi /etc/vfstab #device device mount FS fsck mount mount #to mount to fsck point type pass at boot options # Data-cz1 - /zones/sczone/root/db_qfs/Data1 samfs - no shared,notrace phys-schost-1# clzonecluster configure sczone clzc:sczone> add fs clzc:sczone:fs> set dir=/db_qfs/Data1 clzc:sczone:fs> set special=Data-cz1 clzc:sczone:fs> set type=samfs clzc:sczone:fs> end clzc:sczone> verify clzc:sczone> commit clzc:sczone> exit phys-schost-1# clzonecluster show -v sczone … Resource Name: fs dir: /db_qfs/Data1 special: Data-cz1 raw: type: samfs options: [] …
示例 7-7 将 QFS 共享文件系统作为回送文件系统添加到区域群集
以下示例显示了将带有挂载点 /db_qfs/Data1 的 QFS 共享文件系统添加到区域群集 sczone 中的过程。在挂载点 /db_qfs/Data-cz1 处使用回送挂载机制可将该文件系统添加到区域群集。
phys-schost-1# vi /etc/vfstab #device device mount FS fsck mount mount #to mount to fsck point type pass at boot options # Data-cz1 - /db_qfs/Data1 samfs - no shared,notrace phys-schost-1# clzonecluster configure sczone clzc:sczone> add fs clzc:sczone:fs> set dir=/db_qfs/Data-cz1 clzc:sczone:fs> set special=/db_qfs/Data clzc:sczone:fs> set type=lofs clzc:sczone:fs> end clzc:sczone> verify clzc:sczone> commit clzc:sczone> exit phys-schost-1# clzonecluster show -v sczone … Resource Name: fs dir: /db_qfs/Data1 special: Data-cz1 raw: type: lofs options: [] cluster-control: [true] …
执行此过程可添加供区域群集使用的群集文件系统。
注 - 从全局群集的投票节点执行此过程的所有步骤。
phys-schost# vi /etc/vfstab … /dev/global/dsk/d12s0 /dev/global/rdsk/d12s0/ /global/fs ufs 2 no global, logging
phys-schost# clzonecluster configure zoneclustername clzc:zoneclustername> add fs clzc:zoneclustername:fs> set dir=zonecluster-lofs-mountpoint clzc:zoneclustername:fs> set special=globalcluster-mountpoint clzc:zoneclustername:fs> set type=lofs clzc:zoneclustername:fs> end clzc:zoneclustername> verify clzc:zoneclustername> commit clzc:zoneclustername> exit
指定 LOFS 的文件系统挂载点以使群集文件系统可用于区域群集。
指定全局群集中原始群集文件系统的文件系统挂载点。
有关创建回送文件系统的更多信息,请参见《系统管理指南:设备和文件系统》中的"如何创建和挂载 LOFS 文件系统"。
phys-schost# clzonecluster show -v zoneclustername
示例 7-8 向区域群集中添加群集文件系统
以下示例显示了如何将带有挂载点 /global/apache 的群集文件系统添加到区域群集中。在挂载点 /zone/apache 处使用回送挂载机制可将该文件系统添加到区域群集中。
phys-schost-1# vi /etc/vfstab #device device mount FS fsck mount mount #to mount to fsck point type pass at boot options # /dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/apache ufs 2 yes global, logging phys-schost-1# clzonecluster configure zoneclustername clzc:zoneclustername> add fs clzc:zoneclustername:fs> set dir=/zone/apache clzc:zoneclustername:fs> set special=/global/apache clzc:zoneclustername:fs> set type=lofs clzc:zoneclustername:fs> end clzc:zoneclustername> verify clzc:zoneclustername> commit clzc:zoneclustername> exit phys-schost-1# clzonecluster show -v sczone … Resource Name: fs dir: /zone/apache special: /global/apache raw: type: lofs options: [] cluster-control: true …
接下来的步骤
通过使用 HAStoragePlus 资源将群集文件系统配置为在区域群集中可用。HAStoragePlus 资源通过以下方式进行管理:在全局群集中挂载文件系统,然后在当前托管已配置为使用该文件系统的应用程序的区域群集节点上执行回送挂载。有关更多信息,请参见《Oracle Solaris Cluster Data Services Planning and Administration Guide》中的"Configuring an HAStoragePlus Resource for Cluster File Systems"。
执行此过程可添加供区域群集使用的 Oracle ACFS 文件系统。
开始之前
确保已创建 Oracle ACFS 文件系统,并且已准备好供区域群集使用。请参见如何创建 Oracle ACFS 文件系统。
从一个节点的全局区域执行该步骤。
# clzonecluster configure zonecluster clzc:zonecluster> add fs clzc:zonecluster:fs> set dir=mountpoint clzc:zonecluster:fs> set special=/dev/asm/volume-dev-path clzc:zonecluster:fs> set type=acfs clzc:zonecluster:fs> end clzc:zonecluster> exit
# clzonecluster show zonecluster … Resource Name: fs dir: mountpoint special /dev/asm/volume-dev-path raw: type: acfs options: [] cluster-control: true …
本节介绍了如何添加供区域群集直接使用的全局存储设备。全局设备是指可以由群集中的多个节点访问(可以一次只供一个节点访问,也可以同时供多个节点访问)的设备。
在将某个设备添加到区域群集中之后,此设备将在该区域群集中可见。
本节包含以下过程:
执行此过程可将 Solaris Volume Manager 磁盘集的单个元设备添加到区域群集中。
请从全局群集的一个节点中执行此过程的所有步骤。
phys-schost# cldevicegroup status
phys-schost# cldevicegroup online diskset
phys-schost# ls -l /dev/md/diskset lrwxrwxrwx 1 root root 8 Jul 22 23:11 /dev/md/diskset -> shared/setnumber
您必须对每个 set match= 条目使用单独的 add device 会话。
注 - 在路径名称中使用星号 (*) 作为通配符。
phys-schost# clzonecluster configure zoneclustername clzc:zoneclustername> add device clzc:zoneclustername:device> set match=/dev/md/diskset/*dsk/metadevice clzc:zoneclustername:device> end clzc:zoneclustername> add device clzc:zoneclustername:device> set match=/dev/md/shared/setnumber/*dsk/metadevice clzc:zoneclustername:device> end clzc:zoneclustername> verify clzc:zoneclustername> commit clzc:zoneclustername> exit
指定元设备的完整逻辑设备路径
指定磁盘集编号的完整物理设备路径
所做的更改将在区域群集重新引导之后生效。
phys-schost# clzonecluster reboot zoneclustername
示例 7-9 向区域群集中添加元设备
以下示例显示了如何将磁盘集 oraset 中的元设备 d1 添加到 sczone 区域群集中。该磁盘集的编号为 3。
phys-schost-1# clzonecluster configure sczone clzc:sczone> add device clzc:sczone:device> set match=/dev/md/oraset/*dsk/d1 clzc:sczone:device> end clzc:sczone> add device clzc:sczone:device> set match=/dev/md/shared/3/*dsk/d1 clzc:sczone:device> end clzc:sczone> verify clzc:sczone> commit clzc:sczone> exit phys-schost-1# clzonecluster reboot sczone
执行此过程可将整个 Solaris Volume Manager 磁盘集添加到区域群集中。
请从全局群集的一个节点中执行此过程的所有步骤。
phys-schost# cldevicegroup status
phys-schost# cldevicegroup online diskset
phys-schost# ls -l /dev/md/diskset lrwxrwxrwx 1 root root 8 Jul 22 23:11 /dev/md/diskset -> shared/setnumber
您必须对每个 set match= 条目使用单独的 add device 会话。
注 - 在路径名称中使用星号 (*) 作为通配符。
phys-schost# clzonecluster configure zoneclustername clzc:zoneclustername> add device clzc:zoneclustername:device> set match=/dev/md/diskset/*dsk/* clzc:zoneclustername:device> end clzc:zoneclustername> add device clzc:zoneclustername:device> set match=/dev/md/shared/setnumber/*dsk/* clzc:zoneclustername:device> end clzc:zoneclustername> verify clzc:zoneclustername> commit clzc:zoneclustername> exit
指定磁盘集的完整逻辑设备路径
指定磁盘集编号的完整物理设备路径
所做的更改将在区域群集重新引导之后生效。
phys-schost# clzonecluster reboot zoneclustername
示例 7-10 向区域群集中添加磁盘集
以下示例显示了如何将磁盘集 oraset 添加到 sczone 区域群集中。该磁盘集的编号为 3。
phys-schost-1# clzonecluster configure sczone clzc:sczone> add device clzc:sczone:device> set match=/dev/md/oraset/*dsk/* clzc:sczone:device> end clzc:sczone> add device clzc:sczone:device> set match=/dev/md/shared/3/*dsk/* clzc:sczone:device> end clzc:sczone> verify clzc:sczone> commit clzc:sczone> exit phys-schost-1# clzonecluster reboot sczone
执行此过程可向区域群集中添加 DID 设备。
请从全局群集的一个节点中执行此过程的所有步骤。
要添加的设备必须连接到区域群集的所有节点。
phys-schost# cldevice list -v
注 - 在路径名称中使用星号 (*) 作为通配符。
phys-schost# clzonecluster configure zoneclustername clzc:zoneclustername> add device clzc:zoneclustername:device> set match=/dev/did/*dsk/dNs* clzc:zoneclustername:device> end clzc:zoneclustername> verify clzc:zoneclustername> commit clzc:zoneclustername> exit
指定 DID 设备的完整设备路径
所做的更改将在区域群集重新引导之后生效。
phys-schost# clzonecluster reboot zoneclustername
示例 7-11 向区域群集中添加 DID 设备
以下示例显示了如何将 DID 设备 d10 添加到 sczone 区域群集中。
phys-schost-1# clzonecluster configure sczone clzc:sczone> add device clzc:sczone:device> set match=/dev/did/*dsk/d10s* clzc:sczone:device> end clzc:sczone> verify clzc:sczone> commit clzc:sczone> exit phys-schost-1# clzonecluster reboot sczone
此类设备不会受 clzonecluster 命令的控制,而是会视为节点的本地设备。有关将原始磁盘设备导出到非全局区域的更多信息,请参见《系统管理指南:Oracle Solaris Containers-资源管理和 Oracle Solaris Zones》中的"如何使用 zonecfg 导入原始设备和块设备"。