跳过导航链接 | |
退出打印视图 | |
![]() |
Oracle Solaris Cluster 软件安装指南 Oracle Solaris Cluster 3.3 3/13 (简体中文) |
1. 规划 Oracle Solaris Cluster 配置
4. 配置 Solaris Volume Manager 软件
本节提供了用于配置 Oracle Solaris Container 非全局区域的群集(称为区域群集)的过程。
clzonecluster 实用程序可用来创建、修改和删除区域群集。clzonecluster 实用程序主动管理区域群集。例如,clzonecluster 实用程序既可以引导区域群集,又可以停止区域群集。clzonecluster 实用程序的进度消息输出到控制台,而不是保存在日志文件中。
与 zonecfg 实用程序类似,该实用程序在以下范围级别运行:
群集范围影响整个区域群集。
节点范围仅影响指定的一个区域群集节点。
资源范围影响特定节点或整个区域群集,具体取决于您从哪个范围进入资源范围。大多数资源只能从节点范围进入。资源范围由以下提示符标识:
clzc:zoneclustername:resource> cluster-wide setting clzc:zoneclustername:node:resource> node-specific setting
您可以使用 clzonecluster 实用程序指定任何 Oracle Solaris Zones 资源参数以及特定于区域群集的参数。有关可以在区域群集中设置的参数的信息,请参见 clzonecluster(1CL) 手册页。有关 Oracle Solaris Zones 资源参数的其他信息,请参见 zonecfg(1M) 手册页。
本节介绍了如何配置非全局区域的群集。
此过程对全局群集进行准备,以便将 Oracle Solaris 软件的 Trusted Extensions 功能与区域群集搭配使用并启用 Trusted Extensions 功能。
如果不打算启用 Trusted Extensions,请转至如何创建区域群集。
请对全局群集中的每个节点执行该过程。
开始之前
执行以下任务:
确保已安装了 Oracle Solaris OS 来支持 Oracle Solaris Cluster 和 Trusted Extensions 软件。
如果节点上已安装了 Oracle Solaris 软件,则必须确保 Oracle Solaris 安装满足 Oracle Solaris Cluster 软件和您打算在群集中安装的任何其他软件的要求。Trusted Extensions 软件未包含在 Oracle Solaris 最终用户软件组中。
有关安装 Oracle Solaris 软件以满足 Oracle Solaris Cluster 软件要求的更多信息,请参见如何安装 Oracle Solaris 软件。
确保配置了 LDAP 命名服务,可供 Trusted Extensions 使用。请参见《Oracle Solaris Trusted Extensions 配置指南》中的第 5 章 "为 Trusted Extensions 配置 LDAP(任务)"。
查看有关在区域群集中使用 Trusted Extensions 的准则。请参见区域群集中使用 Trusted Extensions 的准则。
Trusted Extensions zoneshare 和 zoneunshare 脚本支持导出系统上主目录的功能。Oracle Solaris Cluster 配置不支持此功能。
通过将每个脚本替换为指向 /bin/true 实用程序的符号链接禁用此功能。在每个全局群集节点上执行此操作。
phys-schost# ln -s /usr/lib/zones/zoneshare /bin/true phys-schost# ln -s /usr/lib/zones/zoneunshare /bin/true
请参见《Oracle Solaris Trusted Extensions 配置指南》中的"运行 txzonemgr 脚本"。
ipaddress:admin_low
从包含 -failover 选项的所有条目中删除该选项。
按照《Trusted Extensions 管理员规程》中的"如何构造远程主机模板"中所述,在 Solaris Management Console 中使用 "Security Templates"(安全模板)向导执行以下任务。
为群集组件所使用的各 IP 地址创建一个新条目,并为每个条目分配一个 CIPSO 模板。
为全局群集节点 /etc/inet/hosts 文件中存在的以下每个 IP 地址添加条目:
每个全局群集节点专用 IP 地址
全局群集中的所有 cl_privnet IP 地址
全局群集的每个逻辑主机名公共 IP 地址
全局群集每个共享地址资源的公共 IP 地址
条目应类似于以下内容。
127.0.0.1:cipso 172.16.4.1:cipso 172.16.4.2:cipso …
添加一个条目,使默认模板成为内部模板。
0.0.0.0:internal
有关 CIPSO 模板的更多信息,请参见《Oracle Solaris Trusted Extensions 配置指南》中的"配置系统解释域"。
phys-schost# svcadm enable -s svc:/system/labeld:default phys-schost# shutdown -g0 -y -i6
有关更多信息,请参见《Oracle Solaris Trusted Extensions 配置指南》中的"启用 Trusted Extensions"。
phys-schost# svcs labeld STATE STIME FMRI online 17:52:55 svc:/system/labeld:default
在所有全局群集节点上完成所有步骤后,请对全局群集的每个节点执行此过程中剩余的步骤。
全局区域和区域群集的节点将使用 LDAP 服务器。
phys-schost# svcadm enable rlogin
通过附加 Tab 并分别键入 allow_remote 或 allow_unlabeled 来修改帐户管理条目,如下所示。
other account requisite pam_roles.so.1 Tab allow_remote other account required pam_unix_account.so.1 Tab allow_unlabeled
确保 passwd 和 group 查找条目将 files 列在查找顺序的首位。
… passwd: files ldap group: files ldap …
确保 hosts 和 netmasks 查找条目将 cluster 列在查找顺序的首位。
… hosts: cluster files ldap … netmasks: cluster files ldap …
请参见《Oracle Solaris Trusted Extensions 配置指南》中的"使全局区域成为 Trusted Extensions 中的客户机"。
按《Oracle Solaris Trusted Extensions 配置指南》中的"在 Trusted Extensions 中创建角色和用户"中所述,在 Solaris Management Console 中使用 "Add User Wizard"(添加用户向导)。
接下来的步骤
创建区域群集。请转至如何创建区域群集。
执行此过程可创建非全局区域的群集。
要在安装区域群集后进行修改,请参见《Oracle Solaris Cluster 系统管理指南》中的"执行区域群集管理任务"和 clzonecluster(1CL) 手册页。
开始之前
创建全局群集。请参见第 3 章。
阅读有关创建区域群集的准则和要求。请参见区域群集。
如果区域群集将使用 Trusted Extensions,请确保您已按如何为 Trusted Extensions 与区域群集搭配使用做好准备中的说明配置并启用 Trusted Extensions。
获取以下信息:
要指定给区域群集的唯一名称。
注 - 要在启用 Trusted Extensions 后配置区域群集,您必须使用该区域群集将用作自身名称的 Trusted Extensions 安全标签的名称。为您要使用的每个 Trusted Extensions 安全标签创建单独的区域群集。
区域群集的节点将使用的区域路径。有关更多信息,请参见《系统管理指南:Oracle Solaris Containers-资源管理和 Oracle Solaris Zones》中的"资源和属性类型"中对 zonepath 属性的描述。
要在其上创建区域群集节点的全局群集中每个节点的名称。
要指定给每个区域群集节点的区域公共主机名或主机别名。
每个区域群集节点使用的公共网络 IPMP 组(如适用)。
每个区域群集节点用来连接到公共网络的公共网络适配器的名称(如果适用)。
注 - 如果不为每个区域群集节点配置 IP 地址,将出现以下两种情况:
该特定区域群集将无法配置要在区域群集中使用的 NAS 设备。群集在与 NAS 设备通信时将使用区域群集节点的 IP 地址,所以缺失 IP 地址会阻止对隔离 NAS 设备的群集支持。
群集软件将激活所有 NIC 上的所有逻辑主机 IP 地址。
注 - 从全局群集的节点执行此过程中的所有步骤。
如果任一节点处于非群集模式,当该节点返回到群集模式时,所做的更改将进行传播。因此,即使某些全局群集节点处于非群集模式,您也可以创建区域群集。当这些节点返回到群集模式时,系统会对它们执行区域群集创建任务。
phys-schost# clnode status === Cluster Nodes === --- Node Status --- Node Name Status --------- ------ phys-schost-2 Online phys-schost-1 Online
phys-schost# clsetup
这时将显示主菜单。
区域群集名称可包含 ASCII 字母(a-z 和 A-Z)、数字、短划线或下划线。名称的最大长度为 20 个字符。
注 - brand 和 ip-type 属性采用默认设置,不能更改。
您可以设置以下属性:
|
您可以设置以下属性:
|
您可以设置以下属性:
|
您可以设置以下属性:
|
您可以选择一个或所有可用物理节点(或主机),然后每次配置一个区域群集节点。
您可以设置以下属性:
|
网络地址可用于在区域群集中配置逻辑主机名或共享 IP 群集资源。网络地址在区域群集全局范围中。
将会显示配置更改结果,类似于以下内容:
>>> Result of the Creation for the Zone Cluster(sczone) <<< The zone cluster is being created with the following configuration /usr/cluster/bin/clzonecluster configure sczone create set brand=cluster set zonepath=/zones/sczone set ip-type=shared set enable_priv_net=true add capped-memory set physical=2G end add node set physical-host=phys-schost-1 set hostname=zc-host-1 add net set address=172.1.1.1 set physical=net0 end end add net set address=172.1.1.2 end Zone cluster, zc2 has been created and configured successfully. Continue to install the zone cluster(yes/no) ?
clsetup 实用程序将执行区域群集的标准安装,您无法指定任何选项。
verify 子命令用于检查指定资源的可用性。如果 clzonecluster verify 命令成功,则没有任何输出。
phys-schost-1# clzonecluster verify zoneclustername phys-schost-1# clzonecluster status zoneclustername === Zone Clusters === --- Zone Cluster Status --- Name Node Name Zone HostName Status Zone Status ---- --------- ------------- ------ ----------- zone basenode1 zone-1 Offline Configured basenode2 zone-2 Offline Configured
从全局区域中,启动 txzonemgr GUI。
phys-schost# txzonemgr
选择全局区域,然后选择 "Configure per-zone name service"(配置每区域命名服务)项。
phys-schost-1# clzonecluster install [-c config-profile.xml] zoneclustername Waiting for zone install commands to complete on all the nodes of the zone cluster "zoneclustername"...
-c config-profile.xml 选项为区域群集的所有非全局区域指定配置文件。使用该选项仅更改区域的主机名,该主机名对区域群集中的每个区域是唯一的。所有配置文件都必须有 .xml 扩展名。
Installation of the zone cluster might take several minutes phys-schost-1# clzonecluster boot zoneclustername Waiting for zone boot commands to complete on all the nodes of the zone cluster "zoneclustername"...
对每个区域群集节点执行以下步骤。
注 - 在以下步骤中,非全局区域 zcnode 和 zone-cluster-name 共享相同的名称。
phys-schost# zlogin zcnode zcnode# sysconfig unconfigure zcnode# reboot
重新引导期间 zlogin 会话将终止。
phys-schost# zlogin -C zcnode
有关从非全局区域中退出的方法的信息,请参见《系统管理指南:Oracle Solaris Containers-资源管理和 Oracle Solaris Zones》中的"如何退出非全局区域"。
请在区域群集的每个节点上执行此步骤。
phys-schost# cat /etc/cluster/nodeid N
在登录前确保已导入 SMF 服务,且所有服务都处于启动状态。
当群集软件配置区域群集时,将自动分配这些 IP 地址。
在 ifconfig -a 输出中,找到属于区域群集的 clprivnet0 逻辑接口。inet 的值是分配的 IP 地址,用于支持该区域群集使用群集专用互连。
zc1# ifconfig -a lo0:3: flags=20010008c9<UP,LOOPBACK,RUNNING,NOARP,MULTICAST,IPv4,VIRTUAL> mtu 8232 index 1 zone zc1 inet 127.0.0.1 netmask ff000000 bge0: flags=1000843<UP,BROADCAST,RUNNING,MULTICAST,IPv4> mtu 1500 index 2 inet 10.11.166.105 netmask ffffff00 broadcast 10.11.166.255 groupname sc_ipmp0 ether 0:3:ba:19:fa:b7 ce0: flags=9040843<UP,BROADCAST,RUNNING,MULTICAST,DEPRECATED,IPv4,NOFAILOVER> mtu 1500 index 4 inet 10.11.166.109 netmask ffffff00 broadcast 10.11.166.255 groupname sc_ipmp0 ether 0:14:4f:24:74:d8 ce0:3: flags=1000843<UP,BROADCAST,RUNNING,MULTICAST,IPv4> mtu 1500 index 4 zone zc1 inet 10.11.166.160 netmask ffffff00 broadcast 10.11.166.255 clprivnet0: flags=1009843<UP,BROADCAST,RUNNING,MULTICAST,MULTI_BCAST,PRIVATE,IPv4> mtu 1500 index 7 inet 172.16.0.18 netmask fffffff8 broadcast 172.16.0.23 ether 0:0:0:0:0:2 clprivnet0:3: flags=1009843<UP,BROADCAST,RUNNING,MULTICAST,MULTI_BCAST,PRIVATE,IPv4> mtu 1500 index 7 zone zc1 inet 172.16.0.22 netmask fffffffc broadcast 172.16.0.23
专用互连的主机名 clusternodeN-priv,其中 N 是全局群集节点 ID
172.16.0.22 clusternodeN-priv
创建区域群集时指定给 clzonecluster 命令的 net 资源
按照《Trusted Extensions 管理员规程》中的"如何构造远程主机模板"中所述,在 Solaris Management Console 中使用 "Security Templates"(安全模板)向导执行以下任务。
为区域群集组件所使用的各 IP 地址创建一个新条目,并为每个条目分配一个 CIPSO 模板。
为区域群集节点 /etc/inet/hosts 文件中存在的以下每个 IP 地址添加条目:
每个区域群集节点的专用 IP 地址
区域群集中的所有 cl_privnet IP 地址
区域群集的每个逻辑主机名公共 IP 地址
区域群集每个共享地址资源的公共 IP 地址
条目应类似于以下内容。
127.0.0.1:cipso 172.16.4.1:cipso 172.16.4.2:cipso …
添加一个条目,使默认模板成为内部模板。
0.0.0.0:internal
有关 CIPSO 模板的更多信息,请参见《Oracle Solaris Trusted Extensions 配置指南》中的"配置系统解释域"。
对区域群集的每个节点执行以下命令。
phys-schost# zlogin zcnode zcnode# svcadm enable svc:/network/dns/client:default zcnode# svcadm enable svc:/network/login:rlogin zcnode# reboot
示例 6-2 用来创建区域群集的配置文件
以下示例显示了可以与 clzonecluster 实用程序一起用来创建区域群集的命令文件的内容。该文件包含一系列需要您手动输入的 clzonecluster 命令。
在下面的配置中,将在全局群集节点 phys-schost-1 上创建区域群集 sczone。区域群集使用 /zones/sczone 作为区域路径,并使用公共 IP 地址 172.16.2.2。区域群集的第一个节点被指定了主机名 zc-host-1,并且使用网络地址 172.16.0.1 和 bge0 适配器。区域群集的第二个节点在全局群集节点 phys-schost-2 上进行创建。第二个区域群集节点被指定了主机名 zc-host-2,并且使用网络地址 172.16.0.2 和 bge1 适配器。
create set zonepath=/zones/sczone add net set address=172.16.2.2 end add node set physical-host=phys-schost-1 set hostname=zc-host-1 add net set address=172.16.0.1 set physical=bge0 end end add sysid set root_password=encrypted_password end add node set physical-host=phys-schost-2 set hostname=zc-host-2 add net set address=172.16.0.2 set physical=bge1 end end commit exit
接下来的步骤
要向区域群集中添加文件系统,请转至向区域群集中添加文件系统。
要向区域群集中添加全局存储设备,请转至向区域群集中添加存储设备。
另请参见
要对区域群集进行修补,请按《Oracle Solaris Cluster 系统管理指南》中的第 11 章 "修补 Oracle Solaris Cluster 软件和固件"中的过程操作。这些过程包括有关区域群集的特殊说明(如有需要)。
本节介绍了添加供区域群集使用的文件系统的过程。
在将某个文件系统添加到区域群集并使其联机之后,将授权在该区域群集中使用文件系统。要挂载文件系统以供使用,可通过使用群集资源(例如 SUNW.HAStoragePlus 或 SUNW.ScalMountPoint)来配置文件系统。
本节包含以下过程:
此外,要将 ZFS 存储池配置为在区域群集中具有高可用性,请参见《Oracle Solaris Cluster Data Services Planning and Administration Guide》中的"How to Set Up the HAStoragePlus Resource Type to Make a Local Solaris ZFS Highly Available"。
执行此过程可在全局群集上配置高可用性本地文件系统,供区域群集使用。此文件系统添加到区域群集,并为其配置 HAStoragePlus 资源,以实现本地文件系统的高可用性。
请从全局群集的节点上执行此过程中的所有步骤。
注 - 请从全局群集的节点上执行此过程中的所有步骤。
phys-schost# clsetup
这时将显示主菜单。
提示 - 要返回到上一个屏幕,请键入 < 键,然后按回车键。
此时将显示 "Zone Cluster Tasks"(区域群集任务)菜单。
此时将显示 "Select Zone Cluster"(选择区域群集)菜单。
此时将显示 "Storage Type Selection"(存储类型选择)菜单。
此时将显示 "File System Selection for the Zone Cluster"(区域群集的文件系统选择)菜单。
列表中的文件系统是在共享磁盘上配置的,可由配置有区域群集的节点进行访问。还可以键入 e 手动指定文件系统的所有属性。
此时将显示 "Mount Type Selection"(挂载类型选择)菜单。
此时将显示 "File System Properties for the Zone Cluster"(区域群集的文件系统属性)菜单。
完成后,键入 d 并按回车键。
将会显示配置更改结果。
phys-schost# clzonecluster show -v zoneclustername
示例 6-3 向区域群集中添加高可用性本地文件系统
此示例将添加供 sczone 区域群集使用的本地文件系统 /global/oracle/d1。
phys-schost-1# clzonecluster configure sczone clzc:sczone> add fs clzc:sczone:fs> set dir=/global/oracle/d1 clzc:sczone:fs> set special=/dev/md/oracle/dsk/d1 clzc:sczone:fs> set raw=/dev/md/oracle/rdsk/d1 clzc:sczone:fs> set type=ufs clzc:sczone:fs> add options [logging] clzc:sczone:fs> end clzc:sczone> verify clzc:sczone> commit clzc:sczone> exit phys-schost-1# clzonecluster show -v sczone … Resource Name: fs dir: /global/oracle/d1 special: /dev/md/oracle/dsk/d1 raw: /dev/md/oracle/rdsk/d1 type: ufs options: [logging] cluster-control: [true] …
接下来的步骤
通过使用 HAStoragePlus 资源将文件系统配置为具有高可用性。HAStoragePlus 资源管理区域群集节点上文件系统的挂载,该节点当前托管配置为使用该文件系统的应用程序。请参见《Oracle Solaris Cluster Data Services Planning and Administration Guide》中的"Enabling Highly Available Local File Systems"。
执行此过程可添加供区域群集使用的 ZFS 存储池。该池可以是单个区域群集节点的本地池,或通过 HAStoragePlus 配置为高可用性池。
clsetup 实用程序将搜索并显示共享磁盘上所有已配置的 ZFS 池,这些共享磁盘可由配置有选定区域群集的节点访问。当您使用 clsetup 实用程序向现有区域群集添加群集范围的 ZFS 存储池后,可以使用 clzonecluster 命令修改配置或在节点范围内添加 ZFS 存储池。
开始之前
请确保该 ZFS 池连接到与区域群集的所有节点相连的共享磁盘。有关创建 ZFS 池的过程,请参见《Oracle Solaris ZFS 管理指南》。
注 - 从全局区域的节点执行此过程中的所有步骤。
phys-schost# clsetup
这时将显示主菜单。
提示 - 要返回到上一个屏幕,请键入 < 键,然后按回车键。
此时将显示 "Zone Cluster Tasks"(区域群集任务)菜单。
此时将显示 "Select Zone Cluster"(选择区域群集)菜单。
此时将显示 "Storage Type Selection"(存储类型选择)菜单。
此时将显示 "ZFS Pool Selection for the Zone Cluster"(区域群集的 ZFS 池选择)菜单。
列表中的 ZFS 池是在共享磁盘上配置的,可由配置有区域群集的节点进行访问。还可以键入 e 手动指定 ZFS 池的属性。
此时将显示 "ZFS Pool Dataset Property for the Zone Cluster"(区域群集的 ZFS 池数据集属性)菜单。向选定的 ZFS 池指定了 name 属性。
此时将显示 "Review File Systems/Storage Devices for the Zone Cluster"(查看区域群集的文件系统/存储设备)菜单。
将会显示配置更改结果。例如:
>>> Result of Configuration Change to the Zone Cluster(sczone) <<< Adding file systems or storage devices to sczone zone cluster... The zone cluster is being created with the following configuration /usr/cluster/bin/clzonecluster configure sczone add dataset set name=myzpool5 end Configuration change to sczone zone cluster succeeded.
phys-schost# clzonecluster show -v zoneclustername
示例 6-4 向区域群集中添加 ZFS 存储池
以下示例显示了将 ZFS 存储池 zpool1 添加到区域群集 sczone 中的过程。
phys-schost-1# clzonecluster configure sczone clzc:sczone> add dataset clzc:sczone:dataset> set name=zpool1 clzc:sczone:dataset> end clzc:sczone> verify clzc:sczone> commit clzc:sczone> exit phys-schost-1# clzonecluster show -v sczone … Resource Name: dataset name: zpool1 …
接下来的步骤
通过使用 HAStoragePlus 资源将 ZFS 存储池配置为具有高可用性。在配置为使用文件系统的应用程序当前所在的区域群集节点上,HAStoragePlus 资源在池中管理文件系统的挂载。请参见《Oracle Solaris Cluster Data Services Planning and Administration Guide》中的"Enabling Highly Available Local File Systems"。
clsetup 实用程序将搜索并显示可用的文件系统,这些文件系统是在配置有选定区域群集的群集节点上配置的。当您使用 clsetup 实用程序添加文件系统时,文件系统是在群集范围内添加的。
您可以向区域群集添加以下类型的群集文件系统:
UFS 群集文件系统-使用 global 挂载选项在 /etc/vfstab 文件中指定文件系统类型。该文件系统可位于共享磁盘或 Solaris Volume Manager 设备上。
Sun QFS 共享文件系统-使用 shared 挂载选项在 /etc/vfstab 文件中指定文件系统类型。
注 - 目前,仅支持在配置有 Oracle Real Application Clusters (RAC) 的群集中使用 QFS 共享文件系统。在未配置有 Oracle RAC 的群集上,您可以使用配置为高可用性本地文件系统的单机 QFS 文件系统。
ACFS-基于您提供的 ORACLE_HOME 路径进行自动搜索。
开始之前
请确保配置了您要添加到区域群集的群集文件系统。请参见规划群集文件系统和第 5 章。
注 - 请从全局群集的一个投票节点中执行此过程的所有步骤。
phys-schost# vi /etc/vfstab
phys-schost# clsetup
这时将显示主菜单。
提示 - 要返回到上一个屏幕,请键入 < 键,然后按回车键。
此时将显示 "Zone Cluster Tasks"(区域群集任务)菜单。
此时将显示 "Select Zone Cluster"(选择区域群集)菜单。
此时将显示 "Storage Type Selection"(存储类型选择)菜单。
此时将显示 "File System Selection for the Zone Cluster"(区域群集的文件系统选择)菜单。
此时将显示 "Mount Type Selection"(挂载类型选择)菜单。
还可以键入 e 手动指定文件系统的所有属性。
注 - 如果使用 ACFS 文件系统,请键入 a 以选择 Discover ACFS,然后指定 ORACLE_HOME 目录。
有关创建回送文件系统的更多信息,请参见《System Administration Guide: Devices and File Systems》中的"How to Create and Mount an LOFS File System"。
此时将显示 "File System Properties for the Zone Cluster"(区域群集的文件系统属性)菜单。
键入 dir 属性的编号,然后按回车键。在 "New Value"(新值)字段中键入 LOFS 挂载点目录名称,然后按回车键。
完成后,键入 d 并按回车键。此时将显示 "Review File Systems/Storage Devices for the Zone Cluster"(查看区域群集的文件系统/存储设备)菜单。
将会显示配置更改结果。例如:
>>> Result of Configuration Change to the Zone Cluster(sczone) <<< Adding file systems or storage devices to sczone zone cluster... The zone cluster is being created with the following configuration /usr/cluster/bin/clzonecluster configure sczone add fs set dir=/dev/md/ddg/dsk/d9 set special=/dev/md/ddg/dsk/d10 set raw=/dev/md/ddg/rdsk/d10 set type=lofs end Configuration change to sczone zone cluster succeeded.
phys-schost# clzonecluster show -v zoneclustername
接下来的步骤
(可选)配置由 HAStoragePlus 资源管理的群集文件系统。HAStoragePlus 资源的管理方法是,在全局群集中挂载文件系统,并稍后在配置为使用该文件系统的应用程序当前所在的区域群集节点上执行回送挂载。有关更多信息,请参见《Oracle Solaris Cluster Data Services Planning and Administration Guide》中的"Configuring an HAStoragePlus Resource for Cluster File Systems"。
本节介绍了如何添加专用于单个区域群集节点的文件系统。要配置供整个区域群集使用的文件系统,请转至向区域群集中添加文件系统。
本节包含以下过程:
执行此过程可向特定区域群集的某个特定区域群集节点添加本地文件系统。该文件系统不是由 Oracle Solaris Cluster 软件进行管理,而是传送到底层 Oracle Solaris 区域。
注 - 请从全局群集的节点上执行此过程中的所有步骤。
使用要配置的区域群集节点所在的全局群集节点的本地磁盘。
phys-schost# clzonecluster configure zoneclustername clzc:zoneclustername> select node physical-host=baseclusternode clzc:zoneclustername:node> add fs clzc:zoneclustername:node:fs> set dir=mountpoint clzc:zoneclustername:node:fs> set special=disk-device-name clzc:zoneclustername:node:fs> set raw=raw-disk-device-name clzc:zoneclustername:node:fs> set type=FS-type clzc:zoneclustername:node:fs> end clzc:zoneclustername:node> end clzc:zoneclustername> verify clzc:zoneclustername> commit clzc:zoneclustername> exit
指定文件系统挂载点
指定磁盘设备的名称
指定原始磁盘设备的名称
指定文件系统的类型
注 - 启用 UFS 文件系统的日志记录功能。
phys-schost# clzonecluster show -v zoneclustername
示例 6-5 向区域群集节点添加本地文件系统
此示例将添加本地 UFS 文件系统 /local/data,供区域群集 sczone 的节点使用。该区域群集节点位于全局群集节点 phys-schost-1 上。
phys-schost-1# clzonecluster configure sczone clzc:sczone> select node physical-host=phys-schost-1 clzc:sczone:node> add fs clzc:sczone:node:fs> set dir=/local/data clzc:sczone:node:fs> set special=/dev/md/localdg/dsk/d1 clzc:sczone:node:fs> set raw=/dev/md/localdg/rdsk/d1 clzc:sczone:node:fs> set type=ufs clzc:sczone:node:fs> add options [logging] clzc:sczone:node:fs> end clzc:sczone:node> end clzc:sczone> verify clzc:sczone> commit clzc:sczone> exit phys-schost-1# clzonecluster show -v sczone … --- Solaris Resources for phys-schost-1 --- … Resource Name: fs dir: /local/data special: /dev/md/localdg/dsk/d1 raw: /dev/md/localdg/rdsk/d1 type: ufs options: [logging] cluster-control: false ...
执行此过程可向特定区域群集节点添加本地 ZFS 存储池。本地 ZFS 池不是由 Oracle Solaris Cluster 软件进行管理,而是传送到底层 Oracle Solaris 区域。
请从全局群集的节点上执行此过程中的所有步骤。
注 - 请从全局群集的节点上执行此过程中的所有步骤。
使用要配置的区域群集节点所在的全局群集节点的本地磁盘。
phys-schost# clzonecluster configure zoneclustername clzc:zoneclustername> select node physical-host=baseclusternode clzc:zoneclustername:node> add dataset clzc:zoneclustername:node:dataset> set name=localZFSpoolname clzc:zoneclustername:node:dataset> end clzc:zoneclustername:node> end clzc:zoneclustername> verify clzc:zoneclustername> commit clzc:zoneclustername> exit
指定本地 ZFS 池的名称
phys-schost# clzonecluster show -v zoneclustername
示例 6-6 向区域群集节点添加本地 ZFS 池
此示例将添加本地 ZFS 池 local_pool,供区域群集 sczone 的一个节点使用。该区域群集节点位于全局群集节点 phys-schost-1 上。
phys-schost-1# clzonecluster configure sczone clzc:sczone> select node physical-host=phys-schost-1 clzc:sczone:node> add dataset clzc:sczone:node:dataset> set name=local_pool clzc:sczone:node:dataset> end clzc:sczone:node> end clzc:sczone> verify clzc:sczone> commit clzc:sczone> exit phys-schost-1# clzonecluster show -v sczone … --- Solaris Resources for phys-schost-1 --- … Resource Name: dataset name: local_pool
本节介绍如何添加供区域群集直接使用的全局存储设备,或添加专用于单个区域群集节点的存储设备。全局设备是指可以由群集中的多个节点访问(可以一次只供一个节点访问,也可以同时供多个节点访问)的设备。
在将某个设备添加到区域群集中之后,此设备将在该区域群集中可见。
本节包含以下过程:
执行此过程可在群集范围内添加以下类型之一的存储设备:
原始磁盘设备
Solaris Volume Manager 磁盘集(不包括多属主类型)
clsetup 实用程序将搜索并显示可用的存储设备,这些存储设备是在配置有选定区域群集的群集节点上配置的。使用 clsetup 实用程序向现有区域群集添加存储设备后,可使用 clzonecluster 命令修改配置。有关使用 clzonecluster 命令从区域群集中删除存储设备的说明,请参见《Oracle Solaris Cluster 系统管理指南》中的"如何从区域群集中删除存储设备"。
注 - 请从全局群集的节点上执行此过程中的所有步骤。
phys-schost# cldevicegroup status
phys-schost# cldevicegroup online device
phys-schost# clsetup
这时将显示主菜单。
提示 - 要返回到上一个屏幕,请键入 < 键,然后按回车键。
此时将显示 "Zone Cluster Tasks"(区域群集任务)菜单。
此时将显示 "Select Zone Cluster"(选择区域群集)菜单。
此时将显示 "Storage Type Selection"(存储类型选择)菜单。
此时将显示可用设备的列表。
还可以键入 e,以手动指定存储设备的属性。
此时将显示 "Storage Device Property for the Zone Cluster"(区域群集的存储设备属性)菜单。
注 - 在路径名称中使用星号 (*) 作为通配符。
完成后,键入 d 并按回车键。此时将显示 "Review File Systems/Storage Devices for the Zone Cluster"(查看区域群集的文件系统/存储设备)菜单。
将会显示配置更改结果。例如:
>>> Result of Configuration Change to the Zone Cluster(sczone) <<< Adding file systems or storage devices to sczone zone cluster... The zone cluster is being created with the following configuration /usr/cluster/bin/clzonecluster configure sczone add device set match=/dev/md/ddg/*dsk/* end add device set match=/dev/md/shared/1/*dsk/* end Configuration change to sczone zone cluster succeeded. The change will become effective after the zone cluster reboots.
phys-schost# clzonecluster show -v zoneclustername
执行此过程可向特定区域群集节点添加原始磁盘设备。此设备将不受 Oracle Solaris Cluster 控制。请从全局群集的节点上执行此过程中的所有步骤。
注 - 请从全局群集的节点上执行此过程中的所有步骤。
注 - 在路径名称中使用星号 (*) 作为通配符。
phys-schost# clzonecluster configure zone-cluster-name clzc:zone-cluster-name> select node physical-host=baseclusternode clzc:zone-cluster-name:node> add device clzc:zone-cluster-name:node:device> set match=/dev/*dsk/cNtXdYs* clzc:zone-cluster-name:node:device> end clzc:zone-cluster-name:node> end clzc:zone-cluster-name> verify clzc:zone-cluster-name> commit clzc:zone-cluster-name> exit
指定原始磁盘设备的完整设备路径
phys-schost# clzonecluster show -v zoneclustername
示例 6-7 向特定区域群集节点添加原始磁盘设备
以下示例将添加原始磁盘设备 c1t1d0s0 ,供区域群集 sczone 的某个节点使用。该区域群集节点位于全局群集节点 phys-schost-1 上。
phys-schost-1# clzonecluster configure sczone clzc:sczone> select node physical-host=phys-schost-1 clzc:sczone:node> add device clzc:sczone:node:device> set match=/dev/*dsk/c1t1d0s0 clzc:sczone:node:device> end clzc:sczone:node> end clzc:sczone> verify clzc:sczone> commit clzc:sczone> exit phys-schost-1# clzonecluster show -v sczone … --- Solaris Resources for phys-schost-1 --- … Resource Name: device name: /dev/*dsk/c1t1d0s0